PDA

View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT


Pagine : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

ATi7500
14-05-2007, 21:31
Non è affatto detto, li' si parla chiaramente di risoluzioni di alcuni problemi, mentre negli altri test tutto rimane immutato ;)

se nei giochi che avevano problemi (risolti via driver) la scheda raggiunge la GTX, credi forse che negli altri titoli non ci siano (altri) problemi?

bYeZ!

appleroof
14-05-2007, 21:33
questo è vero, ho ragionato in ottica attuale, xp con dx9.

perchè come già detto probabilmente quando ci saranno giochi dx10 le schede di cui parleremo saranno altre,
magari si potessero giocare in modo soddisfacente già con queste!!

Tutto sta a vedere cosa intendi per decente...con queste (2900XT, 8800GTS in su) credo proprio di si, poi vedremo (intantodomani esce la famosa demo di lost planet in dx10...) ;)

A.L.M.
14-05-2007, 21:33
vedremo domani quando uscira la demo come va con la HD 2900XT e le 8800GTS e GTX.
Hai visto la recensione di dinoxpc?
Da risultati in alcuni punti diversi da hwupgrade.
Non metto assolutamente in dubbio quelli di hwupgrade perchè li reputo affidabili.

Non ho avuto molto tempo oggi... Non ho nemmeno letto per intero la recensione sull'architettura di B3D.
La bottom line era più o meno quella che mi aspettavo, i margini di miglioramento ci sono, in DX10 comunque sembra andare come una GTX/Ultra.
Non mi è piaciuto comunque che la redazione abbia usato i nuovi drivers nVidia e non quelli ATi (che probabilmente avevano disponibili), non mi pare un paragone corretto.
Il vero errore di ATi è stato quello di voler essere troppo rivoluzionaria, e gestire troppe rivoluzioni spesso è difficile. Sono partiti con un progetto pensando di avere in mano la quadratura del cerchio, invece verso la fine si sono resi conto che le cose stavano andando diversamente.
A quanto ho capito da Anandtech, una delle cause della lentezza nel gioco coi filtri è il funzionamento delle nuove modalità AA, per esempio.
Il VLIW ha ulteriormente complicato la situazione...
Secondo me l'approccio di ATi pagherà magari con la generazione successiva di schede, che forse saranno le prime davvero in grado di gestire un vero gioco DX10.
Più che altro dopo tutta la pubblicità negativa ATi sarà costretta ad abbassare ancora i prezzi, quindi comunque la HD2900 XT potrebbe diventare una delle poche schede di questa generazione da consigliare: a 300€ (tra 2-3 mesi) sarebbe comunque un acquisto sensatissimo.
Sinceramente spendere 500 e più euro per schede che fanno pena in DX10 imho non ha senso (a meno che non si cambi scheda ogni 2 per 3), la 8800 320 ha un ottimo rapporto prestazioni DX9/prezzo, ma in DX10 probabilmente sarà una ciofeca e gli extra multimediali sono inesistenti sulla fascia alta nVidia. La fascia media nVidia a questo giro è un flop, quella ATi probabilmente sarà un po' meglio (ci vuole poco), ma comunque non credo che possa essere una scheggia in DX10...
Mi riesce davvero difficile trovare una scheda da comprare, al momento.

appleroof
14-05-2007, 21:34
se nei giochi che avevano problemi (risolti via driver) la scheda raggiunge la GTX, credi forse che negli altri titoli non ci siano (altri) problemi?

bYeZ!

Ma a questo punto, perchè non rimandare la presentazione a driver ottimi? Ho sentito il 22 maggio, perchè non 1 settimana in più, dopo 7 mesi in più?

Kharonte85
14-05-2007, 21:35
se nei giochi che avevano problemi (risolti via driver) la scheda raggiunge la GTX, credi forse che negli altri titoli non ci siano (altri) problemi?

bYeZ!
Non lo so, ma tu nemmeno :) ...io lo deduco solo dal fatto che abbiano incrementato le prestazioni solo in quei casi e che le recensioni ufficiali sono uscite (e non credo che AMD sia stata incauta sul versante driver perche' ci si gioca la faccia) e sull'esistenza di altre dichiarazioni di chi ha provato i 8.38 ;)

voffi
14-05-2007, 21:36
Tutto sta a vedere cosa intendi per decente...con queste (2900XT, 8800GTS in su) credo proprio di si, poi vedremo (intantodomani esce la famosa demo di lost planet in dx10...) ;)

beh non ci resta che attendere
e sperare che tu abbia ragione:)

appleroof
14-05-2007, 21:37
Non ho avuto molto tempo oggi... Non ho nemmeno letto per intero la recensione sull'architettura di B3D.
La bottom line era più o meno quella che mi aspettavo, i margini di miglioramento ci sono, in DX10 comunque sembra andare come una GTX/Ultra.
Non mi è piaciuto comunque che la redazione abbia usato i nuovi drivers nVidia e non quelli ATi (che probabilmente avevano disponibili), non mi pare un paragone corretto.
Il vero errore di ATi è stato quello di voler essere troppo rivoluzionaria, e gestire troppe rivoluzioni spesso è difficile. Sono partiti con un progetto pensando di avere in mano la quadratura del cerchio, invece verso la fine si sono resi conto che le cose stavano andando diversamente.
A quanto ho capito da Anandtech, una delle cause della lentezza nel gioco coi filtri è il funzionamento delle nuove modalità AA, per esempio.
Il VLIW ha ulteriormente complicato la situazione...
Secondo me l'approccio di ATi pagherà magari con la generazione successiva di schede, che forse saranno le prime davvero in grado di gestire un vero gioco DX10.
Più che altro dopo tutta la pubblicità negativa ATi sarà costretta ad abbassare ancora i prezzi, quindi comunque la HD2900 XT potrebbe diventare una delle poche schede di questa generazione da consigliare: a 300€ (tra 2-3 mesi) sarebbe comunque un acquisto sensatissimo.
Sinceramente spendere 500 e più euro per schede che fanno pena in DX10 imho non ha senso (a meno che non si cambi scheda ogni 2 per 3), la 8800 320 ha un ottimo rapporto prestazioni DX9/prezzo, ma in DX10 probabilmente sarà una ciofeca e gli extra multimediali sono inesistenti sulla fascia alta nVidia. La fascia media nVidia a questo giro è un flop, quella ATi probabilmente sarà un po' meglio (ci vuole poco), ma comunque non credo che possa essere una scheggia in DX10...
Mi riesce davvero difficile trovare una scheda da comprare, al momento.

Di tutto questo mi piace il tono edulcorato usato per analizzare la "situazione ati" e quello "molto meno" per le schede Nvidia...solo una curiosità: chi ti dà la certezza che le schede Nvidia faranno pietà in dx10? Potrebbe anche essere così, ma la certezza....:boh:

Athlon 64 3000+
14-05-2007, 21:39
un flop eh? :asd:
strano però che il .2 vada meglio del .3

bYeZ!

su dinoxpc la HD 2900XT ha dato dei buoni risultati e guarda qua:
http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=4

hanno usato gli stesso driver di computerbase.

DVD2005
14-05-2007, 21:40
la cosa veramente strana e' che leggendo i nostri commenti sembra che la scheda debba ancora uscire.... siamo tornati alle incertezze in stile rumors, da qualche parte va bene, in altre va male, c'e' il mistero dei driver, dell'AA che non si capisce se funziona bene o male...... oggi avremmo dovuto sapere tutto, pare non sia cosi'; anche se dubito possa arrivare alla GTX, se si piazzasse stabile appena sotto la GTX potrebbe essere appetibile, cosa che oggi non e', almeno parlando per me.

belin
14-05-2007, 21:41
http://www.hwupgrade.it/articoli/skvideo/1725/ccc_pannello.gif

...per quanto riguarda le due nuove tecniche di AA ("Custom Filter AA" - CFAA) riporto fedelmente da THG: "Nelle DX10, in particolare nelle DX10.1 che arriveranno a breve, è possibile accedere ai sample di un formato antialiasing. Questo significa che l'applicazione può crearsi dei filtri personalizzati. Molti filtri hardware si basano su determinate regole. Con queste costrizioni, con l'aumentare dei sample il guadagna qualitativo decresce. ATI afferma che "è solo necessario creare un filtro migliore", ed è quello che i filtri customizzati si prefiggono di fare.

Ora, con la nuova tecnica di ATI, non si è più costretti a dei filtri "preconfezionati", ma si possono utilizzare teoricamente tutti gli approcci che si vogliono. I filtri possono essere adattati alle caratteristiche di ogni pixel, senza dover più applicare lo stesso filtraggio a una scena variegata che necessiterebbe di trattamenti diversificati. Per determinare che tipo di filtro usare e dove applicarlo, ATI sta lavorando a una sorta di "ispettore", che controllerà le varie parti della scena e decreterà il livello e la tipologia di filtro."

:)

ATi7500
14-05-2007, 21:41
Sinceramente spendere 500 e più euro per schede che fanno pena in DX10 imho non ha senso (a meno che non si cambi scheda ogni 2 per 3), la 8800 320 ha un ottimo rapporto prestazioni DX9/prezzo, ma in DX10 probabilmente sarà una ciofeca e gli extra multimediali sono inesistenti sulla fascia alta nVidia.

The HD 2000 series also features two levels of Video decoder/acceleration technology. On the 2600/2400 cards we have a universal video decoder which has full acceleration of HD/BD content. This should allow for very low CPU usage as demonstrated by the Geforce 8500/8600 series, however at this time we have not received a sample of either Radeon card to confirm the performance. The 2600/2400 also have the ability to perform various post processing tasks such as De-interlacing and colour correction. On the Radeon 2900, disappointingly, the full acceleration of BD/HD is not present and as a result the CPU usage is greater when watching a high-definition movie. We will look at the performance of the 2900 XT in Video Playback later in the review. Clearly AMD must have known that the XT was not going to beat the GTS and with the delays in launch they had time to rethink the product and add some unique selling points. One such point could have been the inclusion of full high definition video decoding such as that which will be featured in lower spec 2000 series products. Instead we have a card which when combined with any CPU other than the fastest available (high end dual core conroe) struggles with 1080p content. Even when trying to implement unique features things didn’t go well.

Fonte: DriverHeaven

bYeZ!

bioexml
14-05-2007, 21:43
ragazzi è tutto meraviglioso sulla carta, ma nel reale spesso le cose non vanno allo stesso modo

dantes76
14-05-2007, 21:43
la cosa veramente strana e' che leggendo i nostri commenti sembra che la scheda debba ancora uscire....

quoto, c'e chi dice di aspettare qualche mese ,
certo che a circa 24 ore dalla 1° rece, non e che la situazione sia molto chiara

Superpelo
14-05-2007, 21:45
Di tutto questo mi piace il tono edulcorato usato per analizzare la "situazione ati" e quello "molto meno" per le schede Nvidia...solo una curiosità: chi ti dà la certezza che le schede Nvidia faranno pietà in dx10? Potrebbe anche essere così, ma la certezza....:boh:

Beh francamente, questi primi demo, mostrano che la costosissima (600 euro) 8800gtx viaggia a 24 fps in 1280x1024, francamente un risultato disastroso per un scheda di quel prezzo, a questo punto l'impressione che ho io è che ste schede sono morte ancora prima che escano sti famosi giochi in dx10.

mentre chi 2 anni fa si comrava una x1900xtx512 o una 7900gtx si è trovato in tutt'altra situazione e per piu' di un anno ha giocato al top con gli utlmi giochi usciti e nn certo a 24fps.

leoneazzurro
14-05-2007, 21:45
beh, risultati "meno brutti" per una scheda che compete con la GTS e si avvicina alla GTX non mi sembra malaccio, anzi :)
Ho letto con interesse ciò che hai postato dal forum di B3D, sul problema dell'antialiasing a carico delle shading units, ma quello che non ho capito è: è un problema relativo all'antialiasing in generale o solo all'adaptive?
E l'adaptive è abilitato di default nei driver?
Aggiungo che IMHO con il respin a 65nm si assisterà ad un boost notevole. La 2900XT io (e probabilmente la stessa ATi/AMD) la vedo come una scheda tampone, in attesa di introdurre fascia media (2600) e medio alta (2900XL/Pro).

bYeZ!

Il problema è presente con tutti i tipi di AA (manca parte dell'Hardware). Non so cosa sia abilitato di default (probabilmente no AA) perchè non ho la scheda nè i drivers sottomano. Ma i margini di miglioramento ci sono, credo con tutte le applicazioni. Gli 8.38 non sono i pre-alpha, comunque, credo ci sia un pò di confusione sulle sigle dei drivers che sono in giro (e strane anche le divergenze nei risultati).

Evangelion01
14-05-2007, 21:45
Di tutto questo mi piace il tono edulcorato usato per analizzare la "situazione ati" e quello "molto meno" per le schede Nvidia...solo una curiosità: chi ti dà la certezza che le schede Nvidia faranno pietà in dx10? Potrebbe anche essere così, ma la certezza....:boh:

Appunto. Che poi ste cose mi fan ridere... :asd:
E' proprio vero che si dovrebbe imparare dall' esperienza, invecie non è così. A oggi NON ESISTE 1 GIOCO DX10. E dopo tutte le fesserie che si son sentite in questi mesi su r600, smentite poi dalla realtà, allora come si fa a dire :"Sinceramente spendere 500 e più euro per schede che fanno pena in DX10 imho non ha senso" ????? Con quali prove???? Perchè non aspettiamo di vedere in azione per giudicare? Non è bastata la lezione?
Ok fare ipotesi, ma imho è meglio giudicare queste vga per i dati che si hanno alla mano. E guardando questi, non ho dubbi su cosa sceglierei OGGI : 8800. Domani è un altro giorno...

ATi7500
14-05-2007, 21:48
Il problema è presente con tutti i tipi di AA (manca parte dell'Hardware). Non so cosa sia abilitato di default (probabilmente no AA) perchè non ho la scheda nè i drivers sottomano. Ma i margini di miglioramento ci sono, credo con tutte le applicazioni. Gli 8.38 non sono i pre-alpha, comunque, credo ci sia un pò di confusione sulle sigle dei drivers che sono in giro (e strane anche le divergenze nei risultati).

se non sbaglio è solo un'ipotesi che manchi circuiteria dedita al MSAA; chissà se yoss.. :sofico:

bYeZ!

Kharonte85
14-05-2007, 21:48
la cosa veramente strana e' che leggendo i nostri commenti sembra che la scheda debba ancora uscire.... siamo tornati alle incertezze in stile rumors, da qualche parte va bene, in altre va male, c'e' il mistero dei driver, dell'AA che non si capisce se funziona bene o male...... oggi avremmo dovuto sapere tutto, pare non sia cosi'; anche se dubito possa arrivare alla GTX, se si piazzasse stabile appena sotto la GTX potrebbe essere appetibile, cosa che oggi non e', almeno parlando per me.
Il che è ridicolo...secondo me dei punti chiari ci sono eccome e la maggior parte delle recensioni li conferma inequivocabilmente ;)

garbage
14-05-2007, 21:48
raga ma perche in quei test linkati prima i driver 8.37.4.3 fanno meno che i 8.37.4.2??? nn dovrebbero essere i .3 che fanno di piu essendo piu nuovi?

ATi7500
14-05-2007, 21:49
Appunto. Che poi ste cose mi fan ridere... :asd:
E' proprio vero che si dovrebbe imparare dall' esperienza, invecie non è così. A oggi NON ESISTE 1 GIOCO DX10. E dopo tutte le fesserie che si son sentite in questi mesi su r600, smentite poi dalla realtà, allora come si fa a dire :"Sinceramente spendere 500 e più euro per schede che fanno pena in DX10 imho non ha senso" ????? Con quali prove???? Perchè non aspettiamo di vedere in azione per giudicare? Non è bastata la lezione?
Ok fare ipotesi, ma imho è meglio giudicare queste vga per i dati che si hanno alla mano. E guardando questi, non ho dubbi su cosa sceglierei OGGI : 8800. Domani è un altro giorno...
c'è gente che si prende una scheda video e se la tiene per 1 anno o 2, per questo l'acquisto va valutato anche e sopratutto in ottica futura. Mica fanno tutti a gara per avere l'ultimo modello uscito.

bYeZ!

Kharonte85
14-05-2007, 21:49
raga ma perche in quei test linkati prima i driver 8.37.4.3 fano meno che i 8.37.4.2???
Perche' se qualcuno si degnasse di leggere qualche post prima troverebbe la risposta...

http://www.hwupgrade.it/forum/showpost.php?p=17123054&postcount=491

:rolleyes:

ATi7500
14-05-2007, 21:50
Il che è ridicolo...secondo me dei punti chiari ci sono eccome e la maggior parte delle recensioni li conferma inequivocabilmente ;)

il discorso del problema hardware per quanto riguarda il MSAA l'hanno citato pochissime recensioni.

bYeZ!

Mister Tarpone
14-05-2007, 21:51
c'è gente che si prende una scheda video e se la tiene per 1 anno o 2, per questo l'acquisto va valutato anche e sopratutto in ottica futura. Mica fanno tutti a gara per avere l'ultimo modello uscito.

bYeZ!

quoto ;)

garbage
14-05-2007, 21:51
Perche' se qualcuno si degnasse di leggere qualche post prima troverebbe la risposta...

http://www.hwupgrade.it/forum/showpost.php?p=17123054&postcount=491

:rolleyes:

il mio inglese fa praticamente cacare

Evangelion01
14-05-2007, 21:51
c'è gente che si prende una scheda video e se la tiene per 1 anno o 2, per questo l'acquisto va valutato anche e sopratutto in ottica futura. Mica fanno tutti a gara per avere l'ultimo modello uscito.

bYeZ!

Quoto, infatti io la mia me la terrò almeno 2 o 3 anni... :D

Superpelo
14-05-2007, 21:51
In ogni caso, mi viene da dare la colpa piu' alla microsoft che ha fatto vista e le dx10 col culo, a essere buoni, e consiglio a chi da per spacciata ati, di andarsi a vedere un apio di giochi giusti per xbox 360, uscita ormai da parecchi mesi e con chip ati, altro che la demo di call of juarez dx10 a 15fps. Questo potrebbe aiutare a riflettere su quanto sarà importante per questa generazione il lato driver/software, e di quanto vista riesca a sprecare la potenza dell'hardware che gestisce.

Mister Tarpone
14-05-2007, 21:53
il mio inglese fa praticamente cacare

anche il mio :asd:

ATi7500
14-05-2007, 21:53
il mio inglese fa praticamente cacare

no, è quella traduzione che non è perfetta. In ogni caso mi pare di aver capito che i .2 sono più recenti dei .3 :fagiano:

bYeZ!

garbage
14-05-2007, 21:54
no, è quella traduzione che non è perfetta. In ogni caso mi pare di aver capito che i .2 sono più recenti dei .3 :fagiano:

bYeZ!

grazie mille per la delucidazione!:)

leoneazzurro
14-05-2007, 21:54
The HD 2000 series also features two levels of Video decoder/acceleration technology. On the 2600/2400 cards we have a universal video decoder which has full acceleration of HD/BD content. This should allow for very low CPU usage as demonstrated by the Geforce 8500/8600 series, however at this time we have not received a sample of either Radeon card to confirm the performance. The 2600/2400 also have the ability to perform various post processing tasks such as De-interlacing and colour correction. On the Radeon 2900, disappointingly, the full acceleration of BD/HD is not present and as a result the CPU usage is greater when watching a high-definition movie. We will look at the performance of the 2900 XT in Video Playback later in the review. Clearly AMD must have known that the XT was not going to beat the GTS and with the delays in launch they had time to rethink the product and add some unique selling points. One such point could have been the inclusion of full high definition video decoding such as that which will be featured in lower spec 2000 series products. Instead we have a card which when combined with any CPU other than the fastest available (high end dual core conroe) struggles with 1080p content. Even when trying to implement unique features things didn’t go well.

Fonte: DriverHeaven

bYeZ!

Sembra esserci in alcuni casi un problema di drivers che non ha di effettuare le prove: ulteriore riprova che i drivers sono in uno stato ancora pietoso :rolleyes:

Deviad
14-05-2007, 21:54
no, è quella traduzione che non è perfetta. In ogni caso mi pare di aver capito che i .2 sono più recenti dei .3 :fagiano:

bYeZ!

Io invece ho capito solo che i .2 risolvono solo alcuni problemi...

Kharonte85
14-05-2007, 21:54
il mio inglese fa praticamente cacare

no, è quella traduzione che non è perfetta. In ogni caso mi pare di aver capito che i .2 sono più recenti dei .3 :fagiano:

bYeZ!
In sintesi è questo :D
il discorso del problema hardware per quanto riguarda il MSAA l'hanno citato pochissime recensioni.

bYeZ!
Quel problema potrebbe non essere un problema ma una limitazione data dall'architettura...staremo a vedere ma io ai miracoli non ci credo.

bioexml
14-05-2007, 21:56
In ogni caso, mi viene da dare la colpa piu' alla microsoft che ha fatto vista e le dx10 col culo, a essere buoni, e consiglio a chi da per spacciata ati, di andarsi a vedere un apio di giochi giusti per xbox 360, uscita ormai da parecchi mesi e con chip ati, altro che la demo di call of juarez dx10 a 15fps. Questo potrebbe aiutare a riflettere su quanto sarà importante per questa generazione il lato driver/software, e di quanto vista riesca a sprecare la potenza dell'hardware che gestisce.

finalmente una persona che dice delle santissime parole !!!!!
Ma non solo Vista e DX10, microsoft scrive molte cose col culo purtroppo, basterebbe dare un'occhiata ai sorgenti che anni fa trafugarono di winxp :mbe: :doh:
Ti credo che impazziscono a fare dei driver :mbe:

TecnoWorld8
14-05-2007, 21:57
sono davvero indeciso se prendere questa scheda a 380 euro circa oppure una xbox360 e starmene buono con la scheda in firma, sul lato PC...so che sono due cose incomparabili, ma mi infastidisce pensare che nVidia ha fatto uscire una scheda 7 mesi fa che ancora non è stata battuta e...che prenderla ora, è tardi (penso a breve ne uscirà una nuova della stessa nVidia, magari a ottobre). io speravo molto in un prodotto che battesse GTX, in modo da avere un buon margine per il futuro.

le prestazioni - per me deludenti - di questa XT hanno sballato dei piani che mi ero fatto lo scorso agosto, quando acquistai il pc in firma

Kharonte85
14-05-2007, 21:59
sono davvero indeciso se prendere questa scheda a 380 euro circa oppure una xbox360 e starmene buono con la scheda in firma, sul lato PC...so che sono due cose incomparabili, ma mi infastidisce pensare che nVidia ha fatto uscire una scheda 7 mesi fa che ancora non è stata battuta e...che prenderla ora, è tardi (penso a breve ne uscirà una nuova della stessa nVidia, magari a ottobre). io speravo molto in un prodotto che battesse GTX, in modo da avere un buon margine per il futuro.

le prestazioni - per me deludenti - di questa XT hanno sballato dei piani che mi ero fatto lo scorso agosto, quando acquistai il pc in firma
Fossi in te aspetterei Crysis.

Superpelo
14-05-2007, 22:01
Fossi in te aspetterei Crysis.

Sinceramente ho serissimi dubbi che crysis girerà degnamente anche sulla piu' potente di ueste schede

Athlon 64 3000+
14-05-2007, 22:01
ditemi se la recensione di dinoxpc è affidabile oppure no perchè dai dei risultati molto diversi da quelli di hwupgrade.

garbage
14-05-2007, 22:01
secondo voui quei test di guru sono veritieri?

Mister Tarpone
14-05-2007, 22:02
ditemi se la recensione di dinoxpc è affidabile oppure no perchè dai dei risultati molto diversi da quelli di hwupgrade.

se è affidabile non lo so... ma i risultati non sono assolutamente male...

Chief
14-05-2007, 22:02
Sinceramente non ci sto capendo niente piu su questi driver a cui uno dei due di base è abilitato l'adaptive AA,i test su altri siti sono diversi l'uno dall'altro,ma non dovrebbero avere tutte prestazioni simili?Qualcuno ci illumini stiamo perdendo il lume della ragione con questa scheda:D

bioexml
14-05-2007, 22:02
Sinceramente ho serissimi dubbi che crysis girerà degnamente anche sulla piu' potente di ueste schede

vorrà dire che ne ritarderanno l'uscita fino a quando non ci sarà una scheda che li faccia girare in modo umano, in caso contrario sarei curioso di vedere chi se lo compra.

DVD2005
14-05-2007, 22:03
sono davvero indeciso se prendere questa scheda a 380 euro circa oppure una xbox360 e starmene buono con la scheda in firma, sul lato PC...so che sono due cose incomparabili, ma mi infastidisce pensare che nVidia ha fatto uscire una scheda 7 mesi fa che ancora non è stata battuta e...che prenderla ora, è tardi (penso a breve ne uscirà una nuova della stessa nVidia, magari a ottobre). io speravo molto in un prodotto che battesse GTX, in modo da avere un buon margine per il futuro.

le prestazioni - per me deludenti - di questa XT hanno sballato dei piani che mi ero fatto lo scorso agosto, quando acquistai il pc in firma

io penso aspettero' il primo SP di Vista e che ci siano dei giochi in DX10, a quel punto vedro' quale scheda prendere, in fondo oggi in DX9 non ho problemi e penso che anche tu possa fare lo stesso ragionamento.

Mister Tarpone
14-05-2007, 22:04
vorrà dire che ne ritarderanno l'uscita fino a quando non ci sarà una scheda che li faccia girare in modo umano, in caso contrario sarei curioso di vedere chi se lo compra.

ok ;) ma Crysis, a sentire i Crytek, dovrebbe girare decentemente anche in dx9 ;) non è un game full dx10 :fagiano:

Athlon 64 3000+
14-05-2007, 22:05
AMD secondo me stà facendo una politica di gestione dei driver veramente scandalosa.
:mad:

Kharonte85
14-05-2007, 22:05
Sinceramente ho serissimi dubbi che crysis girerà degnamente anche sulla piu' potente di ueste schede
Appunto, meglio aspettare e cmq
vorrà dire che ne ritarderanno l'uscita fino a quando non ci sarà una scheda che li faccia girare in modo umano, in caso contrario sarei curioso di vedere chi se lo compra.
:read:

ditemi se la recensione di dinoxpc è affidabile oppure no perchè dai dei risultati molto diversi da quelli di hwupgrade.
E' fatta su XP, quella di upgrade su Vista
Sinceramente non ci sto capendo niente piu su questi driver a cui uno dei due di base è abilitato l'adaptive AA,i test su altri siti sono diversi l'uno dall'altro,ma non dovrebbero avere tutte prestazioni simili?Qualcuno ci illumini stiamo perdendo il lume della ragione con questa scheda:D
Fidati di Hwupgrade.

Mister Tarpone
14-05-2007, 22:06
Sinceramente non ci sto capendo niente piu su questi driver a cui uno dei due di base è abilitato l'adaptive AA,i test su altri siti sono diversi l'uno dall'altro,ma non dovrebbero avere tutte prestazioni simili?Qualcuno ci illumini stiamo perdendo il lume della ragione con questa scheda:D

ohhh... :doh: ma poi i driver che sembrano più vecchi?? in realtà sono quelli che vanno meglio??? ma che è?? non ci sto a capì una mazza :bsod:

bioexml
14-05-2007, 22:07
ok ;) ma Crysis dovrebbe girare decentemente anche in dx9 ;) non è full dx10 :fagiano:

io credo che gli sviluppatori di crysis sanno bene come gira su queste schede, visto che lo testano proprio su queste ultime, quindi "spero" che in un modo o in un altro al momento del completamento del gioco sia tutto a posto, altrimenti si che bisogna attendere una 8900 o una R700 :mbe:

garbage
14-05-2007, 22:09
io credo che gli sviluppatori di crysis sanno bene come gira su queste schede, visto che lo testano proprio su queste ultime, quindi "spero" che in un modo o in un altro al momento del completamento del gioco sia tutto a posto, altrimenti si che bisogna attendere una 8900 o una R700 :mbe:

mi fa paura attendere per r700 asd

leoneazzurro
14-05-2007, 22:09
ohhh... :doh: ma poi i driver che sembrano più vecchi?? in realtà sono quelli che vanno meglio??? ma che è?? non ci sto a capì una mazza :bsod:

i drivers .2 sono datati 11 maggio, i .3 il 10.

Kharonte85
14-05-2007, 22:10
ohhh... :doh: ma poi i driver che sembrano più vecchi?? in realtà sono quelli che vanno meglio??? ma che è?? non ci sto a capì una mazza :bsod:

Perche' non state attenti ai particolari! :ncomment:

Invece di postare a raffica sul perche'? ma? pero'? come? quando? dove? Leggete!!!!!:read: :muro: :muro: :muro:

Oh...ora sono piu' self control :)

Mister Tarpone
14-05-2007, 22:10
io credo che gli sviluppatori di crysis sanno bene come gira su queste schede, visto che lo testano proprio su queste ultime, quindi "spero" che in un modo o in un altro al momento del completamento del gioco sia tutto a posto, altrimenti si che bisogna attendere una 8900 o una R700 :mbe:
è quello che spero anch'io... cmq ..la paura di prestazioni "sola" in dx10, con queste schede, resta... :stordita:

Chief
14-05-2007, 22:11
Fidati di Hwupgrade

Io mi fido di Hwupgrade ci mancherebbe ma c'è un abisso di prestazione da xp e vista questo non può essere che dovuta ai driver mal ottimizzati...il problema ora è capire realmente come questa scheda giri su xp.. perchè ne stanno uscendo un sacco fuori chi dice i drivers scandalosi, chi dice che in quei drivers c'è l'adptive aa abilitato di base...insomma non si capisce poi domani Lost Planet sarà un altro bel test :D

Pr|ckly
14-05-2007, 22:12
E' fatta su XP, quella di upgrade su Vista

Se cambia il distacco sotto Vista significa che i driver sono ancora acerbi rispetto a nVidia... e se cosi fosse dopo tutto questo tempo... :mad:

Mister Tarpone
14-05-2007, 22:14
i drivers .2 sono datati 11 maggio, i .3 il 10.
questo l'ho avevo capito.. ma perchè sono numerati così??? praticamente quelli più nuovi sembrano i più vecchi... ma che è!!:stordita:
Perche' non state attenti hai particolari! :ncomment:

Invece di postare a raffica sul perche'? ma? pero'? come? quando? dove? Leggete!!!!!:read: :muro: :muro: :muro:

Oh...ora sono piu' self control :)

ma cos'è sto sclero?? :mbe:

:)

Kharonte85
14-05-2007, 22:16
ma cos'è sto sclero?? :mbe:

:)
Uno sclero :)

Ma non ce l'avevo con te...:stordita:

Se andate indietro nelle pagine precedenti trovete di tutto, pure i test di lost planet con la 2900xt ;)

Raven
14-05-2007, 22:18
Perche' non state attenti hai particolari! :ncomment:


E tu all'italianoooo!!! :cry:

Mister Tarpone
14-05-2007, 22:18
Uno sclero :)

Ma non ce l'avevo con te...:stordita:

Se andate indietro nelle pagine precedenti trovete di tutto, pure i test di lost planet con la 2900xt ;)

li ho visti... ;) 19fps... :stordita:

;)

A.L.M.
14-05-2007, 22:20
Di tutto questo mi piace il tono edulcorato usato per analizzare la "situazione ati" e quello "molto meno" per le schede Nvidia...solo una curiosità: chi ti dà la certezza che le schede Nvidia faranno pietà in dx10? Potrebbe anche essere così, ma la certezza....:boh:

I primi test ci sono, e non mi sembrano esaltanti: i 24fps della Ultra (con un gioco che più d'uno, tutt'altro che pro-ati, aveva definito nel vecchio thread "fatto in casa da NVidia") sono ancora lì.
R600 non è che faccia meglio, per carità.
I margini di miglioramento via driver potrebbero essere maggiori per le ATi perchè hanno un metodo di funzionamento nettamente più complesso rispetto ad ogni altra scheda precedente e/o concorrente (non credo siano mai esistite schede grafiche VLIW prima d'ora), dunque potrebbe essere che i drivers siano più influenti che in passato.
Purtroppo si sta avverando quello che si poteva intuire da vari forum di sviluppatori, ovvero che questa generazione di schede non è ancora adatta per le DX10: il che è assurdo, considerato il battage pubblicitario creato attorno a questa feature di Vista.
Il fatto che la GTX e la Ultra vada quasi sempre meglio in DX9 non mi pare una gran consolazione... 20fps in più sopra i 60fps non è che ti cambino la vita... Piuttosto serviva una scheda capace di gestire bene (= con filtri non esagerati e dettagli al max) le DX10, almeno fino a 1600x1200, e finora non mi pare di vederne nemmeno una, nè da un lato, nè dall'altro. A questo punto bisognerà aspettare Bioshock e/o Crysis per capire quali sono le reali potenzialità DX10 di queste schede, ma non mi aspetto chissà che.

The HD 2000 series also features two levels of Video decoder/acceleration technology. On the 2600/2400 cards we have a universal video decoder which has full acceleration of HD/BD content. This should allow for very low CPU usage as demonstrated by the Geforce 8500/8600 series, however at this time we have not received a sample of either Radeon card to confirm the performance. The 2600/2400 also have the ability to perform various post processing tasks such as De-interlacing and colour correction. On the Radeon 2900, disappointingly, the full acceleration of BD/HD is not present and as a result the CPU usage is greater when watching a high-definition movie. We will look at the performance of the 2900 XT in Video Playback later in the review. Clearly AMD must have known that the XT was not going to beat the GTS and with the delays in launch they had time to rethink the product and add some unique selling points. One such point could have been the inclusion of full high definition video decoding such as that which will be featured in lower spec 2000 series products. Instead we have a card which when combined with any CPU other than the fastest available (high end dual core conroe) struggles with 1080p content. Even when trying to implement unique features things didn’t go well.

Fonte: DriverHeaven

bYeZ!

Questa cosa l'avevo già sentita, però è da approfondire, perchè mi pareva di aver letto UVD pure sulle HD2900... :boh:

Kharonte85
14-05-2007, 22:20
E tu all'italianoooo!!! :cry:
Hai ragione: mi suicido http://img117.exs.cx/img117/421/e9-suicidio.gif

E' che ho la tastiera incassata :mc:

Deviad
14-05-2007, 22:21
Cmq guardando questi benchmark in 3dmark (anche se si dice che a sto giro non sia affidabile) sembrerebbe che la scheda dovrebbe poter avere margini di miglioramento, 2 schede ati in crossfire vanno meglio di 2 schede nvidia in sli O_o
http://techreport.com/reviews/2007q2/radeon-hd-2900xt/index.x?pg=14

Potete dirmi in PVT dove posso comprarla questa scheda al prezzo + basso in Italia? Ormai mi sono convinto anch'io ad acquistarla, secondo me nell'arco di 1 mesetto si vedranno già dei risultati apprezabili per quanto riguarda l'ottimizzazione e durante le vacanze estive ci saranno altri miglioramenti (in america i cristiani non si prendono un mese di vacanza e fanno i turni x lavorare mica come da noi che le strade ad agosto sono deserte)... :P

thx
14-05-2007, 22:22
Caspita questa scheda e' un flop...ma intanto sto contando 563 post in 14 ore circa.
Un record assoluto:eek:

Kharonte85
14-05-2007, 22:24
I primi test ci sono, e non mi sembrano esaltanti: i 24fps della Ultra (con un gioco che più d'uno, tutt'altro che pro-ati, aveva definito nel vecchio thread "fatto in casa da NVidia") sono ancora lì.
R600 non è che faccia meglio, per carità.
Ti ho gia' spiegato i motivi dei risultati negativi, che sono attribuibili all'attivazione delle softshadows (Diciamo con eufemismo che saranno in stato embrionale?) non alle dx10...perche' continui ostinatamente a sbandierare quei 24fps? :rolleyes:

ATi7500
14-05-2007, 22:24
Che vuol dire che la scheda è VLIW? scusate ma questo particolare mi è sfuggito :stordita:

bYeZ!

Mister Tarpone
14-05-2007, 22:24
Cmq guardando questi benchmark in 3dmark (anche se si dice che a sto giro non sia affidabile) sembrerebbe che la scheda dovrebbe poter avere margini di miglioramento, 2 schede ati in crossfire vanno meglio di 2 schede nvidia in sli O_o
http://techreport.com/reviews/2007q2/radeon-hd-2900xt/index.x?pg=14

pensa che io ho visto bench dove 2 Ati 2900 in crossfire sono sotto ad una gtx...
boh.. :stordita:

Kharonte85
14-05-2007, 22:26
pensa che io ho visto bench dove 2 Ati 2900 in crossfire sono sotto ad una gtx...
boh.. :stordita:
Nei giochi ;)

fireradeon
14-05-2007, 22:26
ma questi il gioco lo devono vendere. ma ti pare che lo fanno scattare con una 8800gtx??? dimmi tu chi se lo comprerebbe???

Beh, hai visto i bench di CoJ? Hai visto i bench di Lost Planet? A me non sembra normale 37fps o 54fps.
Crysis sarà molto ma molto più tosto come gioco, basta vedere i filmati e le feature che verranno implementate.
Non so, magari mi sbaglio, però i dubbi mi sembra normale vengano vedendo i numeri. :confused:

Evangelion01
14-05-2007, 22:27
Che vuol dire che la scheda è VLIW? scusate ma questo particolare mi è sfuggito :stordita:

bYeZ!

Scusate l' ignoranza, ma cosa si intende per "VLIW"? :confused:

leoneazzurro
14-05-2007, 22:28
Che vuol dire che la scheda è VLIW? scusate ma questo particolare mi è sfuggito :stordita:

bYeZ!

Very Long Instruction Word: in realtà è la modalità con la quale le istruzioni vengono "comunicate" alle unità di esecuzione. In pratica le 5 istruzioni per le 5 ALU "scalari" sono assemblate in una "macroistruzione" più complessa che viene data in pasto alle unità aritmetiche tutta insieme.

Kharonte85
14-05-2007, 22:28
Scusate l' ignoranza, ma cosa si intende per "VLIW"? :confused:
http://en.wikipedia.org/wiki/Very_long_instruction_word

Deviad
14-05-2007, 22:29
pensa che io ho visto bench dove 2 Ati 2900 in crossfire sono sotto ad una gtx...
boh.. :stordita:

Dipende dai drivers credo, come al solito....
Ao, io propongo una cosa, facciamo una petizione.

Gent.le Sig. Corsini,
può fare i test mostrando le differenze tra i driver .2 .3?
Può farci cortesemente vedere come va la scheda con l'Adaptive AA disabilitato (che da problemi da un sacco di tempo con alcuni giochi (ad esempio WOW) e con quello abilitato con entrambi i drivers?
Può far girare appena possibile lost planet con le "soft shadows" disabilitate e poi abilitate con i rispettivi drivers e con l'antialias attivato e disattivato?
Porgo distinti saluti,
uno che vuole fatti e non pugnette. :D

ATi7500
14-05-2007, 22:29
Quel problema potrebbe non essere un problema ma una limitazione data dall'architettura...staremo a vedere ma io ai miracoli non ci credo.

e io non credo ad errori di progettazione così grossolani. Non si può parlare nemmeno di errore di valutazione viste le precedenti esperienze di ATi in campo filtri & co. Secondo me è un bug nel silicio che non sono riusciti ad eliminare ma solo ad arginare con i successivi respin del chip. Aspetto con impazienza le recensioni sulle versioni di R600 e derivati a 65nm.

bYeZ!

Iantikas
14-05-2007, 22:30
qualke anima pia potrebbe mandarmi in pvt gli shop on-line italiani dai quali e possibile aquistare una HD2900XT?...ciao e grazie :)

ATi7500
14-05-2007, 22:30
Very Long Instruction Word: in realtà è la modalità con la quale le istruzioni vengono "comunicate" alle unità di esecuzione. In pratica le 5 istruzioni per le 5 ALU "scalari" sono assemblate in una "macroistruzione" più complessa che viene data in pasto alle unità aritmetiche tutta insieme.

da qui l'estrema importanza del compilatore nei driver, giusto? un pò la stessa importanza che rivestiva nei driver per Nv30 :)

bYeZ!

CrAsHeR
14-05-2007, 22:31
Beh, hai visto i bench di CoJ? Hai visto i bench di Lost Planet? A me non sembra normale 37fps o 54fps.
Crysis sarà molto ma molto più tosto come gioco, basta vedere i filmati e le feature che verranno implementate.
Non so, magari mi sbaglio, però i dubbi mi sembra normale vengano vedendo i numeri. :confused:

Si guarda..però in tutti i trailer viene usato un Computer per farlo girare (da sbavo...)
e oggi..più di un Quad Core..e di uno sli di 8800GTX non c'è!!

dassanko
14-05-2007, 22:31
Mamma che flop di scheda! :eek:

ATi7500
14-05-2007, 22:32
qualke anima pia potrebbe mandarmi in pvt gli shop on-line italiani dai quali e possibile aquistare una HD2900XT?...ciao e grazie :)

non cominciamo con queste domande, questo thread deve essere TECNICO e basta. La sezione consigli per gli acquisti è lì apposta, grazie.

bYeZ!

Kharonte85
14-05-2007, 22:33
qualke anima pia potrebbe mandarmi in pvt gli shop on-line italiani dai quali e possibile aquistare una HD2900XT?...ciao e grazie :)
La verita' è che io non ne ho visto uno solo che l'abbia disponibile (vergogna :mad: )

Evangelion01
14-05-2007, 22:33
Thx, ora è più chiaro. :)

ATi7500
14-05-2007, 22:33
Dipende dai drivers credo, come al solito....
Ao, io propongo una cosa, facciamo una petizione.

Gent.le Sig. Corsini,
può fare i test mostrando le differenze tra i driver .2 .3?
Può farci cortesemente vedere come va la scheda con l'Adaptive AA disabilitato (che da problemi da un sacco di tempo con alcuni giochi (ad esempio WOW) e con quello abilitato con entrambi i drivers?
Può far girare appena possibile lost planet con le "soft shadows" disabilitate e poi abilitate con i rispettivi drivers e con l'antialias attivato e disattivato?
Porgo distinti saluti,
uno che vuole fatti e non pugnette. :D

te ci scherzi, ma a me la rece di hwupgrade è sembrata superficialotta. Va beh che ero abituato al buon Raffaele, ma secondo me il livello è scaduto parecchio :(

bYeZ!

dassanko
14-05-2007, 22:34
ma si sa niente del supporto linux per sta schedina? oppure AMD ha deciso di perdersi pure quello sparuto numero di utenti linuxiani (me compreso)?

fireradeon
14-05-2007, 22:34
Si guarda..però in tutti i trailer viene usato un Computer per farlo girare (da sbavo...)
e oggi..più di un Quad Core..e di uno sli di 8800GTX non c'è!!

Si si, siamo d'accordo. Ma è normale avere dubbi in una fase di transizione come questa, nella quale si iniziano a muovere le cose sul fronte DX10. Ormai i primi giochi sono alle porte e alcuni già ci sono (anche se magari sfruttano parzialmente le DX10).
Ma non è che per caso Vista ha le sue colpe e magari non essendo l'insieme ancora ben rodato e ottimizzato, i risultati con le DX10 sembrano deludenti?

Mister Tarpone
14-05-2007, 22:35
da qui l'estrema importanza del compilatore nei driver, giusto? un pò la stessa importanza che rivestiva nei driver per Nv30 :)

bYeZ!

quindi sola paragonabile ad nv30, giusto??
.................

leoneazzurro
14-05-2007, 22:36
da qui l'estrema importanza del compilatore nei driver, giusto? un pò la stessa importanza che rivestiva nei driver per Nv30 :)

bYeZ!

Esatto, perchè per poter assemblare le istruzioni in una VLIW bisogna prima eliminare le interdipendenze, compito che spetta al compilatore, che deve estrarre dal codice la parte parallelizzabile prima di effettuare l'esecuzione. Se ci sono istruzioni fortemente dipendenti, si spreca potenza di calcolo.

Mister Tarpone
14-05-2007, 22:37
Dipende dai drivers credo, come al solito....
Ao, io propongo una cosa, facciamo una petizione.

Gent.le Sig. Corsini,
può fare i test mostrando le differenze tra i driver .2 .3?
Può farci cortesemente vedere come va la scheda con l'Adaptive AA disabilitato (che da problemi da un sacco di tempo con alcuni giochi (ad esempio WOW) e con quello abilitato con entrambi i drivers?
Può far girare appena possibile lost planet con le "soft shadows" disabilitate e poi abilitate con i rispettivi drivers e con l'antialias attivato e disattivato?
Porgo distinti saluti,
uno che vuole fatti e non pugnette. :D

secondo me ti manda a cag....


sto scherzando eh!!! :D

Deviad
14-05-2007, 22:38
te ci scherzi, ma a me la rece di hwupgrade è sembrata superficialotta. Va beh che ero abituato al buon Raffaele, ma secondo me il livello è scaduto parecchio :(

bYeZ!
Va che io ero e sono serio. Alla fine quelle sono le prove che farei io se avessi la scheda. Purtroppo una volta che il mio babbo, che mi fa da sponsor, sgancia il grano non è che poi posso svendere la scheda per comprarmi una GTX perché questa va male. Questo "é compito" di gente come il buon Corsini.
Io "esigo" che vengano fatti i test che ho chiesto perché così finalmente si potrebbe avere un quadro completo. Ripeto che ad esempio l'Adaptive AA dava problemi già da prima con i giochi e non è una novità. ;)
Perché se è vero che il problema è l'Adaptive AA e non l'AA allora bisogna vedere come la scheda performa effettivamente con l'AA.
Ricordo poi che con ATI TOOL e suppongo di conseguenza mediante tweak del registro di sistema è possibile da mesi attivare una modalità di AA sperimentale di cui nelle recensioni non ho sentito parlare (ETM qualcosa) che non so se corrispondono a queste CSA e cazzi e mazzi vari o no.
Se non sono la stessa cosa allora voglio sapere con quel tipo di AA come va la scheda, perché da test da me effettuati quell'antialias in beta dava dei risultati veramente ottimi anche su una x1800xl giocando a WOW, se volete saperne di + andate a vedere www.tweaksrus.com

ATi7500
14-05-2007, 22:39
quindi sola paragonabile ad nv30, giusto??
.................

NV30 aveva carenze hardware evidenti, come bus memoria a 128bit, 4 pipe contro le 8 di R300, registri statici..ed era sviluppato secondo gli standard di un chip Dx8. Il paragone che ho fatto non voleva assolutamente suscitare un effetto di somiglianza tra le due architetture (non paragoniamo l'oro e la merX@ grazie :p ). Però molti ricorderanno che i driver per la serie FX hanno recuperato parte del terreno perduto (dovuto alle limitazioni hardware) proprio grazie ad una estrema ottimizzazione del compilatore dei Forceware :)

bYeZ!

A.L.M.
14-05-2007, 22:39
Ti ho gia' spiegato i motivi dei risultati negativi, che sono attribuibili all'attivazione delle softshadows (Diciamo con eufemismo che saranno in stato embrionale?) non alle dx10...perche' continui ostinatamente a sbandierare quei 24fps? :rolleyes:

Ok, se per te per una scheda da 800€ (in media) è normale fare tra 50 e 60fps a 1280x960 senza AA con ombre medie (=senza soft shadows)(in un gioco apertamente pro-nVidia), allora citerò 49fps e 61fps. ;)
Ah, la HD2900 XT fa meno di 30fps coi 3.7.4 alle stesse impostazioni di cui sopra. Sono abbastanza obiettivo?

Raven
14-05-2007, 22:40
ma si sa niente del supporto linux per sta schedina? oppure AMD ha deciso di perdersi pure quello sparuto numero di utenti linuxiani (me compreso)?

Ciao Scrambler77! :D

Clone bannato e sospensione raddoppiata... :O

leoneazzurro
14-05-2007, 22:40
quindi sola paragonabile ad nv30, giusto??
.................

NV30 (e 35) "barava" abbassando la precisione degli shaders, in R600 si può ottimizzare riordinando le istruzioni ma la precisione di calcolo è la medesima di G80.

Mister Tarpone
14-05-2007, 22:40
NV30 aveva carenze hardware evidenti, come bus memoria a 128bit, 4 pipe contro le 8 di R300, registri statici..ed era sviluppato secondo gli standard di un chip Dx8. Il paragone che ho fatto non voleva assolutamente suscitare un effetto di somiglianza tra le due architetture (non paragoniamo l'oro e la merX@ grazie :p ). Però molti ricorderanno che i driver per la serie FX hanno recuperato parte del terreno perduto (dovuto alle limitazioni hardware) proprio grazie ad una estrema ottimizzazione del compilatore dei Forceware :)

bYeZ!


NV30 "barava" abbassando la precisione degli shaders, in R600 si può ottimizzare riordinando le istruzioni ma la precisione di calcolo è la medesima di G80.

adesso ho capito ;)

ATi7500
14-05-2007, 22:40
Esatto, perchè per poter assemblare le istruzioni in una VLIW bisogna prima eliminare le interdipendenze, compito che spetta al compilatore, che deve estrarre dal codice la parte parallelizzabile prima di effettuare l'esecuzione. Se ci sono istruzioni fortemente dipendenti, si spreca potenza di calcolo.

una domanda OT: ma nelle CPU VLIW il compilatore è parte del silicio, o si ricorre al software anche lì?

bYeZ!

Kharonte85
14-05-2007, 22:40
Va che io ero e sono serio. Alla fine quelle sono le prove che farei io se avessi la scheda. Purtroppo una volta che il mio babbo, che mi fa da sponsor, sgancia il grano non è che poi posso svendere la scheda per comprarmi una GTX perché questa va male. Questo "é compito" di gente come il buon Corsini.
Io "esigo" che vengano fatti i test che ho chiesto perché così finalmente si potrebbe avere un quadro completo. Ripeto che ad esempio l'Adaptive AA dava problemi già da prima con i giochi e non è una novità. ;)
Ridicolo, su un forum e un sito completamente gratuito ESIGERE è un verbo che non dovrebbe esistere...:rolleyes:

Se c'è qualcuno che ha sbagliato è stata AMD a non essersi preparata a dovere per questo evento.

Pr|ckly
14-05-2007, 22:42
Io ho capito solo una cosa: rifarsi il pc ora, con la questione driver e Dx10 ancora poco chiara è da pazzi, meglio aspettare ancora.

Kharonte85
14-05-2007, 22:45
Ok, se per te per una scheda da 800€ (in media) è normale fare tra 50 e 60fps a 1280x960 senza AA con ombre medie (=senza soft shadows)(in un gioco apertamente pro-nVidia), allora citerò 49fps e 61fps. ;)
Ah, la HD2900 XT fa meno di 30fps coi 3.7.4 alle stesse impostazioni di cui sopra. Sono abbastanza obiettivo?

La ultra (in dx10 con AA4x e AF8x senza softshadows) fa 62 FPS

Nelle stesse condizioni la 8800gts fa 31 FPS

I dati non sono ne' cosi' tragici ne' incoraggianti.

ATi7500
14-05-2007, 22:45
Ridicolo, su un forum e un sito completamente gratuito ESIGERE è un verbo che non dovrebbe esistere...:rolleyes:

Se c'è qualcuno che ha sbagliato è stata AMD a non essersi preparata a dovere per questo evento.

se AMD sbaglia, a maggior ragione può farlo HwUpgrade peccando di superficialità. Comunque ritorniamo IT :)

bYeZ!

Deviad
14-05-2007, 22:46
Ridicolo, su un forum e un sito completamente gratuito ESIGERE è un verbo che non dovrebbe esistere...:rolleyes:

Se c'è qualcuno che ha sbagliato è stata AMD a non essersi preparata a dovere per questo evento.

Esigo l'ho messo tra virgolette, proprio perché non è che posso pretendere nulla.
Sarebbe un favore che il Corsini potrebbe fare ai suoi affezionati lettori dal momento che si è capito che driver e settagi driver fanno la differenza a questo giro.
Vi ricordo che un paio di generazioni fa le 7900 avevano dei driver troppo ottimizzati (overoptimized) e davano problemi di texture shimmering in WOW e FEAR, così come pure le x1800 anche se in maniera meno marcata, e per risolvere il problema bisognava togliere tutte le ottimizzazioni con un calo drastico delle prestazioni. ;)
Questa cosa per esempio l'ho vista tratta in un paio di recensioni in croce su tutta google tra cui una del famoso theinquirer spesso giudicato alla stregua dell'"Eva 3000" dei siti di notizie sull'hw. :)

Kharonte85
14-05-2007, 22:48
se AMD sbaglia, a maggior ragione può farlo HwUpgrade peccando di superficialità. Comunque ritorniamo IT :)

bYeZ!
Quello che dici non ha senso...:mbe: cmq torniamo IT
Esigo l'ho messo tra virgolette, proprio perché non è che posso pretendere nulla.
Sarebbe un favore che il Corsini potrebbe fare ai suoi affezionati lettori dal momento che si è capito che driver e settagi driver fanno la differenza a questo giro.

Bisogna aspettare un po' piu' di tempo in ogni caso...poiche' lo stesso Corsini ha affermato attraverso le parole di AMD stessa che i Driver 8.38 non migliorano, se non in pochi casi particolari che cmq sono esclusi dalla rece di Upgrade.

Quindi la prossima recensione sensata potrebbe essere minimo fra un mese (imho)

belin
14-05-2007, 22:51
te ci scherzi, ma a me la rece di hwupgrade è sembrata superficialotta. Va beh che ero abituato al buon Raffaele, ma secondo me il livello è scaduto parecchio :(

bYeZ!

...oggi ho scritto questo nell'altro thread su R600 e gentilmente è stato segnalato da Simon82 alla Redazione.

(...)

vorrei chiedere un favore alla Redazione e spiegare ancora due cose. Altri motivi che mi inducono a non mettere la gpu R600 tra i flop sono questi: architettura supescalare con potenzialità imho ancora non del tutto espresse, texture HDR a 64 bit filtrate, hardware dedicato per la tecnica Tesselation (che applicata in tempo reale dalle HD 2000 permette di generare modelli tridimensionali complessi partendo da modelli primitivi; questa tecnica è già presente nelle DirectX 10), GPU Block Art (fisica abbinata al rendering 3D e all'interazione grafica), HDMI, UVD, Audio 5.1.
Ecco, se qualche moderatore potesse intercedere con la Redazione vorrei sapere quando questi aspetti saranno trattati da una recensione (anche perchè di leggere altri siti non ne ho voglia...io leggo HwU da sempre! :D )

(...)

:)

Dark Schneider
14-05-2007, 22:51
Ragazzi una domanda: perchè Lost Planet lo considerate un gioco "pro-nVidia"?

E' un gioco realizzato e concepito su XBox 360 (che a dirla tutta ha un certo R500 come chip video) già un bel po' di mesi fa. Quello su Pc sarà un porting della versione 360.

Grey 7
14-05-2007, 22:52
al di la di tutto io i test su windows xp li avrei piu che graditi....

leoneazzurro
14-05-2007, 22:53
una domanda OT: ma nelle CPU VLIW il compilatore è parte del silicio, o si ricorre al software anche lì?

bYeZ!

Il compilatore on the fly è software e fa parte dei drivers. Poi ci sono anche logiche hardwired (ossia in hardware) ma in genere qui si parla di parti programmabili.

Grey 7
14-05-2007, 22:54
Ragazzi una domanda: perchè Lost Planet lo considerate un gioco "pro-nVidia"?

E' un gioco realizzato e concepito su XBox 360 (che a dirla tutta ha un certo R500 come chip video) già un bel po' di mesi fa. Quello su Pc sarà un porting della versione 360.
perche pare che la demo sia stata fatta in collaborazione con nvidia, se ho capito bene

DVD2005
14-05-2007, 22:55
al di la di tutto io i test su windows xp li avrei piu che graditi....

temo non ne vedremo piu' :(

ATi7500
14-05-2007, 22:55
perche pare che la demo sia stata fatta in collaborazione con nvidia, se ho capito bene

diciamo anche che il porting l'ha fatto nvidia stessa :p

bYeZ!

ATi7500
14-05-2007, 22:56
...oggi ho scritto questo nell'altro thread su R600 e gentilmente è stato segnalato da Simon82 alla Redazione.



:)

si avevo già letto, grazie ;)
Apprezzo molto Beyond3D, che si è limitato ad offrire una panoramica molto esaustiva sull'architettura di R600, rimandando i test prestazionali a tempi più maturi per i driver :)

bYeZ!

ATi7500
14-05-2007, 22:57
Il compilatore on the fly è software e fa parte dei drivers. Poi ci sono anche logiche hardwired (ossia in hardware) ma in genere qui si parla di parti programmabili.

grazie, non sapevo che le CPU avessero un driver :p

bYeZ!

Iantikas
14-05-2007, 22:57
non cominciamo con queste domande, questo thread deve essere TECNICO e basta. La sezione consigli per gli acquisti è lì apposta, grazie.

bYeZ!


ok ke esiste la sezione consigli x gli acquisti...ma venirmi a rispondere "questo thread deve essere TECNICO e basta" quando il 99.9% dei post in questo 3d di tecnico nn ha NIENTE te la potevi risparmiare...ora ke l'hai fatto xò x evitare di scadere nell'ipocrisia xkè nn quoti anke tutti gli altri ke parlano "del nulla" informandoli ke esiste un altro 3d x "sparlare"???...

...ciao e prego

p.s.: x ki volesse qualke info "tecnica" su R600 consiglio di dare una lettura alla rece di Anandtech...

A.L.M.
14-05-2007, 22:58
La ultra (in dx10 con AA4x e AF8x senza softshadows) fa 62 FPS

Nelle stesse condizioni la 8800gts fa 31 FPS

I dati non sono ne' cosi' tragici ne' incoraggianti.

Dipende dallo scenario, evidentemente. I grafici li hai postati proprio tu. Kein FSAA significa senza FSAA. ;)

http://www.pcgameshardware.de/screenshots/medium/LP_DX10_Snow.JPG

http://www.pcgameshardware.de/screenshots/original/LP_DX10_Snow.JPG

http://www.pcgameshardware.de/screenshots/medium/LP_DX10_Cave.JPG

http://www.pcgameshardware.de/screenshots/original/LP_DX10_Cave.JPG

Kharonte85
14-05-2007, 23:26
Dipende dallo scenario, evidentemente. I grafici li hai postati proprio tu. Kein FSAA significa senza FSAA. ;)
Lo so, ma io mi riferivo agli altri che reputo piu' significativi dato l'AA4x e AF8x ;)

Cmq ti ripeto: non sono ne' belli ne' troppo brutti...vedremo come staranno le cose quando in molti potranno fare la prova ;)

ATi7500
14-05-2007, 23:26
The ROP will sustain a Z-only write rate of 2x compared to colour writes, even with AA enabled. Compression wise, AMD report that the depth and stencil compression logic for tiles is improved to the tune of 16:1, up from 8:1 in R5xx, and it scales with the AA level (so 128:1 at 8xMSAA, peak theoretically). The hardware will actively prefetch and cache tile compression data on-chip, to make sure it's available when decompressing for sample resolve. And that brings us on to probably the most controversial part of the chip: how does(n't) it do MSAA sample resolve.

Custom Filter AA, or CFAA for short, is AMD implementing non-box filters that look outside the pixel being processed in order to calculate final colour and antialias the image. The sample resolve for that is performed on the shader core, data passed in so the programmable hardware can do the math, with the filter function defined by the driver. That means AMD can implement a pluggable user filter system if they want, but even if they don't they can update, add and remove filters from the driver at will whenever they see fit.

The big advantage is the ability to perform better filtering than the standard hardware resolve. However the disadvantages include possible implementation of bad filters, and speed issues because the driver now has to issue, and the hardware run, resolve calculation threads which chew up available shader core cycles. Ah, but there's still the regular hardware resolve if you want maximum speed and the regular quality just from sampling a single pixel, right? Well no, that's not always the case.

Even for the basic box filter resolves, where the hardware weights samples based on their proximity to the pixel centroid, R600 will perform the calculations to resolve the samples on the shader core, that is unless compression for the tile is at maximum, so you know the resolve would just return the same colour anyway, so there's no math involved to filter. Currently that points to the hardware resolve either being broken, at least under some conditions (when compression is less than maximum), or it being easier to maintain in code if you're doing other filters anyway, so you only have one path for that in the driver. We lean towards the former, rather than the latter, since the performance deficit for shader core resolve seems to be significant, even for the basic box filter cases. That can be improved in the driver, however, and the hardware helps here by likely being able to decompress sample locations for a pixel into the shader core at a high rate.

bYeZ!

Athlon 64 3000+
14-05-2007, 23:29
The ROP will sustain a Z-only write rate of 2x compared to colour writes, even with AA enabled. Compression wise, AMD report that the depth and stencil compression logic for tiles is improved to the tune of 16:1, up from 8:1 in R5xx, and it scales with the AA level (so 128:1 at 8xMSAA, peak theoretically). The hardware will actively prefetch and cache tile compression data on-chip, to make sure it's available when decompressing for sample resolve. And that brings us on to probably the most controversial part of the chip: how does(n't) it do MSAA sample resolve.

Custom Filter AA, or CFAA for short, is AMD implementing non-box filters that look outside the pixel being processed in order to calculate final colour and antialias the image. The sample resolve for that is performed on the shader core, data passed in so the programmable hardware can do the math, with the filter function defined by the driver. That means AMD can implement a pluggable user filter system if they want, but even if they don't they can update, add and remove filters from the driver at will whenever they see fit.

The big advantage is the ability to perform better filtering than the standard hardware resolve. However the disadvantages include possible implementation of bad filters, and speed issues because the driver now has to issue, and the hardware run, resolve calculation threads which chew up available shader core cycles. Ah, but there's still the regular hardware resolve if you want maximum speed and the regular quality just from sampling a single pixel, right? Well no, that's not always the case.

Even for the basic box filter resolves, where the hardware weights samples based on their proximity to the pixel centroid, R600 will perform the calculations to resolve the samples on the shader core, that is unless compression for the tile is at maximum, so you know the resolve would just return the same colour anyway, so there's no math involved to filter. Currently that points to the hardware resolve either being broken, at least under some conditions (when compression is less than maximum), or it being easier to maintain in code if you're doing other filters anyway, so you only have one path for that in the driver. We lean towards the former, rather than the latter, since the performance deficit for shader core resolve seems to be significant, even for the basic box filter cases. That can be improved in the driver, however, and the hardware helps here by likely being able to decompress sample locations for a pixel into the shader core at a high rate.

bYeZ!

e che cosa direbbe?

piperprinx
14-05-2007, 23:29
Non dimentichiamo la FX Nvidia (NV30):mc: :mc:

ai tempi avevo acquistato uno dei primi esemplari delle 9700 pro ho goduto quasi 2 anni con quella scheda attiavando tutti i filitri si mangiava tutte le geoforce 4 con i filtri disattivati! poi all'uscita di nv30 riusciva a fargli mangiare la polvere overclockandola poi nv30 era già passata alla storia prima di nascere, fu l'hardware + azzecato mai acquistato!!!

triste vedere questi test......

certo, non c'e' dubbio che sia il paragone piu' vicino. Il che non e' sicuramente confortante....:( il momento di Nvidia allora era cmq un po' meglio di quello di AMD oggi....

Nemesis83
14-05-2007, 23:31
Ecco ecco!!!
Io ho preso la GTS, a causa di sto thread :p
Diciamo che nel mondo almeno una persona è stata colta da "repulsione verso attesa disillusa" ed è passata alla concorrenza.
Spero di essere soddisfatto per un paio di annetti :D

belin
14-05-2007, 23:32
...ho letto bene altre recesnioni tra cui quella di "The Tech Report", ma non ho ben capito una cosa: di default che tipo di AF applica 2900XT??? invece devo dire che il CFAA ha una qualità notevole, tutte le recensioni lo riportano.

...ciao!

piperprinx
14-05-2007, 23:32
The HD 2000 series also features two levels of Video decoder/acceleration technology. On the 2600/2400 cards we have a universal video decoder which has full acceleration of HD/BD content. This should allow for very low CPU usage as demonstrated by the Geforce 8500/8600 series, however at this time we have not received a sample of either Radeon card to confirm the performance. The 2600/2400 also have the ability to perform various post processing tasks such as De-interlacing and colour correction. On the Radeon 2900, disappointingly, the full acceleration of BD/HD is not present and as a result the CPU usage is greater when watching a high-definition movie. We will look at the performance of the 2900 XT in Video Playback later in the review. Clearly AMD must have known that the XT was not going to beat the GTS and with the delays in launch they had time to rethink the product and add some unique selling points. One such point could have been the inclusion of full high definition video decoding such as that which will be featured in lower spec 2000 series products. Instead we have a card which when combined with any CPU other than the fastest available (high end dual core conroe) struggles with 1080p content. Even when trying to implement unique features things didn’t go well.

Fonte: DriverHeaven

bYeZ!

quindi una ciofeca anche per uso HTPC....:(

belin
14-05-2007, 23:42
quindi una ciofeca anche per uso HTPC....:(

...certo che alle volte traete delle conclusioni veramente afrettate...quel sito ha avuto dei problemi, imputabili probabilmente ai driver. UVD e HDMI sono caratteristiche non da poco. Altri siti le hanno recensite riscontrando buonissimi risultati in termini d'occupazione della cpu.

ATi7500
14-05-2007, 23:47
e che cosa direbbe?

l'ultima parte in neretto conferma come l'operazione di antialias (in tutte le sue forme, non solo in quelle nuove introdotte con n R600) venga eseguita sullo shader core e non con circuiteria apposita e dotata di tecniche di compressione. In soldoni, attivare l'antialias su R600 mangia bandwidth e sottrae potenza di calcolo alle unità shader.

bYeZ!

ATi7500
14-05-2007, 23:48
...certo che alle volte traete delle conclusioni veramente afrettate...quel sito ha avuto dei problemi, imputabili probabilmente ai driver. UVD e HDMI sono caratteristiche non da poco. Altri siti le hanno recensite riscontrando buonissimi risultati in termini d'occupazione della cpu.

beh nel paragrafo che ho postato sembra che driver heaven dica che esiste una differenza hardware in UVD tra 2900 e 2600/2400, al pari di 8800 e 8600

bYeZ!

leoneazzurro
14-05-2007, 23:51
beh nel paragrafo che ho postato sembra che driver heaven dica che esiste una differenza hardware in UVD tra 2900 e 2600/2400, al pari di 8800 e 8600

bYeZ!

Solo nel senso che nella 2900 è integrata nel chip, nelle 2600/2400 utilizza un chip esterno.

belin
14-05-2007, 23:54
beh nel paragrafo che ho postato sembra che driver heaven dica che esiste una differenza hardware in UVD tra 2900 e 2600/2400, al pari di 8800 e 8600

bYeZ!

...differenze hardware non dovrebbero proprio essercene....è quello che hanno scritto tutti oggi (e imho non avrebbe, tra l'altro, alcun senso). Propendo per quaestioni software. Non riesco più a trovare un sito che l'ha provata e ha verificato che l'occupazione della cpu era bassa...d'oh!

:)

*edit*: ok, leoneazzurro ha fugato ogni dubbio...!

ATi7500
14-05-2007, 23:55
Solo nel senso che nella 2900 è integrata nel chip, nelle 2600/2400 utilizza un chip esterno.

beh se le cose stanno così, c'è da sperare che RV6x0 sia ben più di un "cut-down" di R600 :) intendo dire, se hanno addirittura spostato la circuiteria UVD su un chip a parte, ci sono buone probabilità che abbiano riorganizzato interamente la GPU.

bYeZ!

wiltord
14-05-2007, 23:55
sono emerse cose nuove nel corso della serata? :)

belin
14-05-2007, 23:57
l'ultima parte in neretto conferma come l'operazione di antialias (in tutte le sue forme, non solo in quelle nuove introdotte con n R600) venga eseguita sullo shader core e non con circuiteria apposita e dotata di tecniche di compressione. In soldoni, attivare l'antialias su R600 mangia bandwidth e sottrae potenza di calcolo alle unità shader.

bYeZ!

...è il discorso di prima, rimane da capire se questa è una limitazione hardware (ma si può fare un "errore" -se così si può chiamare- del genere?) o se è solo un problema dei driver.

:confused:

Darkgift
14-05-2007, 23:57
2900 = PENA
Nessuna delle nuove schede dx10 attuali riuscira a far girare Crysis & Co. in modo eccellente. Queste schede(soprattuto r600) potrebbero dimostrarsi molto sopravvalutate....ne sarei molto soddisfatto.
Ihmo bisogna essere abbastanza stupidi per comprare una scheda dx10 quando non ci sono applicativi per saggiarne le capacita.
Spero vivamente che sul campo queste schede facciano ridere...almeno tutti i polli che hanno comprato 8800 e compagnia bella la prenderanno di dietro....e la smetteranno di permettere a questi buffoni ATI/Nvidia/AMD/INtel/Microsoft e compari di prenderci per il culo.....di sei mesi in sei mesi.
E' come con il grande fratello.....se non spegni la televisione continueranno a farlo fino alla morte.....se spegni vedrai che smettono.

BASTA con questo SCHIFO !!!!

ATi7500
14-05-2007, 23:57
sono emerse cose nuove nel corso della serata? :)

rimboccati gli occhiali :p e :read: :D

bYeZ!

Kharonte85
14-05-2007, 23:57
sono emerse cose nuove nel corso della serata? :)
Parecchie...ovviamente tutte speculazioni :p ma ti va male che ora vado a nanna...:ronf:

ionet
14-05-2007, 23:59
raga facciamo un sospiro,questa nuova architettura ati non e' un flop;)

e' ovvio e palese che ci sono problemi con i driver,dopotutto si proviene da una generazione completamente differente,cioe' non e' come il passaggio dal GF3-GF4,dal X1800-X1900 e simili
qui' il progetto e' completamente nuovo o quasi,ma poi vi rendete conto in che ambiente software e' costretta a lavorare ati??

in pratica tutto e' ancora in perenne beta,le DX10,i giochi,i demo,gli sdk,ma sopratutto quel mattone di Vista:muro:

e vi meravigliate se con xp e driver piu' vecchi va stranamente molto meglio,oppure che la vecchia 1950xtx riesce ancora a bastonarla??

e che c'e' di strano??
con anni di revisioni hard\software si riescono a creare ambienti prestanti e rock solid,fatti di rev.b,c,d... e sp1,2,3...
ma purtroppo l'evoluzione tecnologica implica,giustamente,di tanto in tanto di ricominciare da zero

diamogli tempo,questa non e' nemmeno una candidate release
come minimo un'altro semestre se ne va solo per il passaggio ai 065um e dare una stabilizzata a tutto l'ambaradam driver,vista,engine game etc

il lancio attuale e' da vedere piu' come una pavonata,un modo per tranquillizzare gli investitori,i clienti,un modo per dire a tutto il mondo "siamo tornati,ci siamo anche noi,aspettate un'altro pochino che ne vedrete delle belle"e quindi a rallentare le vendite della concorrenza:D

personalmente non prenderei mai un fornelletto costoso e instabile come queste schede,come non installero' vista prima del sp1
anche la serie 8800 da problemi in dx10 e cmq non e' che sono tanto fresche pure loro

quindi raga non smadonniamo se la beta o il sample crasha o non rende,e' normale

e come qualcuno ha detto e' interesse del produttore rendere giocabile un videogame dx10,o rilasciare driver piu' performanti per l'hw di nuova generazione:O

belin
14-05-2007, 23:59
sono emerse cose nuove nel corso della serata? :)

rimboccati gli occhiali :p e :read: :D

bYeZ!

Parecchie...ovviamente tutte speculazioni :p ma ti va male che ora vado a nanna...:ronf:

...ora vi segnalo.

:sofico:

ATi7500
15-05-2007, 00:00
...è il discorso di prima, rimane da capire se questa è una limitazione hardware (ma si può fare un "errore" -se così si può chiamare- del genere?) o se è solo un problema dei driver.

:confused:

no, che sia una limitazione hardware (per ora circoscritta a R600, visto che hanno testato solo quello :p) è ormai assodato. Come ho ribadito prima più volte, credo sia un difetto emerso fin dalle prime revisioni del chip, e mai fixato con i successivi respin (e questo spiegherebbe anche l'enorme ritardo accumulatosi). Come dire, ATi "ci sperava" e gli è andata male. Non capisco perchè ogni volta si debba complicare la vita :D
Comunque molto ha giocato il processo a 80nm presso TSMC, si vede che è inadatto a una GPU di questa complessità.
Per questo sono molto fiducioso nella versione a 65nm (R650?) e credo che essa equipaggerà le 2900XL e Pro, oltre ovviamente a tutte le versioni inferiori. Paradossalmente si avrebbe una situazione in cui la fascia media va più forte della fascia alta appena presentata: solo ATi potrebbe riuscire in una cosa del genere :asd:

bYeZ!

wiltord
15-05-2007, 00:01
nessun driver miracoloso all'orizzonte eh?

Crisp
15-05-2007, 00:03
Ecco i risultati dell'acquisto di AMD su ATI.

La Radeon HD 2900XT che doveva sulla carta essere almeno paragonabile alla 8800GTX si è rivelata un bidone (ma nel senso che la gente si aspettava una fascia superalta) perchè si sono limitati a cercare di stare al passo di una 8800GTS.
Da tradizione ATI e Nvidia si sono sempre battute allo stesso livello..da quando è stata acquisita da AMD ecco i risultati....
La HD 2600XT ha le stesse prestazioni di una 8600GTS almeno dai benchmark che ci sono in giro..

AMD sta svendendo i suoi processori e ha già subito un notevole diminuzione delle vendite..

Io vedo male questo rapporto AMD/ATI..se AMD crolla si porta dietro anche ATI..:rolleyes:

Di certo anche i driver saranno acerbi..eppure quando sono uscite le x1000 le prestazioni si vedevano anche con i vecchi driver ;)
Io non credo che una ottimizzazione faccia ribaltare la situazione..

R600 è partito malissimo nella fascia media e male nella fascia alta (ehm, medio-alta, è megio:rolleyes: ), purtroppo non ci sono schede di fascia alta e questa HD2900XT non la vedo come fascia alta..

Secondo vecchi rumors..ATI voleva fare la differenza con R700 puntando al multigpu..

Pr|ckly
15-05-2007, 00:06
e vi meravigliate se con xp e driver piu' vecchi va stranamente molto meglio,oppure che la vecchia 1950xtx riesce ancora a bastonarla??

e che c'e' di strano??

Aridaje.
C'è di strano che è solo la Ati a perdere punti sotto Vista rispetto ad Xp.
Ok abbiamo capito che è un problema di driver ma dopo tutto questo tempo è accettabile?

ATi7500
15-05-2007, 00:06
raga facciamo un sospiro,questa nuova architettura ati non e' un flop;)

e' ovvio e palese che ci sono problemi con i driver,dopotutto si proviene da una generazione completamente differente,cioe' non e' come il passaggio dal GF3-GF4,dal X1800-X1900 e simili
qui' il progetto e' completamente nuovo o quasi,ma poi vi rendete conto in che ambiente software e' costretta a lavorare ati??

in pratica tutto e' ancora in perenne beta,le DX10,i giochi,i demo,gli sdk,ma sopratutto quel mattone di Vista:muro:

e vi meravigliate se con xp e driver piu' vecchi va stranamente molto meglio,oppure che la vecchia 1950xtx riesce ancora a bastonarla??

e che c'e' di strano??
con anni di revisioni hard\software si riescono a creare ambienti prestanti e rock solid,fatti di rev.b,c,d... e sp1,2,3...
ma purtroppo l'evoluzione tecnologica implica,giustamente,di tanto in tanto di ricominciare da zero

diamogli tempo,questa non e' nemmeno una candidate release
come minimo un'altro semestre se ne va solo per il passaggio ai 065um e dare una stabilizzata a tutto l'ambaradam driver,vista,engine game etc

il lancio attuale e' da vedere piu' come una pavonata,un modo per tranquillizzare gli investitori,i clienti,un modo per dire a tutto il mondo "siamo tornati,ci siamo anche noi,aspettate un'altro pochino che ne vedrete delle belle"e quindi a rallentare le vendite della concorrenza:D

personalmente non prenderei mai un fornelletto costoso e instabile come queste schede,come non installero' vista prima del sp1
anche la serie 8800 da problemi in dx10 e cmq non e' che sono tanto fresche pure loro

quindi raga non smadonniamo se la beta o il sample crasha o non rende,e' normale

e come qualcuno ha detto e' interesse del produttore rendere giocabile un videogame dx10,o rilasciare driver piu' performanti per l'hw di nuova generazione:O

il problema (e il fascino) di ATi è che vuole innovare, sempre e comunque. E spesso questo la porta a fare il passo più lungo della gamba, ed R600 è l'espressione più sfortunata della sua "intraprendenza". Vedendola sotto questo punto di vista, rido sulle parole di chi la definisce "Flop". Definirla flop significa dare degli incompetenti agli ingegneri ATi, che se non altro, "ci hanno provato", pur essendo la condizione economica della casa non brillante. Solo per l'impegno profuso io mi vergognerei a definirlo un flop. Chi lo definisce tale non capisce un fico secco di come R600 sia strutturato.

bYeZ!

belin
15-05-2007, 00:08
no, che sia una limitazione hardware (per ora circoscritta a R600, visto che hanno testato solo quello :p) è ormai assodato. Come ho ribadito prima più volte, credo sia un difetto emerso fin dalle prime revisioni del chip, e mai fixato con i successivi respin (e questo spiegherebbe anche l'enorme ritardo accumulatosi).
Comunque molto ha giocato il processo a 80nm presso TSMC, si vede che è inadatto a una GPU di questa complessità.
Per questo sono molto fiducioso nella versione a 65nm (R650?) e credo che essa equipaggerà le 2900XL e Pro, oltre ovviamente a tutte le versioni inferiori.

...già le 2600 tra 15 giorni dovrebbero darci delle indicazioni interessanti su questa cosa. Comunque vediamo se coi driver esce qualche buona novità...dal forum di guru3d:

Hilbert: Why in some AA cases does your performance on the Radeon X1950 beat that of the Radeon HD 2900 XT?

ATI: We've identified a performance problem on R6xx with Adaptive AA enabled, which lowers performance more than expected in some games. This can lead to cases where HD 2000 boards perform lower than previous generations. We are currently looking at a fix for this.

nessun driver miracoloso all'orizzonte eh?

...sinora si hanno dei pre-alpha, il 22 dovrebbero uscire dei nuovi driver WHQL.

:)

ATi7500
15-05-2007, 00:10
Ecco i risultati dell'acquisto di AMD su ATI.

La Radeon HD 2900XT che doveva sulla carta essere almeno paragonabile alla 8800GTX si è rivelata un bidone (ma nel senso che la gente si aspettava una fascia superalta) perchè si sono limitati a cercare di stare al passo di una 8800GTS.
Da tradizione ATI e Nvidia si sono sempre battute allo stesso livello..da quando è stata acquisita da AMD ecco i risultati....
La HD 2600XT ha le stesse prestazioni di una 8600GTS almeno dai benchmark che ci sono in giro..

AMD sta svendendo i suoi processori e ha già subito un notevole diminuzione delle vendite..

Io vedo male questo rapporto AMD/ATI..se AMD crolla si porta dietro anche ATI..:rolleyes:

Di certo anche i driver saranno acerbi..eppure quando sono uscite le x1000 le prestazioni si vedevano anche con i vecchi driver ;)
Io non credo che una ottimizzazione faccia ribaltare la situazione..

R600 è partito malissimo nella fascia media e male nella fascia alta (ehm, medio-alta, è megio:rolleyes: ), purtroppo non ci sono schede di fascia alta e questa HD2900XT non la vedo come fascia alta..

Secondo vecchi rumors..ATI voleva fare la differenza con R700 puntando al multigpu..
vedi che il curriculum lo puoi mandare ad AMD, avranno bisogno di te al più presto :asd:
senza polemica, ma come si fanno a dire certe castronerie? :asd: ma secondo te AMD si compra ATi, con atteggiamento mafioso fa andare a rotoli lo sviluppo di R600 (peraltro già in conclusione/terminato), dopodichè cola a picco e decreta la fine della concorrenza in ambito CPU e GPU? E poi discorsi del genere sono stati già fatti in precedenza, e prontamente smontati, che senso ha farli di nuovo?

bYeZ!

wiltord
15-05-2007, 00:12
...
...sinora si hanno dei pre-alpha, il 22 dovrebbero uscire dei nuovi driver WHQL.

:)


non ho fretta :)

ATi7500
15-05-2007, 00:14
non ho fretta :)

è AMD che dovrebbe avercela :asd:
Comunque consiglierei di aspettare le 2900XL/Pro, come ho scritto prima (te ho detto di legge :p) se sono basate sul core a 65nm ci sono buone possibilità che siano più veloci della stessa XT

bYeZ!

Pr|ckly
15-05-2007, 00:14
...sinora si hanno dei pre-alpha, il 22 dovrebbero uscire dei nuovi driver WHQL.
:)

Qualche speranza c'è, se è vero che gli ultimi nvidia migliorano del 30% sotto Vista perchè non pensare che Ati possa fare lo stesso?

wiltord
15-05-2007, 00:17
è AMD che dovrebbe avercela :asd:
Comunque consiglierei di aspettare le 2900XL/Pro, come ho scritto prima (te ho detto di legge :p) se sono basate sul core a 65nm ci sono buone possibilità che siano più veloci della stessa XT

bYeZ!

ah bello quello è un altro discorso :O :p

e cmq io mentalmente sto ancora nel thread "aspettando R600"..:stordita: :D ;)

piperprinx
15-05-2007, 00:20
...certo che alle volte traete delle conclusioni veramente afrettate...quel sito ha avuto dei problemi, imputabili probabilmente ai driver. UVD e HDMI sono caratteristiche non da poco. Altri siti le hanno recensite riscontrando buonissimi risultati in termini d'occupazione della cpu.

Non ho mai visto schede uscire con ottimi bench con i primi driver diventare semplicemente buone schede.
Non ho mai visto schede con pessimi bench con i primi driver diventare ottime schede. Buone si, magari e dopo un po' di tempo. Ma ottime mai.

Del resto se sapessero di poter migliorare *molto* la scheda tramite driver l'avrebbero messa in vendita a quel prezzo? Od ora?

Cmq si puo' continuare a sperare. O ad illudersi.

E lo dico con dispiacere, al di sopra del tifo (se i risultati fossero stati superiori a 8800 l'avrei acquistata stasera stessa, come faccio da anni, da voodoo1, per i "top di gamma", indipendentemente dalla marca) perche' questa sara' veramente una mazzata per AMD...ucci ucci sento odore di acquistucci....

belin
15-05-2007, 00:22
Qualche speranza c'è, se è vero che gli ultimi nvidia migliorano del 30% sotto Vista perchè non pensare che Ati possa fare lo stesso?

...la speranza è l'ultima a morire. Sono molte le gpu nella storia che hanno ottenuto miglioramenti con il progredire dei driver...non vedo perchè non possa capitare anche a R600.

:)

belin
15-05-2007, 00:25
(...)

...quello che dici non ha alcun senso. Stavamo parlando di UVD e HDMI. Ed abbiamo capito cosa volevano dire quelle frasi in inglese, che riguardavano la presenza o meno di un chip dedicato a ciò su 2900XT. Con le prestazioni della vga c'entra come i cavoli a merenda. Riprova e controlla.

Crisp
15-05-2007, 00:37
senza polemica, ma come si fanno a dire certe castronerie? :asd: ma secondo te AMD si compra ATi, con atteggiamento mafioso fa andare a rotoli lo sviluppo di R600 (peraltro già in conclusione/terminato), dopodichè cola a picco e decreta la fine della concorrenza in ambito CPU e GPU? E poi discorsi del genere sono stati già fatti in precedenza, e prontamente smontati, che senso ha farli di nuovo?

bYeZ!

non hai capito quello che ho scritto :O

volevo dire che l'accordo (se vogliamo chiamarlo così) doveva portare benefici ad entrambi, ma evidentemente ATI non ha avuto modo di sviluppare R600 come voleva.
Di certo AMD come "padrone" ha imposto e deciso la linea di produzione e sviluppo.

ATI e Nvidia si sono rivaleggiate alla pari, anzi ATI è sempre stata superiore, anche di poco alle soluzioni nvidia.
Usciva una scheda di fascia altra nvidia e subito dopo una scheda di fascia ati ancora più potente.

Ora come mai AMD ha preferito con suo modello di "fascia alta" puntare invece al modello 8800GTS che costa di meno tra l'altro
Adesso, la HD2900XT costa 400 euro, mentre la 8800GTS costa meno e va uguale, anzi meglio.

Secondo te è questa la politica giusta di AMD/ATI.
Far aspettare mesi e mesi per offrire una soluzione a 400 euro con prestazioni di una scheda che costa 100/150 euro di meno?

Per me questo è suicidio!!
E Per me non è un problema..passo ad nvidia per questo giro o aspetto R700 ;)

ATi7500
15-05-2007, 00:41
non hai capito quello che ho scritto :O

volevo dire che l'accordo (se vogliamo chiamarlo così) doveva portare benefici ad entrambi, ma evidentemente ATI non ha avuto modo di sviluppare R600 come voleva.
Di certo AMD come "padrone" ha imposto e deciso la linea di produzione e sviluppo.

ATI e Nvidia si sono rivaleggiate alla pari, anzi ATI è sempre stata superiore, anche di poco alle soluzioni nvidia.
Usciva una scheda di fascia altra nvidia e subito dopo una scheda di fascia ati ancora più potente.

Ora come mai AMD ha preferito con suo modello di "fascia alta" puntare invece al modello 8800GTS che costa di meno tra l'altro
Adesso, la HD2900XT costa 400 euro, mentre la 8800GTS meno e va uguale, anzi meglio.

Secondo te è questa la politica giusta di AMD/ATI.
Far aspettare mesi e mesi per offrire una soluzione a 400 euro con prestazioni di una scheda che costa 100/150 euro di meno?

Per me questo è suicidio!!
Per non è un problema..passo ad nvidia per questo giro o aspetto R700 ;)
avevo capito benissimo cosa volevi dire, e infatti hai RIscritto castronerie. AMD non ha, non poteva e non DOVEVA influire in alcun modo con la deadline di R600. Se hai letto anche solo 1 degli interventi postati finora, avrai sicuramente capito che R600, a livello di complessità circuitale, non ha eguali nella storia. E' inoltre il primo chip VILW (nel campo delle CPU, per farti un esempio, Itanium è un chip VILW) e perciò necessita di driver scritti da Einstein e soci per rendere al meglio. ATi ha avuto problemi proprio a livello di costruzione materiale del chip, visto il processo produttivo ad 80nm, per cui è stata costretta a ridurre il target della scheda, riciclandola a fascia medio alta, e mandandola a competere con la GTS, e su questo AMD non c'entra proprio nulla. Inoltre con lo sviluppo driver la scheda IMHO maturerà a tal punto da avvicinarsi alla 8800GTX/Ultra, pur mantenendo sempre la stessa fascia di prezzo. AMD inoltre ha sempre dichiarato di lasciare carta bianca ad ATi per quanto riguarda le soluzioni grafiche discrete (cioè quelle su scheda, non integrate). Ripeto, se hai idee da proporre al marketing AMD proponiti, vedrai che se sei bravo ti assumono.

bYeZ!

Chief
15-05-2007, 00:41
Questa scheda sta portando al delirio totale, ormai nessuno sa com'è che realmente va (dall 'architettura si evince una tecnologia avanzata ma che non frutta con i primi bench di quest'oggi)spero vivamente che questa scheda decolli con i prossimi driver(per noi e per amd\ati),perchè le carte in regole per giocarsela con la serie 8xxx ce le ha tutte...intanto aspetto non ho fretta vediamo in questi giorni cosa succederà,sono fiducioso non so perchè :D

piperprinx
15-05-2007, 00:42
...quello che dici non ha alcun senso. Stavamo parlando di UVD e HDMI. Ed abbiamo capito cosa volevano dire quelle frasi in inglese, che riguardavano la presenza o meno di un chip dedicato a ciò su 2900XT. Con le prestazioni della vga c'entra come i cavoli a merenda. Riprova e controlla.

era riferito al trarre conclusioni affrettate.

Crisp
15-05-2007, 01:22
Se hai letto anche solo 1 degli interventi postati finora, avrai sicuramente capito che R600, a livello di complessità circuitale, non ha eguali nella storia. E' inoltre il primo chip VILW (nel campo delle CPU, per farti un esempio, Itanium è un chip VILW)


sulle sue feature non si discute..non è a caso che ho sempre scelto ATI :O

TecnoWorld8
15-05-2007, 01:24
infatti pare impossibile che un chip così evoluto e che consuma così tanto, abbia prestazioni così "mediocri" :( speriamo che con i nuovi driver arrivi almeno a ridosso di GTX...per ora è parecchio indietro, purtroppo

Verro
15-05-2007, 07:00
Non ho mai visto schede uscire con ottimi bench con i primi driver diventare semplicemente buone schede.
Non ho mai visto schede con pessimi bench con i primi driver diventare ottime schede. Buone si, magari e dopo un po' di tempo. Ma ottime mai.

Del resto se sapessero di poter migliorare *molto* la scheda tramite driver l'avrebbero messa in vendita a quel prezzo? Od ora?

Cmq si puo' continuare a sperare. O ad illudersi.

E lo dico con dispiacere, al di sopra del tifo (se i risultati fossero stati superiori a 8800 l'avrei acquistata stasera stessa, come faccio da anni, da voodoo1, per i "top di gamma", indipendentemente dalla marca) perche' questa sara' veramente una mazzata per AMD...ucci ucci sento odore di acquistucci....

be, io invece ricordo benissimo quando uscì la Geforce3, non avevo Internet, però compravo giornali e su quasi tutti, vedendo bench, la Geforce 3 era a malapena il 5, max 10% piu veloce di una Geforce2 Ultra, e pensai "mamma mia che cassone!!":D ....invece non era affatto cosi, solo driver acerbi!:)

halduemilauno
15-05-2007, 07:18
be, io invece ricordo benissimo quando uscì la Geforce3, non avevo Internet, però compravo giornali e su quasi tutti, vedendo bench, la Geforce 3 era a malapena il 5, max 10% piu veloce di una Geforce2 Ultra, e pensai "mamma mia che cassone!!":D ....invece non era affatto cosi, solo driver acerbi!:)

però in tutti i casi partiva dal 5/10% in +. questa rispetto alla 8800gtx parte dal(dillo tu)in -.
;)

halduemilauno
15-05-2007, 07:20
Io mi fido di Hwupgrade ci mancherebbe ma c'è un abisso di prestazione da xp e vista questo non può essere che dovuta ai driver mal ottimizzati...il problema ora è capire realmente come questa scheda giri su xp.. perchè ne stanno uscendo un sacco fuori chi dice i drivers scandalosi, chi dice che in quei drivers c'è l'adptive aa abilitato di base...insomma non si capisce poi domani Lost Planet sarà un altro bel test :D

se questa scheda vuol apparire + proiettata verso le dx10 il sistema da utilizzare è vista.
;)

JoeLatino
15-05-2007, 07:58
se non e' gia' stato postato:rolleyes: ....
test/recensione con Call of Juarez directx 10;)

http://www.legitreviews.com/article/504/1/

Simon82
15-05-2007, 08:00
Ricordo a tutti che per discorsi e opinioni generali c'e' l'altro thread, questo teniamolo piu' per parlare di numeri, bench, review e features.

Raven
15-05-2007, 08:04
E' inoltre il primo chip VILW (nel campo delle CPU, per farti un esempio, Itanium è un chip VILW) e perciò necessita di driver scritti da Einstein e soci per rendere al meglio.

Beh... Questo non è esattamente un punto a favore.... e vedendo la "fine ingloriosa" di itanium credo che se ti sentisse qualcuno di Ati, partirebbe una potente e scaramantica grattata di maroni! :D

Freisar
15-05-2007, 08:13
Mio modesto parere semplciemente ne giochi, ne driver, ne os supportano le nuove fnzionalità della scheda....poi potrei sbagliarmi eh, cmq l'incremento non sarebbe cmq tale ha una GTX ma secondo me GTS sicuramente....poi boh..

Athlon 64 3000+
15-05-2007, 08:27
non ho ancora capito bene riguardo l'applicazione dell'AA che baco hardware ci sarebbe, è percaso che non esiste la circuiteria dedicata all'MSAA?

DVD2005
15-05-2007, 08:27
ah bello quello è un altro discorso :O :p

e cmq io mentalmente sto ancora nel thread "aspettando R600"..:stordita: :D ;)

ti tengo compagnia :stordita: :D ;)

shodan
15-05-2007, 08:59
be, io invece ricordo benissimo quando uscì la Geforce3, non avevo Internet, però compravo giornali e su quasi tutti, vedendo bench, la Geforce 3 era a malapena il 5, max 10% piu veloce di una Geforce2 Ultra, e pensai "mamma mia che cassone!!":D ....invece non era affatto cosi, solo driver acerbi!:)

Si, ricordo pure io.
Anzi, in molti benchmark (all'epoca fatti a 16 bit) era addirittura più lenta della GF2 Ultra.

Ritornando a R600: i driver .2 paiono apportare grossi aumenti prestazionali; non resta che attendere e vedremo. Solo che, dopo aver accumulato un ritardo così sensibile, sarebbe stato auspicabile una genesi dei driver meno travagliata.

Potete darmi il link all'articolo dove si accenna ai problemi di MSAA nelle ROPs?

Grazie. :)

Simon82
15-05-2007, 09:05
be, io invece ricordo benissimo quando uscì la Geforce3, non avevo Internet, però compravo giornali e su quasi tutti, vedendo bench, la Geforce 3 era a malapena il 5, max 10% piu veloce di una Geforce2 Ultra, e pensai "mamma mia che cassone!!":D ....invece non era affatto cosi, solo driver acerbi!:)

Il problema e' che era la prima scheda Directx8, non la seconda soluzione concorrente di una gia' presente da 6 mesi. ;)
E' questa la differenza senza nulla dare ad una o togliere all'altra.

Deviad
15-05-2007, 09:19
http://tertsi.users.daug.net/temp/R600/iq/coj_nvidia_vs_ati.html

In questo caso l'immagine è + nitida con nVIDIA che non con ATI.
Credo che però qui c'entri il filtro anisotropico + che l'aa o mi sbaglio?
Se guardate l'interno del camino a sinistra sembra che il bumpmapping se ne vada a benedire.

JoeLatino
15-05-2007, 09:21
altri test di paragone con Call of Juarez ....

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/31/#abschnitt_direct3d_10_benchmarks


a questo punto la 2900xt e' confermata come la piu' lenta (rispetto alla 8800gtx ovviamente) anche in directx10??

Deviad
15-05-2007, 09:23
altri test di paragone con Call of Juarez ....

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/31/#abschnitt_direct3d_10_benchmarks


a questo punto la 2900xt e' confermata come la piu' lenta (rispetto alla 8800gtx ovviamente) anche in directx10??

Emerge solo quello che è emerso finora, con l'AA ci sono problemi...

fukka75
15-05-2007, 09:54
In realtà non emerge proprio nulla: nel techdemo specifico DX10 è dietro ad entrambe le nVidia (per quanto possa significare un techdemo), e il risultato con AA4X in CoJ DX10 non significa nulla, visto che non c'è il confronto con i valori nVidia ;)

JoeLatino
15-05-2007, 09:54
Emerge solo quello che è emerso finora, con l'AA ci sono problemi...

sul sito ci sono anche altri tests
in diversi si posiziona tra la 8800gts e la 8800gtx in tanti altri e' inferiore indipendentemente dall'AA....

halduemilauno
15-05-2007, 10:39
http://www.fudzilla.com/index.php?option=com_content&task=view&id=991&Itemid=1

Frustrated with RV630 / RV610 delays


ATI partners finally got a new toy but unfortunately this was not enough to get the confidence in ATI back. Radeon HD 2900XT is barely beating 8800 GTS and this card already dropped to close to €300 price.

Most of the people on many forums said that they would be willing to pay €350 for Radeon HD 2900XT but not much more than that.

Partners are again stuck as R600XT wont sell like a hot cookie and Radeon HD 2600 and 2400 are still some month and a half away. It will be tough to make money on ATI cards at least till Q3 2007. Hang in there.

;)

Deviad
15-05-2007, 10:41
Guardate questa recensione:
http://www.3dcenter.de/artikel/radeon_hd_2900_xt/
Guardate la modalità di AA +EATM ;)
Guardate come cazzo sono realistiche le piante, questa modalità nella recensione di hwupgrade.it mi pare non ci sia, eppure io la uso in versione beta nei driver tramite atittool da mesi. :)
Guardate direttamente questo link se non avete voglia di vedere la recensione dall'inizio:
http://www.3dcenter.de/artikel/radeon_hd_2900_xt/index6.php

Insomma è da un pezzo che l'Adaptive AA da problemi e che io uso la modalità sperimentale EATM...

Simon82
15-05-2007, 10:50
Guardate questa recensione:
http://www.3dcenter.de/artikel/radeon_hd_2900_xt/
Guardate la modalità di AA +EATM ;)
Guardate come cazzo sono realistiche le piante, questa modalità nella recensione di hwupgrade.it mi pare non ci sia, eppure io la uso in versione beta nei driver tramite atittool da mesi. :)
Guardate direttamente questo link se non avete voglia di vedere la recensione dall'inizio:
http://www.3dcenter.de/artikel/radeon_hd_2900_xt/index6.php

Insomma è da un pezzo che l'Adaptive AA da problemi e che io uso la modalità sperimentale EATM...

Indubbiamente questa modalita' lavora meglio della concorrente. Almeno sul riscontro in questo caso non c'e' dubbio.

Deviad
15-05-2007, 11:00
Indubbiamente questa modalita' lavora meglio della concorrente. Almeno sul riscontro in questo caso non c'e' dubbio.

Perciò ieri, anche se in tono ironico per sdrammatizzare pun po', ho invitato il Corsini o un suo collaboratore a ampliare la recensione, più che rifarla, tenendo conto di queste cose. :)
(Anche perché molti passaggi di quella recensione che ho pocanzi linkato google translator li traduce alla cazzo e quindi magari qualcosa di importante me lo sono perso :P)


Cmq dall'idea che mi sono fatto conviene aspettare il refresh di questa scheda e tirare avanti momentaneamente con quello che si ha oppure comprare una x1950pro

fukka75
15-05-2007, 11:06
conviene aspettare il respawn di questa scheda

refresh ;)

Deviad
15-05-2007, 11:06
refresh ;)

stai a guardare il pelo... :P
Effettivamente, respawn vuol dire apparire dopo essere stato ucciso nel gergo dei videogames. :D

Athlon 64 3000+
15-05-2007, 11:18
io sto cercando di capire dove sarebbe questo baco hardware che ci sarebbe quando viene eseguito l'AA.

Brightblade
15-05-2007, 11:20
stai a guardare il pelo... :P
Effettivamente, respawn vuol dire apparire dopo essere stato ucciso nel gergo dei videogames. :D

Respawn non era male, mi e' scappato un LOL :rotfl:

Comunque, tornando serio, ho trovato la voglia di scaricare quel video di CoJ che era stato linkato, a vederlo cosi' sembra girare fluido (contrariamente a quanto lascerebbe pensare il grafico dei bench) ma sinceramente non ci ho trovato niente che faccia gridare al miracolo....:stordita: O comunque niente di cosi' sconvolgente rispetto al COJ DX9...

Deviad
15-05-2007, 11:25
Preso dal forum di nordichardware.com riferito al guadagno prestazionale delle 8800GTX con i continui aggiornamenti dei driver

"As a matter of fact, in their testing over 7 months, the 8800GTX improved from beating the 7900 GTX by 71% to NOW beating it by 146%.

Yeah easily doubled. I've searched and compared the articles they had."

Orbene, prendendo per buoni questi dati, i driver sarebbero miracolosi eccome questa volta. ;)

Athlon 64 3000+
15-05-2007, 11:27
Preso dal forum di nordichardware.com riferito al guadagno prestazionale delle 8800GTX con i continui aggiornamenti dei driver

"As a matter of fact, in their testing over 7 months, the 8800GTX improved from beating the 7900 GTX by 71% to NOW beating it by 146%. Wink

Yeah easily doubled. I've searched and compared the articles they had."

questo fa capire quanto i driver anche con una architettura come G80 siano molto importanti,figurati per R600.
Ricordatevi che i driver di G80 hanno ancora parecchi margini di miglioramento visto che è da un mese che i driver sono cominciati a diventare veremente decenti.

Deviad
15-05-2007, 11:33
A questo punto io penso che:
- ci potrebbe essere effettivamente qualche piccola imperfezione nella progettazione;
- i driver sicuramente fanno la loro parte e si vede.
Secondo me ci sono degli ampi margini di miglioramento anche con DX10.
Io credo che in realtà il divario tra ATI e nvidia in realtà, purtroppo, è maggiore di 7 mesi. 7 mesi per far uscire la scheda + x mesi per migliorare i driver.
Diciamo che ci metteranno anziché 7 mesi, perché nvidia poteva prendersela comoda, ce ne mettono 3 sono 10 mesi di ritardo rispetto a nVidia per avere una scheda che performi quanto una nVIDIA adesso. :P Nel frattempo nVIDIA mica smetterà di lavorare sui driver e lavorare su nuove architetture. Speriamo che mettendosi di buona lena riescano a recuperare gran parte del gap accumulato...

halduemilauno
15-05-2007, 11:39
A questo punto io penso che:
- ci potrebbe essere effettivamente qualche piccola imperfezione nella progettazione;
- i driver sicuramente fanno la loro parte e si vede.
Secondo me ci sono degli ampi margini di miglioramento anche con DX10.
Io credo che in realtà il divario tra ATI e nvidia in realtà, purtroppo, è maggiore di 7 mesi. 7 mesi per far uscire la scheda + x mesi per migliorare i driver.
Diciamo che ci metteranno anziché 7 mesi, perché nvidia poteva prendersela comoda, ce ne mettono 3 sono 10 mesi di ritardo rispetto a nVidia per avere una scheda che performi quanto una nVIDIA adesso. :P Nel frattempo nVIDIA mica smetterà di lavorare sui driver e lavorare su nuove architetture. Speriamo che mettendosi di buona lena riescano a recuperare gran parte del gap accumulato...

10 mesi sono un'intera generazione sotto. cioè loro saranno competitivi con la 8800gtx quando nvidia sarà bella che pronta per la 8900gtx.
:boh:

Deviad
15-05-2007, 11:40
10 mesi sono un'intera generazione sotto. cioè loro saranno competitivi con la 8800gtx quando nvidia sarà bella che pronta per la 8900gtx.
:boh:

esattamente... il concetto che volevo esprimere è quello.
Nel frattempo credo che nVIDIA invece di far uscire la 8900 per far girare bene crysis, farà uscire 8800 ULTRA MEGA, 8800 ULTRA MEGA UBER, 8800 ULTRA MEGA UBER FATALITY, 8800 ULTRA MEGA UBER FATALITY HEATON e poi finalmente quando la controparte ATI avrà risolto i problemi con la sua architettura e sfornerà l'r650 o l'r700 che fondamentalmente saranno un r600 con qualche feature in + e i problemi risolti allora uscirà finalmente la 8900, ma nel frattempo avranno la 9000 in cantiere, mentre ATI continuerà a farsi il culo... che bellezza! :D :( :cry:

Brightblade
15-05-2007, 11:42
...visto che è da un mese che i driver sono cominciati a diventare veremente decenti.

Ovvero da quando si iniziava ad intravedere in avvicinamento un'offerta da parte della concorrenza, e quindi nvidia aveva tutto l'interesse ad iniziare a spremere al max i suoi prodotti (cosa che non aveva necessita' di fare all'uscita della serie 8). Per contro, imho ATI/AMD aveva tutto l'interesse a spremere fin da subito il suo prodotto. Probabilmente dei miglioramenti ci saranno, ma quanti di quelli per cui e' arrivato il momento dell'acquisto (non e' il mio caso :D) sono disposti a comprare sulla base dell'ipotetico improvement grazie ai drivers? Secondo me, per ben che possa andare, l'ipotesi migliore per ATI/AMD e' che gli indecisi aspettino ancora.

bronzodiriace
15-05-2007, 11:45
http://www.fudzilla.com/index.php?option=com_content&task=view&id=991&Itemid=1

Frustrated with RV630 / RV610 delays


ATI partners finally got a new toy but unfortunately this was not enough to get the confidence in ATI back. Radeon HD 2900XT is barely beating 8800 GTS and this card already dropped to close to €300 price.

Most of the people on many forums said that they would be willing to pay €350 for Radeon HD 2900XT but not much more than that.

Partners are again stuck as R600XT wont sell like a hot cookie and Radeon HD 2600 and 2400 are still some month and a half away. It will be tough to make money on ATI cards at least till Q3 2007. Hang in there.

;)
che bello questo tuo accanimento verso ati.

Veramente encomiabile.

Verro
15-05-2007, 12:00
Il problema e' che era la prima scheda Directx8, non la seconda soluzione concorrente di una gia' presente da 6 mesi. ;)
E' questa la differenza senza nulla dare ad una o togliere all'altra.

be, allora devo tirare fuori la 8500??:D Appena uscita, era leggermente inferiore alla Geforce 3 ti200, in pochi mesi eguaglio, se non un pelo sopra alla Geforce3 ti500!:)

zorco
15-05-2007, 12:02
ragazzi ho acquistato la hd 2900xt,vediamo se mi arriva entro la settimana riesco a fare qualche test...

overjet
15-05-2007, 12:04
iscritto... Me l'ero perso questo :D

TecnoWorld8
15-05-2007, 12:06
zorco: grande! sei un coraggioso!

halduemilauno
15-05-2007, 12:09
che bello questo tuo accanimento verso ati.

Veramente encomiabile.

ti ringrazio. cmq non è tutto merito mio dovresti ringraziare il vero autore di queste news. ati.
;)

zorco
15-05-2007, 12:10
grazie è la mia pazzia che mi fa fare minchiate..

di sicuro sta scheda sarà più performante della mia 7800gt:p almeno su questo non ci piove...

Bersy76
15-05-2007, 12:12
Di sicuro piu' della mia x850xt :sofico:

TecnoWorld8
15-05-2007, 12:17
posto che comunque si può trovare al prezzo di una 8800gts, tra le due preferirei questa xt perchè se nn altro è un'architettura più innovativa e c'è la speranza che sia ancora da ottimizzare come driver (mentre secondo me la serie 8800 da questo punto di vista è ormai stata quasi tirata al massimo).

tuttavia sono cmq molto deluso da ATi, perchè almeno poteva far uscire da subito driver decenti, avendo avuto tutti questi mesi di tempo...

Alexkidd85
15-05-2007, 12:25
Ripeto,la mia paranoia sta nel fatto che ha il connettore 8 pin che non si trova in italia anche perché ora vedo solo sapphire che non lo mette in bundle(in effetti sarebbero andati in bancarotta :muro: )
Spero nella disponibilità di questo adattatore e aspetto le prove a 2x6pin in overclock.
Anche se aspettare è relativo in qusto caso: Se mi confermano la disponibilità,venerdi la 8800 del pelatino della BFG sarà mia. GTX ovviamente.

Continuo a confermare la mia tesi:se si chiama XT,andrà a confrontarsi con la GTS.

Athlon 64 3000+
15-05-2007, 12:32
posto che comunque si può trovare al prezzo di una 8800gts, tra le due preferirei questa xt perchè se nn altro è un'architettura più innovativa e c'è la speranza che sia ancora da ottimizzare come driver (mentre secondo me la serie 8800 da questo punto di vista è ormai stata quasi tirata al massimo).

tuttavia sono cmq molto deluso da ATi, perchè almeno poteva far uscire da subito driver decenti, avendo avuto tutti questi mesi di tempo...

Riflettendo per bene in questi 2 giorni dopo i commenti molto negativi dovuto al fatto che ero arrabbiato penso che la hd 2900xt sia preferibile alla 8800GTS.
Ho visto dei test con i driver più recenti per R600 e in certi giochi c'erano grossi miglioramenti e penso che Ati abbia applicato una politica dei driver veramente scandalosa perchè doveva uscire con dei driver migliori di quelli che hanno usato
nei test.
Per quanto riguarda G80 penso che i driver hanno ancora grossi margini di miglioramento.

halduemilauno
15-05-2007, 12:38
Riflettendo per bene in questi 2 giorni dopo i commenti molto negativi dovuto al fatto che ero arrabbiato penso che la hd 2900xt sia preferibile alla 8800GTS.
Ho visto dei test con i driver più recenti per R600 e in certi giochi c'erano grossi miglioramenti e penso che Ati abbia applicato una politica dei driver veramente scandalosa perchè doveva uscire con dei driver migliori di quelli che hanno usato
nei test.
Per quanto riguarda G80 penso che i driver hanno ancora grossi margini di miglioramento.

è inutile che ci stai a girare intorno stai solo a perdere tempo. manda un pvt a Zorco.
;)

bronzodiriace
15-05-2007, 12:39
si trova a 360 euro la 2900xt ;)

Athlon 64 3000+
15-05-2007, 12:43
è inutile che ci stai a girare intorno stai solo a perdere tempo. manda un pvt a Zorco.
;)

dimmi a che cosa sto girando intorno?:confused:

Evangelion01
15-05-2007, 12:45
si trova a 360 euro la 2900xt ;)

E dove? su trovaprezzi sta sui 400€, mentre la gts sui 370€. ergo mi fa pensare che se trovi la 2900 a 360€ in qualche negozio, la gts la trovi a 330...

halduemilauno
15-05-2007, 12:53
dimmi a che cosa sto girando intorno?:confused:

all'acquisto della hd2900xt.
;)

beleno
15-05-2007, 12:55
qualcosa inizia a smuoversi! anche io sto valutando l'acquisto di una Hd2900 xt. il prezzo è accettabile, le prestazioni allineate alla diretta concorrente. sarei curioso di vedere i primi test fatti in casa!

MaRtH
15-05-2007, 13:01
grazie è la mia pazzia che mi fa fare minchiate..

di sicuro sta scheda sarà più performante della mia 7800gt:p almeno su questo non ci piove...


Shop online?

Se si, mi pvtizzi?

THX...

VeldorN
15-05-2007, 13:08
vi vonsiglierei di dare un occhio allo articolo appena redatto da Tom's Italia se volete veramente capire cosa è e quali sono le reali potenzialità di R600 e ci andrei cauto nel dire che r600 è un flop io lo definirei un investimento, infatti mai tale parola è stata più appropriata per una VGA e vi ricordo che ATI chissà da quando ha sotto esamina le DX10, vista la collaborazione con M$
non dimenticate inoltre che il progetto R520 ai tempi, nacque (secondo quanto dichiarato da Ati) "da un attenta esamina dei giochi di prossima produzione" giusticando un architettura a shader unificati ad una previsione (azzeccata) di giochi in la complessità dei calcoli sarebbe ricaduta sugli shader. R600 segue la stesso binario. Ovvero si adatta a ciò che i giochi saranno da qui ad un anno.

beleno
15-05-2007, 13:08
edit

Athlon 64 3000+
15-05-2007, 13:13
http://www.tomshw.it/graphic.php?guide=20070515

Leggendo l'articolo mi sembra di capire che l'architettura sembra veramente complessa.

MaRtH
15-05-2007, 13:29
http://www.tomshw.it/graphic.php?guide=20070515

Leggendo l'articolo mi sembra di capire che l'architettura sembra veramente complessa.


Non sembra lo è...

E VeldorN ha ragione IMHO, R600 è un investimento...

Defragg
15-05-2007, 13:33
ragazzi ho acquistato la hd 2900xt,vediamo se mi arriva entro la settimana riesco a fare qualche test...

complimenti :)

prezzo? :O

cosa te l'ha fatta preferire alla 8800GTS 640? :stordita:

belin
15-05-2007, 13:44
ragazzi ho acquistato la hd 2900xt,vediamo se mi arriva entro la settimana riesco a fare qualche test...

...farai da cavia per molte persone...:D

...ottimo prezzo, ieri era disponibile la Sapphire a 367€ e sono andate esaurite. Comunque sono curioso di vedere il bundle di HIS.

Defragg
15-05-2007, 13:44
...farai da cavia per molte persone...:D

...ottimo prezzo, ieri era disponibile la Sapphire a 367€ e sono andate esaurite. Comunque sono curioso di vedere il bundle di HIS.

è proprio un flop :rolleyes:

:asd:

zorco
15-05-2007, 13:45
complimenti :)

prezzo? :O

cosa te l'ha fatta preferire alla 8800GTS 640? :stordita:
da quello che ho potuto capire leggendo le varie recensioni la scheda sembra più avanzata sotto l'aspetto dell'architettura,in base a questo dutta questa potenza elaborativa del chip per ora inespressa potrebbe venir fuori in futuro quando usciranno giochi scritti in dx10...

sotto al'aspetto dei consumi sono un pò preocuppato:stordita:,non vorrei che mi si fonda l'alimentatore o mi dia soprattutto instabilità all'intero sistema..

oramai l'ho presa ragà se non va bene la vendo:sofico:

belin
15-05-2007, 13:46
http://www.tomshw.it/graphic.php?guide=20070515

Leggendo l'articolo mi sembra di capire che l'architettura sembra veramente complessa.

...articolo ben fatto, che evidenzia molte cose che ai più sono sfuggite. E' un architettura da analizzare bene, per capire come mai non brilla in certi test. Vi consiglio anche gli articoli di Beyond3D e TheTechReport.

:)

zorco
15-05-2007, 13:47
...farai da cavia per molte persone...:D

...ottimo prezzo, ieri era disponibile la Sapphire a 367€ e sono andate esaurite. Comunque sono curioso di vedere il bundle di HIS.
quella che ho preso io è della Gigabyte,sai per caso se cè sto benedetto cavo a 8 pin in dotazione?

Kharonte85
15-05-2007, 13:48
ragazzi ho acquistato la hd 2900xt,vediamo se mi arriva entro la settimana riesco a fare qualche test...
Ti useremo come cavia allora :Perfido: :D

belin
15-05-2007, 13:48
quella che ho preso io è della Gigabyte,sai per caso se cè sto benedetto cavo a 8 pin in dotazione?

Sapphire non lo ha, invece HIS dovrebbe averlo. ASUS e Gigabyte non ho idea...


...ciao!

garbage
15-05-2007, 13:49
grande zorco appena arriva facci una recensione asd!

retnI W
15-05-2007, 13:50
vi vonsiglierei di dare un occhio allo articolo appena redatto da Tom's Italia se volete veramente capire cosa è e quali sono le reali potenzialità di R600 e ci andrei cauto nel dire che r600 è un flop io lo definirei un investimento, infatti mai tale parola è stata più appropriata per una VGA e vi ricordo che ATI chissà da quando ha sotto esamina le DX10, vista la collaborazione con M$
non dimenticate inoltre che il progetto R520 ai tempi, nacque (secondo quanto dichiarato da Ati) "da un attenta esamina dei giochi di prossima produzione" giusticando un architettura a shader unificati ad una previsione (azzeccata) di giochi in la complessità dei calcoli sarebbe ricaduta sugli shader. R600 segue la stesso binario. Ovvero si adatta a ciò che i giochi saranno da qui ad un anno.

Quotazzone, la HD2900XT costa 20 euro mediamente in più di una 8800GTS 640MB va alla pari (mediamente un 4% meglio secondo la rece HWU a 1920) ed ha discreti margini di miglioramento e soprattutto viene sfamata da qualsiasi alimentatore da 500W (700W utili solo x crossfire).
Alla fine quel che conta è il consumo in idle e questa scheda è allineata con 8800GTS640MB.
Se uno ha il pc acceso 10 ore al giorno non credo vada oltre le 4 ore di stress 3D (videogiochi ed altro) e il resto idle.
La HD2900XT mediamente assorbe 268W e la GTS 234W mediamente quindi e 35W non cambiano la vita considerando che parecchia gente ha il pc acceso anche molto più di 12 ore per filesharing o produttività o x servering? e quindi la differneza si assottiglia.
Questa scheda la vedo come un investimento per i prossimi mesi e anche se i driver non dovessero migliorarla comunque non fa proprio schifo e varrebbe quel che costa se proposta allo stesso prezzo della GTS.

belin
15-05-2007, 13:53
Aqua Computer aquagratiX R600 GPU Water-block

http://www.techpowerup.com/img/07-05-15/r600_4.jpg

http://www.techpowerup.com/img/07-05-15/r600_0.jpg

http://www.techpowerup.com/img/07-05-15/r600_5.jpg


...magari a qualcuno interessa. :)

MaRtH
15-05-2007, 13:55
da quello che ho potuto capire leggendo le varie recensioni la scheda sembra più avanzata sotto l'aspetto dell'architettura,in base a questo dutta questa potenza elaborativa del chip per ora inespressa potrebbe venir fuori in futuro quando usciranno giochi scritti in dx10...

sotto al'aspetto dei consumi sono un pò preocuppato:stordita:,non vorrei che mi si fonda l'alimentatore o mi dia soprattutto instabilità all'intero sistema..

oramai l'ho presa ragà se non va bene la vendo:sofico:



C'è troppa gente che si fa trarre in inganno, quello è il consumo dell'intero sistema in full load, nella rece di hwu non superava, con quel popò di pc, i 400W...

Per il resto vai tranquillo e poi, sicuramente va mooolto di più di una già buona 7800GT, percui...

PS. Prodotto curioso, mi stanno venendo delle tentazioni... :Perfido:

Soulbringer
15-05-2007, 13:55
Ragazzi cmq guardando in giro i pareri su questa scheda non sono cosi negativi..su dinoxpc -> ( http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644 )ne parlano molto bene e nei bench evidenzia un comportamento migliore soprattutto senza filtri, mentre con i filtri attivi le prestaz in alcuni casi decadono inspiegabilmente e dicono sia quasi sicuramente per i driver.

Cmq zorco aspettiamo tutti un tuo giudizio!;) Ciao!

Grey 7
15-05-2007, 13:55
bene, vedo che saltano fuori i primi acquirenti :) domani sera dovrebbe postare i primi risultati anche il ragazzo di ieri che ne ha prese 2. Ammetto che sono tutt'ora curioso, ho gli stessi dubbi che avevo nel 3d "aspettando...." troppe cose non mi tornano

zorco
15-05-2007, 13:56
Ti useremo come cavia allora :Perfido: :D
bastaldi:Prrr:
grande zorco appena arriva facci una recensione asd!
provvederò,le prove le farò a default sennò temo mi esplode tutto:sofico:

beleno
15-05-2007, 13:56
quella che ho preso io è della Gigabyte,sai per caso se cè sto benedetto cavo a 8 pin in dotazione?

presa anche io uguale alla tua. ho letto che funziona uguale con 2 per 6 pin giusto?era indicato nella rece di beyond3d

MonsterMash
15-05-2007, 13:57
Mi pare che non siano ancora stati postati, per cui eccovi i link ai filmati HD delle nuove tech demo ATI per r600:

http://www2.ati.com/multimedia/radeonhd/Whiteout-V1.0.zip

http://www2.ati.com/multimedia/radeonhd/Tessellation-V1.0.zip

Ciao ciao

MaRtH
15-05-2007, 13:57
bene, vedo che saltano fuori i primi acquirenti :) domani sera dovrebbe postare i primi risultati anche il ragazzo di ieri che ne ha prese 2. Ammetto che sono tutt'ora curioso, ho gli stessi dubbi che avevo nel 3d "aspettando...." troppe cose non mi tornano


Dai zorco, sono curioso come una scimmia... :sofico:

Voglio le impressioni del cliente... :D

zorco
15-05-2007, 14:01
C'è troppa gente che si fa trarre in inganno, quello è il consumo dell'intero sistema in full load, nella rece di hwu non superava, con quel popò di pc, i 400W...

Per il resto vai tranquillo e poi, sicuramente va mooolto di più di una già buona 7800GT, percui...

PS. Prodotto curioso, mi stanno venendo delle tentazioni... :Perfido:
la scheda dovrebbe consumare intorno a 40w in + della gtx full load ,quindi circa 170-175w reali...

fatti tentare fatti tentare:p

zorco
15-05-2007, 14:05
presa anche io uguale alla tua. ho letto che funziona uguale con 2 per 6 pin giusto?era indicato nella rece di beyond3d
si con due da 6 pin funziona lo stesso ma se cè sto benedetto cavo a 8 pin è meglio gli da più corrente...

Alexkidd85
15-05-2007, 14:09
Sapphire non lo ha, invece HIS dovrebbe averlo. ASUS e Gigabyte non ho idea...


...ciao!

Non mi sembra. UNa foto mostrava il bundle e non lo davano e sia chiaro...la HIS è la mia marca preferita quindi ci spero,ma dalle foto che sono girate sul bundle,non mi sembra fosse così. Ma non voglio insistere :)

Mi pare che non siano ancora stati postati, per cui eccovi i link ai filmati HD delle nuove tech demo ATI per r600:

http://www2.ati.com/multimedia/radeonhd/Whiteout-V1.0.zip

http://www2.ati.com/multimedia/radeonhd/Tessellation-V1.0.zip

Ciao ciao

Mamma mia...come sempre il sito ATI spana il :ciapet: alla banda :D Godo ad essere fastweb :asd:

MonsterMash
15-05-2007, 14:11
Non mi sembra. UNa foto mostrava il bundle e non lo davano e sia chiaro...la HIS è la mia marca preferita quindi ci spero,ma dalle foto che sono girate sul bundle,non mi sembra fosse così. Ma non voglio insistere :)

Dalle foto che ho visto in giro mi pare di capire che l'unica ad avere sicuramente il cavetto a 8 pin sia la msi. La saphire sapevo che sicuramente non l'aveva, e avevo letto anche la his. Non so asus.

Chief
15-05-2007, 14:11
fatti tentare fatti tentare

Quasi quasi farei anche io l'acquisto di questa scheda :O

MaRtH
15-05-2007, 14:17
Quasi quasi farei anche io l'acquisto di questa scheda :O


Non sono l'unico ad essere tentato...

Poliphilo
15-05-2007, 14:19
Ciao ragazzi. Ho visto che è nato il nuovo Thread, e anche che qualcuno ha tirato in ballo la "gente" che difendeva la scheda e prometteva prestazioni super.
Io ne avevo parlato bene.
Ora vi spiego, prima non potevo.
Le cose che sapevo mi erano state riferite da un amico che, a sua volta, ha un amico dell'amico.... molto vicino all'azienda canadese (non so a che livello). Da lui erano state riferite notizie molto confortanti riguardo la scheda. Quindi anche la mia era una voce, ma una di quella "attendibili". Il problema sta nel fatto se questo mio amico mi abbia riferito le notizie vere o altro. Lui dice che la sua fonte non hai mai sbagliato, non gli ha mai detto boiate.
La scheda "sembra" che non vada come ci si aspettava, anch'io sono il primo ad essere stupito. A meno che le informazioni che mi erano state passate riguardassero le future dx10. Non capisco neanch'io. Gli ho chiesto comunque spiegazioni. Staremo a vedere.

P.S.: comunque lo dicevo che la verità assoluta non ce l'ha nessuno.

Alexkidd85
15-05-2007, 14:22
Dalle foto che ho visto in giro mi pare di capire che l'unica ad avere sicuramente il cavetto a 8 pin sia la msi. La saphire sapevo che sicuramente non l'aveva, e avevo letto anche la his. Non so asus.

Bravissimo....è il quadro che avevo notato anche io ;)

bioexml
15-05-2007, 14:22
comunque è veramente assurdo vedere due schede del genere far andare dei demo dx10 a 20/25 fps :mbe: !! Sia la R600 che l'8800GTX !
Spero si sveglino di brutto, a me interessa vedere un gioco con fps medi abbastanza alti da non creare scatti o cagate varie, poi se fa 100 fps o 50 fps non me ne frega nulla, l'occhio bionico non ce l'ho.
Mah, comunque io sono convinto che la colpa non è delle schede ma del codice che scrive Microsoft..directx, windows e balle varie.

relo@ded
15-05-2007, 14:55
..Le cose che sapevo mi erano state riferite da un amico che, a sua volta, ha un amico dell'amico.... molto vicino all'azienda canadese (non so a che livello)....

sembra il gioco dei livelli di parentela che ognuno di noi può avere con un perfetto sconosciuto.

Simon82
15-05-2007, 14:58
Non sono l'unico ad essere tentato...

Conoscendoci siamo tutti tentati da cio' che rimane ancora misterioso, a volte piu' di quello che invece e' gia' bello che pronto a soddisfare certe esigenze. Un po' come quelli che hanno comprato il Kyro2 (me compreso) o il Volari V8 dual. Siamo attirati in qualche modo a questo giro meglio andare con i piedi di piombo.

Simon82
15-05-2007, 15:00
Avete trovato pagine con test di scalabilita' a seconda del processore?

JoeLatino
15-05-2007, 15:10
scusate avete per caso qualche links in cui si confrontano la 2900xt e Nvidia 8800gtx/gts con applicativi professionali opengl? grazie

JoeLatino
15-05-2007, 15:14
http://www.vr-zone.com/?i=4983

sara' vero' o e' solo un modo per non 'smerdarsi'?:rolleyes: :rolleyes:

nonikname
15-05-2007, 15:19
Non so se sono stati postati (non ho voglia di leggere xx pag.) , ma il tanto decantato investimento DX10 va a farsi benedire....

http://img170.imageshack.us/img170/1646/lpdx10snowqf7.jpg

http://img170.imageshack.us/img170/1663/lpdx10caveaq7.jpg

http://images.dailytech.com/nimage/4734_large_newcoj1280aa.gif

bluefrog
15-05-2007, 15:25
http://www.vr-zone.com/?i=4983

sara' vero' o e' solo un modo per non 'smerdarsi'?:rolleyes: :rolleyes:

E' vero. Lost Planet è un gioco nato in collaborazione con Nvidia e di conseguenza ottimizzato per le 8800 (e quindi i loro drivers), per cui i bench risulteranno ovviamente a favore di Nvidia ma NON rispecchiano le reali prestazioni ottenibili con le HD 2900 XT. Diamo il tempo ad ATI di ottimizzare i drivers e attendere la versione finale del gioco (29/06), le cose cambieranno certamente di parecchio.

Simon82
15-05-2007, 15:27
By anandtech



While AMD will tell us that R600 is not late and hasn't been delayed, this is simply because they never actually set a public date from which to be delayed. We all know that AMD would rather have seen their hardware hit the streets at or around the time Vista launched, or better yet, alongside G80. But the fact is that AMD had quite a few problems in getting R600 out the door.

While we couldn't really get the whole story from anyone, we heard bits and pieces here and there during our three day briefing event in Tunis, Tunisia. These conversations were short and scattered and not the kind of thing that it's easy to get a straight answer about when asking direct questions. Keeping that in mind, we do have some information and speculation about a few of the road bumps AMD faced with R600.

Apparently, the first spin of R600 silicon could only communicate over the debugging interface. While the upside is that the chip wasn't totally dead, this is not a good problem to have. We also overheard that a later revision of the hardware suffered from fragments getting stuck in pixel shaders. We even overheard one conversation where someone jokingly remarked that AMD should design hardware but leave the execution to NVIDIA.

In a wild bout of pure speculation on our part, we would have to guess about one other problem that popped up during R600's creation. It seems to us that AMD was unable to get their MSAA hardware to work properly and was forced to use shader hardware to handle MSAA rather than go back for yet another silicon revision. Please know that this is not a confirmed fact, but just an educated guess.

In another unique move, there is no high end part in AMD's R600 lineup. The Radeon HD 2900 XT is the highest end graphics card in the lineup and it's priced at $399. While we appreciate AMD's intent to keep prices in check, the justification is what we have an issue with. According to AMD, it loses money on high end parts which is why we won't see anything more expensive than the 2900 XT this time around. The real story is that AMD would lose money on a high end part if it wasn't competitive, which is why we feel that there's nothing more expensive than the 2900 XT. It's not a huge deal because the number of people buying > $399 graphics cards is limited, but before we've started the review AMD is already giving up ground to NVIDIA, which isn't a good sign.

More than anything, we'd guess that the lack of a high end part has a lot to do with the delays and struggles AMD saw this time around in bringing R600 to market. We expect to see the return of a very high end part by the time R700 comes around, assuming that there aren't similarly debilitating delays.

The delays and lack of a high end would be beyond perfect if the Radeon HD 2900 XT could do to NVIDIA what the G80 launch did to ATI, unfortunately the picture just isn't that rosy. ATI's latest and greatest doesn't exactly deliver the best performance per watt, so while it doesn't compete performance-wise with the GeForce 8800 GTX it requires more power. An ultra high end power requirement in a sub-$400 graphics card isn't exactly ideal.

Despite all of this, there's a great deal of cool technology in the R600, and as ATI is now a part of a CPU company, we received more detail on the GPU than we've gotten during any other GPU launch. AMD takes graphics very seriously, and it recently reaffirmed its commitment to continue to deliver high end discrete graphics cards, so amidst countless delays and rumors of strange problems, the R600 architecture is quite possibly more important to AMD than the graphics cards themselves. An eventual derivative of this architecture will be used in AMD's Fusion processors, eventually making their way into a heterogeneous multi-core AMD microprocessor.

With AMD's disappointing Q1, it can't rest too much on the hope of Fusion changing the market, so we'll have to start by looking at where R600 is today and how it stacks up to NVIDIA's latest and almost greatest.


Inizio di review interessante e condivisibile.

http://www.anandtech.com/video/showdoc.aspx?i=2988

fukka75
15-05-2007, 15:27
Ho letto l'articolo in tedesco cui si riferisce vr-zone: in pratica dice, dopo aver tradotto ovviamente con altavista :D , che la HD2900XT ha seri problemi con il benchmark di Lost Planet, di prestazioni (appunto 19fps contro i 39fps della 8800GTS) e visuali, un po' quello che è successo, anche se solo a livello di prestazioni, nel bench DX10 di CoJ (in cui inzialmente le 8800 nemmmeno partivano, e poi abbiamo visto come sia finita). Ancora una volta direi che si deve attendere la release ufficiale del demo (domani dovrebbe essere disponiible per il dwnld), e che qualcuno ci benchi le due rivali ;)

MaRtH
15-05-2007, 15:28
Non so se sono stati postati (non ho voglia di leggere xx pag.) , ma il tanto decantato investimento DX10 va a farsi benedire....

http://img170.imageshack.us/img170/1646/lpdx10snowqf7.jpg

http://img170.imageshack.us/img170/1663/lpdx10caveaq7.jpg

http://images.dailytech.com/nimage/4734_large_newcoj1280aa.gif


Drivers utilizzati?

Gli 8.37 immagino...

Comunque il bench si può riassumere così: :eek: :Puke: :rolleyes:

Staremo a vedere con l'evolversi del software (come si dice da ieri alle 7.29 ad adesso...:D )...

EDIT: Ho notato, si hanno usato gli 8.37... :(

beleno
15-05-2007, 15:31
non penso che chi abbia comprato una 8800 e chi comprerà una hd2900 lo farà per le dx10; il termine investimento in informatica non esiste, gli acquisti si fanno per desiderio. investo in titoli azionari, in bond, in quello che volete voi. l'acquisto è fatto per giocare ora (dx9) e per aver l'ultimo accrocchio in fatto di tecnologia. a mio avviso le schede dx10 saranno altre!

MaRtH
15-05-2007, 15:34
non penso che chi abbia comprato una 8800 e chi comprerà una hd2900 lo farà per le dx10; il termine investimento in informatica non esiste, gli acquisti si fanno per desiderio. investo in titoli azionari, in bond, in quello che volete voi. l'acquisto è fatto per giocare ora (dx9) e per aver l'ultimo accrocchio in fatto di tecnologia. a mio avviso le schede dx10 saranno altre!


Effettivamente compaesano c'è del vero in ciò che dici...

:mano:

Fatto sta che non so più cosa pensare...:confused:

Più indietro io ho parlato di investimento, ma è un investimento sulle potenzialità della scheda, e comunque investimento a breve termine, ossia nel giro di 6-7 mesi al massimo...

fukka75
15-05-2007, 15:35
E' anche vero che, a fine anno, saranno molto più vendibili le 8800/HD2900 che non una qualsiasi DX9, quindi un minimo di investimento cmnq c'è ;)

bluefrog
15-05-2007, 15:40
Che poi più che "nato" Lost Planet è in realtà un porting da Xbox360 (chip ATI) adattato/ottimizzato su G80, quindi se su console era fluidissimo e altamente spettacolare... su R600 potrebbe esserlo 2 volte di più, essendo molto più potente di R500 (alias Xenos)... credo sia così. Il resto è solo marketing. ;)

MaRtH
15-05-2007, 15:42
E' anche vero che, a fine anno, saranno molto più vendibili le 8800/HD2900 che non una qualsiasi DX9, quindi un minimo di investimento cmnq c'è ;)


Si saranno molto più vendibili, ma ad allora ci sarà già la nuova VERA fascia alta DX10...

PS. Dico VERA fascia alta perchè le varie R600 e G80 sono le pioniere in DX10, e le prestazioni lasciano l'amaro in bocca, se la HD2900XT viene miseramente sconfitta, la 8800GTS ottiene una vittoria di pirro, non mi dite che 39FPS (come media tra l'altro:( ) sono sufficienti per una scheda da 300 e passa cucuzze...

beleno
15-05-2007, 15:46
E' anche vero che, a fine anno, saranno molto più vendibili le 8800/HD2900 che non una qualsiasi DX9, quindi un minimo di investimento cmnq c'è ;)

si questo è verissimo, infatti è lo stesso che ho pensato io con la mia x1950. tuttavia si tratta di un investimento "a perdere" in partenza, almeno dal punto di vista economico. poi, evidentemente, lo si fa per tante ragioni, fra cui il piacere di possedere una vga e di vederla spremuta con qualche bel gioco.
Io la penso così: in queste cose vale tanto l'istinto; con l 7900gt è stato amore a prima vista e l'ho comprata. con r600 è stata la stessa cosa. avere un pugno di fps in più non cambia la vita se poi resta quel senso di "se avessi preso l'altra...". il tutto rigorosamente IMHO!

beleno
15-05-2007, 15:47
Effettivamente compaesano c'è del vero in ciò che dici...

:mano:


saggezza veneta!:O
comunque se intendi 6 mesi la nuova ati è prevista in autunno, per cui...;)

Evangelion01
15-05-2007, 15:58
Si saranno molto più vendibili, ma ad allora ci sarà già la nuova VERA fascia alta DX10...

PS. Dico VERA fascia alta perchè le varie R600 e G80 sono le pioniere in DX10, e le prestazioni lasciano l'amaro in bocca, se la HD2900XT viene miseramente sconfitta, la 8800GTS ottiene una vittoria di pirro, non mi dite che 39FPS (come media tra l'altro:( ) sono sufficienti per una scheda da 300 e passa cucuzze...

Io invecie penso che sia troppo presto per giudicare le prestazioni di queste vga in dx10 per 2 semplici ragioni. 1°, i test disponibili sono ancora troppo acerbi e troppo pochi. 2° , perchè bisogna anche pensare a una ipotetica situazione : supponiamo che giochi come lost planet vadano a 20fps com una 8800gtx; quanti allora potrebbero giocarci? Per una software h. sarebbe come tagliarsi le gambe da sola, visto che il 90% del mercato è costituito da schede di fascia medio-bassa, quando non addirittura da vga ancora dx9. Ergo, penso che i giochi saranno decisamente più ottimizzati di quello che vediamo ora, altrimenti saremmo costretti a migrare tutti su console.... non so se mi spiego. ;)

Kharonte85
15-05-2007, 16:04
Non so se sono stati postati
Si', ma tanto per molti saranno nuovi dato che nessuno legge :D

VeldorN
15-05-2007, 16:27
non penso che chi abbia comprato una 8800 e chi comprerà una hd2900 lo farà per le dx10; il termine investimento in informatica non esiste, gli acquisti si fanno per desiderio. investo in titoli azionari, in bond, in quello che volete voi. l'acquisto è fatto per giocare ora (dx9) e per aver l'ultimo accrocchio in fatto di tecnologia. a mio avviso le schede dx10 saranno altre!



Il fatto che tu ad altre 50 / 100 persone acquistiate "pezzi per il pc" spinti dalla passione non vuole dire che siano cosa buona e giusta ne tantomeno
che TUTTI facciano così.
io personalmente ho una x1800XL@XT acquistata nel 2005 ed un opteron acquistato lo stesso anno a novembre e li ritengo un grande investimento
perchè a distanza di 2 anni ho un hw che magari non sarà il TOP del TOP
ma che mi permette di giocare e lavorare a tutto senza limitazioni di sorta.
Pertanto penso che sia corretto parlare di investimento, magari inteso
come acquisato oculato ma pursempre un grande acquisto.

Iantikas
15-05-2007, 16:34
Io invecie penso che sia troppo presto per giudicare le prestazioni di queste vga in dx10 per 2 semplici ragioni. 1°, i test disponibili sono ancora troppo acerbi e troppo pochi. 2° , perchè bisogna anche pensare a una ipotetica situazione : supponiamo che giochi come lost planet vadano a 20fps com una 8800gtx; quanti allora potrebbero giocarci? Per una software h. sarebbe come tagliarsi le gambe da sola, visto che il 90% del mercato è costituito da schede di fascia medio-bassa, quando non addirittura da vga ancora dx9. Ergo, penso che i giochi saranno decisamente più ottimizzati di quello che vediamo ora, altrimenti saremmo costretti a migrare tutti su console.... non so se mi spiego. ;)


il discorso ha senso ma secondo me va visto anke in un altra ottica...

...naturalmente la SH farà in modo ke il + grande bacino d'utenza possa far girare decentemente il gioco...quindi permetterà di scalare la qualtà visiva in base alle prestazioni del sistema ke si possiede...

....può benissimo xò essere ke decida di mettere nel gioco tali impostazioni ke, se messe al max, nessuna skeda al momento in commercio riuscirà a far girare in maniera fluida...

...la stessa skeda xò, abbassando qualke tacca qui e la (e cmq rimanenedo con una qualità visiva eccellente) riuscirà cmq a far girare bene il gioco...xò appunto al max nn ce la farà...e alla fine se succede veramente così nn sarebbe neanke la prima volta...

...questo nn significa ke ki possiede una 8800GTX ci giokerà male...ma ke forse (se le cose andranno così) nn ci giokerà alle max potenzialità offerte dal gioco...

...ciao

p.s.: son sicuro ke queste skede DX10 con i titoli ke stanno x uscire (lost planet, crysis, etc) regaleranno la miglior esperienza possibile...ma ho anke il presentimento ke nn permetteranno di giocare ad alta risoluzione (e nn parlo di 2560 etc ma di un tranquillo 1600x1200 o 1680x1050) tutto al max con filtri a palla (da 4xAA 16xAF in su) con la fluidità a cui siamo abitutati ora (ossia fps sui 100 e passa) ma anzi con tali impo ce la faranno a malapena e costringeranno a qualke compromesso...

p.p.s.: poi vabbeh, siccome nn penso ke riuscirò a frenarmi dall'aquisto di una 2900XT se nn x altre 24/48 ore spero proprio di sbagliarmi :D

Iantikas
15-05-2007, 16:38
Il fatto che tu ad altre 50 / 100 persone acquistiate "pezzi per il pc" spinti dalla passione non vuole dire che siano cosa buona e giusta ne tantomeno
che TUTTI facciano così.
io personalmente ho una x1800XL@XT acquistata nel 2005 ed un opteron acquistato lo stesso anno a novembre e li ritengo un grande investimento
perchè a distanza di 2 anni ho un hw che magari non sarà il TOP del TOP
ma che mi permette di giocare e lavorare a tutto senza limitazioni di sorta.
Pertanto penso che sia corretto parlare di investimento, magari inteso
come acquisato oculato ma pursempre un grande acquisto.

beh xò devi anke considerare ke tu ti ritieni soddisfatto (e nn noti "limitazioni di sorta) xkè il tuo sistema soddisfa le tue esigenze...uno ke ha altre esigenze potrebbe nn essere soddisfatto e invece "soffrire" "limitazioni di sorta" col tuo stesso sistema o anke con uno + potente...

...ke è poi la base da cui dovrebbe scaturire la necessità di aquistare un nuovo prodotto o meno...ciao

Evangelion01
15-05-2007, 16:39
Si, è uno scenario possibile, ma speriamo non sia quello vero. :)
E meno male che c'era chi diceva che le 8800gtx erano troppo potenti... se fosse come dici tu, allora avrei fatto doppiamente bene a prenderne una, visto che anche se sono limitato dal monitor a 1280, potrò comunque giocare con pressochè tutto a manetta, anche in dx10...