PDA

View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

-Feanor-
07-06-2007, 14:57
beh...io nn intendevo un parere se sono buoni o no, io intendevo dire se condividete i problemi che io ho evidenziato...

ah...scusa..:D ....non era chiaro.....:asd:...beh per il resto concordo con a.l.m....

A.L.M.
07-06-2007, 15:17
a mio modesto parere.....:Puke: ....non per i tuoi specifici...sia ben chiaro...perche sono in linea con tutti quelli che si trovano su internet...ma il problema è proprio qst....va bene che non è per niente ottimizzato...soprattutto via driver....e non è di certo dx10 nativo....ma se qst si conferma l'andazzo della nuova generazione.....:rolleyes: ........per quanto riguarda i tuoi...non è male...infatti ripeto, è simile a quelli delle varie recensioni.........

Beh, comunque pure le nVidia vanno malino (una GTX overclockata 670/2200 con un conroe OC fa 28.6fps, dove la HD2900XT fa 25.7, in OC la supera tranquillamente, e forse anche di parecchio). Strano però notare la maggiore variabilità del framerate della ATi rispetto alla 8800GTX.

@+Lonewolf+:
Puoi postare qui (http://www.hwupgrade.it/forum/showthread.php?t=1488530) i tuoi risultati. ;)

VitOne
07-06-2007, 15:24
Beh, comunque pure le nVidia vanno malino (una GTX overclockata 670/2200 con un quad core fa 28.6fps, dove la HD2900XT fa 25.7, in OC la supera tranquillamente, e forse anche di parecchio). Strano però notare la maggiore variabilità del framerate della ATi rispetto alla 8800GTX.

@+Lonewolf+:
Puoi postare qui (http://www.hwupgrade.it/forum/showthread.php?t=1488530) i tuoi risultati. ;)

Ti ringrazio ALM ;), invito anche io i possessori di questa schedozza a farsi vivi sul 3D del bench di Call of Juarez (http://www.hwupgrade.it/forum/showthread.php?p=17437525&posted=1#post17437525), è vero che è una mattonata per tutti però può essere interessante vedere come si comportano le varie schede con queste prime applicazioni pseudo-DX10.

johnson
07-06-2007, 15:28
Il bus esterno con la memoria c'entra poco, il ring bus interno parecchio, in quanto attraverso di esso si devono gestire i dati tra Render back-ends e shader core. Comunque non è che TUTTO l'AA sia gestito via shaders, ma solo alcuni specifici compiti. Ad esempio, il floating point blending è gestito nei RBE (o ROPS che dir si voglia). Mi è stato detto che la potenza sottratta agli shaders negli scenari più comuni (dato che dipende da risoluzione e tipo di AA applicato) è entro il 10%, rilevante ma non definitivamente castrante. Più che altro, il problema di questo approccio è (oltre alla "riduzione" della potenza di shading) che complica ancora di più uno scheduling, ossia la gestione della "coda" di istruzioni da elaborare, già complesso di per se, a causa della particolare architettura di R600.

grazie, sempre disponibile :D

A.L.M.
07-06-2007, 15:43
Ti ringrazio ALM ;), invito anche io i possessori di questa schedozza a farsi vivi sul 3D del bench di Call of Juarez (http://www.hwupgrade.it/forum/showthread.php?p=17437525&posted=1#post17437525), è vero che è una mattonata per tutti però può essere interessante vedere come si comportano le varie schede con queste prime applicazioni pseudo-DX10.

Figurati! :mano:

+Lonewolf+
07-06-2007, 16:13
a quando una nuova relase di cata?

-Feanor-
07-06-2007, 16:18
a quando una nuova relase di cata?

perche gia che ci sei non chiedi dove si trova il santo graal...??? :sofico: no da...scherzo...:D ..ad ogni modo c'è una release al mese.....quindi entro fine giugno....periodo piu quotato ....dal 20 in poi....;)

shodan
07-06-2007, 16:23
Non credo che il bus centri molto. Se l'AA viene applicato tramite gli stream processors, ci potrebbero essere dei cali di prestazioni. Fermo restando che crysis si riveli (come sembra) un gioco molto shader intensive e quindi avrebbe bisogno di tutti le 64 unità di R600 per girare al meglio.

Non so, che dici leonezzurro?

Se non ricordo male, il progetto di R600 prevede la possibilità di applicare l'AA nelle ROPS piuttosto che nello shader core. Quest'ultima eventualità dovrebbe essere usata solo nei patter custom (tipo narrow - wide tent), mentre per il box AA (quello classico, insomma) dovrebbero bastare le capacità delle ROPS. Il punto è che però, a quanto pare, con i driver attuali sia sempre utilizzato l'AA fatto dallo shader core, indipendentemente dell'utilizzo o no dei patter custom. Al momento attuale, quindi, anche il box AA dovrebbe essere applicato dallo shader core, mentre il chip sarebbe in grado di eseguirlo direttamente nelle ROPS.
Non si sa però se la cosa è dovuta a un bug nei driver o, peggio, nel chip grafico.

Vedremo se con i nuovi driver questa cosa verrà sistemata o se, in effetti, l'AA dovrà passare sempre per gli shader.

Ciao. :)

TecnoWorld8
07-06-2007, 16:37
nessun commento sulla cancellazione di R650? io ci sono rimasto malissimo.

A.L.M.
07-06-2007, 16:39
Se non ricordo male, il progetto di R600 prevede la possibilità di applicare l'AA nelle ROPS piuttosto che nello shader core. Quest'ultima eventualità dovrebbe essere usata solo nei patter custom (tipo narrow - wide tent), mentre per il box AA (quello classico, insomma) dovrebbero bastare le capacità delle ROPS. Il punto è che però, a quanto pare, con i driver attuali sia sempre utilizzato l'AA fatto dallo shader core, indipendentemente dell'utilizzo o no dei patter custom. Al momento attuale, quindi, anche il box AA dovrebbe essere applicato dallo shader core, mentre il chip sarebbe in grado di eseguirlo direttamente nelle ROPS.
Non si sa però se la cosa è dovuta a un bug nei driver o, peggio, nel chip grafico.

Vedremo se con i nuovi driver questa cosa verrà sistemata o se, in effetti, l'AA dovrà passare sempre per gli shader.

Ciao. :)

Molto interessante... Qualcuno ne sa qualcosa in più? yossarian? :stordita:

leoneazzurro
07-06-2007, 16:41
nessun commento sulla cancellazione di R650? io ci sono rimasto malissimo.

E' stato annunciato ufficialmente e/o cancellato ufficialmente?
Cioè, stiamo parlando di Fudzilla, eh?

Marko91
07-06-2007, 16:42
nessun commento sulla cancellazione di R650? io ci sono rimasto malissimo.

Beh l'ha detto fudzilla eh :D

leoneazzurro
07-06-2007, 16:43
Molto interessante... Qualcuno ne sa qualcosa in più? yossarian? :stordita:

In teoria potrebbe(dovrebbe) funzionare così, in pratica il resolve è fatto sempre dallo shader, e secondo quanto detto da ATI non è un bug, è una feature.

shodan
07-06-2007, 16:44
In teoria potrebbe(dovrebbe) funzionare così, in pratica il resolve è fatto sempre dallo shader, e secondo quanto detto da ATI non è un bug, è una feature.

Ah ma quindi è ufficiale che anche l'AA box è _volutamente_ fatto dagli shader?
Avevo letto il contrario, ma poi non mi sono aggiornato sull'argomento...

Ciao. :)

A.L.M.
07-06-2007, 17:00
In teoria potrebbe(dovrebbe) funzionare così, in pratica il resolve è fatto sempre dallo shader, e secondo quanto detto da ATI non è un bug, è una feature.

Ma quali sarebbero i vantaggi di trasferire il MSAA resolve agli shader, a parte quello ovvio di non appesantire le RBE? Perchè le RBE hanno comunque una sezione dedicata al MSAA Resolve se non viene utilizzata affatto, allora? :confused: :stordita:

-Feanor-
07-06-2007, 17:06
E' stato annunciato ufficialmente e/o cancellato ufficialmente?
Cioè, stiamo parlando di Fudzilla, eh?

ah ah ah .....:p ....mitico fudzilla....:asd:...ad ogni modo dice che non ci sara niente di nuovo entro natale.....uno spiraglio aperto lo lascia sempre....:sofico:

TecnoWorld8
07-06-2007, 17:14
Beh l'ha detto fudzilla eh :D

il quale aveva dato in anteprima i benchmark di HD2900xt con estrema precisione...

leoneazzurro
07-06-2007, 17:34
Ah ma quindi è ufficiale che anche l'AA box è _volutamente_ fatto dagli shader?
Avevo letto il contrario, ma poi non mi sono aggiornato sull'argomento...

Ciao. :)

Questo è quello che ha dichiarato Dave Orton, ex CEO di ATI e capo della graphics division di AMD. Sarà la verità? Lo sanno solo loro

Ma quali sarebbero i vantaggi di trasferire il MSAA resolve agli shader, a parte quello ovvio di non appesantire le RBE? Perchè le RBE hanno comunque una sezione dedicata al MSAA Resolve se non viene utilizzata affatto, allora? :confused: :stordita:

Salvare spazio sul die di una GPU già enorme di suo, visto che poi si volevano comunque utilizzare gli shader per i nuovi "custom mode"?
Come al solito, la risposta al sanno solo i progettisti ATI :D

leoneazzurro
07-06-2007, 17:35
il quale aveva dato in anteprima i benchmark di HD2900xt con estrema precisione...

Quello era Dailytech, non Fudzilla.
Fudzilla è quello che una settimana dice che R650 sarà il chip che sbaraglierà la concorrenza, la settimana dopo dice che è cancellato.
Dicendo tutto ed il contrario di tutto, prima o poi ci si azzecca... :D

halduemilauno
07-06-2007, 17:53
il quale aveva dato in anteprima i benchmark di HD2900xt con estrema precisione...

no quello fu dailytech. fudzilla è quello che disse due giorni dopo il meeting di tunisi che la 2900xt sarebbe stata commpetitiva con la 8800gts.
;)

TecnoWorld8
07-06-2007, 17:57
no quello fu dailytech. fudzilla è quello che disse due giorni dopo il meeting di tunisi che la 2900xt sarebbe stata commpetitiva con la 8800gts.
;)

ah, ok, comunque era vero...

Scrambler77
07-06-2007, 17:58
Quello era Dailytech, non Fudzilla.
Fudzilla è quello che una settimana dice che R650 sarà il chip che sbaraglierà la concorrenza, la settimana dopo dice che è cancellato.
Dicendo tutto ed il contrario di tutto, prima o poi ci si azzecca... :D

Beh se proprio dobbiamo essere precisi... anche io credevo che buona parte delle news di fudzilla fossero invenzioni... ma dopo R600 mi sono ricreduto.

Questi sono alcuni degli articoli di fudzilla su R600 prima del suo lancio:

R600 fa 10600pt al 3dm06: http://www.fudzilla.com/index.php?option=com_content&task=view&id=818&Itemid=34

R600 arriva a 100°: http://www.fudzilla.com/index.php?option=com_content&task=view&id=803&Itemid=34

R600 è rumorosa: http://www.fudzilla.com/index.php?option=com_content&task=view&id=800&Itemid=34

R600 in CF: http://www.fudzilla.com/index.php?option=com_content&task=view&id=783&Itemid=34

Non mi pare di aver letto il contrario di queste news su fudzilla... tantomeno che si siano rivelate infondate.

Che poi fudzilla spari 300 news al giorno siamo d'accordo, ma dire che la metà sono fake... lo pensavo anche io... ma oggi mi sono ricreduto.

A.L.M.
07-06-2007, 18:37
Beh se proprio dobbiamo essere precisi... anche io credevo che buona parte delle news di fudzilla fossero invenzioni... ma dopo R600 mi sono ricreduto.

Questi sono alcuni degli articoli di fudzilla su R600 prima del suo lancio:

R600 fa 10600pt al 3dm06: http://www.fudzilla.com/index.php?option=com_content&task=view&id=818&Itemid=34

R600 arriva a 100°: http://www.fudzilla.com/index.php?option=com_content&task=view&id=803&Itemid=34

R600 è rumorosa: http://www.fudzilla.com/index.php?option=com_content&task=view&id=800&Itemid=34

R600 in CF: http://www.fudzilla.com/index.php?option=com_content&task=view&id=783&Itemid=34

Non mi pare di aver letto il contrario di queste news su fudzilla... tantomeno che si siano rivelate infondate.

Che poi fudzilla spari 300 news al giorno siamo d'accordo, ma dire che la metà sono fake... lo pensavo anche io... ma oggi mi sono ricreduto.

Infatti esattamente la metà di quelle notizie sono infondate. :asd:

- R600 arriva a 100°
La HD2900XT non solo non arriva a 100°, ma scalda meno di una GTX (anche per questo è più rumorosa)

- 2 HD2900XT in Crossfire fanno 13100 punti (con un quad core)
Ma anche no. Fanno più di 18000.

zorco
07-06-2007, 18:42
addirittura 100°:eek: ma che minchiata,si e nò sparata arriva 74;)

webbuffa
07-06-2007, 18:43
addirittura 100°:eek: ma che minchiata,si e nò sparata arriva 74;)

:rolleyes: Infatti....

TecnoWorld8
07-06-2007, 18:43
vedremo. io ripeto che se hanno cancellato R650, oltre a rattristarmi molto, metteranno in serio pericolo la loro credibilità. Se entro novembre uscirà un 8900 di nVidia, che andrà sicuramente molto più di 8800GTX, l'attuale XT sarà davvero doppiata come prestazioni...

Evangelion01
07-06-2007, 18:45
Infatti esattamente la metà di quelle notizie sono infondate. :asd:
La HD2900XT non solo non arriva a 100°, ma scalda meno di una GTX (anche per questo è più rumorosa)
.


http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_20.html
Veramente scaldano pressapoco uguali... in full 1° in meno la 2900
, in idle 3° in meno la gtx.:read:

Scrambler77
07-06-2007, 18:45
addirittura 100°:eek: ma che minchiata,si e nò sparata arriva 74;)

La tua lettura è sul diodo di R600.

In quell'articolo c'è invece una foto di una 2900XT con termometro esterno che segna 82° sul retro del PCB della scheda in aria libera.

http://www.fudzilla.com/images/stories/2007/May/graphics/r600_temp.jpg

è probabile quindi che il die si trovi ad una temperatura parecchio più alta.

EDIT: osservando quella foto, si vede chiaramente che la rilevazione è stata effettuata in corrispondenza dei mosfet di alimentazione.

Scrambler77
07-06-2007, 18:48
Infatti esattamente la metà di quelle notizie sono infondate. :asd:

- R600 arriva a 100°
La HD2900XT non solo non arriva a 100°, ma scalda meno di una GTX (anche per questo è più rumorosa)


Questa è una tua forzatura, che contrasta la maggior parte delle recensioni in circolazione. Tra l'altro, onestà intellettuale vorrebbe che si affermasse che la 2900XT scaldi meno di una GTS (altra cosa non vera)... perchè è una soluzione allineata alla GTS (a detta della stessa AMD).

Danielao
07-06-2007, 19:00
per un waterblock montato in modo non corretto sono arrivato a 120 per qualche secondo..la scheda ha retto ed ora è felice visto che sono a 45

johnson
07-06-2007, 19:02
Io dico da sempre che inquirer e il nuovo fudzilla (ex inq anche lui) si basano su rumors e questi rumors possono rivelarsi anche infondati. Se fossero sempre veritieri non sarebbero rumors :D
Sbaglia chi crede che siano affidabili al 100% , ma sbaglia anche chi dice che dicendo tutto e il contrario di tutto ne azzeccano qualcuna.

Resta il fatto che senza quei due siti, probabilmente i due thread "aspettando R600 (ma anche molti altri) non avrebbero mai raggiunto quell'elevato numero di pagine :D

Per quanto riguarda la notizia di un R600 con gddr4, sono proprio curioso. Si era molto parlato di un'abbandono delle gddr4 da parte di amd per presunti problemi. Ora sembra che addirittura sapphire sia in grado di sostituire le hynix gddr3 con le nuove gddr4 senza noie. Ma allora perchè non metterle subito? Problemi di shortage oppure problema di costi? Renderà veramente di più?

A.L.M.
07-06-2007, 19:10
http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_20.html
Veramente scaldano pressapoco uguali... in full 1° in meno la 2900
, in idle 3° in meno la gtx.:read:

Questa è una tua forzatura, che contrasta la maggior parte delle recensioni in circolazione. Tra l'altro, onestà intellettuale vorrebbe che si affermasse che la 2900XT scaldi meno di una GTS (altra cosa non vera)... perchè è una soluzione allineata alla GTS (a detta della stessa AMD).

Grado più, grado meno, comunque io i 100° non li vedo. E voi? :rolleyes:

La tua lettura è sul diodo di R600.

In quell'articolo c'è invece una foto di una 2900XT con termometro esterno che segna 82° sul retro del PCB della scheda in aria libera.

http://www.fudzilla.com/images/stories/2007/May/graphics/r600_temp.jpg

è probabile quindi che il die si trovi ad una temperatura parecchio più alta.

EDIT: osservando quella foto, si vede chiaramente che la rilevazione è stata effettuata in corrispondenza dei mosfet di alimentazione.

Come giustamente scrivi, quella misurazione è stata fatta in corrispondenza del mosfet, dunque la sua validità è prossima allo zero, visto che qualunque scheda in quel punto scalda un casino, e che non è assolutamente un proxy della temperatura della gpu. Nell'articolo che postarono ritrattarono i 100° (tra l'altro) e misero quella foto inutile, cercando di giustificare la caxxata detta in precedenza. ;)

Scrambler77
07-06-2007, 19:27
Come giustamente scrivi, quella misurazione è stata fatta in corrispondenza del mosfet, dunque la sua validità è prossima allo zero, visto che qualunque scheda in quel punto scalda un casino, e che non è assolutamente un proxy della temperatura della gpu. Nell'articolo che postarono ritrattarono i 100° (tra l'altro) e misero quella foto inutile, cercando di giustificare la caxxata detta in precedenza. ;)

Non è del tutto esatto: parlo per esperienza personale sulla mia GTX per cui i mosfet funzionano con normalissimi dissipatorini in rame adesivi (vedi HR-03 Plus) e non superano i 50-60°...

Che poi quella foto sia strana siamo tutti d'accordo: resta il fatto che non credo abbiano fotomontato il termometro. Quegli 82° da dove escono?

Per concludere, personalmente sono sempre stato parecchio scettico sulle letture dei diodi integrati (a causa delle note tolleranze) e dei relativi software: il buon termometro esterno è la via più sicura per fare una misurazione di questo tipo.

In ogni caso, anche 90° per un R600 che assorbe tanto, non mi stupirebbero...

TecnoWorld8
07-06-2007, 19:47
considerando che anche il nuovo core AMD Barcelona è stato rimandato all'ultimo trimestre dell'anno, direi che AMD e ATi stanno veramente andando male. Questo mi rattrista profondamente. La perdita di competitività sul mercato è la cosa che temo maggiormente.

Zodd_Il_nosferatu
07-06-2007, 20:11
allora con quelli nuovi mi trovo malissimo, ho fatto:

1280x1024 con tutto al max e aa 8x 33.2fps e 704 punti :mad: :mad: ho la vaga impressione che i nuovi driver abbiano qualcosa che nn va! invece senza aa non si arriva nemmeno a 800punti!:cry: :cry:
e a voi risulta?

PS: ho eseguito i test almeno 4 volte e ho anche riavviato il pc, ho pensato che ci fossero degli altri problemi, ma i risultati sono gli stessi! fatemi sapere!

guarda... anche a me erano calati mostruosamente gli fps... ho scoperto che bastava alzare il Vcore di un 0.25 e gli fps son tornati come prima se nn di +:stordita:

×§ñåkê×
07-06-2007, 20:25
guarda... anche a me erano calati mostruosamente gli fps... ho scoperto che bastava alzare il Vcore di un 0.25 e gli fps son tornati come prima se nn di +:stordita:

??????:confused:

Zodd_Il_nosferatu
07-06-2007, 20:50
??????:confused:

non so come mai...

con gli 8.381 beta avevo il Vcore della cpu a 1.325 e ram a 245 e tomb raider anniversary nello screen principale dell'egitto mi dava 95 fps... istallati i catalyst 8.381 del 25 gli fps sono calati a 64...

messo il Vcore della cpu a 1.350 gli fps sono tornati a 95 :stordita:

fukka75
07-06-2007, 20:52
Ecco cosa si intendeva con "driver miracolosi" :asd: :asd:

leoneazzurro
07-06-2007, 21:03
Sinceramente, credo che ALM abbia abbondantemente risposto a proposito delle perplessità su Fudzilla, per quanto riguarda le temperature, vorrei proprio capire come si possa riuscire a fare l'equazione temperatura dei MOS=temperatura della GPU e poi magari anche ad affermare che la lettura del siodo termico interno alla GPU sia meno affidabile di altri metodi (a questo punto, visto che ci siamo, perchè non affermare pure che le letture delle temperature siano sbagliate per ATI ed esatte per le schede della concorrenza?)

×§ñåkê×
07-06-2007, 22:03
non vedo come la temperatura dei mosfet della scheda video possa in qualche modo, anche lontanamente, far intuire la temperatura reale della gpu... è come dire che guardando la temperatura dei mosfet della mobo si possa capira la temp della cpu, è improponibile :fagiano: . per quello che riguarda la rilevazione della temperatura, è che la temperatura dei vari chip viene rilevata in modo analogico, e poi "letto" dai programmi, e può succedere come nel caso delle cpu, che un programma dia una temperatura, un altro programma un altra. con termometri esterni questa sbagliata interpretazione della temperatura non avviene. in definitiva se i catalyst indicano 70° in render 3d non vuol dire che siano 70° reali :stordita: .

johnson
07-06-2007, 22:39
non vedo come la temperatura dei mosfet della scheda video possa in qualche modo, anche lontanamente, far intuire la temperatura reale della gpu... è come dire che guardando la temperatura dei mosfet della mobo si possa capira la temp della cpu, è improponibile :fagiano: . per quello che riguarda la rilevazione della temperatura, è che la temperatura dei vari chip viene rilevata in modo analogico, e poi "letto" dai programmi, e può succedere come nel caso delle cpu, che un programma dia una temperatura, un altro programma un altra. con termometri esterni questa sbagliata interpretazione della temperatura non avviene. in definitiva se i catalyst indicano 70° in render 3d non vuol dire che siano 70° reali :stordita: .


Certo.

Però è anche vero che se vogliamo paragonare le temperature di due schede bisogna usare lo stesso metodo come dice leoneazzurro. Basta mettersi d'accordo.

Athlon 64 3000+
07-06-2007, 23:26
http://www.vr-zone.com/index.php?i=5044

wiltord
07-06-2007, 23:29
gennaio '08..:stordita:

http://resources.vr-zone.com//newspics/Jun07/08/R680.gif

Kharonte85
07-06-2007, 23:38
gennaio '08..:stordita:

http://resources.vr-zone.com//newspics/Jun07/08/R680.gif

:wtf: ...saltano i 65nm e vanno ai 55nm? :mbe: Mi sembra un po' sfasata sta tabella...non si menzionano nemmeno le dx10.1...:boh:

7stars
07-06-2007, 23:42
:wtf: ...saltano i 65nm e vanno ai 55nm? :mbe: Mi sembra un po' sfasata sta tabella...non si menzionano nemmeno le dx10.1...:boh:
le pci-e 2.0 sono retrocompatibili? nn mi pare ke l'x38 o il p35 supportino il pci-e 2.0 o sbaglio??

+Lonewolf+
07-06-2007, 23:43
le pci-e 2.0 sono retrocompatibili?

le prime si;)

TecnoWorld8
08-06-2007, 00:16
se questa roadmap è vera, AMD è ormai alla frutta, e me ne rammarico molto: praticamente salteranno l'appuntamento con i primi giochi DX10, che sicuramente R600 non sarà in grado di far girare al massimo dettaglio ad alta risoluzione (sopra 1280).

nVidia non solo è già messa meglio oggi, avendo un prodotto fuori da quasi 8 mesi che è più potente di R600, ma sono convinto che entro novembre avrà una scheda veloce almeno il 40% più dell'attuale Ultra. Peccato che, senza concorrenza, costerà 600€...

Che tristezza, ragazzi. E' uno dei momenti per me più tristi nel campo delle GPU da molti anni a questa parte. Forse la cosa migliore è comprarsi una 360 nel frattempo :)

o sperare che esca una HD2900GTO, dal costo di 200€ e moddabile ad XT ;)

7stars
08-06-2007, 00:28
Che tristezza, ragazzi. E' uno dei momenti per me più tristi nel campo delle GPU da molti anni a questa parte.;)
+ ke nel campo delle gpu è nelle nostre tasche... ;)
Forse la cosa migliore è comprarsi una 360 nel frattempo :);)
no questo mai preferisco :cry:
o sperare che esca una HD2900GTO, dal costo di 200€ e moddabile ad XT ;)
ecco questa invece sarebbe la soluzione + interessante per noi,chissà però se lo sarà per amd-ati ;) cmq se hanno cancellato dalla roadmap il 650 stanno messi veramente male,altro che 2900gto,quelli è già tanto se stanno mandando in distribuzione RV610-30,cmq nn si sa mai

TecnoWorld8
08-06-2007, 00:34
cmq se hanno cancellato dalla roadmap il 650 stanno messi veramente male,altro che 2900gto,quelli è già tanto se stanno mandando in distribuzione RV610-30,cmq nn si sa mai

probabilmente hanno capito che R650 costerebbe troppo e - probabilmente - non riuscirebbe a tener testa all'eventuale G92 di nVidia che si preannuncia prossima ad un Teraflop come potenza...temo che per il futuro prossimo (fino ad almeno R700 se finalmente riusciranno a non farlo uscire in ritardo) sarà già tanto vedere ATi difendere il settore medio e medio/alto con un buon rapporto prezzo prestazioni.

però purtroppo AMD è messa male anche come CPU, dato che ritarda Barcelona, che tra l'altro pare più lento di Penryn a parità di clock.

davvero una tristezza.

Chief
08-06-2007, 00:45
se questa roadmap è vera, AMD è ormai alla frutta, e me ne rammarico molto: praticamente salteranno l'appuntamento con i primi giochi DX10, che sicuramente R600 non sarà in grado di far girare al massimo dettaglio ad alta risoluzione (sopra 1280).

nVidia non solo è già messa meglio oggi, avendo un prodotto fuori da quasi 8 mesi che è più potente di R600, ma sono convinto che entro novembre avrà una scheda veloce almeno il 40% più dell'attuale Ultra. Peccato che, senza concorrenza, costerà 600€...

Che tristezza, ragazzi. E' uno dei momenti per me più tristi nel campo delle GPU da molti anni a questa parte. Forse la cosa migliore è comprarsi una 360 nel frattempo :)

o sperare che esca una HD2900GTO, dal costo di 200€ e moddabile ad XT ;)


Basta ragazzi abbiamo capito R600 è meno potente della GTX io leggo sempre le stesse cose( la maggior parte dei post su quest thred parlano di r600: delusione,flop è buggata nell AA ecc ecc..) nessuno vi obbliga a comprarla, c'è anche la concorenza compratevi una bella 8800 gts 640Mb e non se ne parla più:D.Questo non vuole essere assolutamente un attacco a nessuno ma una mia opinione avete 3 alternative: 1 prendere la 2900xt 2 prendere la gts(gtx) 3 non prendere nulla e aspettare le prossime schede :D

7stars
08-06-2007, 00:47
probabilmente hanno capito che R650 costerebbe troppo e - probabilmente - non riuscirebbe a tener testa all'eventuale G92 di nVidia che si preannuncia prossima ad un Teraflop come potenza...temo che per il futuro prossimo (fino ad almeno R700 se finalmente riusciranno a non farlo uscire in ritardo) sarà già tanto vedere ATi difendere il settore medio e medio/alto con un buon rapporto prezzo prestazioni.

però purtroppo AMD è messa male anche come CPU, dato che ritarda Barcelona, che tra l'altro pare più lento di Penryn a parità di clock.

davvero una tristezza.
si sono d'accordo e aggiungo che,non so se avete la stessa sensazione,ma sembra quasi che l'acquisizione d ati da parte d amd abbia accomunato le 2 aziende anche sul target d mercato.che non siano accordi precisi?? perchè parliamoci chiaro: amd che tipo d cpu ha sempre prodotto? per un mercato enthusiast? ehhh mi sa proprio di no,forse a parte la serie "sfortunata" dei prescott intel è sempre stata al top.recentemente per curiosità sono andato a rivedere i benchs core 2 vs athlon x2,insomma molto indicativi nn vi pare?? prestazioni + basse prezzi + bassi,concorrenza nel senso che vende processori anch'essa,meglio per noi.credo ke amd abbia sempre avuto le idee chiare su questo e dimostra coerenza,forse quello che non ha dimostrato negli ultimi tempi è un buon fatturato :D

TecnoWorld8
08-06-2007, 00:49
Basta ragazzi abbiamo capito R600 è meno potente della GTX io leggo sempre le stesse cose( la maggior parte dei post su quest thred parlano di r600: delusione,flop è buggata nell AA ecc ecc..) nessuno vi obbliga a comprarla, c'è anche la concorenza compratevi una bella 8800 gts 640Mb e non se ne parla più:D.Questo non vuole essere assolutamente un attacco a nessuno ma una mia opinione avete 3 alternative: 1 prendere la 2900xt 2 prendere la gts(gtx) 3 non prendere nulla e aspettare le prossime schede :D

e in ognuno di questi casi consigli di...stare zitti? :)

si commentava una news sulla cancellazione di R650. personalmente sono parecchio deluso perchè ad agosto ho preso la scheda in sign come "transizione", dato che non c'era nessun gioco così pesante da metterla seriamente in difficoltà fino all'arrivo - io credevo - del "mostro" R600, che mostro non è stato affatto, se non di consumo. A questo punto, mi ero rassegnato ad attendere R650 e ora me lo cancellano...insomma, il mio "piano" di battaglia è andato totalmente a farsi friggere e ora mi trovo a sperare che almeno nVidia metta fuori qualcosa di potente abbastanzain autunno, da far girare ogni gioco DX10 in prima persona, in uscita da ora al 2008, al massimo dettaglio ad alta risoluzione.

Scrambler77
08-06-2007, 00:51
vorrei proprio capire come si possa riuscire a fare l'equazione temperatura dei MOS=temperatura della GPU e poi magari anche ad affermare che la lettura del siodo termico interno alla GPU sia meno affidabile di altri metodi

a questo ti ha risposto snake:

per quello che riguarda la rilevazione della temperatura, è che la temperatura dei vari chip viene rilevata in modo analogico, e poi "letto" dai programmi, e può succedere come nel caso delle cpu, che un programma dia una temperatura, un altro programma un altra. con termometri esterni questa sbagliata interpretazione della temperatura non avviene. in definitiva se i catalyst indicano 70° in render 3d non vuol dire che siano 70° reali :stordita: .

;)

Per quanto riguarda:

(a questo punto, visto che ci siamo, perchè non affermare pure che le letture delle temperature siano sbagliate per ATI ed esatte per le schede della concorrenza?)

Questa è una considerazione che hai aggiunto tu sulla base di un ormai usuale "processo alle intenzioni" che si fa sistematicamente su questo forum. Non vedo il motivo per cui tu voglia polemizzare tirando in ballo "la concorrenza". La questione che hai sollevato non sussiste perchè non trova alcun riscontro nelle mie parole in quanto non ho mai sostenuto che per nvidia i sensori funzionino meglio. :rolleyes:

Chief
08-06-2007, 01:23
e in ognuno di questi casi consigli di...stare zitti? :)

si commentava una news sulla cancellazione di R650. personalmente sono parecchio deluso perchè ad agosto ho preso la scheda in sign come "transizione", dato che non c'era nessun gioco così pesante da metterla seriamente in difficoltà fino all'arrivo - io credevo - del "mostro" R600, che mostro non è stato affatto, se non di consumo. A questo punto, mi ero rassegnato ad attendere R650 e ora me lo cancellano...insomma, il mio "piano" di battaglia è andato totalmente a farsi friggere e ora mi trovo a sperare che almeno nVidia metta fuori qualcosa di potente abbastanzain autunno, da far girare ogni gioco DX10 in prima persona, in uscita da ora al 2008, al massimo dettaglio ad alta risoluzione.

Io non dico di stare zitti ci mancherebbe il discorso non era rivolto a te ma in generale si può tranquillamente parlare..io dicevo di non dire più r600 flop è buggato l'aa penso che l'abbiamo capito tutti che R600 è na schifezza di scheda :D (ho letto 3000 post così poi se volete continuare per me non ci sono problemi era solo una mia opinione)..i si puo parlare di tutto ben venga figuriamoci

M4R1|<
08-06-2007, 06:26
non so come mai...

con gli 8.381 beta avevo il Vcore della cpu a 1.325 e ram a 245 e tomb raider anniversary nello screen principale dell'egitto mi dava 95 fps... istallati i catalyst 8.381 del 25 gli fps sono calati a 64...

messo il Vcore della cpu a 1.350 gli fps sono tornati a 95 :stordita:

si ok oggi ci provo, ma cmq nn ho più gli fps di prima, ma che driver del .... cioè, va be ci provo e poi vi farò sapere! GRAZIE!!!!!!!

edit: dimenticato, nemmeno togliendoli completmente e mettendo quelli beta tornano le cose come erano, io mi chiedo, ma sono pagati per fare driver o per fare panini!

TecnoWorld8
08-06-2007, 07:40
Io non dico di stare zitti ci mancherebbe il discorso non era rivolto a te ma in generale si può tranquillamente parlare..io dicevo di non dire più r600 flop è buggato l'aa penso che l'abbiamo capito tutti che R600 è na schifezza di scheda :D (ho letto 3000 post così poi se volete continuare per me non ci sono problemi era solo una mia opinione)..i si puo parlare di tutto ben venga figuriamoci

secondo me non è una schifezza; è una bella architettura, creata con un processo produttivo non adatto ad essa (80nm anzichè 65nm) uscita, nonostante questo, con troppo ritardo. Il vero problema, secondo me, è la cancellazione di R650, che ci fa capire che ATi "non esisterà" più nel settore high-end (che da molta immagine, anche se magari vende poche schede) almeno fino ad inizio 2008, ad essere ottimisti.

Pat77
08-06-2007, 08:30
Secondo me è la scheda più promettente dx10, altrimenti non l'avrei comprata, ottima anche con l'attuale schiera di giochi dx9, io per ora a Stalker faccio 60 fps di media, e a Supreme Commander non ho mai giocato così fluidamente, così come a Oblivion che vola.
Mi chiedo cosa si possa chiedere di più di un futuro promettente e un presente ottimo.
Anche da coloro a cui l'ho consigliata solo lodi.

safendi
08-06-2007, 08:36
Secondo me è la scheda più promettente dx10, altrimenti non l'avrei comprata, ottima anche con l'attuale schiera di giochi dx9, io per ora a Stalker faccio 60 fps di media, e a Supreme Commander non ho mai giocato così fluidamente, così come a Oblivion che vola.
Mi chiedo cosa si possa chiedere di più di un futuro promettente e un presente ottimo.
Anche da coloro a cui l'ho consigliata solo lodi.

hai dati per poter esprimere questo? non è xè l'hai presa te che allora va bene :mbe:

Simon82
08-06-2007, 08:36
secondo me non è una schifezza; è una bella architettura, creata con un processo produttivo non adatto ad essa (80nm anzichè 65nm) uscita, nonostante questo, con troppo ritardo. Il vero problema, secondo me, è la cancellazione di R650, che ci fa capire che ATi "non esisterà" più nel settore high-end (che da molta immagine, anche se magari vende poche schede) almeno fino ad inizio 2008, ad essere ottimisti.

Per quel che ne sappiamo comunque potrebbero esserci anche forzature interne post acquisizione da AMD. Certo non sara' la causa di una soluzione piu' "pacata" rispetto alle aspettative ma sono sicuro che ha influenzato in qualche modo.

zorco
08-06-2007, 08:43
Secondo me è la scheda più promettente dx10, altrimenti non l'avrei comprata, ottima anche con l'attuale schiera di giochi dx9, io per ora a Stalker faccio 60 fps di media, e a Supreme Commander non ho mai giocato così fluidamente, così come a Oblivion che vola.
Mi chiedo cosa si possa chiedere di più di un futuro promettente e un presente ottimo.
Anche da coloro a cui l'ho consigliata solo lodi.
concordo,personalmente sono soddisfatto dell'acquisto....con tutti i giochi che ho provato vedi stalker,r6v,hl2,fear ecc..,la scheda ha un frame rate elevato,insomma si può giocare alla grande...

Pat77
08-06-2007, 08:52
hai dati per poter esprimere questo? non è xè l'hai presa te che allora va bene :mbe:

Prima dell'acquisto mi sono studiato l'architettura, anche grazie a questo forum e penso di averne compreso i pregi, ritengo inoltre che con i giochi dx10 possa avere un sostanziale pareggio nei pixel e un sostanziale vantaggio nei geometry shaders.
L'ho presa e ho speso 400 euro perchè mi convinceva, ho postato i risultati di sessioni di gioco, a me sembrano ottimi, ne sono soddisfatto, lo esprimo e non giudico il "parere" altrui.
Quelli che conosco che la possiedono ne sono soddisfatti anch'essi, o è una malattia o certe presunte delusioni sono nella testa di chi non la possiede...

Athlon 64 3000+
08-06-2007, 08:54
secondo me non è una schifezza; è una bella architettura, creata con un processo produttivo non adatto ad essa (80nm anzichè 65nm) uscita, nonostante questo, con troppo ritardo. Il vero problema, secondo me, è la cancellazione di R650, che ci fa capire che ATi "non esisterà" più nel settore high-end (che da molta immagine, anche se magari vende poche schede) almeno fino ad inizio 2008, ad essere ottimisti.

dichiarare flop R600 mi sembra quantomeno esagerato e francamente non sono d'accordo nel sentire dire che R600 ha dei bachi hardware.
D'accordo che consuma tanto e che non ha le prestazione che molti volevano è cioè molto più veloce della 8800GTX ma la scheda la ho presa perchè la ritengo competitiva.
E' anche vero che forse questa volta Ati abbia fatto la gpu troppo in chiave futura mentre G80 è molto equilibrata ed è stata lei in versione GTX che studi quando è uscita,infatti R600 viaggia bene con i giochi dx 9 più recenti e facenti uso di shader più intensivi tipo Rainbow Six Vegas e Compony Of Heroes dove va uguale alla 8800GTX addirittura mentre arraccana nei giochi più vecchi rispetto alla 8800GTX dove si fanno più uso di texture.
Io non ho mai criticato G80 perchè non ha punti deboli ed è molto equilibrata sia per andare forte in dx 9 e bene anche con i primi titoli dx 10.
Le sistuazioni negative di R600 sono oltre ai consumi un situazione driver talmente penosa che erano anni che non la vedevo e ci sarà veramente da lavorare e spero tanto prima che elimino i bachi tipo quell'AA e del'AF che franno crollare più del dovuto le prestazioni e poi dopo comincino magari a spremere la scheda.

http://www.xbitlabs.com/articles/video/display/radeon-hd-2900-games_3.html#sect1

Poi guarda il benchmark di Battlefield 2142 a 1280x1024 con i filtri che a me interessa molto visto che è la risoluzione che ci gioco e la massima supportata dal mio monitor dove va addiritura più veloce della 8800GTX mentre in quelle superiori si difende bene.
Come vedi in certi giochi non è che faccia schifo.

wiltord
08-06-2007, 08:54
Pat77 la scheda si chiama HD2900, non X2900, lo vedo in firma ;)

ciao

leoneazzurro
08-06-2007, 08:57
a questo ti ha risposto snake:
;)

Che le letture non siano al 100% precise con un diodo termico ci siamo (ci sono delle tolleranze di misura non certo da primato), che siano totalmente inaffidabili è tutta un'altra storia. Dipende tutto da come è progettato il diodo termico e dalla circuiteria preposta alla lettura. Se il software dà letture errate, magari dovrebbe passare per la mente a qualcuno che è il software ad avere delle pecche, e se i drivers (progettati da coloro che hanno hanche implementato il diodo di rilevazione della temperatura) rilevano una determinata temperatura, evidentemente questa lettura è più affidabile che non quella del programma Pinco Pallo DX.
Quindi, oltre al fatto che la temperatura dei MOSFET non indica assolutamente nulla a proposito della temperatura della GPU, per paragonare le temperature di due GPU differenti non c'è altro da fare che affidarsi alla lettura del diodo termico, e questo anche quando si paragonano due GPU differenti. Usare un termometro esterno non è fattibile, perchè in quel caso leggi la temperatura del dissipatore e non della GPU. Certo, se il dissipatore toccasse gli 80-90°C allora si potrebbe fare l'ipotesi che la GPU sia intorno ai 100-110°C.
E comunque bisognerebbe conoscere troppe variabili, a partire dalla resistenza termica del dissipatore


Questa è una considerazione che hai aggiunto tu sulla base di un ormai usuale "processo alle intenzioni" che si fa sistematicamente su questo forum. Non vedo il motivo per cui tu voglia polemizzare tirando in ballo "la concorrenza". La questione che hai sollevato non sussiste perchè non trova alcun riscontro nelle mie parole in quanto non ho mai sostenuto che per nvidia i sensori funzionino meglio. :rolleyes:

"In ogni caso, anche 90° per un R600 che assorbe tanto, non mi stupirebbero..."

"La tua lettura è sul diodo di R600.
In quell'articolo c'è invece una foto di una 2900XT con termometro esterno che segna 82° sul retro del PCB della scheda in aria libera.
http://www.fudzilla.com/images/stori.../r600_temp.jpg
è probabile quindi che il die si trovi ad una temperatura parecchio più alta."

"Questa è una tua forzatura, che contrasta la maggior parte delle recensioni in circolazione. Tra l'altro, onestà intellettuale vorrebbe che si affermasse che la 2900XT scaldi meno di una GTS (altra cosa non vera)... perchè è una soluzione allineata alla GTS (a detta della stessa AMD)."

Guarda, non si tratta di processo alle intenzioni. Le tue posizioni direi che si sono ormai da parecchio piuttosto palesate, vista la frequenza e la unilateralità con la quale partecipi a flame, fatti (e non intenzioni) per i quali hai anche preso diverse vacanze dal forum.
Forse dovresti (e con te anche diversi altri utenti, di qualunque "colore" essi siano, tifosi di ATI o AMD o Intel o NVidia o qualunque altra cosa) capire che la maggioranza degli utenti di questo forum è estremamente seccata da coloro che invadono i thread con flame dovuti a posizioni preconcette e spesso senza la minima base tecnica. Non a caso si è pensato in staff di interdire a diversi utenti (sia dalla parte "rossa" che da quella "verde") i thread "a rischio" per evitare il ripetersi di situazioni oramai cicliche di flame wars.

Pat77
08-06-2007, 09:03
Forse dovresti (e con te anche diversi altri utenti, di qualunque "colore" essi siano, tifosi di ATI o AMD o Intel o NVidia o qualunque altra cosa) capire che la maggioranza degli utenti di questo forum è estremamente seccata da coloro che invadono i thread con flame dovuti a posizioni preconcette e spesso senza la minima base tecnica. Non a caso si è pensato in staff di interdire a diversi utenti (sia dalla parte "rossa" che da quella "verde") i thread "a rischio" per evitare il ripetersi di situazioni oramai cicliche di flame wars.


Ecco questo mai l'ho capito, cosa serve andare in un forum di un prodotto che non acquisterai perchè possiedi quello della concorrenza per criticare senza un MINIMO di spirito costruttivo e senza portare un contributo alla discussione, peraltro con un aria arrogante e supponente.

Scrambler77
08-06-2007, 09:06
...cut...


PVT. :read:

bs82
08-06-2007, 09:09
non so come mai...

con gli 8.381 beta avevo il Vcore della cpu a 1.325 e ram a 245 e tomb raider anniversary nello screen principale dell'egitto mi dava 95 fps... istallati i catalyst 8.381 del 25 gli fps sono calati a 64...

messo il Vcore della cpu a 1.350 gli fps sono tornati a 95 :stordita:


Cavolo, ma è stranissimo. Forse internamente con più voltaggio stabile "qualche" frequenza viene sparata in su.

Prova a segnalare il fatto al Catalyst Crew Feed Back!!! (http://support.ati.com/ics/survey/survey.asp?deptID=894&surveyID=486&type=web)


gennaio '08..:stordita:

http://resources.vr-zone.com//newspics/Jun07/08/R680.gif

Sinceramente mi pare il solito grafico "made in vr-zone". E' ricostruito con le news e i rumors della rete...quindi l'affidabilità è quello che è...
Cmq il passaggio a 55nm lo faranno perchè AMD è in moto in questa direzione da un po.



Prima dell'acquisto mi sono studiato l'architettura, anche grazie a questo forum e penso di averne compreso i pregi, ritengo inoltre che con i giochi dx10 possa avere un sostanziale pareggio nei pixel e un sostanziale vantaggio nei geometry shaders.
L'ho presa e ho speso 400 euro perchè mi convinceva, ho postato i risultati di sessioni di gioco, a me sembrano ottimi, ne sono soddisfatto, lo esprimo e non giudico il "parere" altrui.
Quelli che conosco che la possiedono ne sono soddisfatti anch'essi, o è una malattia o certe presunte delusioni sono nella testa di chi non la possiede...

Esatto, sono sempre più convinto che sia la cosa giusta da fare: ok il pacco arriva con il fatto che potevano sistemare meglio i driver, ma chi come tes'è studiato per bene l'archittetura sa che è tutto (calda, rumorosa, avanzata ecc) fuorchè un flop!

Scrambler77
08-06-2007, 09:15
Ecco questo mai l'ho capito, cosa serve andare in un forum di un prodotto che non acquisterai perchè possiedi quello della concorrenza per criticare senza un MINIMO di spirito costruttivo e senza portare un contributo alla discussione, peraltro con un aria arrogante e supponente.

Ecco l'esatto processo alle intenzioni di cui parlavo. L'avere una scheda video di 8 mesi fa non significa che non si sia interessati all'acquisto. :muro:

Preciso che se sono schierato (come dice leoneazzurro) lo sono da quando ATi ha tirato fuori dal cilindro una scheda che (contrariamente alle abitudini) non brilla di luce propria. Ribadisco ancora una volta fino ad allora che sono sempre stato atista sfegatato (sin dalla Rage3D).

Il contributo di cui parli dev'essere necessariamente positivo: se si tratta di una cattiva notizia, (vedi le prestazioni da GTS - la cui fonte è esterna quindi solo "riportata"), sei subito un flamer schierato. :rolleyes:

bs82
08-06-2007, 09:16
E perché è uno shrink ottico a costo 0 (o quasi) :>

se sarà tutto "fatto in casa" come si dice, sarà così :D

Simon82
08-06-2007, 09:20
Cerchiamo di rimanere IT please e non sforare su comparazioni ATI-Nvidia (relativamente a qualche pagina prima).

paolox86
08-06-2007, 09:29
Scusate ma un enermax liberty 500 w dunque è insufficente per questa scheda?

zorco
08-06-2007, 09:30
Scusate ma un enermax liberty 500 w dunque è insufficente per questa scheda?
nò va più che bene....

TecnoWorld8
08-06-2007, 09:33
dichiarare flop R600 mi sembra quantomeno esagerato e francamente non sono d'accordo nel sentire dire che R600 ha dei bachi hardware

....

Come vedi in certi giochi non è che faccia schifo.

rispondo dato che hai quotato me; come già detto, non ho mai sostenuto che R600 sia un flop o tantomeno che faccia "schifo"...dico anzi che probabilmente se io ora avessi una scheda inferiore alla mia (che so, una x1600) probabilmente prenderei questa, perchè come rapporto prezzo/prestazioni è interessante.

dico soltanto che mi pare che AMD/ATi non sia più in grado di competere nel top di gamma e questo mi rattrista molto, dato che è il settore in cui avrei voluto orientarmi, passando ad una scheda che speravo esistesse in questo periodo e invece non esiste.

dico anche che, appena usciranno giochi davvero next gen (penso a crysis, bioshock, alan wake ed altri di questo tipo), ATi non avrà una soluzione in grado di farli girare a massimo dettaglio, alle risoluzioni elevate, e dunque nVidia (che al contrario non è rimasta indietro) avrà campo libero per propinarci schede a 600-700€, cifra che sinceramente non mi sentirei di spendere.

che forse le bistrattate console "next gen" abbiano trovato un alleato involontario in ATi, che non essendo competitiva tecnologicamente, frena il "pc gaming" di alto livello?

Pat77
08-06-2007, 09:42
Ecco l'esatto processo alle intenzioni di cui parlavo. L'avere una scheda video di 8 mesi fa non significa che non si sia interessati all'acquisto. :muro:

Preciso che se sono schierato (come dice leoneazzurro) lo sono da quando ATi ha tirato fuori dal cilindro una scheda che (contrariamente alle abitudini) non brilla di luce propria. Ribadisco ancora una volta fino ad allora che sono sempre stato atista sfegatato (sin dalla Rage3D).

Il contributo di cui parli dev'essere necessariamente positivo: se si tratta di una cattiva notizia, (vedi le prestazioni da GTS - la cui fonte è esterna quindi solo "riportata"), sei subito un flamer schierato. :rolleyes:

A me sembra che qua dentro non ci sia nessuno che vuol nascondere presunte magagne, ripetiamo che i driver fanno schifo, e chi come Athlon 3000+ lamentava performance basse le ha raddoppiate solo abilitando il filtro af in altro modo, è rumorosa, consuma, Lost Planet a momenti manco parte e Dirt manco attiva le frequenze 3d in game.
Il contributo di cui parlo in questo 3d deve essere di chi ce l'ha e ha voglia di testarla per uso di tutti, per collacarla meglio, per utenti che consultano questo 3d in cerca di informazioni.

Mi hai mai visto in 3d di 8800GTX/GTS 8600 GTS/GTX se non nei relativi "aspettando"? Uno fa la sua scelta e poi si concentra nella sezione che interessa, qui ogni 3 post si alimenta flame e spam a più non posso e sinceramente mi sono anche un po' rotto le scatole.

safendi
08-06-2007, 09:48
che forse le bistrattate console "next gen" abbiano trovato un alleato involontario in ATi, che non essendo competitiva tecnologicamente, frena il "pc gaming" di alto livello?

La x360 ha skeda video ati

JoeLatino
08-06-2007, 09:49
piccolo ot ma non troppo....

AMD ha praticamente confermato che non uscira' a breve con un refresh della r600:(
NVIDIA invece ha deciso di abbassare i prezzi (specie della ultra) dal prossimo mese:)
quindi a voi le conclusioni.....
se prima volevo aspettare settembre per la r650 ora mi sa' che ripuntero' su una 8800gtx o ultra se il prezzo di quest'ultima scendera' sui 550/600e..

Pedro80
08-06-2007, 09:53
che forse le bistrattate console "next gen" abbiano trovato un alleato involontario in ATi, che non essendo competitiva tecnologicamente, frena il "pc gaming" di alto livello?
io NON direi proprio!

Scrambler77
08-06-2007, 09:54
Mi hai mai visto in 3d di 8800GTX/GTS 8600 GTS/GTX se non nei relativi "aspettando"? Uno fa la sua scelta e poi si concentra nella sezione che interessa, qui ogni 3 post si alimenta flame e spam a più non posso e sinceramente mi sono anche un po' rotto le scatole.

@Simon82, sorry per l'OT, ma vorrei completare il discorso in maniera più che tranquilla...

#Pat77: hai percaso visto qualcuno che ha flammato o spammato sul 3d di Unigine?? Eppure lì le schede sono tutte messe a confronto. I flame, molto spesso, sono presunti tali da chi non vuole leggere... ma nelle intenzioni di chi posta non c'è la minima traccia dell'intenzione di scatenare flame.

Ma poi, scusate, non è mica colpa vostra se ci sono le "magagne" di cui parli. Secondo me c'è la tendenza a prendere troppo a cuore una causa per difenderla a spada tratta... vale anche per me.

Pat77
08-06-2007, 10:03
@Simon82, sorry per l'OT, ma vorrei completare il discorso in maniera più che tranquilla...

#Pat77: hai percaso visto qualcuno che ha flammato o spammato sul 3d di Unigine?? Eppure lì le schede sono tutte messe a confronto. I flame, molto spesso, sono presunti tali da chi non vuole leggere... ma nelle intenzioni di chi posta non c'è la minima traccia dell'intenzione di scatenare flame.

Ma poi, scusate, non è mica colpa vostra se ci sono le "magagne" di cui parli. Secondo me c'è la tendenza a prendere troppo a cuore una causa per difenderla a spada tratta... vale anche per me.

In ungine si parlava di ungine, non c'erano amanti del 3dmark che venivano ogni 2 secondi a flammare, è per questo che resta un luogo di conversazione focalizzato e leggibile.
Il 3d serve a condividere pareri, a risolvere magari insieme i problemi, a testare il prodotto. Se ognuno restasse al suo posto questo nostro off topic nemmeno esisterebbe, io di mio ho detto la mia e la finisco qui, mi scusino gli utenti che volevano seguire il 3d su hd2900 xt.

Scrambler77
08-06-2007, 10:14
In ungine si parlava di ungine, non c'erano amanti del 3dmark che venivano ogni 2 secondi a flammare, è per questo che resta un luogo di conversazione focalizzato e leggibile.
Il 3d serve a condividere pareri, a risolvere magari insieme i problemi, a testare il prodotto. Se ognuno restasse al suo posto questo nostro off topic nemmeno esisterebbe, io di mio ho detto la mia e la finisco qui, mi scusino gli utenti che volevano seguire il 3d su hd2900 xt.

Ah... se parli di 3dmark allora non sono al corrente di ciò a cui ti riferisci. Quoto il resto.
Mi associo alle scuse per l'OT.

Free Gordon
08-06-2007, 12:07
si è vero... c'ha l'aa1x...

Ci hai mai giocato su un monitor pc? :)
Ha l'MSAA 4x. ;)

Cmq leggi l'articolo che ho postato e capirai.

Free Gordon
08-06-2007, 12:09
64 di G80

Giusto, correggo subito.

Free Gordon
08-06-2007, 12:10
si ma a vedersi sembra un 1x...
capito?? :asd:


Ehm?? :mbe:
GoW ha pochissimo aliasing.... :rolleyes:

Vabbè, ho capito che si vuole finire nella solita diatriba console vs pc (per dimostrare che il pc è ovviamente meglio), per cui lascio perdere.

Free Gordon
08-06-2007, 12:23
Secondo me è la scheda più promettente dx10, altrimenti non l'avrei comprata, ottima anche con l'attuale schiera di giochi dx9, io per ora a Stalker faccio 60 fps di media, e a Supreme Commander non ho mai giocato così fluidamente, così come a Oblivion che vola.
Mi chiedo cosa si possa chiedere di più di un futuro promettente e un presente ottimo.
Anche da coloro a cui l'ho consigliata solo lodi.

ma a 60fps di media come ci giochi, con ill dinamica full??? :confused:

Defragg
08-06-2007, 13:20
Quelli che conosco che la possiedono ne sono soddisfatti anch'essi, o è una malattia o certe presunte delusioni sono nella testa di chi non la possiede...
tra l'altro sembra che la maggiorparte di chi ha la "malattia" abbia nel una 8800 nel case ;)
tra l'altro seguendo il 3d le rare volte che si è rimasti IT, non mi è mai sembrato di leggere delle lamentele da parte dei possessori ma solo dai "soliti" :asd:

Guarda, non si tratta di processo alle intenzioni. Le tue posizioni direi che si sono ormai da parecchio piuttosto palesate, vista la frequenza e la unilateralità con la quale partecipi a flame, fatti (e non intenzioni) per i quali hai anche preso diverse vacanze dal forum.
Forse dovresti (e con te anche diversi altri utenti, di qualunque "colore" essi siano, tifosi di ATI o AMD o Intel o NVidia o qualunque altra cosa) capire che la maggioranza degli utenti di questo forum è estremamente seccata da coloro che invadono i thread con flame dovuti a posizioni preconcette e spesso senza la minima base tecnica. Non a caso si è pensato in staff di interdire a diversi utenti (sia dalla parte "rossa" che da quella "verde") i thread "a rischio" per evitare il ripetersi di situazioni oramai cicliche di flame wars.

quoto ;)

7stars
08-06-2007, 13:31
Prima dell'acquisto mi sono studiato l'architettura, anche grazie a questo forum e penso di averne compreso i pregi, ritengo inoltre che con i giochi dx10 possa avere un sostanziale pareggio nei pixel e un sostanziale vantaggio nei geometry shaders.
L'ho presa e ho speso 400 euro perchè mi convinceva, ho postato i risultati di sessioni di gioco, a me sembrano ottimi, ne sono soddisfatto, lo esprimo e non giudico il "parere" altrui.
Quelli che conosco che la possiedono ne sono soddisfatti anch'essi, o è una malattia o certe presunte delusioni sono nella testa di chi non la possiede...
infatti si torna al mio discorso del target...per quel prezzo questa 2900 è ottima(ora l'ho trovata a 358€) ed io sfido chiunque a dire il contrario.e ancora non abbiamo titoli dx10 in mano perciò ne parleremo ancora molto ;)

MaRtH
08-06-2007, 13:34
La x360 ha skeda video ati


E rulla, tra l'altro...

L'hardware buono c'è, il problema è il saperlo sfruttare...

Marko91
08-06-2007, 13:35
Ehm?? :mbe:
GoW ha pochissimo aliasing.... :rolleyes:


GoW non fa uso di MSAA, perchè l'Unreal Engine 3 non supporta il tiling. Per eliminare l'aliasing usa del blur. E' probabile che con Ut3 abbiano modificato il renderer del engine per supportare il tiling e poter applicare MSAA.

Pat77
08-06-2007, 13:40
ma a 60fps di media come ci giochi, con ill dinamica full??? :confused:

Sì con HDR pure, se tolgo HDR faccio 80 Fps, con Ill. a oggetti non ho mai provato, ma credo che possa ipotizzare sui 100 fps (non prendetelo come un valore assoluto, ho detto ipotizzo).

7stars
08-06-2007, 13:46
Sì con HDR pure, se tolgo HDR faccio 80 Fps, con Ill. a oggetti non ho mai provato, ma credo che possa ipotizzare sui 100 fps (non prendetelo come un valore assoluto, ho detto ipotizzo).
pat su questo però mi sembra rimanga solo un'ipotesi :) perchè se fai 80 con "statica" nn puoi fare 100 con "ad oggetti"

leoneazzurro
08-06-2007, 13:47
tra l'altro sembra che la maggiorparte di chi ha la "malattia" abbia nel una 8800 nel case ;)
tra l'altro seguendo il 3d le rare volte che si è rimasti IT, non mi è mai sembrato di leggere delle lamentele da parte dei possessori ma solo dai "soliti" :asd:



quoto ;)

Vi ricordo che sono i moderatori coloro preposti a potere/dovere esprimere il giudizio e le eventuali sanzioni su altri utenti, ergo se ci sono comportamenti che vi "urtano" potete e dovete segnalarli allo staff ma NON esprimervi con giudizio in merito a proposito di altri utenti. Questo per evitare continue flame wars.
Il mio intervento in merito è squisitamente moderatorio, anche se chiedo scusa a Wiltord e Simon82 per averlo espresso in una sezione non mia.

bs82
08-06-2007, 13:48
E' stato rilasciato il demo di Call Of Juarez in dx10....

http://www.tomshw.it/news.php?newsid=10360

notare però l'assoluta imparzialità di tom's quando scrivono.

Techland ha rilasciato la demo DX10 di Call of Juarez, prodotto che abbiamo avuto modo di provare per la prima volta nella prova della scheda ATi Radeon HD 2900 XT. Dal peso di 700 MByte, questo benchmark vi permetterà di testare la vostra scheda grafica in ambito DirectX 10, ma ricordate bene che potrebbe "avvantaggiare" le schede grafiche di AMD.

Strano: nella news di rilascio di Lost Planet non avevano detto lo stesso per la casa concorrente, anzi avevano pure i driver beta ottimizzati... :rolleyes:


Cmq la 2900xt supera la GTX in questo gioco, che resta cmq ingiocabile, sui 30 fps senza filtri a 1024....

bs82
08-06-2007, 13:50
infatti si torna al mio discorso del target...per quel prezzo questa 2900 è ottima(ora l'ho trovata a 358€) ed io sfido chiunque a dire il contrario.e ancora non abbiamo titoli dx10 in mano perciò ne parleremo ancora molto ;)

Ebay, negozio tedesco, ora finite: ne ha vendute alcune a 239.99 euro della sapphire. Peccato sia già finita la vendita....
Non metto il link ma il codice dell'oggeto: 170119008993

...giusto per i soliti che credono che la 2900xt non sia la migliore scheda con miglior rapporto prezzo/prestazioni/tecnologia attualmente in commercio :-)

... anche per quello che non ci credono che in germania le vendono a molto ma molto meno che da noi.

TecnoWorld8
08-06-2007, 13:54
a 238€ forse l'avrei presa. è il prezzo cui ho pagato la mia in sign 9 mesi fa...

Nos89
08-06-2007, 13:55
E' stato rilasciato il demo di Call Of Juarez in dx10....

http://www.tomshw.it/news.php?newsid=10360

notare però l'assoluta imparzialità di tom's quando scrivono.

Techland ha rilasciato la demo DX10 di Call of Juarez, prodotto che abbiamo avuto modo di provare per la prima volta nella prova della scheda ATi Radeon HD 2900 XT. Dal peso di 700 MByte, questo benchmark vi permetterà di testare la vostra scheda grafica in ambito DirectX 10, ma ricordate bene che potrebbe "avvantaggiare" le schede grafiche di AMD.

Strano: nella news di rilascio di Lost Planet non avevano detto lo stesso per la casa concorrente, anzi avevano pure i driver beta ottimizzati... :rolleyes:


Cmq la 2900xt supera la GTX in questo gioco, che resta cmq ingiocabile, sui 30 fps senza filtri a 1024....

e quindi? cio conferma che questi demo fanno schifo e sono mal ottimizzati come è possibile senno che la GTX che costa 500€ o anche la mia che viene 250€ siano ingiocabili a 800*600:mbe: sicuramente non vuol dire nulla che la 2900 è + veloce perchè tutte 2 sembrano delle Geforce4

zorco
08-06-2007, 13:57
E' stato rilasciato il demo di Call Of Juarez in dx10....

http://www.tomshw.it/news.php?newsid=10360

notare però l'assoluta imparzialità di tom's quando scrivono.

Techland ha rilasciato la demo DX10 di Call of Juarez, prodotto che abbiamo avuto modo di provare per la prima volta nella prova della scheda ATi Radeon HD 2900 XT. Dal peso di 700 MByte, questo benchmark vi permetterà di testare la vostra scheda grafica in ambito DirectX 10, ma ricordate bene che potrebbe "avvantaggiare" le schede grafiche di AMD.

Strano: nella news di rilascio di Lost Planet non avevano detto lo stesso per la casa concorrente, anzi avevano pure i driver beta ottimizzati... :rolleyes:


Cmq la 2900xt supera la GTX in questo gioco, che resta cmq ingiocabile, sui 30 fps senza filtri a 1024....

a mè pare che il vero flop siano proprio le dx10 che per ora hanno largamente deluso,l'fps registrato con gli unici giochi che ne fanno uso fà veramente pena...

TecnoWorld8
08-06-2007, 13:59
a mè pare che il vero flop siano proprio le dx10 che per ora hanno largamente deluso,l'fps registrato con gli unici giochi che ne fanno uso fà veramente pena...

saranno le dx10 o sarà vista? ;) diciamo che i nuovi software microsoft non paiono eccezionali, come giochi :)

zorco
08-06-2007, 14:00
saranno le dx10 o sarà vista? ;)
entrambi...

leoneazzurro
08-06-2007, 14:01
Cmq la 2900xt supera la GTX in questo gioco, che resta cmq ingiocabile, sui 30 fps senza filtri a 1024....

Link alla situazione attuale (nvidia ha rilasciato diversi drivers in seguito)?

7stars
08-06-2007, 14:03
Cmq la 2900xt supera la GTX in questo gioco, che resta cmq ingiocabile, sui 30 fps senza filtri a 1024....
ecco allora come ho sempre detto o techland(in questo caso) testa su quadcore quadsli quadtutto oppure secondo me questo non denota trasparenza.se il software non è ottimizzato,se l'hw non è adeguato...a che cosa c servono questi pezzi di codice?? per vedere cosa? la qualità dell'immagine al rallentatore e a risoluzioni medio-basse?? o forse c vogliono far capire che con l'hw che abbiamo ora non abbiamo speranze? :) possibile che techland, che ha avuto un gran successo con questo gioco, vada a fare una brutta figura per aver rilasciato questa demo??

bs82
08-06-2007, 14:08
e quindi? cio conferma che questi demo fanno schifo e sono mal ottimizzati come è possibile senno che la GTX che costa 500€ o anche la mia che viene 250€ siano ingiocabili a 800*600:mbe: sicuramente non vuol dire nulla che la 2900 è + veloce perchè tutte 2 sembrano delle Geforce4

:rolleyes: non capisco il tuo post.

Resta il fatto che la 2900xt e le pari-fascia concorrenti, arrancano brutalmente ora che si intravendo le prime applicazioni con istruzioni dx10.

30 fps senza filtri a 1024 è una roba orribile, sia che il gioco non sia ottimizzato sia che lo sia.


PS: ti ricordo che il thread è "AMD Radeon HD 2900 XT (review, numbers & technical facts NOT SPAM)"

bs82
08-06-2007, 14:16
a mè pare che il vero flop siano proprio le dx10 che per ora hanno largamente deluso,l'fps registrato con gli unici giochi che ne fanno uso fà veramente pena...

No il flop è questa intera generazione di HW acclamato divoratore di DX10.
Mi spiace ma non è così per nessuna "fazione": le dx10 le useremo decentemente dal prossimo refresh delle linee di schede video, quello del natale 07.

Link alla situazione attuale (nvidia ha rilasciato diversi drivers in seguito)?

Per i driver nvidia non ti so dire, ma questi test mi paiono fatti già quando nvidia aveva i driver patchati per Lost Planet.
http://www.tomshw.it/guides/hardware/graphic/20070514/images/test_coj_1024.jpg

ecco allora come ho sempre detto o techland(in questo caso) testa su quadcore quadsli quadtutto oppure secondo me questo non denota trasparenza.se il software non è ottimizzato,se l'hw non è adeguato...a che cosa c servono questi pezzi di codice?? per vedere cosa? la qualità dell'immagine al rallentatore e a risoluzioni medio-basse?? o forse c vogliono far capire che con l'hw che abbiamo ora non abbiamo speranze? :)

Il flop è proprio questa generazione hw, che sia marchiata Nvidia o Ati.

Siamo nel 2007 e la tecnologia chiama che un gioco sia giocabile >30fps stabili, almeno a 1280x1024 in modalità eye-candy.

Pat77
08-06-2007, 14:17
pat su questo però mi sembra rimanga solo un'ipotesi :) perchè se fai 80 con "statica" nn puoi fare 100 con "ad oggetti"

Io faccio 80 con illuminazione dinamica full e senza HDR

Senza HDR tutto il resto al max, illuminazione FULL (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2015-27-24-19.jpg)

Scrambler77
08-06-2007, 14:19
Vi ricordo che sono i moderatori coloro preposti a potere/dovere esprimere il giudizio e le eventuali sanzioni su altri utenti, ergo se ci sono comportamenti che vi "urtano" potete e dovete segnalarli allo staff ma NON esprimervi con giudizio in merito a proposito di altri utenti. Questo per evitare continue flame wars.
Il mio intervento in merito è squisitamente moderatorio, anche se chiedo scusa a Wiltord e Simon82 per averlo espresso in una sezione non mia.

Grazie.

Nos89
08-06-2007, 14:20
:rolleyes: non capisco il tuo post.

Resta il fatto che la 2900xt e le pari-fascia concorrenti, arrancano brutalmente ora che si intravendo le prime applicazioni con istruzioni dx10.

30 fps senza filtri a 1024 è una roba orribile, sia che il gioco non sia ottimizzato sia che lo sia.


PS: ti ricordo che il thread è "AMD Radeon HD 2900 XT (review, numbers & technical facts NOT SPAM)"

non avevo nulla da ridire sulla 2900XT dicevo che serve a poco che la XT o anche fosse la 8800Ultra vanno poco + della rivale perchè stiamo parlando di 1024*768 senza AA e per schede che costano come uno stipendio questo è uno scandalo:rolleyes:

7stars
08-06-2007, 14:24
Io faccio 80 con illuminazione dinamica full e senza HDR

Senza HDR tutto il resto al max, illuminazione FULL (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2015-27-24-19.jpg)
scusa allora nn ho capito cosa sia per te l'HDR :) vuoi dire senza hdr accentuato??

Scrambler77
08-06-2007, 14:28
Resta il fatto che la 2900xt e le pari-fascia concorrenti, arrancano brutalmente ora che si intravendo le prime applicazioni con istruzioni dx10.


Questo lo si potrà dire quando ci saranno titoli dx10 in circolazione. Secondo me la potenza di calcolo c'è (almeno nella fascia medio-alta).

Crysis è candidato ad essere il titolo di riferimento in questo ambito pertanto direi che sarebbe meglio attendere ancora un po' prima di dire che tutta questa gamma di schede dx10 è un flop.

Sulla fascia bassa, invece, probabilmente sarà come dici tu... ma imho chi acquista una scheda di fascia bassa non ha la pretesa di giocare a titoli dx10 al massimo dettaglio ma si "accontenta" di risoluzioni più basse e meno filtraggi.

leoneazzurro
08-06-2007, 14:29
http://www.tomshw.it/guides/hardware/graphic/20070514/images/test_coj_1024.jpg


Situazione attuale dicevo, se non erro quei test non sono fatti con i drivers nvidia con ottimizzazioni per COJ (158.42)

bs82
08-06-2007, 14:30
per schede che costano come uno stipendio questo è uno scandalo

vero

L'unica cosa positiva è che le schede che non costano come uno stipendio, ossia la 2900xt, vanno si maluccio, ma meglio di quello che uno stipendi lo costano davvero. Limitanti i 512MB cmq, la versione un con 1GB se la caverà meglio visto l'enorme quantità di shaders e texture ad alta risoluzione e geometria che si vedranno nei prossimio gioci DX.

Nos89
08-06-2007, 14:33
vero

L'unica cosa positiva è che le schede che non costano come uno stipendio, ossia la 2900xt, vanno si maluccio, ma meglio di quello che uno stipendi lo costano davvero. Limitanti i 512MB cmq, la versione un con 1GB se la caverà meglio visto l'enorme quantità di shaders e texture ad alta risoluzione e geometria che si vedranno nei prossimio gioci DX.

ma sinceramente non credo che sia colpa dei 512mb di memoria......la GTS 320mb va come la 640mb pur avendo la metà della memoria in questi test:fagiano:

bs82
08-06-2007, 14:35
Situazione attuale dicevo, se non erro quei test non sono fatti con i drivers nvidia con ottimizzazioni per COJ (158.42)

questi ci sono in rete :mbe:

Scrambler77
08-06-2007, 14:36
ma sinceramente non credo che sia colpa dei 512mb di memoria......

A rigor di logica, concordo.

leoneazzurro
08-06-2007, 14:53
questi ci sono in rete :mbe:

Anche questi:

http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_19.html

Nos89
08-06-2007, 14:55
Anche questi:

http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_19.html

bene...quindi vorrei sapere dove li avete visti quei test dove a 1024 senza AA le schede arrancano:rolleyes:

leoneazzurro
08-06-2007, 15:00
30 e 37 FPS circa di media a 1280x1024 e 1024x768 non sono risultati apprezzabili, velocisticamente parlando. I test sono senza AA.

bs82
08-06-2007, 15:00
ma sinceramente non credo che sia colpa dei 512mb di memoria......la GTS 320mb va come la 640mb pur avendo la metà della memoria in questi test:fagiano:

A rigor di logica, concordo.



-
:nono:
Bisogna ragionare su come e cosa conta della memoria:


BANDA PASSANTE ALLA MEMORIA

2900 XT 1024 ->128 Gbytes/sec

2900 XT 512 -> 106 Gbytes/sec

8800GTS 640 -> 64 Gbytes/sec

8800GTS 320 -> 64 Gbytes/sec



:rolleyes:

Eh....è così che funziona....

Scrambler77
08-06-2007, 15:08
BANDA PASSANTE ALLA MEMORIA

2900 XT 1024 ->128 Gbytes/sec
2900 XT 512 -> 106 Gbytes/sec
8800GTS 640 -> 64 Gbytes/sec
8800GTS 320 -> 64 Gbytes/sec


Quei valori, tecnicamente, non sono determinati dal quantitativo di memoria on board, ma dall'ampiezza del bus di comunicazione... pertanto i "solo 512Mb" sono ininfluenti... o sbaglio?

leoneazzurro ci illumini... :)

bs82
08-06-2007, 15:08
30 e 37 FPS circa di media a 1280x1024 e 1024x768 non sono risultati apprezzabili, velocisticamente parlando. I test sono senza AA.

Beh, avete in casa i bench con i driver ottimizzati nvidia e li chiedevi a me? :confused:

Casomai sono da vedere bench con i 7.5 di casa Ati, e cmq qua nessuno ha intenzione di fare confronti con le schede della altre case con un costo doppio.


:read:

Per quanto riguarda, continuo a essere daccordo con te, non sono risultati apprezzabili.

Solo quando la modalità "eye-candy", ossia alte res, AA e AF sparati con HDR consentiranno la giocabilità alla TOP di gamma, allora si che sarà possibile tornare a discutere delle prestazioni di questa generazione in DX10.

Scrambler77
08-06-2007, 15:13
Anche questi:

http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_19.html

bene...quindi vorrei sapere dove li avete visti quei test dove a 1024 senza AA le schede arrancano:rolleyes:

30 e 37 FPS circa di media a 1280x1024 e 1024x768 non sono risultati apprezzabili, velocisticamente parlando. I test sono senza AA.

Cmq io continuo a credere che una cosa è un engine nato per dx9 e patchato per dx10 ed un'altra è un engine nato direttamente dx10...

imho quel bench non può essere ritenuto un riferimento. Aspettiamo Crysis...

Pat77
08-06-2007, 15:13
scusa allora nn ho capito cosa sia per te l'HDR :) vuoi dire senza hdr accentuato??

Con illuminazione dinamica full puoi abilitare e disbailitare l'HDR ;)

Nos89
08-06-2007, 15:17
-
:nono:
Bisogna ragionare su come e cosa conta della memoria:


BANDA PASSANTE ALLA MEMORIA

2900 XT 1024 ->128 Gbytes/sec

2900 XT 512 -> 106 Gbytes/sec

8800GTS 640 -> 64 Gbytes/sec

8800GTS 320 -> 64 Gbytes/sec



:rolleyes:

Eh....è così che funziona....

peccato che quei valori sono teorici......inoltre la 2900XT da 1Gb di ram ancora non esiste e come se adesso mi metto a parlare di G92 ti pare no?;)

Scrambler77
08-06-2007, 15:18
E poi, come concordato, aspettiamo G132 (il respin di G130) e R1180 (il respin di R1100) per farcelo girare :D

Beh se crysis continua a tardare così... non ci scherzerei tanto! :asd:

bs82
08-06-2007, 15:20
E poi, come concordato, aspettiamo G132 (il respin di G130) e R1180 (il respin di R1100) per farcelo girare :D

:sofico: ehehheh

I filmati in dx10 di Crysis promettono bene per la ricca grafica...ma come frame rate...

:Puke:

leoneazzurro
08-06-2007, 15:23
La banda passante dipende dall'ampiezza del bus e dalla frequenza della memoria ed indica la velocità teorica di trasferimento dei dati dalla memoria della scheda all GPU. E' sempre utile avere un alto valore di banda, soprattutto in condizioni di alte risoluzioni/con AA, ma ciò dipende anche dalle caratteristiche del chip: se le potenza di elaborazione della GPU è limitata dagli shader e/o dalle texture e/o dalle ROPs, avere più banda è abbastanza inutile, quindi a seconda delle situazioni e del software si può essere limitati dalla GPU o dalla banda passante.
Avere molta memoria invece consente di avere un frame buffer più grande (per le alte risoluzioni) e ad avere in memoria locale un maggior numero di dati delle texture. Questo in teoria aumenta le performances, perchè se i dati per le texture non entrano nella memoria locale della scheda devono essere caricati attraverso il bus di sistema della RAM, con conseguente swapping e rallentamenti. Tuttavia anche qui dipende molto dal software e dalle risoluzioni utilizzate.

Ovviamente a parità di GPU è meglio avere più di entrambi.
Ad oggi non so in quali casi si sia limitati con 512 Mbyte di RAM.



Beh, avete in casa i bench con i driver ottimizzati nvidia e li chiedevi a me? :confused:

Casomai sono da vedere bench con i 7.5 di casa Ati, e cmq qua nessuno ha intenzione di fare confronti con le schede della altre case con un costo doppio.


:read:

Per quanto riguarda, continuo a essere daccordo con te, non sono risultati apprezzabili.

Solo quando la modalità "eye-candy", ossia alte res, AA e AF sparati con HDR consentiranno la giocabilità alla TOP di gamma, allora si che sarà possibile tornare a discutere delle prestazioni di questa generazione in DX10.

Beh, non sono io quello che dice che HD2900Xt è più veloce di una GTX in COJ: Appunto perchè c'erano dei benchmark "in casa" e con gli ultimi drivers Nvidia la situazione non è detto che sia rimasta quella illustrata da Tom's, mi chiedevo dove fossero dei test che mostrassero i risultati per sli ultimi drivers per entrambe le schede.
Direi che a questo punto il discorso CoJ andrebbe affrontato nel thread di benching omonimo.

bs82
08-06-2007, 15:24
peccato che quei valori sono teorici......inoltre la 2900XT da 1Gb di ram ancora non esiste e come se adesso mi metto a parlare di G92 ti pare no?;)

Non rispondo neanche a questa tua affermazione .... :mc:

Nos89
08-06-2007, 15:26
Non rispondo neanche a questa tua affermazione .... :mc:

bravo infatti non devi rispondere.
1.perchè la scheda ancora non è uscita
2.non si sa quale è la frequenza di core e ram finche non ci sarà una versione definitiva
;)

ale0bello0pr
08-06-2007, 15:31
:sofico: ehehheh

I filmati in dx10 di Crysis promettono bene per la ricca grafica...ma come frame rate...

:Puke:

visto il video in game fatto da poco e in certe situazioni è alquanto allarmante....il gioco è fatto per trovare e uccidere il nemico in prima persona mi sembra(FPS)...ma se ogni volta che si spara scatta.... allora meglio che lo tengono altri 3 mesi per far si che si risolga il problema.... (E GIRAVA SU UNA 8800 ULTRA CALIBRE OCCATA = la scheda video attuale piu' veloce al mondo)..... svengo... :sbonk: spero solo giri bene sulla HD2900 XT da 1 GB...

bs82
08-06-2007, 15:32
cut

Ovviamente a parità di GPU è meglio avere più di entrambi.
Ad oggi non so in quali casi si sia limitati con 512 Mbyte di RAM.

Daccordissimo, cmq con un semplice conto, considerando che un gioco a parità di risoluzione impostata, a meno di opzioni specifiche, alloca in ram grafica la stessa quantità di "roba" (assets, geometrie, shaders, texture, bump textures, ecc ecc), è facile ad arrivare a comprendere che più si va su di risoluzione, più si applicano filtri come l'AA (MSAA > + banda, SSAA > + banda + ram), meno ram resta disponibile per la "roba" del gioco mentre la restante sarà occupata da framebuffer e altri eventuali buffer (e si parla di buffer da decine di MB)

Quindi considerando la "piccola" ampiezza di banda delle schede medie o medio alte e facile arrivare alla conclusione che come dici te sono necessarie "banda & ram". Nel caso ci sia o una o l'altra ecco le piccole differenze.

Nel caso ci siano entrambe, anche se il gioco è poco ram-dipendente, ecco che si vedono i balzi avanti.

fukka75
08-06-2007, 15:35
visto il video in game fatto da poco e in certe situazioni è alquanto allarmante....il gioco è fatto per trovare e uccidere il nemico in prima persona mi sembra(FPS)...ma se ogni volta che si spara scatta.... allora meglio che lo tengono altri 3 mesi per far si che si risolga il problema.... (E GIRAVA SU UNA 8800 ULTRA CALIBRE OCCATA = la scheda video attuale piu' veloce al mondo)..... svengo... :sbonk:

Infatti il gioco mica esce ora, bensì in autunno inoltrato ;)

ale0bello0pr
08-06-2007, 15:38
Infatti il gioco mica esce ora, bensì in autunno inoltrato ;)

esatto..si prevede per gli ottimisti a settembre...per chi "prevede" con realtà a dicembre.... io intendevo a sto punto marzo 2008... ma bello e completo da giocare.. :D

MonsterMash
08-06-2007, 15:40
esatto..si prevede per gli ottimisti a settembre...per chi "prevede" con realtà a dicembre.... io intendevo a sto punto marzo 2008... ma bello e completo da giocare.. :D

Pensa che io a maggio scorso mi comprai la 1900xt perchè pensavo che a breve sarebbe uscito crysis, e volevo giocarmelo al massimo. Ora mi sono comprato la 2900xt perchè penso che a breve uscirà crysis, e vorrei poterlo giocare al massimo. E' probabile che l'anno prossimo comprerò una nuova scheda video aspettando ancora che crysis esca...

Poty...
08-06-2007, 15:41
ragazzi...ma tutti i video...tutte le prove che hanno fatto...tutti gli sviluppi...secondo voi su che schede li hanno fatti?? 8800....! quindi perchè non dovrebbe girarci bene...le 2900 non c'erano e le 8800 erano le vga più potenti all'uscita...se non va bene sul mio pc in firms sto gioco vi giuro che mi comrpo un nintendo wii e abbandono il pc gamers....

ale0bello0pr
08-06-2007, 15:42
Pensa che io a maggio scorso mi comprai la 1900xt perchè pensavo che a breve sarebbe uscito crysis, e volevo giocarmelo al massimo. Ora mi sono comprato la 2900xt perchè penso che a breve uscirà crysis, e vorrei poterlo giocare al massimo. E' probabile che l'anno prossimo comprerò una nuova scheda video aspettando ancora che crysis esca...

scommetto che stai pensando a R700 per quando uscirà Crysis... ;)
una domanda... ma sei Crysis dipendente? :asd: per gli amici "in crisis" :asd:

bs82
08-06-2007, 15:45
ragazzi...ma tutti i video...tutte le prove che hanno fatto...tutti gli sviluppi...secondo voi su che schede li hanno fatti?? 8800....! quindi perchè non dovrebbe girarci bene...le 2900 non c'erano e le 8800 erano le vga più potenti all'uscita...se non va bene sul mio pc in firms sto gioco vi giuro che mi comrpo un nintendo wii e abbandono il pc gamers....

Scatta anche con le 8800 non ti preoccupare...ci son fior di filmati online fatti con pc quad core e sli di 8800 eppure ...scatti a go go....

Come Doom 3 che Carmack diceva andava da dio sulla geforce 3....

Tutti sappiamo come è andata...

fukka75
08-06-2007, 15:46
Come Doom 3 che Carmack diceva andava da dio sulla geforce 3....

Tutti sappiamo come è andata...

Sulla mia 6800GT andava da dio :D

Defragg
08-06-2007, 15:49
Pensa che io a maggio scorso mi comprai la 1900xt perchè pensavo che a breve sarebbe uscito crysis, e volevo giocarmelo al massimo. Ora mi sono comprato la 2900xt perchè penso che a breve uscirà crysis, e vorrei poterlo giocare al massimo. E' probabile che l'anno prossimo comprerò una nuova scheda video aspettando ancora che crysis esca...

lol :D

Portocala
08-06-2007, 15:54
secondo me stanno ottimizzando tutti percui è troppo presto per tirare le somme

fukka75
08-06-2007, 15:55
Pensa che io a maggio scorso mi comprai la 1900xt perchè pensavo che a breve sarebbe uscito crysis, e volevo giocarmelo al massimo. Ora mi sono comprato la 2900xt perchè penso che a breve uscirà crysis, e vorrei poterlo giocare al massimo. E' probabile che l'anno prossimo comprerò una nuova scheda video aspettando ancora che crysis esca...

Per il tuo bene, non comprare più schede video: "quelli che aspettano" crysis potrebbero suonare a casa tua :Perfido: :asd:

A.L.M.
08-06-2007, 16:08
Situazione attuale dicevo, se non erro quei test non sono fatti con i drivers nvidia con ottimizzazioni per COJ (158.42)

Anche questi:

http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_19.html

La situazione attuale (con i drivers più recenti) si può notare nel thread ufficiale del Bench CoJ DX10. Le GTX vanno (anche con i 158.45) come già visto nelle rece con i 158.42, le XT un po' meglio di quanto si vede nelle recensioni (questo grazie ai Catalyst aggiornati, che ora supportano appieno le DX10). In sintesi le HD2900XT vanno come le 8800GTX (il guadagno in OC delle seconde è basso, le HD2900XT potrebbero prendere il largo in quel frangente), almeno con il MSAA attivo a 1280x1024. Le altre risoluzioni sono da verificare, ma da quanto si vedeva in qualche recensione col suddetto bench, le HD2900 tendono ad andare meglio alle alte risoluzioni (per quanto il framerate rimanga comunque scarso).
Ci sono poi 2 utenti con la GTX che riportano framerate molto più alti (oltre il 60% in più) rispetto al resto del mondo (anche se gli altri hanno cpu più potenti, stesso SO e stessi drivers). :asd:

ale0bello0pr
08-06-2007, 16:16
Ci sono poi 2 utenti con la GTX che riportano framerate molto più alti (oltre il 60% in più) rispetto al resto del mondo (anche se gli altri hanno cpu più potenti, stesso SO e stessi drivers). :asd:

i misteri di hwupgrade.it :D

Iantikas
08-06-2007, 16:17
Io faccio 80 con illuminazione dinamica full e senza HDR

Senza HDR tutto il resto al max, illuminazione FULL (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2015-27-24-19.jpg)


mi potresti dire con ill. dinamica come fai a disabilitare/abilitare HDR???

ciao e grazie.

p.s.: notavo adesso uno di quegli utenti ke sparavano bufale prima ke R600 uscisse...noto con piacere ke anke dopo ke è uscita vive in posti ben lontani dalla realtà :D

MonsterMash
08-06-2007, 16:21
scommetto che stai pensando a R700 per quando uscirà Crysis... ;)
una domanda... ma sei Crysis dipendente? :asd: per gli amici "in crisis" :asd:


Be' si. Anche se il mio sogno sarebbe quello di avere Gears of War sul pc paro paro a come è sulla x360. Ma per quello dovrò attendere 3 anni per poi avere una conversione fatta coi piedi come è stato per i 2 halo...

tommydc
08-06-2007, 16:22
ma teoricamente, a parte la risoluzione, con che settaggi grafici bisognerebbe fare i test su di un gioco per avere ottima qualità visiva ma non massima per ottenere anche buone prestazioni?
Insomma qualità massima con almeno 40fps medi.....:confused:

ale0bello0pr
08-06-2007, 16:22
Be' si. Anche se il mio sogno sarebbe quello di avere Gears of War sul pc paro paro a come è sulla x360. Ma per quello dovrò attendere 3 anni per poi avere una conversione fatta coi piedi come è stato per i 2 halo...

:sob: cosa ti ha fatto questo pc cattivone... :asd:

fukka75
08-06-2007, 16:23
mi potresti dire con ill. dinamica come fai a disabilitare/abilitare HDR???

ciao e grazie.

Non si può: se si abilita "illuminazione dinamica", HDR non funge ;)

Grey 7
08-06-2007, 16:26
. Aspettiamo Crysis...
mi risulta sia un gioco dx9 nativo con effetti dx10, smentitemi pure ma mi pareva fosse cosi. quindi nel caso, ci sarebbe ancora da aspettare, probabilmente 2008 inoltrato. E chissa che hardware ci sarà allora. secondo me bs82 ha detto una cosa sacrosanta...l'hardware spacciato sia da nvidia sia da ati come dx10 è letteralmente una presa per i fondelli (o cmq è una scelta puramente di marketing), perchè queste schede al momento non danno certo risultati incoraggianti. Ora ok che bisogna aspettare (:rolleyes: ) i veri giochi FULL dx10 ma le prime somme si possono tirare già da ora. Che la hd2900xt faccia 30 fps a 1024*768 e la gtx ne faccia 29 non vuol dire che Ati>Nvidia ma semplicemente che entrambe fanno cagare e scusate il termine :asd: Nel bench di coj a dettagli alti e manco massimi e alla risoluzione di 1280*1024 (risoluzione obsoleta per questo genere di scheda) le gtx fanno dai 26 ai 28 fps di media (a parte 2 utenti che fanno oltre 40fps di media ma ancora non si è risolto l'arcano), non so se ci rendiamo conto..e non è manco un bench beta.

ah..non ho citato le 8600, altre schedone spacciate per dx10 e tra l'altro abbastanza recenti...li meglio stendere un velo pietoso

Iantikas
08-06-2007, 16:35
Non si può: se si abilita "illuminazione dinamica", HDR non funge ;)


potresti spiegarti meglio?...con ill dinamica nn si può abilitare HDR....ma si può con statica o a oggetti???...

...e cmq nei casi i cui è possibile farlo come si fa???...ciao

Portocala
08-06-2007, 16:38
mi risulta sia un gioco dx9 nativo con effetti dx10, smentitemi pure ma mi pareva fosse cosi. quindi nel caso, ci sarebbe ancora da aspettare, probabilmente 2008 inoltrato. E chissa che hardware ci sarà allora. secondo me bs82 ha detto una cosa sacrosanta...l'hardware spacciato sia da nvidia sia da ati come dx10 è letteralmente una presa per i fondelli (o cmq è una scelta puramente di marketing), perchè queste schede al momento non danno certo risultati incoraggianti. Ora ok che bisogna aspettare (:rolleyes: ) i veri giochi FULL dx10 ma le prime somme si possono tirare già da ora. Che la hd2900xt faccia 30 fps a 1024*768 e la gtx ne faccia 29 non vuol dire che Ati>Nvidia ma semplicemente che entrambe fanno cagare e scusate il termine :asd: Nel bench di coj a dettagli alti e manco massimi e alla risoluzione di 1280*1024 (risoluzione obsoleta per questo genere di scheda) le gtx fanno dai 26 ai 28 fps di media (a parte 2 utenti che fanno oltre 40fps di media ma ancora non si è risolto l'arcano), non so se ci rendiamo conto..e non è manco un bench beta.

ah..non ho citato le 8600, altre schedone spacciate per dx10 e tra l'altro abbastanza recenti...li meglio stendere un velo pietoso
ho fatto bene a prendere la x1950pro non fidandomi dei primi bench dx10 :asd:

fukka75
08-06-2007, 16:42
potresti spiegarti meglio?...con ill dinamica nn si può abilitare HDR....ma si può con statica o a oggetti???...

...e cmq nei casi i cui è possibile farlo come si fa???...ciao

Scusami, ho detto una cretinata :fagiano:
Io intendevo AA non funziona con "illuminazione dinamica" (penso intendesse questo anche Pat77 ) :stordita:
Se attivi una delle due impostazioni "illuminazione dinamica" si attiva automaticamente HDR, non lo puoi abilitare o disattivare; con "illuminazione statica" invece HDR non c'è ;)

Athlon 64 3000+
08-06-2007, 16:44
mi risulta sia un gioco dx9 nativo con effetti dx10, smentitemi pure ma mi pareva fosse cosi. quindi nel caso, ci sarebbe ancora da aspettare, probabilmente 2008 inoltrato. E chissa che hardware ci sarà allora. secondo me bs82 ha detto una cosa sacrosanta...l'hardware spacciato sia da nvidia sia da ati come dx10 è letteralmente una presa per i fondelli (o cmq è una scelta puramente di marketing), perchè queste schede al momento non danno certo risultati incoraggianti. Ora ok che bisogna aspettare (:rolleyes: ) i veri giochi FULL dx10 ma le prime somme si possono tirare già da ora. Che la hd2900xt faccia 30 fps a 1024*768 e la gtx ne faccia 29 non vuol dire che Ati>Nvidia ma semplicemente che entrambe fanno cagare e scusate il termine :asd: Nel bench di coj a dettagli alti e manco massimi e alla risoluzione di 1280*1024 (risoluzione obsoleta per questo genere di scheda) le gtx fanno dai 26 ai 28 fps di media (a parte 2 utenti che fanno oltre 40fps di media ma ancora non si è risolto l'arcano), non so se ci rendiamo conto..e non è manco un bench beta.

ah..non ho citato le 8600, altre schedone spacciate per dx10 e tra l'altro abbastanza recenti...li meglio stendere un velo pietoso

Prenderò magari degli insulti ma io la Radeon HD 2900XT la ho presa primo perchè aspettavo R600 da almeno 2 anni e secondo come ho sempre detto la valuto sopratutto in chiave dx 9 sopratutto nei giochi più shader intensive e delle dx 10 e di vista non me ne frega niente.
Io la userò solo sotto xp 32 bit.

Nos89
08-06-2007, 16:46
Prenderò magari degli insulti ma io la Radeon HD 2900XT la ho presa primo perchè aspettavo R600 da almeno 2 anni e secondo come ho sempre detto la valuto sopratutto in chiave dx 9 sopratutto nei giochi più shader intensive e delle dx 10 e di vista non me ne frega niente.
Io la userò solo sotto xp 32 bit.

:ahahah: allora potevi evitare l'attesa e prendere una X1950XTX 512;)

Grey 7
08-06-2007, 16:50
Prenderò magari degli insulti ma io la Radeon HD 2900XT la ho presa primo perchè aspettavo R600 da almeno 2 anni e secondo come ho sempre detto la valuto sopratutto in chiave dx 9 sopratutto nei giochi più shader intensive e delle dx 10 e di vista non me ne frega niente.
Io la userò solo sotto xp 32 bit.

se la valuti in chiave dx9 il discorso cambia...ma penso che anche chi abbia comprato g80 abbia fatto questo tipo di valutazione...oppure a novembre 2006 si aspettavano di far girare i giochi full dx10 del 2008? io non credo ;) il mio intervento, detto in soldoni, era contro a queste 2 grandi aziende che spacciano hardware dx10 ready, quando qua di ready non ci sta niente :asd: Se verrò smentito con i prossimi giochi dx10 io son pronto cmq a ricredermi, ma al momento sono proprio pessimista.

Athlon 64 3000+
08-06-2007, 16:53
:ahahah: allora potevi evitare l'attesa e prendere una X1950XTX 512;)

vengo da una X1900XT e in giochi come Test Drive Unlimited e BF2142 a partà di dettaglio ho avuto un grosso incremento prestazionale.
Ho effettuato delle prove anche con stalker e a parita di dettaglio il gioco va esattemente il doppio rispetto alla X1900XT

JoeLatino
08-06-2007, 16:56
se la valuti in chiave dx9 il discorso cambia...ma penso che anche chi abbia comprato g80 abbia fatto questo tipo di valutazione...oppure a novembre 2006 si aspettavano di far girare i giochi full dx10 del 2008? io non credo ;) il mio intervento, detto in soldoni, era contro a queste 2 grandi aziende che spacciano hardware dx10 ready, quando qua di ready non ci sta niente :asd: Se verrò smentito con i prossimi giochi dx10 io son pronto cmq a ricredermi, ma al momento sono proprio pessimista.

magari i vari problemi non dipendono tanto dalle schede ma dai drivers e dai giochi stessi,non credi???:mbe:

martor72
08-06-2007, 16:58
vengo da una X1900XT e in giochi come Test Drive Unlimited e BF2142 a partà di dettaglio ho avuto un grosso incremento prestazionale.
Ho effettuato delle prove anche con stalker e a parita di dettaglio il gioco va esattemente il doppio rispetto alla X1900XT

Confermo con praticamente tutti igiochi ho notato anche io un raddoppio delle prestazioni rispetto alla x1900xtx che avevo

Grey 7
08-06-2007, 17:02
magari i vari problemi non dipendono tanto dalle schede ma dai drivers e dai giochi stessi,non credi???
mah, i driver di g80 mi sembrano talmente maturi che tra un po' cascan dall'albero. Fra 4-5 mesi quella scheda compie 1 anno eh ;) La Ati è uscita da manco 1 mese e penso che migliorerà in prestazioni...ma secondo me la situazione è talmente grave che qua soltanto le nuove schede che usciranno in seguito potranno realmente dare dei benefici nelle dx10.

dai giochi stessi,

dai giochi stessi?? :asd:

ma se sono secoli che escono giochi ottimizzati da far schifo e tu aspetti che i giochi cambino la situazione? Hai visto colin mcrae rally come va su g80 e r600?

Poi, libero di sperare anche in questo ;)

torniamo It comunque

Nos89
08-06-2007, 17:05
mah, i driver di g80 mi sembrano talmente maturi che tra un po' cascan dall'albero. Fra 4-5 mesi quella scheda compie 1 anno eh ;) La Ati è uscita da manco 1 mese e penso che migliorerà in prestazioni...ma secondo me la situazione è talmente grave che qua soltanto le nuove schede che usciranno in seguito potranno realmente dare dei benefici nelle dx10.



dai giochi stessi?? :asd:

ma se sono secoli che escono giochi ottimizzati da far schifo e tu aspetti che i giochi cambino la situazione? Hai visto colin mcrae rally come va su g80 e r600?

Poi, libero di sperare anche in questo ;)

ColinMcRae mi va a 42fps di media a 1280*1024 AA4x tutto su ALTO non mi sembra poco considerato che se avevo la versione da 640mb potevo mettere anche su ULTRA

Grey 7
08-06-2007, 17:07
vabbe tu hai la scheda di superman, perchè io sul 3d ufficiale ho letto tutt'altro da possessori che hanno la gtx ;)

ale0bello0pr
08-06-2007, 17:09
vabbe tu hai la scheda di superman, perchè io sul 3d ufficiale ho letto tutt'altro da possessori che hanno la gtx ;)

eh si....si vede che nn ha ancora incappato nella criptonite....:mc:

Nos89
08-06-2007, 17:09
vabbe tu hai la scheda di superman, perchè io sul 3d ufficiale ho letto tutt'altro da possessori che hanno la gtx ;)

pensala come vuoi però è cosi non ci guadagno nulla a sparare cazzate...puoi chiedere anche a Marko88 che ha la mia stessa scheda e gli va come me:)

Grey 7
08-06-2007, 17:13
non ho detto che spari cazzzate ma...il proverbio "una rondine non fa primavera" lo conosci?;)

Grey 7
08-06-2007, 17:13
eh si....si vede che nn ha ancora incappato nella criptonite....:mc:

eeh :mbe:

Nos89
08-06-2007, 17:18
non ho detto che spari cazzzate ma...il proverbio "una rondine non fa primavera" lo conosci?;)

come ho detto le impostazioni sono quelle e il gioco gira a 41fps di media......a dettaglio Ultra non lo so e non lo posso sapere perchè occupa troppa V-ram magari è quello che azzoppa le prestazioni non so

Nos89
08-06-2007, 17:18
eh si....si vede che nn ha ancora incappato nella criptonite....:mc:

la tua firma parla chiaro;)

7stars
08-06-2007, 17:26
vi invito a postare i vostri risultati del bench dx10 call of juarez e anche degli screen con aa attivato visto che con nvidia c sono degli artefatti.
http://www.hwupgrade.it/forum/showthread.php?t=1488530

A.L.M.
08-06-2007, 17:31
mi risulta sia un gioco dx9 nativo con effetti dx10, smentitemi pure ma mi pareva fosse cosi. quindi nel caso, ci sarebbe ancora da aspettare, probabilmente 2008 inoltrato. E chissa che hardware ci sarà allora. secondo me bs82 ha detto una cosa sacrosanta...l'hardware spacciato sia da nvidia sia da ati come dx10 è letteralmente una presa per i fondelli (o cmq è una scelta puramente di marketing), perchè queste schede al momento non danno certo risultati incoraggianti. Ora ok che bisogna aspettare (:rolleyes: ) i veri giochi FULL dx10 ma le prime somme si possono tirare già da ora. Che la hd2900xt faccia 30 fps a 1024*768 e la gtx ne faccia 29 non vuol dire che Ati>Nvidia ma semplicemente che entrambe fanno cagare e scusate il termine :asd: Nel bench di coj a dettagli alti e manco massimi e alla risoluzione di 1280*1024 (risoluzione obsoleta per questo genere di scheda) le gtx fanno dai 26 ai 28 fps di media (a parte 2 utenti che fanno oltre 40fps di media ma ancora non si è risolto l'arcano), non so se ci rendiamo conto..e non è manco un bench beta.

ah..non ho citato le 8600, altre schedone spacciate per dx10 e tra l'altro abbastanza recenti...li meglio stendere un velo pietoso

Purtroppo devo concordare con te. Quello che dici lo ho pensato (e scritto) fino dalla presentazione di R600: purtroppo queste schede di DX10 hanno ben poco. E quindi non mi aspetto prestazioni stratosferiche nemmeno in futuro (anche se bisogna pure precisare che con framerates così bassi anche 5fps in più fanno comodo, e potrebbe anche accadere che magari, anche se a 800x600 con frames bassi, tra un paio d'anni, con una HD2900 si potrebbe ancora giocare, mentre con una GTX, causa prestazioni GS, potrebbe non essere possibile). Effettivamente non è bello comprare schede high-end o quasi e poi ritrovarsi performance da fascia media in DX10.
La colpa ovviamente è da dividere equamente tra chi ha lanciato le schede senza rendersi conto (o forse sì?) di quelle che sarebbero state le richieste di potenza dei giochi futuri, e chi programma giochi coi piedi.
In quest'ottica non è nemmeno sbagliata la scelta di non fare uscire R650 a settembre... A questo punto conviene attendere la nuova generazione, perchè per avere potenza a sufficienza non credo basterà qualche shader unit/RBE in più (questo vale per ATi e nVidia, non so quanto la 8900 potrebbe migliorare la situazione).

bs82
08-06-2007, 17:43
vi invito a postare i vostri risultati del bench dx10 call of juarez e anche degli screen con aa attivato visto che con nvidia c sono degli artefatti.
http://www.hwupgrade.it/forum/showthread.php?t=1488530

Ottimo che così vediamo se è il demo...o i driver...

ale0bello0pr
08-06-2007, 17:48
la tua firma parla chiaro;)

ben detto 89 tu fai parlare i bench però

Nos89
08-06-2007, 17:53
ben detto 89 tu fai parlare i bench però

a io faccio parlare i bench? ma se non eri tu quello che diceva che la 2900 dava in :ciapet: a tutte le 8800 esistenti compresa la Ultra? io i bench non li considero neppure sai che mi frega del 3Dmerd preferisco giocare che perdere tempo in situazioni simili.

Athlon 64 3000+
08-06-2007, 18:33
Purtroppo devo concordare con te. Quello che dici lo ho pensato (e scritto) fino dalla presentazione di R600: purtroppo queste schede di DX10 hanno ben poco. E quindi non mi aspetto prestazioni stratosferiche nemmeno in futuro (anche se bisogna pure precisare che con framerates così bassi anche 5fps in più fanno comodo, e potrebbe anche accadere che magari, anche se a 800x600 con frames bassi, tra un paio d'anni, con una HD2900 si potrebbe ancora giocare, mentre con una GTX, causa prestazioni GS, potrebbe non essere possibile). Effettivamente non è bello comprare schede high-end o quasi e poi ritrovarsi performance da fascia media in DX10.
La colpa ovviamente è da dividere equamente tra chi ha lanciato le schede senza rendersi conto (o forse sì?) di quelle che sarebbero state le richieste di potenza dei giochi futuri, e chi programma giochi coi piedi.
In quest'ottica non è nemmeno sbagliata la scelta di non fare uscire R650 a settembre... A questo punto conviene attendere la nuova generazione, perchè per avere potenza a sufficienza non credo basterà qualche shader unit/RBE in più (questo vale per ATi e nVidia, non so quanto la 8900 potrebbe migliorare la situazione).

concordo infatti io la hd 2900xt la ho presa valutandola in chiave dx9,ma sopratutto con i giochi che saranno molto shader intensive a partire da UT3 e Crysis.

ale0bello0pr
08-06-2007, 18:33
a io faccio parlare i bench? ma se non eri tu quello che diceva che la 2900 dava in :ciapet: a tutte le 8800 esistenti compresa la Ultra? io i bench non li considero neppure sai che mi frega del 3Dmerd preferisco giocare che perdere tempo in situazioni simili.


c'e' gente che ha capito e tu continui a non capire...sei proprio un bamboccio, ti ho messo in ignore mode,rileggiti la mia sign :bimbo: !!!!!!

appleroof
08-06-2007, 18:36
mah, i driver di g80 mi sembrano talmente maturi che tra un po' cascan dall'albero. Fra 4-5 mesi quella scheda compie 1 anno eh ;)

si ma maturi per cosa se non c'è l'ombra di giochi dx10? questo solo per la precisione ;)

Nos89
08-06-2007, 18:50
c'e' gente che ha capito e tu continui a non capire...sei proprio un bamboccio, ti ho messo in ignore mode,rileggiti la mia sign :bimbo: !!!!!!

ce poco da leggere.....prima facevi il coatto facendo finta e ripeto finta di sapere tutto sulla 2900XT prestazioni favolose il doppio di G80.....alla fine poi la verità è venuta fuori e cioe che sei un parlone e su questo non puoi dire di no perchè è la pura verita ci sono i post come conferma....purtroppo non li posso quotare perchè sono troppi;)

×§ñåkê×
08-06-2007, 19:01
ce poco da leggere.....prima facevi il coatto facendo finta e ripeto finta di sapere tutto sulla 2900XT prestazioni favolose il doppio di G80.....alla fine poi la verità è venuta fuori e cioe che sei un parlone e su questo non puoi dire di no perchè è la pura verita ci sono i post come conferma....purtroppo non li posso quotare perchè sono troppi;)

le 8800 sono state fatte per accontentare tutti quelli che si mettevano a fare i bench in dx9, offrondo molta potenza, ma in dx 10 dimostrano di arrancare splendidamente. la ati invece ha realizzato una scheda piu rivolta alle dx10, abbandonado alcune tecnologie che facevano parte delle dx9, facendo il scontento però di tutti quelli che andavano a misurare i 5/10 fps in meno a risoluzioni di 1600x1200 :rolleyes: in dx9, imho la hd2900xt è una grande scheda, che deve ancora mostrare il vero potenziale, non solo in dx9, ma soprattuto in dx10, dove si nota una straordinaria carenza nei driver.

Scrambler77
08-06-2007, 19:13
Sto leggendo tante espressioni forti... eppure neanche l'ombra di un richiamo...

...mmmah! :asd:

@Snake: il tuo post me lo segno... così un domani potrò darti torto o farti i miei complimenti per la prematura previsione. Per ora, almeno, abbi l'onestà intellettuale di anteporre "secondo me" davanti alle tue considerazioni, perchè altri utenti potrebbero crederci.

Se io dicessi che R600 è un flop anche e soprattutto su dx10 cosa mi risponderesti? Che non ci sono abbastanza titoli dx10 per poterlo dire. La stessa cosa vale per G80.

ATTENZIONE: NON STO DICENDO CHE LA R600 è un flop DX10.. meglio precisare. :rolleyes:

Spero di non essere sospeso per aver scritto una cosa tanto blasfema, ma mi avvalgo della par condicio: qualcuno è venuto pocanzi a scrivere la stessa cosa sul 3d della GTX. ;)

@Ratatosk: se decidi, avvertimi che porto i sandwitch e ti faccio compagnia! :D

MonsterMash
08-06-2007, 19:17
Qualcuno sa se è quando è previsto che venga resa pubblica la tech demo di ruby per le 2900xt?

Nos89
08-06-2007, 19:18
le 8800 sono state fatte per accontentare tutti quelli che si mettevano a fare i bench in dx9, offrondo molta potenza, ma in dx 10 dimostrano di arrancare splendidamente. la ati invece ha realizzato una scheda piu rivolta alle dx10, abbandonado alcune tecnologie che facevano parte delle dx9, facendo il scontento però di tutti quelli che andavano a misurare i 5/10 fps in meno a risoluzioni di 1600x1200 :rolleyes: in dx9, imho la hd2900xt è una grande scheda, che deve ancora mostrare il vero potenziale, non solo in dx9, ma soprattuto in dx10, dove si nota una straordinaria carenza nei driver.

vabbe cmq mancano anche le vere applicazioni DX10 queste sono solo dei piccoli assaggi:)

HORN
08-06-2007, 19:21
scheda 2900 XT arrivata pomeriggio, e come vediet funziona da me con un
alimentatote di 450 Watt, con 2 linea 12 Volt, 1x14 A. l´altra 1x15A.
2-3 giochi vanno fluidissimi, solo Stalker, Farcry, ett. fanno sempre dei estremi scatti, quasi per un secondo l´imagine resta ferma. :mad: :mad: :mad: Problema di Driver, dovro´ utilizzare Drivecleaner prima dei CAT 7.5?
Sistema come gia´detto A64 3800+ 2,6 Ghz Singlecore!!

Athlon 64 3000+
08-06-2007, 19:21
penso che(anche se a me delle dx 10 non me ne importa) giudicare G80 e R600 da 2 benchmak dx10 sia ancora troppo presto e per un primo giudizio sarebbe meglio aspettare UT3 e ovviamente Crysis e che saranno i primi giochi che daranno delle risposte più attendibili per le attuali top di gamma Ati e Nvidia.

Defragg
08-06-2007, 19:25
Spero di non essere sospeso per aver scritto una cosa tanto blasfema, ma mi avvalgo della par condicio: qualcuno è venuto pocanzi a scrivere la stessa cosa sul 3d della GTX. ;)

giusto per par condicio, quel qualcuno sono io...inoltre non ho scritto la cosa blasfema che il caro Scrambler vuole far passare ma:
io continuo a pensare che queste schede (R6xx o G8x) che per ora vanno di brutto, quando si troveranno in ambiente DX10 faranno la fine delle vecchie FX...
e non è affatto una bella cosa :(
poi viste le reazioni, stizzose ho precisato
io per ora stò giudicando quello che stò vedendo...anche se penso che buona parte sia colpa dei developer (del ca##o, perdonate il termine) di CoJ e LP, tutte le schede DX10 in commercio, in DX10, arrancano molto...e ora è un dato di fatto :rolleyes:

se l'argomento FX vi tocca così profondamente cercherò di non toccare più quel tasto :)
tra l'altro non mi sono nemmeno sbilanciato, ho espresso un parere e qualcuno subito si è sentito toccato, non sò perchè si debba avere la coda di paglia

mi sembrava di aver già detto di chiudere la discussione o sbaglio?
massì...:asd:

ale0bello0pr
08-06-2007, 19:27
le 8800 sono state fatte per accontentare tutti quelli che si mettevano a fare i bench in dx9, offrondo molta potenza, ma in dx 10 dimostrano di arrancare splendidamente. la ati invece ha realizzato una scheda piu rivolta alle dx10, abbandonado alcune tecnologie che facevano parte delle dx9, facendo il scontento però di tutti quelli che andavano a misurare i 5/10 fps in meno a risoluzioni di 1600x1200 :rolleyes: in dx9, imho la hd2900xt è una grande scheda, che deve ancora mostrare il vero potenziale, non solo in dx9, ma soprattuto in dx10, dove si nota una straordinaria carenza nei driver.

:)

Grey 7
08-06-2007, 19:43
si ma maturi per cosa se non c'è l'ombra di giochi dx10? questo solo per la precisione ;)

vabbene magari matureranno ancora...ma si arriverà al punto che cambi scheda e fai prima, oramai il ciclo vitale di questa scheda è stato fin troppo lungo, arriverà il g92,g100, l'r700 e che dir si voglia ecc..schede che saranno veramente pronte per le dx10 e sulle quali Ati e Nvidia concentreranno i loro sforzi.

Poty...
08-06-2007, 19:48
pensala come vuoi però è cosi non ci guadagno nulla a sparare cazzate...puoi chiedere anche a Marko88 che ha la mia stessa scheda e gli va come me:)

anche a me colin va benissimo nessun blocco nessun cali di framerate tutto su ultra a 1280;) non mi è sembrato così pesante per la mia configurazione non ha maiii scattato
sinceramente...io non ho MAI più usato fraps per i frame perchè diventa una fissa maniacale se il gioco non scatta e si vede fluidissimo non ho motivo di andare a guardare gli fps anche se ne facesse 30 non mi importa l'importante è giocarci e giocarci senza problemi...
cmq sia mi fa piacere che chi ha la 2900 non lamenti grossi problemi in generale...evidentemente molte recenzioni "sparan cavolate" perchè io non capisco com'è che quando vado a confrontare dei result fatti in una rece con quelli che poi faccio io li batto sempre quei risultati....buu
cmq sia a mio parere è inutile guardare quell'aborto di call of juarez in DX10 è un'insulto alla programmazione.....altro che DX10...non si possono ancora fare dei paragoni diretti in DX10 per vedere chi c'è l'ha più lungo...lost planet praticamente è fatto da nvidia (da una parte sono contento perchè lo voglio giocare e già la demo volava col mio pc) quindi super partes...call of juarez programmato con i piedi....il problema è che quando ci sarà crysis noi staremo già parlando di HD2950XT e di 8900GTX quindi...cmq sono sicuro che andrà bene a 1280 sulle nostre vga ed è quell oche voglio farcry non vi dice nulla?? l'ho giocato con tutte le vga che ho avuto in quel periodo dalla 9600/9800 ati alle 6800 e debbo dire che è il motore più scalare che c'è prestazioni(nel senzo che restava semrpe giocabile) e qualità non se ne perdeva....quindi non state li a preoccuparvi c'è lo godremo anche con le attuali vga

Nos89
08-06-2007, 19:58
anche a me colin va benissimo nessun blocco nessun cali di framerate tutto su ultra a 1280;) non mi è sembrato così pesante per la mia configurazione non ha maiii scattato
sinceramente...io non ho MAI più usato fraps per i frame perchè diventa una fissa maniacale se il gioco non scatta e si vede fluidissimo non ho motivo di andare a guardare gli fps anche se ne facesse 30 non mi importa l'importante è giocarci e giocarci senza problemi...
cmq sia mi fa piacere che chi ha la 2900 non lamenti grossi problemi in generale...evidentemente molte recenzioni "sparan cavolate" perchè io non capisco com'è che quando vado a confrontare dei result fatti in una rece con quelli che poi faccio io li batto sempre quei risultati....buu
cmq sia a mio parere è inutile guardare quell'aborto di call of juarez in DX10 è un'insulto alla programmazione.....altro che DX10...non si possono ancora fare dei paragoni diretti in DX10 per vedere chi c'è l'ha più lungo...lost planet praticamente è fatto da nvidia (da una parte sono contento perchè lo voglio giocare e già la demo volava col mio pc) quindi super partes...call of juarez programmato con i piedi....il problema è che quando ci sarà crysis noi staremo già parlando di HD2950XT e di 8900GTX quindi...cmq sono sicuro che andrà bene a 1280 sulle nostre vga ed è quell oche voglio farcry non vi dice nulla?? l'ho giocato con tutte le vga che ho avuto in quel periodo dalla 9600/9800 ati alle 6800 e debbo dire che è il motore più scalare che c'è prestazioni(nel senzo che restava semrpe giocabile) e qualità non se ne perdeva....quindi non state li a preoccuparvi c'è lo godremo anche con le attuali vga

fortunatemente ho avuto la tua conferma.:)
cmq è vero FarCry era molto scalabile la prima volta che l'ho finito avevo una Geforce4 Mx 64mb e giocavo senza problemi a 800*600 poi con la 9700pro a 1280*1024:sofico:

Poty...
08-06-2007, 20:05
fortunatemente ho avuto la tua conferma.:)
cmq è vero FarCry era molto scalabile la prima volta che l'ho finito avevo una Geforce4 Mx 64mb e giocavo senza problemi a 800*600 poi con la 9700pro a 1280*1024:sofico:

e quindi! non preoccupiamoci più di tanto che 1280 tutto al max con una 8800GTS 640 in su sarà giocabilissimo ;) il mio pc non lo tocco più per un bel pò va che è na meraviglia

PS la sfida mia 8800gts OC 650/2000 daily contro una qualsiasi 2900xt alle frequenze che in daily riesce a tenere è ancora aperta! ditemi un qualsiasi bench che non sia il punteggino al 3d merd ma di fps puri io son qui voglio vedere come cavolo va sta 2900 xò provata da utenti! da noi! cavoli che si faccia avanti qualcuno!!

Nos89
08-06-2007, 20:09
e quindi! non preoccupiamoci più di tanto che 1280 tutto al max con una 8800GTS 640 in su sarà giocabilissimo ;) il mio pc non lo tocco più per un bel pò va che è na meraviglia

PS la sfida mia 8800gts OC 650/2000 daily contro una qualsiasi 2900xt alle frequenze che in daily riesce a tenere è ancora aperta! ditemi un qualsiasi bench che non sia il punteggino al 3d merd ma di fps puri io son qui voglio vedere come cavolo va sta 2900 xò provata da utenti! da noi! cavoli che si faccia avanti qualcuno!!

unico appunto io ho la 320mb forse dovro sacrificare un po di filtri ma cmq niente di preoccupante:D

Poty...
08-06-2007, 20:17
unico appunto io ho la 320mb forse dovro sacrificare un po di filtri ma cmq niente di preoccupante:D

ho preso la 640 proprio perche non volevo pensarci proprio ad eventuali problemi d memoria;)

una cosa...credete che la strada di ati che vuole produrre la 2900 con 1 giga di ram e frequenze più alte sia corretta? non è mika la quantità di memoria il collo di bottiglia...è un pò come una ati x1300 con 512md di ram... parliamo di fascia alta qui ma quando un gioco userà 1 giga di Vram quel processore R600 sarà super old già...non credete?

+Lonewolf+
08-06-2007, 20:39
e quindi! non preoccupiamoci più di tanto che 1280 tutto al max con una 8800GTS 640 in su sarà giocabilissimo ;) il mio pc non lo tocco più per un bel pò va che è na meraviglia

PS la sfida mia 8800gts OC 650/2000 daily contro una qualsiasi 2900xt alle frequenze che in daily riesce a tenere è ancora aperta! ditemi un qualsiasi bench che non sia il punteggino al 3d merd ma di fps puri io son qui voglio vedere come cavolo va sta 2900 xò provata da utenti! da noi! cavoli che si faccia avanti qualcuno!!

ti va un bench di coj in dx 10??? io OCCO la mia, tu la tua;)

Poty...
08-06-2007, 20:42
ti va un bench di coj in dx 10??? io OCCO la mia, tu la tua;)

me lo installi te VISTA:D perchè io non ne ho intenzione!!!
hihi cmq facciamo dei bench tipo che ne so giochi reali!! command & conquer tiberium wars, FEAR, HL2 apisode 1, STALKER, TEST drive, rainbow six las vegas ecc

Nos89
08-06-2007, 20:45
ho preso la 640 proprio perche non volevo pensarci proprio ad eventuali problemi d memoria;)

una cosa...credete che la strada di ati che vuole produrre la 2900 con 1 giga di ram e frequenze più alte sia corretta? non è mika la quantità di memoria il collo di bottiglia...è un pò come una ati x1300 con 512md di ram... parliamo di fascia alta qui ma quando un gioco userà 1 giga di Vram quel processore R600 sarà super old già...non credete?

io l'ho presa sopratutto perchè ho un lcd da 19' con max 1280*1024 inoltre 3 mesi fa a 250€ neanche usate le trovavi.ho svoltato:D

+Lonewolf+
08-06-2007, 20:45
me lo installi te VISTA:D perchè io non ne ho intenzione!!!
hihi cmq facciamo dei bench tipo che ne so giochi reali!! command & conquer tiberium wars, FEAR, HL2 apisode 1, STALKER, TEST drive, rainbow six las vegas ecc

dmn lo dv comprare vegas...;) ci sto

Nos89
08-06-2007, 20:46
ho preso la 640 proprio perche non volevo pensarci proprio ad eventuali problemi d memoria;)

una cosa...credete che la strada di ati che vuole produrre la 2900 con 1 giga di ram e frequenze più alte sia corretta? non è mika la quantità di memoria il collo di bottiglia...è un pò come una ati x1300 con 512md di ram... parliamo di fascia alta qui ma quando un gioco userà 1 giga di Vram quel processore R600 sarà super old già...non credete?

gia come la 7950GX2:(

+Lonewolf+
08-06-2007, 20:49
ho preso la 640 proprio perche non volevo pensarci proprio ad eventuali problemi d memoria;)

una cosa...credete che la strada di ati che vuole produrre la 2900 con 1 giga di ram e frequenze più alte sia corretta? non è mika la quantità di memoria il collo di bottiglia...è un pò come una ati x1300 con 512md di ram... parliamo di fascia alta qui ma quando un gioco userà 1 giga di Vram quel processore R600 sarà super old già...non credete?

nn la penso csì...quando uscirà un gioco che riquede quel potenziale r600 sarà uscito fuori produzione...poi dipende dalla risoluzione

Poty...
08-06-2007, 20:53
nn la penso csì...quando uscirà un gioco che riquede quel potenziale r600 sarà uscito fuori produzione...poi dipende dalla risoluzione

appunto non stiamo dicendo la stessa cosa? 1 giga mi sembra eccessivo...e tra breve ci saranno nuovi refresh di R600 quindi....per me spekkietto per le allodole;) poi magari la vga rullerà ma non di certo per il quantitativo di ram!

+Lonewolf+
08-06-2007, 20:54
appunto non stiamo dicendo la stessa cosa? 1 giga mi sembra eccessivo...e tra breve ci saranno nuovi refresh di R600 quindi....per me spekkietto per le allodole;) poi magari la vga rullerà ma non di certo per il quantitativo di ram!

ahhhh sisisisi d'accordissimo avevo captio male:)

:mano:

TecnoWorld8
08-06-2007, 21:17
ale0bello0pr: scusa, ma quale sarebbe la XTX che in firma dichiari essere più potente di una GF Ultra? E inoltre...non dici a quanto OC la XT deve arrivare per esserle superiore. Dai dati che ho visto, penso almeno a 1000Mhz di core, dato che ancora a 840Mhz riesce sì e no a tener testa ad una GTX a frequenze base...

non sto facendo polemica, vorrei solo chiarimenti.

M4R1|<
08-06-2007, 21:23
ale0bello0pr: scusa, ma quale sarebbe la XTX che in firma dichiari essere più potente di una GF Ultra? E inoltre...non dici a quanto OC la XT deve arrivare per esserle superiore. Dai dati che ho visto, penso almeno a 1000Mhz di core, dato che ancora a 840Mhz riesce sì e no a tener testa ad una GTX a frequenze base...

non sto facendo polemica, vorrei solo chiarimenti.

nn credo che nn la tenga a 1000 seno deve rafreddarla a liquido! sara tipo sugli 880, forse un pochino di più, anche se cmq credo debba rafreddarla davvero bene seno fonde

ale0bello0pr
08-06-2007, 21:23
ale0bello0pr: scusa, ma quale sarebbe la XTX che in firma dichiari essere più potente di una GF Ultra? E inoltre...non dici a quanto OC la XT deve arrivare per esserle superiore. Dai dati che ho visto, penso almeno a 1000Mhz di core, dato che ancora a 840Mhz riesce sì e no a tener testa ad una GTX a frequenze base...

non sto facendo polemica, vorrei solo chiarimenti.

prego??:confused:

TecnoWorld8
08-06-2007, 21:55
penso di essere stato molto chiaro; quale parte della mia domanda non hai compreso?

M4R1|<
08-06-2007, 22:02
o calma nn iniziate a beghare!

TecnoWorld8
08-06-2007, 22:09
fare una domanda è begare? è lui che mi pare subito essersi irrigidito...

cmq, per correttezza, ripeto e riformulo. Vorrei sapere - dato che non mi risulta l'esistenza di alcuna XTX - qual è la scheda a cui fa riferimento nella sua firma.

Inoltre, vorrei sapere a quale frequenza va overclockata una 2900XT per essere superiore ad una 8800Ultra, come dichiarato sempre nella sua firma.

Non mi pare ci sia polemica in questo. Dopotutto, anche io posso dire che un P4 single core OC > C2D, se ometto di dire che l'OC necessario equivarrebbe portarlo a 8000Mhz.

+Lonewolf+
08-06-2007, 22:27
fare una domanda è begare? è lui che mi pare subito essersi irrigidito...

cmq, per correttezza, ripeto e riformulo. Vorrei sapere - dato che non mi risulta l'esistenza di alcuna XTX - qual è la scheda a cui fa riferimento nella sua firma.

Inoltre, vorrei sapere a quale frequenza va overclockata una 2900XT per essere superiore ad una 8800Ultra, come dichiarato sempre nella sua firma.

Non mi pare ci sia polemica in questo. Dopotutto, anche io posso dire che un P4 single core OC > C2D, se ometto di dire che l'OC necessario equivarrebbe portarlo a 8000Mhz.

mah...sec me lui si riferisce a parità di ottimizzazione e maturità di driver...la scheda ha molto potenziale;) aspettiamo, senza flames:)


cmq un p4 8000mhz è lievemente superiore ad un e6300 :)

Scrambler77
08-06-2007, 22:32
Non mi pare ci sia polemica in questo. Dopotutto, anche io posso dire che un P4 single core OC > C2D, se ometto di dire che l'OC necessario equivarrebbe portarlo a 8000Mhz.

Se trovi un P4 così fortunato fammi un fischio!! :asd:

TecnoWorld8
08-06-2007, 22:33
mah...sec me lui si riferisce a parità di ottimizzazione e maturità di driver...la scheda ha molto potenziale;) aspettiamo, senza flames:)

come si può parlare di cose che non esistono, tipo driver ATi maturi o scheda XTX? è solo questo che chiedo. Il mio tono perentorio è un po' dovuto al fatto che già tempo fa si diceva questa cosa, illudendo un po' chi, come me, riponeva molte speranze in questa scheda, rivelatasi a mio avviso "mediocre" (che non è un'offesa!), ma di certo non ai livelli previsti da certi utenti.

cmq un p4 8000mhz è lievemente superiore ad un e6300 :)

non a caso ho scelto questo esempio ;)

+Lonewolf+
08-06-2007, 22:35
come si può parlare di cose che non esistono, tipo driver ATi maturi o scheda XTX? è solo questo che chiedo. Il mio tono perentorio è un po' dovuto al fatto che già tempo fa si diceva questa cosa, illudendo un po' chi, come me, riponeva molte speranze in questa scheda, rivelatasi a mio avviso "mediocre" (che non è un'offesa!), ma di certo non ai livelli previsti da certi utenti.



non a caso ho scelto questo esempio ;)

i drivers arriveranno;) magari nn faranno sti miracoli, ma cmq sec me le 2900 e le gtx sui equivarrano in dx10 IMHO

TecnoWorld8
08-06-2007, 22:37
Se trovi un P4 così fortunato fammi un fischio!! :asd:

hehe, è proprio quello che volevo dire ;) quanti P4 raggiungono quella frequenza? però, in teoria, si può dire ciò che si vuole...se mi si dice che una XT a 1000Mhz è superiore ad una Ultra, posso crederci tranquillamente (magari anche a 900Mhz), ma quante ci arrivano bene? e quanto consuma a quella frequenza? mi ci va il raffreddamento a liquido? quanto costa in più? insomma...quante menate dovrei fare per farcela andare?

×§ñåkê×
08-06-2007, 23:13
Se trovi un P4 così fortunato fammi un fischio!! :asd:

nella sezione overclock estremo dei processori un team ha portato un pentium 4 631 a 8100 e passa mhz facendo il WR e soprannominando il procio "alien" :asd:

+Lonewolf+
08-06-2007, 23:18
nella sezione overclock estremo dei processori un team ha portato un pentium 4 631 a 8100 e passa mhz facendo il WR e soprannominando il procio "alien" :asd:

minchi@..........ora ho vusto...il bello è che era la mobo al limite, non la cpu!!!:eek:

Scrambler77
08-06-2007, 23:23
nella sezione overclock estremo dei processori un team ha portato un pentium 4 631 a 8100 e passa mhz facendo il WR e soprannominando il procio "alien" :asd:

minchi@..........ora ho vusto...il bello è che era la mobo al limite, non la cpu!!!:eek:

Dove??? Che Link?? :eek:

+Lonewolf+
08-06-2007, 23:26
http://www.hwupgrade.it/forum/showthread.php?t=1442389

cmq basta OT che sennò ci sospendono, questo è il 3d di r600;)

@ndre1
08-06-2007, 23:29
http://www.pctuner.info/up/results/_200706/20070609002906_image3.jpg

;)

+Lonewolf+
08-06-2007, 23:38
http://www.pctuner.info/up/results/_200706/20070609002906_image3.jpg

;)

è tornato il pazzo modder con la 7600 gt + potente della terra...cmq ho controllato...veramente è la + potente della terra;)

Scrambler77
08-06-2007, 23:49
Porca bubbazza!! :eek:

+Lonewolf+
08-06-2007, 23:53
OT-parli della cpu o della scheda xkè tutti e due meriterebbero un porca bubazza-OT

rispondi poi chiudiamo l'OT xò una volta x tt

ale0bello0pr
09-06-2007, 04:26
penso di essere stato molto chiaro; quale parte della mia domanda non hai compreso?


ma io non mi sn irrigidito per nulla :rolleyes: era solo per farti capire e quello che non ho compreso l'ho messo sotto grassetto...ma non te ne sei accorto quanto pare...ok tri rispondo semplicemente :

1)Non esiste attualmente e mai esistera' nessuna XTX :confused:
2)Non ho mai affermato che esiste una HD 2900XT OC piu' potente di una 8800 Ultra bensi che è meglio una HD 2900 XT OC che una 8800 Ultra e il fattore determinante è il prezzo (la ATI costa la metà...e l'Nvidia attualmente uno stipendio medio mensile)

per questo l'equazione HD 2900 XT OC ≥ HD2900XTX(che non esiste ed era stata messa in progetto inizialmente) > 8800Ultra

Non si mette in dubbio e ripeto assolutamente metto in dubbio il fatto che la scheda piu' potente sul globo terreste è la 8800ULTRA al momento....
ciauz :flower:

MaRtH
09-06-2007, 10:23
ma io non mi sn irrigidito per nulla :rolleyes: era solo per farti capire e quello che non ho compreso l'ho messo sotto grassetto...ma non te ne sei accorto quanto pare...ok tri rispondo semplicemente :

1)Non esiste attualmente e mai esistera' nessuna XTX :confused:
2)Non ho mai affermato che esiste una HD 2900XT OC piu' potente di una 8800 Ultra bensi che è meglio una HD 2900 XT OC che una 8800 Ultra e il fattore determinante è il prezzo (la ATI costa la metà...e l'Nvidia attualmente uno stipendio medio mensile)

per questo l'equazione HD 2900 XT OC ≥ HD2900XTX(che non esiste ed era stata messa in progetto inizialmente) > 8800Ultra

Non si mette in dubbio e ripeto assolutamente metto in dubbio il fatto che la scheda piu' potente sul globo terreste è la 8800ULTRA al momento....
ciauz :flower:

A dirla tutta è una disequazione... :sofico:

Comunque quoto, mediamente una Ultra costa il doppio di una 2900 che comunque inizia a mostrare i muscoli...

Scrambler77
09-06-2007, 10:28
Comunque quoto, mediamente una Ultra costa il doppio di una 2900 che comunque inizia a mostrare i muscoli...

L'importante è non esagerare con gli steroidi... :asd:

Cmq pare che nvidia stia abbassando i prezzi, pertanto ale0bello0pr dovrai rivedere la disequazione... :D

MaRtH
09-06-2007, 10:32
L'importante è non esagerare con gli steroidi... :asd:

Cmq pare che nvidia stia abbassando i prezzi, pertanto ale0bello0pr dovrai rivedere la disequazione... :D


Ho detto che inizia a mostrare i muscoli, non che è la migliore VGA su mercato, prestazionalmente parlando... :)

Una GTX sui 400€ sarebbe un bel traguardo...

Comunque, rimaniamo IT...

Si sa già qualcosa sui consumi della revision @ 55nm?

Poliphilo
09-06-2007, 10:44
Ale0, scusa, tu quale hai di scheda? Intendo la marca.

Defragg
09-06-2007, 11:36
Si sa già qualcosa sui consumi della revision @ 55nm?

dubito, ma rimango contento che si saltino direttamente i 65nm per andare ai 55nm :)

+Lonewolf+
09-06-2007, 11:38
scusate la la scheda che ho in firma è superiore alla gts vero?

c'è qlkn che ancora nn ne è convinto...

CrAsHeR
09-06-2007, 11:47
scusate la la scheda che ho in firma è superiore alla gts vero?

c'è qlkn che ancora nn ne è convinto...

Quali sono i tuoi results? :) Io li ho fatti con SSAA 4x..ti tolgo subito il dubbio :P

+Lonewolf+
09-06-2007, 11:54
Quali sono i tuoi results? :) Io li ho fatti con SSAA 4x..ti tolgo subito il dubbio :P

no qui nn s parlava del bench di coj...cmq i miei results sono postati nel 3d ufficiale;)

TecnoWorld8
09-06-2007, 12:48
ma io non mi sn irrigidito per nulla :rolleyes: era solo per farti capire e quello che non ho compreso l'ho messo sotto grassetto...ma non te ne sei accorto quanto pare...ok tri rispondo semplicemente :

1)Non esiste attualmente e mai esistera' nessuna XTX :confused:
2)Non ho mai affermato che esiste una HD 2900XT OC piu' potente di una 8800 Ultra bensi che è meglio una HD 2900 XT OC che una 8800 Ultra e il fattore determinante è il prezzo (la ATI costa la metà...e l'Nvidia attualmente uno stipendio medio mensile)

per questo l'equazione HD 2900 XT OC ≥ HD2900XTX(che non esiste ed era stata messa in progetto inizialmente) > 8800Ultra

Non si mette in dubbio e ripeto assolutamente metto in dubbio il fatto che la scheda piu' potente sul globo terreste è la 8800ULTRA al momento....
ciauz :flower:

ora mi è tutto chiaro; diciamo che il simbolo > che tu utilizzi è fuorviante. Chiaramente potrebbe significare molte cose, forse a fianco dovresti scrivere "come rapporto prestazioni/prezzo" per evitare altri fraintendimenti. Messo così e stando a ciò che dicevi prima dell'uscita della scheda, pare davvero che essa sia potenzialmente più veloce e potente di una Ultra, quando overclockata.

E' chiaro che facendo invece una comparazione sulla base del costo del prodotto, la XT è la migliore; ma questo capita praticamente sempre, se una scheda non è al top. I prodotti al top hanno il cosidetto "premium price", cioè il prezzo da pagare extra per avere - appunto - il prodotto più potente sul mercato.

p.s.: Probabilmente una Mondeo nuova (per dirne una a caso) ha un rapporto prestazioni/prezzo migliore di una qualunque Ferrari...ma non per questo scriverei mai Mondeo > Ferrari Enzo

Zodd_Il_nosferatu
09-06-2007, 13:27
ragazzi provate i dna driver 7.5!!! sono miracolosi!!!

ho avuto degli aumenti pazzeschi con tomb raider anniversary... negli screen principali:

screen principale di quando si è nel deserto sono passato da 95 fps dei catalyst 7.5 ai 108 dei dna driver

e nello screen in cui si è nelle caverne sono passato da 84 a 100...



ho una x800xl

+Lonewolf+
09-06-2007, 13:29
ragazzi provate i dna driver 7.5!!! sono miracolosi!!!

ho avuto degli aumenti pazzeschi con tomb raider anniversary... negli screen principali:

screen principale di quando si è nel deserto sono passato da 95 fps dei catalyst 7.5 ai 108 dei dna driver

e nello screen in cui si è nelle caverne sono passato da 84 a 100...



ho una x800xl


link che li testo in dx10

TecnoWorld8
09-06-2007, 13:36
ragazzi provate i dna driver 7.5!!! sono miracolosi!!!

non mi sono mai fidato troppo delle release alternative, perchè solitamente, per ottenere prestazioni migliori, ricorrono a qualche trucco grafico che peggiora - magari impercettibilmente - la qualità.

gli unici driver che vorrei sarebbero quelli che rendono funzionante il triple buffering nei giochi con motore basato su Doom 3 e risoluzioni wide. Possibile che nessuno ci riesca??

Zodd_Il_nosferatu
09-06-2007, 13:52
non mi sono mai fidato troppo delle release alternative, perchè solitamente, per ottenere prestazioni migliori, ricorrono a qualche trucco grafico che peggiora - magari impercettibilmente - la qualità.

gli unici driver che vorrei sarebbero quelli che rendono funzionante il triple buffering nei giochi con motore basato su Doom 3 e risoluzioni wide. Possibile che nessuno ci riesca??

ehm e se ti dico che questi driver abilitano il triple buffering in open gl?

ho appena controllato nelle opzioni avanzate :stordita:

Nos89
09-06-2007, 13:52
scusate la la scheda che ho in firma è superiore alla gts vero?

c'è qlkn che ancora nn ne è convinto...

non lo è......ci sono diversi fattori che influenzano la mia affermazione

Zodd_Il_nosferatu
09-06-2007, 13:53
http://img248.imageshack.us/img248/3537/trippleye0.th.jpg (http://img248.imageshack.us/my.php?image=trippleye0.jpg)

+Lonewolf+
09-06-2007, 13:59
non lo è......ci sono diversi fattori che influenzano la mia affermazione

x esempio?

leva di mezzo il tuo oc

Poty...
09-06-2007, 14:01
scusate la la scheda che ho in firma è superiore alla gts vero?

c'è qlkn che ancora nn ne è convinto...

guarda...ci sono rece che nella maggior parte dei casi la GTS domina e la 2900 sta avanti solo in alcuni test....in altre rece si equivalgono...siccome delle recensioni mi sono rotto attendo qualcuno che si scontri con me nei bench reali dei giochi con fps puri così vediamo chi la spunta i benchmarck tipo ungine 0.4 oppure 3d merd oppure lost planet o Call of juarez non sono da prendere in cosniderazione perchè vuoi o non vuoi sono di parte e non si può giudicare la vga con questi...ma con i game in commercio che ci sono abbiamo voglia! dai sotto con la sfida clokkate sta benedetta 2900 e diamoci dentro!!

Poty...
09-06-2007, 14:09
ragazzi dai benchiamo un pò con il test di fear sto per postare tutti i setting e i result

Poty...
09-06-2007, 14:17
http://img300.imageshack.us/img300/9706/immaginemf1.th.jpg (http://img300.imageshack.us/my.php?image=immaginemf1.jpg)
http://img526.imageshack.us/img526/4087/immagine2cc6.th.jpg (http://img526.imageshack.us/my.php?image=immagine2cc6.jpg)
http://img368.imageshack.us/img368/4844/immagine3bw9.th.jpg (http://img368.imageshack.us/my.php?image=immagine3bw9.jpg)
http://img368.imageshack.us/img368/1228/immagine4td1.th.jpg (http://img368.imageshack.us/my.php?image=immagine4td1.jpg)
http://img406.imageshack.us/img406/8677/immagine5ev6.th.jpg (http://img406.imageshack.us/my.php?image=immagine5ev6.jpg)

questi sono i miei result con questi setting grafici da gioco e da driver
cercate di attenervi a setting grafici identici dal gioco e da driver che ho messo io poi in caso se ci sono incongruenze di setting ne levo/metto qualcuno e rifaccio il test come dite voi! ho la sincronia attivata attenetevi anche a questo tanto non li facciamo più o uguale a 60 frame;) con questi setting

TecnoWorld8
09-06-2007, 14:18
ehm e se ti dico che questi driver abilitano il triple buffering in open gl?

ho appena controllato nelle opzioni avanzate :stordita:

anche quelli normali lo abilitano; ma c'è un bug che, anche se abilitato da drivers, non lo abilita realmente nelle risoluzioni widescreen (ad esempio 1680x1050) nei giochi con motore doom 3. riesci per caso a provare?

Poty...
09-06-2007, 14:23
ah no scusate forse la sincronia non è attiva sa di massima ho fatto 62! forse per il test bench la disattiva? bu in caso lo ricaffio con sincronia disabilitata da driver cmq dai fatevi sotto con qualche bench!

+Lonewolf+
09-06-2007, 14:26
scusate ho provato a disinstallare i driver su vista ma noto che non me li disinstalla ma mi toglie solo il CCC...e dopo nn me lo fa rimettere +!!! che devo fare?

Poty...
09-06-2007, 14:29
scusate ho provato a disinstallare i driver su vista ma noto che non me li disinstalla ma mi toglie solo il CCC...e dopo nn me lo fa rimettere +!!! che devo fare?

umm prova in modalità provvisoria non so...

cmq quando sistemi sto problema attendo i tuoi test con FEAR;)

+Lonewolf+
09-06-2007, 14:36
umm prova in modalità provvisoria non so...

cmq quando sistemi sto problema attendo i tuoi test con FEAR;)

ho fear combat...cmq me lo posso far prestare, appena possibile testo;)

safendi
09-06-2007, 14:37
http://img300.imageshack.us/img300/9706/immaginemf1.th.jpg (http://img300.imageshack.us/my.php?image=immaginemf1.jpg)
http://img526.imageshack.us/img526/4087/immagine2cc6.th.jpg (http://img526.imageshack.us/my.php?image=immagine2cc6.jpg)
http://img368.imageshack.us/img368/4844/immagine3bw9.th.jpg (http://img368.imageshack.us/my.php?image=immagine3bw9.jpg)
http://img368.imageshack.us/img368/1228/immagine4td1.th.jpg (http://img368.imageshack.us/my.php?image=immagine4td1.jpg)
http://img406.imageshack.us/img406/8677/immagine5ev6.th.jpg (http://img406.imageshack.us/my.php?image=immagine5ev6.jpg)

questi sono i miei result con questi setting grafici da gioco e da driver
cercate di attenervi a setting grafici identici dal gioco e da driver che ho messo io poi in caso se ci sono incongruenze di setting ne levo/metto qualcuno e rifaccio il test come dite voi! ho la sincronia attivata attenetevi anche a questo tanto non li facciamo più o uguale a 60 frame;) con questi setting

devi togliere il v-synch, altrimenti ti stabilizza i result in basa alla freq. del monitor, infatti se lo abilito faccio tutto 60, se lo tolgo faccio min 65- max 330 e medi 134

Iantikas
09-06-2007, 14:49
...CUT...

i test nn si fanno mai col v-sync attivato (oltretutto senza neanke triple-buffer il ke equivale ad ammazzarsi il framerate)...

...considera ke io con una x1900xtx col gioco con l'ultima patch @1680x1050 con 4xAA/16xAF e tutto al MAX con Soft Shadows su ON faccio min: 29/avg: 62/max: 145...il tuo risultato x essere @1280x960 è estremamente basso, rifai il test senza v-sync...ciao

Poty...
09-06-2007, 14:50
i test nn si fanno mai col v-sync attivato (oltretutto senza neanke triple-buffer il ke equivale ad ammazzarsi il framerate)...

...considera ke io con una x1900xtx col gioco con l'ultima patch @1680x1050 con 4xAA/16xAF e tutto al MAX con Soft Shadows su ON faccio min: 29/avg: 62/max: 145...il tuo risultato x essere @1280x960 è estremamente basso, rifai il test senza v-sync...ciao

bene infatti;) ho notato hihi lo rifaccio

zorco
09-06-2007, 14:55
tò il mio resultato:

http://www.pctuner.info/up/results/_200706/th_20070609155252_impostazioni2.JPG (http://www.pctuner.info/up/image.php?src=_200706/20070609155252_impostazioni2.JPG)


http://www.pctuner.info/up/results/_200706/th_20070609155406_fearresult.JPG (http://www.pctuner.info/up/image.php?src=_200706/20070609155406_fearresult.JPG)


http://www.pctuner.info/up/results/_200706/th_20070609155313_impostazioni.JPG (http://www.pctuner.info/up/image.php?src=_200706/20070609155313_impostazioni.JPG)

tutto a defualt...

+Lonewolf+
09-06-2007, 14:57
auito!!!! non mi funziona + il CCC!!! non si reinstalla neanche dice che già cel'ho!!!!

Poty...
09-06-2007, 14:59
ecco il mio result con stessi setting ma con Vsync disattivato;)
http://img505.imageshack.us/img505/1493/immagine6fq6.th.jpg (http://img505.imageshack.us/my.php?image=immagine6fq6.jpg)

+Lonewolf+
09-06-2007, 15:01
fear è cpu dipendente;) aspetta i miei results:D

+Lonewolf+
09-06-2007, 15:02
auito!!!! non mi funziona + il CCC!!! non si reinstalla neanche dice che già cel'ho!!!!

aiuto

Iantikas
09-06-2007, 15:09
aiuto

magari hai già provato...cmq prova instllando una versione diversa dei driver magari così va...ciao

Poty...
09-06-2007, 15:10
fear è cpu dipendente;) aspetta i miei results:D

è già mi sa di si:D a quanto lo tieni il 6600? diciamo che il tuo per via della cache doppia dovresti tenerlo a 2800 per avere più o meno le prestazioni uguali al mio così siamo più o meno in piattaforma simile! se no come facciamo!;)

+Lonewolf+
09-06-2007, 15:15
ho risolto grazie, anche se ora nn m fa vedere + la preview nel ccc