PDA

View Full Version : ATI Radeon HD 2900 XT: è il momento di R600


Pagine : 1 2 3 [4] 5 6 7 8 9

Evangelion01
14-05-2007, 23:46
2900XT OC≥2900XTX>8800Ultra ------>coming soon..1GB...



E anche questa firma, a me pare sbagliata... intanto che senso ha fare paragoni con una vga come la x2900xtx che manco esiste? Poi ti dimentichi che ha poco senso paragonare una vga oc con una default, visto che anche quella default ( nella fattispecie la 8800ultra ) è overcloccabile, quindi i paragoni semmai andrebbero fatti in oc, su quanto si riesce a spingere ogni vga ...
E infine mi posteresti per cortesia i bench dove la 2900xt oc è più veloce della 8800 ultra? :p

mjordan
14-05-2007, 23:47
cerdo a quello che vedo, non a chi mi dice "Babbo Natale esiste, aspetta qualche giorno e vedrai. Arriva in Taxi, suona alla porta, veste di verde e non ha la barba. Ma è lui, fidati".

:rotfl:
Fantastica metafora, questa me la devo segnare :rotfl:

X ale0bello0pr:
Indubbiamente facevi dichiarazioni in un'ottica assai di nicchia, ma il tono è sensazionalistico al massimo, per parlare appunto di ambiti di nicchia (da cui le prese per il :ciapet: di molti utenti). Come ti faceva notare qualcuno, a nessuno interessa se R600 sia piu' veloce sotto azoto liquido ;)
Tra le altre cose parliamo di una scheda che di base consuma come una 8800Ultra, quindi di OC credo si sia ancora di meno interessati. ;)
Visto che si deve spendere determinate cifre in bolletta, tanto vale comprare una 8800Ultra, almeno con lo stesso assorbimento energetico si hanno le prestazioni che sappiamo.

Quello di cui mi lamento io non sono tanto le prestazioni. In fondo scenari simili sono successi anche in passato anche ad nVidia. Il problema sono i consumi, che invalidano di fatto una qualsiasi ipotesi valida per acquistare R600.

Va bhè, succede.

3DMark79
14-05-2007, 23:47
Dunque secondo te non le supporta?
In giro si diceva che le doveva supportare...allora veramente bisogna piangere proprio perchè per adesso non si preannuncia nulla di buono! :cry: :D
Scalda come una caminetto, consuma come il mio condizionatore e inoltre mi sa che ci vuole un ali da +12 35A!

mjordan
14-05-2007, 23:51
comunque l'impianto a liquido è l'unica cosa che potrebbe dare senso a questa scheda, secondo me.

Secondo me no, perchè la scheda di base costa 400$, consideriamo che i kit liquido per schede grafiche non costano 2 lire, si invalida la garanzia, si porta un prodotto che sta al limite già di fabbrica a condizioni di esercizio da sfinimento, incrementiamo i già spasmodici consumi a livelli esponenziali.... Dove sta il senso?
Senza contare che come diceva qualcuno, l'OC non è che si può fare solo con questa scheda, eh! :p

Modhi
14-05-2007, 23:53
Mah, guardando i test, sinceramente mi aspettavo di più anchio, soprattutto per le caratteristiche che trapelavano anche se non ufficialmente, in rete.

Ora però mi sorgon 2 domande o riflessioni.

1) Se realmente si aspettavano risultati di molto superiori in termini di prestazioni i soldi investiti sicuramente non li recupereranno abbassando i prezzi da un eventuale top di gamma ossia 650€ (abbozzo) a 400€. Quindi, o ad AMD/ATI costa molto meno di 400€ produrla (ma se progettavano di venderla a 650 non badavano a spese di produzione, credo), o la vendono in pari (se non in perdita).

2) Vedendo i test non mi pare vada così più veloce di una 1950 XTX, quindi non credo siano rimasti così spiazzati da super prestazioni del G80, anche perchè la avranno pur confrontata con la loro precedente generazione di schede.

Io trovo che i test proposti oggi in rete, mettano in risalto la discontinuità di prestazioni di questa scheda, che sicuramente a parer mio è anomala.

Concludendo, non mi convince del tutto. Speriamo in un futuro migliore della concorrenza.

nonikname
14-05-2007, 23:54
ho parlato di test in overclock , segui questo thread e capirai, ;) http://www.nordichardware.com/forum/3-vt8428.html?postdays=0&postorder=asc&start=50&sid=e11706b6a771b812d7c9c211a0a1fb86
Dj lode faccio meglio a non risponderti... :)

Ma ci sono solo bench di vari 3dmark in pesante overclock!!!
Valutare le potenzialità di una VGA solo con 3dmark è l'errore + banale che un appassionato di hw , degno di questo nome , può fare...

Rimango cmq dell'ipotesi che usare l'approcio VLIW per gli stream processor di ATI sia stato una scelta azzardata per questa generazione di transizione: ATI deve estrarre il parallelismo dalle istruzioni , via compilatore , per per tenere alto il picco di op/sec delle sue pipeline ...
Quindi , al contrario di nvidia che ha 8 unità SIMD contenenti 16 stream processor l'una e che quindi puo parallelizzare il codice "nativamente" , ATI ha un grosso lavoro software da svolgere .. e che deve essere costantemente rimaneggiato con l'uscita di nuovi titoli....

Resta cmq il fatto che ATI ha fatto una signora architettura , ma come qualcun'altro ha detto: la potenza è nulla senza il controllo....

Evangelion01
14-05-2007, 23:54
Secondo me no, perchè la scheda di base costa 400$, consideriamo che i kit liquido per schede grafiche non costano 2 lire, si invalida la garanzia, si porta un prodotto che sta al limite già di fabbrica a condizioni di esercizio da sfinimento, incrementiamo i già spasmodici consumi a livelli esponenziali.... Dove sta il senso?
Senza contare che come diceva qualcuno, l'OC non è che si può fare solo con questa scheda, eh! :p

LOL, mi sento chiamato in causa... :D
Quoto in toto... :)

Dreadnought
14-05-2007, 23:57
700e oltre commenti!?! :eek:

Signori: gettatevi una life.

mjordan
14-05-2007, 23:58
LOL, mi sento chiamato in causa... :D
Quoto in toto... :)

Si mi riferivo a te, e che non mi ricordavo il nick e sto in modalità lazy per andarlo a leggere :angel:

Evangelion01
15-05-2007, 00:03
700e oltre commenti!?! :eek:

Signori: gettatevi una life.

:asd:
beh, visto l' hipe che si era generato su questa vga, e il mezzo flop che ne è seguito, era lecito aspettarseli. d' altonde erano 6 mesi che aspettavamo Ati per vedere questa scheda... peccato che i risultati non siano stati all' altezza del marchio. :(

Mifune
15-05-2007, 00:07
ne parlano anche su anandtech questo sembra uno dei problemi maggiori....in pratica per applicare AA sottrae "potenza" agli shader facendo crollare le prestazioni...e questo è un problema progettuale e non di driver :muro:

Ne sei sicuro? Voglio dire, hai basi tecniche per affermarlo? non per sfiducia, non ti conosco :) , lo chiedo da inesperto.
A vedere i test pare proprio che l'AA sia implementato male, ma magari hanno ancora spazio di miglioramento a livello driver per limitare i danni, visto che è programmabile.. ma appunto, lo dico da inesperto. Che ne pensate?

Free Gordon
15-05-2007, 00:08
Letta velocemente, cioè tralasciano i benchmark visto che l'andamento è ben espresso dai post di qualcuno.
Mi aspettavo ovviamente altra roba a livello di prestazioni, anche se non sono un maniaco che se fa 1 fps in meno grida allo scandalo (magari poi fossero solo 1fps in meno :asd: ), considero più importanti le innovazioni che portano ad un miglioramento dell'immagine. G80 pure in questo è regina, e non posso che essere felice se R600 si è adeguata almeno sull'Anisotropico. Prendo tempo per giudicare l'AA, ho letto e visto troppo poco.

A dire la verità sull'AF la 8800 pare essere migliore.
E' invece proprio sull'AA che l'edge detect di ATI pare dare risultati migliori della concorrenza. ;)



Qualcuno tempo fa sperava in una nuova 9700. Io direi che forse questa è una nuova 8500, c'è tanta roba ma va più piano. E ovviamente non si possono aspettare per anni driver, come è avvenuto per R200.

Quoto. ;)



Non capisco cosa serva piantarci un bus a 512bit se poi non se ne vedono i benefici...

Questo è prematuro dirlo. ;)



Le prestazioni in Dx10 sono un'incognita ma lo sono anche per G80 (e un solo test non lo giudico realistico al 100%), e l'unica speranza per Ati è di avere effettivamente buttato le basi per un'architettura che possa servire appunto a questo

E così, sarà. :)



Se ora Ati ha scelto di passare ad una modalità dove i driver possono cambiare così tanto le parti in gioco e, oltretutto, non in modo così semplice da ottenere... bhè non la trovo una scelta logica.

Concordo.
Imho sarà un problema anche per gli sviluppatori...

Murphy
15-05-2007, 00:12
Non so se era stato postato, qua trovate una rece sotto win XP:

http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=1

un pochino meglio!

int main ()
15-05-2007, 00:12
:sofico: è x tutti quelli ke dicevano ke ati pownava nvidia :O

MiKeLezZ
15-05-2007, 00:13
700e oltre commenti!?! :eek:

Signori: gettatevi una life.Hanno partecipato alla discussione circa 200 persone, e di queste sei contato anche te! Non stupisce quindi il numero di commenti...

Non è quindi un discorso di "gettare una life" (il che evidentemente, da che fai parte dei 200, sarebbe applicabile anche alla tua persona), ma che la scheda evidentemente era attesa, e fa parlare di sé... che poi lo faccia in male, è un altro discorso!

Per chi interessano le statistiche, sono sempre di fianco al titolo del thread nel forum generale, questo il link:
http://www.hwupgrade.it/forum/misc.php?do=whoposted&t=1472010
Un paio di nomi illustri nelle prime posizioni.....

Free Gordon
15-05-2007, 00:13
L'unico modo per risollevarsi è che il miracolo dei driver che si attende sia velocissimo...aspettiamo...aspettiamo...sono mesi che lo diciamo riguardo a questo nuovo chip...


Quello dei driver non è un miracolo.
E' dovuto al fatto che l'hw di R600 è completamente programmabile (a partire dal memory controller).

Guarda che differenza di FPS da un driver all'altro: ;)
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/


E cmq sia, tu che hai la GTX, ricordi bene le differenze che passano (sia in prestazioni che stabilità...) dall'uscita della scheda ad oggi. ;)

mjordan
15-05-2007, 00:16
Scusate se chiedo una cosa già forse ampiamente discussa ma seguire un thread da 800 risposte in una giornata mi è risultato impossibile. :D
Ma allora la notizia che la versione XTX è stata cancellata è fondata o sono balle? ATI quindi rimarrà solo con questo trabiccolo a questo giro? :confused:

bs82
15-05-2007, 00:23
Ne sei sicuro? Voglio dire, hai basi tecniche per affermarlo? non per sfiducia, non ti conosco :) , lo chiedo da inesperto.
A vedere i test pare proprio che l'AA sia implementato male, ma magari hanno ancora spazio di miglioramento a livello driver per limitare i danni.. ma appunto, lo dico da inesperto. Che ne pensate?

è così. il fatto è che come già vediamo in stalker, l'anti aliasing tenderà a scomparire e verrò fatto direttamente dal motore grafico del gioco.
Quindi tramite gli shaders della scheda....Anche in questo caso Ati ha guardato un po troppo avanti...

Free Gordon
15-05-2007, 00:24
Comunque è singolare che X2900XT succhi... capirei rispetto alla GTX... ancora ok rispetto alla GTS... ma dalla X1900XTX proprio non me l'aspettavo
http://www.anandtech.com/video/showdoc.aspx?i=2988&p=19

Questo dovrebbe solo farci pensare che c'è qualcosa che non va nei driver. ;)

bs82
15-05-2007, 00:26
Scusate se chiedo una cosa già forse ampiamente discussa ma seguire un thread da 800 risposte in una giornata mi è risultato impossibile. :D
Ma allora la notizia che la versione XTX è stata cancellata è fondata o sono balle? ATI quindi rimarrà solo con questo trabiccolo a questo giro? :confused:

balle, nessuno in ati ha mai parlato ufficialmente di versione XTX: quindi non è stata ne cancellata ne proclamata.

L'unica versione "non commerciale" è la OEM che è la 2900xt con 1 GB di DDR4 ad una frequenza tale (1Ghz) tale da competere con una ddr3 a ~800mhz. Ha un dissipatore più grande che sfrutta la staffa obbligatoria (per gli oem) e raffredda meglio il GB di DDR4

Free Gordon
15-05-2007, 00:28
Negli 8.37.2 è sparito l'HQ AF sulle 2900xt , anche se ora fosse applicato di default ( :rolleyes: ) , avrei preferito si potesse scegliere...


Se leggi bene nell'articolo, vedi che è stata tolta la spunta perchè da quei driver in poi, l'AF è sempre su HQ. ;) C'è anche un'immagine a dimostrazione.

MiKeLezZ
15-05-2007, 00:33
Driver programmabili significa che R600 varierà la qualità visiva a seconda di come gli tornerà più comodo?
Magari in Oblivion si accorgono che il filtro AA può non esser calcolato in determinate situazioni, che HDR può non esser applicato in tutti i frame... che il filtro "tent" può anche dcrescere come numero di sample nelle zone più "impastate" (tanto chi se ne accorge...)
Insomma fanno due manelli come ai vecchi tempi delle 8500, Ti4200 e del 3DMark tarocco........ è una bella cosa?
:/

No, la XTX è stata ufficialmente dichiarata da AMD come non-esistente, ed è scritto nell'articolo stesso. Ufficiosamente faceva così cacare che, neppure scalfendo la 8800GTS, non aveva senso di esistere.

MrBond
15-05-2007, 00:35
Io trovo che i test proposti oggi in rete, mettano in risalto la discontinuità di prestazioni di questa scheda, che sicuramente a parer mio è anomala.

Concludendo, non mi convince del tutto. Speriamo in un futuro migliore della concorrenza.

Concordo... sarà che questo r600 è interamente programmabile e che i driver sono immaturi...

e poi perdonatemi... se un progetto è così "fallimentare" perchè perseguirlo?

Non penso che quelli di ATI e AMD siano così scellerati... secondo me non abbiamo visto ancora tutto...

Sarà che non voglio vedere un anno statico sul fronte schede video...

Evangelion01
15-05-2007, 00:37
:/
No, la XTX è stata ufficialmente dichiarata da AMD come non-esistente, ed è scritto nell'articolo stesso. Ufficiosamente faceva così cacare che, neppure scalfendo la 8800GTS, non aveva senso di esistere.

E ciò significa che per un bel po' di tempo non ci sarà nessuna concorrente diretta della 8800gtx...

ZiP!
15-05-2007, 00:37
è così. il fatto è che come già vediamo in stalker, l'anti aliasing tenderà a scomparire e verrò fatto direttamente dal motore grafico del gioco.
Quindi tramite gli shaders della scheda....Anche in questo caso Ati ha guardato un po troppo avanti...

eh si, hanno guardato così avanti che probabilmente ci giocheremo nei giochi del 2009 senza problemi, peccato che con quelli attuali faccia pena :doh:
fanboy :rolleyes:

Free Gordon
15-05-2007, 00:39
Rimango cmq dell'ipotesi che usare l'approcio VLIW per gli stream processor di ATI sia stato una scelta azzardata per questa generazione di transizione: ATI deve estrarre il parallelismo dalle istruzioni , via compilatore , per per tenere alto il picco di op/sec delle sue pipeline...
Quindi , al contrario di nvidia che ha 8 unità SIMD contenenti 16 stream processor l'una e che quindi puo parallelizzare il codice "nativamente" , ATI ha un grosso lavoro software da svolgere .. e che deve essere costantemente rimaneggiato con l'uscita di nuovi titoli....
Resta cmq il fatto che ATI ha fatto una signora architettura , ma come qualcun'altro ha detto: la potenza è nulla senza il controllo....



Ti vedo ferrato ultimamente sull'argomento. :D
Concordo pienamente (per ora perlomeno :ciapet: ).

bs82
15-05-2007, 00:40
Driver programmabili significa che R600 varierà la qualità visiva a seconda di come gli tornerà più comodo?
Magari in Oblivion si accorgono che il filtro AA può non esser calcolato in determinate situazioni, che HDR può non esser applicato in tutti i frame... che il filtro "tent" può anche dcrescere come numero di sample nelle zone più "impastate" (tanto chi se ne accorge...)
Insomma fanno due manelli come ai vecchi tempi delle 8500, Ti4200 e del 3DMark tarocco........ è una bella cosa?


O_o Non credo tu nn sappia come funziona il ring bus e i vari arbitrer dei bus e di tutti i blocchi di r600....perchè se per te una GPU programmabile si ferma alla programmabilità che dici te...è grave.
La programmbilità sta nel far adattare R600 completamente a tutti i giochi...ecco perchè i driver contengono dei "profili" a seconda del gioco.
E' per questo che è impensabile pretendere già il massimo da queste architteture appena uscite. E vale anche per nvidia che ogni release di driver aumenta di prestazioni. ...le prestazioni...non la qualità.

Ricordati che i driver nvidia con molti giochi "ricompilano" al volo gli shaders a loro piacimento per avere qualche frame in più...

Mar1o
15-05-2007, 00:40
cmq quoto un post molto interessante preso da un altro forum ke secondo me è molto ragionevole:

La complessità di questo chip è veramente molto elevata, probabilmente le sue prestazioni poco esaltanti in Dx9 sono dovute al fatto che queste Api e i giochi attuali non sfruttano tutte le innovazioni tecniche di questa scheda al contrario di una "più conservativa" serie 8 Nvidia che invece va decisamente meglio con giochi e benchmark attuali...chissà se fra qualche mese con driver sicuramente più ottimizzati e con i primi giochi dx10 si potranno vedere le reali prestazioni di questo chip

dadoggg
15-05-2007, 00:40
che sola, manco te la regalassero,

puah

Free Gordon
15-05-2007, 00:42
Driver programmabili significa che R600 varierà la qualità visiva a seconda di come gli tornerà più comodo?
Magari in Oblivion si accorgono che il filtro AA può non esser calcolato in determinate situazioni, che HDR può non esser applicato in tutti i frame... che il filtro "tent" può anche dcrescere come numero di sample nelle zone più "impastate" (tanto chi se ne accorge...)
Insomma fanno due manelli come ai vecchi tempi delle 8500, Ti4200 e del 3DMark tarocco........ è una bella cosa?


Tue speculazioni... :)

Io non ho parlato di driver programmabili (perchè è ovvio che lo siano), ho detto hw altamente programmabile (dallo shader core al memory controller).
Grattacapi che nVidia non ha, insomma. ;)

Free Gordon
15-05-2007, 00:43
Quindi, o ad AMD/ATI costa molto meno di 400€ produrla (ma se progettavano di venderla a 650 non badavano a spese di produzione, credo), o la vendono in pari (se non in perdita).

Ad ATI (e partners) ovviamente costa molto meno di 400 euro, produrla. :D

bs82
15-05-2007, 00:44
eh si, hanno guardato così avanti che probabilmente ci giocheremo nei giochi del 2009 senza problemi, peccato che con quelli attuali faccia pena :doh:
fanboy :rolleyes:

eh?

fanboy? perchè? ho detto che ati ha gurdato troppo avanti...ho sbagliato?

Forse non sai che stalker accena un po con il suo AA software alle nuove metodologie di antialising che vedremmo quando si cominciera a parlare di "Deferred Shading with Multiple Render Targets"

Ossia quello per cui R600 è stata creata.

Ovviamente oggi, con i giochi di oggi e con i giochi neo-dx10 tutta genialità di architettura sprecata...

R600 magari sarà base per futuri sviluppi (vedi le prestazioni di giochi pesantemente basati su shaders come SC e oblivion)....

MiKeLezZ
15-05-2007, 00:45
Se leggi bene nell'articolo, vedi che è stata tolta la spunta perchè da quei driver in poi, l'AF è sempre su HQ. ;) C'è anche un'immagine a dimostrazione.Sarà che ci vedo ormai poco ma quell'immagine mi dice proprio poco come dimostrazione... a casa mia l'AF si testa su più superfici che si stagliano lontane, possibilmente in diagonale... possibilmente su un'immagine più grande di un francobollo... gradito anche il test apposito...
Poi leggendo il resto, il redattore fa delle affermazioni strane, preferendo un'immagine che sì, ha forse dei contorni meno spigolosi, ma è enormemente sfuocata e con perdita di dettaglio (!)
La realtà è che questa X2900XT è sì migliore delle precedenti X1900 (quantomeno il tent si può deselezionare e l'edge verrà poi in soccorso), ma è sempre indietro come qualità visiva rispetto le 8800

nonikname
15-05-2007, 00:48
Se leggi bene nell'articolo, vedi che è stata tolta la spunta perchè da quei driver in poi, l'AF è sempre su HQ. ;) C'è anche un'immagine a dimostrazione.

L'ho letto bene l'articolo ... sei tu che non hai letto bene il mio post , ti spiego:

Invece del quadratino con le mattonelle di Oblivion avrei preferito anche l'AF tester...
Se io proclamo aumenti di fps in oblivion mi aspetto che i recensori testino proprio l'IQ di quel gioco , e sapendo che l'AF adattativo va ad interessare le texture più comunemente usate , hanno tolto la possibilità di attivarlo dappertutto ...(HQ AF) così da non avere un metro di paragone effettivo....
E' la cosa non mi sembra del tutto corretta...


Driver programmabili significa che R600 varierà la qualità visiva a seconda di come gli tornerà più comodo?
Magari in Oblivion si accorgono che il filtro AA può non esser calcolato in determinate situazioni, che HDR può non esser applicato in tutti i frame... che il filtro "tent" può anche dcrescere come numero di sample nelle zone più "impastate" (tanto chi se ne accorge...)
Insomma fanno due manelli come ai vecchi tempi delle 8500, Ti4200 e del 3DMark tarocco........ è una bella cosa?

Nelle GPU attuali , dove si può risparmiare si risparmia !! , ma questo non è il caso della 2900XT...dato che per applicare l'AA deve togliere Raw power agli stream processor.. e visto come va nei test non mi sento di appoggiare pienamente questa scelta....

bs82
15-05-2007, 00:50
Sarà che ci vedo ormai poco ma quell'immagine mi dice proprio poco come dimostrazione... a casa mia l'AF si testa su più superfici che si stagliano lontane, possibilmente in diagonale... possibilmente su un'immagine più grande di un francobollo... gradito anche il test apposito...
Poi leggendo il resto, il redattore fa delle affermazioni strane, preferendo un'immagine che sì, ha forse dei contorni meno spigolosi, ma è enormemente sfuocata e con perdita di dettaglio (!)
La realtà è che questa X2900XT è sì migliore delle precedenti X1900 (quantomeno il tent si può deselezionare e l'edge verrà poi in soccorso), ma è sempre indietro come qualità visiva rispetto le 8800

Verissimo, c'è ancora un picco di basso filtraggio ai 45° di inclinazione delle superfici mi pare.
In alcuni giochi le texture sono stranamente blurrate, in altri sono "normali" rispetto ai confrontati.
Troppa differenza qualitativa da un gioco all'altro.
E' inevitabile pensare subito ai driver.
E anzi voglio vedere sto filtraggio bicubico delle texture...visto che nelle spec viene messo nelle caratteristiche 3d penso riguardi queste...
A meno che non si riferisca al metodo usato per l'upscaling e il downscaling quando si va a parlare di flussi video e decodifica,

bs82
15-05-2007, 00:52
dato che per applicare l'AA deve togliere Raw power agli stream processor.. e visto come va nei test non mi sento di appoggiare pienamente questa scelta....

qua ti quoto....i giochi ora richiedono l'AA dall'hardware della scheda video..

Ma se cominciano ad uscire altri giochi che come stalker applicano l'AA tramite gli shaders del motore grafico del gioco?

ZiP!
15-05-2007, 00:55
eh?

fanboy? perchè? ho detto che ati ha gurdato troppo avanti...ho sbagliato?

Forse non sai che stalker accena un po con il suo AA software alle nuove metodologie di antialising che vedremmo quando si cominciera a parlare di "Deferred Shading with Multiple Render Targets"

Ossia quello per cui R600 è stata creata.

Ovviamente oggi, con i giochi di oggi e con i giochi neo-dx10 tutta genialità di architettura sprecata...

R600 magari sarà base per futuri sviluppi (vedi le prestazioni di giochi pesantemente basati su shaders come SC e oblivion)....
non so se ti stai rendendo conto ma il discorso che stai facendo suona come "non è la scheda che non va, sono solo il 99,9% dei giochi programmati male"

insomma è un gioiello così avanzato che dovrebbe stare in una vetrina piuttosto che in un case, sicuramente farà più effetto lì...

bs82
15-05-2007, 00:59
non so se ti stai rendendo conto ma il discorso che stai facendo suona come "non è la scheda che non va, sono solo il 99,9% dei giochi programmati male"

insomma è un gioiello così avanzato che dovrebbe stare in una vetrina piuttosto che in un case, sicuramente farà più effetto lì...


No no intedevo proprio che ati volendo mettere in mostra questa "nuova" archittettura non ha pensato a come i giochi sono fatti ora. Sembra abbia seguito fin troppo bene le direttive che ha redatto con MS (con la quale ha collaborato ricordiamocelo bene) per le dx10.x

I giochi come sono ora sono "fatti bene" (nel senso che ce ne sono di ben ottimizzati)... probabilmente quando alcuni giochi nuovi richiederanno nuove tecniche di programmazione come il Deferred Shading o l'uso massivo di shaders, o meglio ancora la tesselazione (per un dispalcement con i contro cosidetti) magari le schede figlie di questa architettura saranno avantaggiate...

lo_straniero
15-05-2007, 01:00
sono un fan boy della ati molto deluso


che sbeffeggiatura di uno sbeffeggimento

MiKeLezZ
15-05-2007, 01:01
O_o Non credo tu nn sappia come funziona il ring bus e i vari arbitrer dei bus e di tutti i blocchi di r600....perchè se per te una GPU programmabile si ferma alla programmabilità che dici te...è grave.
La programmbilità sta nel far adattare R600 completamente a tutti i giochi...ecco perchè i driver contengono dei "profili" a seconda del gioco.
E' per questo che è impensabile pretendere già il massimo da queste architteture appena uscite. E vale anche per nvidia che ogni release di driver aumenta di prestazioni. ...le prestazioni...non la qualità.

Ricordati che i driver nvidia con molti giochi "ricompilano" al volo gli shaders a loro piacimento per avere qualche frame in più...
Il discorso è che proprio non ho capito in cosa consista questa "programmabilità" (dei driver? della gpu?)... e che abbia poi di così tanto speciale
Insomma, così a naso mi sembra una stronzata, una giustificazione per una architettura che necessita di "pappina pronta" per rendere al meglio...
Non mi sembra sia molto sensato che gli sviluppatori scrivino del codice basato su un linguaggio fortemente strutturato, e poi vi sia un layer software o hardware che manipoli il flusso, magari caso per caso, per ri-ottimizzarlo...
Oppure, come ho detto io, si tratta solo della possibilità di fornire nuove possibilità di anti-aliasing e/o filtro anisotropico (storicamente questo è sempre stata una feature insita nel modello di GPU), ma non mi pare un qualcosa di esaltante
Esaltante sarebbe stato se fossero in grado di aumentare le prestazioni con tale filtro, come quando si scrive una paginata di codice e ci si accorge di poterlo accorciare a poche righe... ma non è semplicemente possibile

bs82
15-05-2007, 01:16
Il discorso è che proprio non ho capito in cosa consista questa "programmabilità" (dei driver? della gpu?)... e che abbia poi di così tanto speciale
Insomma, così a naso mi sembra una stronzata, una giustificazione per una architettura che necessita di "pappina pronta" per rendere al meglio...


Della programmabilità di R5xx (e quindi di R600 che ha di base il famoso ring bus) ci sono moltissimi assaggi in giro. Basti guardare l'incremento prestazionale dei giochi openGL con r5xx.

Fa finta che la GPU sia una fabbrica con attorno miriadi di autostrade e semafori.
Alcuni giochi si comportano su queste autostrade come dei camion, lenti e lunghi. Altri si comportano come auto o come moto, piccole, ancor più piccole e veloci o velocissime.
La programmabilità sta nel decidere, nell'arbitrare, tutti quei semafori che distribuisco (threading engine) i vari carichi trasportati dalla auto dai camion e dalle moto.

Ovviamente se ci sono più camion si agirà di conseguenza, ad esempio rendendo i semafori rossi più lunghi e i gialli anche (camion grossi, lenti e con molta inerzia), se ci sono più moto semafori con gialli più lunghi e via così...a seconda delle studi sul traffico (profiling dei driver a seconda dei giochi)

Oltre a questo la programmabilità si estende all'interno della GPU stessa, dove le "catene di montaggio" devono adattarsi ai quintali di materiali trasportati dai camion o ai pochi kg delle auto e delle moto.... e via dicendo.

Le autostrade sono il ring bus, i semafori sono gli arbitrer, le catene di montaggio sono i blocchi interni di R600.
I materiali trasportati sono le istruzioni, i comandi. Che possono essere istruzioni grosse non ottimizzate che necessitano di tanti cicli di clock, tante piccole operazioni che vengono eseguite in parallelo. Oppure, da quello che ho capito, grosse e lunghe istruzioni ottimizzate che sono il pane per i denti di R600.

Esempi talmente terra a terra da essere ridicoli...ma penso che un po calzino la situazione e il significato di programmabilità di queste GPU.

eldolcefarnienteditommy
15-05-2007, 01:19
Ora capisco perche' non usciva...

bluefrog
15-05-2007, 01:24
Perchè c'era traffico in autostrada

Samuele86
15-05-2007, 01:25
eh si...come supponevo...un vero troiaio!!mamma ke pena...mi è caduta tantissimo la ati...e io ke speravo...va beh...venderò la mia 8800gts ahhaha...così ci faccio un pò di soldini visto ke va piu di questa radeon...KE BUCO NELL'ACQUA!!

bs82
15-05-2007, 01:33
Perchè c'era traffico in autostrada

:D

e i semafori sono rotti!

:sofico:

bluefrog
15-05-2007, 01:39
:D :D

MiKeLezZ
15-05-2007, 01:40
grazie della spiegazione, mi è già un po' più chiaro...
ma la g80 non sono programmabili anch'esse? se così fosse, non vedo perchè "bagnarsi i pantaloni" per tale feature su r600...
quindi si spiegherebbe anche l'esaltazione per i nuovi driver, in pratica si aspetta che li ottimizzino a seconda del giochi, in modo che così l'hardware si modelli al codice del gioco (nulla di miracoloso, comunque...)
un po' una cagata in parer mio, ma presumo che grazie/per colpa dell'elevata parallelizzazione, a meno di creare un'architettura unica fra ati/nvidia, questa sia per ora l'unica strada percorribile

bs82
15-05-2007, 01:54
grazie della spiegazione, mi è già un po' più chiaro...
ma la g80 non sono programmabili anch'esse? se così fosse, non vedo perchè "bagnarsi i pantaloni" per tale feature su r600...


Certo anche G80! Non ho mai detto di no... Il fatto è che magari possiamo dire che G80 e R5xx erano altamente programmabili in modo facile... In R600 ci hanno ficcato dentro dentro delle robe che ORA non servono, e quindi tutta la programmabilità diventa di una difficoltà assurda... E sono parole di Beyond3D... Li c'è un'ottima disquisizione tecnica sulla programmabilità di R600.

mjordan
15-05-2007, 02:25
cmq quoto un post molto interessante preso da un altro forum ke secondo me è molto ragionevole:

La complessità di questo chip è veramente molto elevata, probabilmente le sue prestazioni poco esaltanti in Dx9 sono dovute al fatto che queste Api e i giochi attuali non sfruttano tutte le innovazioni tecniche di questa scheda al contrario di una "più conservativa" serie 8 Nvidia che invece va decisamente meglio con giochi e benchmark attuali...chissà se fra qualche mese con driver sicuramente più ottimizzati e con i primi giochi dx10 si potranno vedere le reali prestazioni di questo chip

Guarda, sicuramente le DirectX 9 non sono l'habitat naturale di queste schede, ma nella storia delle GPU non è mai successo che una scheda facesse cagare con l'API precedente e fossero delle bombe con la versione corrente. ;) Non facciamoci troppe illusioni perchè con i titoli DirectX 10 queste prestazioni elevate anche da parte della serie 8 di nVidia saranno piu' che ridimensionate.

Io queste schede le vedo meglio pensandole come ultimo stadio delle DirectX 9 che non come le prime schede DirectX 10 (e qui' mi riferisco sia a ATI che a nVidia). Per i prossimi titoli DirectX 10 nativi, almeno come la storia insegna, ci vorrà ben altro che ciò che abbiamo adesso sul mercato. Per lo meno non schede di transizione come queste. nVidia è piu' avvantaggiata perchè la transizione l'ha fatta 6 mesi fa. Ora però è ora di tirare fuori schede che siano fatte per far girare giochi DirectX 10, e non solo schede "DirectX 10 compliant".

I titoli di prossima generazione non sono poi lontani. Questa di ATI secondo me al loro lancio diverrà l'ultima scheda della fascia bassa mentre quelle di nVidia appena di fascia media (parlando delle attuali top).

E' sempre stato cosi. Metti i supporti e tutto quello che ti pare, ma la complessità computazionale è sempre in aumento, pertanto queste schede, ora come ora, sono e rimangono il top per le DirectX 9 ma solo l'inizio appena sufficiente per le DirectX 10.

mjordan
15-05-2007, 02:26
Perchè c'era traffico in autostrada

Oh mamma :rotfl:

Free Gordon
15-05-2007, 02:44
La realtà è che questa X2900XT è sì migliore delle precedenti X1900 (quantomeno il tent si può deselezionare e l'edge verrà poi in soccorso), ma è sempre indietro come qualità visiva rispetto le 8800

Per quanto riguarda l'AF concordo (da rece di B3D), per l'AA no. Per ora è migliore su ATI.

Free Gordon
15-05-2007, 02:50
Invece del quadratino con le mattonelle di Oblivion avrei preferito anche l'AF tester...Se io proclamo aumenti di fps in oblivion mi aspetto che i recensori testino proprio l'IQ di quel gioco , e sapendo che l'AF adattativo va ad interessare le texture più comunemente usate , hanno tolto la possibilità di attivarlo dappertutto ...(HQ AF) così da non avere un metro di paragone effettivo....E' la cosa non mi sembra del tutto corretta...

Concordo sull'avere la prova dell'AF tester...
ma fino a prova contraria, stando ai commenti della release note, negli ultimi l'AF è sempre su HQ, per cui non vedo perchè pensare che "la cosa non sia del tutto corretta"..

Free Gordon
15-05-2007, 02:56
grazie della spiegazione, mi è già un po' più chiaro...
ma la g80 non sono programmabili anch'esse? se così fosse, non vedo perchè "bagnarsi i pantaloni" per tale feature su r600...

Occhio che G80, dall'uscita di novembre ad oggi, solo grazie ai driver ha preso 20-25 punti percentuali in certi casi...
G80 è programmabile ma ad un livello molto più basilare, un pò come lo era R520.


quindi si spiegherebbe anche l'esaltazione per i nuovi driver, in pratica si aspetta che li ottimizzino a seconda del giochi, in modo che così l'hardware si modelli al codice del gioco (nulla di miracoloso, comunque...)
un po' una cagata in parer mio, ma presumo che grazie/per colpa dell'elevata parallelizzazione, a meno di creare un'architettura unica fra ati/nvidia, questa sia per ora l'unica strada percorribile

Certamente.
nVidia è da anni che ha i "profili" nei driver, ora ATI ha intenzione di fare una cosa simile ma in modo molto più profondo.
Imho è un'impresa titanica.. per questo sta scheda mi ricorda molto la 8500... (che non era "programmabile" ma aveva dei driver orrendi)
Cmq rimango fiducioso. :D

johnson
15-05-2007, 03:04
http://uk.theinquirer.net/?article=39578

Qui viene proposto un documento interno di nvidia (da prendere con le pinze quindi :D ) . Era stato postato in qualche thread ma volevo riproporlo per il discorso del AA.
Il tizio di nvidia dice in sostanza che l'approccio al AA di ATI in R600 è molto simile al quincunx delle geforce3 e che loro l'avrebbero abbandonato a suo tempo su consiglio della comunità di gamers. Creava un fastidioso effetto blurr che sembra sia presente anche in R600.
C'è però da dire che, se il futuro dell'AA fosse via software, ATI sarebbe in vantaggio su Nvidia per la prossima generazione di schede. Anche nvidia dovrà prima o poi delegare il calcolo dell'AA agli shaders (o inventarsi qualcos' altro , non sono abbastanza ferrato :D ).

ma domani non lavorate :D:D:D ? io si!

mjordan
15-05-2007, 03:24
ma domani non lavorate :D:D:D ? io si!

Io sto in ferie per una settimana :fuck:

lowenz
15-05-2007, 07:47
http://uk.theinquirer.net/images/articles/nV_FUD_04.jpg

galaxygalaxy
15-05-2007, 09:00
non seguo di continuo la discussione, ma pensavo di prenderla questa hd2900xt, ma alla luce delle varie recensioni posso capire due cose: o la scheda è troppo proiettata nel futuro e quindi ad oggi non viene sfruttata (questo purtroppo accada sempre quando si vuole implementare tecniche che ancora sono del tutto acerbe e quindi mgari il chip è ottimo, ma ahimè mal sfruttato), oppure il chip sulla carta è quello che è (ovvero di fatto superiore al G80) ma all'atto pratico magari ha un solo collo di bottiglia che lo rende "lento". Spero sia quest'ultima così magari in tempi brevi magari scoprono cos'è che hanno sbagliato e lo sistemano.

safendi
15-05-2007, 09:10
Occhio che G80, dall'uscita di novembre ad oggi, solo grazie ai driver ha preso 20-25 punti percentuali in certi casi...
G80 è programmabile ma ad un livello molto più basilare, un pò come lo era R520.




Certamente.
nVidia è da anni che ha i "profili" nei driver, ora ATI ha intenzione di fare una cosa simile ma in modo molto più profondo.
Imho è un'impresa titanica.. per questo sta scheda mi ricorda molto la 8500... (che non era "programmabile" ma aveva dei driver orrendi)
Cmq rimango fiducioso. :D

sarà programmabile a livello basilare ma fa il c....o alla 2900, meglio cose semplici ma veloci ke robe complesse e lente :sofico: :sofico:

lucio68
15-05-2007, 09:28
sarà programmabile a livello basilare ma fa il c....o alla 2900, meglio cose semplici ma veloci ke robe complesse e lente :sofico: :sofico:

Se è vero che il chip ATI è così complesso e proiettato verso il futuro, o gli ingegneri hanno sbagliato i tempi, facendolo uscire con troppo anticipo, oppure sono stati troppo ambiziosi, pensando di riuscire a ottimizzare un prodotto in meno tempo del necessario.
In ogni caso una gpu full dx10 non so quanto sia effettivamente utile oggi o quando sarà sfruttata come si deve...

ninja750
15-05-2007, 09:34
il discorso è sempre lo stesso

vedremo al primo vero gioco dx10 che uscirà come si comportano

anche se ci sarà poi sempre la scusa "ma questo non è dx10 nativo" ma è stato fatto un porting dalle dx9c ;)

tmx
15-05-2007, 09:39
per ora è un SUPERPACCO.
e nessuno può dire esattamente se/quanto/quando la ottimizzeranno...

ps consumo e calore sono S:C:A:N:D:A:L:O:S:I !!!

DVD2005
15-05-2007, 09:45
non seguo di continuo la discussione, ma pensavo di prenderla questa hd2900xt, ma alla luce delle varie recensioni posso capire due cose: o la scheda è troppo proiettata nel futuro e quindi ad oggi non viene sfruttata (questo purtroppo accada sempre quando si vuole implementare tecniche che ancora sono del tutto acerbe e quindi mgari il chip è ottimo, ma ahimè mal sfruttato), oppure il chip sulla carta è quello che è (ovvero di fatto superiore al G80) ma all'atto pratico magari ha un solo collo di bottiglia che lo rende "lento". Spero sia quest'ultima così magari in tempi brevi magari scoprono cos'è che hanno sbagliato e lo sistemano.

avendo tu una buona vga penso tu possa aspettare gli eventi per avere un quadro più preciso.

lucio68
15-05-2007, 09:45
Avevate già visto questo?

Tech News
Leaked Radeon 2900 XTX benchmarks reveal disappointment

By Stevie Smith Apr 27, 2007, 18:04 GMT

Regardless of the pre-launch hype and frantic chest-beating emanating from AMD regarding its incoming ATI Radeon HD 2900 XTX, it would appear that an advance benchmark test has revealed disappointing results when compared against the performance of the existing Radeon 2900 XT.

More specifically, technology Web site DailyTech, often considered a reliable source of leaked and advance information, has performed a thorough benchmark test of AMD/ATI’s new top-tier graphics card, with its results revealing relatively lacklustre figures when assessed against widespread expectation.

When compared to the site’s previous benchmark testing of the Radeon 2900 XT, DailyTech claims that its test unit of the 2900 XTX (1GB of GDDR4, 2.02GHz, 750MHz) largely failed to offer much by way of solid improvement, while, worryingly, it was revealed that the XTX also pushed a lower fps (frames per second) rate than the existing XT card across various resolutions. Also, the XTX was vastly overshadowed in the test by NVIDIA’s GeForce 8800 GTX, which was consistent in its performance advantage.

AMD, which is lauding the Radeon HD 2900 XTX as its flagship graphics card, is hoping that its upcoming DirectX 10 line-up is able to forge deep inroads into a market generally led by NVIDIA and, most recently, its GeForce 8800 GTX – which is also soon due to receive its 8800 Ultra upgrade – but on this evidence, that might not be the case.

“The less than stellar performance benchmarks are no surprise to board partners and AMD insiders. Two independent ATI board builders told DailyTech that Radeon HD 2900 XTX will not be a part of their initial portfolios,” commented DailyTech following its benchmark test (much of which was refuted by the site’s forum posters). “Given the additional memory cost and bulky card footprint, it seems unlikely the XTX will ever see the light of day,” it concluded somewhat gloomily.

The benchmark test, conducted in multiple resolution settings across games including Company of Heroes, F.E.A.R., Half-Life 2: Episode 1, and The Elder Scrolls IV: Oblivion, saw the GeForce GTX consistently out performing the ATI competition, both XT and XTX.

Se è vero si mette proprio male pe ATI...

firmus
15-05-2007, 09:50
IMHO il problema principale è l'effettiva validità delle scelte architetturali eseguite nella progettazione della GPU.
Molto bello il ring bus interno a 1024 bit con i ring stop in prossimità delle memorie on board o l'interfaccia pci-x, il setup engine e l'ultra threaded display processor per la preparazione/ottimizzazione dei dati in base al tipo di applicativo eseguito, etc..
Tuttavia mi chiedo...quali sono gli effettivi tempi di ritardo/propagazione dei segnali attraverso tutte queste componenti?Quanti cicli di attesa sono stati inseriti dai progettisti per mantenere stabile il sistema?Che limitazioni fisiche possiede in termini di "programmabilità"?
Spesso si parla solo di frequenze e bus paralleli da millemila bit, quando poi all'interno ci sono dei colli di bottiglia non indifferenti.
Per i "numeri" che vanta questa architettura va stranamente lenta..
Ciauz

galaxygalaxy
15-05-2007, 10:00
avendo tu una buona vga penso tu possa aspettare gli eventi per avere un quadro più preciso.

Visto l'attuale situazione aspetterò un pò. Ma davvaero la x1800xl per Te è una buona scheda? :D

Non pensi che sia il caso di cambiarla? :p

A parte lo scherzo, volevo giocare ad oblivion e a fear senza il ben che minimo scatto (cosa purtroppo che la x1800xl ha..... scatta abbastanza) e quindi pensavo che prendendo una HD2900xt potevo finalmente godermi al max questi giochi, ma penso proprio che aspetterò....... si ma quanto? :muro:

DVD2005
15-05-2007, 10:23
Visto l'attuale situazione aspetterò un pò. Ma davvaero la x1800xl per Te è una buona scheda? :D

Non pensi che sia il caso di cambiarla? :p

A parte lo scherzo, volevo giocare ad oblivion e a fear senza il ben che minimo scatto (cosa purtroppo che la x1800xl ha..... scatta abbastanza) e quindi pensavo che prendendo una HD2900xt potevo finalmente godermi al max questi giochi, ma penso proprio che aspetterò....... si ma quanto? :muro:

è una scheda di fascia media se non ricordo male, per cui qualche mese non ti cambia la situazione.

Chilea
15-05-2007, 10:24
X Ratatosk (commento 430).
No, guarda, dal punto di vista "squisitamente" tecnologico (e non economico) ritengo sia corretto confrontare top di gamma con top di gamma.
Che poi l'ATI costi meno è quasi una "necessaria" conseguenza (alla minore capacità prestazionale).
Bye

Mercuri0
15-05-2007, 10:32
Non so se ne avete già parlato, ma sia su ars che su anand hanno individuato un paio di colli di bottiglia.

Su ars dicono che ci sarebbe uno stadio di "traduzione" semisoftware per accedere alle funzionalità di quel che è ormai uno steam processor, e questo è cloccato a frequenza minore del core! Ma potrebbe essere possibile scrivere driver che non lo usino.

Su anand corre voce (ma solo voce) che la circuteria per l'antialiasing sull'R600 semplicemente non funzioni (per problemi di costruzione elettronica), e i tecnici hanno rappezzato usando gli shader per fare l'antialiasing.

phil anselmo
15-05-2007, 10:33
più che altro mi chiedo:
ma questa 2900XT non dovrebbe essere la concorrente diretta della futura 8900GTS o come si chiamerà??? :what:
voglio dire, se una x9xx prende schiaffi da una x8xx, cosa succederà quando usciranno le 8900???
insomma, tutto questo non mi convince, scheda deludente sotto molti punti di vista, non la vedo chiara, secondo me ci sarà qualche colpo di scena... :rolleyes:

p.s. x tutti quelli che rimproverano AMD per aver acquisito "una pippa come ATi", questa scheda non è niente di che, e siamo tutti d' accordo, però non esageriamo, la serie X1000 non mi è sembrata così inferiore alla serie 7 di nvidia (come disse qualcuno, schede doppie a parte), o sbaglio??? :asd:

Murphy
15-05-2007, 10:41
più che altro mi chiedo:
ma questa 2900XT non dovrebbe essere la concorrente diretta della futura 8900GTS o come si chiamerà??? :what:
voglio dire, se una x9xx prende schiaffi da una x8xx, cosa succederà quando usciranno le 8900???
insomma, tutto questo non mi convince, scheda deludente sotto molti punti di vista, non la vedo chiara, secondo me ci sarà qualche colpo di scena... :rolleyes:

p.s. x tutti quelli che rimproverano AMD per aver acquisito "una pippa come ATi", questa scheda non è niente di che, e siamo tutti d' accordo, però non esageriamo, la serie X1000 non mi è sembrata così inferiore alla serie 7 di nvidia (come disse qualcuno, schede doppie a parte), o sbaglio??? :asd:



poi al solito usciranno x250xt, 8850gt. x8800 turbo, x2850 SEDICI multijet ec....:D

[KS]Zanna
15-05-2007, 10:41
Strano... sia computerbase che dinoxPC usano le 8.37.4.2

http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=4

Ho guardato la recensione su DinoxPC (+ per scrupolo che per altro, non me ne voglia il redattore) e con tutto il rispetto non so quanto siano attendibili quei test: noto discrepanze che definire "notevoli" sarebbe un eufemismo!
Si guardi ad esempio i risultati in FEAR con 4xAA e 16xAA della GTX: o sono stati usati i driver di novembre 2006 o non riesco proprio a capire come possano saltare fuori quei valori.

Per chi invece parla di deferred shading nei giochi, ricordo che tale tecnica è in uso già da tempo, non è saltata fuori con STALKER e con l'UE3 (GRAW è uscito da un annetto): se effettivamente ATi avesse volutamente deciso di implementare l'anti aliasing con gli shader processor invece che con la circuiteria dedicata vorrebbe dire che in tali giochi vedremmo la possibilità di avere l'AA, cosa che non mi sembra accada...
Come riportava LeoneAzzurro, su Anand dicono chiaramente (anche se a livello di speculazione) che la circuiteria dedicata c'era ma che non non sono riusciti a farla funzionare: ergo, mi aspetto che con la versione nuova a 65nm correggano l'eventuale problema.

Raven
15-05-2007, 10:53
Zanna;17126989']
Come riportava LeoneAzzurro, su Anand dicono chiaramente (anche se a livello di speculazione) che la circuiteria dedicata c'era ma che non non sono riusciti a farla funzionare: ergo, mi aspetto che con la versione nuova a 65nm correggano l'eventuale problema.

Io spero proprio di no, perché se sta cosa fosse vera (bug a livello hardware) allora questa sarebbe una motivazione più che valida per evitare sta scheda come la peste!... (chi è il fesso che la compra, sapendo di un difetto "strutturale" che sarà corretto con la prossima, non lontana, release?!?)

Dreadnought
15-05-2007, 11:02
Dipende a che prezzo te la metto, questa sceda è quesi discreta senza AA e abbastanza scarsa con AA, quindi se la mettessero con una fascia di prezzo tra la 8800 e la 8600GTS, chi non ha problemi di rumore e consumi ci fa un pensierino.

dwfgerw
15-05-2007, 11:08
http://uk.theinquirer.net/?article=39578

l'approccio VLIW di ATi sembra far girare i pollici a diverse unità... l'approccio scalare di nvidia sfrutta sempre tutte le alu disponibili...

[KS]Zanna
15-05-2007, 11:17
Io spero proprio di no, perché se sta cosa fosse vera (bug a livello hardware) allora questa sarebbe una motivazione più che valida per evitare sta scheda come la peste!... (chi è il fesso che la compra, sapendo di un difetto "strutturale" che sarà corretto con la prossima, non lontana, release?!?)

Guarda, la tua ultima frase, anche senza il presupposto del baco hardware, adesso come adesso potrebbe essere tranquillamente applicabile.
Non mi piace mai essere categorico ma ora come ora la 2900 è una scheda da non comprare: tra un paio di mesi, quando i driver saranno + maturi e le necessarie ottimizzazioni saranno state inserite si potrà fare una valutazione + accurata.
Adesso come adesso, dati i consumi, la rumorosità e le alternative allo stesso prezzo o quasi la vedo ardua che qualcuno possa consigliare l'acquisto di questo prodotto rispetto alla controparte.
E bada bene che lo dico con rammarico xchè un anno fa, quando ho assemblato il nuovo PC, ho avuto brutte esperienze con nVidia (mi si sono fottute 3 7900 GT in stecca per colpa del regolatore di tensione del circuito di alimentazione delle ram) al punto da ripromettermi di non comperarne più.
Ho una X1900XT che non mi ha mai dato pbm, ma con i giochi nuovi arranca un po' (e sono a 1280x1024!) e speravo che le prestazioni e il prezzo della 2900 mi convincessero a fare il cambio...

P.S.
Tempo fa, all'epoca dei Catalyst 6.11 e 6.12 beta, si parlava di EATM e di Alpha Coverage che sarebbero stati introdotti ufficialmente nei driver con l'avvento di R600: a tutt'oggi (cat 7.4) sulla mia X1900 non sono mai riuscito a vederne i benefici (nonostante ad ogni cambio driver abiliti le opportune chiavi di registro)... si sa qualcosa?

dovella
15-05-2007, 11:18
Eccovi il sito di Lost Planet con tanto di Countdown per il demo
http://www.lostplanetcommunity.com/
Da adesso mancano circa 15 ore.
Buon Download

MenageZero
15-05-2007, 11:20
Tue speculazioni... :)

Io non ho parlato di driver programmabili (perchè è ovvio che lo siano), ho detto hw altamente programmabile (dallo shader core al memory controller).
Grattacapi che nVidia non ha, insomma. ;)

ma quindi l'hw di g80 non è programmabile o lo è in maniera del tutto trascurabile rispetto a quanto possibile con r600 ? :wtf: (ma non è dai tempi di gf3 & 8500 che entrambi parlano di gpu programmabili ?)

overmod
15-05-2007, 11:28
Per quanto mi riguarda nè delusioni nè traumi nè sorprese particolari. Secondo me sono questi gli elementi che saltano fuori osservando la situazione attuale e cercando di vedere un pò oltre (cosa sempre problematica nel campo dei componenti per PC):

1. Nvidia con la sua architettura G80 ha arraffato in blocco il mercato High end grazie a una straordinaria GPU Direct X 9 e mezzo.

2. Ati ha seguito logiche differenti. Innovazione innanzitutto, un pò la logica AMD, che non a caso ne è il proprietario. La Gpu R600 mi sembra che introduca novità tecnologiche molto più significative (ad es. Bus della memoria a 512 Bit) ma mi sembra anche una GPU lanciata fregandosene completamente delle logiche di marketing. La enorme forbice prestazionale che offre fra applicazioni DX9 e DX10 evidenzia proprio che hanno cercato di innovare senza curarsi dell'attuale panorama dei giochi 3D presenti sui PC dei potenziali clienti. Inoltre fra le applicazioni DX9 si osservano comportamenti strani e difficilmente spiegabili se non con la non maturità di questo prodotto(vedi temperature e consumi). La sensazione che ho io è che questa GPU non rivesta una tappa fondamentale della strategia AMD. Troppi sono i punti deboli di questa scheda nello scenario attuale e alla AMD lo sanno bene. Non credo che abbiano intenzione di produrne miliardi di unità...Impossibile oggi come oggi capire il motivo di tale autolesionismo commerciale, probabilmente anche loro speravano in qualcosa di più, in un prodotto un pò più flessibile, anche se certamente non in grado di competere con le soluzioni top di Nvidia, la quale dal canto suo ha sfornato una GPU particolarmente valida e adatta ad interpretare al meglio questa fase di transizione da DX9 a 10.

3. I drivers possono ottimizzare, non fanno diventare il piombo oro.



Considerazione personale e e un pò folle:
AMD ha comprato Ati perchè vuole impadronirsi del mercato puù appetibile ad oggi. I notebook. Fusion è un progetto che nasce con questo preciso scopo ed è lì che adesso tutti gli sforzi o quasi sono concentrati. Un Notebook potente come una workstation, in grado di lavorare in modo agevole nei più esigenti ambienti software (penso in particolare alla progettazione) e che non consuma una mazza è il sogno di tanti. AMD sembra dire: delle precedenti strategie del neo acquisto Ati e della sua eterna lotta con Nvidia al momento non ci curiamo, per non perdere di vista l'obiettivo ultimo e soprattutto per non disperdere risorse vitali. Non è il mercato enthusiast che muove le bocce, come non è la F1 che fa il fatturato della BMW. I bei risultati ottenuti lì hanno certamente importanti risvolti di marketing e di prestigio ma se un prodotto è vincente lo sarà comunque, a prescindere. E quando ci sono i capitali fare ricerca, investire in cervelli e tornare di cattiveria anche sul mercato enthusiast è molto più agevole.
E' altrettanto vero che il business di questo livello è una continua serie di scommesse, si possono perdere e si possono vincere. E non è affatto scontato che AMD riesca a vincere le sue. Per la concorrenza e per ciò che di positivo da essa deriva per noi consumatori sarà bene che le vinca.

MenageZero
15-05-2007, 11:37
cmq quoto un post molto interessante preso da un altro forum ke secondo me è molto ragionevole:

La complessità di questo chip è veramente molto elevata, probabilmente le sue prestazioni poco esaltanti in Dx9 sono dovute al fatto che queste Api e i giochi attuali non sfruttano tutte le innovazioni tecniche di questa scheda al contrario di una "più conservativa" serie 8 Nvidia che invece va decisamente meglio con giochi e benchmark attuali...chissà se fra qualche mese con driver sicuramente più ottimizzati e con i primi giochi dx10 si potranno vedere le reali prestazioni di questo chip

sarà che io non sono neanche lontanamente un vero esperto del settore, ma se confronti l'arch. di g80 con le gpu precedenti non sembra affatto conservativa...
detto questo. magari alla fine r600 svetterà proprio con i giochi dx10, ma non mi pare al momento si possa assumere questo come altamente probabile a priori solo xché alla presentazione in dx9 non ha superato tutte le versioni di g80, come in molti ci aspettavamo (almeno fino a qualche settimana fa)


un interrogativo generale sulla qustione drivers: sono sicuro che nel tempo anche r600 avrà dei miglioramenti prestazionali e anche di sensibili, xché questo avviene praticamenet sempre o quasi con tutte le nuove gpu;
tuttavia il fatto che r600 sia rimasto "a casa" in preparazione per un 6 mesi in più rispetto alla concorrenza e il fatto che si accreditava il lavoro sui drv come una delle principali cause del ritardo, non potrebbe far "temere" che r600 non abbia margini di miglioramento nell'ottimizzazone dei drv residui uguali o superiori a quelli che g80 ha avuto e sta avendo a partire dal momento della presentazione ?

Paolo Corsini
15-05-2007, 11:40
Scusa Alessandro un informazione:
Sai qualcosa della tecnologia "Stream Processor" mostrata durante la presentazione DEMO dell' AGENA FX???
Inoltre che fine ha fatto la tecnologia "GPU PHYSICS"?
Grazie...
Ciao
stream processor demo: hanno mostrato come, con alcune tipologie di calcoli, riescano a sfruttare le GPU R600 per calcolo parallelo arrivando con un sistema Crossfire leggermente overcloccato a 1 TeraFLOPs di potenza. Sono casi estremi, e 1 teraFLOP fa molto marketing ;)
GPU Physics: sia per ATI che per NVIDIA molto marketing, poca sostanza. Mancano i driver, e soprattutto i giochi che sfruttino queste GPU per elaborazioni legate alla fisica. Tanto fumo, niente arrosto per dirla con un detto ben noto.

phil anselmo
15-05-2007, 11:46
poi al solito usciranno x250xt, 8850gt. x8800 turbo, x2850 SEDICI multijet ec....:D

sì ok, ma non ci siamo cmq, perché se una 2900XT debba competere con una 8800GTS, le X2950 competeranno con le 8900...
e le 8950??? se ne staranno sole solette a godersi il dominio indiscusso :boh:

MenageZero
15-05-2007, 11:52
...
1. Nvidia con la sua architettura G80 ha arraffato in blocco il mercato High end grazie a una straordinaria GPU Direct X 9 e mezzo.
...

...
Fusion è un progetto che nasce con questo preciso scopo ed è lì che adesso tutti gli sforzi o quasi sono concentrati. Un Notebook potente come una workstation, in grado di lavorare in modo agevole nei più esigenti ambienti software (penso in particolare alla progettazione) e che non consuma una mazza è il sogno di tanti.
...

a questo punto sto diventando veramente curioso riguardo ai motivi concreti per cui g80 non sia da ritenere una gpu dx10, se qualcuno potesse esporne le evidenze tecniche gilene sari molto grato, dato che non è la prima volta che sento questa corrente di pensiero e mi pare anche che la frequenza delle relative citazioni ultimamente con l'avvicinarsi e poi il disvelarsi di r600 sia andata intensificandosi
:wtf:

riguardo a "fusion", premesso che non ne so' molto i dettaglio, mi pare che si sia sempre parlato delle relative gpu integrate nella cpu o "core-grafici" che dir si voglia, come soluzioni, che pur rappresentando un netto migliramento rispetto a tante altre ora disponibili nel rapporto prstazioni/consumi, saranno di fascia bassa per quanto rigurada le prestazioni offerte,

e non potenze di calcolo "stratosferiche" quasi "aggratis" per quel che rigurda i consumi

:boh:

ghiltanas
15-05-2007, 11:54
cmq il discorso driver, come ho già detto, è un'aggravante, pesante fra l'altro, xkè nn solo è impensabile un ritardo di 6 mesi rispetto alla concorrenza, è impensabile anche nn presentarsi con driver nn dico ottimizzati ma almeno efficienti, io la vedo come una mancanza di impegno e professionalità.

e poi trovo molto discutibile il lancio ritardato delle fascie medie (se cosi si possono definire ormai), mi immagino già (purtroppo per noi) che c***i saranno visto che sono castrazioni estreme della 2900

halduemilauno
15-05-2007, 11:55
a questo punto sto diventando veramente curioso riguardo ai motivi concreti per cui g80 non sia da ritenere una gpu dx10, se qualcuno potesse esporne le evidenze tecniche gilene sari molto grato, dato che non è la prima volta che sento questa corrente di pensiero e mi pare anche che la frequenza delle relative citazioni ultimamente con l'avvicinarsi e poi il disvelarsi di r600 sia andata intensificandosi
:wtf:

riguardo a "fusion", premesso che non ne so' molto i dettaglio, mi pare che si sia sempre parlato delle relative gpu integrate nella cpu o "core-grafici" che dir si voglia, come soluzioni, che pur rappresentando un netto migliramento rispetto a tante altre ora disponibili nel rapporto prstazioni/consumi, saranno di fascia bassa per quanto rigurada le prestazioni offerte,

e non potenze di calcolo "stratosferiche" quasi "aggratis" per quel che rigurda i consumi

:boh:

ma quella di nove e mezzo era una battuta.
;)

Jon_Snow
15-05-2007, 11:55
Rispondo solo oggi a topic "meno caldo".

Quando DailyTech ha parlato non avevo più dubbi una delle più grandi delusioni degli ultimi anni. Però mi sarei quanto meno aspettato una scheda dalle prestazioni a cavallo tra GTS e GTX ed invece non è così dato che la scheda nVidia troppo spesso è avanti. Non mi stupiscono i consumi, quello spaventoso numero di transistor in qualche modo si doveva pagare...

Non ho letto il topic, ma immagino che la discussione avrà avuto come punto focale la maturità dei driver. Sicuramente sono acerbi, è facilmente riscontrabile dal comportamento molto altalenante tra i vari test: delle volte si comporta quasi quanto una GTX altre volte perfino peggio della 1950XTX. Il problema è che tutto gioca tutt'altro che a favore di ATi la quale in 6 mesi in più non è stata in grado di ottimizzare decentemente le sue schede.

Si vede proprio che i 512bit di BUS uniti ad una architettura decisamente più complessa della G80 sono stati uno sforzo notevole. Spiegherebbe anche il ritardo accumulato. A lungo termine, quando le dx10 saranno a regime e arriverà il nuovo ricambio generazionale, ATi potrebbe sfruttare il vantaggio di tutto lo know-how accumulato con questa scheda meno conservativa rispetto alla G80. Ma è troppo presto per farneticare predizioni future anche perché nVidia ora può, con tutta calma, pensare alle schede future.

La mia ultima - ma molto remota oramai - speranza è che questa nuova architettura si adatti bene a schede di fascia medio-bassa. Le 8600 non mi hanno soddisfatto per niente e se pure ATi toppa è la dimostrazione di come il mercato VGA si sta spostando sempre di più verso la fascia alta.

--------------------------


Prima di chiudere volevo fare innanzitutto i complimenti alla redazione per l'ottimo lavoro svolto. La recensione è molto esaustiva anche se in alcuni punti forse potrebbe risultare essere poco chiara a chi non ha padronanza con certi termini.

L'unico appunto che mi sento di fare è l'assenza di qualche test qualità sul nuovo Avivo (mi sfugge ora la nuova sigla, perdonatemi) ed anche un paio di test sulla qualità audio del chip incluso nel R600 non avrebbe stonato. In futuro il fattore multimediale delle schede video diventerà sempre più importante e non credo che posso più ritenere completa una recensione che analizza solo l'aspetto ludico che rimarrà certamente quello più importante, questo è ovvio.

ghiltanas
15-05-2007, 12:01
e poi francamente ( e personalmente ovvio) trovo stupido per vga di questo livello puntare cosi tanto sulla riproduzione di flussi video specie in hd(utilissimo...:rolleyes: prima che ci siano lettori blue-ray o hd-dvd sui pc passeranno 2 anni e ci saranno già le dx11) invece di puntare principalmente su quello che una vga deve fare: far girare bene i giochi!!! è quello che interessa a chi acquista una vga da 400 euro

johnson
15-05-2007, 12:03
e poi francamente ( e personalmente ovvio) trovo stupido per vga di questo livello puntare cosi tanto sulla riproduzione di flussi video specie in hd(utilissimo...:rolleyes: prima che ci siano lettori blue-ray o hd-dvd sui pc passeranno 2 anni e ci saranno già le dx11) invece di puntare principalmente su quello che una vga deve fare: far girare bene i giochi!!! è quello che interessa a chi acquista una vga da 400 euro

Quoto

ThePunisher
15-05-2007, 12:07
FLOP clamoroso... non c'è altro da dire...

ThePunisher
15-05-2007, 12:08
Rispondo solo oggi a topic "meno caldo".

Quando DailyTech ha parlato non avevo più dubbi una delle più grandi delusioni degli ultimi anni. Però mi sarei quanto meno aspettato una scheda dalle prestazioni a cavallo tra GTS e GTX ed invece non è così dato che la scheda nVidia troppo spesso è avanti. Non mi stupiscono i consumi, quello spaventoso numero di transistor in qualche modo si doveva pagare...

Non ho letto il topic, ma immagino che la discussione avrà avuto come punto focale la maturità dei driver. Sicuramente sono acerbi, è facilmente riscontrabile dal comportamento molto altalenante tra i vari test: delle volte si comporta quasi quanto una GTX altre volte perfino peggio della 1950XTX. Il problema è che tutto gioca tutt'altro che a favore di ATi la quale in 6 mesi in più non è stata in grado di ottimizzare decentemente le sue schede.

Si vede proprio che i 512bit di BUS uniti ad una architettura decisamente più complessa della G80 sono stati uno sforzo notevole. Spiegherebbe anche il ritardo accumulato. A lungo termine, quando le dx10 saranno a regime e arriverà il nuovo ricambio generazionale, ATi potrebbe sfruttare il vantaggio di tutto lo know-how accumulato con questa scheda meno conservativa rispetto alla G80. Ma è troppo presto per farneticare predizioni future anche perché nVidia ora può, con tutta calma, pensare alle schede future.

La mia ultima - ma molto remota oramai - speranza è che questa nuova architettura si adatti bene a schede di fascia medio-bassa. Le 8600 non mi hanno soddisfatto per niente e se pure ATi toppa è la dimostrazione di come il mercato VGA si sta spostando sempre di più verso la fascia alta.

--------------------------


Prima di chiudere volevo fare innanzitutto i complimenti alla redazione per l'ottimo lavoro svolto. La recensione è molto esaustiva anche se in alcuni punti forse potrebbe risultare essere poco chiara a chi non ha padronanza con certi termini.

L'unico appunto che mi sento di fare è l'assenza di qualche test qualità sul nuovo Avivo (mi sfugge ora la nuova sigla, perdonatemi) ed anche un paio di test sulla qualità audio del chip incluso nel R600 non avrebbe stonato. In futuro il fattore multimediale delle schede video diventerà sempre più importante e non credo che posso più ritenere completa una recensione che analizza solo l'aspetto ludico che rimarrà certamente quello più importante, questo è ovvio.

A 6 mesi di distanza ti aspettavi una scheda tra GTS e GTX? Io direi che tutti si aspettavano una scheda decisamente più veloce della GTX come sarebbe giusto in questo ambito di hardware ad alto livello, livello in cui ATI\AMD non sembra più in grado di competere.

ghiltanas
15-05-2007, 12:09
FLOP clamoroso... non c'è altro da dire...

il problema è che con molta probabilità il flop si estenderà ai suoi derivati hd2600

JOHNNYMETA
15-05-2007, 12:09
Con il driver giusto e a soli 370 euro, come si trova da domenica, è perfetta:

http://img185.imageshack.us/img185/9726/img0019995vl1.gif

ghiltanas
15-05-2007, 12:12
Con il driver giusto e a soli 370 euro, come si trova da domenica, è perfetta:

http://www.hardware.fr/medias/photos_news/00/19/IMG0019995.gif

scusa ma dopo i due punti nn ci vedo scritto nulla forse volevi inserirci 15 righe di :

:Prrr: :Prrr: :Prrr: :Prrr: :Prrr: :Prrr: :Prrr: :Prrr: :Prrr: :Prrr: :Prrr: :Prrr:

DVD2005
15-05-2007, 12:16
Con il driver giusto e a soli 370 euro, come si trova da domenica, è perfetta:

http://www.hardware.fr/medias/photos_news/00/19/IMG0019995.gif

adirittura sopra la Ultra...... non ti sembra esagerato ?

DakmorNoland
15-05-2007, 12:16
Il vero problema della scheda sono i consumi e la rumorosita', se non fosse per questi sarebbe un buon prodotto.

Cosi' invece fa schifo!!!

Aspettiamo le versioni a 65nm e speriamo bene.

halduemilauno
15-05-2007, 12:22
A 6 mesi di distanza ti aspettavi una scheda tra GTS e GTX? Io direi che tutti si aspettavano una scheda decisamente più veloce della GTX come sarebbe giusto in questo ambito di hardware ad alto livello, livello in cui ATI\AMD non sembra più in grado di competere.

certo che no. gia dall'inizio come progetto R600 doveva essere una scheda competitiva con la 8800gtx. dopo sei mesi questo era a maggior ragione doveroso e anzi in previsione di una probabilissima(ormai certa)8800ultra doveva essere competitiva anche con quest'ultima. e invece? è competitiva(e per stessa ammissione amd)(e non sempre) con la 8800gts640. ma rispetto alla quale costa di +(e molto di + rispetto alla versione 320). consuma di +. e genera + calore e rumore.
per non parlare poi dei problemi e ulteriori ritardi della serie inferiori.
;)

leoneazzurro
15-05-2007, 12:24
Zanna;17127434']Guarda, la tua ultima frase, anche senza il presupposto del baco hardware, adesso come adesso potrebbe essere tranquillamente applicabile.
Non mi piace mai essere categorico ma ora come ora la 2900 è una scheda da non comprare: tra un paio di mesi, quando i driver saranno + maturi e le necessarie ottimizzazioni saranno state inserite si potrà fare una valutazione + accurata.
Adesso come adesso, dati i consumi, la rumorosità e le alternative allo stesso prezzo o quasi la vedo ardua che qualcuno possa consigliare l'acquisto di questo prodotto rispetto alla controparte.
E bada bene che lo dico con rammarico xchè un anno fa, quando ho assemblato il nuovo PC, ho avuto brutte esperienze con nVidia (mi si sono fottute 3 7900 GT in stecca per colpa del regolatore di tensione del circuito di alimentazione delle ram) al punto da ripromettermi di non comperarne più.
Ho una X1900XT che non mi ha mai dato pbm, ma con i giochi nuovi arranca un po' (e sono a 1280x1024!) e speravo che le prestazioni e il prezzo della 2900 mi convincessero a fare il cambio...

P.S.
Tempo fa, all'epoca dei Catalyst 6.11 e 6.12 beta, si parlava di EATM e di Alpha Coverage che sarebbero stati introdotti ufficialmente nei driver con l'avvento di R600: a tutt'oggi (cat 7.4) sulla mia X1900 non sono mai riuscito a vederne i benefici (nonostante ad ogni cambio driver abiliti le opportune chiavi di registro)... si sa qualcosa?

Anche IxBt ha risultati simili a quelli di DinoxPC. Creedo sia la release dei drivers.

Portocala
15-05-2007, 12:25
per non parlare poi dei problemi e ulteriori ritardi della serie inferiori.
;)

ecco il vero problema, le serie inferiori. x2600 dove cavolo sono? altri 2 mesi? neah, molto meglio addio!

JOHNNYMETA
15-05-2007, 12:33
adirittura sopra la Ultra...... non ti sembra esagerato ?

Non è esagerato o sminuito è solo un fatto.

La vera questione è che i 96 o 128 shader della 8800 vanno a 750Mhzx2=1500mhz ma ha il bus a 384, mentre la 2900 ha 64 unità (o 320 microengine) a 742Mhz con bus a 512bit.

Jon_Snow
15-05-2007, 12:38
e poi francamente ( e personalmente ovvio) trovo stupido per vga di questo livello puntare cosi tanto sulla riproduzione di flussi video specie in hd(utilissimo...:rolleyes: prima che ci siano lettori blue-ray o hd-dvd sui pc passeranno 2 anni e ci saranno già le dx11) invece di puntare principalmente su quello che una vga deve fare: far girare bene i giochi!!! è quello che interessa a chi acquista una vga da 400 euro

Non credo proprio che ci impiegheranno così tanto, già i prezzi stanno subendo tagli consistenti. Nel giro di un anno saranno accessibili, soprattutto a chi ha le risorse per spendere 400€ solo per giocare.
Inoltre se R600 non da il massimo è per problemi di tutt'altra natura rispetto ai decoder video, non vedo dov'è il problema di avere una caratterista in più. Non tutti hanno la voglia di stare sempre dietro ad ogni nuova scheda video e trovarsi già la scheda capace di gestire questi flussi di certo male non fa.

Anzi, a volerla dire proprio tutta, io sono sempre più convito che il mercato VGA si sta spostando verso la multimedialità soprattutto per quanto riguarda la fascia medio-bassa.

A 6 mesi di distanza ti aspettavi una scheda tra GTS e GTX? Io direi che tutti si aspettavano una scheda decisamente più veloce della GTX come sarebbe giusto in questo ambito di hardware ad alto livello, livello in cui ATI\AMD non sembra più in grado di competere.

Hai estratto la frase senza considerare il contesto. Mi rispiego meglio. Dopo l'annuncio di DailyTech non ci speravo nemmeno ad una 2900 superiore alla 8800. Visto che la situazione era quella, mi sarei quanto meno aspettato un comportamento solo di poco inferiore alla top nVidia. Invece la differenza è troppo netta soprattutto alla luce del fatto che non c'è nessuna XTX in programma, almeno non al breve termine.

phil anselmo
15-05-2007, 12:39
cmq se si vanno a leggere le caratteristiche delle schede, per esempio HD2900XT e 8800GTX, la prima sembrerebbe notevolmente avvantaggiata:
320 stream processor contro i 128 della GTX
512bit contro i 320bit della GTX
16 unità texture contro gli 8 della GTX...
inoltre se si guarda il test di call of juarez in dx10 pare che la 2900XT sia al livello di una 8800GTX o anche un pelo sopra e per una scheda lanciata per far concorrenza alle GTS non sarebbe male come risultato...
insomma, io direi di aspettare ancora un pò per far uscir fuori le reali potenzialità di questo chip.
vedremo :boh:

DakmorNoland
15-05-2007, 12:40
Non è esagerato o sminuito è solo un fatto.

La vera questione è che i 96 o 128 shader della 8800 vanno a 750Mhzx2=1500mhz ma ha il bus a 384, mentre la 2900 ha 64 unità (o 320 microengine) a 742Mhz con bus a 512bit.

Si' + che altro il problema sono i driver.

Hardware upgrade dovrebbe provare a rifare tutti i test e pubblicarli tra qualche mese.

In ogni caso sti consumi sono propio una vergogna!!! Non e' possibile che ATI da quel lato non abbia ancora imparato! :rolleyes:

phil anselmo
15-05-2007, 12:50
Hai estratto la frase senza considerare il contesto. Mi rispiego meglio. Dopo l'annuncio di DailyTech non ci speravo nemmeno ad una 2900 superiore alla 8800. Visto che la situazione era quella, mi sarei quanto meno aspettato un comportamento solo di poco inferiore alla top nVidia. Invece la differenza è troppo netta soprattutto alla luce del fatto che non c'è nessuna XTX in programma, almeno non al breve termine.

guarda, quello che mi spaventa non è tanto che non ci sia ancora una XTX in programma, è che se una 2900XT debba competere con una GTS, e come ha detto hal, se pareggia con le prestazioni sicuramente perde dal lato consumi e prezzi, cosa dovrà inventarsi ATi quando usciranno le 8900???
le 2950???
e allora quando usciranno le 8950???
è queesto il dubbio, fin' ora avevamo assistito a "giuste" competizioni, 7800 vs X1800, 7900 vs X1900, 7950 vs X1950...
mi riservo comunque qualche incertezza sulle prestazioni in ambito DX10, non so perché ma qualcosa mi dice che avremo qualche sorpresa... :rolleyes:

johnson
15-05-2007, 12:51
...
Inoltre se R600 non da il massimo è per problemi di tutt'altra natura rispetto ai decoder video, non vedo dov'è il problema di avere una caratterista in più. Non tutti hanno la voglia di stare sempre dietro ad ogni nuova scheda video e trovarsi già la scheda capace di gestire questi flussi di certo male non fa.

Anzi, a volerla dire proprio tutta, io sono sempre più convito che il mercato VGA si sta spostando verso la multimedialità soprattutto per quanto riguarda la fascia medio-bassa.

...

Ti sei già risposto da solo. La multimedialità sta diventando sempre più importante nella fascia medio bassa non in quella alta.
I transistor che hanno usato per tutte le features multimediali, avrebbero potuto risparmiarseli per contenere calore e consumi. Oppure avrebbero potuto utilizzarli per potenziare il reparto texturing che da quello che ho capito è la metà di g80.
Forse è proprio l'alto numero di "utilizzi diversi" che ha creato problemi ad ATI in questa R600.

A meno che tutte ste cose non siano state inserite solo dopo aver constato le scadenti prestazioni della scheda (per ora)

Reignofcaos
15-05-2007, 12:56
Letto tutto... anche su altri forum... finalmente ho trovato il tempo...
Ci sarebber omolte cose da dire ma mi limito:
DELUSIONE

a sei mesi dalla presentazione di g80 presentano una vga spacciata per "fascia alta" che nn raggiunge neanche lontanamente le prestazioni di una GTX?
Ma, forse sono io che nn capisco il mercato:muro:
Sono sei mesi che c'è sugli scaffali la 8800GTS 640 e ATI/AMD tira fuori una scheda che dicono confrontoabile con la 640 ma che poi arranca addirittura dietro questa. E come se nn bastasse il consumo ASSURDO, più alto della 8800ULTRA con prestazioni ben superiori...

Ma forse son sempre io che nn capisco il mercato...:muro:

E il supporto drivers? Dopo sei mesi "drivers acerbi"... ma fatemi il piacere, io comincerei a parlare di vera e propia incompetenza a questo punto:mad:

Ultima nota dolente: il prezzo -> se voglio venderla la devono piazzare sotto la 8800GTS 640 e con dei drivere più che maturi, sia per XP che per Vista.
330€ ivato forse sarebbe appetibile... dare anache solo qualche decina di € in più sarebbe da poco accorti (e sono stao gentile:rolleyes: )

Ma forse è colpa mia che nn capisco il mercato:rolleyes:
...e per ora ve la lascio sugli scaffali:mad:

P.S. Stavo ragionando sul fatto che l'unica, vera, buona novità, nel segmento schede video, che questo 2007 ci ha portato, è stata la 8800 GTS 320... poi il vuoto:mc:
... e cmq aspettando tempi migliori per chi nn ha e nn vuole spendere "un milione del vecchio conio" (vedi 500€) per far girare dei "giochini":muro:

Lud von Pipper
15-05-2007, 13:05
Mhhh: mi puzza tanto di gia visto.
Ati9700 vs GeForce 5800 (con simili ritardi)
Giudizio complessivo: Bocciata.
Appunto e a me pare che la 5800 alla sua epoca avesse deluso anche meno, a parte incognita dx10, oramai ci agrappiamo a quello.

Beh, magari non esageriamo.
Anche io ho esagerato forse anche se la mia reazione alla prova della HD2900XT è stata di desolazione...:muro:

Certo a ben vedere Anadtech non ha tutti i torti (e la recensione la trovo più chiara di quella di HWUpgrade):


Final Words

What a long, strange journey it has been to this point. We have a very delayed launch from AMD that features a part that consumes quite a bit of power and doesn't compete with the competition's high end offering. At face value, this sounds quite a bit like NVIDIA's NV30 launch, but thankfully we wouldn't go so far as to call this NV30 Part 2: the R600 Story.

Even though AMD has not built a high end part, they have built a part that runs very consistently at its performance target (which could not be said about NV30). AMD is also not trying to pass this card off as something it's not: rather than price this card out of its class, the R600 will find a good home at a reasonable price.

Despite the delays, despite the quirks, and despite the lack of performance leadership, AMD has built a good part. It might not be as exciting as an ultra high end card, and it certainly isn't as power efficient as an 8800 GTX or Ultra, but it has quite a few positives that make it an interesting product, and more competition is always a good thing. The worst thing that could happen now is for NVIDIA to get as complacent as ATI did after R300 wiped the floor with the competition.

Quello che continuo a trovare castrante per la scheda di ATI non sono le prestazioni, perfettamente in linea con un prezzo molto aggressivo, ma la rumorosità e il consumo. Questi due fattori dimostrano che il target della 8800GTS è stato ragggiunto con fatica e che questa scheda è al proprio limite fino a che non verranno introdotti i 65nm nel processo produttivo.
La dove (nonostante i consumi elevati) la serie 1900 era superiore alla serie 7000 per prestazioni e qualità di immagine, questa 2900 ha poco da offrire rispetto al G80: al rumore magari sarà possibile sopperire con dissipatore alternativi (Accelero X3?) ma la spesa aggiuntiva non vale la candela dal momento che non si vedono praticamente differenze con la 8800GTS...

Per quanto mi riguarda le prestazioni deludenti di questa 2900 non sono una tragedia: da possessore di una ottima 1950XT ho sempre visto la 8800GTS come insufficiente essendo questa una scheda di nuova generazione: il nome adatto per quelle schede sarebbe dovuto essere 8600GTS mentre la vera 8800 sarebbe dovuta rimanere la GTX. Non ho acquistato la 8800GTS a suo tempo e non avrei comunque acquistato questa 2900XT, soprattutto prima dell'introduzione di giochi DX10, dati i prezzi assurdi della 8800GTX.
Certo, se proprio si deve scegliere ta una 8800GTS (640) e una HD2900XT, il mio consiglio è per la prima ma l'entusiasmo non monta a prescindere...:rolleyes:
Ad oggi sono sempre più soddisfatto dei 220€ spesi (a febbraio) per una eccellente scheda DX9 che mi consentirà di attendere tempi migliori per l'acquisto di DX10.

safendi
15-05-2007, 13:07
dai basta cazziare gli atisti, c'ha già pensato ati a deluderli :sofico: :sofico:

bollicina31
15-05-2007, 13:08
ok nuovo alimentatore da 1000 wat.....

Free Gordon
15-05-2007, 13:17
anche se ci sarà poi sempre la scusa "ma questo non è dx10 nativo" ma è stato fatto un porting dalle dx9c ;)


Oggi dovrebbe essere uscita la demo di LP, che di dx10 ha solo il nome :D però sarebbe interessante per vedere di nuovo le due schede a confronto (GTX e XT).

Free Gordon
15-05-2007, 13:18
Avevate già visto questo?
Se è vero si mette proprio male pe ATI...

E' una "news" di un mese fà.. ;)

Free Gordon
15-05-2007, 13:20
Io spero proprio di no, perché se sta cosa fosse vera (bug a livello hardware) allora questa sarebbe una motivazione più che valida per evitare sta scheda come la peste!...

Su questo baco strutturale bisogna ancora fare chiarezza.

safendi
15-05-2007, 13:23
Su questo baco strutturale bisogna ancora fare chiarezza.

azz ma è propio un bidone sta skeda. ati è messa propio male

Free Gordon
15-05-2007, 13:26
ma quindi l'hw di g80 non è programmabile o lo è in maniera del tutto trascurabile rispetto a quanto possibile con r600? :wtf: (ma non è dai tempi di gf3 & 8500 che entrambi parlano di gpu programmabili ?)

In quel caso di parlava della differenza fra shader fixed function e shader programmabili.
Attualmente si parla di poter programmare tutto il chip.

Il discorso non è che G80 non lo è e R600 lo è (anche se R600 ha più "assi" nella manica da quel lato) ma del fatto che in R600 è fondamentale il compilatore dato che è un'architettura per metà vliw. ;)

Per cui con una programmazione attenta dei driver, gioco per gioco, si possono avere dei boost notevoli. ;)

Jon_Snow
15-05-2007, 13:26
guarda, quello che mi spaventa non è tanto che non ci sia ancora una XTX in programma, è che se una 2900XT debba competere con una GTS, e come ha detto hal, se pareggia con le prestazioni sicuramente perde dal lato consumi e prezzi, cosa dovrà inventarsi ATi quando usciranno le 8900???
le 2950???
e allora quando usciranno le 8950???
è queesto il dubbio, fin' ora avevamo assistito a "giuste" competizioni, 7800 vs X1800, 7900 vs X1900, 7950 vs X1950...
mi riservo comunque qualche incertezza sulle prestazioni in ambito DX10, non so perché ma qualcosa mi dice che avremo qualche sorpresa... :rolleyes:

A dire il vero per parecchi mesi nVidia ha avuto la leadership con le soluzioni SLI integrato. E non credo che questo ha sconvolto il mercato.
Per quando riguarda il futuro, ripeto il concetto già espresso in precedenza. In futuro ATi potrebbe avvantaggiarsi dell'esperienza di questa scheda, mentre nVidia dal suo canto ha la maggiore tranquillità di poter affrontare un progetto nuovo. Però non è il caso di farneticare troppo, il mondo informatico è troppo volubile, dopo anni in cui ATi ha catalizzato l'attenzione chi si aspettava un flop del genere?

Ti sei già risposto da solo. La multimedialità sta diventando sempre più importante nella fascia medio bassa non in quella alta.
I transistor che hanno usato per tutte le features multimediali, avrebbero potuto risparmiarseli per contenere calore e consumi. Oppure avrebbero potuto utilizzarli per potenziare il reparto texturing che da quello che ho capito è la metà di g80.
Forse è proprio l'alto numero di "utilizzi diversi" che ha creato problemi ad ATI in questa R600.

A meno che tutte ste cose non siano state inserite solo dopo aver constato le scadenti prestazioni della scheda (per ora)

A quanto ne so io i problemi sono legati proprio a scelte architetturali non direttamente connesse a "spreco di risorse". Invece sui consumi hai ragione anche se in una riproduzione 3d le unità di decoder non sono chiamate*, quindi non credo che senza la situazione sarebbe estremamente migliorata.

Ad esempio esiste un modo di configurare 3 CMOS per creare una sorta di interruttore in grado connettere/sconnettere elettricamente una unità a runtime.

alyfastman
15-05-2007, 13:35
Raga in 2 giorni già 45 pagine x commentare il flop di queste attesissime schede!!!!!!
che fregatura!!!!e noi ad aspettare la concorrenza x non spendere tanto x una 8800!!!!raga ve lo dico io la concorrenza non ci sarà fino a quando non uscira un ati all'altezza!!!!

che scheda pacco!!!

MenageZero
15-05-2007, 13:36
Con il driver giusto e a soli 370 euro, come si trova da domenica, è perfetta:

http://img185.imageshack.us/img185/9726/img0019995vl1.gif

purtroppo "dificlmente" i drv possono "abbattere"(si intende almeno equipararli alla gts - e ricordiamoci che le 8800 stesse sono sempre state considerate di loro schede "monster" anche come consumo) consumi/temperature e rendere meno rumorosi i dissi di default, quindi non penso che anche come prodotto in sé al suo prezzo la hd2900xt possa aspirare alla "perfezione" ;)

Free Gordon
15-05-2007, 13:43
Quello che continuo a trovare castrante per la scheda di ATI non sono le prestazioni, perfettamente in linea con un prezzo molto aggressivo, ma la rumorosità e il consumo. Questi due fattori dimostrano che il target della 8800GTS è stato ragggiunto con fatica e che questa scheda è al proprio limite fino a che non verranno introdotti i 65nm nel processo produttivo.


La rumorosità dipende dal fatto che il dissi è stato progettato male, come sempre accade in casa ATI (per la 1800 era la stessa cosa).
Mi chiedo che ci mettano al reparto dissipatori.. :rolleyes: dei cioccolatai sono!!!
La regolazione della ventola, inoltre, ha dei problemi aggiustabili via nuovi driver.

La scheda non è affatto al limite, occa fino a 850 (in media), e il voltaggio nel 3D è di 1.18v... (molto basso).

Il problema del calore eccessivo è dovuto al processo produttivo usato che è risultato inadatto (HS80 di TSMC) e all'utilizzo di fast14 (logica dinamica) nella progettazione.

ThePunisher
15-05-2007, 13:44
Hai estratto la frase senza considerare il contesto. Mi rispiego meglio. Dopo l'annuncio di DailyTech non ci speravo nemmeno ad una 2900 superiore alla 8800. Visto che la situazione era quella, mi sarei quanto meno aspettato un comportamento solo di poco inferiore alla top nVidia. Invece la differenza è troppo netta soprattutto alla luce del fatto che non c'è nessuna XTX in programma, almeno non al breve termine.


Ah, ecco, adesso mi torna! :D

sopress
15-05-2007, 13:55
Non avevo dubbi. Una scheda migliore della 8800 sarebbe significato un mostro che avrebbe stupito tutti, ma AMD-ATI devono farne di strada prima di stupirci! Devono amalgamarsi bene le due società prima di esprimere le loro potenzialità

MenageZero
15-05-2007, 14:08
Guarda, sicuramente le DirectX 9 non sono l'habitat naturale di queste schede, ma nella storia delle GPU non è mai successo che una scheda facesse cagare con l'API precedente e fossero delle bombe con la versione corrente. ;) Non facciamoci troppe illusioni perchè con i titoli DirectX 10 queste prestazioni elevate anche da parte della serie 8 di nVidia saranno piu' che ridimensionate.

Io queste schede le vedo meglio pensandole come ultimo stadio delle DirectX 9 che non come le prime schede DirectX 10 (e qui' mi riferisco sia a ATI che a nVidia). Per i prossimi titoli DirectX 10 nativi, almeno come la storia insegna, ci vorrà ben altro che ciò che abbiamo adesso sul mercato. Per lo meno non schede di transizione come queste. nVidia è piu' avvantaggiata perchè la transizione l'ha fatta 6 mesi fa. Ora però è ora di tirare fuori schede che siano fatte per far girare giochi DirectX 10, e non solo schede "DirectX 10 compliant".

I titoli di prossima generazione non sono poi lontani. Questa di ATI secondo me al loro lancio diverrà l'ultima scheda della fascia bassa mentre quelle di nVidia appena di fascia media (parlando delle attuali top).

E' sempre stato cosi. Metti i supporti e tutto quello che ti pare, ma la complessità computazionale è sempre in aumento, pertanto queste schede, ora come ora, sono e rimangono il top per le DirectX 9 ma solo l'inizio appena sufficiente per le DirectX 10.

mi sembra un discorso molto sensato, data appunto la complessità computazionale in costante e sostanzioso aumento di cioò che si vuole realizzare i mano a manio si relaizza effetivamente...
... inoltre se anche quest'anno ci sarà il "giro" autunnale di nuovi chip che spesso(o sempre ? - non mi ricordo) prevede anche nuove gpu top di gamma, relativamente all' "era dx10", con riferimento alle prestazioni di max livello, di g80 ed r600 potrebbe non rimanere che "aria fritta" prima ancora che questi chip possano effettivamente iniziare a fare il loro "vero lavoro" da "protagonisti"

... tuttavia allo stesso tempo in diversi post poco precedenti al tuo che ho quotato si cercava di argomentare come per r600 il concetto di "ultimo stadio delle DirectX 9" potrebbe esere non applicabile o quantomeno non esaustivo, come potrebbe essere in qualche modo una arch. di "lignaggio" superiore a g80 ed esso ed i suoi futuri derivati potrebbero avere un boost con codice "nativo e pesantemente dx10" rispetto a g80 e discendenti...

dal mio pdv aggiungo solo quest'anno mi pare difficile come non mai giudicare il valore relativo (cioè una in confronto all'altra, ovviamente) delle nuove arch., prospettive future incluse ... :boh:
(tanto più che a questo giro per ora ati non si è ancora "degnata" di portare una effettiva "sfida al vertice" :mad: )

MiKeLezZ
15-05-2007, 14:15
La rumorosità dipende dal fatto che il dissi è stato progettato male, come sempre accade in casa ATI (per la 1800 era la stessa cosa).
Mi chiedo che ci mettano al reparto dissipatori.. :rolleyes: dei cioccolatai sono!!!
La regolazione della ventola, inoltre, ha dei problemi aggiustabili via nuovi driver.

La scheda non è affatto al limite, occa fino a 850 (in media), e il voltaggio nel 3D è di 1.18v... (molto basso).

Il problema del calore eccessivo è dovuto al processo produttivo usato che è risultato inadatto (HS80 di TSMC) e all'utilizzo di fast14 (logica dinamica) nella progettazione.Il dissipatore montato sulle X2900XT è stato definito come uno dei migliori di sempre mai montato sulle GPU.
Il problema rumorosità dipende dal problema calore e il problema calore dipende dal consumo in W della scheda.
Percui l'unica colpevole è ATI che ha creato un'architettura eccessivamente parallelizzata (quindi dispendiosa anche solo in idle) e con troppi leak di corrente.
Ma d'altronde che R600 sia mezzo buggato, dopo i ritardi dati dal malfunzionamento del chip, dopo le dicerie riguardo parti non perfettamente funzionali (AA), non è più un segreto...
A parer mio la più grande delusione non è nei consumi, nelle performance, ma è stata nel reparto filtri, dopo anni in cui si è professata la superiorità ATI a riguardo, ora a NVIDIA a dettar legge con le sue 8800. Sia esso AA, ANISO, o PureVideo...

Lud von Pipper
15-05-2007, 14:18
...e io non ho niente contro ati e compagnia, per carità. il fatto è che non posso sottaciere agli interventi fatti da altri in precedenza(da alcuni mesi fino a ieri sera tardi) che dicevano cose che non stavano ne in cielo e ne in terra con arroganza e superbia*. e aldilà di questo io esprimo il mio pensiero. io ho detto flop se per te non lo è di la tua e ribatti. come avrai notato diversi forse molti miei interventi vengono quotati e condivisi. di la tua.
tutto qui.
Devo ricordarti la "FEDE CIECA" con cui propinasti castronerie infondate prima della presentazione della 8600? :sofico:
Il bue che dice all'asino...:mc:
Magari se imparassi a tua volta a comunicare con il prossimo in maniera più costruttiva e meno [nVidiaFanMode on] i tuoi interventi sarebbero più utili alla comunità...:read:

halduemilauno
15-05-2007, 14:19
Il dissipatore montato sulle X2900XT è stato definito come uno dei migliori di sempre mai montato sulle GPU.
Il problema rumorosità dipende dal problema calore e il problema calore dipende dal consumo in W della scheda.
Percui l'unica colpevole è ATI che ha creato un'architettura eccessivamente parallelizzata (quindi dispendiosa anche solo in idle) e con troppi leak di corrente.
Ma d'altronde che R600 sia mezzo buggato, dopo i ritardi dati dal malfunzionamento del chip, dopo le dicerie riguardo parti non perfettamente funzionali (AA), non è più un segreto...
A parer mio la più grande delusione non è nei consumi, nelle performance, ma è stata nel reparto filtri, dopo anni in cui si è professata la superiorità ATI a riguardo, ora a NVIDIA a dettar legge con le sue 8800. Sia esso AA, ANISO, o PureVideo...

è vero da non sottaciere il lato qualità. deludente anche li.
;)

halduemilauno
15-05-2007, 14:23
Devo ricordarti la "FEDE CIECA" con cui propinasti castronerie infondate prima della presentazione della 8600? :sofico:
Il bue che dice all'asino...:mc:
Magari se imparassi a tua volta a comunicare con il prossimo in maniera più costruttiva e meno [nVidiaFanMode on] i tuoi interventi sarebbero più utili alla comunità...:read:

non mi hai quotato quello che dicevo asteriscato. ci tenevo.
cmq nello specifico non è colpa mia se ati è in grandissimo ritardo e magari(vista la 2900 quasi certamente) anche in difficoltà prestazionale con la sua fascia media che nvidia ha deciso(giustamente)di procrastinare la sua 8600* + performante.


*vendute 2.5 milioni di 8400/8600 in tre settimane.

jappilas
15-05-2007, 14:24
Raga in 2 giorni già 45 pagine x commentare il flop di queste attesissime schede!!!!!!esatto
proprio per questo motivo commenti come questi
...
che scheda pacco!!!
azz ma è propio un bidone sta skeda. ati è messa propio malenon aggiungono nulla di nuovo risultando a maggior ragione ridondanti e fastidiosi - per questo motivo si prega di non contribuire al thread se non con post tecnici e costruttivi

MenageZero
15-05-2007, 14:25
Avevate già visto questo?
Tech News
Leaked Radeon 2900 XTX benchmarks reveal disappointment

By Stevie Smith Apr 27, 2007, 18:04 GMT

Regardless of the pre-launch hype and frantic chest-beating emanating from AMD regarding its incoming ATI Radeon HD 2900 XTX, it would appear that an advance benchmark test has revealed disappointing results when compared against the performance of the existing Radeon 2900 XT.

More specifically, technology Web site DailyTech, often considered a reliable source of leaked and advance information, has performed a thorough benchmark test of AMD/ATI’s new top-tier graphics card, with its results revealing relatively lacklustre figures when assessed against widespread expectation.

When compared to the site’s previous benchmark testing of the Radeon 2900 XT, DailyTech claims that its test unit of the 2900 XTX (1GB of GDDR4, 2.02GHz, 750MHz) largely failed to offer much by way of solid improvement, while, worryingly, it was revealed that the XTX also pushed a lower fps (frames per second) rate than the existing XT card across various resolutions. Also, the XTX was vastly overshadowed in the test by NVIDIA’s GeForce 8800 GTX, which was consistent in its performance advantage.

AMD, which is lauding the Radeon HD 2900 XTX as its flagship graphics card, is hoping that its upcoming DirectX 10 line-up is able to forge deep inroads into a market generally led by NVIDIA and, most recently, its GeForce 8800 GTX – which is also soon due to receive its 8800 Ultra upgrade – but on this evidence, that might not be the case.

“The less than stellar performance benchmarks are no surprise to board partners and AMD insiders. Two independent ATI board builders told DailyTech that Radeon HD 2900 XTX will not be a part of their initial portfolios,” commented DailyTech following its benchmark test (much of which was refuted by the site’s forum posters). “Given the additional memory cost and bulky card footprint, it seems unlikely the XTX will ever see the light of day,” it concluded somewhat gloomily.

The benchmark test, conducted in multiple resolution settings across games including Company of Heroes, F.E.A.R., Half-Life 2: Episode 1, and The Elder Scrolls IV: Oblivion, saw the GeForce GTX consistently out performing the ATI competition, both XT and XTX.
Se è vero si mette proprio male pe ATI...
ma amd non aveva ufficialmente detto che attualmente la xtx non esiste ? come avrebbero fatto questi a testarla ? :confused:

MiKeLezZ
15-05-2007, 14:27
ma amd non aveva ufficialmente detto che attualmente la xtx non esiste ? come avrebbero fatto questi a testarla ? :confused:Se per questo AMD ha anche detto che R600 non è né in ritardo, né è stato volontariamente posticipato.
Oppure che lo slittamento di data era VOLUTO per permettere di fornire driver incredibilmente stabili e un hard launch.
Un hard launch che comprendesse tutte le schede, di fascia alta, media, bassa.
E che ha lanciato solo la X2900XT come high-end perchè a lanciare schede di fascia ancora più alta ci si perde soldi, invece che guadagnarci.
Infine.. che gli asini volano... (no... quest'ultima l'ho aggiunta io...)

cerbert
15-05-2007, 14:37
Devo ricordarti la "FEDE CIECA" con cui propinasti castronerie infondate prima della presentazione della 8600? :sofico:
Il bue che dice all'asino...:mc:
Magari se imparassi a tua volta a comunicare con il prossimo in maniera più costruttiva e meno [nVidiaFanMode on] i tuoi interventi sarebbero più utili alla comunità...:read:

No... in realtà non devi.
Sopratutto non rispondendo ad un post di IERI (questo significa andarli a cercare), sopratutto non dopo che noi continuiamo a ripetere di lasciar cadere le polemiche interpersonali.

L'oggetto di questo thread è l'articolo di HWUpgrade, tutto quello che non lo riguarda ne resta fuori, comprese le futili rivalse personali di alcuni utenti e le altrettanto futili risposte rabbiose.

Altrimenti riprendiamo con la raffica di sospensioni.
Vale da ammonizione.

alyfastman
15-05-2007, 14:40
esatto
proprio per questo motivo commenti come questi

non aggiungono nulla di nuovo risultando a maggior ragione ridondanti e fastidiosi

si prega di non contribuire al thread se non con post tecnici e costruttivi

a me sembra costruttivo parlare di concorrenza!!!costruttivo x le nostre tasche!!!poi se ho introdotto con un parere negativo è un altra cosa!!!

dema86
15-05-2007, 14:45
Personalmente sono deluso dal nuovo prodotto di casa ATi, e come molti altri lo sono più che altro per i consumi eccezzionalmente alti!
Sono passato svariate volte da una all'altra casa, e personalmente trovo che dalla 9700PRO in poi i canadesi abbiano sempre cannato i lanci delle loro schede, troppo ritardo...
Dal lato tecnico ritengo che l'architettura proposta da ATi sia avanti rispetto a quella di Nvidia, ma molto meno pulita! Analogamente a quanto avviene tra Cell e Xenos, un prodotto più di avanguardia rispetto all'altra scheda ma proprio per questo motivo difficilmente sfruttabile.
E a differenza dell'architettura Cell (che potrebbe tranquillamente tirare il carretto minimo per 4-5 anni) R600 è destinato presto a scomparire, probabilmente prima di dimostrare le sue qualità.

Zannawhite
15-05-2007, 14:45
Io spero in tutta sincerità da appassionato gamers che si allinei e superi la 8800GTS 640mb. Se questo avvenisse si potrebbe chiudere anche un occhio su temperature e (un po meno) consumi e rumore.

Ma se così fosse, a mio avviso avrebbe fatto centro il marketing di Ati giocando sulla "limitazione" dell' R600.
Propongono una scheda a un prezzo "elevato" ma sicuramente più vendibile di un top di gamma, ergo il bacino utenti sarebbe decisamente più abbondante. Questo permetterebbe una pubblicità alle schede video di livello inferiore e quindi il solito giro ozioso che si innesca :)

Tutto risiede nelle nuove release dei driver.E' pura utopia questo concetto a vostro parere ?

cerbert
15-05-2007, 14:47
a me sembra costruttivo parlare di concorrenza!!!costruttivo x le nostre tasche!!!poi se ho introdotto con un parere negativo è un altra cosa!!!

1) parlare di concorrenza è costruttivo... ripetere una cosa detta da 100 utenti in precedenza, non molto.
2) in caso di dubbi sul richiamo di un moderatore, si contatta il moderatore tramite messaggio privato e non pubblico, altrimenti si viene sanzionati. In questo caso con un'ammonizione.

MenageZero
15-05-2007, 14:55
Se per questo AMD ha anche detto che R600 non è né in ritardo, né è stato volontariamente posticipato.
Oppure che lo slittamento di data era VOLUTO per permettere di fornire driver incredibilmente stabili e un hard launch.
Un hard launch che comprendesse tutte le schede, di fascia alta, media, bassa.
E che ha lanciato solo la X2900XT come high-end perchè a lanciare schede di fascia ancora più alta ci si perde soldi, invece che guadagnarci.
Infine.. che gli asini volano... (no... quest'ultima l'ho aggiunta io...)

ma sei sicuro quella in neretto sia vera ? :D
cioè, sembrerebbe un tantino clamorosa e variazione sul tema della volpe e dell'uva...

Zannawhite
15-05-2007, 14:57
ma sei sicuro quella in neretto sia vera ? :D
cioè, sembrerebbe un tantino clamorosa e variazione sul tema della volpe e dell'uva...Diciamo che è sempre stata così, le soluzioni top di gamma non fanno arricchire nessuno, ma sono una enorme pubblicità; ergo introiti per tutti gli altri prodotti marchiati da quel produttore.




Es.: il periodo felice della Ducati ha fatto alzare le vendite in maniera clamorosa delle sue moto :) ; scusate :ot:

MenageZero
15-05-2007, 15:01
Personalmente sono deluso dal nuovo prodotto di casa ATi, e come molti altri lo sono più che altro per i consumi eccezzionalmente alti!
Sono passato svariate volte da una all'altra casa, e personalmente trovo che dalla 9700PRO in poi i canadesi abbiano sempre cannato i lanci delle loro schede, troppo ritardo...
Dal lato tecnico ritengo che l'architettura proposta da ATi sia avanti rispetto a quella di Nvidia, ma molto meno pulita! Analogamente a quanto avviene tra Cell e Xenos, un prodotto più di avanguardia rispetto all'altra scheda ma proprio per questo motivo difficilmente sfruttabile.
E a differenza dell'architettura Cell (che potrebbe tranquillamente tirare il carretto minimo per 4-5 anni) R600 è destinato presto a scomparire, probabilmente prima di dimostrare le sue qualità.

ma xché ti metti a confrontare una cpu con una gpu ? :confused: ( e tra l'altro in ps3 non è cell che si occupa della grafica ma l' rsx, ovvero +/- una 7900 a 32 pixel pipes, se non ricordo male, la quale è una gpu molto più tradizionale/conservativa di r500, la gpu della x360)

Apollion
15-05-2007, 15:06
scusate un attimo...
con tutti questi commenti (tra l'altro tutti ugiali!!) non sto capendo piu' nulla!!

si è fatto il confronto tra la ATI 2900 e la NVIDIA 8800...
si è constatato che la NVIDIA è superiore alla ATI...
(mi sembra che lo confermino anche i prezzi)

quello che non capisco è il motivo di questo confronto...
anche la NVIDIA ha sviluppato una soluzione della propria scheda da collegare ai notebook??

A me sembra l'unica (ed ottima) soluzione per chi vuole potenziare il proprio notebook anche sotto questo aspetto!

MenageZero
15-05-2007, 15:12
Diciamo che è sempre stata così, le soluzioni top di gamma non fanno arricchire nessuno, ma sono una enorme pubblicità; ergo introiti per tutti gli altri prodotti marchiati da quel produttore.

questo è pacifico, ma proprio per il fatto che i prodotti destinati a prendersi l'etichetta di "cpu + veloce" servono principalmente per monetizzare attraverso le altre fascie la ricaduta d'immagine possitiva, una dichiarazione da parte amd come quella riportata dall'altro uetnte, imho comeprima cosa ti fa pensare "strano", a meno che amd non avesse effettivamnte deciso di abbandonare la comptizione al di sopra di una certa fascia di prestazioni/prezzo... ma sarebbe una decsione strategica ed un variazione di target molto importante, che in n modo o l'altro non passerebbe in sordina...

... per questo(assumeno ch in realtà al momento amd non voglia veramente abbandonare la competizione al top) in sostanza mi domandavo se una tale dichiarazione fosse effettivamente stata fatta in tali termini, visto che non i pare che sia una di quelle dichiarazioni in questo momento apprezzabili e che diano una lucidatina all'immagine

MiKeLezZ
15-05-2007, 15:12
ma sei sicuro quella in neretto sia vera ? :D
cioè, sembrerebbe un tantino clamorosa e variazione sul tema della volpe e dell'uva...E' clamorosa sì... ma vera per AMD. Una fascia alta per R600 significa X2900XTX di cui sopra, e si è visto che non sarebbe competitiva con la GTX NVIDIA... e quindi, nel caso specifico di AMD, sarebbe restata invenduta
Comunque molte cose sono anche scritte nell'articolo di Anandtech

Vodka
15-05-2007, 15:15
sebbene questo tentativo di ati non sembra sia andato effettivamente in porto, vuoi per ritardi strutturali o per altro, ricordiamoci che solitamente la prima serie di gpu con supporto alle nuove api è sempre castrata.
Basta vedere una o due serie fa in cui il supporto delle prime gpu, veri e propri mostri di potenza, poi si dimostrava in realtà solamente uno specchietto per le allodole, riconducendosi a una minima parte delle api.

Diciamo che ora ati e nvidia ci stanno usando come beta tester, sebbene il prodotto ati sia attualmente in condizioni peggiori.
Aldilà di questo discorsi come "aspettate i driver, fra qualche mese la situazione sarà diversa" sono alquanto poco logici, non dimenticate che chi compra articoli informatici deve sempre considerare la situazione attuale e mai quella futura, se si comincia a pensare in questa chiave non si comprerà mai un pc ^^, ogni mese si dice "stanno per uscire i modelli nuovi di questo e quell'altro".
Pertanto a mio avviso il prodotto di nvidia , uscito con largo anticipo a quello della principale concorrente, gli permetterà di avere, salvo strane strategie kamikaze o rivelazione della ati, un prodotto migliore sia in termini di driver , hardware e rapporto prestazioni/prezzo, essendo in tutti i campi 6 mesi davanti.

MiKeLezZ
15-05-2007, 15:15
p.s. chiaramente nel caso "generale" le schede di fascia alta generano anch'esse introiti, ovvero il prezzo di acquisto è superiore al costo di fabbricazione, poi che siamo di fronte al classico "due piccioni con una fava" a riguardo della pubblicità nella fascia inferiore. innegabile

ninja750
15-05-2007, 15:18
Oggi dovrebbe essere uscita la demo di LP, che di dx10 ha solo il nome :D però sarebbe interessante per vedere di nuovo le due schede a confronto (GTX e XT).

appunto, si presuppone che ha solo il nome di dx10

missà che bisogna attendere il 3dmerd 2007 e poi fantasticare sulle presunte ottimizzazioni driver per una o l'altra vga :D

MenageZero
15-05-2007, 15:19
scusate un attimo...
con tutti questi commenti (tra l'altro tutti ugiali!!) non sto capendo piu' nulla!!

si è fatto il confronto tra la ATI 2900 e la NVIDIA 8800...
si è constatato che la NVIDIA è superiore alla ATI...
(mi sembra che lo confermino anche i prezzi)

quello che non capisco è il motivo di questo confronto...
anche la NVIDIA ha sviluppato una soluzione della propria scheda da collegare ai notebook??

A me sembra l'unica (ed ottima) soluzione per chi vuole potenziare il proprio notebook anche sotto questo aspetto!:confused:

più in dettaglio, cosa esattamente non capisci ?
amd/ati presenta una nuova gpu, la sua nuova top di gamma:
non dovevano fare una recensione ? non dovevano confrontarla con le gpu nv ? o magari dovevano fare solo un "titolo" tipo "r600 è meglio/non è confrontabile di/con tutto il resto perché ne esiste una versione esterna per notebook - punto" ?

jappilas
15-05-2007, 15:24
a me sembra costruttivo parlare di concorrenza!!!costruttivo x le nostre tasche!!!poi se ho introdotto con un parere negativo è un altra cosa!!!definizione di post costruttivo, legata all' essere questo un forum tecnico, e questa la sezione dedicata agli articoli e agli approfondimenti: post in cui si dimostri interesse per l' oggetto del thread e la sua tecnologia, chiedendo chiarimenti o fornendone ad altri, ed evitando atteggiamenti denigratori, sarcastici, partigianerie e apprezzamenti

certo, capisco che a volte sia difficile tenere a freno l' emotività, specie quando si tratta di un prodotto della propria "marca del cuore" o della "rivale" ( :rolleyes: ) per cui anche vedendo commenti "a latere" si passa sopra, ma questo quando un thread è all' inizio... in presenza di 45 pagine già invase di commenti a latere e apprezzamenti, come in questo caso, non si è altrettanto giustificati ad entrare nella mischia (come a dire "io c' ero"), anzi ripetere quanto scritto da altri può trasformarsi in un' aggravante
in pratica il carico imposto da questo thread ai moderatori, ha azzerato il livello di tolleranza applicata da questo punto in avanti

halduemilauno
15-05-2007, 15:34
sebbene questo tentativo di ati non sembra sia andato effettivamente in porto, vuoi per ritardi strutturali o per altro, ricordiamoci che solitamente la prima serie di gpu con supporto alle nuove api è sempre castrata.
Basta vedere una o due serie fa in cui il supporto delle prime gpu, veri e propri mostri di potenza, poi si dimostrava in realtà solamente uno specchietto per le allodole, riconducendosi a una minima parte delle api.

Diciamo che ora ati e nvidia ci stanno usando come beta tester, sebbene il prodotto ati sia attualmente in condizioni peggiori.
Aldilà di questo discorsi come "aspettate i driver, fra qualche mese la situazione sarà diversa" sono alquanto poco logici, non dimenticate che chi compra articoli informatici deve sempre considerare la situazione attuale e mai quella futura, se si comincia a pensare in questa chiave non si comprerà mai un pc ^^, ogni mese si dice "stanno per uscire i modelli nuovi di questo e quell'altro".
Pertanto a mio avviso il prodotto di nvidia , uscito con largo anticipo a quello della principale concorrente, gli permetterà di avere, salvo strane strategie kamikaze o rivelazione della ati, un prodotto migliore sia in termini di driver , hardware e rapporto prestazioni/prezzo, essendo in tutti i campi 6 mesi davanti.

parlando delle sole dx10 quello che tu dici per nvidia non è accaduto. e neanche una due serie fa per ambedue le case. quindi non è affatto solitamente.
;)

dema86
15-05-2007, 15:39
ma xché ti metti a confrontare una cpu con una gpu ? :confused: ( e tra l'altro in ps3 non è cell che si occupa della grafica ma l' rsx, ovvero +/- una 7900 a 32 pixel pipes, se non ricordo male, la quale è una gpu molto più tradizionale/conservativa di r500, la gpu della x360)

Forse non sono stato chiaro nel mio paragone:
intendevo dire che analogamente a quanto avviene nel contrasto
Cell (CPU PS3) vs Xenos (CPU X360)
Hd2900XT vs 8800GTS
il primo/la prima è probabilmente più potente, ma la difficoltà nel programmare ad hoc su quel tipo di architettura lo rende assolutamente meno versatile a scapito quindi della bontà delle prestazioni.
Ovviamente non volevo paragonare una sv e una cpu.

pabloescobarr
15-05-2007, 15:54
Raga io mi kiedo solo una cosa... i tecnici dell'ati prima di prensetare la loro 2900xt non hanno confrontato i loro benchmark con quelli delle altre vga??? Non hanno notato che andavano incontro ad una catastrofe???

Poi quelacuno mi puo spiegare cos'è che ha causato queste prestazioni orride? mi sembra che la x2900 abbia tutti i caratteri per essere alla pari con una 8800gtx ( bus a 512bit, 512mb ram, Vcore elevato, 320pipe)....

Ultima cosa, le 320 pipeline sono effettive??

Tidus.hw
15-05-2007, 16:02
Raga io mi kiedo solo una cosa... i tecnici dell'ati prima di prensetare la loro 2900xt non hanno confrontato i loro benchmark con quelli delle altre vga??? Non hanno notato che andavano incontro ad una catastrofe???

Poi quelacuno mi puo spiegare cos'è che ha causato queste prestazioni orride? mi sembra che la x2900 abbia tutti i caratteri per essere alla pari con una 8800gtx ( bus a 512bit, 512mb ram, Vcore elevato, 320pipe)....

Ultima cosa, le 320 pipeline sono effettive??

Vcore elevato? :asd:
comunque, ihmo, è solo questione di driver. quelli di adesso sono molto acerbi..

jp77
15-05-2007, 16:02
Raga io mi kiedo solo una cosa... i tecnici dell'ati prima di prensetare la loro 2900xt non hanno confrontato i loro benchmark con quelli delle altre vga??? Non hanno notato che andavano incontro ad una catastrofe???

Poi quelacuno mi puo spiegare cos'è che ha causato queste prestazioni orride? mi sembra che la x2900 abbia tutti i caratteri per essere alla pari con una 8800gtx ( bus a 512bit, 512mb ram, Vcore elevato, 320pipe)....

Ultima cosa, le 320 pipeline sono effettive??

Sicuramente avevano ben chiare le prestazioni dei loro prodotti....è cmq molto meglio presentare qualcosa anche se non all'altezza delle aspettative che non presentare nulla del tutto....avevano già rinviato per troppo tempo non potevano più aspettare IMHO


Sono Stream processors non pipeline se vuoi saperne di più puoi leggere questo interessante articolo
http://www.beyond3d.com/content/articles/29

Dr. Troione
15-05-2007, 16:14
Scandalosa.
Chi sta un minimo attento ai consumi 'sta scheda la scarta già a priori... 80W in più a pari prestazioni, ma scherziamo?? Del resto che Ati fosse indietro anni luce da questo punto di vista, si era già ampiamente dimostrato dal confronto tra X1650XT e 7600GT... :doh:

pabloescobarr
15-05-2007, 16:31
Scandalosa.
Chi sta un minimo attento ai consumi 'sta scheda la scarta già a priori... 80W in più a pari prestazioni, ma scherziamo?? Del resto che Ati fosse indietro anni luce da questo punto di vista, si era già ampiamente dimostrato dal confronto tra X1650XT e 7600GT... :doh:

almeno la x1650 è realmente superiore all 7600gt....

sniper84n
15-05-2007, 16:44
Ragazzi, la più grande delusione di questa recensione riguarda sia nvidia che ati!!!
Se con DX10 solo le 8800gtx superano di pochissimo i 30 fps a 1280x1024 siamo messi proprio male! Mi sa che tutte queste schede sono buone solo in DX9... Conviene tenersi stretta una 1950pro e aspettare il 2008, altrimenti si rischia di restare molto delusi all'uscita dei primi giochi DX10. Poi magari mi sbaglio e sia i giochi che i driver saranno più ottimizzati, ma se le indicazioni di questo primo test non sono proprio fuori strada, la vedo nera!
E attualmente non so che senso abbia spendere 400-500 e più euro per 20fps su DX10...

DarkNiko
15-05-2007, 16:53
Ragazzi, la più grande delusione di questa recensione riguarda sia nvidia che ati!!!
Se con DX10 solo le 8800gtx superano di pochissimo i 30 fps a 1280x1024 siamo messi proprio male! Mi sa che tutte queste schede sono buone solo in DX9... Conviene tenersi stretta una 1950pro e aspettare il 2008, altrimenti si rischia di restare molto delusi all'uscita dei primi giochi DX10. Poi magari mi sbaglio e sia i giochi che i driver saranno più ottimizzati, ma se le indicazioni di questo primo test non sono proprio fuori strada, la vedo nera!
E attualmente non so che senso abbia spendere 400-500 e più euro per 20fps su DX10...

Ciao. Scusa se mi intrometto, ma hai prove oggettive, inequivocabili e incontrovertibili che le cose stiano proprio come dici tu ??? Dimostrami che le 8800 GTX in DX10 superano di pochissimo i 30 fps in 1280*1024 !!!!

Mister Tarpone
15-05-2007, 16:54
Ragazzi, la più grande delusione di questa recensione riguarda sia nvidia che ati!!!
Se con DX10 solo le 8800gtx superano di pochissimo i 30 fps a 1280x1024 siamo messi proprio male! Mi sa che tutte queste schede sono buone solo in DX9... Conviene tenersi stretta una 1950pro e aspettare il 2008, altrimenti si rischia di restare molto delusi all'uscita dei primi giochi DX10. Poi magari mi sbaglio e sia i giochi che i driver saranno più ottimizzati, ma se le indicazioni di questo primo test non sono proprio fuori strada, la vedo nera!
E attualmente non so che senso abbia spendere 400-500 e più euro per 20fps su DX10...

hai assolutamente ragione ;)

Apollion
15-05-2007, 16:55
chiedevo del motivo di questo confronto...
per quanto riguarda il mondo "mobile"

non capisco perche' sia passato subito in secondo piano il fatto che la ATI possa essere collegata ad un notebook...

sniper84n
15-05-2007, 16:57
x DarkNiko

Mi sono semplicemente basato sul test DX10 di Call of Juarez della recensione, se guardi i bench, vedrai che ho ragione.. So che è un test indicativo e non si può considerare esaustivo e definitivo, ma le prospettive che fornisce, non sono di certo buone...

DarkNiko
15-05-2007, 16:58
hai assolutamente ragione ;)

Sulla base di quali prove ??? Scusami, ma come ha scritto l'utente che hai quotato o provate ciò che scrivete o siete solo venditori di chiacchiere da bar e di fumo !!! (Senza offesa per nessuno).

DarkNiko
15-05-2007, 17:03
x DarkNiko

Mi sono semplicemente basato sul test DX10 di Call of Juarez della recensione, se guardi i bench, vedrai che ho ragione.. So che è un test indicativo e non si può considerare esaustivo e definitivo, ma le prospettive che fornisce, non sono di certo buone...

Beh, una rondine non fa primavera. Ti suggerisco tuttavia di guardarti i tech demo di Unreal Tournament 2007, Bioshock o Crysis (che sono giochi DX10 nativi, con l'aggiunta al supporto DX9) e poi vediamo se fanno 30 fps come dici tu.

Call of Juarez, persino in DX9 è un macigno di gioco, sfido chiunque a dimostrarmi che riesce a giocarci in DX9 (che quindi dovrebbe essere più performante, visti i drivers rodati) a 60 fps fissi in 1280*1024 con tutti i dettagli a manetta. Ti assicuro che un tale utente non esiste.

Quanto poi ai benchmark postati, sono d'accordo in parte, in quanto essi lasciano il tempo che trovano, non che non siano veritieri, per carità, però è come il benchmark al 3D Mark 2006. Su un sito vedi 10000 punti, su un altro 1000 di più o 1000 di meno, allora a chi credere ???

La cosa migliore, a mio modo di pensare, è provare le cose sulla propria pelle e non limitarsi a prendere come vangelo ciò che può scrivere o meno un qualsivoglia sito (molto spesso di parte).

Evangelion01
15-05-2007, 17:04
x DarkNiko

Mi sono semplicemente basato sul test DX10 di Call of Juarez della recensione, se guardi i bench, vedrai che ho ragione.. So che è un test indicativo e non si può considerare esaustivo e definitivo, ma le prospettive che fornisce, non sono di certo buone...

Come ho già detto da un' altra parte, i bench di UN gioco, per di più non ottimizzato, non fanno vedere le prestazioni reali di queste vga. Penso che sia troppo presto per giudicare le prestazioni in dx10 per 2 semplici ragioni. 1°, i test disponibili sono ancora troppo acerbi e troppo pochi. 2° , perchè bisogna anche pensare a una ipotetica situazione : supponiamo che giochi come lost planet vadano a 20fps com una 8800gtx; quanti allora potrebbero giocarci? Per una software h. sarebbe come tagliarsi le gambe da sola, visto che il 90% del mercato è costituito da schede di fascia medio-bassa, quando non addirittura da vga ancora dx9. Ergo, penso che i giochi saranno decisamente più ottimizzati di quello che vediamo ora, altrimenti saremmo costretti a migrare tutti su console.... non so se mi spiego. :D

Mister Tarpone
15-05-2007, 17:05
Sulla base di quali prove ??? Scusami, ma come ha scritto l'utente che hai quotato o provate ciò che scrivete o siete solo venditori di chiacchiere da bar e di fumo !!! (Senza offesa per nessuno).

perchè guardando certi test, i risultati ottenuti in dx10 da ste vga (costose) fan cagare... ;)
I nostri cmq sono solo dubbi.
non abbiamo detto che queste schede sicuramente saranno sole con le nuove dx, ok?? :)
però la paura un pò c'è.... :fagiano:

MenageZero
15-05-2007, 17:06
Ciao. Scusa se mi intrometto, ma hai prove oggettive, inequivocabili e incontrovertibili che le cose stiano proprio come dici tu ??? Dimostrami che le 8800 GTX in DX10 superano di pochissimo i 30 fps in 1280*1024 !!!!

probabilmente si riferiva al test con call of juarez patchato per dx10, certo quello da solo, data anche la apparente natura sprimentale di tale mod dell'engine come si sottolinea nella recensione (per es CoJ-dx10 genera artefatti), non può in alcun modo "fare la storia" ...
... al momento riguardo a questi interrogativi l'unica cosa certa è l'incertezza, per ora non si può che aspettare (... e aspettare ... e aspettare ... :sofico: )

ninja750
15-05-2007, 17:07
Ragazzi, la più grande delusione di questa recensione riguarda sia nvidia che ati!!!
Se con DX10 solo le 8800gtx superano di pochissimo i 30 fps a 1280x1024 siamo messi proprio male! Mi sa che tutte queste schede sono buone solo in DX9... Conviene tenersi stretta una 1950pro e aspettare il 2008, altrimenti si rischia di restare molto delusi all'uscita dei primi giochi DX10. Poi magari mi sbaglio e sia i giochi che i driver saranno più ottimizzati, ma se le indicazioni di questo primo test non sono proprio fuori strada, la vedo nera!
E attualmente non so che senso abbia spendere 400-500 e più euro per 20fps su DX10...

pensa le mirabolanti 8600

Mister Tarpone
15-05-2007, 17:09
pensa le mirabolanti 8600

saranno le più veloci ;) in dx8 ;)

Evangelion01
15-05-2007, 17:09
Che poi, basta UN bench con brutti risultati per scatenare la "dx10fobia"...:D
Io penso che le cose andranno diversamente. A oggi, visti i test praticamente inesistenti, eviterei questi atteggiamenti allarmistici....
Meglio aspettare dati più concreti. :)

bs82
15-05-2007, 17:15
3. I drivers possono ottimizzare, non fanno diventare il piombo oro.



Senza offesa ma è il tipico discorso di chi non ha la più pallida idea di cosa siano logiche programmabili in elettronica :)

Ci sono chip che sono "vuoti" dentro e non fanno niente se li attacchi alla corrente: li riempi con un software e ti emulano un pentium 2. :rolleyes:

sniper84n
15-05-2007, 17:17
Purtroppo non ho il tempo di girare su internet alla ricerca di tutti i test DX10 possibili, quindi mi baso su hwupgrade e quello che pubblica. Ho precisato che la mia era un'opinione con tutte le riserve del caso, d'altronde non voglio mica bocciare tutte ste schede per un solo bench! Però a 1920x1200 a COJ con la 1950pro ci gioco a 20fps per 150euro. Ottenere lo stesso risultato in termini di fps con 500+ euro di scheda in DX10 è parecchio deludente. Ovviamente questa è solo una patch e spero in ottimizzazioni future ecc. Cmq credo che valga la pena aspettare la prox generazione di schede, visto che a quanto pare sarà disponibile nel 2008, all'uscita dei giochi..

Lud von Pipper
15-05-2007, 17:19
Certo, non essendo in possesso di uno straccio di informazione, posso dirlo solo quando vedo test ufficiali. Il discorso però lo espando, perchè forse poco chiaro.
Si è sempre detto che R600 è pronta da un bel pò. Una volta che è pronta l'archietttura anche se non a frequenze "standard" si può andare di affinamento con i driver. Oggi come oggi i driver sono quelli che vediamo nelle recensioni, suppergiù, quindi mi chiedo, mesi fa come potevano essere. Farla uscire avrebbe aumentato ulteriormente la delusione. Io se leggi i miei post non ho espresso mai nessun giudizio, al 3d mark non do peso e l'unico bench che ho considerato è quello delle SDK dx10 uscito ultimamente, visto che dovrebbe essere super partes e comunque un qualcosa su cui si può discutere. Quindi è ovvio che oggi, uscita la recensione, io dica la mia, no?

E porta pazienza: ha senso criticare le scelte tecniche relative ad una scheda video prima della sua presentazione, siano esse i 128bit, il numero di Pipe, la quantità di Ram, ma quì c'è gente con la sfera di cristallo, pronta ad urlare "io l'avevo detto", ma che in realtà non la più pallida idea del perchè R600 ha difficoltà di consumi e di frequenze (e a dire la verità un idea non ce l'hanno neppure i Guru, qui o su Anandtech).
Il punto è che avevano "La Fede", e che sotto sotto Tifavano per il fallimento della marca nemica (perchè, parliamoci chiaro: quì c'è chi parla di ATIe nVidia con la stessa lucidità che dimostra in curva allo stadio), quindi adesso godono con il gusto di chi vede "L'Avversario" nella polvere. Non hanno argomantato il loro scetticismo allora così come non lo argomantano oggi ma sono tutti eccitati per la loro G80 (che hanno nel case da mesi) dopo il comprensibile nervosismo in attesa della risposta della concorrenza.
"Sulla carta" c'era tutto per fare di r600 una scheda competitiva (e in realtà lo sarebbe pure non fosse per i consumi e il calore prodotto), Ma non è così, quindi oggi sarebbe il momento giusto di analizzare il perchè di questa debacle; o almeno lo sarebbe su un forum che tratta di hardware a livello tecnco.
Il punto è che ormai il "publico di HwUpgrade" ha ragiunto i livelli più bassi che sia possibile trovare in rete, pieno di adolescenti eccitabili e scarso di persone che hanno qualcosa di costruttivo da aggiungere.
Dopo oltre 90 pagine di commenti devo ancora sentire un solo giudizio tecnico giustificato, che parli delle ragioni per cui questa scheda rende così poco rispetto alle aspettative.

Per parte mia aggiungerei alle critiche che la scelta di restare sulle Gddr3 non aiuta certo la scheda a contenere i consumi, e che pare che per gran parte di questa primavera la maggior parte delle GPU non andasse oltre il debug senza piantarsi e che quindi questa HD2900XT sia stata comunque buttata fuori per disperazione.
Purtroppo la maggiore delusione viene dal fatto che questa R600 è troppo vicina alle prestazioni di R580 nonostante si tratti di una "nuova generazione" e non di una "evoluzione" (per la 8800GTS le cose non vanno diversamente però consuma meno e la GTX è sempre sisponibile per chi vuole spendere).
Complimenti agli enthusiast che hanno acquistato una 8800GTX (se quelle prestazioni sono per loro sfruttabili), ma devono ammettere che anche loro non sapevano che cosa ATI avrebbe poi tirato fuori.
Bene quindi ha fatto chi ha comprato la scheda di nVidia a novembre, contento a prescindere delle prestazioni offerte, e bene ha fatto chi, per un paio di mesi ha preferito aspettare di vedere le evoluzioni del mercato, anche perchè, con l'uscita della Ultra il costo della GTX si è ulteriormente ridimensionato.

Tutti contenti allora?
No, perchè c'è chi si sente di poter sbeffeggiare chi si è mosso prudentemente dall'alto del senno di poi, e se le cose fossero andate diversamente, ora starebbe nascosti a leccarsi le ferite (nel segno dell'eterna gara a "chi ce l'ha più lungo"). :muro:

Ragazzi, la più grande delusione di questa recensione riguarda sia nvidia che ati!!!
Se con DX10 solo le 8800gtx superano di pochissimo i 30 fps a 1280x1024 siamo messi proprio male! Mi sa che tutte queste schede sono buone solo in DX9...Considerando che nel prossimo futuro la maggior parte dei giochi uscirà con L'Unreal engine non mi preoccuperei per le DX10 di la da venire ma per le difficoltà che queste schede (di fascia medio-alta) mostrano gia adesso con le DX9.

overmod
15-05-2007, 17:21
a questo punto sto diventando veramente curioso riguardo ai motivi concreti per cui g80 non sia da ritenere una gpu dx10, se qualcuno potesse esporne le evidenze tecniche gilene sari molto grato, dato che non è la prima volta che sento questa corrente di pensiero e mi pare anche che la frequenza delle relative citazioni ultimamente con l'avvicinarsi e poi il disvelarsi di r600 sia andata intensificandosi
:wtf:

riguardo a "fusion", premesso che non ne so' molto i dettaglio, mi pare che si sia sempre parlato delle relative gpu integrate nella cpu o "core-grafici" che dir si voglia, come soluzioni, che pur rappresentando un netto migliramento rispetto a tante altre ora disponibili nel rapporto prstazioni/consumi, saranno di fascia bassa per quanto rigurada le prestazioni offerte,

e non potenze di calcolo "stratosferiche" quasi "aggratis" per quel che rigurda i consumi

:boh:


Come hanno capito anche altri quella del Direct X 9 e mezzo era una espressione scherzosa. Ovviamente siamo davanti ad un prodotto 100% Direct X 10 compatibile. Anzi, piuttosto che togliere qualcosa a G80 intendevo riconoscere che Nvidia è stata maestra proprio nel non fare un passo troppo lungo verso le DX 10 a discapito dei titoli attuali. Cosa che ATi non sembra proprio aver considerato una priorità. Peccato che l'attitudine al lavoro sotto DX 10, con l'attuale panorama dei giochi 3D, rimanga una potenzialità quasi inespressa. E molto dipenderà dalla diffusione di (s)Vista che, a parte gli strombazzamenti di Microsoft, si sta diffondendo essenzialmente perchè si trovano negli ipermercati solo notebook e desktop con Vista.

Riguardo a Fusion...beh, che sia un progetto ambizioso, forse un pò troppo ambizioso, si sa. Avere una proposta in grado di integrare CPU e GPU di buon livello (per giocare con risoluzioni tipo 1440x900 non serve una VGA top di gamma) e contenere nel contempo i consumi significa garantirsi un futuro molto roseo, se non leader. E' chiaro che non sarà semplice e non sarà subito. A maggior ragione sarà difficile perchè la GPU dovrà offrire comportamenti soddisfacenti su più fronti, dal gioco 3D ai flussi video e anche con quelle applicazioni di progettazione da cui oggi si può ottenere il massimo solo disponendo di una Quadro. Inoltre va sottolineato che la potenza di calcolo delle attuali GPU è sfruttata solo nei giochi 3D quando invece si tratta di architetture in grado di produrre molto più delle attuali CPU nel calcolo in virgola mobile, AMD vuole sfruttare questa potenza ad oggi disponibile ma inutilizzata. Se riuscirà in questa impresa titanica sarà il tempo a dirlo ma è un fatto che oggi come oggi il comparto notebook è quello più allettante e conteso del mercato quindi la posta in palio giustifica i mezzi per accaparrarsela ed i costi che può comportareil restare indietro nel mercato 3D gaming.

KuWa
15-05-2007, 17:32
E porta pazienza: ha senso criticare le scelte tecniche relative ad una scheda video prima della sua presentazione, siano esse i 128bit, il numero di Pipe, la quantità di Ram, ma quì c'è gente con la sfera di cristallo, pronta ad urlare "io l'avevo detto", ma che in realtà non la più pallida idea del perchè R600 ha difficoltà di consumi e di frequenze (e a dire la verità un idea non ce l'hanno neppure i Guru, qui o su Anandtech).
Il punto è che avevano "La Fede", e che sotto sotto Tifavano per il fallimento della marca nemica (perchè, parliamoci chiaro: quì c'è chi parla di ATIe nVidia con la stessa lucidità che dimostra in curva allo stadio), quindi adesso godono con il gusto di chi vede "L'Avversario" nella polvere. Non hanno argomantato il loro scetticismo allora così come non lo argomantano oggi ma sono tutti eccitati per la loro G80 (che hanno nel case da mesi) dopo il comprensibile nervosismo in attesa della risposta della concorrenza.
"Sulla carta" c'era tutto per fare di r600 una scheda competitiva (e in realtà lo sarebbe pure non fosse per i consumi e il calore prodotto), Ma non è così, quindi oggi sarebbe il momento giusto di analizzare il perchè di questa debacle; o almeno lo sarebbe su un forum che tratta di hardware a livello tecnco.
Il punto è che ormai il "publico di HwUpgrade" ha ragiunto i livelli più bassi che sia possibile trovare in rete, pieno di adolescenti eccitabili e scarso di persone che hanno qualcosa di costruttivo da aggiungere.
Dopo oltre 90 pagine di commenti devo ancora sentire un solo giudizio tecnico giustificato, che parli delle ragioni per cui questa scheda rende così poco rispetto alle aspettative.

Per parte mia aggiungerei alle critiche che la scelta di restare sulle Gddr3 non aiuta certo la scheda a contenere i consumi, e che pare che per gran parte di questa primavera la maggior parte delle GPU non andasse oltre il debug senza piantarsi e che quindi questa HD2900XT sia stata comunque buttata fuori per disperazione.
Purtroppo la maggiore delusione viene dal fatto che questa R600 è troppo vicina alle prestazioni di R580 nonostante si tratti di una "nuova generazione" e non di una "evoluzione" (per la 8800GTS le cose non vanno diversamente però consuma meno e la GTX è sempre sisponibile per chi vuole spendere).
Complimenti agli enthusiast che hanno acquistato una 8800GTX (se quelle prestazioni sono per loro sfruttabili), ma devono ammettere che anche loro non sapevano che cosa ATI avrebbe poi tirato fuori.
Bene quindi ha fatto chi ha comprato la scheda di nVidia a novembre, contento a prescindere delle prestazioni offerte, e bene ha fatto chi, per un paio di mesi ha preferito aspettare di vedere le evoluzioni del mercato, anche perchè, con l'uscita della Ultra il costo della GTX si è ulteriormente ridimensionato.

Tutti contenti allora?
No, perchè c'è chi si sente di poter sbeffeggiare chi si è mosso prudentemente dall'alto del senno di poi, e se le cose fossero andate diversamente, ora starebbe nascosti a leccarsi le ferite (nel segno dell'eterna gara a "chi ce l'ha più lungo"). :muro:

Considerando che nel prossimo futuro la maggior parte dei giochi uscirà con L'Unreal engine non mi preoccuperei per le DX10 di la da venire ma per le difficoltà che queste schede (di fascia medio-alta) mostrano gia adesso con le DX9.
complimenti agli enthusiast che hanno preso la 8800GTX??? uno deve aspettare ati che fa uscire una scheda 100000000 mesi dopo solo per vedere come va? AMD non c'entra molto... il progetto di questa scheda era già in cantiere da tempo.. mi stupisco che l'abbiano fatta uscire.

Grey 7
15-05-2007, 17:43
Beh, una rondine non fa primavera. Ti suggerisco tuttavia di guardarti i tech demo di Unreal Tournament 2007, Bioshock o Crysis (che sono giochi DX10 nativi, con l'aggiunta al supporto DX9)

no :rolleyes: ut è\sara basato sull'unreal engine e sara dx9, crysis è un gioco dx9 con alcuni effetti dx10 quindi è l'esatto contrario. Prima di vedere un gioco full dx10 campa cavallo...e naturalmente concordo con i dubbi di quelli che temono il peggio per queste schede nell'ambito dx10. Dubitare è lecito

bs82
15-05-2007, 17:45
per ora di giochi PURI in dx10 non ce ne sono, nemmeno bioshock o mass effect....

Lud von Pipper
15-05-2007, 17:48
complimenti agli enthusiast che hanno preso la 8800GTX??? uno deve aspettare ati che fa uscire una scheda 100000000 mesi dopo solo per vedere come va? AMD non c'entra molto... il progetto di questa scheda era già in cantiere da tempo.. mi stupisco che l'abbiano fatta uscire.

Il punto è che hanno entrambi fatto bene nelle scelte fatte: hanno fatto bene a prendere la 8800GTX se quella scheda era adatta alle loro esigenze, e hanno fatto bene ad aspettare se volevano capire che cosa sarebbe uscito da R600.
Non ha a che fare con le politiche dei nVidia o AMD ma con il modo in cui ciascuno di noi decide di spendere i prorpi soldi.

La mia critica è nei confornti di chi, avendo acquistato una 8800GTX allora, ha passato il tempo a rodersi il fegato nel terrore che da R600 ne uscisse qualcosa di meglio (cioè: che cosa doveva fregargliene mai?), e che adesso si siente in diritto di sbeffeggiare gli altri (pur non avendo a suo tempo avuto idea di che cosa avrebbe fatto AMD). Se avevano informazioni fondate che li hanno fatti pendere per nVidia, allora ne sapevano più dei manager alla nVidia corporation.

Il "culo" e il "Senno di poi" non sono meriti di cui ci si possa vantare.

Reignofcaos
15-05-2007, 18:04
Ragazzi, la più grande delusione di questa recensione riguarda sia nvidia che ati!!!
Se con DX10 solo le 8800gtx superano di pochissimo i 30 fps a 1280x1024 siamo messi proprio male! Mi sa che tutte queste schede sono buone solo in DX9... Conviene tenersi stretta una 1950pro e aspettare il 2008, altrimenti si rischia di restare molto delusi all'uscita dei primi giochi DX10. Poi magari mi sbaglio e sia i giochi che i driver saranno più ottimizzati, ma se le indicazioni di questo primo test non sono proprio fuori strada, la vedo nera!
E attualmente non so che senso abbia spendere 400-500 e più euro per 20fps su DX10...


TI QUOTO IN PIENO!!!:eek:
sembra davvero questo quel che si promette all'orizzonte:cry: e non è un bel vedere...:(

...spero solo che il test che hanno usato in recensione su Call of Juarez sia ancora un pò acerbo: driver poco ottimizzati, vista che vuole il SP1 per dare il meglio... e così via... perchè se confermato beh, volgio vedere tra un anno la faccia di chi oggi ha speso 500e per la 8800GTX... e ritrovarsi con davvero 20/30 fps a 1280 x 1024:muro:
Forse è propio vero che queste sono le ultimissime schede DX9... il futuro "vero" deve ancora arrivare

Reignofcaos
15-05-2007, 18:07
pensa le mirabolanti 8600

Non son riuscito a trattenere le risate qui...:D
... cmq c'è poco da ridere, davvero poco:(

DjLode
15-05-2007, 18:07
Il punto è che hanno entrambi fatto bene nelle scelte fatte: hanno fatto bene a prendere la 8800GTX se quella scheda era adatta alle loro esigenze, e hanno fatto bene ad aspettare se volevano capire che cosa sarebbe uscito da R600.
Non ha a che fare con le politiche dei nVidia o AMD ma con il modo in cui ciascuno di noi decide di spendere i prorpi soldi.

La mia critica è nei confornti di chi, avendo acquistato una 8800GTX allora, ha passato il tempo a rodersi il fegato nel terrore che da R600 ne uscisse qualcosa di meglio (cioè: che cosa doveva fregargliene mai?), e che adesso si siente in diritto di sbeffeggiare gli altri (pur non avendo a suo tempo avuto idea di che cosa avrebbe fatto AMD). Se avevano informazioni fondate che li hanno fatti pendere per nVidia, allora ne sapevano più dei manager alla nVidia corporation.

Il "culo" e il "Senno di poi" non sono meriti di cui ci si possa vantare.

Riferito a questo post e a quello precedente, non ho capito perchè mi hai quotato, la critica che fai è verso un certo tipo di gente, quindi falla a loro.
Io ho espresso, credo garbatamente, le mie opinioni. Non ho le conoscenze tecniche per dire che R600 va di meno per questo o quest'altro motivo. Altrimenti probabilmente sarei a lavorare in Amd a recuperare gli errori.
Non so dirti se gli errori siano architetturali o dei driver. Ho solo detto che spero che la nuova architettura sia una base forte per il futuro, e questo posso solo dirlo in futuro, non adesso. Perchè altrimenti ci sarebbe da rifare tutto. E non sono sicuro che AMD sia in grado di sostenere nuovi investimenti massicci. Ripeto, io non ho mai postato decine di link a notizie vere o presunte che mettevano in cattiva luce R600. Prenditela con chi lo faceva :)

Reignofcaos
15-05-2007, 18:09
Che poi, basta UN bench con brutti risultati per scatenare la "dx10fobia"...:D
Io penso che le cose andranno diversamente. A oggi, visti i test praticamente inesistenti, eviterei questi atteggiamenti allarmistici....
Meglio aspettare dati più concreti. :)

Certo che se il buongiorno si vede dal mattino... c'è di che preoccuparsi... cmq concordi sul fatto che Call of Juarez sia un macigno anche in DX9... ma Crysis no? E UT 2007 lo definireste un titolo "leggero"?
Ho paura che con DX10 ripenseremo al concetto di "pesantezza" di un gioco...

Mar1o
15-05-2007, 18:11
TI QUOTO IN PIENO!!!:eek:
sembra davvero questo quel che si promette all'orizzonte:cry: e non è un bel vedere...:(

...spero solo che il test che hanno usato in recensione su Call of Juarez sia ancora un pò acerbo: driver poco ottimizzati, vista che vuole il SP1 per dare il meglio... e così via... perchè se confermato beh, volgio vedere tra un anno la faccia di chi oggi ha speso 500e per la 8800GTX... e ritrovarsi con davvero 20/30 fps a 1280 x 1024:muro:
Forse è propio vero che queste sono le ultimissime schede DX9... il futuro "vero" deve ancora arrivare

una scheda piu' futuristica è stata r600 e si è visto come è stata accolta...:rolleyes:
cmq sono dell'opinione che r600 sia un ottima scheda anche con potenzialità migliori della GTX il fatto è che non si adatta bene alle applicazioni odierne...(sisi lo so non dev'essere l'applicazione che deve adattarsi all'hardware ma il contrario...)...il vero problema in campo informatico è che nel 99% dei casi l'hardware è anni luce avanti rispetto al software (vedi dual-core e compagnia bella) e nel frattempo che i programmatori riescano(hanno voglia) a sviluppare programmi che lo sfruttino è gia diventato vecchio costringendo noi utenti a continui upgrade (naturalmente se si vuole avere un computer con prestazioni accettabili...discorso rivolto sopprattutto ai gamer e agli amanti dei bench)...

Reignofcaos
15-05-2007, 18:16
Considerando che nel prossimo futuro la maggior parte dei giochi uscirà con L'Unreal engine non mi preoccuperei per le DX10 di la da venire ma per le difficoltà che queste schede (di fascia medio-alta) mostrano gia adesso con le DX9.

D'accordo anche qui... e tutti gli altri titoli DX10 in uscita nel 2008???
Le vere vga DX10 sono ancora da venire...

halduemilauno
15-05-2007, 18:17
Il punto è che hanno entrambi fatto bene nelle scelte fatte: hanno fatto bene a prendere la 8800GTX se quella scheda era adatta alle loro esigenze, e hanno fatto bene ad aspettare se volevano capire che cosa sarebbe uscito da R600.
Non ha a che fare con le politiche dei nVidia o AMD ma con il modo in cui ciascuno di noi decide di spendere i prorpi soldi.

La mia critica è nei confornti di chi, avendo acquistato una 8800GTX allora, ha passato il tempo a rodersi il fegato nel terrore che da R600 ne uscisse qualcosa di meglio (cioè: che cosa doveva fregargliene mai?), e che adesso si siente in diritto di sbeffeggiare gli altri (pur non avendo a suo tempo avuto idea di che cosa avrebbe fatto AMD). Se avevano informazioni fondate che li hanno fatti pendere per nVidia, allora ne sapevano più dei manager alla nVidia corporation.

Il "culo" e il "Senno di poi" non sono meriti di cui ci si possa vantare.

ma quale terrore, ma quale rodersi il fegato. come dici te che me(e credo che ce) ne frega. il punto è un'altro. il punto è che i sostenitori di ati sapevano gia tutto avevano gia vinto toccava solo stabilire quanto avevano vinto. chi diceva il 20 chi il 30 uno addirittura ha detto che se non è almeno il 50% in + della gtx non la compro. capisci ora in che mani siamo messi? quando io(e anche altri)dicevo/dicevamo aspettiamo il 14. poi sono uscite le prime rece che facevano vedere quello che ora sappiamo tutti e si gridava al fake, si diceva ma che vi pare che ati è cosi scema che tira fuori una scheda sei mesi dopo che va peggio della gtx? poi è uscita fuori la teoria del depistaggio globale tutti quelli che sapevano o potevano sapere erano autorizzati a dare false informazioni. ti rendi conto? poi son usciti fuori un gruppo di ragazzini che hanno detto che sapevano tutto che avevano visto tutto. ma che ovviamente niente potevano dire ma che lunedi ci sarebbero state le rivelazioni. ti rendi conto ora?
qui non c'è nessun diritto a sbeffeggiare ci mancherebbe altro qui c'è il sacrosanto diritto di replica a chi per mesi e fino all'altro ieri ha fatto disinformazione in perfetta malafede e arroganza.
ecco cosa c'è.

Mparlav
15-05-2007, 18:18
Visto che qualcuno ha dato un'occhiata anche ai test di overclock della HD 2900XT, io vorrei far notare che, francamente, sono piuttosto deludenti.
In genere stiamo sugli 850 Mhz col dissy standard senza overvolt (overclock del 13%) e le memorie a 1.0-1.1Ghz.
Con un minimo di overvolt e 900Mhz, anche a liquido è una bella impresa raffreddare 250-300W che si possono raggiungere in overclock con questa scheda (chi ha avuto a che fare con le Peltier lo sa bene ;-)
Col phase change ho visto 1Ghz, ma a 1.35V (overvolt del 15% dagli 1.175V standard e overclock del 33%).

Una 8800GTS fa' senza problemi i 640-650Mhz col dissy standard senza overvolt (overclock del 30%) e memorie a 900-1.0Ghz
Con 1.5V si fanno i 680-700 (overvolt del 15% e overclock del 35-40%) anche con un waterblock, visto l'enorme differenza di consumi tra le 2 schede.
Quindi, per chi pratica anche l'overclock, e sono molti in fascia enthusiast, sta' scheda non fa' gridare di certo al miracolo.
Sarà per questo motivo che una eventuale XTX a 850Mhz e GDDR4 a 1.1-1.2Ghz con 1Gb, non farà tanto la differenza sulla GTX, visto che di test prestazionali a quel clock già ne girano parecchi (anche della 1Gb GDDR4 OEM).
E dubito che una scheda con 1Gb GDDR4 riescano a venderla a meno di 600 euro visto quanto costano quelle memorie (l'unico termine di riferimento sono gli 80-100 euro di differenza tra x1950XTX con 512Mb GDDR4 vs x1950XT con 512Mb GDDR3)

DakmorNoland
15-05-2007, 18:18
D'accordo anche qui... e tutti gli altri titoli DX10 in uscita nel 2008???
Le vere vga DX10 sono ancora da venire...

Sì d'accordissimo con voi!

Questo è un periodo buio per le VGA ma anche per i videogiochi su PC.

Microsoft che obbliga a cambiare OS per giocare ai nuovi titoli e schede video o non all'altezza o che consumano un botto! :(

Lud von Pipper
15-05-2007, 18:22
Riferito a questo post e a quello precedente, non ho capito perchè mi hai quotato, la critica che fai è verso un certo tipo di gente, quindi falla a loro.

Ti ho citato perchè la penso esattamente come te, e perchè sono daccordo con quello che hai scritto. Ti ho solo detto che le opinioni che hai espresso sulla 2900 sono legittime e che le smentite di altri fatte con il senno di poi non vanno presi in considerazione

halduemilauno
15-05-2007, 18:24
Visto che qualcuno ha dato un'occhiata anche ai test di overclock della HD 2900XT, io vorrei far notare che, francamente, sono piuttosto deludenti.
In genere stiamo sugli 850 Mhz col dissy standard senza overvolt (overclock del 13%) e le memorie a 1.0-1.1Ghz.
Con un minimo di overvolt e 900Mhz, anche a liquido è una bella impresa raffreddare 250-300W che si possono raggiungere in overclock con questa scheda (chi ha avuto a che fare con le Peltier lo sa bene ;-)
Col phase change ho visto 1Ghz, ma a 1.35V (overvolt del 15% dagli 1.175V standard e overclock del 33%).

Una 8800GTS fa' senza problemi i 640-650Mhz col dissy standard senza overvolt (overclock del 30%) e memorie a 900-1.0Ghz
Con 1.5V si fanno i 680-700 (overvolt del 15% e overclock del 35-40%) anche con un waterblock, visto l'enorme differenza di consumi tra le 2 schede.
Quindi, per chi pratica anche l'overclock, e sono molti in fascia enthusiast, sta' scheda non fa' gridare di certo al miracolo.
Sarà per questo motivo che una eventuale XTX a 850Mhz e GDDR4 a 1.1-1.2Ghz con 1Gb, non farà tanto la differenza sulla GTX, visto che di test prestazionali a quel clock già ne girano parecchi (anche della 1Gb GDDR4 OEM).
E dubito che una scheda con 1Gb GDDR4 riescano a venderla a meno di 600 euro visto quanto costano quelle memorie (l'unico termine di riferimento sono gli 80-100 euro di differenza tra x1950XTX con 512Mb GDDR4 vs x1950XT con 512Mb GDDR3)

su l'oc devi tener conto anche dell'ali. amd mi pare che ne consiglia uno sui 600 watt e per il crossfire uno da 700watt. e che abbiano il connettore da 8 pin.
;)

DVD2005
15-05-2007, 18:29
una scheda piu' futuristica è stata r600 e si è visto come è stata accolta...:rolleyes:
cmq sono dell'opinione che r600 sia un ottima scheda anche con potenzialità migliori della GTX il fatto è che non si adatta bene alle applicazioni odierne...(sisi lo so non dev'essere l'applicazione che deve adattarsi all'hardware ma il contrario...)...il vero problema in campo informatico è che nel 99% dei casi l'hardware è anni luce avanti rispetto al software (vedi dual-core e compagnia bella) e nel frattempo che i programmatori riescano(hanno voglia) a sviluppare programmi che lo sfruttino è gia diventato vecchio costringendo noi utenti a continui upgrade (naturalmente se si vuole avere un computer con prestazioni accettabili...discorso rivolto sopprattutto ai gamer e agli amanti dei bench)...

il fatto è però che devono andare bene quando escono con quello che c'è, poi al limite avranno dei margini di ulteriore miglioramento. I dual core non sono pienamente sfruttati però nelle applicazioni vanno bene senza problemi, per seguire il tuo ragionamento R600 sarebbe dovuto andare bene ora e meglio domani, invece non sembra essere così.

ma quale terrore, ma quale rodersi il fegato. come dici te che me(e credo che ce) ne frega. il punto è un'altro. il punto è che i sostenitori di ati sapevano gia tutto avevano gia vinto toccava solo stabilire quanto avevano vinto. chi diceva il 20 chi il 30 uno addirittura ha detto che se non è almeno il 50% in + della gtx non la compro. capisci ora in che mani siamo messi? quando io(e anche altri)dicevo/dicevamo aspettiamo il 14. poi sono uscite le prime rece che facevano vedere quello che ora sappiamo tutti e si gridava al fake, si diceva ma che vi pare che ati è cosi scema che tira fuori una scheda sei mesi dopo che va peggio della gtx? poi è uscita fuori la teoria del depistaggio globale tutti quelli che sapevano o potevano sapere erano autorizzati a dare false informazioni. ti rendi conto? poi son usciti fuori un gruppo di ragazzini che hanno detto che sapevano tutto che avevano visto tutto. ma che ovviamente niente potevano dire ma che lunedi ci sarebbero state le rivelazioni. ti rendi conto ora?
qui non c'è nessun diritto a sbeffeggiare ci mancherebbe altro qui c'è il sacrosanto diritto di replica a chi per mesi e fino all'altro ieri ha fatto disinformazione in perfetta malafede e arroganza.
ecco cosa c'è.

un quote per te ;)

Reignofcaos
15-05-2007, 18:30
Il punto è che hanno entrambi fatto bene nelle scelte fatte: hanno fatto bene a prendere la 8800GTX se quella scheda era adatta alle loro esigenze, e hanno fatto bene ad aspettare se volevano capire che cosa sarebbe uscito da R600.
Non ha a che fare con le politiche dei nVidia o AMD ma con il modo in cui ciascuno di noi decide di spendere i prorpi soldi.

La mia critica è nei confornti di chi, avendo acquistato una 8800GTX allora, ha passato il tempo a rodersi il fegato nel terrore che da R600 ne uscisse qualcosa di meglio (cioè: che cosa doveva fregargliene mai?), e che adesso si siente in diritto di sbeffeggiare gli altri (pur non avendo a suo tempo avuto idea di che cosa avrebbe fatto AMD). Se avevano informazioni fondate che li hanno fatti pendere per nVidia, allora ne sapevano più dei manager alla nVidia corporation.

Il "culo" e il "Senno di poi" non sono meriti di cui ci si possa vantare.

Sicuramnte entrambi i tipi di utenti hanno fatto bene... ma si vede che a me, il solo pensare a 500€ (un milione del vecchio conio) per una scheda video, fa impressione.
Ma ti immagin tra 12 mesi con la GTX nel case e dover arrancare 1280x1024... e la necessità aquel punto di diver investire magari anche una cifra più alta nella nuove generazione di schede "davvero" per dx10???

Chi può fa bene, ma io sinceramente prima di spendere 500€ all'anno per la vga...:muro:
Poi ovviamntre sono scelte personali: passione e portafoglio:rolleyes:

Voglio solo cercare di esprimere il mio sconceto per la situazione attuale del mercato delle schede video DX10!
Io personalmente sto per fare un piccolo investimento, ma rimarrò su DX9... tanto Win Vista nn ho intenzione di metterlo su prima della fine del 2008:fagiano:

halduemilauno
15-05-2007, 18:32
un quote per te ;)

grazie. e detto da uno come te che ha seguito tutta la faccenda sin dall'inizio vale doppio.
grazie ancora.
;)

Evangelion01
15-05-2007, 18:32
ma quale terrore, ma quale rodersi il fegato. come dici te che me(e credo che ce) ne frega. il punto è un'altro. il punto è che i sostenitori di ati sapevano gia tutto avevano gia vinto toccava solo stabilire quanto avevano vinto. chi diceva il 20 chi il 30 uno addirittura ha detto che se non è almeno il 50% in + della gtx non la compro. capisci ora in che mani siamo messi? quando io(e anche altri)dicevo/dicevamo aspettiamo il 14. poi sono uscite le prime rece che facevano vedere quello che ora sappiamo tutti e si gridava al fake, si diceva ma che vi pare che ati è cosi scema che tira fuori una scheda sei mesi dopo che va peggio della gtx? poi è uscita fuori la teoria del depistaggio globale tutti quelli che sapevano o potevano sapere erano autorizzati a dare false informazioni. ti rendi conto? poi son usciti fuori un gruppo di ragazzini che hanno detto che sapevano tutto che avevano visto tutto. ma che ovviamente niente potevano dire ma che lunedi ci sarebbero state le rivelazioni. ti rendi conto ora?
qui non c'è nessun diritto a sbeffeggiare ci mancherebbe altro qui c'è il sacrosanto diritto di replica a chi per mesi e fino all'altro ieri ha fatto disinformazione in perfetta malafede e arroganza.
ecco cosa c'è.

Avendo seguito l' evolversi della situazione, nonchè i vari thread " aspettando r600" non posso far altro che quotare. :O
Si è andati molto al di là delle semplici supposizioni, a cui invecie ci si sarebbe dovuti attenere....

Lud von Pipper
15-05-2007, 18:33
TI QUOTO IN PIENO!!!:eek:
sembra davvero questo quel che si promette all'orizzonte:cry: e non è un bel vedere...:(

...spero solo che il test che hanno usato in recensione su Call of Juarez sia ancora un pò acerbo: driver poco ottimizzati, vista che vuole il SP1 per dare il meglio... e così via... perchè se confermato beh, volgio vedere tra un anno la faccia di chi oggi ha speso 500e per la 8800GTX... e ritrovarsi con davvero 20/30 fps a 1280 x 1024:muro:
Forse è propio vero che queste sono le ultimissime schede DX9... il futuro "vero" deve ancora arrivare

Io la vedo anche più grama di te: [url=http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=5]questo[/quote] test dimostra come i giochi "non recentissimi" e lontano dai riflettori della massa, non essendo stati ottimizzati nei driver (in funzione ovviamente delle prove nelle riviste) ci offrono uno spettacolo deprimente, con la nuova 2900XT ben sotto la stessa 1950XTX :muro:
Cioè, se non siete fanatici dei soliti giochi "per la massa", si rischiano brutte sorprese con queste schede DX10.
Non so se sia per la gioventù dei driver, ma certo, chi spendesse 400€ in queste schede video per giocarci a programmi un pò "old" (basta pensare ai simulatori più in voga)potrebbe otenere prestazioni inferiori a quelli delle schede di generazione precedente...

halduemilauno
15-05-2007, 18:34
Avendo seguito l' evolversi della situazione, nonchè i vari thread " aspettando r600" non posso far altro che quotare. :O
Si è andati molto al di là delle semplici supposizioni, a cui invecie ci si sarebbe dovuti attenere....

grazie anche a te.
;)

Reignofcaos
15-05-2007, 18:36
il fatto è però che devono andare bene quando escono con quello che c'è, poi al limite avranno dei margini di ulteriore miglioramento. I dual core non sono pienamente sfruttati però nelle applicazioni vanno bene senza problemi, per seguire il tuo ragionamento R600 sarebbe dovuto andare bene ora e meglio domani, invece non sembra essere così.


... infatti è quel che sto dicendo anchio:
Se la X2900 XT già adesso arranca e perde inconfronto con 8800 GTS 640 (che non è il top nvidia)... nonostante qualche margine di miglioramento futuro con i dirvers... resterà cmq insoddisfacente viste le richieste dei nuovi games "full DX10".:muro:
Mi ripeto:
LE VERE SCHEDE VIDEO PER GIOCARE CON GIOCHI DX10 DEVONO ANCORA USCIRE... quelle di oggi possono essere considerate di trasizione forse al max... poi nn so, questa è la mia opinione dopo aver letto il più possibile in giro per la rete.

MadMax of Nine
15-05-2007, 18:38
Il punto è che hanno entrambi fatto bene nelle scelte fatte: hanno fatto bene a prendere la 8800GTX se quella scheda era adatta alle loro esigenze, e hanno fatto bene ad aspettare se volevano capire che cosa sarebbe uscito da R600.
Non ha a che fare con le politiche dei nVidia o AMD ma con il modo in cui ciascuno di noi decide di spendere i prorpi soldi.

La mia critica è nei confornti di chi, avendo acquistato una 8800GTX allora, ha passato il tempo a rodersi il fegato nel terrore che da R600 ne uscisse qualcosa di meglio (cioè: che cosa doveva fregargliene mai?), e che adesso si siente in diritto di sbeffeggiare gli altri (pur non avendo a suo tempo avuto idea di che cosa avrebbe fatto AMD). Se avevano informazioni fondate che li hanno fatti pendere per nVidia, allora ne sapevano più dei manager alla nVidia corporation.

Il "culo" e il "Senno di poi" non sono meriti di cui ci si possa vantare.

Concordo, io ho preso la gtx a gennaio (la mia prima fascia alta) consapevole di aver speso 500 euro per una scheda grafica che si sarebbe svalutata in poco tempo ma ero sicuro che mi garantiva una buona potenza anche a distanza di mesi.
Con l'uscita della 2900 il mio "investimento" ha preso valore e magari è la volta buona che si mettano a sviluppare sull'hardware e non viceversa prendendo come riferimento queste ultime schede.

Non ci resta che aspettare nuovi giochi dx10 per avere più dati per valutare...

Evangelion01
15-05-2007, 18:40
Io la vedo anche più grama di te: [url=http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=5]questo test dimostra come i giochi "non recentissimi" e lontano dai riflettori della massa, non essendo stati ottimizzati nei driver (in funzione ovviamente delle prove nelle riviste) ci offrono uno spettacolo deprimente, con la nuova 2900XT ben sotto la stessa 1950XTX :muro:
Cioè, se non siete fanatici dei soliti giochi "per la massa", si rischiano brutte sorprese con queste schede DX10.
Non so se sia per la gioventù dei driver, ma certo, chi spendesse 400€ in queste schede video per giocarci a programmi un pò "old" (basta pensare ai simulatori più in voga)potrebbe otenere prestazioni inferiori a quelli delle schede di generazione precedente...[/QUOTE]

Ecco, è anche questo che mi lascia molto perplesso, riguardo la hd2900. Quando uscì g80, da SUBITO si videro prestazioni molto più elevate rispetto alla precedente generazione geffo7, nonostante l' immaturità dei driver. In questo caso invecie, ci sono segnali preoccupanti che qualcosa non va come dovrebbe. Drivers fatti alla caxxo? Problemi hw? Non si sa, ma una cosa è sicura : non ho MAI visto una vga di nuova generazione andare più lenta della precedente, nemmeno in un caso. :(

DVD2005
15-05-2007, 18:42
grazie. e detto da uno come te che ha seguito tutta la faccenda sin dall'inizio vale doppio.
grazie ancora.
;)

di nulla figurati, molti atteggiamenti hanno dato fastidio anche a me proprio perchè non credo fossero mossi da buona fede.
;)

Evangelion01
15-05-2007, 18:45
grazie anche a te.
;)

Quando uno dice le cose come stanno,quotare è giusto e doveroso..:p

overmod
15-05-2007, 18:45
Senza offesa ma è il tipico discorso di chi non ha la più pallida idea di cosa siano logiche programmabili in elettronica :)

Ci sono chip che sono "vuoti" dentro e non fanno niente se li attacchi alla corrente: li riempi con un software e ti emulano un pentium 2. :rolleyes:

Effettivamente detta così come l'ho detta suona proprio malino.
Mea culpa!
Non volevo assolutamente mettere in dubbio la supremazia del software sull'hardware. Con quella frase intendevo dire che non saranno le prossime release dei drivers Ati a far si che R600 raggiunga e sorpassi G80. Ciò che dici è giustissimo ma il fatto è che o con i drivers attualmente disponibili hanno fatto davvero un pessimo lavoro o non ci saranno rivoluzioni di sorta.

halduemilauno
15-05-2007, 18:47
di nulla figurati, molti atteggiamenti hanno dato fastidio anche a me proprio perchè non credo fossero mossi da buona fede.
;)



Quando uno dice le cose come stanno,quotare è giusto e doveroso..:p


accidenti. grazie ancora.
:mano: :mano:

Kharonte85
15-05-2007, 18:50
di nulla figurati, molti atteggiamenti hanno dato fastidio anche a me proprio perchè non credo fossero mossi da buona fede.
;)
Detto fra noi, io avevo piu' che sospetti della loro poca attendibilita' e piu' di una volta li ho espressi in modi indiretti (e riabboniti per evitare flame)...mi riusciva difficile pensare che quelli che parlavano fossero dei guru con accesso a chi sa quali laboratori (che peraltro venivano a chiedere consigli in "schede video consigli per gli acquisti" :asd:)

Quoto anche io quello detto da Hal, perche' anche io ho seguito tutto (fin dal primo thread di R600 :) )

MenageZero
15-05-2007, 18:51
...
Io personalmente sto per fare un piccolo investimento, ma rimarrò su DX9... tanto Win Vista nn ho intenzione di metterlo su prima della fine del 2008:fagiano:

... a quel punto allora aspetta il 2009 e compra direttamente "vienna" o "windows seven" che dir si voglia ;)

Lud von Pipper
15-05-2007, 18:53
... a qual punto allora aspetta il 2009 e compra direttamente "vienna" o "windows seven" che dir si voglia ;)
Se compra quello che penso io, a questo punto fa un affare ;)

halduemilauno
15-05-2007, 18:55
Detto fra noi, io avevo piu' che sospetti della loro poca attendibilita' e piu' di una volta li ho espressi in modi indiretti (e riabboniti per evitare flame)...mi riusciva difficile pensare che quelli che parlavano fossero dei guru con accesso a chi sa quali laboratori (che peraltro venivano a chiedere consigli in "schede video consigli per gli acquisti" :asd:)

Quoto anche io quello detto da Hal, perche' anche io ho seguito tutto (fin dal primo thread di R600 :) )

ringrazio anche te.

:mano:

MenageZero
15-05-2007, 18:57
Se compra quello che penso io, a questo punto fa un affare ;)
eh ?

mjordan
15-05-2007, 19:07
Ciao. Scusa se mi intrometto, ma hai prove oggettive, inequivocabili e incontrovertibili che le cose stiano proprio come dici tu ??? Dimostrami che le 8800 GTX in DX10 superano di pochissimo i 30 fps in 1280*1024 !!!!

Non ci servono prove obiettive e inequivocabili, basti pensare ad alcune cose:

1) Nella storia delle schede grafiche non è mai successo che una scheda facesse cagare con la versione precedente delle API e poi siano diventate improvvisamente bombe di prestazioni con l'API successiva. DirectX10, innovativa che vuole essere, è pur sempre una continuazione logica di DirectX 9 e molto hanno in comune. Di conseguenza se con molti test la scheda fa cagare in DirectX 9, allora farà cagare anche in molti test DirectX10. Su quelli specifici esclusivi di DX10, invece, leggi il prossimo punto.
2) Sebbene la scheda sia nativa DirectX10 e quindi sia piu' "portata" all'esecuzione di codice basato su questa versione di API, non ci dobbiamo dimenticare che i prossimi titoli avranno una richiesta di potenza computazionale che le schede attuali non possono soddisfare in modo appena sopra la sufficienza. Già oggi con i titoli cazzuti DX9 a risoluzioni fatte bene, queste schede fanno fatica. Con DirectX 10 è piu' sensato pensare a un crollo che non a una rivolta. Ecco perchè io ho detto che queste schede (sia nVidia che ATI) siano piu' buone per godersi i titoli DirectX 9 che non per i DX10. Per i titoli DX 10 queste schede saranno la primissima implementazione, quindi innegabilmente prodotti di fascia "medio/bassa".

E lo dico perchè le schede grafiche in fase di transizione le ho comprate e alla generazione successiva, da mostri che erano, sono diventate tutte mezze schifezzine. Il fatto di avere supporti a questo o a quello c'entra poco e niente. Quello che serve è la potenza elaborativa. Poi che sull'etichetta ci sta scritto "DX versione X" significa poco e niente.

Per cui ipotizzare che questa R600 "rinasca dalle ceneri" con i titoli DX10 è quanto meno ingenuo e auto-illusionistico. Abbiamo vissuto per 6 mesi di speranza, ora non vorremmo viverne altri 5 di illusioni ;)

MiKeLezZ
15-05-2007, 19:10
cavolo .. che reply sensato

Lud von Pipper
15-05-2007, 19:12
eh ?
1950XT sotto i 150€ ;)

aaasssdddfffggg
15-05-2007, 19:13
Concordo.La matematica non è un'opinione.Se la R600 va male in directx9 vuol dire che con le directx10 sarà pura immondizia.Basta sognare ragazzi.Tornate con i piedi per terra.Non è bastato attendere 7 mesi per questa scheda?

mjordan
15-05-2007, 19:14
Come ho già detto da un' altra parte, i bench di UN gioco, per di più non ottimizzato, non fanno vedere le prestazioni reali di queste vga. Penso che sia troppo presto per giudicare le prestazioni in dx10 per 2 semplici ragioni. 1°, i test disponibili sono ancora troppo acerbi e troppo pochi. 2° , perchè bisogna anche pensare a una ipotetica situazione : supponiamo che giochi come lost planet vadano a 20fps com una 8800gtx; quanti allora potrebbero giocarci? Per una software h. sarebbe come tagliarsi le gambe da sola, visto che il 90% del mercato è costituito da schede di fascia medio-bassa, quando non addirittura da vga ancora dx9. Ergo, penso che i giochi saranno decisamente più ottimizzati di quello che vediamo ora, altrimenti saremmo costretti a migrare tutti su console.... non so se mi spiego. :D

Non è come dici tu, perchè quando si parla di "20fps" si considera anche una risoluzione per la scheda in questione, non di certo una risoluzione che invece la maggiorparte delle schede di fascia medio/bassa possano gestire tranquillamente. Con una fascia bassa di certo non vai a pensare a 2560x1600 e con una fascia alta di certo non vai a pensare a 1024x768. Inoltre, aggiungere una qualche nuova feature a una libreria grafica e implementare queste funzioni in hardware, per un gioco richiede si il supporto (hardware) ma anche potenza computazionale in piu'. Quindi sebbene un gioco non ottimizzato, come giustamente dici, non sia indicativo delle performance con i prossimi titoli, è altrettanto vero che non lascia presagire miglioramenti di alcun che natura, solo peggioramenti dovuti al maggior carico di lavoro nella gestione delle nuove features. Se vogliamo essere schietti, usando termini abbordabili, se fa schifo ora, farà ancora piu' schifo domani. ;)

mjordan
15-05-2007, 19:24
Concordo.La matematica non è un'opinione.Se la R600 va male in directx9 vuol dire che con le directx10 sarà pura immondizia.Basta sognare ragazzi.Tornate con i piedi per terra.Non è bastato attendere 7 mesi per questa scheda?

Guarda che il discorso è applicabile pari pari anche alle tue due fantomatiche 7800GTX SLI. Se te le sei gustate al massimo in DirectX9 ok, perchè se ti aspetti 130fps in un gioco new-gen completamente basato su DX10, anche questa è illusione. :sofico: Magari soffrirai molto di meno. Ma molto molto di meno, questo è poco ma sicuro.

Il mio rammarico è solo quello di aver perso 6 mesi. All'attualità, chi deve assemblare un nuovo PC di fascia alta, ha visto nascere queste R600 però la sensazione è pure che è arrivato giusto in tempo per la morte di G80. Ovvero, secondo voi adesso conviene spendere una cifra importante per un'architettura (veloce che vuole essere) "vecchia" di 6 mesi? :cry:

appleroof
15-05-2007, 19:25
Il punto è che hanno entrambi fatto bene nelle scelte fatte: hanno fatto bene a prendere la 8800GTX se quella scheda era adatta alle loro esigenze, e hanno fatto bene ad aspettare se volevano capire che cosa sarebbe uscito da R600.
Non ha a che fare con le politiche dei nVidia o AMD ma con il modo in cui ciascuno di noi decide di spendere i prorpi soldi.

La mia critica è nei confornti di chi, avendo acquistato una 8800GTX allora, ha passato il tempo a rodersi il fegato nel terrore che da R600 ne uscisse qualcosa di meglio (cioè: che cosa doveva fregargliene mai?), e che adesso si siente in diritto di sbeffeggiare gli altri (pur non avendo a suo tempo avuto idea di che cosa avrebbe fatto AMD). Se avevano informazioni fondate che li hanno fatti pendere per nVidia, allora ne sapevano più dei manager alla nVidia corporation.

Il "culo" e il "Senno di poi" non sono meriti di cui ci si possa vantare.

ma quale terrore, ma quale rodersi il fegato. come dici te che me(e credo che ce) ne frega. il punto è un'altro. il punto è che i sostenitori di ati sapevano gia tutto avevano gia vinto toccava solo stabilire quanto avevano vinto. chi diceva il 20 chi il 30 uno addirittura ha detto che se non è almeno il 50% in + della gtx non la compro. capisci ora in che mani siamo messi? quando io(e anche altri)dicevo/dicevamo aspettiamo il 14. poi sono uscite le prime rece che facevano vedere quello che ora sappiamo tutti e si gridava al fake, si diceva ma che vi pare che ati è cosi scema che tira fuori una scheda sei mesi dopo che va peggio della gtx? poi è uscita fuori la teoria del depistaggio globale tutti quelli che sapevano o potevano sapere erano autorizzati a dare false informazioni. ti rendi conto? poi son usciti fuori un gruppo di ragazzini che hanno detto che sapevano tutto che avevano visto tutto. ma che ovviamente niente potevano dire ma che lunedi ci sarebbero state le rivelazioni. ti rendi conto ora?
qui non c'è nessun diritto a sbeffeggiare ci mancherebbe altro qui c'è il sacrosanto diritto di replica a chi per mesi e fino all'altro ieri ha fatto disinformazione in perfetta malafede e arroganza.
ecco cosa c'è.

Assolutamente d'accordo. Inoltre lo spettacolo a cui si è assistito negli ultimi giorni quando il primo pinco pallo che diceva di aspettare lunedì e immense sorprese (e magari si faceva grasse risate assistendo alle reazioni deliranti degli utenti) è qualcosa che rasentava il penoso...


il fatto è però che devono andare bene quando escono con quello che c'è, poi al limite avranno dei margini di ulteriore miglioramento. I dual core non sono pienamente sfruttati però nelle applicazioni vanno bene senza problemi, per seguire il tuo ragionamento R600 sarebbe dovuto andare bene ora e meglio domani, invece non sembra essere così.



un quote per te ;)

Anche qui assolutamente d'accordo. C'è poco da fare, non spendo 400 euro (questi si che forse meriterebbero un appunto solo lontanamente paragonabile alle menate fatte in questi mesi a chi ha preso la 8800gtx) "sulla fiducia"...

Evangelion01
15-05-2007, 19:27
Non è come dici tu, perchè quando si parla di "20fps" si considera anche una risoluzione per la scheda in questione, non di certo una risoluzione che invece la maggiorparte delle schede di fascia medio/bassa possano gestire tranquillamente. Con una fascia bassa di certo non vai a pensare a 2560x1600 e con una fascia alta di certo non vai a pensare a 1024x768. Inoltre, aggiungere una qualche nuova feature a una libreria grafica e implementare queste funzioni in hardware, per un gioco richiede si il supporto (hardware) ma anche potenza computazionale in piu'. Quindi sebbene un gioco non ottimizzato, come giustamente dici, non sia indicativo delle performance con i prossimi titoli, è altrettanto vero che non lascia presagire miglioramenti di alcun che natura, solo peggioramenti dovuti al maggior carico di lavoro nella gestione delle nuove features. Se vogliamo essere schietti, usando termini abbordabili, se fa schifo ora, farà ancora piu' schifo domani. ;)

Non è nemmeno così... :)
Intanto hai dimenticato che i drivers si evolvono, e le prestazioni di una vga di oggi , non sono = a quelle che avrà domani..
Secondo, è ovvio che le prestazioni andranno comunque scendendo, in proporzione alle richieste hw del gioco, ma nel caso delle 8000, non possiamo dimenticarci che sono sul mercato da circa 7 mesi, ed è naturale che ciò avvenga. Ma finora sono andate bene con praticamente tutti i titoli dx9. Quindi non vedo perchè all' improvviso dovrebbero andare da schifo in dx10. Poi il discorso lo riferisco alla ris . standard cioè quella a cui giocano la maggioranza di utenti. Quanti sono secondo te, quelli che giocano a 2560? imho l'mportante è che reggano bene questa ris. con tutti gli effetti attivi. Perchè diciamocelo, queste vga non sono fatte per giocare davvero bene a 2560. Per quello bisognerà aspettare che progrediscano, come è sempre stato. :)

ninja750
15-05-2007, 19:29
Visto che qualcuno ha dato un'occhiata anche ai test di overclock della HD 2900XT, io vorrei far notare che, francamente, sono piuttosto deludenti.
In genere stiamo sugli 850 Mhz col dissy standard senza overvolt (overclock del 13%) e le memorie a 1.0-1.1Ghz.
Con un minimo di overvolt e 900Mhz, anche a liquido è una bella impresa raffreddare 250-300W che si possono raggiungere in overclock con questa scheda (chi ha avuto a che fare con le Peltier lo sa bene ;-)
Col phase change ho visto 1Ghz, ma a 1.35V (overvolt del 15% dagli 1.175V standard e overclock del 33%).

Una 8800GTS fa' senza problemi i 640-650Mhz col dissy standard senza overvolt (overclock del 30%) e memorie a 900-1.0Ghz
Con 1.5V si fanno i 680-700 (overvolt del 15% e overclock del 35-40%) anche con un waterblock, visto l'enorme differenza di consumi tra le 2 schede.
Quindi, per chi pratica anche l'overclock, e sono molti in fascia enthusiast, sta' scheda non fa' gridare di certo al miracolo.
Sarà per questo motivo che una eventuale XTX a 850Mhz e GDDR4 a 1.1-1.2Ghz con 1Gb, non farà tanto la differenza sulla GTX, visto che di test prestazionali a quel clock già ne girano parecchi (anche della 1Gb GDDR4 OEM).
E dubito che una scheda con 1Gb GDDR4 riescano a venderla a meno di 600 euro visto quanto costano quelle memorie (l'unico termine di riferimento sono gli 80-100 euro di differenza tra x1950XTX con 512Mb GDDR4 vs x1950XT con 512Mb GDDR3)

ma per inciso in questi test in oc la scheda come si comporta?

RICKYL74
15-05-2007, 19:30
Lo sfogo della gente è normale, i fanboy di ATI ci saranno rimasti male :asd: eh! ma non mi sembra tutto questo abisso dai..
io mi son preso una 8800GTX e ne sono molto soddisfatto in overclock raggiunge i (650-2200 dissi originale) il problema e che l'ho Sfruttata poco, diciamo ANCORA UNA M***A!! perchè non si vedono giochi all'orizzonte "POCHI GIOCHI" ma lasciamo perdere discorso a parte.

LA TOP DI GAMMA DI ATI? mmmh c'è qualcosa che non mi convince
la HD 2900XT è un ottima scheda ma va migliorata questo è sicuro e non credo sia la top di gamma o per lo meno ci resterà per poco, la cosa che non capisco come mai dopo tutto questo tempo non sono riusciti ad ottimizzarla a dovere, perchè per essere una top di gamma ha deluso di molto le aspettative, la cosa non convince e questo alla ATI lo sapevano benissimo come lo sapevano quelli di nVidia e tutti gli addetti ai lavori, quindi un pò di dubbi in merito ci sono e spero di scioglierli più avanti. Poi non capisco tutte queste critiche, la New entry è comunque una gran bella scheda video "giovane" che dovrà crescere, sicuramente miglioreranno con nuove soluzioni, al momento non possono competere con le nuove nVidia che sono mostruose tra un pò usciranno le 8900 e le GX2 che saranno devastanti, qundi ATI si deve dare molto da fare, il problema rimangono i giochi c*zz*rola!! ma dove sono sti giochi dx10 :boh:


Domanda per la redazione (vi prego rispondetemi altrimenti cambio canale) ..scherzo eh :D ..

..la versione OEM con 1gb ddr4, esiste davvero? a quando un test, sono curioso, complimenti per la rete Ottimo lavoro davvero, saluti.

aaasssdddfffggg
15-05-2007, 19:32
le mie fantomatiche 7800 gtx in sli?Che bestemmia.Mi sono aggiornato di recente lasciando 2 8800 gtx e prendendo 2 8800 gtx ultra sempre della evga.Da paura.Ciao amico.

halduemilauno
15-05-2007, 19:33
Assolutamente d'accordo. Inoltre lo spettacolo a cui si è assistito negli ultimi giorni quando il primo pinco pallo che diceva di aspettare lunedì e immense sorprese (e magari si faceva grasse risate assistendo alle reazioni deliranti degli utenti) è qualcosa che rasentava il penoso...



appunto quello che sostenevo.
;)

Lud von Pipper
15-05-2007, 19:35
Ovvero, secondo voi adesso conviene spendere una cifra importante per un'architettura (veloce che vuole essere) "vecchia" di 6 mesi? :cry:
In realtà la domanda è: un architettura esistente (fosse anche da due anni) soddisfa in pieno le mie esigenze?
E ancora: le mie esigenze sono al passo con la realtà?
Nel senso che la realta suggerisce che i programmatori abbiano poca voglia di sbattersi sul PC e che dedichino quasi tutto il loro tempo alle consolle. Sul PC arrivano soprattutto conversioni e, con PS3 e Xbox ferme alle DX9, non vendo ancora un gran mercato per Vista e per le schede di nuova generazione (soprattutto dopo la delusione AMD).

Per ora la GTX mi sembra ancora una buona scelta

appleroof
15-05-2007, 19:38
appunto quello che sostenevo.
;)

Ma la cosa ancora più assurda è il continuare sulla stessa falsariga....:eek:

mjordan
15-05-2007, 19:38
Non è nemmeno così... :)
Intanto hai dimenticato che i drivers si evolvono, e le prestazioni di una vga di oggi , non sono = a quelle che avrà domani..
Secondo, è ovvio che le prestazioni andranno comunque scendendo, in proporzione alle richieste hw del gioco, ma nel caso delle 8000, non possiamo dimenticarci che sono sul mercato da circa 7 mesi, ed è naturale che ciò avvenga. Ma finora sono andate bene con praticamente tutti i titoli dx9. Quindi non vedo perchè all' improvviso dovrebbero andare da schifo in dx10. Poi il discorso lo riferisco alla ris . standard cioè quella a cui giocano la maggioranza di utenti. Quanti sono secondo te, quelli che giocano a 2560? imho l'mportante è che reggano bene questa ris. con tutti gli effetti attivi. Perchè diciamocelo, queste vga non sono fatte per giocare davvero bene a 2560. Per quello bisognerà aspettare che progrediscano, come è sempre stato. :)

E vedendo i margini di miglioramento con "l'evoluzione dei driver" che in genere non toccano punte poi cosi alte, che ti viene in mente? Che saranno piu' veloci ad Unreal Tournament 2007 versione DX10 che con Unreal Tournament 2004?
Sembra che riponiate molta fiducia nei driver.

Poi faccio una nota meramente economica:"Ma perchè caxxo dopo sei mesi di attesa devo stare ancora a sperare?"
Si parla come se sul mercato non ci siano alternative. :)

danyroma80
15-05-2007, 19:42
voglio dire la mia: Sono deluso da questo primo benchmark, ma non sono così pessimista nei confronti di Ati. Dai test effettuati si nota come la 2900XT oscilli continuamente tra le ultime posizioni e le prime. Questo moi lascia pensare che hanno dei gran problemi con i driver e l'integrazione con windows vista. Sarebbe interessante rifare i test alla prossima release dei driver catalyst

AnDrE_84
15-05-2007, 19:45
mi sono appena fatto un salto da dinox e li, al contrario di ieri dove ho letto le recensioni di Tom's e HW, sono riuscito a riflettere un pochino meglio, non essendo stato bombardato dagli incessanti "ci aspettavamo di meglio da ATI"...
A me pare che ATI abbia fatto un buon mezzo, proponendolo per di più in una fascia di prezzo (400 sono comunque tanti in generale) che pur con driver prematuri riesce a dare massa schiaffi alla diretta concorrente GTS (ed occio che la OC su pixmania costa pure di più). Inoltre con Serious Sam 2, che è un titoletto pesantuccio, sega le gambe pure alla GTX OC... Dunque: visto che non è ancora uscita la famigerata XTX con il GB GDDR4 e frequenze operative immagino parecchio più spinte... e che i catalyst sono alla prima release... direi non è per niente male come per ora l'ho vista dipinta (se non per i consumi da motosega :-)) dalla maggior parte delle testate on-line!
Cmq io per ora sto benissimo con le mie 1950cross&XTX e penso che in un futuro (non molto prossimo mi auspico) rimarrò per ATI che per ora non m'ha mai deluso!

Evangelion01
15-05-2007, 19:45
E vedendo i margini di miglioramento con "l'evoluzione dei driver" che in genere non toccano punte poi cosi alte, che ti viene in mente? Che saranno piu' veloci ad Unreal Tournament 2007 versione DX10 che con Unreal Tournament 2004?
Sembra che riponiate molta fiducia nei driver.

Poi faccio una nota meramente economica:"Ma perchè caxxo dopo sei mesi di attesa devo stare ancora a sperare?"
Si parla come se sul mercato non ci siano alternative. :)

Poi quello di UT non è un paragone molto logico, perchè bisognava vedere che vga c'erano quando uscì... e come andavano con un gioco all'
epoca pesante per farsi un' idea dei possibili scenari.
Il mercato high - end oggi offre 8800 o 2900. non c'è molto da scegliere...

mjordan
15-05-2007, 19:46
In realtà la domanda è: un architettura esistente (fosse anche da due anni) soddisfa in pieno le mie esigenze?
E ancora: le mie esigenze sono al passo con la realtà?
Nel senso che la realta suggerisce che i programmatori abbiano poca voglia di sbattersi sul PC e che dedichino quasi tutto il loro tempo alle consolle. Sul PC arrivano soprattutto conversioni e, con PS3 e Xbox ferme alle DX9, non vendo ancora un gran mercato per Vista e per le schede di nuova generazione (soprattutto dopo la delusione AMD).

Per ora la GTX mi sembra ancora una buona scelta

Si hai ragione, il fatto sai com'è ... Ansia di acquisto.

Mar1o
15-05-2007, 19:47
mi sono appena fatto un salto da dinox e li, al contrario di ieri dove ho letto le recensioni di Tom's e HW, sono riuscito a riflettere un pochino meglio, non essendo stato bombardato dagli incessanti "ci aspettavamo di meglio da ATI"...
A me pare che ATI abbia fatto un buon mezzo, proponendolo per di più in una fascia di prezzo (400 sono comunque tanti in generale) che pur con driver prematuri riesce a dare massa schiaffi alla diretta concorrente GTS (ed occio che la OC su pixmania costa pure di più). Inoltre con Serious Sam 2, che è un titoletto pesantuccio, sega le gambe pure alla GTX OC... Dunque: visto che non è ancora uscita la famigerata XTX con il GB GDDR4 e frequenze operative immagino parecchio più spinte... e che i catalyst sono alla prima release... direi non è per niente male come per ora l'ho vista dipinta (se non per i consumi da motosega :-)) dalla maggior parte delle testate on-line!
Cmq io per ora sto benissimo con le mie 1950cross&XTX e penso che in un futuro (non molto prossimo mi auspico) rimarrò per ATI che per ora non m'ha mai deluso!

come non quotarti...anke io la penso cosi...bisogna dare tempo a questa skeda e inoltre molti si aspettavano qualcosa ke surclassasse la 8800gtx quando la stessa ATI aveva avvisato ke nn sarebbe stato cosi ;)
il problema dei consumi xò rimane....

Evangelion01
15-05-2007, 19:47
Si hai ragione, il fatto sai com'è ... Ansia di acquisto.

Stai per comperare? :)

Lud von Pipper
15-05-2007, 19:54
Dunque: visto che non è ancora uscita la famigerata XTX con il GB GDDR4 e frequenze operative immagino parecchio più spinte... e che i catalyst sono alla prima release... direi non è per niente male come per ora l'ho vista dipinta (se non per i consumi da motosega :-))

Per come la vedo io, il paletto di frassino per la 2900 è proprio il consumo eccessivo. La ragione per cui non si parla di XTX è nell'impossibilità di spingere oltre questa GPU e la scelta delle Gddr3 è dovuta alla necessità di ridurre i costi.
Nota che sono state annunciate tutte le declinazioni in fascia media ma non verso l'alto a dimostrazione che il punto critico è nelle frequenze della GPU.

Non stronco la scheda per le prestazioni, anche se a ben vedere ci sono risultati ben strani, dove viaggia sotto una 1950XTX, ma non consiglierei questa scheda a nessuno, perchè rumorosa è perchè consuma uno sproposito.

Con l'avvento dei 65nm le cose potrebbero cambiare, a favore oppure ulteriormente a sfavore di AMD, ma per ora, chi vuole una scheda con un minimo di prospettive per il futuro farà bene a mettere mano al portafoglio e sborsare quanto richiesto per una 8800GTX.
Chi può aspettare invece farà bene ad armarsi di pazienza e vedere come evolverà il mercato (e il giochi).

Il lato positivo della faccenda è che per ora Vista se ne resta fuori dai computer per videogiocare ;)

RICKYL74
15-05-2007, 19:56
Mi sono aggiornato di recente lasciando 2 8800 gtx e prendendo 2 8800 gtx ultra sempre della evga

...Ganza questa!!

O nemesis ora le 8800ultra :eek: ..minchia!! ma scusa non potevi aspettare le 8900 o le 8950gx2 tra un pò ti toccherà cambiare ancora.. dispendioso direi :rolleyes:

P.S.
non capisco se la tua è una battuta o le 8800gtx le hai cambiate sul serio
Le hai cabiate? 2 8800gtx sono una potenza 3D da paura che serviva cambiarle con 2 in versione ultra bastava overclokkarle un pò ed era fatta!!! anche perchè una sola 8800gtx anche se possiedi un lcd da 30" con quello che c'è in giro al momento non la pieghi nemmeno se ti impegni a inventarti risoluzioni tipo 3200x1600, comunque contento tu.

halduemilauno
15-05-2007, 19:58
...Ganza questa!!

O nemesis ora le 8800ultra :eek: ..minchia!! ma scusa non potevi aspettare le 8900 o le 8950gx2 tra un pò ti toccherà cambiare ancora.. dispendioso direi :rolleyes:

P.S.
non capisco se la tua è una battuta o le 8800gtx le hai cambiate sul serio
Le hai cabiate? 2 8800gtx sono una potenza 3D da paura che serviva cambiarle con 2 in versione ultra bastava overclokkarle un pò ed era fatta!!! anche perchè una sola 8800gtx anche se possiedi un lcd da 30" con quello che c'è in giro al momento non la pieghi nemmeno se ti impegni a inventarti risoluzioni tipo 3200x1600, comunque contento tu.


pare che le gtx non raggiungano in oc tutti i valori della ultra.
;)

Crux_MM
15-05-2007, 19:59
Facciamo 1000 commenti?
:D:D:D

OT? Nooooooooooooooooooooooooooooo!

appleroof
15-05-2007, 19:59
Per come la vedo io, il paletto di frassino per la 2900 è proprio il consumo eccessivo. La ragione per cui non si parla di XTX è nell'impossibilità di spingere oltre questa GPU e la scelta delle Gddr3 è dovuta alla necessità di ridurre i costi.
Nota che sono state annunciate tutte le declinazioni in fascia media ma non verso l'alto a dimostrazione che il punto critico è nelle frequenze della GPU.

Non stronco la scheda per le prestazioni, anche se a ben vedere ci sono risultati ben strani, dove viaggia sotto una 1950XTX, ma non consiglierei questa scheda a nessuno, perchè rumorosa è perchè consuma uno sproposito.

Con l'avvento dei 65nm le cose potrebbero cambiare, a favore a ulteriormente a sfavore di AMD, ma per ora, chi vuole una scheda con un minimo di prospettive per il futuro farà bene a mettere mano al portafoglio e sborsare quanto richiesto per una 8800GTX.
Chi può aspettare invece farà bene ad armarsi di pazienza e vedere come evolverà il mercato (e il giochi).

Il lato positivo della faccenda è che per ora Vista se ne resta fuori dai computer per videogiocare ;)

A quel punto i 65nm saranno molto probabilmente anche sulle Nvidia...

Lud von Pipper
15-05-2007, 19:59
Si hai ragione, il fatto sai com'è ... Ansia di acquisto.

Nella lingua di albione si definirebbe "the itch" :D

appleroof
15-05-2007, 20:01
pare che le gtx non raggiungano in oc tutti i valori della ultra.
;)

No infatti, a meno credo di overvolt rischiosi e cmq assolutamente non alla portata dell'"overclocker medio" se possiamo dire così (tra l'altro il chip della ultra come sai è di uno step successivo a quello della gtx e anche le memorie sono migliori)

Lud von Pipper
15-05-2007, 20:09
A quel punto i 65nm saranno molto probabilmente anche sulle Nvidia...
Già, ma a quel punto, per stare dietro alla GPU nvidia dovrà passare alle GddR4 come ATI e le variabili sono molte.
Al momento sappiamo che le frequenze di R600 sono rimaste al di sotto delle aspettative di ATI stessa e che non si è ritenuto di procedere con la prevista HD2900XTX da 1GB (che probabilmente non saliva abbastanza).
Però non posso credere che gli ingegneri canadesi siano così sprovveduti da avere "cannato" in pieno il progetto ed essersi fatti beccare a braghe calte.
Queste schede (G80 ed R600) girano da anni su simulatori software che predicono (bene o male) i risultati da attendersi.
Al momento, e con questo processo produttivo G80 risulta nettamente vincitore sulla concorrenza, così come G60 è stato un gradino sopra ad R420, ma in futuro si vedrà se è i problemi di R600 sono di natura tecnica o di progettazione.

Per la fascia intermedia non mi aspetto miracoli, anche se le schede AMD potrebbero andare "leggermente" meglio delle oscene 8600: quelle schede resteranno inutilizzabili per le DX10.

int main ()
15-05-2007, 20:09
può avere anke 1 circuito di mille valvolo, ma se nn si trasforma in 1 razzo missile nn è mica goldrake:O :sofico: :sofico: :sofico:

RICKYL74
15-05-2007, 20:09
pare che le gtx non raggiungano in oc tutti i valori della ultra.
;)


La BFG 8800GTX OC 2 default (626-2000) l'ho portata a 650-2200 e non è ultra

MenageZero
15-05-2007, 20:12
Per come la vedo io, il paletto di frassino per la 2900 è proprio il consumo eccessivo. La ragione per cui non si parla di XTX è nell'impossibilità di spingere oltre questa GPU e la scelta delle Gddr3 è dovuta alla necessità di ridurre i costi.
Nota che sono state annunciate tutte le declinazioni in fascia media ma non verso l'alto a dimostrazione che il punto critico è nelle frequenze della GPU.

Non stronco la scheda per le prestazioni, anche se a ben vedere ci sono risultati ben strani, dove viaggia sotto una 1950XTX, ma non consiglierei questa scheda a nessuno, perchè rumorosa è perchè consuma uno sproposito.

Con l'avvento dei 65nm le cose potrebbero cambiare, a favore oppure ulteriormente a sfavore di AMD, ma per ora, chi vuole una scheda con un minimo di prospettive per il futuro farà bene a mettere mano al portafoglio e sborsare quanto richiesto per una 8800GTX.
Chi può aspettare invece farà bene ad armarsi di pazienza e vedere come evolverà il mercato (e il giochi).

Il lato positivo della faccenda è che per ora Vista se ne resta fuori dai computer per videogiocare ;)

... paletto di frassino ... :D :rotfl: ... questa ancora mi mancava in un contesto dl genere...
(complimenti x la fantasia... ma in efetti anche l'accostamento è azzeccato, le ultime gpu sono di veri vampiri succhia-energia... :D )

aggiungerei alla tua considerazione finale sugli acquisti, che chi non ha molta fretta potrebbe far bene ad aspettare l'autunno, proprio per i consumi (anche la gts non è che sia in assoluto una scheda poco esosa), cioè si spera che per l'ultimo trimestre dell'anno da entrambe le parti avranno almeno dato una shrinkatina anche alla fascia medio-alta ;)

dragonheart81
15-05-2007, 20:14
Bell'articolo!Cavolo c'e scritto mezz'ora di lettura io stamattina ci ho messo 3/4 ore ad analizzarlo tutto e mi mancano ancora le ultime 3 pagine che leggerò domani mattina :D

Dj Antonino
15-05-2007, 20:19
Bell'articolo!Cavolo c'e scritto mezz'ora di lettura io stamattina ci ho messo 3/4 ore ad analizzarlo tutto e mi mancano ancora le ultime 3 pagine che leggerò domani mattina :D

:eek: io ci ho messo un'oretta a leggerlo tutto con calma.. però ammetto di non aver capito tutto della parte tecnica.. :asd:

Lud von Pipper
15-05-2007, 20:20
(anche la gts non è che sia in assoluto una scheda poco esosa), cioè si spera che per l'ultimo trimestre dell'anno da entrambe le parti avranno almeno dato una shrinkatina anche alla fascia medio-alta ;)

Beh, io la GTS non al considero proprio: è una scheda che, come anche al 2900, va bene "ora", ma da qui a quando si useranno finalmente queste benedette API Dx10 si rischiano brutte sorprese.
Se poi uno deve cambiare la 6600 Gt o la X800 allora ci si potrebbe anche ragionare ma in giro si trovano degnissime DX9 che costano molto ma MOLTOi meno: risparmio oggi per comprare meglio a breve :cool:

(400€ fanno pur sempre quasi 800000 lire! :read: )

appleroof
15-05-2007, 20:22
Già, ma a quel punto, per stare dietro alla GPU nvidia dovrà passare alle GddR4 come ATI e le variabili sono molte.
Al momento sappiamo che le frequenze di R600 sono rimaste al di sotto delle aspettative di ATI stessa e che non si è ritenuto di procedere con la prevista HD2900XTX da 1GB (che probabilmente non saliva abbastanza).
Però non posso credere che gli ingegneri canadesi siano così sprovveduti da avere "cannato" in pieno il progetto ed essersi fatti beccare a braghe calte.
Queste schede (G80 ed R600) girano da anni su simulatori software che predicono (bene o male) i risultati da attendersi.
Al momento, e con questo processo produttivo G80 risulta nettamente vincitore sulla concorrenza, così come G60 è stato un gradino sopra ad R420, ma in futuro si vedrà se è i problemi di R600 sono di natura tecnica o di progettazione.

Per la fascia intermedia non mi aspetto miracoli, anche se le schede AMD potrebbero andare "leggermente" meglio delle oscene 8600: quelle schede resteranno inutilizzabili per le DX10.

Ma infatti la vera fascia media Nvidia, diciamo il jolly, saranno a breve le attuali 8800gts nelle due declinazioni

Lud von Pipper
15-05-2007, 20:24
Ma infatti la vera fascia media Nvidia, diciamo il jolly, saranno a breve le attuali 8800gts nelle due declinazioni
In quel caso andrebbero benone, ma il prezzo dovrà stare attorno ai 250€ se vogliono catturare quella fascia di mercato.

Tetsujin
15-05-2007, 20:24
ci sono novità sul fronte driver per la 2900? ho visto circolare alcuni grafici dove in certi giochi stava addirittura sopra la ultra :confused:

comunque ragazzi...capisco che i fan nvidia gioiscano del momento infelice di ati, ma tutti coloro che in passato, da bravi fan, hanno speso (e sprecato) i loro soldi per una 7800 (o addirittura per averne 2 in sli) rinunciando a prestazioni e qualità video pur di non tradire la propria fede, dovrebbero un attimino guardarsi allo specchio prima di ridere degli altri. siete tutti uguali, verdi o rossi che siate ;)

AnDrE_84
15-05-2007, 20:25
"Nota che sono state annunciate tutte le declinazioni in fascia media ma non verso l'alto a dimostrazione che il punto critico è nelle frequenze della GPU".

Per quanto riguarda l'aspetto tecnico ti do perfettamente ragione Lud (io non ne sono un grand'esperto ma verissimo è che 740 mhz paiono già un fottio), però commercialmente parlando non credo che AMD si lasci sfuggire la possibilità di replicare alla prossima 8900 con un prodotto all'altezza delle aspettative... e comunque sia, come tutti, spero sinceramente che il confronto tra le 2 continui ad esserci, non tanto per rivaleggiarsela tra guelfi e ghibellini quanto per mantenere un po di sana concorrenza.

E per i consumi più vado avanti più mi convinco che non c'è un cazzo da fare... se non si danno una svegliata in tal senso come intel a suo tempo ha fatto la vedo non grigia ma marrone merda... già io che ormai da un annetto ho montato le mie (di precedente generazione!) consumo come un boiler e mi tocca tenere acceso il fisso solo per giocare ed usare applicazioni peso, per il resto vado di portatile se no la bolletta, come ho provato subito dopo aver aggiornato il sistema (spesa non indifferente peraltro), mi buca gli occhi!!!

In rispo a Mar1o: Grande!!!

In rispo a RICKYL74: nemesis o spara ingiurie, o è figlio del ranzani! in entrambi i casi è già il mio idolo. sul serio.

scusate l'enorme ignoranza ma mi sono appena iscritto e non so ancora come aggiungere i link ai commenti altrui...

AnDrE_84
15-05-2007, 20:36
scusate l'enorme ignoranza ma mi sono appena iscritto e non so ancora come aggiungere i link ai commenti altrui...

ma LOL che pirla... bastava accedere dal forum :doh:

appleroof
15-05-2007, 20:38
In quel caso andrebbero benone, ma il prezzo dovrà stare attorno ai 250€ se vogliono catturare quella fascia di mercato.

In realtà la 8800gts 320 è già sui 250, per la 640 è annunciato un taglio che la porta sui 300/320 euro

dragonheart81
15-05-2007, 20:40
:eek: io ci ho messo un'oretta a leggerlo tutto con calma.. però ammetto di non aver capito tutto della parte tecnica.. :asd:

E' la parte tecnica/archittettura che mi ha portato via più tempo i bench meno infatti mi lascio le ultime pagine per domani quelle in un quarto d'ora le leggo.

aaasssdddfffggg
15-05-2007, 20:40
Si le ho cambiate perchè a fare la differenza sono i 128 sp portati a 1500 e non le frequenze pompate del chip e delle memorie come molti si mettono ad overcloccare. gli sp di una 8800gtx non li porti a 1500Mhertz.Saluti.

halduemilauno
15-05-2007, 20:43
La BFG 8800GTX OC 2 default (626-2000) l'ho portata a 650-2200 e non è ultra

tocca vedere anche lo shader clock.
;)

halduemilauno
15-05-2007, 20:51
Beh, io la GTS non al considero proprio: è una scheda che, come anche al 2900, va bene "ora", ma da qui a quando si useranno finalmente queste benedette API Dx10 si rischiano brutte sorprese.
Se poi uno deve cambiare la 6600 Gt o la X800 allora ci si potrebbe anche ragionare ma in giro si trovano degnissime DX9 che costano molto ma MOLTOi meno: risparmio oggi per comprare meglio a breve :cool:

(400€ fanno pur sempre quasi 800000 lire! :read: )

la gts non la consideri proprio. ok è chiaro. ma una domanda senza polemica alcuna per carità ma tra te che hai speso 230€ per una x1950xt e io che ho speso 250€ per una 8800gts320 comprata mi pare un 10 giorni dopo e cmq annunciata gia da gennaio. ma secondo te chi ha fatto l'affare?
cosi per chiarire e per far capire. lo ripeto senza polemica.
prego dimmi.

M4R1|<
15-05-2007, 20:59
no allora, mi rifaccio a un commento di uno indietro che ha detto che di giochi svilupati interamnete in DX10 non cen ne sono, allora, uno che spende 400/500 per giocare in DX10 e poi TUTTE le schede fanno andare un ibido DX9/10 da cagare, questo no, è inaccettabile e assurdo, allora dovevano dire tutte le case "questa è un top DX9, e poi con i primi titoli DX10 ti dicevano, tho ti ho regalato il supporto DX10, ma nn lamentarti se poi nn hai delle supr prestazioni" cioè io mi tengo strette la mia 6800GT che oggi come oggi è cmq potente e spendo soldi in CPU e Ram.
poi c'è anche da dire che la demo di novembre di Crysis andavano sul 720p con GTX in sli, e li andavano molto bene, quindi mi chiedo ma allora o CoJ fa schifo oppuire nn era uno sli, cioè se prendo una 2900 o un 8800 voglio in DX10 seri risultati, (e seri driver) no? cioè mi metto nei panni di chi ha preso un G80 e poi vede questo, ancor di più dove hanno appena annuciato che unreal engine 3 sara interamente in DX10!!! cioè significa aver preso i soldi ed averli usati come diavolina nel camino!!!! poi mi chiedo ma R600 e i suoi azzo di 320 Stream processing units, dove sono!!!! cioè io sono uno di quelli che si spettava un mostro, nn dico che è un flop, ma che... significa o aspettare o prenderla incertamente, e poi cmq con i driver nuovi metti anche con i (adesso siamo a 8.34) 9.00, così per quel periodo ati potra aver avuto un po' di tempo (altri 6 mesi) per sistemare tutto, le prestazioni nn è che schizzano e aumentano del 400%, cioè lo spererei xkè a parte tutto a me la tecnologia ati piace, ma nn sarà così, al massimo avranno un icremento del 15/20% se siamo ottimisti, ma nn di certo quello che ci aspettavamo!!!!

poi c'è da dire ma quei cazzoni hanno fatto dei test prima di commercializzarla oppure sono pagati per fare a-b-c e basta, cioè si rendono conto che hanno fatto un casino oppure no? certo poi magari fra una settimana escono delle ottimizazioni da mostro, però:( :( vabe nn aggiungo altro seno mando a ... Ati a mi incazzo sul serio, mi spiace nn aver postato prima, ma nn avevo tempo. cmq se la vediamo ottimisticamente cmq R600 ha molte cose che G80 nn ha, e nn sono poco, cioè nn c'è solo il gaming, cioè ci sono altre cose, tipo l'HDMI con l'audio, il migloramento del AA..., l tecnoligia Avivo HD, nn è prorpio un fallimento dopo tutto. poi sincermamente il 12 sul treid ufficile HD2900 aspettandola ero ed eravamo tutti convinti che avesse le DX10.1, conviti da quelli che avevano detto di essere andati a tunisi, ma dove è?!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! nn mi sembra che ne abbiate nemmeno parlato

ps: ora cambio la mia firma

kolzig12
15-05-2007, 21:06
che prima di migrare a Windows vista, passerò ancora un pò di tempo con le mie x1900XTX in crossfire, poi... Evviva LA CONSOLE!
Console che ormai vanta un mercato di giochi più ampio (per quel che riguarda ciò che a me piace e cioé l'hockey si possono contare almeno tre o quattro titoli diversi e non solo EA sports) la concorrenza è più aperta e poi dei giochi escono sempre prima le versioni per console ormai di quelle per PC!
In più se per sfruttare al max una scheda come la 8800GTX, mi devo comprare un LCD da 4000€ ed in più buttare giù due muri della mia stanza per farcelo stare,ma che NVIDIA e ATI si impegnino nel mondo delle console! Il pc sta portando all'esasperazione la battaglia apertasi dalla "DIATRIBA tra ATI e NVIDIA, per contendersi il mercato dell'hardware! La clientela non si riesce più neanche ad accorgere che prima di vedere titoli di giochi per PC, in grado di sfruttare le nuove tecnologia via via uscite, si è già di nuovo ad una nuova svolta tecnologica, portatrice di nuovi cambiamenti e ESBORSI FINANZIARI! Solo "specchi per le alloddole" e per garantirsi due frames in più,a dei giochi che sul pc di un mio amico si riescono a far girare fluidamente con una x850XT! Ma piantatela lì!
Un saluto a tutti quelli del FORUM di HW&Up!
KLZG12

Free Gordon
15-05-2007, 21:21
Il dissipatore montato sulle X2900XT è stato definito come uno dei migliori di sempre mai montato sulle GPU.

Non si parla di dissi in quel senso, ma di ventola rumorosa.
Stessa cosa è successa sulla 1800 e 1900.



Il problema rumorosità dipende dal problema calore e il problema calore dipende dal consumo in W della scheda.

Sbagliato, il calore non dipende solo dal consumo ma principalmente da quanta corrente viene "persa"..
GTX e Ultra, nel 3d, sono più calde della 2900XT (guarda la rece) ma hanno dissi meno rumorosi. ;)



Percui l'unica colpevole è ATI che ha creato un'architettura eccessivamente parallelizzata (quindi dispendiosa anche solo in idle) e con troppi leak di corrente.

Non v'è dubbio che la colpevole sia ATI :asd: ma non dipende dal fatto che l'archi sia eccessivamente parallelizzata (dato che è più parallelizzata G80 :asd: ) ma da un insieme di circostanze: fast14 e HS80 sono i maggiori indiziati.



Sia esso AA, ANISO, o PureVideo...

Anche questo è errato.
Sull'aniso nVidia è davanti, mentre negli altri due reparti è davanti ATI.
Stando perlomeno alle attuali recensioni, eh...

appleroof
15-05-2007, 21:28
la gts non la consideri proprio. ok è chiaro. ma una domanda senza polemica alcuna per carità ma tra te che hai speso 230€ per una x1950xt e io che ho speso 250€ per una 8800gts320 comprata mi pare un 10 giorni dopo e cmq annunciata gia da gennaio. ma secondo te chi ha fatto l'affare?
cosi per chiarire e per far capire. lo ripeto senza polemica.
prego dimmi.

mi tocca riquotarti in pieno...:asd:

killer978
15-05-2007, 21:51
Ho visto i test fatti da Dinox-PC, e guardandoli sembra che poi non faccia così schifo, è sempre sopra le GTS OC e a volte anche sopra la GTX!!! (consumi a parte)

Come mai così tanta differnza con i test di HwUp? :mbe:

halduemilauno
15-05-2007, 21:53
mi tocca riquotarti in pieno...:asd:

ma mi sa che non avremo risposta. la sua risposta.
ciao.
;)