View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT
Evangelion01
15-05-2007, 16:42
Il fatto che tu ad altre 50 / 100 persone acquistiate "pezzi per il pc" spinti dalla passione non vuole dire che siano cosa buona e giusta ne tantomeno
che TUTTI facciano così.
io personalmente ho una x1800XL@XT acquistata nel 2005 ed un opteron acquistato lo stesso anno a novembre e li ritengo un grande investimento
perchè a distanza di 2 anni ho un hw che magari non sarà il TOP del TOP
ma che mi permette di giocare e lavorare a tutto senza limitazioni di sorta.
Pertanto penso che sia corretto parlare di investimento, magari inteso
come acquisato oculato ma pursempre un grande acquisto.
Questo lo quoto, e aggiungo che si "investe" sempre in ottica longevità del sistema. Avere sempre il top è pressochè impossibile : si dovrebbero cambiare componenti ogni 2 giorni... :Prrr:
aprite gli occhi! questa scheda è piantata, per problemi nel silicio o nei driver non lo so, so solo che se non li hanno sistemati fino ad oggi non credo che ci riusciranno in futuro, lieto di essere smentito. Chi compra questa scheda oggi rispetto alla 8800 640mb fa uno sbaglio secondo me.
bisogna sperare che abbia solo problemi software e non di tipo hardware. Nel primo caso spazio per miglioramento ce n'è, potrebbe tranquillamente distanziare la 8800gts 640, o almeno è l'obiettivo che ati dovrebbe tentare di raggiungere, secondo me. Cosi come ora sono praticamente identiche con l'eccezione che questa ha dei consumi\temperature\rumore assurdi e inoltre costa di piu.
Io invecie penso che sia troppo presto per giudicare le prestazioni di queste vga in dx10 per 2 semplici ragioni. 1°, i test disponibili sono ancora troppo acerbi e troppo pochi. 2° , perchè bisogna anche pensare a una ipotetica situazione : supponiamo che giochi come lost planet vadano a 20fps com una 8800gtx; quanti allora potrebbero giocarci? Per una software h. sarebbe come tagliarsi le gambe da sola, visto che il 90% del mercato è costituito da schede di fascia medio-bassa, quando non addirittura da vga ancora dx9. Ergo, penso che i giochi saranno decisamente più ottimizzati di quello che vediamo ora, altrimenti saremmo costretti a migrare tutti su console.... non so se mi spiego. ;)
si ma questo potra accadere solo all'inizio mica in eterno, obiettivamente, io nuto seri dubbio sul futuro di queste schede siano esse nvidia che amd ;)
Rugginofago
15-05-2007, 16:55
Speravo di avere buone nuove da questa uscita e invece.... :doh:
Non che me ne freghi qualcosa di ati (la cui qualità lascia da sempre molto a desiderare considerati i problemi di driver, loro annoso tallone d'achille), però è fondamentale per tutti i consumatori avere 2 forti rivali sul mercato. Mi sembra che ati/amd stiano letteralmente abdicando ormai sotto i pesanti colpi di nvidia/intel.
Con queste premesse, nvidia credo se ne fregherà altamente di ritoccare i prezzi....
E' incredibile, han buttato fuori una scheda che non sconvolge (rispetto alle concorrenti) con le dx9 e, anche se si alliena alle 8800, con le dx10 mostra risultati penosi (come son penosi gli altri, sia ben intenso). In pratica, han fatto una scheda video assolutamente inutile, nè carne nè pesce (lo dimostrano anche i picchi di differenza tra valori medi e minimi registrati in alcuni test, specchi di un'architettura secondo me indecisa tra il vecchio e il nuovo fin dal suo concepimento).
Nata "vecchia", onerosa in termini di spesa economica, di consumo, di volume, di rumorosità. Un record :fagiano:
La cosa più sconcertante sono i dati di tutte le schede su dx10.
Certo, saranno da ottimizzare quanto volete, ma sono davvero disarmanti. Se partiamo con 20-25frame al secondo a "bassa" risoluzione di certo l'ottimizzazione non porterà a rivoluzioni......diamogli un + o - 5 ? 7? e poi?
Pensavo di fare l'investimento su una 8800gtx, ma a sto punto mi sembra proprio di buttare via i soldi come mai in precedenza.
Pensate a quanto vi son durate le schede video top della gamma che avete comprato in passato....parliamo di qualche annetto magari (un paio grossomodo), ma qui si parla davvero di 10-12 mesi per poi trovarsi una scheda pagata 600 euro che fa girare a 30fps tetris in 1280x1024 :cry:
Brutti, bruttissimi tempi per fare acquisti, e cieli neri all'orizzonte :rolleyes:
webbuffa
15-05-2007, 16:57
:) Sinceramente anche io sono scettico ma la prenderò sicuramente e la comparerò con la grandissima BFG oc2 ( :P ). Mi fido di ATI, come di Nvidia quindi sono molto speranzoso :D (158.18 rulez). Seguite anche questo ottimo thread (http://news.tecnocomputer.it/forums/showthread.php?t=11819)
I driver sono migliorabilissimi, naturalmente, se l'hardware è a posto come sopra scritto.
Non so se sono stati postati (non ho voglia di leggere xx pag.) , ma il tanto decantato investimento DX10 va a farsi benedire....
http://img170.imageshack.us/img170/1646/lpdx10snowqf7.jpg
http://img170.imageshack.us/img170/1663/lpdx10caveaq7.jpg
http://images.dailytech.com/nimage/4734_large_newcoj1280aa.gif
Da quando in qua si fanno i test a 1280x960? Non era meglio a 1280x1024?
Mister Tarpone
15-05-2007, 17:06
ragazzi ho acquistato la hd 2900xt,vediamo se mi arriva entro la settimana riesco a fare qualche test...
ahh!!! :eek:
ti do la :mano: :mano: :mano:
spero che la scheda migliori però.... :stordita:
webbuffa
15-05-2007, 17:11
Da quando in qua si fanno i test a 1280x960? Non era meglio a 1280x1024?
:D Monitor Wide RULEZ!! :D
:D Monitor Wide RULEZ!! :D
Veramente 1280x960 è una semplice risoluzione con proporzioni 4:3
webbuffa
15-05-2007, 17:15
Veramente 1280x960 è una semplice risoluzione con proporzioni 4:3
:) azz scusa... LOL
ahh!!! :eek:
ti do la :mano: :mano: :mano:
spero che la scheda migliori però.... :stordita:
sono fiducioso,anzi lo devo essere:stordita:
MonsterMash
15-05-2007, 17:50
In altri thread ufficiali noto che in prima paggina ci sono anche i link a degli shop da cui si possono comprare le schede. Visto che qui c'è gente che l'ha già comprata, non sarebbe possibile dire da dove, ed inserire i link in prima paggina? Onestamente sto avendo grosse difficoltà a trovarla anche negli shop online solitamente più forniti.
Grazie a tutti, ciao
halduemilauno
15-05-2007, 17:53
In altri thread ufficiali noto che in prima paggina ci sono anche i link a degli shop da cui si possono comprare le schede. Visto che qui c'è gente che l'ha già comprata, non sarebbe possibile dire da dove, ed inserire i link in prima paggina? Onestamente sto avendo grosse difficoltà a trovarla anche negli shop online solitamente più forniti.
Grazie a tutti, ciao
è vietato postare pubblicamente link diretti. solo questo.
http://www.trovaprezzi.it/categoria.aspx?libera=2900xt&id=28&prezzoMin=&prezzoMax=&sbox=sb
sono fiducioso,anzi lo devo essere:stordita:
beh, non è una scheda così orribile come alcuni la vogliono dipingere...:p :D
microcip
15-05-2007, 17:58
certo che però alla faccia della svalutazione...in .de in meno di un giorno hanno già fatto tagli di 50€.
una asus 2900xt si trova a 348€:eekk:
se continua cosi potrebbe essere realmente un buon acquisto.
appleroof
15-05-2007, 18:04
sono fiducioso,anzi lo devo essere:stordita:
Ma non avevi appena preso una gts 320? :what:
TecnoWorld8
15-05-2007, 18:04
secondo me ne stanno vendendo MOLTE meno del previsto...dopotutto non c'è una sola recensione (seria) che non metta in guardia da prestazioni pari o inferiori a quelle di una GTS, con molto più consumo di energia.
io fin da almeno 3 mesi fa dicevo che per fare un bel lavoro avrebbero dovuto "buttare" via il progetto R600 ad 80nm e farlo nascere subito a 65nm. Quello, secondo me, avrebbe risolto tutto.
Ma non avevi appena preso una gts 320? :what:
fatto un cambio in zona cesarini.
Ma non avevi appena preso una gts 320? :what:
si ma ho annullato l'ordine...mi stuzzicava più questa:D
appleroof
15-05-2007, 18:08
fatto un cambio in zona cesarini.
si ma ho annullato l'ordine...mi stuzzicava più questa:D
Ah ok...ho pensato: o è il più bravo venditore del mondo o ha fatto la pazzia e le ha prese tutte e due :asd: :asd:
fatto un cambio in zona cesarini.
:asd:
bronzodiriace
15-05-2007, 18:12
penso pure io di passare alla 2900xt,avevo preso in considerazione la 8800gts 640mb, ma visto il prezzo della 2900 andrò su quella.
loperloper
15-05-2007, 18:13
secondo me ne stanno vendendo MOLTE meno del previsto...dopotutto non c'è una sola recensione (seria) che non metta in guardia da prestazioni pari o inferiori a quelle di una GTS, con molto più consumo di energia.
io fin da almeno 3 mesi fa dicevo che per fare un bel lavoro avrebbero dovuto "buttare" via il progetto R600 ad 80nm e farlo nascere subito a 65nm. Quello, secondo me, avrebbe risolto tutto.
il punto cruciale di questa vga, a mio avviso, non sono tanto le prestazioni,che sempre a mio avviso è solo una questione di drivers, ma sono i consumi e la rumorosità: ora se a quest'ultima si può ovviare alla prima ,ahimè, no(diciamo che fosse stata a 65nm l avrei già a casa :D ....) attendero la prossima generazione acquistando una 8800 gts e godendomi quello che si può godere con questa scheda e poi quando la situazione si sarà stabilizzata in campo dx10, deciderò seriamente per ati o nvidia
MonsterMash
15-05-2007, 18:13
è vietato postare pubblicamente link diretti. solo questo.
http://www.trovaprezzi.it/categoria.aspx?libera=2900xt&id=28&prezzoMin=&prezzoMax=&sbox=sb
Grazie per il link, ma vorrei insistere. Ad esempio in questo post:
http://www.hwupgrade.it/forum/showthread.php?t=1326385
alla fine del primo messaggio c'è un elenco di tutti gli shop online da cui si può comprare la scheda. E' quel thread ad essere fuori dalle regole, o forse tu le hai interpretate male? ;)
Ciao
io fin da almeno 3 mesi fa dicevo che per fare un bel lavoro avrebbero dovuto "buttare" via il progetto R600 ad 80nm e farlo nascere subito a 65nm. Quello, secondo me, avrebbe risolto tutto.
come se fosse così facile come a dirsi :sofico:
ora non conosco i "tecnicismi" necessari per spiegarti la cosa, ma mi pare logico che un così drastico cambio di rotta sarebbe stata una mossa troppo azzardata per AMD, R600 doveva essere a 80nm, punto.
non si sà se ci sarà un semplice die shrink a 65nm o una nuova gpu (R650?) ottimizzata e affinata
resta il fatto che un simile cambio di rotta avrebbe portato solo a ulteriori ritardi e ulteriori spese a AMD ;)
Mister Tarpone
15-05-2007, 18:18
come se fosse così facile come a dirsi :sofico:
ora non conosco i "tecnicismi" necessari per spiegarti la cosa, ma mi pare logico che un così drastico cambio di rotta sarebbe stata una mossa troppo azzardata per AMD, R600 doveva essere a 80nm, punto.
non si sà se ci sarà un semplice die shrink a 65nm o una nuova gpu (R650?) ottimizzata e affinata
resta il fatto che un simile cambio di rotta avrebbe portato solo a ulteriori ritardi e ulteriori spese a AMD ;)
quoto :fagiano:
Grazie per il link, ma vorrei insistere. Ad esempio in questo post:
http://www.hwupgrade.it/forum/showthread.php?t=1326385
alla fine del primo messaggio c'è un elenco di tutti gli shop online da cui si può comprare la scheda. E' quel thread ad essere fuori dalle regole, o forse tu le hai interpretate male? ;)
Ciao
ciao
E' permesso inserire link a negozi on-line per indicare dove acquistare un determinato prodotto, a patto di riportare link a più negozi e non ad uno solo per evitare pubblicità occulta, salvo casi eccezionali (un articolo poco diffuso o molto particolare, e in ogni caso chiedere prima ad un moderatore).
MonsterMash
15-05-2007, 18:21
ciao
Sisi, ma infatti io intendevo di fare una cosa simile a quanto fatto nel thread della 8800, cioè l'elenco di tutti gli shop online dove si riesce a trovare. Magari si chi li conosce potrebbe mandarli ad un mod, o all'autore del thread perchè li inserisca in prima paggina.
Anche per cercare di dare più "consistenza" a questo thread ufficiale :)
Ciao
Ah ok...ho pensato: o è il più bravo venditore del mondo o ha fatto la pazzia e le ha prese tutte e due :asd: :asd:
:asd: ho annullato l'ordine dal mio venditore e ho preso questa online..
come dice il grande Rocco Barbaro "io faccio quello che voglio" anche io faccio così :sofico:
halduemilauno
15-05-2007, 18:22
Grazie per il link, ma vorrei insistere. Ad esempio in questo post:
http://www.hwupgrade.it/forum/showthread.php?t=1326385
alla fine del primo messaggio c'è un elenco di tutti gli shop online da cui si può comprare la scheda. E' quel thread ad essere fuori dalle regole, o forse tu le hai interpretate male? ;)
Ciao
forse se posti molti link insieme è consentito. quindi forse in quel caso non ha violato il regolamento. ecco DVD2005 ha postato parte del regolamento quindi si si può fare.
;)
Sisi, ma infatti io intendevo di fare una cosa simile a quanto fatto nel thread della 8800, cioè l'elenco di tutti gli shop online dove si riesce a trovare. Magari si chi li conosce potrebbe mandarli ad un mod, o all'autore del thread perchè li inserisca in prima paggina.
Anche per cercare di dare più "consistenza" a questo thread ufficiale :)
Ciao
l'autore del thread è un mod quindi puoi chiederlo direttamente a lui...
appleroof
15-05-2007, 18:29
:asd: ho annullato l'ordine dal mio venditore e ho preso questa online..
come dice il grande Rocco Barbaro "io faccio quello che voglio" anche io faccio così :sofico:
:asd: :asd: OT quel comico mi fà morire /OT
certo, se era quello che volevi o ti andava, hai fatto benissimo, non tocca a me sicuramente sindacare in alcun modo, ci mancherebbe...:)
solo che io non lo avrei fatto, non ora sicuramente ;)
+Lonewolf+
15-05-2007, 18:29
scusate ma a vedere il benchmarck di lost planet inizio a pensare 2 cose
1) o la scheda è un c€22O e ci vogliono paccare tutti in massa
2) ci sono seri problemi di incompatibilità tra AMD e lost planet e i driver sono acerbi....
qual'è la + plausibile?
e io che volevo acquistarla...:cry:
Evangelion01
15-05-2007, 18:35
scusate ma a vedere il benchmarck di lost planet inizio a pensare 2 cose
1) o la scheda è un c€22O e ci vogliono paccare tutti in massa
2) ci sono seri problemi di incompatibilità tra AMD e lost planet e i driver sono acerbi....
qual'è la + plausibile?
e io che volevo acquistarla...:cry:
Forsepiù la 2°... comunque dovresti aggiornare la firma..:D
:asd: :asd: OT quel comico mi fà morire /OT
certo, se era quello che volevi o ti andava, hai fatto benissimo, non tocca a me sicuramente sindacare in alcun modo, ci mancherebbe...:)
solo che io non lo avrei fatto, non ora sicuramente ;)
semplicemente non cè la facevo più ad aspettare questo è il motivo principale poi rispetto alla gts questa mi intriga di più..
+Lonewolf+
15-05-2007, 18:39
Forsepiù la 2°... comunque dovresti aggiornare la firma..:D
sono usciti i beta della HD 2900 cmq...ma sec voi la situazione cambierà molto con i driver definitivi e relative ottimizzazioni...c'è in poche parole la supera la gts? sennò prendo quella..........
Mister Tarpone
15-05-2007, 18:41
sono usciti i beta della HD 2900 cmq...ma sec voi la situazione cambierà molto con i driver definitivi e relative ottimizzazioni...c'è in poche parole la supera la gts? sennò prendo quella..........
secondo alcuni con i driver giusti migliorerà molto... secondo altri no.
--------------------bohhh!!! :fagiano:
solo che io non lo avrei fatto, non ora sicuramente ;)
certo...tu hai una GTX :p :D
beh, non è una scheda così orribile come alcuni la vogliono dipingere...
...in .de in meno di un giorno hanno già fatto tagli di 50€.
una asus 2900xt si trova a 348€
se continua cosi potrebbe essere realmente un buon acquisto.
penso pure io di passare alla 2900xt,avevo preso in considerazione la 8800gts 640mb, ma visto il prezzo della 2900 andrò su quella.
...la partita, come previsto, questa volta si giocherà moltissimo sul fattore prezzo. ;)
+Lonewolf+
15-05-2007, 18:44
secondo alcuni con i driver giusti migliorerà molto... secondo altri no.
--------------------bohhh!!! :fagiano:
pongo a te la domanda...allora
1) i bench di lost planet sono ufficiali?se si come giustifichi la differnza di ben 20 fps tra la 2900 e la 8800? drivers e ottimizzazioni?(io spero di si)
2)in coj dx10 la 2900 va come una gtx nonostante non ci siano i drivers...e poi in lostplanet va meno della metà di una gts??? che significa?????
3)sti benedetti drivers quando escono???:mc:
Sono moooolto rincuorato da questo articolo appena uscito:
http://www.nordichardware.com/news,6331.html
Credo che con il refresh a 65nm ne vedremo delle belle. ;)
Mister Tarpone
15-05-2007, 18:53
pongo a te la domanda...allora
1) i bench di lost planet sono ufficiali?se si come giustifichi la differnza di ben 20 fps tra la 2900 e la 8800? drivers e ottimizzazioni?(io spero di si)
2)in coj dx10 la 2900 va come una gtx nonostante non ci siano i drivers...e poi in lostplanet va meno della metà di una gts??? che significa?????
3)sti benedetti drivers quando escono???:mc:
io sinceramente ci capisco poco... non so se sta scheda è una sola o se i problemi che ha, derivano solo da dei driver poco ottimizzati...
ripeto boh :fagiano: meglio aspettare e vedere fra un pò quanto potrà migliorare con i nuovi driver :fagiano:
Io per adesso non la comprerei però.
...ok, dato che si può, in questi shop scheda disponibile o in arrivo. Se ne ho dimenticati alcuni aggiungeteli. Simon82 deciderà se mettere o meno una lista in prima pagina.
www.frael.it
www.chl.it
www.tecnocomputer.it
www.bow.it
www.eprice.it
www.italsystem.com
www.deepoverclock.com
www.nexths.it
www.fdshop.com
www.tdshop.it
www.computerdiscount.it
:)
io sinceramente ci capisco poco... non so se sta scheda è una sola o se i problemi che ha, derivano solo da dei driver poco ottimizzati...
ripeto boh :fagiano: meglio aspettare e vedere fra un pò quanto potrà migliorare con i nuovi driver :fagiano:
Io per adesso non la comprerei però.
I problemi purtroppo non sono solo driver... se invece di pensare a scrivere leggeste anche...
leggete quell'articolo nel mio ultimo post. ;)
Io consiglio a tutti di aspettare la versione a 65 nm perché le prestazioni potrebbero essere di gran lunga superiori ad una 8800gtx ultra mega uber pro.
Si tratta di aspettare ancora 2 o 3 mesi :( Speriamo...
Sono moooolto rincuorato da questo articolo appena uscito:
http://www.nordichardware.com/news,6331.html
Credo che con il refresh a 65nm ne vedremo delle belle. ;)
Il problema è sapere quando, e se, arriverà questo refresh, e cosa farà nVidia di conseguenza ;)
Ah, speriamo che ora non si ricominci con le pure illazioni "a 65nm sta scheda spaccherà, altro che 8800GTX ultra super" & co. :rolleyes:
Il problema è sapere quando, e se, arriverà questo refresh, e cosa farà nVidia di conseguenza ;)
Ah, speriamo che ora non si ricominci con le pure illazioni "a 65nm sta scheda spaccherà, altro che 8800GTX ultra super" & co. :rolleyes:
fukka a me paiono di + di illazioni... ma hai visto in oc dove cazzo arriva quella scheda? O_o
Mister Tarpone
15-05-2007, 19:02
I problemi purtroppo non sono solo driver... se invece di pensare a scrivere leggeste anche...
leggete quell'articolo nel mio ultimo post. ;)
e come avrei potuto leggerlo??? :) :) :) se s'è postato nello stesso momento??? :bsod:
mahh..vabbè dai.. ;)
1) i bench di lost planet sono ufficiali?se si come giustifichi la differnza di ben 20 fps tra la 2900 e la 8800? drivers e ottimizzazioni?(io spero di si)
2)in coj dx10 la 2900 va come una gtx nonostante non ci siano i drivers...e poi in lostplanet va meno della metà di una gts??? che significa?????
3)sti benedetti drivers quando escono???:mc:
...come già spiegato più volte, LP è un porting da Xbox360, ma questo porting è stato fatto in collaborazione con Nvidia. E' molto probabile che le 8800 vadano meglio. I nuovi driver dovrebbero uscire il 22, oppure "quando sono pronti". In ogni caso sia con LP che con COJ bisognerà attendere che i tecnici Nvidia e ATi mettano mano ai driver...siamo proprio agli inizi dei game DX10, bisogna avere tanta pazienza.
:)
Mister Tarpone
15-05-2007, 19:03
Il problema è sapere quando, e se, arriverà questo refresh, e cosa farà nVidia di conseguenza ;)
Ah, speriamo che ora non si ricominci con le pure illazioni "a 65nm sta scheda spaccherà, altro che 8800GTX ultra super" & co. :rolleyes:
quoto ;)
appleroof
15-05-2007, 19:05
certo...tu hai una GTX :p :D
e vabbè, sottinteso al suo posto...:) (ma forse lo avevi capito...:D )
Il problema è sapere quando, e se, arriverà questo refresh, e cosa farà nVidia di conseguenza ;)
Ah, speriamo che ora non si ricominci con le pure illazioni "a 65nm sta scheda spaccherà, altro che 8800GTX ultra super" & co. :rolleyes:
Speriamo di no :rolleyes:
cmq credo che anche nvidia sia pronta al passaggio ai 65nm (non è che sia esclusiva ati :asd: ) e siamo punto e a capo...
appleroof
15-05-2007, 19:05
...come già spiegato più volte, LP è un porting da Xbox360, ma questo porting è stato fatto in collaborazione con Nvidia. E' molto probabile che le 8800 vadano meglio. I nuovi driver dovrebbero uscire il 22, oppure "quando sono pronti". In ogni caso sia con LP che con COJ bisognerà attendere che i tecnici Nvidia e ATi mettano mano ai driver...siamo proprio agli inizi dei game DX10, bisogna avere tanta pazienza.
:)
Sono completamente d'accordo
I problemi purtroppo non sono solo driver... se invece di pensare a scrivere leggeste anche...
leggete quell'articolo nel mio ultimo post. ;)
...di quei problemi ci sono solo delle supposizioni, nulla di concreto. Comunque ne abbiamo parlato con Leoneazzurro intorno alle pagine 10/15, se vai su Beyond3D e Rage3D troverai delle interessanti spiegazioni su questa cosa. A precisa richiesta un tecnico (credo) ATi ha risposto che stanno lavorando su driver che risolveranno i problemi quando si attivano certe modalità di AA.
:)
fukka a me paiono di + di illazioni... ma hai visto in oc dove cazzo arriva quella scheda? O_o
Beh certamente, aspetta che scendo in garage e mi costruisco un bel kit ad azoto liquido, ne ho giusto un po' che mi avanza ...
Athlon 64 3000+
15-05-2007, 19:13
...di quei problemi ci sono solo delle supposizioni, nulla di concreto. Comunque ne abbiamo parlato con Leoneazzurro intorno alle pagine 10/15, se vai su Beyond3D e Rage3D troverai delle interessanti spiegazioni su questa cosa. A precisa richiesta un tecnico (credo) ATi ha risposto che stanno lavorando su driver che risolveranno i problemi quando si attivano certe modalità di AA.
:)
sembra che il problema dell'AA sia un baco dei driver perchè quando si attiva quasiasi AA non viene utilizzata la circuiteria dedicata all'AA nelle rop's ma le le unità di shading.
Per poter applicare un'AA compatibile con la tecnica di illuminazione che viene usata in stalker e nell'U.E.3 R600 ricorrerà alle unità di shading e non alla circuiteria che riesiede nelle rop's.
appleroof
15-05-2007, 19:19
sembra che il problema dell'AA sia un baco dei driver perchè quando si attiva quasiasi AA non viene utilizzata la circuiteria dedicata all'AA nelle rop's ma le le unità di shading.
Per poter applicare un'AA compatibile con la tecnica di illuminazione che viene usata in stalker e nell'U.E.3 R600 ricorrerà alle unità di shading e non alla circuiteria che riesiede nelle rop's.
Cioè ricorre oppure no? :what:
Considerando quanto ATI è stata attenta in passato a sbandierare ai quattro venti la superiorità della sua architettura (vedi AA+HDR ai tempi del lancio delle X1800), mi pare strano che non abbia dato risalto a questa notizia, proponendo sin da subito un driver in grado di usufruirne nei giochi presenti (per giunta solo 3), specie considerando il tempo che ha avuto a disposizione :mbe:
mistero1982
15-05-2007, 19:23
Premetto che non sono ne pro ati ne nvidia, ma secondo voi è giusto tirare le somme e giudicare una scheda (più che di scheda parlerei della nuova architerttura r600) con la PRIMA release dei drivers? cioè si può avere la pretesa di capire tutto così presto?
appleroof
15-05-2007, 19:23
Considerando quanto ATI è stata attenta in passato a sbandierare ai quattro venti la superiorità della sua architettura (vedi AA+HDR ai tempi del lancio delle X1800), mi pare strano che non abbia dato risalto a questa notizia, proponendo sin da subito un driver in grado di usufruirne nei giochi presenti (per giunta solo 3), specie considerando il tempo che ha avuto a disposizione :mbe:
La cosa che mi sembra davvero strana, è come mai abbiano presentato la scheda adesso, se i driver hanno tutti questi bug...hanno aspettato mesi, cosa succedeva una/due settimane in più? Davvero non me lo spiego...
Athlon 64 3000+
15-05-2007, 19:33
La cosa che mi sembra davvero strana, è come mai abbiano presentato la scheda adesso, se i driver hanno tutti questi bug...hanno aspettato mesi, cosa succedeva una/due settimane in più? Davvero non me lo spiego...
hai ragione non si capisce perchè abbiano presentato la scheda con dei driver cosi penosi ed infatti è inspiegabile e continuo con il ripetere che la politica di driver Ati in questi giorni è stata davvero penosa.
Mister Tarpone
15-05-2007, 19:33
La cosa che mi sembra davvero strana, è come mai abbiano presentato la scheda adesso, se i driver hanno tutti questi bug...hanno aspettato mesi, cosa succedeva una/due settimane in più? Davvero non me lo spiego...
ecco... questo ragionamento mi fa pensare che i futuri driver non faranno miracoli...
mah... :fagiano:
bha per quanto la voglia difendere, ATI ha avuto l atteggiamento di chi dopo aver lavorato anima e corpo ad un progetto senza cavare ragno dal buco, stufata ha buttato il prodotto così com era.
Infondo cazzo avranno fatto qualche test ,qualche bench con le 8800 Nvidia... loro al contrario di tutti gli altri sapevano!!!!!
L unica cosa che mi fa alzare le sopraciglia è la replica di corsini 2 giorni dello scadere dell NDA, ovvero " pazientate , non rimarrete delusi" frase che lascia presaggire grandi cose. non penso che il buon corsini volesse prenderci per i fondelli. Quindi penso che in quei 2 giorni dev essere successo qualcosa, o Nvidia ha rivisitato i suoi DRIver o bho...Infatti sempre in quegli stessi 2 giorni vi è stato un susseguirsi di Bench in cui la 2900xt sembrava spuntarla sulle rivali.............. sarebbe graditta un risposta del Sig corsini.........
leoneazzurro
15-05-2007, 19:42
hai ragione non si capisce perchè abbiano presentato la scheda con dei driver cosi penosi ed infatti è inspiegabile e continuo con il ripetere che la politica di driver Ati in questi giorni è stata davvero penosa.
La mia impressione è che il team drivers di ATI non stia lavorando concretamente su R600 da chiisà quanto tempo. Credo fortemente che i primi esemplari definitivi realmente funzionanti di R600 siano apparsi verso la fine dell'anno scorso, ed è probabile che ci fossero dei seri bug dell'HW che hanno portato al respin di Gennaio-Febbraio.
Alexkidd85
15-05-2007, 19:49
...ok, dato che si può, in questi shop scheda disponibile o in arrivo. Se ne ho dimenticati alcuni aggiungeteli. Simon82 deciderà se mettere o meno una lista in prima pagina.
www.frael.it
www.chl.it
www.tecnocomputer.it
www.bow.it
www.eprice.it
www.italsystem.com
www.deepoverclock.com
www.nexths.it
www.fdshop.com
www.tdshop.it
www.computerdiscount.it
:)
Ora tocca trovare i siti degli adattori....quelli sono importanti ;)
Athlon 64 3000+
15-05-2007, 19:51
La mia impressione è che il team drivers di ATI non stia lavorando concretamente su R600 da chiisà quanto tempo. Credo fortemente che i primi esemplari definitivi realmente funzionanti di R600 siano apparsi verso la fine dell'anno scorso, ed è probabile che ci fossero dei seri bug dell'HW che hanno portato al respin di Gennaio-Febbraio.
probabilmente questi bachi coni i respin sono stati eliminati e penso che l'unico rimasto oppure noto sia che l'AA con i giochi che faranno uso dell'HDR particolare
tipo quelli con L'U.E.3 sarà calcolato dalle unità di pixel shading.
La mia impressione è che il team drivers di ATI non stia lavorando concretamente su R600 da chiisà quanto tempo. Credo fortemente che i primi esemplari definitivi realmente funzionanti di R600 siano apparsi verso la fine dell'anno scorso, ed è probabile che ci fossero dei seri bug dell'HW che hanno portato al respin di Gennaio-Febbraio.
condivido pienamente la tua impressione ;)
bYeZ!
La mia impressione è che il team drivers di ATI non stia lavorando concretamente su R600 da chiisà quanto tempo. Credo fortemente che i primi esemplari definitivi realmente funzionanti di R600 siano apparsi verso la fine dell'anno scorso, ed è probabile che ci fossero dei seri bug dell'HW che hanno portato al respin di Gennaio-Febbraio.
Quindi questo che vuol dire che i driver sono una versiona alpha :confused: ,ogni giorno che passa sono sempre più confuso e non so se acquistare o meno questa scheda :muro: vorrei capire la verità su questi drivers,sul AA,su tutto insomma, è passato un giorno e ancora nessuna notizia sulle reali capacità di questa scheda:doh:
appleroof
15-05-2007, 19:55
La mia impressione è che il team drivers di ATI non stia lavorando concretamente su R600 da chiisà quanto tempo. Credo fortemente che i primi esemplari definitivi realmente funzionanti di R600 siano apparsi verso la fine dell'anno scorso, ed è probabile che ci fossero dei seri bug dell'HW che hanno portato al respin di Gennaio-Febbraio.
Questo continua a non spiegare il perchè presentare la scheda adesso con driver che (quindi) sono penosi, mai vista una cosa così...
Questo continua a non spiegare il perchè presentare la scheda adesso con driver che (quindi) sono penosi, mai vista una cosa così...
Sinceramente non riesco a capire nemmeno io :confused:
Non si è capito fondamentalmente se sia un bug dei driver o proprio l'architettura utilizzata che non va:mc:
mistero1982
15-05-2007, 19:59
Questo continua a non spiegare il perchè presentare la scheda adesso con driver che (quindi) sono penosi, mai vista una cosa così...
Sinceramente non riesco a capire nemmeno io :confused:
Non si è capito fondamentalmente se sia un bug dei driver o proprio l'architettura utilizzata che non va:mc:
Forse perchè avendo avuto bisogno di più tempo, ed essendo sotto pressione per sbrigarsi nel lancio della scheda, abbiano rilasciato una versione dei drivers acerba? :rolleyes:
dovevano pur farla uscire sta scheda o no :rolleyes: gia l'hype che si era creato era a dir poco snervante, se avessero aspettato ancora 1-2 settimane te saluto. Probabilmente è stata una loro scelta e gia stanno lavorando sui driver. Se i problemi derivassero da un baco dell'architettura bisognerà attendere (sigh) un refresh
Dreammaker21
15-05-2007, 20:02
Quando uscirono i primi modelli delle 8800, con i relativi primi driver, non fecero assolutamente delle magre figure, quindi non capisco perchè Ati si sia fatta questo autogol.
vero, pero certi giochi davano non pochi problemi (fps ridicoli o non partivano proprio). Anche in quel caso i driver andavano migliorati.
dovevano pur farla uscire sta scheda o no :rolleyes: gia l'hype che si era creato era a dir poco snervante, se avessero aspettato ancora 1-2 settimane te saluto. Probabilmente è stata una loro scelta e gia stanno lavorando sui driver. Se i problemi derivassero da un baco dell'architettura bisognerà attendere (sigh) un refresh
Quidni nessuno sa se realmente sia un problema drivers o ahimè di architettura....speriamo che siano sti benedetti drivers..la situazione, è ancora molto confusa vedo che nessuno sa quale realmente sia il problema di questa scheda, vista l'architettura tecnologicamente avanzata rispetto a g80:O
mistero1982
15-05-2007, 20:05
Ritorno a dire, ma tanto nessuno da ascolto, che per giudicare una scheda servono drivers maturi, quantomeno non la prima release!!!
Kharonte85
15-05-2007, 20:05
La mia impressione è che il team drivers di ATI non stia lavorando concretamente su R600 da chiisà quanto tempo. Credo fortemente che i primi esemplari definitivi realmente funzionanti di R600 siano apparsi verso la fine dell'anno scorso, ed è probabile che ci fossero dei seri bug dell'HW che hanno portato al respin di Gennaio-Febbraio.
E allora si sono http://www.lshwupgrade.com/images/smiles/tafazzi.gif da soli...e poi per quale motivo rimettersi al lavoro solo adesso (come se dicessero: salve, la scheda come potete vedere ha prestazioni scadenti e non ci lavoriamo da mesi, ma adesso, dopo aver fatto una figuraccia immane ci rimettiamo sotto a scrivere driver decenti :) )? :mbe: Mi sembra assurdo...
appleroof
15-05-2007, 20:06
Quidni nessuno sa se realmente sia un problema drivers o ahimè di architettura....speriamo che siano sti benedetti drivers..la situazione, è ancora molto confusa vedo che nessuno sa quale realmente sia il problema di questa scheda, vista l'architettura tecnologicamente avanzata rispetto a g80:O
Non sempre tecnologia (o specifiche) superiore significa prestazioni superiori, magari fosse così semplice ;)
Non sempre tecnologia (o specifiche) superiore significa prestazioni superiori, magari fosse così semplice ;)
Questo lo so perfettamente, infatti volevo scrivere più avanzata di g80,ma che momentaneamente per via dei drivers o per via dell'architattura(speriamo di no:rolleyes: )non riece ad avere ottime prestazioni specialmente con AA attivo
kolzig12
15-05-2007, 20:11
che prima di migrare a Windows vista, passerò ancora un pò di tempo con le mie x1900XTX in crossfire, poi... Evviva LA CONSOLE!
Console che ormai vanta un mercato di giochi più ampio (per quel che riguarda ciò che a me piace e cioé l'hockey si possono contare almeno tre o quattro titoli diversi e non solo EA sports) la concorrenza è più aperta e poi dei giochi escono sempre prima le versioni per console ormai di quelle per PC!
In più se per sfruttare al max una scheda come la 8800GTX, mi devo comprare un LCD da 4000€ ed in più buttare giù due muri della mia stanza per farcelo stare,ma che NVIDIA e ATI si impegnino nel mondo delle console! Il pc sta portando all'esasperazione la battaglia apertasi dalla "DIATRIBA tra ATI e NVIDIA, per contendersi il mercato dell'hardware! La clientela non si riesce più neanche ad accorgere che prima di vedere titoli di giochi per PC, in grado di sfruttare le nuove tecnologia via via uscite, si è già di nuovo ad una nuova svolta tecnologica, portatrice di nuovi cambiamenti e ESBORSI FINANZIARI! Solo "specchi per le alloddole" e per garantirsi due frames in più,a dei giochi che sul pc di un mio amico si riescono a far girare fluidamente con una x850XT! Ma piantatela lì!
Un saluto a tutti quelli del FORUM di HW&Up!
KLZG12
appleroof
15-05-2007, 20:13
dovevano pur farla uscire sta scheda o no :rolleyes: gia l'hype che si era creato era a dir poco snervante, se avessero aspettato ancora 1-2 settimane te saluto. Probabilmente è stata una loro scelta e gia stanno lavorando sui driver. Se i problemi derivassero da un baco dell'architettura bisognerà attendere (sigh) un refresh
qualcuno ha detto 1800/1900? (con la differenza che la 1800xt eguagliava e a filtri abilitati superava la 7800gtx)
Ad ogni modo, l'hype sarebbe stato più appagato se a ulteriori 15 giorni di attesa sarebbero corrisposte prestazioni al top (e con "ad esempio" una demo dx10 --lost planet-- con la quale svelare anche le prestazioni con le --primissime-- applicazioni dx10, appunto)
Soulbringer
15-05-2007, 20:13
Non sempre tecnologia (o specifiche) superiore significa prestazioni superiori, magari fosse così semplice ;)
Beh il fatto che è superiore sulla carta è vero..l'unica cosa che non va per il meglio è la frequenza degli shader molto bassa rispetto ad nvidia..ma, cavolo, mi sembra strano il fatto che le scheda vada piano solo per quello.
Sono moooolto rincuorato da questo articolo appena uscito:
http://www.nordichardware.com/news,6331.html
Credo che con il refresh a 65nm ne vedremo delle belle. ;)
Ecco forse quelli dell'ati speravano di poter tirare fuori delle frequenze moolto più alte da r600 in modo da raggiungere le prestazioni decantate in questo articolo..già peccato che questi 80nm trasformino la scheda in un reattore nucleare :cry:
piperprinx
15-05-2007, 20:15
Ritorno a dire, ma tanto nessuno da ascolto, che per giudicare una scheda servono drivers maturi, quantomeno non la prima release!!!
ti ascolto, ma mi quoto:
Non ho mai visto schede uscire con ottimi bench con i primi driver diventare semplicemente buone schede.
Non ho mai visto schede con pessimi bench con i primi driver diventare ottime schede. Buone si, magari e dopo un po' di tempo. Ma ottime mai.
Del resto se sapessero di poter migliorare *molto* la scheda tramite driver l'avrebbero messa in vendita a quel prezzo? Od ora?
E questo e' spiegato molto bene nell'articolo di Anand che qualcuno ha quotato anche qui....
Cmq si puo' continuare a sperare. O ad illudersi.
E lo dico con MOLTO dispiacere, al di sopra del tifo (se i risultati fossero stati superiori a 8800 l'avrei acquistata stasera stessa, come faccio da anni, da voodoo1, per i "top di gamma", indipendentemente dalla marca) perche' questa sara' veramente una mazzata per AMD...ucci ucci sento odore di acquistucci....
E allora si sono http://www.lshwupgrade.com/images/smiles/tafazzi.gif da soli...e poi per quale motivo rimettersi al lavoro solo adesso (come se dicessero: salve, la scheda come potete vedere ha prestazioni scadenti e non ci lavoriamo da mesi, ma adesso, dopo aver fatto una figuraccia immane ci rimettiamo sotto a scrivere driver decenti :) )? :mbe: Mi sembra assurdo...
Forse stavano ottimizzando un'altra scheda?
:stordita:
appleroof
15-05-2007, 20:20
Beh il fatto che è superiore sulla carta è vero..l'unica cosa che non va per il meglio è la frequenza degli shader molto bassa rispetto ad nvidia..ma, cavolo, mi sembra strano il fatto che le scheda vada piano solo per quello.
Ma io non lo nego e mai detto il contrario...ho solo detto quello che hai letto, in generale :)
Questo lo so perfettamente, infatti volevo scrivere più avanzata di g80,ma che momentaneamente per via dei drivers o per via dell'architattura(speriamo di no:rolleyes: )non riece ad avere ottime prestazioni specialmente con AA attivo
+ avanzata non direi, un approccio diverso al problema si ma a mio avviso + avanzata significa che ha risultati su tutto il bagaglio tecnologico (consumi compresi) migliori dell'altra, e questo non é il caso
forse intendeva piu complessa. questo lo è sicuramente, visto le features
leoneazzurro
15-05-2007, 20:58
Questo continua a non spiegare il perchè presentare la scheda adesso con driver che (quindi) sono penosi, mai vista una cosa così...
Perchè evidentemente non potevano "trattenerla" oltre, dato l'Hype e il fatto che non c'era nulla DX10 di ATI. Avrebbero potuto fare uscire le schede di fascia media o bassa, ma a quel punto ci si sarebbe chiesti come mai mancava l'high end, e si sarebbe avuto il paradosso di restare vincolati ad architetture DX9 per la fascia alta. Teniamo anche in considerazione il fatto che R600 comunque sarà la base di R650 (per R700 ci vorrà almeno un altro anno) e farla uscire equivale anche ad effettuare un "testing sul campo" dell'architettura in modo da avere più informazioni per fare "andare bene" R650 e le altre architetture derivate.
Credo che R650 non sia tanto lontano, in fondo tutti lo davano schedulato per l'Autunno, credo che ne sentiremo parlare per la stagione natalizia.
Tenete conto poi che le risorse in campo programmazione - non infinite - stanno lavorando anche per portare alla luce le altre features tipo il tessellatore, e si sa che ATI/AMD ha un grosso focus per il GPGPU computing, come dimostrano i demo fatti ad Aprile.
Quindi IMHO hanno scelto di fare un lancio con i drivers che si avevano per poi pensare alle performances. Altrimenti non si spiegano i problemi di performances in alcuni titoli ma anche di crash in certi casi, oppure di giochi con performances migliori a risoluzioni più alte, nè i miglioramenti in certi casi di proporzioni inspiegabili anche con "trucchi" (emblematico il caso di Oblivion che con AA migliora quasi di 3 volte - qualcuno ha cominciato a parlare di "trucchi" sul filtraggio, ma in realtà il filtraggio in R600 non fa perdere il 66% di prestazioni andando a 16x, e al momento non sembrano state essere rilevate nel caso specifico perdite di qualità). Poi io comunque non la vedo andare sopra la GTX anche con drivers migliorati, piuttosto magari andare in maniera più consistente sopra la GTS. Poi magari sarò smentito dai fatti, tuttavia il potenziale c'è, anche se parecchio meno immediatamente sfruttabile.
PS: x un utente che lo diceva, adesso non ricordo: non credo che la questione di R650 con 480 ALU ad 1 GHz sia campata in aria ;)
Anzi, anche poi anche qui potrò essere smentito in quanto non lavoro certo con ATI quindi quello che dico è una mi aprevisione del tutto ipotetica ma basata sull'analisi di quanto fatto da ATI in passato, ma penso proprio che R650 a 65 nm sarà configurato con 96 Shader unit (x5) e un deciso aumento delle Texture unit (da 16 a 32 - utilizzando sempre 4 blocchi ma raddoppiando le unità TF di ciascun blocco) e almeno 20-24 ROPS. Con frequenze target di 1 GHz.
leoneazzurro
15-05-2007, 21:05
E allora si sono http://www.lshwupgrade.com/images/smiles/tafazzi.gif da soli...e poi per quale motivo rimettersi al lavoro solo adesso (come se dicessero: salve, la scheda come potete vedere ha prestazioni scadenti e non ci lavoriamo da mesi, ma adesso, dopo aver fatto una figuraccia immane ci rimettiamo sotto a scrivere driver decenti :) )? :mbe: Mi sembra assurdo...
Perchè evidentemente il chip fisicamente non era pronto. E comunque ottimizzare per R600 è decisamente più complesso che ottimizzare per G80, per cui ci vuole più lavoro.
PS: vi ricordo che nvidia è stata anche colpita da una "class action" da parte di utenti insoddisfatti per la pessima qualità dei drivers per G80 ;)
Questo per dire che fare i drivers oggi, non è cosa semplice. Le architetture odierne, estrememente programmabili, non sono comparabili con le GPU del passato, ancor meno di quanto un Core2 Duo possa essere paragonato ad un 80386. ATI oltretutto, con il suo ring bus programmabile, ha introdotto un ulteriore "fattore di incertezza" nell'ottimizzazione del codice. Che poi questo fattore si possa anche tradurre in possibilità di ottenere migliori prestazioni, è sperabile. Tuttavia se male istruito, questo tipo di controller può portare a risultati prestazionalmente insoddisfacenti.
appleroof
15-05-2007, 21:11
Perchè evidentemente il chip fisicamente non era pronto. E comunque ottimizzare per R600 è decisamente più complesso che ottimizzare per G80, per cui ci vuole più lavoro.
PS: vi ricordo che nvidia è stata anche colpita da una "class action" da parte di utenti insoddisfatti per la pessima qualità dei drivers per G80 ;)
Questo per dire che fare i drivers oggi, non è cosa semplice.
Solo per la precisione, la questione riguardava il fatto che uscito Vista i driver tardavano un pò..era solo una questione legata ai tempi di rilascio per vista, non alla qualità dei driver in sè....(inoltre mi pare la class action sia stata solo minacciata, non messa in atto, ma mi posso sbagliare..)
Le architetture odierne, estrememente programmabili, non sono comparabili con le GPU del passato, ancor meno di quanto un Core2 Duo possa essere paragonato ad un 80386.
cut
Assolutamente d'accordo, la cosa vale per entrambe le gpu dx10, cmq, anche questo solo per la precisione (visto che senza dubbio ti riferivi anche tu ad entrambe)...:)
Rimane sempre il fatto (perdonami se sembro eccessivamente ripetitivo) che tutto quello che giustamente sottolinei non giustifica cmq il lancio della scheda a driver pesantemente buggati...:boh:
PS: x un utente che lo diceva, adesso non ricordo: non credo che la questione di R650 con 480 ALU ad 1 GHz sia campata in aria ;)
Anzi, anche poi anche qui potrò essere smentito in quanto non lavoro certo con ATI quindi quello che dico è una mi aprevisione del tutto ipotetica ma basata sull'analisi di quanto fatto da ATI in passato, ma penso proprio che R650 a 65 nm sarà configurato con 96 Shader unit (x5) e un deciso aumento delle Texture unit (da 16 a 32 - utilizzando sempre 4 blocchi ma raddoppiando le unità TF di ciascun blocco) e almeno 20-24 ROPS. Con frequenze target di 1 GHz.
imho una soluzione del genere riempirebbe il buco dei 499/599€ lasciato da amd
Kharonte85
15-05-2007, 21:18
Perchè evidentemente il chip fisicamente non era pronto. E comunque ottimizzare per R600 è decisamente più complesso che ottimizzare per G80, per cui ci vuole più lavoro.
PS: vi ricordo che nvidia è stata anche colpita da una "class action" da parte di utenti insoddisfatti per la pessima qualità dei drivers per G80 ;)
Questo per dire che fare i drivers oggi, non è cosa semplice. Le architetture odierne, estrememente programmabili, non sono comparabili con le GPU del passato, ancor meno di quanto un Core2 Duo possa essere paragonato ad un 80386. ATI oltretutto, con il suo ring bus programmabile, ha introdotto un ulteriore "fattore di incertezza" nell'ottimizzazione del codice. Che poi questo fattore si possa anche tradurre in possibilità di ottenere migliori prestazioni, è sperabile. Tuttavia se male istruito, questo tipo di controller può portare a risultati prestazionalmente insoddisfacenti.
Non hai capito, mi riferivo solo alla parte del tuo intervento che ho grassettao, sul fatto che abbiano avuto problemi ci ho sempre pensato anche io...ma credo che i driver siano stati in costante aggiornamento (lo dimostra il fatto che si sono susseguite varie versioni in poco tempo prima delle recensioni ufficiali :) )
leoneazzurro
15-05-2007, 21:20
Solo per la precisione, la questione riguardava il fatto che uscito Vista i driver tardavano un pò..era solo una questione legata ai tempi di rilascio per vista, non alla qualità dei driver in sè....(inoltre mi pare la class action sia stata solo minacciata, non messa in atto, ma mi posso sbagliare..)
http://www.apogeonline.com/webzine/2007/02/09/22/200702092202
Più che ai tempi di rilascio, alla mancanza di supporto e a problemi di crash vari. Comunque, chiaro che mi riferivo al passato, anche se come si può vedere dalla data della notizia, erano passati almento 3 mesi dal rilascio della scheda (volendo parafrasare qualcuno - "cosa diavolo stavano facendo i programmatori di nvidia in quel momento?" :D )OK, Vista retail non era uscito da molto, comunque.
Assolutamente d'accordo, la cosa vale per entrambe le gpu dx10, cmq, anche questo solo per la precisione (visto che senza dubbio ti riferivi anche tu ad Rimane sempre il fatto (perdonami se sembro eccessivamente ripetitivo) che tutto quello che giustamente sottolinei non giustifica cmq il lancio della scheda a driver pesantemente buggati...:boh:
Non , non giustifica, così come non è giustificabile il consumo assurdo di R600 (anche se qui non il 100% della colpa va ad ATI), ma non mi sembra di aver detto che hanno fatto bene (a noi utenti). Ho solo cercato di spiegare quale può essere la situazione che si è venuta a creare. Non è che un giorno i programmatori di drivers ATI sono dei geni e il giorno dopo dei dementi...
appleroof
15-05-2007, 21:32
http://www.apogeonline.com/webzine/2007/02/09/22/200702092202
Più che ai tempi di rilascio, alla mancanza di supporto e a problemi di crash vari. Comunque, chiaro che mi riferivo al passato, anche se come si può vedere dalla data della notizia, erano passati almento 3 mesi dal rilascio della scheda (volendo parafrasare qualcuno - "cosa diavolo stavano facendo i programmatori di nvidia in quel momento?" :D )OK, Vista retail non era uscito da molto, comunque.
Ricordo che la questione era legata a spda che non partiva e al fatto che alcuni giochi crashavano, queste ultime cose ampiamente risolte dai 100.65 whql (usciti a febbraio, non sò perchè la notizia abbia data successiva, in realtà quell' "allarme" era rientrato già abbondantemente, rispetto alle proporzioni iniziali), e fidati perchè ho provato tutte quelle cose di persona :)
Ad ogni modo quando la 8800gtx fu presentata andava perfettamente al 99% dei giochi in Windows Xp (infatti la questione cui fai riferimento era legata a Vista, come abbiamo detto, e in uno scenario completamente diverso da quello in cui si muove Ati oggi, con il nuovo Os bello che testato, cmq molto più che a gennaio): quindi siamo lì, all'atto della presentazione la scheda era perfettamente in grado di mostrare tutto il suo potenziale, con il normale margine di miglioramento che c'è sempre legato all'affinamento dei driver (il passaggio a vista, ripeto, ha complicato poi non poco le cose con la necessità di rispondere subito)
Non , non giustifica, così come non è giustificabile il consumo assurdo di R600 (anche se qui non il 100% della colpa va ad ATI), ma non mi sembra di aver detto che hanno fatto bene (a noi utenti). Ho solo cercato di spiegare quale può essere la situazione che si è venuta a creare. Non è che un giorno i programmatori di drivers ATI sono dei geni e il giorno dopo dei dementi...
Allora, non intendo dire che tu voglia "giustificare" Ati (ci mancherebbe :p e in ogni caso sarebbe cmq legittimo, nulla di che): intendo dire che tutto quello che giustamente rilevi non spiega il fatto che la scheda sia stata presentata con driver penosi...
insomma, che i dirver non c'entrino nulla? (o cmq non abbiano il peso che staimo loro attribuendo?) A che pro lanciare una scheda (il primo impatto è assolutamente fondamentale, lo sappiamo bene, non ne parliamo dopo tutti questi mesi di hype, in una situazione assolutamente fuori norma) con driver non "immaturi" ma (stando a quanto si dice ora) del tutto buggati, quando con un ulteriore rimando di qualche giorno avrebbero potuto lanciarla con driver migliori?
leoneazzurro
15-05-2007, 21:53
Ricordo che la questione era legata a spda che non partiva e al fatto che alcuni giochi crashavano, queste ultime cose ampiamente risolte dai 100.65 whql (usciti a febbraio, non sò perchè la notizia abbia data successiva, in realtà quell' "allarme" era rientrato già abbondantemente, rispetto alle proporzioni iniziali), e fidati perchè ho provato tutte quelle cose di persona :)
Ad ogni modo quando la 8800gtx fu presentata andava perfettamente al 99% dei giochi in Windows Xp (infatti la questione cui fai riferimento era legata a Vista, come abbiamo detto, e in uno scenario completamente diverso da quello in cui si muove Ati oggi, con il nuovo Os bello che testato, cmq molto più che a gennaio): quindi siamo lì, all'atto della presentazione la scheda era perfettamente in grado di mostrare tutto il suo potenziale, con il normale margine di miglioramento che c'è sempre legato all'affinamento dei driver (il passaggio a vista, ripeto, ha complicato poi non poco le cose con la necessità di rispondere subito)
Pensi che dai drivers di lancio ad oggi non ci siano stati incrementi prestazionali (suggerimento: il driver beta per CoJ, diversi problemi risolti verso Dicembre con alcuni giochi)? Si, vero, si vedeva subito il potenziale, ma qual'era l'unico metro di confronto allora? Se G80 non fosse uscito, come sarebbe R600 rispetto alle schede della passata generazione?
Quello che intendo dire, è che ora R600 "fa schifo" anche perchè c'è un metro di confronto particolarmente alto, ossia un G80 che è un'ottima GPU, forse il miglior lancio di una nuova architetture Nvidia di sempre.
Allora, non intendo dire che tu voglia "giustificare" Ati (ci mancherebbe :p e in ogni caso sarebbe cmq legittimo, nulla di che): intendo dire che tutto quello che giustamente rilevi non spiega il fatto che la scheda sia stata presentata con driver penosi...
insomma, che i dirver non c'entrino nulla? (o cmq non abbiano il peso che staimo loro attribuendo?) A che pro lanciare una scheda (il primo impatto è assolutamente fondamentale, lo sappiamo bene, non ne parliamo dopo tutti questi mesi di hype, in una situazione assolutamente fuori norma) con driver non "immaturi" ma (stando a quanto si dice ora) del tutto buggati, quando con un ulteriore rimando di qualche giorno avrebbero potuto lanciarla con driver migliori?
Il fatto che i drivers siano davvero penosi e poco ottimizzati credo si possa benissimo evincere dai risultati di alcuni test, nei quali la scheda va peggio di una X1950 XT non avendo una singola feature inferiore, dalla mancanza al lancio di feature importanti (funzionamento dell'UVD, alcune modalità AA), al rilascio di drivers beta ogni pochi giorni che cambiano notevolmente il quadro prestazionale in alcune situazioni. Non a caso mi sembra che per il 22 Maggio sia fissata la data di rilascio per un driver di lancio "definitivo".
Per quanto riguarda il perchè, forse non mi sono spiegato: non è che (a mio parere) R600 è stato ritardato causa drivers, R600 IMHO è stato ritardato per seri problemi hardware, che hanno fatto slittare la versione definitiva del chip (quella funzionante e sulla quale si dovevano ottimizzare i drivers), e che quindi, essendo comunque decisa la data di lancio (per motivi come detto "politici") si è cercato di correre presentando la scheda con i drivers nello stato migliore possibile (ma comunque sempre scarso) con il tempo a disposizione. Altrimenti, come mai si è presentato un driver "pre-alpha" due giorni prima del lancio?
Zlatan91
15-05-2007, 22:08
bha....il test definitivo sara crysis imho.....dove nvidia e ati avranno tutto il tempo per ottimizzare questi driver soppratutto in dx10.....dove ste schede dovrebber andare piu veloci che in dx9.....
lost planet è una preview di quello che ci attende....pero ati è ancora indietro con i driver....anche se penso che piu di un tanto non migliorino.....e dai raga è stata il top per 3 serie di schede....puo scannare na volta no:)
senza polemica ma la curiosita è tanta: quella fatidica compatibilità alle dx10.1 che tanto sottolineavi nel thread precedentemente chiuso dove è finita?
Mister Tarpone
15-05-2007, 22:11
bha....il test definitivo sara crysis imho.....dove nvidia e ati avranno tutto il tempo per ottimizzare questi driver soppratutto in dx10.....dove ste schede dovrebber andare piu veloci che in dx9.....
lost planet è una preview di quello che ci attende....pero ati è ancora indietro con i driver....anche se penso che piu di un tanto non migliorino.....e dai raga è stata il top per 3 serie di schede....puo scannare na volta no:)
ciao :)
ma tu non dicevi che era compatibile con le dx10.1??? :)
:sbonk: quindi?? :stordita:
Mister Tarpone
15-05-2007, 22:12
senza polemica ma la curiosita è tanta: quella fatidica compatibilità alle dx10.1 che tanto sottolineavi nel thread precedentemente chiuso dove è finita?
eccoci... :asd: abbiamo postato la stessa domanda nello stesso momento :asd:
bha....il test definitivo sara crysis imho.....dove nvidia e ati avranno tutto il tempo per ottimizzare questi driver soppratutto in dx10.....dove ste schede dovrebber andare piu veloci che in dx9.....
lost planet è una preview di quello che ci attende....pero ati è ancora indietro con i driver....anche se penso che piu di un tanto non migliorino.....e dai raga è stata il top per 3 serie di schede....puo scannare na volta no:)
sbaglio o tu eri il "profeta" delle DX10.1 per la HD2900XT ? :D
EDIT: della serie lo aspettavamo tutti al varco :asd:
LOL...nel giro di 30 secondi gia in 3 lo abbiamo chiesto :asd:
thommy87
15-05-2007, 22:25
se si uniscono intel nvidia secondo me fanno merda...chissa cosa verrebbe fuori..:eek:
loperloper
15-05-2007, 22:27
se si uniscono intel nvidia secondo me fanno merda...chissa cosa verrebbe fuori..:eek:
si andrebbe verso un mercato senza concorrenza = dannoso per noi....comunque è un bel po fuori OT ;)
thommy87
15-05-2007, 22:31
secondo me questa scheda non fara mai miracoli sapete perche?pensavate che per 400 euro vi davano una scheda che andasse piu della 8800 gtx?ati lo sa che non può contrastare la gtx e a deciso di tenere il prezzo sui 400 anche se è il modello di punta..tutto quà...:Prrr:
cmq fossero andati i benchmark in recensione ATI/AMD sarebbe cmq stata costretta a giocare un prezzo ultra concorrenziale per recuperare fette di mercato. Ha 8 mesi di Svantaggio, non sono pochi , spece se accumulati da un' azienda quale Nvidia che ha una maggiore riconoscibilità sul mercato.
I vari Loghi Nvidia nei giochi serviranno pure a qualcosa che dite?
pierluigi86
15-05-2007, 22:48
possiamo pure aprire aspettando r650??? oppure aspettando una scheda ati migliore di nvidia?
il strano comportameno di questa scheda in certi test, dove va peggio della x1950xtx, mentre in altri, va addirittura piu di una 8800 ultra, fa pensare... io sono quasi convinto che il problema sia tutto software, nn credo che alla ati siano così idioti a lanciare una scheda tipo questa, che poi cmq la devono tenere per piu di 1 anno, che sia strutturalmente buggata nel hardware... piuttosto hanno curato parecchio l'aspetto hardware, per poi mettersi a lavorare sui driver al ultimo momento :asd: se così non fosse, sarebbe grave, e non sarebbe la prima, vedere intel con i suoi prescott che le fecero la brutta reputazione... solo che la intel in quel caso era preparata finanziariamente a sostenere un calo vendite, ATI/AMD nn credo, se toppano anche i k10 la vedo brutta...
Consiglio veloce veloce raga, stà scheda la ho vista a 380€ su uno shop online, è la sapphire con dissi reference, conviene prenderla?, devo convincere un amico, lui aveva un affare per una 8800gts 640 mb a 399€, ma visto questa scheda tecnologicamente + avanzata, cosa gli conviene fare?
PS ha un monitor 19" max 1280x1024, quindi a risoluzione spintissime nn ci va.
ciao ragazzi mi iscrivo perchè sono molto interessato a queste nuove gpu dx10,ho letto tante recensioni in giro sul web,ovviamente anche quella su hwupgrade.l'unica cosa che mi viene in mente ora è che bisogna aspettare,sicuramente questa non è imho una condanna definitiva per la ati,anzi...ho letto di tanti che consigliano l'acquisto della 8800gts: io dico che è una buona scheda ma solo in questo periodo.a me soprattutto interessano i giochi che usciranno da crysis in poi e siccome ho letto che nvidia ha abbassato alcuni prezzi io non penso che l'abbia fatto solo in vista dell'uscita della ati ma anche perchè come si evince dai primi test dx10 è abbastanza scarsa,nvidia ha adottato una strategia per vendere ancora + schede oltre alla gtx,tutto qua,avendo un enorme vantaggio su ati che ha ritardato d 6 mesi.forse sono tutte scarse finora per mancanza di software ottimizzato cmq devono essere per forza indicativi in qualche modo quei test.cosa volete che facciano? i miracoli? certo è che i nuovi giochi li stanno testando con queste schede,con quali altre mai? perciò d sicuro i giochi che usciranno gireranno bene,magari bisognerà cmq aspettare la seconda gen per trarre il meglio dalle nuove API.in ogni caso sento che questa ati abbia del potenziale inespresso.non è possibile che sulla carta è un mostro di tecnologia e poi ha questi risultati.queste prime gen nn faranno i miracoli ma è il software il problema principale,fidatevi.e penso anche un'altra cosa: ati ha dovuto si ridurre il prezzo della nuova 2900 ma perchè ha avuto problemi di drivers su delle API su cui nessun programmatore ancora può essere del tutto esperto,quindi non poteva,anche se la scheda ha il potenziale,metterla ad un prezzo analogo alla gtx perchè al momento non avrebbe mercato,ci si deve lavorare su ancora tanto e non poteva permettersi d aspettare ancora viste le perdite economiche,oltre ad accordi con partners e distributori.
Evangelion01
15-05-2007, 23:58
Consiglio veloce veloce raga, stà scheda la ho vista a 380€ su uno shop online, è la sapphire con dissi reference, conviene prenderla?, devo convincere un amico, lui aveva un affare per una 8800gts 640 mb a 399€, ma visto questa scheda tecnologicamente + avanzata, cosa gli conviene fare?
PS ha un monitor 19" max 1280x1024, quindi a risoluzione spintissime nn ci va.
Da postare in "consigli per gli acquisti".. :p
Comunque io andrei sicuro sulla 8800gts640 : va all' incirca come la 2900 ma scalda e consuma decisamente meno. Però si trova anche a meno di 399€...:)
Da postare in "consigli per gli acquisti".. :p
Comunque io andrei sicuro sulla 8800gts640 : va all' incirca come la 2900 ma scalda e consuma decisamente meno. Però si trova anche a meno di 399€...:)
i consumi nn e che siano un gran problema, insomma 30 watt in +, su un alimentatore da 700 nn contano, per il fatt che scalda, dici che montandoci sopra un zalman VF900 la situazione migliorerebbe? o sarebbe totalmente sottodimensionato?
Evangelion01
16-05-2007, 00:04
i consumi nn e che siano un gran problema, insomma 30 watt in +, su un alimentatore da 700 nn contano, per il fatt che scalda, dici che montandoci sopra un zalman VF900 la situazione migliorerebbe? o sarebbe totalmente sottodimensionato?
Penso che migliorerebbe di sicuro con lo zalman, però a quel punto, anziche prendere la 2900 e aggiungere pure 30€ di dissy nuovo, io farei lo sforzo e aggiungerei un' altra trentina di € per una fantastica 8800gtx... ;)
MonsterMash
16-05-2007, 00:05
i consumi nn e che siano un gran problema, insomma 30 watt in +, su un alimentatore da 700 nn contano, per il fatt che scalda, dici che montandoci sopra un zalman VF900 la situazione migliorerebbe? o sarebbe totalmente sottodimensionato?
Secondo il mio modesto parere, con lo zalman avresti all'incirca le stesse temperature, se non fosse che con il dissi stock l'aria calda viene espulsa dal retro del case, mentre con lo zalman resta nel case.
La differenza sostanziale starebbe invece nella rumorosità: lo zalman è decisamente molto più silenzioso.
Per quanto riguarda la scelta tra 8800gst 640 e 2900xt, io direi che a parità di prezzo conviene decisamente la ati.
Però cercando bene credo proprio che la prima si trovi a molto meno.
Ciao
MonsterMash
16-05-2007, 00:06
Penso che migliorerebbe di sicuro con lo zalman, però a quel punto, anziche prendere la 2900 e aggiungere pure 30€ di dissy nuovo, io farei lo sforzo e aggiungerei un' altra trentina di € per una fantastica 8800gtx... ;)
Dubito che si possa ancora trovare una gtx a 450 euro.
Evangelion01
16-05-2007, 00:08
Che poi non sono 30w in + o - . In full, la differenza tra 8800gts e 2900 è più di 80W :doh: . Senza contare che per fare oc con la 2900 serve pure un ali con uscita a 8 poli...
Che poi non sono 30w in + o - . In full, la differenza tra 8800gts e 2900 è più di 80W :doh: . Senza contare che per fare oc con la 2900 serve pure un ali con uscita a 8 poli...
80w sicuro? avevo sentito meno boh, cmq contando sul fatto della fiducia , che i driver debbano essere migliorati, quale conviene a stò punto? mi pare che si ecquivalgano la gts e questa, anzi a volte la 2900 va addirittura meglio della gtx in certi benchmarck
scusate a proposito sapete se qualcuno qui sul forum ne ha già comprato una? quando uscirà una prima demo decente in dx10? grazie
Evangelion01
16-05-2007, 00:16
80w sicuro? avevo sentito meno boh, cmq contando sul fatto della fiducia , che i driver debbano essere migliorati, quale conviene a stò punto? mi pare che si ecquivalgano la gts e questa, anzi a volte la 2900 va addirittura meglio della gtx in certi benchmarck
La fonte del consumo è la rece di questo sito.
http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_20.html
La gts e la 2900 al momento si equivalgono abbastanza : in qualche raro bench la 2900 va meglio della gtx ( tipo il perlin noise ), in altri le prende pure dalla x1900xtx... :(
La fonte del consumo è la rece di questo sito.
http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_20.html
La gts e la 2900 al momento si equivalgono abbastanza : in qualche raro bench la 2900 va meglio della gtx ( tipo il perlin noise ), in altri le prende pure dalla x1900xtx... :(
questioni di driver dai... è assurdo che vada di meno cioe, a tutte caratteristiche migliori rispetto la x1900xtx, cmq se sfornano driver nuovi nn può che migliorare la situazione... certo che anche loro a fare dei driver così complessi 2 giorni prima di lanciarla sul mercato... :asd:
Che poi non sono 30w in + o - . In full, la differenza tra 8800gts e 2900 è più di 80W :doh: . Senza contare che per fare oc con la 2900 serve pure un ali con uscita a 8 poli...
vero effettivamente questi sono altri punti a sfavore,sia il consumo ke il calore ke l'uscita a 8 poli...il problema è che,non prendiamoci in giro,se al momento surclassasse la gtx ne parleremmo? :D io credo di no,sono le prestazioni il vero problema.cmq si io in questo momento preferirei la gts ma forse un pò a scatola chiusa perchè davvero non saprei,anche tra pochi mesi,se vale veramente l'acquisto.
Evangelion01
16-05-2007, 00:23
questioni di driver dai... è assurdo che vada di meno cioe, a tutte caratteristiche migliori rispetto la x1900xtx, cmq se sfornano driver nuovi nn può che migliorare la situazione... certo che anche loro a fare dei driver così complessi 2 giorni prima di lanciarla sul mercato... :asd:
:asd: già..
Comunque in linea di massima è leggermente più veloce della 8800gts640, però considerando calore, rumore , consumi e prezzo ( la 8800 la si trova una 30ina di € in meno ) io propenderei sicuramente per la gts. Poi ognuno sceglie ciò che preferisce...
MonsterMash
16-05-2007, 00:27
Cmq vorrei anche far notare come sia in italia che questa scheda costa un po' troppo, visto che ho trovato uno shop tedesco e uno svedese che la vendono a 330 euro, mentre diversi altri tedeschi la vendono a 360.
In italia a meno di 390 è impossibile da trovare...
:asd: già..
Comunque in linea di massima è leggermente più veloce della 8800gts640, però considerando calore, rumore , consumi e prezzo ( la 8800 la si trova una 30ina di € in meno ) io propenderei sicuramente per la gts. Poi ognuno sceglie ciò che preferisce...
io resto sempre del idea che la gts ormai e rodata con driver ottimizzati da 7 mesi, ecc ecc, mentre questa e appena uscita, con driver buggatissimi, ma siamo certi che con qualche nuova relase dei driver nn sfoderi al sua vera putenza bruta?
Evangelion01
16-05-2007, 00:28
vero effettivamente questi sono altri punti a sfavore,sia il consumo ke il calore ke l'uscita a 8 poli...il problema è che,non prendiamoci in giro,se al momento surclassasse la gtx ne parleremmo? :D io credo di no,sono le prestazioni il vero problema.cmq si io in questo momento preferirei la gts ma forse un pò a scatola chiusa perchè davvero non saprei,anche tra pochi mesi,se vale veramente l'acquisto.
Già , le prestazioni ... :asd:
Cumunque anche gli altri aspetti, imho sono importanti. E in ogni caso se uno deve comperare ORA, in questa fascia la 8800gts resta la scelta più sensata, specie la versione da 320mb , per chi non può godere di monitor con ris. superiori a 1280x1024, visto che si trova sui 260€. :D
Mister Tarpone
16-05-2007, 00:32
Dubito che si possa ancora trovare una gtx a 450 euro.
incredibile hai ragione!!!! :eek: :eek:
ieri su trova prezzi si trovavano le 8800GTX (Manli) a 460€!!! :eek:
sono andato a riguardare adesso e la stessa scheda costa 500€ !!! :eek: :eek:
e mi sembra che siano aumentate un pò tutte!!! :eek:
ma porca miseria :sob: :sob: :sob: ... e ho capito...
Evangelion01
16-05-2007, 00:33
io resto sempre del idea che la gts ormai e rodata con driver ottimizzati da 7 mesi, ecc ecc, mentre questa e appena uscita, con driver buggatissimi, ma siamo certi che con qualche nuova relase dei driver nn sfoderi al sua vera putenza bruta?
Per quanto un driver venga ottimizzato, non è che dall' oggi al domani una vga va il doppio. Io non credo a queste favole, ma ai bench che abbiamo sotto gli occhi. Poi i margini di miglioramento ci sono sia da una parte che dall' altra. Cmq ho capito il problema : dare fiducia ad Ati e aspettare ( ANCORA... dopo 7 mesi, lol ) una versione di driver che ribalti la situazione, o prendere Nvidia le cui prestazioni bene o male sono più chiare? Io prenderei nvidia, per i discorsi fatti in precedenza e perche sono un po' come San Tommaso :D . Poi ci vorrebbe la sfera di cristallo, per dire se ho ragione o no... :Prrr:
Già , le prestazioni ... :asd:
Cumunque anche gli altri aspetti, imho sono importanti. E in ogni caso se uno deve comperare ORA, in questa fascia la 8800gts resta la scelta più sensata, specie la versione da 320mb , per chi non può godere di monitor con ris. superiori a 1280x1024, visto che si trova sui 260€. :D
e forse a quella risoluzione,con un pò d tempo,sarà buona anche per i giochi nuovi anche se non mi aspetterei framerate alti ma diciamo un buon livello di giocabilità,effettivamente dipende dalle proprie esigenze.io ad esempio controllo che una vga a quella risoluzione faccia almeno 40-50 fps altrimenti non la calcolo proprio dato ke ho un lcd 19" .ora ho una x1950xt con un core 2 e6600 e non mi posso affatto lamentare.
Evangelion01
16-05-2007, 00:37
incredibile hai ragione!!!! :eek: :eek:
ieri su trova prezzi si trovavano le 8800GTX (Manli) a 460€!!! :eek:
sono andato a riguardare adesso e la stessa scheda costa 500€ !!! :eek: :eek:
e mi sembra che siano aumentate un pò tutte!!! :eek:
ma porca miseria :sob: :sob: :sob: ...
Brutto segno... la brutta uscita di r600 si fa sentire subito.
Io personalmente che ho acquistato 4 mesi fa la mia vga, non posso che essere "contento" , visto che manterrà il valore più a lungo, ma per noi utenti in generale questa mancanza di concorrenza prudurrà ( e lo sta già facendo ) questi effetti negativi. Andiamo male...:(
Per quanto un driver venga ottimizzato, non è che dall' oggi al domani una vga va il doppio. Io non credo a queste favole, ma ai bench che abbiamo sotto gli occhi. Poi i margini di miglioramento ci sono sia da una parte che dall' altra. Cmq ho capito il problema : dare fiducia ad Ati e aspettare ( ANCORA... dopo 7 mesi, lol ) una versione di driver che ribalti la situazione, o prendere Nvidia le cui prestazioni bene o male sono più chiare? Io prenderei nvidia, per i discorsi fatti in precedenza e perche sono un po' come San Tommaso :D . Poi ci vorrebbe la sfera di cristallo, per dire se ho ragione o no... :Prrr:
quello che dici non stà del tutto in piedi sinceramente, visto l'ultimo rilascio dei driver nvidia, che ha aumentato del 30% i framerate in quel gioco... che ora nn ricordo... quindi vuol dire che bene o male dei driver fatti bene contano parecchio... e contano ancora di piu se la scheda è complessa come la 2900xt.
Ma mi sfugge una cosa... guardando le prestazioni abbiamo detto tutti che la 2900xt va paragonata alla 8800gts, ma quale dei due modelli? :mbe:
La 320 la si trova a 300 circa mentre la 640 costa intorno ai 370, ovvero il prezzo della 2900xt...
Imho Ati deve calare ancora.
Mister Tarpone
16-05-2007, 00:50
Ma mi sfugge una cosa... guardando le prestazioni abbiamo detto tutti che la 2900xt va paragonata alla 8800gts, ma quale dei due modelli? :mbe:
la XT deve competere contro la 640
Evangelion01
16-05-2007, 00:57
quello che dici non stà del tutto in piedi sinceramente, visto l'ultimo rilascio dei driver nvidia, che ha aumentato del 30% i framerate in quel gioco... che ora nn ricordo... quindi vuol dire che bene o male dei driver fatti bene contano parecchio... e contano ancora di piu se la scheda è complessa come la 2900xt.
Quel gioco è call of juarez. Ed è UN solo gioco , sotto un determinato sistema operativo ( Vista ) e con determinati settaggi. L' ho visto pure io, ma ripeto, non si può generalizzare una situazione così specifica : e basta guardare le release storiche dei drivers ATI o Nvidia per vedere che quando ci sono migliorie, queste difficilmente superano il 5% di prestazioni in più. Senza contare che i miglioramenti spesso coinvolgono solo determinati giochi o applicativi. Quindi il discosro sta in piedi eccome... :read:
Evangelion01
16-05-2007, 01:01
E per conferma che quello che dico ha fondamenta solide,ecco cosa dice hwupgrade : http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_19.html
" test condotti con driver NVIDIA ForceWare 158.18 per Windows Vista 32 bit, ovviamente utilizzati con schede NVIDIA, hanno messo in mostra un comportamento che non ammette repliche: la scheda ATI Radeon HD 2900 XT mette decisamente alle corde le GeForce 8800 GTS, staccando anche, seppur di poco, la GeForce 8800 GTX. Ripetendo però i test con driver forniti alla stampa specializzata pochissimi giorni fa da NVIDIA, versione ForceWare 158.42 per Windows Vista 32 bit, la situazione cambia drasticamente.
Le prestazioni di tutte le schede NVIDIA aumentano drasticamente, con picchi prossimi al 30%. Se ne ricava di conseguenza una classifica completamente stravolta rispetto a quanto osservato con la precedente release di driver. Ritroviamo quella linea di coerenza di risultati prestazionali che vedono la scheda ATI Radeon HD 2900 XT allienata con la NVIDIA GeForce 8800 GTS 640 MB, mentre il modello GeForce 8800 GTX stacca nettamente tutte le altre soluzioni prese in esame.
Il risultato in ogni caso è da prendere con le dovute cautele per diversi motivi. Il primo è la relativa rudimentalità di molti dei particolari ripresi nel test, a testimonianza di un codice non ancora maturo. Il secondo è l'impossibilità di verificare con benchmark differenti il risultato ottenuto, che potrebbe essere per esempio molto condizionato dalla bandwidth della memoria o da alcune particolari scelte architetturali presenti nell'una e nell'altra famiglia di GPU." :read:
Ma mi sfugge una cosa... guardando le prestazioni abbiamo detto tutti che la 2900xt va paragonata alla 8800gts, ma quale dei due modelli? :mbe:
La 320 la si trova a 300 circa mentre la 640 costa intorno ai 370, ovvero il prezzo della 2900xt...
Imho Ati deve calare ancora.
guarda forse non è proprio così,ho un amico che ha un negozio d'informatica,a parte che ha avuto dei preordini e nn mi ha voluto dire quanti...cmq oggi ha fatto una specie di giorno lancio,tipo quello della ps3 tanto per intenderci,ne ha vendute 25...e per avere lui un negozio,quindi non una catena informatica...secondo me è tanto,sembra che la gente sia impressionata dalle innovazioni tecnologiche + ke dalle attuali prestazioni,molti erano anke interessati al lato video della scheda,cosa che molti trascurano.forse tanta gente cmq i benchmarks neanche li legge,guarda il prezzo che cmq è competitivo per una scheda con questa tecnologia.
Quel gioco è call of juarez. Ed è UN solo gioco , sotto un determinato sistema operativo ( Vista ) e con determinati settaggi. L' ho visto pure io,
io ho avuto la fortuna d vederlo dal vivo.è vero,tutta questa fluidità non ce l'ha...la risoluzione era appunto 1280x1024 ma ragazzi io sono rimasto veramente :eek: per la qualità delle immagini,luci,ombre,textures...io ho scaricato anke il video in alta definizione di questo test ma vederlo eseguito dalla scheda è tutta un'altra cosa.credo che c divertiremo davvero con le nuove directx e siamo solo all'inizio.infatti Ati dice a legitreviews riguardo a questo bench preliminare(tratto da un articolo di 2 giorni fa):
"The game’s developer, Techland has found that this was caused by an application issue when MSAA is enabled. The benchmark can be run on both ATI Radeon and NVIDIA hardware with MSAA disabled. This application issue will be fixed in an upcoming patch available in the next couple of weeks. The full DirectX 10 version of Call of Juarez will be available to the public sometime in June with full functionality for all DirectX 10 capable graphics cards."
GrrPulcy
16-05-2007, 01:20
Domanda: la 2900 usa per gestire lo scambio informazioni tramite un ring bus (penso almeno doppio se ci ho capito qualcosa...) quindi immagino si usi il cosiddetto token per poter parlare cpu <=> modulo memoria e fin qui ci siamo ok no... pertanto la mia domanda e': secondo voi quanto e' ottimizzato e quanto si puo' ottimizzare questo driver/bios???
quanto si puo' affermare che la carenza di prestazioni sia dovuta alla gpu quanto ad uno "spreco/inutilizzo" della bandwidth???
guarda forse non è proprio così,ho un amico che ha un negozio d'informatica,a parte che ha avuto dei preordini e nn mi ha voluto dire quanti...cmq oggi ha fatto una specie di giorno lancio,tipo quello della ps3 tanto per intenderci,ne ha vendute 25...e per avere lui un negozio,quindi non una catena informatica...secondo me è tanto,sembra che la gente sia impressionata dalle innovazioni tecnologiche + ke dalle attuali prestazioni,molti erano anke interessati al lato video della scheda,cosa che molti trascurano.forse tanta gente cmq i benchmarks neanche li legge,guarda il prezzo che cmq è competitivo per una scheda con questa tecnologia.
Ma quello ci può stare, non lo metto in dubbio, però a livello di marketing non puoi tralasciare chi le prestazioni le guarda, sopratutto se dei due brand sei quello in ritardo.
Ora come ora una gts 640 cosa più o meno lo stesso prezzo della 2900xt e fin qui ci siamo.
Se vuoi cercare di recuperare terreno, anche a fronte dei dati su consumi e rumorosità, devi offrire il tuo prodotto ad un prezzo più basso del concorrente.
leoneazzurro
16-05-2007, 01:42
Quel gioco è call of juarez. Ed è UN solo gioco , sotto un determinato sistema operativo ( Vista ) e con determinati settaggi. L' ho visto pure io, ma ripeto, non si può generalizzare una situazione così specifica : e basta guardare le release storiche dei drivers ATI o Nvidia per vedere che quando ci sono migliorie, queste difficilmente superano il 5% di prestazioni in più. Senza contare che i miglioramenti spesso coinvolgono solo determinati giochi o applicativi. Quindi il discosro sta in piedi eccome... :read:
Tu devi pensare che ogni ALU di R600 può eseguire 5 istruzioni in parallelo, ma che devono provenire dallo stesso thread/lavorare sullo stesso pixel. Ora, se ci sono delle dipendenze tra le istruzioni, spesso non si possono alimentare le ALU con 5 istruzioni in parallelo e quindi si perde efficienza nel calcolo. Il caso peggiore è di avere una serie di istruzioni scalari tutte dipendenti l'una dall'altra. In questo caso devono essere eseguite una alla volta e in pratica si utilizza solo il 20% della potenza di calcolo disponibile (G80 essendo puramente scalare non soffre di questo problema, anche se ne ha qualche altro). Viceversa, con una serie di istruzioni indipendenti che lavorano su più componenti, si possono utilizzare tutte le unità di calcolo. Quindi come vedi solo variando il tipo di operazioni si può ottenere 1 o si può otttenere 5 dallo stesso hardware. Le ottimizzazioni in questo caso sono volte ad organizzare le istruzioni il più possibile in "pacchetti" da 5 da inviare alle unità di esecuzione: non è detto che questo sia sempre possibile. Questa è una delle cause principali dei problemi di R600: occorre che qualcuno (driver o applicazione) aiuti a schedulare correttamente le istruzioni. E stiamo parlando solo delle ALU. Poi c'è anche il ring bus, che è anch'esso programmabile. Ma programmabile significa anche che se "settato male" può diminuire le performances, anzichè aumentarle.
Come vedi c'è abbastanza carne al fuoco per avere ampi margini di miglioramento mediante una corretta schedulazione delle istruzioni, tuttavia questa corretta schedulazione deve essere programmata appositamente.
In una release dei drivers di R520 ATI milgiorò di colpo le performances in AA di Doom 3 del 15%. E nelle stesse schede Nvidia serie 8, se confronti le performance di lancio con quelle attuali, verifcherai in un gran numero di titoli incrementi percentuali a 2 cifre.
MonsterMash
16-05-2007, 01:44
io ho avuto la fortuna d vederlo dal vivo.è vero,tutta questa fluidità non ce l'ha...la risoluzione era appunto 1280x1024 ma ragazzi io sono rimasto veramente :eek: per la qualità delle immagini,luci,ombre,textures...io ho scaricato anke il video in alta definizione di questo test ma vederlo eseguito dalla scheda è tutta un'altra cosa.credo che c divertiremo davvero con le nuove directx e siamo solo all'inizio.infatti Ati dice a legitreviews riguardo a questo bench preliminare(tratto da un articolo di 2 giorni fa):
"The game’s developer, Techland has found that this was caused by an application issue when MSAA is enabled. The benchmark can be run on both ATI Radeon and NVIDIA hardware with MSAA disabled. This application issue will be fixed in an upcoming patch available in the next couple of weeks. The full DirectX 10 version of Call of Juarez will be available to the public sometime in June with full functionality for all DirectX 10 capable graphics cards."
Mi potresti linkare dove scaricare il video hd di cui parli?
Grazie, ciao
Evangelion01
16-05-2007, 01:56
[..] Come vedi c'è abbastanza carne al fuoco per avere ampi margini di miglioramento mediante una corretta schedulazione delle istruzioni, tuttavia questa corretta schedulazione deve essere programmata appositamente.
In una release dei drivers di R520 ATI milgiorò di colpo le performances in AA di Doom 3 del 15%. E nelle stesse schede Nvidia serie 8, se confronti le performance di lancio con quelle attuali, verifcherai in un gran numero di titoli incrementi percentuali a 2 cifre.
Sarà, ma sta di fatto che da possessore di 8800 ho passato diverse release dei drivers , e ci sono stati si miglioramenti, ma non così sostanziali. Sinceramente continuo a essere scettico : non penso che la 2900, per quanto castrata da drivers mal programmati , possa superare una 8800gtx. Poi chissà, mai dire "mai"... sarà il tempo a dirlo. :)
Mi potresti linkare dove scaricare il video hd di cui parli?
Grazie, ciao
http://194.71.11.70/pub/games/PC/guru3d/generic/r6/COJ_DX10_benchmark.wmv pardòn,non è hd ma ho controllato è 640x480 ma è bello cmq,non ne ho trovati migliori di questo ancora.
Uagnu', io ieri stavo per comprare una x1950pro 512 MB o una geforce 8800 gts 320 MB... alla fine poco prima di clickare sul tasto compra ho deciso di non prendere nessuna delle due perché i prezzi sono ancora abbastanza alti per cui se devo spendere 300 € piuttosto che 360 € aspetto di vedere come va veramente questa scheda dell'ATI prima di buttare veramente i soldi nel cesso. ;)
Sto buttando l'occhio di tanto in tanto su guru3d.com e tweaksrus.com.
Guardate qua: http://forums.guru3d.com/showthread.php?t=224866&page=3
halduemilauno
16-05-2007, 06:13
http://www.legitreviews.com/article/505/1/
http://www.legitreviews.com/images/reviews/505/lost_planet_12x7.jpg
http://www.legitreviews.com/images/reviews/505/lost_planet_16x12.jpg
;)
Danielao
16-05-2007, 07:23
Ati puntualizza la situazione con Lost Planet:
http://www.vr-zone.com/index.php?i=4983
Ati puntualizza la situazione con Lost Planet:
http://www.vr-zone.com/index.php?i=4983
"...“Lost Planet” is an Nvidia-sponsored title" - "...The developer has not made us aware of this new benchmark" - "...please note that whatever performance you see will not be reflective of what gamers will experience in the final build of the game."
beh di questo ne ero sicuro però c'è da dire: quanti titoli sono Ati-sponsored e quanti Nvidia-sponsored?? io ho quasi tutti i giochi recenti,non ho mai visto un logo Ati nei giochi bensì l'alternativa è facile :),Nvidia è scelta anche dagli sviluppatori,anche questo però non aiuta il mercato.il problema deriva proprio dai connubi intel-nvidia(di cui si parla,non è ufficiale ma c'è)e amd-ati.l'acquisizione da parte di amd ha semplicemente peggiorato le cose,ati fino a qualche tempo fa aveva un mezzo accordo con intel,imho probabilmente avrebbero fatto meglio a lasciare le cose come stavano,i developers si alleano con i + forti,sarebbe paradossale il contrario.Quindi probabilmente quando un gioco viene released Ati dovrà spesso intervenire in un secondo momento ad ottimizzare e si dovranno sempre aspettare nuove releases dei drivers per avere incrementi di prestazioni.Non credo che Ati possa mettere mano ad un titolo Nvidia-sponsored in tempo utile se non con canali.....mettiamo una talpa nei laboratori Nvidia :D E ciò non si discosta tanto da quanto è accaduto finora.
Consiglio veloce veloce raga, stà scheda la ho vista a 380€ su uno shop online, è la sapphire con dissi reference, conviene prenderla?, devo convincere un amico, lui aveva un affare per una 8800gts 640 mb a 399€, ma visto questa scheda tecnologicamente + avanzata, cosa gli conviene fare?
PS ha un monitor 19" max 1280x1024, quindi a risoluzione spintissime nn ci va.
gts
halduemilauno
16-05-2007, 08:12
gts
vista la ris. gts320. cosi risparmia un 150€.
;)
Uagnu', io ieri stavo per comprare una x1950pro 512 MB o una geforce 8800 gts 320 MB... alla fine poco prima di clickare sul tasto compra ho deciso di non prendere nessuna delle due
Deviad ciao,mi spieghi l'indecisione tra le 2? non il fatto che non le hai comprate...proprio il motivo per cui dovevi scegliere tra queste,non capisco il nesso tra una x1950pro ed una gts
paolov66
16-05-2007, 08:18
per me molti sono stati ingiusti a giudicare male la hd2900xt.ha una marea di features multimediali,costa 350 euro e con drivers beta sta alla pari della 8800gtx scheda da 500euro con drivers 158.18.poi coi 158.42 cambia tutto.delle 2 l'una o nvidia per mesi ha nascosto le reali pontenzialità delle sue vga e solo ora tira fuori drivers''veri'' oppure anche hd2900xt può migliorare la prestazioni di tanto come nvidia con nuovi drivers
col Cyber
16-05-2007, 08:22
Io penso proprio comprerò questa nuova bestiola della ATI :)
Principalmente per 2 motivi:
A) Non mi interessa giocare a 5000 x 8000 di risoluzione.... e gia a 1280x1024 con tutto al massimo per me è più che perfetto.
B) La furbata allucinante di integrare l'audio (facendo anche da scheda audio esterna) nell'uscita HD.. mi permetterà di passare dalla stanza del PC al salotto dovendo bucare 2 muri per far passare un unico cavo di dimensioni pari all'USB e un USB.... invece che dover aprire un cratere per dover far passare il cavo VGA, il cavo audio e l'USB.....
Io penso proprio comprerò questa nuova bestiola della ATI :)
Principalmente per 2 motivi:
A) Non mi interessa giocare a 5000 x 8000 di risoluzione.... e gia a 1280x1024 con tutto al massimo per me è più che perfetto.
B) La furbata allucinante di integrare l'audio (facendo anche da scheda audio esterna) nell'uscita HD.. mi permetterà di passare dalla stanza del PC al salotto dovendo bucare 2 muri per far passare un unico cavo di dimensioni pari all'USB e un USB.... invece che dover aprire un cratere per dover far passare il cavo VGA, il cavo audio e l'USB.....
basta accontentarsi
OT ON:
Il fatto che tu ad altre 50 / 100 persone acquistiate "pezzi per il pc" spinti dalla passione non vuole dire che siano cosa buona e giusta ne tantomeno
che TUTTI facciano così.
io personalmente ho una x1800XL@XT acquistata nel 2005 ed un opteron acquistato lo stesso anno a novembre e li ritengo un grande investimento
perchè a distanza di 2 anni ho un hw che magari non sarà il TOP del TOP
ma che mi permette di giocare e lavorare a tutto senza limitazioni di sorta.
Pertanto penso che sia corretto parlare di investimento, magari inteso
come acquisato oculato ma pursempre un grande acquisto.
senza polemica ovviamente:
DeMauro:"destinazione di risorse economiche alla produzione di altre ricchezze"
Wikipedia:"Per investimento si intende l'incremento dei beni capitali e l'acquisizione e la creazione di risorse da usare nel processo produttivo."
con l'hardware (automobili...) non si crea valore ma disvalore, per cui non si tratta di investimento. il fatto che tu dica che non è detto che tutti facciano me (ed altri su questo forum) non fa altro che dare ragione alla mia tesi, per la quale ciascuno agisce in relazione alle proprie necessità/desideri. la metti su un piano relativistico; bene, non è detto che tutti facciano come te. sul fatto cosa giusta ingiusta... diciamo che queso non è il luogo più adatto per fare disquisizioni di etica.
io personalmente l'ho presa perchè sono curioso, chiamala deformazione professionale, visto che mi occupo di ricerca.
P.s. l'opty è un gran procio
OT OFF
tornando in topic, oggi dovrebbe essere il giorno dei primi test fatti in casa dgli utenti, giusto?
loperloper
16-05-2007, 08:26
io continuo a pensare che il problema più grosso di questa vga sia il consumo...se avesse consumato tipo 60-70 watt in meno l avrei pure presa ma per come consuma ora mi avrebbe costretto a cambiare anche ali e quindi a spendere altri soldi....infatti mi sono deciso su una 8800gts 640 che ,oltre a farmi risparmiare 90-100€ di suo, mi evita l'acquisto di un nuovo ali
col Cyber
16-05-2007, 08:30
io continuo a pensare che il problema più grosso di questa vga sia il consumo...se avesse consumato tipo 60-70 watt in meno l avrei pure presa ma per come consuma ora mi avrebbe costretto a cambiare anche ali e quindi a spendere altri soldi....infatti mi sono deciso su una 8800gts 640 che ,oltre a farmi risparmiare 90-100€ di suo, mi evita l'acquisto di un nuovo ali
a questo non ci avevo pensato....
scusate, quanto dovrebbe "pompare" il mio ali per poterla reggere?
loperloper
16-05-2007, 08:40
a questo non ci avevo pensato....
scusate, quanto dovrebbe "pompare" il mio ali per poterla reggere?
diciamo che dovrebbe essere di buona qualità perchè magari a reggerla bastano anche i 550w che ha il mio ma probabilmente non l'amperaggio(del resto costa 30€....)
per me molti sono stati ingiusti a giudicare male la hd2900xt.ha una marea di features multimediali,costa 350 euro e con drivers beta sta alla pari della 8800gtx scheda da 500euro con drivers 158.18.poi coi 158.42 cambia tutto.delle 2 l'una o nvidia per mesi ha nascosto le reali pontenzialità delle sue vga e solo ora tira fuori drivers''veri'' oppure anche hd2900xt può migliorare la prestazioni di tanto come nvidia con nuovi drivers
la 2900xt costa mediamente dai 390 euro, prezzo leggermente più altro rispetto alla gts 640mb basta guardare su trovaprezzi.it...
la scheda è nata per rivaleggire con la gts quindi segmento medio-alto,scordiamocelo che con l'aggiornameto possa migliorare al tal punto da eguagliare la in tutti i test la gtx ..
cmq personalmente ho ritenuto fare questo acquisto perchè la scheda a molti aspetti interessanti e innovativi che mi stuzzicano e anche se come performace pure in termini di fps non è il massimo cmq mi darà la possibilità di giocare a qualunque titolo con una certa fluidità..
;)
a questo non ci avevo pensato....
scusate, quanto dovrebbe "pompare" il mio ali per poterla reggere?
è semplice,fai il calcolo,mettigli una gtx e aggiungi i W di differenza in full load (secondo la rece di hwupgrade sono 36W).non è vero che ci vuole un ali chissà quanto potente a meno che tu non debba fare crossfire.e la scheda se non devi overcloccare funziona benissimo con i 6 poli.
http://www.extreme.outervision.com/psucalculatorlite.jsp
purtroppo è il full load che conta ovviamente,il consumo in idle è veramente trascurabile perchè non credo che debba dirvi che le schede in 2d si possono downcloccare e anche di molto semplicemente per avere stabilità operativa.
leoneazzurro
16-05-2007, 08:44
Sarà, ma sta di fatto che da possessore di 8800 ho passato diverse release dei drivers , e ci sono stati si miglioramenti, ma non così sostanziali. Sinceramente continuo a essere scettico : non penso che la 2900, per quanto castrata da drivers mal programmati , possa superare una 8800gtx. Poi chissà, mai dire "mai"... sarà il tempo a dirlo. :)
Sarà anche perchè ci sei passato "mano mano" e ogni release non è che tocca tutti i giochi. Ma basta vedere i test della 8800 GTS al lancio e ora. In alcuni test al lancio la GTS era al livello della X1950 XTX. Oggi sono schede in cui la differenza è netta nel 99% dei test.
Comunque non è questione di "drivers programmati male" in sè, il discorso è che data l'architettura di R600, se ottimizzare per G80 ha difficoltà 1, ottimizzare per R600 ha difficoltà 10 o più, per le cause spiegate. Si può obiettare che ATI poteva scegliere un'architettura meno incasinata, e lo penso anche io. E certo, non credo che ottimizzando si possa andare sopra la GTX, si potrebbe tuttavia andare in modo consistente sopra la GTS.
Si vede che pensavano che in futuro si puntasse molto più sulla geometria, dato che in quell'ambito R600 sembra imbattibile e ha anche un'unità di tessellazione. Ma allo stato attuale paga poco.
All'inizio pensavo che in 6 mesi si sarebebro viste le potenzialità di questa scheda. Adesso ritengo che non basterà un anno, e in quel tempo tutte le schede odierne saranno superate.
come consumi reali la 2900xt assorbbe in full load 161.1 watt contro i 131.5 della gtx e i 105.7 della gts,quindi molto meno di quello che dichiara ati...
http://www.xbitlabs.com/articles/video/display/r600-architecture_14.html
dalla rece di xbit labs:
Conclusion
We still to have to find out performance of the Radeon HD 2900 XTX in real-world games and cannot make any final conclusions now. However, we can already state certain things about the newcomer, which was expected to emerge back in the Q4 2006, but was delayed by nearly half a year.
ATI Radeon HD 2900 XT is here, it works; it has unified shader architecture; it has over 700 million transistors, an absolute record to date; it features 512-bit memory bus, for the first time with the industry; it supports many interesting features and technologies; but it also has drivers that need to be improved to utilize the new promising features and its has only 16 texture units, which limits performance even in synthetic 3D benchmarks.
The main advantage of ATI Radeon HD 2000 is exceptional computing power of all chips as well as modular design, something, which may allow the company to rapidly create new chips based on common building blocks – 5D scalar shader processors, texture processors and render back end processors. But if it takes the company another year before it boosts performance of its performance mainstream, mainstream and entry-level chips, the scenario that happened with transition from the Radeon X1600 XT to Radeon X1950 Pro, AMD risks to lose market share to Nvidia, who is consistently sticking to its policy of renewing the product lines every two quarters.
The new full-scene antialiasing methods look promising, but not all of them are ideal to say at least, as in certain cases we see substantial blur over our screenshots, which is unacceptable in the year 2007, when games tend to feature textures with a lot of small details as well as micro-geometry. We hope that ATI’s adaptive edge detect filter antialiasing will bring the new image quality heights into consumer 3D graphics.
Another potentially good thing about the Radeon HD 2000 is built-in hardware tesselator, similar to tesselator inside Xbox 360 GPU, which may catalyze game developers to take advantage of it and games will look more detailed on ATI Radeon HD 2000 graphics cards.
Multimedia features of the Radeon HD 2000 family also look promising, but, unfortunately, AMD/ATI unified video decoder should yet to be fully implemented into drivers. Even though the chip now officially supports decoding of VC-1 as well as features audio controller for audio data transmission over HDMI, the lack of certain software features make such capabilities useless for now.
Finally, despite of the fact that power consumption of $399 graphics card is not a really important factor to consider and around 160W is not really a lot for modern power supply units, cooling system that produces rather loud nice is something that should definitely be corrected on commercial Radeon HD 2900 XT graphics cards.
Sakurambo
16-05-2007, 08:50
Detto francamente mi sembra che questa scheda sia il naturale risultato della situzione attuale; esaminiamo alcuni eventi per sommi capi:
1- escono CPU a 64, Microsoft prova dare un sistema a questo hardware con XP64, fallisce poichè il sistema non è ottimizzato
2- esce Vista, della versione a 64 si sa poco nulla in compenso si sa che implementa le DX10, presentate come aumento di qualità per videogiocatori
3- le DX10 diventano l'unica motivazione per fare passare a Vista gli utenti gaming, dal suo canto Vista risulta più esoso di risorse ed a parità di hardware perde rispetto XP, ci sono inoltre forti incompatibilità o carenze proprio nel supporto giochi
4- delle DX nello specifico sappiamo tutto tranne quanto rendano effettivamente rispetto le DX9, non esistono bentch o quant'altro per quantificare il tutto.
Premesso ciò cosa succede nel modo Hw e SW?
5- microsoft continua a lodare Vista, lo implementa in qualsiasi cosa pur di venderlo e dice: "non ha avuto il boom sperato ma appena usciranno gli applicativi DX e l'hw necessario vedrete..."
6- case hw: "Vista non è sufficientemente diffuso per fare prodotti specificatamente per DX10, poi non ci sono i sw per gestirle, per ora produciamo mezze cose"
7- case sw: "Vista non è sufficientemente diffuso per fare prodotti esclusivamente per DX10, poi manca l'hardware per farlo girare bene..." da notare come tanti giochi che si erano proposti come onlyDX10 ora siano DX9/10 e si pemurano di specificare che la qualità grafica sarà la medesima (quindi ho hanno lavorato male sulel DX10 o la differenza DX10 / 9 è irrisoria)
Utente che fa?
8- l'utente aspetta che siano diffusi i sw per capire se gli conviene passare e poi comprerà l'hw di sicuro non si butta alla cieca se non costretto...
Tutto questo descrive un cane che si mangia la coda o peggio una partita apoker dove tutti non vogliono vedere e tirano al rialzo perchè tutti hanno solo una coppia di 2 in mano:muro:
Come si sinserisce in ciò la 2900?
8- esce dopo lunghi ritardi dovuti alla acquisizione (resto dell'idea forzata) di AMD, probabile che tale prodotto uscito a dicembre o gennaio averebbe avuto altri effetti. E' frutto di questa situazione: tecnologicamente avanzata ma non porta miglioramenti oggettivi anche perchè non sappiamo che miglioramenti dovrebbe portare non potendoli quantificare a priori.
9- costo e dichiarazione di AMD fanno dedurre esplicitamente che la scheda è concorrente non del top di gamma quindi driver magici non esistono, al massimo saranno migliori ma se la stessa casa annuncia: "ce la giochiamo lì" mi sa che non dobbiamo attenderci altro da questa scheda.
10- anche vedendola nell'ottica del punto 9 la scheda è sconveniente, consuma di più, prevede l'uso di alimentatori più moderni, è più rumorosa, scalda di più.
Conclusioni personali:
Perchè non spingono su sistemi, software e hardware a 64bit invece che su delle librerie?
Perchè non rendono compatibili tali librerire con XP?
Attendiamo la nuova revision di AMD sperando che risolvano i loro problemi.
@ zorco: scusa, non avevo visto che l'avevi già postata
@ zorco: scusa, non avevo visto che l'avevi già postata
prego ma ti pare..:D
col Cyber
16-05-2007, 08:54
Bhè.. non ho una GTX con cui provare :)
Cmq oggi quando vado a casa guardo da quanto è il l'alimentatore.
Per il resto, mi è venuto un dubbio....
OVVIAMENTE il mio PC avrà lo slot PCIExpress veero?
l'ho preso un mese fa
Atlon x2 3800
Bhè.. non ho una GTX con cui provare :)
Cmq oggi quando vado a casa guardo da quanto è il l'alimentatore.
Per il resto, mi è venuto un dubbio....
OVVIAMENTE il mio PC avrà lo slot PCIExpress veero?
l'ho preso un mese fa
Atlon x2 3800
si se l'hai preso un mese fà avrà quasi sicuramente lo slot pci-e..
:mbe: le prestazioni di lost planet hanno qualcosa che non va , con la mia x1950pro non dico di aver quei risultati ma siamo li....non hanno senso...
Scusate la domanda stupida.
Io ho cercato ripetutamente sulla rete, su trovaprezzi, su kelkoo, ma
una hd2900 a 367 euro non l'ho trovata.
Qualcuno potrebbe gentilmente mandarmi un pm con un link?
Grazie
Paul
halduemilauno
16-05-2007, 09:01
Bhè.. non ho una GTX con cui provare :)
Cmq oggi quando vado a casa guardo da quanto è il l'alimentatore.
Per il resto, mi è venuto un dubbio....
OVVIAMENTE il mio PC avrà lo slot PCIExpress veero?
l'ho preso un mese fa
Atlon x2 3800
cpu largamente insufficiente per qualunque top o quasi top.
;)
halduemilauno
16-05-2007, 09:03
Scusate la domanda stupida.
Io ho cercato ripetutamente sulla rete, su trovaprezzi, su kelkoo, ma
una hd2900 a 367 euro non l'ho trovata.
Qualcuno potrebbe gentilmente mandarmi un pm con un link?
Grazie
Paul
http://www.trovaprezzi.it/categoria.aspx?libera=2900xt&id=28&prezzoMin=&prezzoMax=&sbox=sb
Bhè.. non ho una GTX con cui provare :)
Cmq oggi quando vado a casa guardo da quanto è il l'alimentatore.
Per il resto, mi è venuto un dubbio....
OVVIAMENTE il mio PC avrà lo slot PCIExpress veero?
l'ho preso un mese fa
Atlon x2 3800
no non c'entra avere la gtx :D dovresti fare il calcolo su quel link inserendo la gtx come scheda grafica :) guarda il bus pci-express è in realtà legato al chipset della motherboard + ke alla cpu,effettivamente con un dual core dovresti averlo ma è meglio che guardi sul manuale della mobo.credo cmq che è molto difficile che tu abbia agp,soluzione recentemente adottata solo con mobo particolari.
cpu largamente insufficiente per qualunque top o quasi top.
;)
concordo,anche la mia ma mi sà...
http://www.trovaprezzi.it/categoria.aspx?libera=2900xt&id=28&prezzoMin=&prezzoMax=&sbox=sb
Grazie, ma è lo stesso risultato che ho ottenuto io
di R600 a 360 euro non ne ho viste.
Paul
halduemilauno
16-05-2007, 09:08
concordo,anche la mia ma mi sà...
tu hai un 4600 quindi largamente no forse strettamente insufficiente.
;)
Grazie, ma è lo stesso risultato che ho ottenuto io
di R600 a 360 euro non ne ho viste.
Paul
www.frael.it
www.chl.it
www.tecnocomputer.it
www.bow.it
www.eprice.it
www.italsystem.com
www.deepoverclock.com
www.nexths.it
www.fdshop.com
www.tdshop.it
www.computerdiscount.it
:)
tu hai un 4600 quindi largamente no forse strettamente insufficiente.
;)
largamente insufficente non direi però certo una cpu più spinta non guasterebbe,cmq per ora non posso cambiarlo mi devo accontentare...
Tidus.hw
16-05-2007, 09:12
cpu largamente insufficiente per qualunque top o quasi top.
;)
la mia cpu in firma è ancora largamente insufficiente? 0.o
Beh vedete, forse io sono l'esempio dell'utente che sarà costretto a passare Nvidia, e forse nemmeno alla 8800gtx..
Ho un fantastico alimentatore Enermax, che tutt'ora costa oltre i 100euro, il Liberty da 500W reali (ahimè che non ho preso a suo tempo il 620W), con linee due linee da 12V a 22A entrambe (quindi penso un buon valore)..
ecco i dati..
http://img81.imageshack.us/img81/8413/liberty01zc9.jpg
A questo punto, facendo le dovute riflessioni, e contando che io punto a un sistema singola scheda, nè crossfire nè SLI.. mi trovo che la ATi HD2900 XT consuma addirittura più di una 8800gtx e quindi dovrei scartarla priori secondo il calcolo del wattaggio necessario tramite il famoso sito internet, ma a questo punto mi chiedo quanto posso installare una 8800gtx con il mio sistema in sign. Evidentemente ripiegherò verso la 8800gts da 640mb.. che a quanto sembra in alcuni test è più veloce pure della HD 2900XT.. che ne dite? Questo è un dilemma per me, siamo proprio vicini al limite del wattaggio, ma non bisogna dimenticare la qualità dell'alimentatore e la sua potenza nelle linee 12V... da considerare pure che ha anche due linee PCI-E che servirebbero alle moderne schede (entrambe da 6pin però)..
che ne dite ragazzi??
:help:
Mister Tarpone
16-05-2007, 09:14
concordo,anche la mia ma mi sà...
ma direi che andrà benone... al max OC il procio ;)
ho visto molta gente con cpu X2 a 2600mhz + 8800 gtx o gts abbinata esser soddisfatti per le prestazioni ;)
non credo che per la xt ci voglia un quadcore dai....
Tidus.hw
16-05-2007, 09:16
Beh vedete, forse io sono l'esempio dell'utente che sarà costretto a passare Nvidia, e forse nemmeno alla 8800gtx..
Ho un fantastico alimentatore Enermax, che tutt'ora costa oltre i 100euro, il Liberty da 500W reali (ahimè che non ho preso a suo tempo il 620W), con linee due linee da 12V a 22A entrambe (quindi penso un buon valore)..
ecco i dati..
http://img81.imageshack.us/img81/8413/liberty01zc9.jpg
A questo punto, facendo le dovute riflessioni, e contando che io punto a un sistema singola scheda, nè crossfire nè SLI.. mi trovo che la ATi HD2900 XT consuma addirittura più di una 8800gtx e quindi dovrei scartarla priori secondo il calcolo del wattaggio necessario tramite il famoso sito internet, ma a questo punto mi chiedo quanto posso installare una 8800gtx con il mio sistema in sign. Evidentemente ripiegherò verso la 8800gts da 640mb.. che a quanto sembra in alcuni test è più veloce pure della HD 2900XT.. che ne dite? Questo è un dilemma per me, siamo proprio vicini al limite del wattaggio, ma non bisogna dimenticare la qualità dell'alimentatore e la sua potenza nelle linee 12V... da considerare pure che ha anche due linee PCI-E che servirebbero alle moderne schede (entrambe da 6pin però)..
che ne dite ragazzi??
:help:
secondo me basta l'alimentatore per r600, però scortadi di occare la vga..
ah, io prenderei la hd2900 comunque...
Mister Tarpone
16-05-2007, 09:17
la mia cpu in firma è ancora largamente insufficiente? 0.o
no ;) direi che occata a quel modo va proprio bene ;)
loperloper
16-05-2007, 09:17
Beh vedete, forse io sono l'esempio dell'utente che sarà costretto a passare Nvidia, e forse nemmeno alla 8800gtx..
Ho un fantastico alimentatore Enermax, che tutt'ora costa oltre i 100euro, il Liberty da 500W reali (ahimè che non ho preso a suo tempo il 620W), con linee due linee da 12V a 22A entrambe (quindi penso un buon valore)..
ecco i dati..
http://img81.imageshack.us/img81/8413/liberty01zc9.jpg
A questo punto, facendo le dovute riflessioni, e contando che io punto a un sistema singola scheda, nè crossfire nè SLI.. mi trovo che la ATi HD2900 XT consuma addirittura più di una 8800gtx e quindi dovrei scartarla priori secondo il calcolo del wattaggio necessario tramite il famoso sito internet, ma a questo punto mi chiedo quanto posso installare una 8800gtx con il mio sistema in sign. Evidentemente ripiegherò verso la 8800gts da 640mb.. che a quanto sembra in alcuni test è più veloce pure della HD 2900XT.. che ne dite? Questo è un dilemma per me, siamo proprio vicini al limite del wattaggio, ma non bisogna dimenticare la qualità dell'alimentatore e la sua potenza nelle linee 12V... da considerare pure che ha anche due linee PCI-E che servirebbero alle moderne schede (entrambe da 6pin però)..
che ne dite ragazzi??
:help:
io dico che con questo ali stai apposto con una 8800 gtx overcloccata pure (2 linee da 22A l´una non sono proprio poche) ;)
ma direi che andrà benone... al max OC il procio ;)
ho visto molta gente con cpu X2 a 2600mhz + 8800 gtx o gts abbinata esser soddisfatti per le prestazioni ;)
non credo che per la xt ci voglia un quadcore dai....
lo penso anche io,poi non è che ogni sette otto mesi posso cambiare componeti ingiustificatamente, prima vedo come và e poi si vede...
Beh vedete, forse io sono l'esempio dell'utente che sarà costretto a passare Nvidia, e forse nemmeno alla 8800gtx..
Ho un fantastico alimentatore Enermax, che tutt'ora costa oltre i 100euro, il Liberty da 500W reali (ahimè che non ho preso a suo tempo il 620W), con linee due linee da 12V a 22A entrambe (quindi penso un buon valore)..
ecco i dati..
http://img81.imageshack.us/img81/8413/liberty01zc9.jpg
A questo punto, facendo le dovute riflessioni, e contando che io punto a un sistema singola scheda, nè crossfire nè SLI.. mi trovo che la ATi HD2900 XT consuma addirittura più di una 8800gtx e quindi dovrei scartarla priori secondo il calcolo del wattaggio necessario tramite il famoso sito internet, ma a questo punto mi chiedo quanto posso installare una 8800gtx con il mio sistema in sign. Evidentemente ripiegherò verso la 8800gts da 640mb.. che a quanto sembra in alcuni test è più veloce pure della HD 2900XT.. che ne dite? Questo è un dilemma per me, siamo proprio vicini al limite del wattaggio, ma non bisogna dimenticare la qualità dell'alimentatore e la sua potenza nelle linee 12V... da considerare pure che ha anche due linee PCI-E che servirebbero alle moderne schede (entrambe da 6pin però)..
che ne dite ragazzi??
:help:
va più che bene quello è un'ottimo alimentatore..
Dite veramente? Sarebbe ovviamente da provare, e penso che io appunto diventerò la cavia.. perchè avere l'ammiraglia Nvidia non mi dispiarebbe proprio.. l'acquisto non è proprio imminente ma cmq era solamente per rendermi conto.. anche senza overclock mi andrebbe da dio poter scegliere la 8800gtx.. ma poi si sa com'è.. da patito quale sono l'overclock lo proverei sicuramente.. sono in attesa che magari prima di me qualcuno faccia questo passo, ovvero tiri al massimo il proprio alimentatore :)
io dico che con questo ali stai apposto con una 8800 gtx overcloccata pure (2 linee da 22A l´una non sono proprio poche) ;)
aspetta però loperloper...bisogna vedere come è fatto il suo sistema perchè se la sola gpu gli succhia 400W(hwupgrade dice 348 full load@default) il picco sempre quello rimane 500 non è che i rails fanno i miracoli,che poi l'alimentatore sia di qualità è fuor di dubbio.
secondo me vai tranquillo con quell'ali, hai 32 ampere complessivi sui 12v. La richiesta di psu con più watt è riferita a quelle non di marca, che a parità di w erogano (in modo discontinuo) parecchi ampere in meno. io per esempio ho un ali che per 550w fa 26 a...
aspetta però loperloper...bisogna vedere come è fatto il suo sistema perchè se la sola gpu gli succhia 400W il picco sempre quello rimane 500 non è che i rails fanno i miracoli,che poi l'alimentatore sia di qualità è fuor di dubbio.
guarda che non esistono vga che consumano 400w la più esosa è la hd 2900xt e stiamo sui 161w,con quell'alimentatore che a lui cè gente che ci alimenta una marea di cose compresa la 8800gtx...
guarda che non esistono vga che consumano 400w la più esosa è la hd 2900xt e stiamo sui 161w,con quell'alimentatore che a lui cè gente che ci alimenta una marea di cose compresa la 8800gtx...
allora chiedete ad hwupgrade cosa significa quel test,quindi orthos e Shadermark propongono condizioni che non si possono ripresentare in full load? e allora a che servono? perchè il full load non lo provano anche con un videogame? boh,in ogni caso la 2900 ci arriva a 384 senza oc,quindi siamo lì http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_20.html e riportano ke la gtx in idle consuma 205W...quindi hanno sbagliato anche questo test?? capisco il full load ma l'idle? :D boh mistero,davvero è interessante.per la ati riportano 190W già in idle. :confused:
allora chiedete ad hwupgrade cosa significa quel test,quindi orthos e Shadermark propongono condizioni che non si possono ripresentare in full load? e allora a che servono? perchè il full load non lo provano anche con un videogame? boh,in ogni caso la 2900 ci arriva a 384 senza oc,quindi siamo lì http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_20.html
i 384 w sono intesi come valore in watt assorbito dell'intero sistema di prova,l'abbiamo detto centinaia di volte in questo forum..
Superpelo
16-05-2007, 09:38
tu hai un 4600 quindi largamente no forse strettamente insufficiente.
;)
bella battuta...
Brightblade
16-05-2007, 09:39
Dite veramente? Sarebbe ovviamente da provare, e penso che io appunto diventerò la cavia.. perchè avere l'ammiraglia Nvidia non mi dispiarebbe proprio.. l'acquisto non è proprio imminente ma cmq era solamente per rendermi conto.. anche senza overclock mi andrebbe da dio poter scegliere la 8800gtx.. ma poi si sa com'è.. da patito quale sono l'overclock lo proverei sicuramente.. sono in attesa che magari prima di me qualcuno faccia questo passo, ovvero tiri al massimo il proprio alimentatore :)
Se ti preoccupi tu che hai 2 linee da 22A (io ne ho una sola), allora io che conto di farci stare ancora almeno un upgrade di scheda video di fascia medio alta senza cambiare ali, prima di pensionare il pc in sign, sono proprio un illuso :p
loperloper
16-05-2007, 09:41
aspetta però loperloper...bisogna vedere come è fatto il suo sistema perchè se la sola gpu gli succhia 400W(hwupgrade dice 348 full load@default) il picco sempre quello rimane 500 non è che i rails fanno i miracoli,che poi l'alimentatore sia di qualità è fuor di dubbio.
no no sta attento i consumi considerati da hw sono intesi per l'intero sistema, non solo per la vga....comunque è certo che bisogna considerare anche il suo sistema ma dubito che superi i 500w, l'unica potrebbe essere che ha un pent d 805 in oc a 4,3ghz ;)
col Cyber
16-05-2007, 09:44
no non c'entra avere la gtx :D dovresti fare il calcolo su quel link inserendo la gtx come scheda grafica :) guarda il bus pci-express è in realtà legato al chipset della motherboard + ke alla cpu,effettivamente con un dual core dovresti averlo ma è meglio che guardi sul manuale della mobo.credo cmq che è molto difficile che tu abbia agp,soluzione recentemente adottata solo con mobo particolari.
Ah Ok :P ora ho capito
grazie
cpu largamente insufficiente per qualunque top o quasi top.
;)
Quindi?
In termini pratici che risultati potrei avere?
i 384 w sono intesi come valore in watt assorbito dell'intero sistema di prova,l'abbiamo detto centinaia di volte in questo forum..
e ho capito ma io un intero sistema ci devo tenere con l'ali :D o no? l'intero sistema bisogna vedere da cosa è composto,iniziamo a mettere 4 hd 4-8 usb 4 firewire raffreddamenti particolari,ventole...insomma...lo sappiamo. quanto è poi il divario? trascurabile? è vero dipende dalle proprie esigenze,io dicevo per stare sul sicuro,tutto qua.
si riferisce al consumo dell'intero sistema
...mi è stato chiesto d'aggiungere un negozio dove la HD 2900 XT costa 369€
www.frael.it
www.chl.it
www.tecnocomputer.it
www.bow.it
www.eprice.it
www.italsystem.com
www.deepoverclock.com
www.nexths.it
www.fdshop.com
www.tdshop.it
www.computerdiscount.it
www.spider146.com
e ho capito ma io un intero sistema ci devo tenere con l'ali :D o no? l'intero sistema bisogna vedere da cosa è composto,iniziamo a mettere 4 hd 4-8 usb 4 firewire raffreddamenti particolari,ventole...insomma...lo sappiamo. quanto è poi il divario? trascurabile? è vero dipende dalle proprie esigenze,io dicevo per stare sul sicuro,tutto qua.
come sistema prova hwupgrade ha usato questi componenti:
http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_11.html
se ha questa config aggiungi un'altro paio di hd qualche ventola e minchiate varie non è che il consumo aumenta in maniera esagerata...
alimentatori di elvata potenza cioè da oltre 600w possono essere messi in crisi solo con config ultra performance ad esempio con sli o cross di schede top e un bel pò di componeti installati..
spero solo che questi consumi si abbassino prima o poi ...
un po' come i pentium 4 Dual Core e poi con i c2d :(
come sistema prova hwupgrade ha usato questi componenti:
http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_11.html
se ha questa config aggiungi un'altro paio di hd qualche ventola e minchiate varie non è che il consumo aumenta in maniera esagerata...
alimentatori di elvata potenza cioè da oltre 600w possono essere messi in crisi solo con config ultra performance ad esempio con sli o cross di schede top e un bel pò di componeti installati..
hai ragione,ho sbagliato io che ho iniziato riferendomi alla sola gpu,invece era il consumo totale.sorry
P.s: ma allora non è esagerato dire che consuma troppo??
Alexkidd85
16-05-2007, 10:11
...mi è stato chiesto d'aggiungere un negozio dove la HD 2900 XT costa 369€
www.frael.it
www.chl.it
www.tecnocomputer.it
www.bow.it
www.eprice.it
www.italsystem.com
www.deepoverclock.com
www.nexths.it
www.fdshop.com
www.tdshop.it
www.computerdiscount.it
www.spider146.com
Ma se per esempio ti chiedessi,sono ripetitivo,di aggiungere un solo negozio dove acquistare un connettore 6-->8 pin? Ne troveresti!? :D
Alexkidd85
16-05-2007, 10:24
Scusami, ma dove l'hai presa la demo di LP, visto che ancora non è uscita? :mbe:
E' uscita oggi...per la cronaca a me neanche parte mi da errore...uffa....riproviamo :cry:
sì ok, l'ho trovata :)
In dwnld, anche se ovviamente DX9
webbuffa
16-05-2007, 10:27
sì ok, l'ho trovata :)
In dwnld, anche se ovviamente DX9
:D In downloading entrambe
Alexkidd85
16-05-2007, 10:34
Prego i mod e mi scuso con loro di spostarla nella sessione giusta che ora come ora non so qual'è
Se LP in DX9 vi da errore nel file mancante d3dx9_33.dll andate QUA (http://www.m3fe.com/760/skip/50) e seguite le istruzioni :D
forse è questo il thread dove parlare di LP?
http://www.hwupgrade.it/forum/showthread.php?t=1473471
C'è un thread appena aperto su LP, proprio in questa sezione ;)
Che poi non sono 30w in + o - . In full, la differenza tra 8800gts e 2900 è più di 80W :doh: . Senza contare che per fare oc con la 2900 serve pure un ali con uscita a 8 poli...
vero effettivamente questi sono altri punti a sfavore,sia il consumo ke il calore ke l'uscita a 8 poli...il problema è che,non prendiamoci in giro,se al momento surclassasse la gtx ne parleremmo? :D io credo di no,sono le prestazioni il vero problema.cmq si io in questo momento preferirei la gts ma forse un pò a scatola chiusa perchè davvero non saprei,anche tra pochi mesi,se vale veramente l'acquisto.
Tratto dalla recensione di HWUpgrade:
La scheda Radeon HD 2900 XT è dotata di due connettori di alimentazione: accanto al tradizionale PCI Express a 6 pin ne troviamo un secondo di nuova concezione, a 8 pin, appositamente implementato per questa nuova generazione di schede video. E' possibile alimentare correttamente la scheda Radeon HD 2900 XT con due tradizionali connettori PCI Express a 6 pin, esattamente come avviene per le soluzioni NVIDIA GeForce 8800 GTX e 8800 Ultra, ma per beneficiare delle funzionalità di overclock dinamico via driver è indispensabile utilizzare un connettore a 8 pin accanto a quello a 6 pin. resta sempre possibile overcloccare la cpu utilizzando utility terze quali powerstrip, ad esempio, utilizzando una tradizionale alimentazione con due connettori a 6 pin.
Quindi per fare OC non è necessario avere l'8 poli, SOLO per l'overclock automatico/dinamico.;)
hai ragione,ho sbagliato io che ho iniziato riferendomi alla sola gpu,invece era il consumo totale.sorry
P.s: ma allora non è esagerato dire che consuma troppo??
no problems..
si effettivamente consuma abbastanza....
MonsterMash
16-05-2007, 11:00
è semplice,fai il calcolo,mettigli una gtx e aggiungi i W di differenza in full load (secondo la rece di hwupgrade sono 36W).non è vero che ci vuole un ali chissà quanto potente a meno che tu non debba fare crossfire.e la scheda se non devi overcloccare funziona benissimo con i 6 poli.
http://www.extreme.outervision.com/psucalculatorlite.jsp
purtroppo è il full load che conta ovviamente,il consumo in idle è veramente trascurabile perchè non credo che debba dirvi che le schede in 2d si possono downcloccare e anche di molto semplicemente per avere stabilità operativa.
Non so se fidarmi cecamente di quel calcolo. Con il sistema che ho in signa mi calcola già un consumo di 555W, mentre con il mio lc power da 550 sono stabilissimo in tutte le condizioni operative.
Alexkidd85
16-05-2007, 11:04
forse è questo il thread dove parlare di LP?
http://www.hwupgrade.it/forum/showthread.php?t=1473471
Ok chiedo venia,poteva essere interessante anche qua visto che lo stavano provando :p
Spostato o riposto li!?
mumble... mumble...
son due giorni che leggo rece a destra e a manca e mi paiono certi solo alcuni fatti:
Ati/AMD sono usciti con una scheda non top di gamma (ricordo i tempi della x800pro), ma a sto giro la concorrenza è già fuori e da tempo, con ottimi risultati a mio avviso.
In DX 9 la 2900 non brilla, anzi, spesso è decisamente imbarazzante nei confronti, in dx10 "pare" (notare le virgolette) che abbia prestazioni lievemente diverse.
E' quindi possibile che in sede di progettazione si stata data maggior peso alle dx10 che alle 9 (il che avrebbe anche un senso logico).
La 2900 nasce con una discreta propensione all'oc... il che mi fa pensare che il modello di punta (speriamo la non phantom edition "xtx") avrà frequenze ben superiori.
Il che unito ad una presunta maggior efficenza in dx10 dovrebbe garantire prestazioni sensibilmente superiori.
Certo, test largamente diffusi e con una comprovata affidabilità ancora nn ce ne sono, quindi buona parte di ste considerazioni devono essere prese con mille pinze.
L'ultimo pensiero è rivolto a Nvidia, il sospetto è che o l'inganno di Ati/AMD è riuscito benissimo, oppure l'uscita della "ultra" è nell'ottica di un mantenimento effettivo della supremazia assoluta (prestazioni di punta del mod massimo), quindi forse, ma dico forse, l'xtx e le dx 10 potrebbero parzialmente cambiare questo panorama.
Perche mi spertico in un "semisalvataggio" della serie 2900? Semplicemente perche temo i monopoli, e so che la concorrenza, quella sana, è a vantaggio di tutti noi... incrociamo le dita và..
Non so se fidarmi cecamente di quel calcolo. Con il sistema che ho in signa mi calcola già un consumo di 555W, mentre con il mio lc power da 550 sono stabilissimo in tutte le condizioni operative.
sei stato attento a non cambiare Single Processor?? cmq ricorda anche,e pure io sono stato leggero prima,che quello è il consumo load 100%,il picco,significa che tutte le periferiche varie di qualsiasi natura dovrebbero richiedere potenza contemporaneamente,correggetemi pure se sbaglio.
System Load: 100% (peak load) - all components are at 100% load, including start up surge current compensation
MonsterMash
16-05-2007, 11:47
sei stato attento a non cambiare Single Processor??
Certo, è tutto corretto. E' che mi calcola, per la sola cpu overclockata 244W! Mi pare onestamente troppo, considerato che a default dovrebbe avere un TDP di 85W.
...il sospetto è che o l'inganno di Ati/AMD è riuscito benissimo...
sul resto sono d'accordo,qui piuttosto parlerei di forzatura e non d'inganno,costretti al ritardo,al lancio del 14 maggio e al prezzo competitivo...
sul resto sono d'accordo,qui piuttosto parlerei di forzatura e non d'inganno,costretti al ritardo,al lancio del 14 maggio e al prezzo competitivo...
intendevo inganno sull'hype, sono riusciti a far credere a Nvidia che la loro soluzione fosse davvero superiore, in quel senso l'intendevo...
intendevo inganno sull'hype, sono riusciti a far credere a Nvidia che la loro soluzione fosse davvero superiore, in quel senso l'intendevo...
ah questo può darsi ma forse si sono ingannati da soli in realtà :D con 6 mesi di perdite serie perchè non erano + al top ormai.
Bene ragazzi grazie, mi avete tranquillizzato per quanto riguarda il consumo del mio sistema e la resa del mio bel Enermax Liberty 500W, ma vi ripeto che la configurazione è quella in sign, ho solamente 1 Hard Disk, 1 USB, 1 Scheda Audio X-Fi con Front Bay, 2 Drive Ottici (lettore DVD + masterizzatore DVD), e sette ventole che girano, certe da 12cm e certe da 8cm.. quindi non penso che a questo punto ci siano problemi se metto una 8800gtx vero?
Grazie mille per le numerose risposte comunque!
Bene ragazzi grazie, mi avete tranquillizzato per quanto riguarda il consumo del mio sistema e la resa del mio bel Enermax Liberty 500W, ma vi ripeto che la configurazione è quella in sign, ho solamente 1 Hard Disk, 1 USB, 1 Scheda Audio X-Fi con Front Bay, 2 Drive Ottici (lettore DVD + masterizzatore DVD), e sette ventole che girano, certe da 12cm e certe da 8cm.. quindi non penso che a questo punto ci siano problemi se metto una 8800gtx vero?
Grazie mille per le numerose risposte comunque!
non è questo il thread adatto ;)
ecco QUI (http://www.hardwarezone.com/articles/view.php?cid=3&id=2260) un'altra rece; qui la hd2900 xt se la gioca bene con la 8800gts, essendole spesso (anche se di pochissimo) avanti. le conclusioni della rece:
Conclusion
The wait has been long and more than a few enthusiasts would have gone over to the other side and got one of NVIDIA's fine GeForce 8 series graphics cards by now. We were hopeful of getting more than just a single Radeon HD card to test but these were quickly dashed. But the performance of the Radeon HD 2900 XT 512MB today has more than made up for the disappointment. With scores that more than matched the GeForce 8800 GTS 640MB card and exceeded it on many occasions, this card may not retake the performance crown from NVIDIA's leader but it does level the retail situation greatly.
It has been long awaited and though it may not reclaim the performance crown from NVIDIA, it poses a stiff challenge against the GeForce 8800 GTS.
ATI has probably considered its position in the market and rated its own performance against NVIDIA because the Radeon HD 2900 XT is marketed directly against NVIDIA's third best card. In short, the Radeon HD 2900 XT, at US$399 goes head to head against the GeForce 8800 GTS 640MB. And as you have seen, there is little doubt that on most criteria, we would go with ATI. Supply, while limited, should be sufficient for the enthusiasts who would be looking at this card. At least for once this would be a hard launch (well, after the numerous date revisions). The only failings seem to be its high power consumption, which going by what has gone before with the Radeon X1950 PRO, is likely to be solved with a switch to 65nm process technology, and possibly, the heat produced by the card Already, the mainstream and budget members of the Radeon HD 2000 series will be 65nm based so the foundation should be there for ATI to improve this promising chipset.
Besides the raw performance numbers, there are significant architectural changes that are impressive, on paper that is. While some of these changes contribute to performance directly, others like the tessellation hardware are a gamble that developers will take up the challenge and utilize it to its potential. However, there are more than sufficient 'goodies' for end-users, from the addition of new anti-aliasing modes to the inclusion of a HD audio controller for both HDCP and HDMI 'compliance'. The new Avivo HD set of technologies are also very interesting and we can't wait to pit it against NVIDIA's PureVideo HD in the near future. And let's not forget the attractive Valve deal that ATI has struck to ensure that gamers would flock to this card. Suffice to say, there are still many facets of this card that has yet to be revealed.
Presently, the Radeon HD 2900 XT is the performance linchpin of ATI's high-end enthusiast lineup. The 'XTX' variant, which most people widely expected to be the most powerful and flagship model, with up to 1GB of DDR4 memory has not been confirmed in ATI's briefings, with rumors abounding that the company has delayed its introduction due to lackluster performance figures compared to the XT, despite having superior specifications, thus we had the Radeon HD 2900 XT instead. Whether it will eventually make its way to retail is therefore subject to speculation, though we highly doubt that we will see it available within the next few months. Most likely, it will be based on the 65nm process technology by then, with rumors of a Radeon HD 2950 XT as the expected name for such a card.
With the launch of the ATI counter attack, the next few months should be extremely interesting for the graphics scene - the rest of the Radeon HD series, the Mobility Radeon variants, not to mention the price competition brought on by the newcomer. Competition is almost always beneficial for consumers and we couldn't agree more on this. As of now, the Radeon HD 2900 XT 512MB should be on everyone's shortlist for its price-performance-feature competitiveness. Who knows what the future may hold? It's your turn, NVIDIA.
Rugginofago
16-05-2007, 13:29
mumble... mumble...
In DX 9 la 2900 non brilla, anzi, spesso è decisamente imbarazzante nei confronti, in dx10 "pare" (notare le virgolette) che abbia prestazioni lievemente diverse.
E' quindi possibile che in sede di progettazione si stata data maggior peso alle dx10 che alle 9 (il che avrebbe anche un senso logico).
Il discorso però qui è diverso, o si dà fiducia ad ati e alle loro dichiarazioni o non la si dà.
Secondo ati questa è la scheda top gamma e si va a mettere al fianco della gts. E' una palese ammissione di sconfitta senza precedenti, prendiamola per forza di cose veritiera come dichiarazione (altrimenti si puo' pensare tutto e il contrario di tutto).
Quindi, se questo è il top, anche in directx10 dà pessimi risultati, così come le nvidia d'altro canto (se i risultati in realtà saranno invece diversi, non c'è nulla ma proprio nulla al momento che fa pensare ad un sorpasso sui valori nvidia...possiamo solo pensare ad un incremento di prestazioni su entrambe ad oggi).
Fosse stata pensata SOLO o comunque PRINCIPALMENTE per directx10 e fosse davvero il top di gamma ati (come dedotto sopra) sarebbe comunque un prodotto con molte lacune e non si salverebbe nemmeno in quel caso sul rivale nvidia. In pratica nvidia fa bene le dx9 e male le dx10. Ati fa male entrambi (consideriamo sempre la scarsa attendibilità dei test, ma quelli abbiamo e per ora di quelli ci serviamo).
Inoltre se davvero facesse davvero faville con le dx10 ati non avrebbe potuto sfornare un test/demo in grado di certificare questa presunta superiorità? Sarebbe stato un colpo sul mercato, avrebbero salvato il salvabile.......invece un gruppo già in difficoltà come il loro non si è sbilanciato nel farlo a riprova del fatto che non sarebbe loro convenuto per nulla.
Infine se hai in mano una panda, la puoi taroccare quanto vuoi, ma sempre panda resta. Overclock e nuovi driver possono OTTIMIZZARE una scheda, non rivoluzionarla come servirebbe in questo caso.
Mio parere in chiusura: l'han pensata male, indecisi tra dx10 e 9, e visti i risultati han dovuto far crollare il prezzo. Secondo me questa scheda DOVEVA essere il top della gamma nei progetti di ati: quando han visto le sue prestazioni han dovuto aggiustare il colpo (a confronto con la gts invece della gtx e calo conseguente di prezzo dai 600-700, ipotesi, ai 300-400).
E' una scheda simbolo della disperazione del gruppo ati/amd. Peccato.
ps: e non tirate fuori la storia che verrà la prossima ati che sarà il top della gamma e farà vedere i sorci verdi a nvidia. Nvidia non dorme sugli allori....la 8900 non è leggenda. Ati ha davanti un gap ad oggi spaventoso anche in previsione di un recupero sui modelli di prossima uscita.
intendevo inganno sull'hype, sono riusciti a far credere a Nvidia che la loro soluzione fosse davvero superiore, in quel senso l'intendevo...
Dubito che nVidia si sia fatta ingannare da R600, tanto più che i prezzi delle 8800GTX sono rimasti invariati anche nel momento in cui sono cominciate a circolare le prime indiscrezioni sul prezzo di R600 (e nVidia a quel punto sapeva benissimo quali erano le reali capacità di R600, molto meglio di quanto potevamo saperlo noi che ci scervellavamo a leggere e spulciare decine di siti) e considerando anche il lancio della Ultra, che non ha influenzato il prezzo delle GTX standard (e che non ha nulla a che vedere con il mantenimento della supremazia, proprio perché nVidia sapeva già che R600 non avrebbe attaccato le GTX: è solo un ulteriore smacco alla rivale, più che una vera necessità); semmai quelli che si sono fatti ingannare sono gli utenti, a centinaia, che hanno atteso HD2900XT come il castigo divino per nVidia, e che invece adesso piangono come bambini perché il giocattolo che più aspettavano si è definitivamente rotto, salvo sperare ( :rolleyes: ) che nuove release dei driver modifichino la situazione
Iantikas
16-05-2007, 13:54
io invece nn la vedo messa così male...i 64 vec5 una volta ottimizzati i driver applicazione x applicazione diranno la loro (se nn meglio almeno alla pari con la 128SP@1350mhz di GTX)...secondo me il principale tallone d'akille di questa skeda son le sole 16 unita x le texture (sopratutto se viste in confronto alle 32/24 della GTX/GTS)...e credo ke faranno da collo di bottiglia in molti scenari...
...anke le 16 ROP (contro 24/20 di GTX/GTS) potrebbero far da zavorra ma il fatto ke in HD2900XT lavorano a 750mhz (contro 575/500mhz di GTX/GTS) dovrebberò far pareggiare le cose...
...questo almeno secondo me...cmq alla fine ki ha già un GPU di fascia alta della passata generazione (tipo X1900XT/XTX o 7900GTX) è meglio se aspetta le prox skede DX10 ke dovrebbero uscire in autunno...ciao
...non avrebbe potuto sfornare un test/demo in grado di certificare questa presunta superiorità?
in realtà il demo c'è ed è un filmato,anche molto bello,della ragazza di Ati...:D non è un test ma è molto fluido e bello sotto tutti gli aspetti,se non l'hai visto non so che dirti,e da dove viene il filmato??.la scheda è uscita solo 2 giorni fa,non a novembre del 2006 come nvidia che ha i suoi techdemo & co. secondo me al momento molte cose di quelle che diciamo,me compreso,lasciano il tempo che trovano ma ci piace parlarne e non lo metto in dubbio.significa che ora Ati è seconda . e basta,domani chi lo sa...tra l'altro qui non è una gara dei 100mt,qui è meglio essere seconda su 2 che su 10 per la distribuzione delle ricchezze,se uno non compra nvidia cosa compra? Matrox ?? :D ehhh once upon a time
...cmq alla fine ki ha già un GPU di fascia alta della passata generazione (tipo X1900XT/XTX o 7900GTX) è meglio se aspetta le prox skede DX10 ke dovrebbero uscire in autunno...
Questo sicuramente...
Questo sicuramente...
tutto sommato sono arrivato alla stessa conclusione.
Soulbringer
16-05-2007, 14:03
tutto sommato sono arrivato alla stessa conclusione.
Già il problema è per chi come me deve cambiare ora tutto il pc..e siccome volevo prendere fascia alta ora non so ke fare..
appleroof
16-05-2007, 14:05
Già il problema è per chi come me deve cambiare ora tutto il pc..e siccome volevo prendere fascia alta ora non so ke fare..
Prendi una scheda che costa poco (dx10) e poi la cambi più in là. Oppure fai un "atto di fiducia" e ti prendi la 2900XT o la 8800gts 640/gtx. non vedo molte alternative...
Rugginofago
16-05-2007, 14:08
Già il problema è per chi come me deve cambiare ora tutto il pc..e siccome volevo prendere fascia alta ora non so ke fare..
IDEM, son proprio messo male :cry:
Magicn1 ho visto quel filmato, ma non vuol dir assolutamente niente....è un filmato che gira, fa il suo lavoro solo per occhi più che per i confronti con le 8800 :fagiano:
Specchio per le allodole ;)
halduemilauno
16-05-2007, 14:11
http://www.tomshw.it/graphic.php?guide=20070516
l'unico caso che vince ati è la x1950xtx.
;)
Soulbringer
16-05-2007, 14:16
Prendi una scheda che costa poco (dx10) e poi la cambi più in là. Oppure fai un "atto di fiducia" e ti prendi la 2900XT o la 8800gts 640/gtx. non vedo molte alternative...
Già..io sarei propenso a una 8800gtx ma non vorrei che quest'estate esca già la serie nuova dell'nVidia.. la hd2900xt sarei Molto curioso di vederla all'opera con i nuovi driver ma chissà quanto bisogna aspettare per la prox relase???
IDEM, son proprio messo male :cry:
Magicn1 ho visto quel filmato, ma non vuol dir assolutamente niente....è un filmato che gira, fa il suo lavoro solo per occhi più che per i confronti con le 8800 :fagiano:
Specchio per le allodole ;)
Esatto..l'ho visto anche io e devo dire che ha una qualità sbalorditiva però conta molto poco in realtà!
http://www.tomshw.it/graphic.php?guide=20070516
;)
Visto anche questo confronto. SLI e Crossfire si dimostrano ancora 1 volta totalmente inutili..:(
ecco QUI (http://www.hwupgrade.it/forum/newreply.php?do=newreply&noquote=1&p=17144622) un'altra rece; qui la hd2900 xt se la gioca bene con la 8800gts, essendole spesso (anche se di pochissimo) avanti.
QUI dove? :) Il link è sbagliato, hai messo quello di reply del forum ;)
Poliphilo
16-05-2007, 14:18
Il problema sono i driver immaturi. Bisogna aspettare i successivi, come è successo con nvidia e gli ultimi driver.
Soulbringer
16-05-2007, 14:20
Il problema sono i driver immaturi. Bisogna aspettare i successivi, come è successo con nvidia e gli ultimi driver.
Ok, ma si sa qualcosa sulla data di uscita di sti benedetti driver?
Magicn1 ho visto quel filmato, ma non vuol dir assolutamente niente....è un filmato che gira, fa il suo lavoro solo per occhi più che per i confronti con le 8800 :fagiano:
Specchio per le allodole ;)
su questo sono d'accordo,infatti non ci basiamo su quello però non possiamo neanche dire di non aver visto niente.prossimamente avremo di sicuro + carne al fuoco :)
QUI dove? :) Il link è sbagliato, hai messo quello di reply del forum ;)
:doh: volevo dire qui (http://www.hardwarezone.com/home/)!
uno dei problemi che incide pesantemente sulle prestazioni della scheda per ora è secondo ati la mancata ottimizzazione in molti giochi della nuova modalità AA...
a me non sembra che come architettura l'r600 sia castrato o quan'altro rispetto a g80,però sicuramente da qualche parte cè qualcosa che non và...
Poliphilo
16-05-2007, 14:33
Ok, ma si sa qualcosa sulla data di uscita di sti benedetti driver?
Bohh?! :confused:
Già il problema è per chi come me deve cambiare ora tutto il pc..e siccome volevo prendere fascia alta ora non so ke fare..
Io mi sono appena ordinato una X1950XT a 180 euro circa, considerato che le 8800gts non vanno sulla mia scheda madre (non ufficialmente, e FORSE solo sotto Vista) e costano circa 100 euro in più per un 10% di prestazioni superiori... e considerando che quello che si è visto finora di dx10 rende completamente inutili le schede di questa generazione per giocare in dx10 - tranne la 8800gtx. Le schede di fascia media, nemmeno a parlarne viste le scarsissime 8600 e probabilmente anche 2600xt...
Il classico "taglio la testa al toro" e gioco bene per un anno, poi vedrò la prossima generazione dx10 :D
ma non sarà anche questo minor numero di TMU e rops che penalizza la ati??
oltre alla minor velocità degli stream processors e della ram a default?? intendo rispetto alla gtx ovviamente
TecnoWorld8
16-05-2007, 14:40
per quanto mi riguarda, questa è una delle schede più deludenti mai uscite sul mercato. mesi di attesa, moltissimo hype, alcuni che promettevano prestazioni eccezionali e...non supera nemmeno di troppo la fascia medio/alta del concorrente diretto (GTS 640), che è una soluzione presente sul mercato da 7 mesi. Tutto ciò consumando molto di più...
Penso che ATi farebbe una gran cosa a far sapere i tempi di uscita per la soluzione a 65nm basata su un'architettura analoga.
Tutto questo anche perchè secondo me nVidia a breve farà uscire un nuovo top di gamma, possibilmente a 65nm...
io invece nn la vedo messa così male...i 64 vec5 una volta ottimizzati i driver applicazione x applicazione diranno la loro (se nn meglio almeno alla pari con la 128SP@1350mhz di GTX)...secondo me il principale tallone d'akille di questa skeda son le sole 16 unita x le texture (sopratutto se viste in confronto alle 32/24 della GTX/GTS)...e credo ke faranno da collo di bottiglia in molti scenari...
...anke le 16 ROP (contro 24/20 di GTX/GTS) potrebbero far da zavorra ma il fatto ke in HD2900XT lavorano a 750mhz (contro 575/500mhz di GTX/GTS) dovrebberò far pareggiare le cose...
assolutamente d'accordo con te. per l'ultimo punto, nel test dedicato nel 3dmark i punteggi sul fill rate sono quasi analoghi a quelli della gts; 24*500=12000 per G80 e 16*750=12000...
Penso che ATi farebbe una gran cosa a far sapere i tempi di uscita per la soluzione a 65nm basata su un'architettura analoga.
Tutto questo anche perchè secondo me nVidia a breve farà uscire un nuovo top di gamma, possibilmente a 65nm...
se l'architettura è analoga il fatto che cambi solo il processo produttivo a mio avviso non cambierà le prestazioni...insomma se l'architettura della gpu mal si adatta agli attuali giochi per vari motivi non basta cambiare solo il processo produttivo ma bisognerà rivedere tutto il progetto..
TecnoWorld8
16-05-2007, 14:48
se l'architettura è analoga il fatto che cambi solo il processo produttivo a mio avviso non cambierà le prestazioni...insomma se l'architettura della gpu mal si adatta agli attuali giochi per vari motivi non basta cambiare solo il processo produttivo ma bisognerà rivedere tutto il progetto..
diciamo che a parità di prezzo, se avesse consumato molto meno l'avrei presa (e come me penso molti altr). Inoltre, un processo produttivo più evoluto di solito si abbina a frequenze più elevate, che permetterebbero di recuperare terreno anche nelle prestazioni. Dopotutto, a 850Mhz andrebbe circa come una GTX o poco meno...
pippomostarda
16-05-2007, 14:51
Qui si parla come se le schede di fascia alta facessero il mercato. Io trovo molto più allettanti le 2400-2600 con hdcp integrato e funzioni di riproduzione video avanzate. Sono le schede da 100 dollari (e anche meno) che fanno i numeri, con grosse forniture agli oem (tipo lenovo, Hp ecc). La fascia alta invece copre solo il2/3% del mercato, e serve più da richiamo per l'immagine dell'azienda che altro. Certo, La 2900 non sembra un fulmine, ma se il prezzo dovesse abbassarsi presto (cosa peraltro prevedibile), rimarrebbe una scelta valida anche per i gamer...
Visto quanto sale in frequenza a 80nm lo farà molto meglio e con consumi consistentemente inferiori a 65nm. Non mi sento nemmeno di escludere che non sarà semplicemente un die shrink, ma anche lo fosse il salto prestazionale sarebbe cospicuo, anche perché nel frattempo ci si augura che i driver arrivino ad essere quantomeno decenti...
appunto è quello che dico io,la situazione in termini prestazionali non migliorerebbe di molto solo abbassando il processo produttivo,diciamo che la cosa che negioverebbe di più sono i consumi e tutto ciò che ne consegue...
TecnoWorld8
16-05-2007, 14:57
Qui si parla come se le schede di fascia alta facessero il mercato. Io trovo molto più allettanti le 2400-2600 con hdcp integrato e funzioni di riproduzione video avanzate. Sono le schede da 100 dollari (e anche meno) che fanno i numeri, con grosse forniture agli oem (tipo lenovo, Hp ecc). La fascia alta invece copre solo il2/3% del mercato, e serve più da richiamo per l'immagine dell'azienda che altro. Certo, La 2900 non sembra un fulmine, ma se il prezzo dovesse abbassarsi presto (cosa peraltro prevedibile), rimarrebbe una scelta valida anche per i gamer...
io invece sono di un "partito" molto diverso dal tuo. voglio la fascia alta di un prodotto appena esce, per tenerla poi circa 18 mesi. negli anni questo modo di pensare mi ha molto pagato, dato che se prendi fascia media e cambi ogni 6/12 mesi, non giochi MAI al top, mentre se fai come me, giochi al top per un annetto abbondante, spendendo praticamente lo stesso.
Per questo la XT non mi convince. Avrei preferito una XTX a 600€, ma che battesse la GTX e consumasse meno o uguale. A quel punto l'avrei presa.
Beh una riduzione dei consumi derivante da un die-shrink, non potrebbe venir inibita dall'aumento delle frequenze operative?
Qui si parla come se le schede di fascia alta facessero il mercato. Io trovo molto più allettanti le 2400-2600 con hdcp integrato e funzioni di riproduzione video avanzate. Sono le schede da 100 dollari (e anche meno) che fanno i numeri, con grosse forniture agli oem (tipo lenovo, Hp ecc). La fascia alta invece copre solo il2/3% del mercato, e serve più da richiamo per l'immagine dell'azienda che altro. Certo, La 2900 non sembra un fulmine, ma se il prezzo dovesse abbassarsi presto (cosa peraltro prevedibile), rimarrebbe una scelta valida anche per i gamer...
ok pippo però non stiamo parlando del mercato in genere qui ma della 2900,scusa ma chi ti ha fatto intendere questa cosa? e comunque in questi mesi non dirmi che la gtx non abbia fatto mercato per nvidia ;) iniziava pure a sentirsi sola :D
pippomostarda
16-05-2007, 15:01
io invece sono di un "partito" molto diverso dal tuo. voglio la fascia alta di un prodotto appena esce, per tenerla poi circa 18 mesi. negli anni questo modo di pensare mi ha molto pagato, dato che se prendi fascia media e cambi ogni 6/12 mesi, non giochi MAI al top, mentre se fai come me, giochi al top per un annetto abbondante, spendendo praticamente lo stesso.
Per questo la XT non mi convince. Avrei preferito una XTX a 600€, ma che battesse la GTX e consumasse meno o uguale. A quel punto l'avrei presa.
Io 18 mesi non tengo neppure la donna, figurati una scheda video :D . Tieni presente che ho preso la 8800gtx dall'inizio, ma il mio era un discorso di policy aziendale. adesso come adesso Amd non ha una scheda di fascia altissima. Pazienza, punta sulla fascia media (o bassa) con prezzi aggressivi e caratteristiche che mancano alla concorrenza (non dimentichiamo che nvidia supporta nativamente l'hdcp solo dalla 8600gts)...
pippomostarda
16-05-2007, 15:03
ok pippo però non stiamo parlando del mercato in genere qui ma della 2900
Non mi pare. Anzi, si da Amd/Ati per spacciata solo perché la 2900 non buca...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.