View Full Version : Le prime immagini di una ATI Radeon HD 2900 XT a 1 Gbyte
Redazione di Hardware Upg
04-06-2007, 08:25
Link alla notizia: http://www.hwupgrade.it/news/skvideo/21413.html
Le notizie del debutto di una scheda Radeon HD 2900 XT con memoria raddoppiata prendono sempre più corpo
Click sul link per visualizzare la notizia.
Presunto guadagno prestazionale? 0.0004% :asd:
micuzzo77
04-06-2007, 08:31
se non aggiornano in maniera drastica i driver, questa belva rimarrà una ferrari con le gomme di una panda!
halduemilauno
04-06-2007, 08:32
qui
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1278&Itemid=1
alcuni bench default e in oc nei vari 3d mark.
;)
loperloper
04-06-2007, 08:32
come se il collo di bottiglia fosse la ram....!!sarebbe stato più utile prima portare il processo produttivo a 65nm e poi se ne sarebbe riparlato
come se il collo di bottiglia fosse la ram....!!sarebbe stato più utile prima portare il processo produttivo a 65nm e poi se ne sarebbe riparlato
Ah xchè il collo di bottiglia sono i nanometri del processo produttivo della GPU?
Al limite avrebbe scaldato meno :asd:
se non aggiornano in maniera drastica i driver, questa belva rimarrà una ferrari con le gomme di una panda!
Pensi che con dei driver ben ottimizzati darebbe del filo da torcere all'ammiraglia di casa nVidia?:)
come se il collo di bottiglia fosse la ram....!!sarebbe stato più utile prima portare il processo produttivo a 65nm e poi se ne sarebbe riparlato
Infatti aspetto la mia 7300 turbo cache a 45nm, quella si che volerà! :asd:
Ah xchè il collo di bottiglia sono i nanometri del processo produttivo della GPU?
Mi hai anticipato di un soffio :asd:
qui
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1278&Itemid=1
alcuni bench default e in oc nei vari 3d mark.
;)
Urgono test veri da fonti attendibili, non 3DMarcoPolo da un sito di gossip.
Ma sono tutti sordi all ATI
Probabilmente avran perso l'udito mentre la testavano nella galleria del vento insieme alla nuova ferrari :D :lol:
JohnPetrucci
04-06-2007, 08:48
qui
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1278&Itemid=1
alcuni bench default e in oc nei vari 3d mark.
;)
E' risaputo che il 3dmerd non è attendibile, già il sito è quello che è, affidarsi ai 3dmark dove queste schede volano, ma poi prendono batoste sui giochi rispetto alla 8800 gtx/ultra, è un modo alquanto fuori luogo di giudicare una vga.
E non sarà la ram aggiuntiva a cambiare le cose.
128gb di banda passante e gddr4...
il gaming con i filtri praticamente diventerà cosa normale.
a questo punto potrebbero gia metterlo always on cosi sfruttano un pò sta banda bestiale.
Pensi che con dei driver ben ottimizzati darebbe del filo da torcere all'ammiraglia di casa nVidia?:)
filo da torcere forse no, ma un bel guadagno nelle applicazioni senza dubbio si ;)
E' risaputo che il 3dmerd non è attendibile, già il sito è quello che è, affidarsi ai 3dmark dove queste schede volano, ma poi prendono batoste sui giochi rispetto alla 8800 gtx/ultra, è un modo alquanto fuori luogo di giudicare una vga.
E non sarà la ram aggiuntiva a cambiare le cose.
al di là dell'attendibilità del sito io credo che il fatto che nei 3d mark vada così forte mentre negli applicativi molto meno,è il segnale più chiaro di una netta immaturità driver :boh:
ghiltanas
04-06-2007, 08:54
ma chi è il dirigente ati in questo momento? Peter Griffin? :doh: (però si spiegherebbe anche i nomi delle nuove soluzioni amd :ciapet: )
apparte gli scherzi credo siano ammattiti, cioè vedi che la tua vga nn va sia in termini di prestazioni e consumi e cosa fai?
1 alzi la memoria quindi nessun vantaggio prestazional e aumento notevole dei costi
2 aumenti la freq all'estreme aumentando consumi e calore
mah nn so voi, ma io nn so + che pensare...
filo da torcere forse no, ma un bel guadagno nelle applicazioni senza dubbio si ;)
Peccato. Sono sempre stato legato ad ati e da questa scheda mi aspettavo davvero tanto, invece si è rivelata una mezza delusione, praticamente anche la 8800gts è superiore!!
Dici che è la stessa ventola che muove i fili sulla carrozzeria rossa ?
1 Gb di memoria solo con il dual GPU in crossfire... così è come mettere 256 MB ad una S3 Trio.
Con un processo produttivo a 65nm potrebbero alzare un po' le frequenze, diminuire consumi e calore e quindi migliorare la situazione generale non certo "splendente".
E' inutile..questa scheda è nata male. Nuovi driver potrebbero migliorare, anche il processo produttivo potrebbe influire ma questa volta (ahimè) la sfida l'ha vinta nVidia...
JohnPetrucci
04-06-2007, 09:06
al di là dell'attendibilità del sito io credo che il fatto che nei 3d mark vada così forte mentre negli applicativi molto meno,è il segnale più chiaro di una netta immaturità driver :boh:
Questa è utopia, di ottimizzazioni per avercelo più lungo al 3dmerd ne ho viste a bizzeffe nel corso degli anni, sia da parte di Ati che Nvidia, e spesso non andavano di pari passo con maggiori prestazioni in game, quando addirittura non peggioravano la qualità per qualche punto in più.
Ribadisco che ciò che conta sono le prestazioni nei giochi, il resto è fuffa, specialmente un test "da marketing" come il 3dmark.
morpheus75
04-06-2007, 09:19
comunque che tristezza...credo che da ora in poi andrò avanti con Nvidia per via del supporto Linux nettamente superiore...comunque quoto il commento di qualcuno che ha detto "senza drivers resta una ferrari con le gomme della panda...". ragazzi 128GB/s di banda... potrebbe avere quasi un buon 15% di prestazioni in più di una ULtra...+ o -...faccio un'ipotesi...ed invece...
come ex possessore di una X800XL dico:"ATI...CHE CAZZO FAIIIIIIIIIIIIIIII".
Questa è utopia, di ottimizzazioni per avercelo più lungo al 3dmerd ne ho viste a bizzeffe nel corso degli anni, sia da parte di Ati che Nvidia, e spesso non andavano di pari passo con maggiori prestazioni in game, quando addirittura non peggioravano la qualità per qualche punto in più.
Ribadisco che ciò che conta sono le prestazioni nei giochi, il resto è fuffa, specialmente un test "da marketing" come il 3dmark.
Boh, punti di vista. Lo stesso G80 è migliorato ampiamente come prestazioni nei giochi se prendiamo come riferimento i primi e gli ultimi driver... Ripeto : credo che ormai la battaglia con g80 sia persa, però vedo ampi margini di miglioramento ;).
Quello che non và e che non è reversibile è stata l'introduzione del connettore ad 8 pin : non ne posso più di sti continui cambiamenti di standard :mad:...
senza contare che le ddr4 sulla 2600 le hanno tirate a 2,2 GHz (THG):un piccolo sforzo in più..
E' inutile..questa scheda è nata male. Nuovi driver potrebbero migliorare, anche il processo produttivo potrebbe influire ma questa volta (ahimè) la sfida l'ha vinta nVidia...
In realtà la sfida l'abbiamo persa noi, per ovvi motivi.. :(
JohnPetrucci
04-06-2007, 09:36
Boh, punti di vista. Lo stesso G80 è migliorato ampiamente come prestazioni nei giochi se prendiamo come riferimento i primi e gli ultimi driver... Ripeto : credo che ormai la battaglia con g80 sia persa, però vedo ampi margini di miglioramento ;).
Quello che non và e che non è reversibile è stata l'introduzione del connettore ad 8 pin : non ne posso più di sti continui cambiamenti di standard :mad:...
Non solo, ma consuma di più, ed è più rumorosa.
Kharonte85
04-06-2007, 09:49
Se il processo produttivo non è stato portato a 65nm non ci siamo proprio....:nono:
BrightSoul
04-06-2007, 09:50
vediamo se nei prossimi giorni presentano qualche soluzione con raffreddamento a liquido...
morpheus75
04-06-2007, 10:02
geforce 5800 rules...nata male e tirata comunque avanti per disperazione...adesso anche ati...
Non solo, ma consuma di più, ed è più rumorosa.
Certo certo, di questo non parlavo perhcè cmq sono due difetti incontestabili ed incontrovertibili :boh: ;)
hum hum :sob:
se la vendono sui 250€ non sarà malissimo...
utopia :D
Conta tantissimo il prezzo a cui intendendono venderla.
L'unico riferimento applicabile è questo:
la x1950XT 512Mb GDDR3 (800Mhz) costa 100 euro in meno della x1950XTX 512Mb GDDR4 (1000Mhz)
Quindi, indicativamente, la HD 2900XT 1Gb GDDR4, se tutto va bene, dovrebbe essere venduta ad almeno 500-550 euro.
Staremo a vedere se con i Catalyst 7.6 varrà quel prezzo rispetto alla 8800GTX.
hum hum :sob:
se la vendono sui 250€ non sarà malissimo...
utopia :D
con 1gb di ddr4 la vedo dura avere un prezzo molto concorrenziale :boh:
con 1gb di ddr4 la vedo dura avere un prezzo molto concorrenziale :boh:
Anche perchè non va na fava sta sheda....
Anche perchè non va na fava sta sheda....
12769 a 3dmark06 con un sistema con CPU Core 2 Extreme Kenstfield Q6850 a 4GHz, Asus P5K-D, GSKILL 2GBHZ a 1000 CL4 e alimentatore TT 1200W non mi sembra un miracolo :)
Anche perchè non va na fava sta sheda....
Ammazza ahoo! Dai non esageriamo, se continuano con questa politica dei prezzi direi che sia comunque interessante questa scheda, in ogni caso rimane un po di delusione, io speravo molto meglio per le 2900, alla fine le stiamo confrontando con le 8800 uscite 7 mesi fa, schede che puoi tranquillamnete considerare di generazioni differenti ed invece le ATI faticano a confermarsi al vertice nelle prestazioni.
Ma questa consumerà ancora di più?
Ammazza ahoo! Dai non esageriamo, se continuano con questa politica dei prezzi direi che sia comunque interessante questa scheda, in ogni caso rimane un po di delusione, io speravo molto meglio per le 2900, alla fine le stiamo confrontando con le 8800 uscite 7 mesi fa, schede che puoi tranquillamnete considerare di generazioni differenti ed invece le ATI faticano a confermarsi al vertice nelle prestazioni.
Ma questa consumerà ancora di più?
teoricamente no :)
(se la freq della gpu dovesse restare invariata)
Bella non c'e che dire....quando la compri assieme ai cd bonus ti danno anche un modulino da compilare con scritto ENEL e con una clausula dove si dissociano da eventuali mutazioni genetiche dovute alle radiazioni emesse dalla scheda perche alimentata da plutonio visto i consumi CONTENUTI....
imho che tristezza...8800 for life
markenforcer
04-06-2007, 11:15
Sì giusto con raffreddamento a liquido perchè così in estate si rischia di scaldare pure la stanza. Dovevano metterla in commercio il prossimo inverno. Ma dopo questo flop non hanno capito che dovrebbero abbassare il prezzo invece di alzarlo mettendo più memoria??? Forse è vero il processo produttivo a 65 aiuterebbe a migliorare la situazione e anche i driver ma ipoteticamente questa scheda non sarà mai superiore alla controparte Nvidia indi per cui appena Nvidia tirerà fuori una nuova scheda high end per Ati sarà finita.
Secondo me sarà un flop totale di vendite questa scheda.. certo chi non ne capisce si farà inchiappettare dal giga di ram, ma i gamers non credo certo opteranno per questa.. Eh poi oramai poche persone spendono 500€ di scheda video che fra 1 anno è sorpassata anni luce..
vedendo i bug nei driver mastodontici, attendo incrementi importanti di prestazioni con i driver
Secondo me sarà un flop totale di vendite questa scheda.. certo chi non ne capisce si farà inchiappettare dal giga di ram, ma i gamers non credo certo opteranno per questa.. Eh poi oramai poche persone spendono 500€ di scheda video che fra 1 anno è sorpassata anni luce..
vedo che ne conosci già prestazioni e prezzi inoltre sei un esperto di marketing manda il curriculum ad ati:D così eviteranno di rifare un errore del genere in futuro.....ovviamente scherzo;)
aspettiamo di vedere almeno le prestazioni e il prezzo prma di decretarne la morte,bisognerà vedere se l'aumento di prestazioni giustificherà il prezzo superiore....
cmq si leggono dei commenti assurdi, gente che preannuncia la morte di Ati solo perchè l'ultima scheda video (che prezzo di 350€ batte la diretta concorrente e spesso eguaglia la gtx) non ha pienamente rispettato le altissime aspettative...
gente che urla al tradimento che giura e spergiura che non comprerà mai più ati.....mi sembra un po eccessivo
vedo che ne conosci già prestazioni e prezzi inoltre sei un esperto di marketing manda il curriculum ad ati:D così eviteranno di rifare un errore del genere in futuro.....ovviamente scherzo;)
aspettiamo di vedere almeno le prestazioni e il prezzo prma di decretarne la morte,bisognerà vedere se l'aumento di prestazioni giustificherà il prezzo superiore....
cmq si leggono dei commenti assurdi, gente che preannuncia la morte di Ati solo perchè l'ultima scheda video (che prezzo di 350€ batte la diretta concorrente e spesso eguaglia la gtx) non ha pienamente rispettato le altissime aspettative...
gente che urla al tradimento che giura e spergiura che non comprerà mai più ati.....mi sembra un po eccessivo
infatti sbagliano...perchè ATI NON esiste più e quindi non può morire :asd:
Veramente ci son già recensioni della 2900xt e nn vale certo il prezzo a cui è data.. cmq aspettiamo e vediamo un po ma nn credere che 1gb di ram cambi la potenza della scheda
JohnPetrucci
04-06-2007, 12:36
....
cmq si leggono dei commenti assurdi, gente che preannuncia la morte di Ati solo perchè l'ultima scheda video (che prezzo di 350€ batte la diretta concorrente e spesso eguaglia la gtx) non ha pienamente rispettato le altissime aspettative...
gente che urla al tradimento che giura e spergiura che non comprerà mai più ati.....mi sembra un po eccessivo
Certo che se le cose stessero come dici tu, non ci sarebbero siti in tutto il mondo a mettere bench di giochi dove non sempre la hd 2900 xt eguaglia la 8800gts, poi se ne trovi uno del Burundi che la pone sopra la gtx prestazionalmente, beh tanto di cappello!
Ma essere obbiettivi no vero?
Meglio essere fanboy.:rolleyes:
Parlo da ex-possessore di x1800 xt, che mira alla propria convenienza e non a quella del marchio.
Sul discorso morte o non morte, io sono per la maggiore concorrenza possibile, ovvio che non augurerei mai ad Ati di finire male, ma aihmè sta facendo tutto da sola, con consumi e rumore poi....
Snickers
04-06-2007, 12:43
Al posto di sparare a zero, vorrei farvi notare che un modulo GDDR4 a parità di frequenza di un GDDR3 consuma di meno. Quindi è presumibile che i consumi rimangano più o meno invariati
halduemilauno
04-06-2007, 12:47
Certo che se le cose stessero come dici tu, non ci sarebbero siti in tutto il mondo a mettere bench di giochi dove non sempre la hd 2900 xt eguaglia la 8800gts, poi se ne trovi uno del Burundi che la pone sopra la gtx prestazionalmente, beh tanto di cappello!
Ma essere obbiettivi no vero?
Meglio essere fanboy.:rolleyes:
Parlo da ex-possessore di x1800 xt, che mira alla propria convenienza e non a quella del marchio.
Sul discorso morte o non morte, io sono per la maggiore concorrenza possibile, ovvio che non augurerei mai ad Ati di finire male, ma aihmè sta facendo tutto da sola, con consumi e rumore poi....
http://www.legitreviews.com/article/507/3/
la xt è con i 7.5 e con la ram a 2000 come la xt da un giga di questa news. la gtx è a default.
;)
Giallo77
04-06-2007, 13:22
Ma che se la tengano sia quella a 512 MB che quella da 1 GB, quando torna il periodo delle castagne ne riparliamo, personalmente attendo una versione di G80 a 65nm (speriamo che la fanno).
Forse alla AMD ci credono ancora (non voglio pensare che sono dei rincogliniti) ma io farei meglio a prendere carta e penna e cominciare a progettare R700, che si affrettassero a far uscire le versioni castrate (ma a 65 nm) della fascia media invece di insistere su questa "Ammiraglia" nata stanca e buona come preaccensione dei forni delle panetterie;
Non ha soddisfatto nessuna aspettativa, è un acquisto da rincoglioniti cronici anche se costasse la metà.
E' una scheda mooolto rivolta al futuro?
E allora tenetevela nei vostri laboratori e giocateci a STALKER etc mentre vi passate il tempo ad ottimizzarla via software aspettando questo sfavillante FUTURO.
Non ha soddisfatto nessuna aspettativa, è un acquisto da ... cronici anche se costasse la metà.
Se si ritiene sia un pessimo acquisto, si scrive "è un pessimo acquisto".
Il linguaggio da bar lo riservate, appunto, al bar.
Ammonizione.
giovanbattista
04-06-2007, 13:48
sinceramente nelle mie scorribande x il web :) ho visto altre immagini, facevano riferimento alla 2900Xtx da 1 giga dd4 ma il dissy era diverso e le dimensioni a occhio pure, ma non avendo metro di paragone alzo le mani, un qiorno al computex domani cominciano le danze
(ragazzi fateci un reportage da urlo......i monitor, i case oltre alle schede video madri ram e hd (pure quelli stato solido & ibridi)
halduemilauno
04-06-2007, 14:00
sinceramente nelle mie scorribande x il web :) ho visto altre immagini, facevano riferimento alla 2900Xtx da 1 giga dd4 ma il dissy era diverso e le dimensioni a occhio pure, ma non avendo metro di paragone alzo le mani, un qiorno al computex domani cominciano le danze
(ragazzi fateci un reportage da urlo......i monitor, i case oltre alle schede video madri ram e hd (pure quelli stato solido & ibridi)
quella era la xt oem.
;)
Bè che la hd 2900xt sia nata male è evidente, è come una nuova nave che va in porto con un buco nello scafo.. i driver si la ottimizzeranno (si spera) ma nn faranno miracoli è ovvio.. Bisogna solo essere sinceri ed ammettere che la nvidia cn 8800 è migliore, punto e basta. Questa volta ati ha perso, magari stravincerà con r700 ma ora come ora inutile girarci intorno e mettersi il prosciutto negli occhi..
Firedraw
04-06-2007, 14:42
Beh se la fanno a 0.65 nm, e regolano il prezzo sulle prestazioni, non sarebbe poi un cattivo acquisto.
Ora come ora, il rapporto prezzo prestazione non è male, anzi.... il problema sono i consumi e il rumore, tutte cose che si riolvono con i 0.65 nm.
Questa da 1 gb è il solito prodotto commerciale per utonti lo sappiamo tutti.
Se ci si aggiunge un 5% di prestazioni in più con ottimizazioni dei driver.... voglio dire, per 350€ non direi che farebbe proprio schifo.
nonikname
04-06-2007, 14:44
AMD's UVD Debacle
http://www.anandtech.com/video/showdoc.aspx?i=3000
da un'altra news ho visto che hanno anche dotato la x1950pro di GDDR4.....
che fosse un prodotto nato sfigatello ormai si è capito, e in effetti per gli standard attuali 512mb a 1650mhz sono "pochi" x la fascia alta, o per lo meno per poter convincere gli acquirenti che guardano ai numeroni e devono confrontarla con una gts con 640mb e frequenze della memoria paragonabili
certo non saranno differenze abbisali in perfomance ma quei circa 20gb/s in più fanno sempre comodo come questa tanto sperata ottimizzazione dei driver (che poi che hanno fatto in questi 6 mesi? erano tutti a spiaggia invece che a pensare alla nuova SV? :D ) anche se alla fine la cosa più evvidente è che AMD è arrivatai mpreparata la confronto trovando per le mani un prodotto non competitivo e acerbo e dovendolo rattopare qua e la per renderlo presentabile visto che per presentare una nuova SV ci vogliono mese se non anni di sviluppo
P.S: ogni tanto penso al capo progetto o chiunque esso sia che bello tranquillo ha deciso le caratteristiche di questa SV pensando che quei "trogloditi" della nVidia lavoravano ancora su sahder separati mentre un bel giorno, o forse brutto x lui :D , un galoppino ha portato la notizia della nuova architettura nvidia a shader unificate con perfomance stellari e di li a poco un ambulanza intonava la sua sirena portandosi via il povero disperato che aveva subito un piccolo collasso:P
MiKeLezZ
04-06-2007, 16:37
comunque che tristezza...credo che da ora in poi andrò avanti con Nvidia per via del supporto Linux nettamente superiore...comunque quoto il commento di qualcuno che ha detto "senza drivers resta una ferrari con le gomme della panda...". ragazzi 128GB/s di banda... potrebbe avere quasi un buon 15% di prestazioni in più di una ULtra...+ o -...faccio un'ipotesi...ed invece...
come ex possessore di una X800XL dico:"ATI...CHE CAZZO FAIIIIIIIIIIIIIIII".La banda passante, da sola, non conta una mazza.
Puoi anche avere un'autostrada a 20 corsie, lunga 50 km, senza la più piccola imperfezione nell'asfalto, sgombra da macchine, tir, bruchi e formiche, ma se ci vai con la bicicletta sgangherata con la ruota dietro a terra, non te ne fai di nulla.
La memoria in più, idem. Fino a quando non ci saranno giochi che la sfruttano (e questo avverrà solo quando tale taglio sarà mainstream), sono solo 10W in più di consumo.
Sulla carta la R600, già con le GDDR3, ha il 60% di memory bandwidth in più delle 8800GTS.
C'è anche uno solo caso in cui ha espresso questo potenziale?
Sulla carta la R600 ha quasi il doppio dei Gflops della 8800GTS: dove si è vista questa differenza, fino ad ora?
Di certo, quello che si è visto fino ad ora, è il 60% di consumi in più...
Quindi, perchè mai le GDDR4 ad 1Ghz dovrebbero fare la differenza rispetto alle GDDR3 a 850Mhz in termini di prestazioni reali?
Come ho già detto, ci saranno casi in cui saranno più utili 1Gb di ram rispetto a 512Mb, più facile in Crossfire, che in schede singole.
Ma secondo questa logica, mi aspetto qualche produttore che faccia schede con 1Gb di GDDR3 (tipo Club3D) ma che costano meno di quelle con GDDR3.
Certo che se le cose stessero come dici tu, non ci sarebbero siti in tutto il mondo a mettere bench di giochi dove non sempre la hd 2900 xt eguaglia la 8800gts, poi se ne trovi uno del Burundi che la pone sopra la gtx prestazionalmente, beh tanto di cappello!
Ma essere obbiettivi no vero?
Meglio essere fanboy.:rolleyes:
Parlo da ex-possessore di x1800 xt, che mira alla propria convenienza e non a quella del marchio.
Sul discorso morte o non morte, io sono per la maggiore concorrenza possibile, ovvio che non augurerei mai ad Ati di finire male, ma aihmè sta facendo tutto da sola, con consumi e rumore poi....
a parte che prima di dare del fanboy potresti guardare la firma
come vedi ho appena preso una 8800 gts
e poi guardati questa rece ad esempio non è burundese (o burundiana:ciapet: )
http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=1
come vedi in alcuni test eguaglia la gtx come ho scritto io.
è sotto windows xp dove probabilmente i driver sono un pò più maturi che in vista
giovanbattista
04-06-2007, 17:34
no no mettevano la scritta 2900Xtx is sure
Al posto di sparare a zero, vorrei farvi notare che un modulo GDDR4 a parità di frequenza di un GDDR3 consuma di meno. Quindi è presumibile che i consumi rimangano più o meno invariati
L'altoforno è la GPU non le memorie, chi spinge è la GPU non le memorie, quello che manca a questa scheda e una GPU e/o un dual GPU molto più efficiente, solo in questo caso 1 Gb di memoria possono fare la differenza.
fustacchione90
04-06-2007, 21:52
vabbe dai ragazzi...staremo a vedere....qualcosa in piu andrà...cosi da 10 frame di differenza dalla gtx andrà a 2-3 frame (invisibili ad okkio nudo ;)) e cosi lascierà alle spalle (moooolto allespalle) la gts ca**a... ;)
e che dire..
/\ __ __ !
/ \ | | RULEZZZZZZZZZZ!!!! ;)
Samuele86
05-06-2007, 00:06
mah...piu ke altro...i bench di quel sito...son dei troiai...xchè cavolo..facile fare i bench con quel mostro di computer eh...q6850 li ke robba è...figuriamoci..
morpheus75
05-06-2007, 11:23
vabbe dai ragazzi...staremo a vedere....qualcosa in piu andrà...cosi da 10 frame di differenza dalla gtx andrà a 2-3 frame (invisibili ad okkio nudo ;)) e cosi lascierà alle spalle (moooolto allespalle) la gts ca**a... ;)
e che dire..
/\ __ __ !
/ \ | | RULEZZZZZZZZZZ!!!! ;)
Ti quoto anche se ati ha creato un motore da 600cv (r600) per andare alla velocità di un motore di 200cv (g80)...insomma tra frequenza, stream processor e i 512 bit ... doveva già essere un bel 15/20 % + di una gtx...ed invece :doh:
^Krasty^
05-06-2007, 17:00
Ah xchè il collo di bottiglia sono i nanometri del processo produttivo della GPU?
Al limite avrebbe scaldato meno :asd:
vabbè magari voleva dire che conseguentemente avrebbero potuto alzare il clock della GPU e secondo me manco avrebbero risolto.
E' proprio l' architettura\driver che lascia a desiderare. Sembra come se la Nvidia avesse sviluppato una scheda specifica per i giochi e la Ati una scheda multivalente ma non adattissima agli ambiti ludici.
ma col cad come si comporta? :)
morpheus75
06-06-2007, 08:00
secondo me i colli di bottiglia sono diversi:
1 - Poche pipeline e conseguente basso fillrate del quale risentono sensibilmente gli shader.
2 - I 512 bit di ampiezza, abbinati a 320 stream processor macinano come dimostrato ben 105gb/s nella prima scheda e quasi 130gb/s nella sua evoluzione. Spremere una quantità di dati simile dentro così poche pipe...altro che collo di bottiglia.
3 - 320 stream processor, sempre con le solite pipe ridotte...tutta la mole di dati che deve essere elaborata...chi la elabora.
Non ricordo esattamente quante pipe ha...mi sembra 32, comunque a quanto pare sono troppo poche per quell'ampiezza di BUS (512 bit!!!!!)
Magari sbaglio ma a me sembra che le pipe facciano da limitatore di velocità...voi che ne dite?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.