View Full Version : [THREAD UFFICIALE] Aspettando ATi HD 2900XT
Mi pare strano che però le GDDR3 consumino come le GDDR4... :mbe:
@esticbo:
Già postate. :)
Il ragazzo che ha fatto i test comunque dovrebbe essere cinese. ;)
GDDR4 non dovrebbero, a parità di frequenza, consumare meno??
Questo potrebbe spiegare il consumo uguale, dove il vantaggio energetico delle GDDR4 viene "riempito" aumentando i clock.
Avete notato ke ha collegato i due connettori di alimentazione? :) 220W :cry:
Per l'OC estremo è così, lo avevano già detto. ;)
a guardare la prima foto, ad occhio il pcb mi sembra identico a quello della x1950
sia come dimensione che per la posizione delle memorie e fori di fissaggio per le viti.. speriamo bene, non mi dispiacerebbe affatto :D
scusate ragazzi sicuramente è già stato detto ma col numero impressionante di pag. di questo thread mi è sfuggito :
i due connettori oltre che insieme per OC spinti, sono utilizzabili indifferentemente in maniera alternativa? o il 6 o l'8 pin?
Foglia Morta
06-05-2007, 11:06
scusate ragazzi sicuramente è già stato detto ma col numero impressionante di pag. di questo thread mi è sfuggito :
i due connettori oltre che insieme per OC spinti, sono utilizzabili indifferentemente in maniera alternativa? o il 6 o l'8 pin?
o 2 x 6pin o 1 x 8pin, in teoria si ma non l'ho mai letto da nessuna parte , comunque i watt son quelli quindi imho è la stessa cosa
o 2 x 6pin o 1 x 8pin, in teoria si ma non l'ho mai letto da nessuna parte , comunque i watt son quelli quindi imho è la stessa cosa
chiaro grazie ;)
a guardare la prima foto, ad occhio il pcb mi sembra identico a quello della x1950
sia come dimensione che per la posizione delle memorie e fori di fissaggio per le viti.. speriamo bene, non mi dispiacerebbe affatto :D
perdonatemi l'autoquote
:fagiano: a guardarlo meglio forse i fori delle viti non sono proprio identici...
Secondo voi quanto ci vorrà, dall'uscita di r600, prima che calino i prezzi dell'r520?
per capire se saranno riciclabili i dissipatori/waterblock per la serie x1950 anche sulle nuove schede..
http://www.hwupgrade.it/immagini/R600WC_1.jpg
Mi pare strano che però le GDDR3 consumino come le GDDR4... :mbe:
...già...poi è interessante e allo stesso tempo strano quel TDU GPU differente: 160 e 180 watt. Aggiungiamo 2 watt each memory = imho questa vga non supera i 200 watt.
Avete notato ke ha collegato i due connettori di alimentazione? :) 220W :cry:
...già scritto post fa (pagine fa :D ) che una situazione 2*6 pin + pci-ex permette max 225 watt, quindi considerando un margine di "sicurezza e oscillazione" la vga non dovrebbe superare i 200 watt in full-load.
:)
Secondo voi quanto ci vorrà, dall'uscita di r600, prima che calino i prezzi dell'r520?
Penso poco, spero ancora meno :oink:
kartoshka
06-05-2007, 11:14
HD2600XT non ha i connettori x alimentazione.., come si fa con OC :confused: con vmod immagino, grafite o trimer giusto??
Queste sono nuove foto ke vengono dalla España da un forero nn sotto NDA
http://www.telefonica.net/web2/hitmaker/2900XT1024_03.PNG
Punteggio della CPU a parte gli SM2.0 e gli SM3.0 sono simili a quelli dei bench della mia 8800GTS nonostante il clock della VPU a 750mhz contro i 660 della G80, la ram anchio la tenevo a 1000mhz...
Mi sa che alla GTX non c'arriva allora.
http://img232.imageshack.us/img232/3210/3dm06rd3.jpg
P.:banned:
Mi pare strano che però le GDDR3 consumino come le GDDR4... :mbe:
saranno le frequenze più alte :boh:
Punteggio della CPU a parte gli SM2.0 e gli SM3.0 sono simili a quelli dei bench della mia 8800GTS nonostante il clock della VPU a 750mhz contro i 660 della G80, la ram anchio la tenevo a 1000mhz...
Mi sa che alla GTX non c'arriva allora.
CUT
si, ma quella è una HD2900XT @ default, tu invece hai dovuto overcloccare da 500Mhz @ 660Mhz per ottenere quei risultati ;)
Foglia Morta
06-05-2007, 11:17
Punteggio della CPU a parte gli SM2.0 e gli SM3.0 sono simili a quelli dei bench della mia 8800GTS nonostante il clock della VPU a 750mhz contro i 660 della G80, la ram anchio la tenevo a 1000mhz...
Mi sa che alla GTX non c'arriva allora.
-cut-
P.:banned:
con la differenza che la tua è tirata , la XT è a default e in oc con dissi stock arriva a quasi 900mhz
si, ma quella è una HD2900XT @ default, tu invece hai dovuto overcloccare da 500Mhz @ 660Mhz per ottenere quei risultati ;)
con la differenza che la tua è tirata , la XT è a default e in oc con dissi stock arriva a quasi 900mhz
...e che l'autore dei test ha ammesso di aver usato driver vecchi e di essere in attesa di driver giusti per oggi (o ieri? dipende dove abita...:D )
:)
ps. parcher quando quoti post con immagini grosse, togli l'immagine se no si sfonda il thread. :)
bladerunner86
06-05-2007, 11:21
Mi pare strano che però le GDDR3 consumino come le GDDR4... :mbe:
@esticbo:
Già postate. :)
Il ragazzo che ha fatto i test comunque dovrebbe essere cinese. ;)
potrebbero essere costruite con un processo costruttivo diverso, dopotutto le ddr3 consumano meno delle ddr2
...e che l'autore dei test ha ammesso di aver usato driver vecchi e di essere in attesa di driver giusti per oggi (o ieri? dipende dove abita...:D )
:)
...e che inoltre il G80 ha già 6 mesi di driver sulle spalle ;)
p.s. belin ti ho risposto sul thread dell'elenco delle schede video :)
Foglia Morta
06-05-2007, 11:22
...e che l'autore dei test ha ammesso di aver usato driver vecchi e di essere in attesa di driver giusti per oggi (o ieri? dipende dove abita...:D )
:)
ps. parcher quando quoti post con immagini grosse, togli l'immagine se no si sfonda il thread. :)
sai se con G80 ci sono le stesse feature che hanno permesso a G71 di avvantaggiarsi su R580 con il 3d'06 ?
sai se con G80 ci sono le stesse feature che hanno permesso a G71 di avvantaggiarsi su R580 con il 3d'06 ?
Egli (Y... :D) ti risponderà sicuramente meglio di quanto possa fare io nel mio piccolo. Per adesso vedo un R600 molto interessante in SM 3.0 piuttosto che in SM 2.0...:O
;)
con la differenza che la tua è tirata , la XT è a default e in oc con dissi stock arriva a quasi 900mhz
OK!
Ma le mie aspettative sono altre, ... dopo 6 mesi ?? :Prrr:
kartoshka
06-05-2007, 11:28
Il mio alimentatore da 550w e ha 1 connettore da 8 pin (non se è quello giusto) e 2 da 6 pin, andrà bene in caso se prendo 2900XT
http://www.coolermaster-europe.com/show_pic.php?picname=http://www.coolermaster-europe.com/product_common_images/41f8bfc2b62cdcf670a31189d984fa70.jpg
http://www.coolermaster-europe.com/index.php?LT=italy&Language_s=7&url_place=product&p_serial=RS-550-ACLY.&other_title=+RS-550-ACLY.+Real%20Power%20550W%20SLI
a santa clara c'è anche un laboratorio di ricerca e sviluppo di ATi :D
A Santa Clara c'e' un laboratorio... di tutto! Il sogno di tutti coloro che vorrebbero lavorare in questo campo. ;)
Stavo guardando i bench su nordic e ho trovato qualcosa di interessante! Il tipo dice che:
I found a 06 shot with slightly lower gpu-lock but with the pcie bus 2MHz higher. Whatever card it is it seems to scale strangly well with PCIE freq.
di fatto il punteggio è passato a:
SM2: 5421
HDR: 6009
CPU: 5702
freq: 885/2000 con stock cooler
Il mio alimentatore da 550w e ha 1 connettore da 8 pin (non se è quello giusto) e 2 da 6 pin, andrà bene in caso se prendo 2900XT
http://www.coolermaster-europe.com/show_pic.php?picname=http://www.coolermaster-europe.com/product_common_images/41f8bfc2b62cdcf670a31189d984fa70.jpg
http://www.coolermaster-europe.com/index.php?LT=italy&Language_s=7&url_place=product&p_serial=RS-550-ACLY.&other_title=+RS-550-ACLY.+Real%20Power%20550W%20SLI
si, usi i 2 da 6 pin...
kartoshka
06-05-2007, 11:36
si, usi i 2 da 6 pin...
Scusa allora connettore da 8 pin a cosa serve :confused:
Scusa allora connettore da 8 pin a cosa serve :confused:
mobo :)
te invece che avere 2 da 4 accoppiabili hai il singolo 8pin.
kartoshka
06-05-2007, 11:38
mobo :)
te invece che avere 2 da 4 accoppiabili hai il singolo 8pin.
thx ;)
+Lonewolf+
06-05-2007, 11:39
pensavo una cosa rileggendo le innumerevoli pagine di post(qui si va avanti a 15 al giorno:D)
ma se nvidia con le sue 8800 sta aiutanto le SH allora r600 si troverà svantaggiato su un terreno "poco ottimizzato" per i suoi chip?
nn credo di essere OT cmq se si scusate
pensavo una cosa rileggendo le innumerevoli pagine di post(qui si va avanti a 15 al giorno:D)
ma se nvidia con le sue 8800 sta aiutanto le SH allora r600 si troverà svantaggiato su un terreno "poco ottimizzato" per i suoi chip?
nn credo di essere OT cmq se si scusate
Nvidia non aiuta nessuno... approfitta della lentezza delle SH il che e' ben diverso. ;)
Il fattore "compatibilita' Dx10" al momento e' solo il paliativo chiave che permette all'acquirente di avere una motivazione in piu' e in vista del futuro in quanto necessita'.
+Lonewolf+
06-05-2007, 11:51
Nvidia non aiuta nessuno... approfitta della lentezza delle SH il che e' ben diverso. ;)
Il fattore "compatibilita' Dx10" al momento e' solo il paliativo chiave che permette all'acquirente di avere una motivazione in piu' e in vista del futuro in quanto necessita'.
grazie mi hai tolto un dubbio atroce;)
quindi se ho ben capito è compito delle SH ottimizzare ad egual modo(salvo SH di parte) i loro titoli per entrambe le fazioni
...già...poi è interessante e allo stesso tempo strano quel TDU GPU differente: 160 e 180 watt. Aggiungiamo 2 watt each memory = imho questa vga non supera i 200 watt.
In effetti, calcolando i valori della XT: 160W GPU+ (8x2W) MEM = 176W di TDP :D
Punteggio della CPU a parte gli SM2.0 e gli SM3.0 sono simili a quelli dei bench della mia 8800GTS nonostante il clock della VPU a 750mhz contro i 660 della G80, la ram anchio la tenevo a 1000mhz...
Mi sa che alla GTX non c'arriva allora.
Come avevo postato tempo fa, sembrerebbe che la XT 1GB sia:
- o una versione OEM (secondo quanto riportato da Fudzilla oggi)
- o una versione FireGL (il che spiegherebbe i punteggi alti a Specviewperf)
Comunque rimane il fatto che chi ha postato quegli screenshot ha detto di avere drivers vecchi, e che comunque una GTX @ default fa molto meno di quei punteggi SM2&SM3.
Comunque rimane il fatto che chi ha postato quegli screenshot ha detto di avere drivers vecchi, e che comunque una GTX @ default fa molto meno di quei punteggi SM2&SM3.
Cerco un po in giro.... i risultati della GTX;)
nell'attesa ho trovato su ExtremeSystem voci della Sapphire 2900XT a 357€.... anche se non credo che qui in ITALIA siano cosi' generosi..
P:cool:
grazie mi hai tolto un dubbio atroce;)
quindi se ho ben capito è compito delle SH ottimizzare ad egual modo(salvo SH di parte) i loro titoli per entrambe le fazioni
Certo perche' le SH devono vendere il piu' possibile i propri prodotti e fare SW di parte non significa certo coprire il maggior numero di acquirenti possibile. ;)
Poi ci sono quelli di parte che riescono ugualmente perche' fanno titoli talmente colossali (quando sono tali) da costringere gli stessi acquirenti a passare da una parte o l'altra della barricata. ;)
Cerco un po in giro.... i risultati della GTX;)
nell'attesa ho trovato su ExtremeSystem voci della Sapphire 2900XT a 357€.... anche se non credo che qui in ITALIA siano cosi' generosi..
P:cool:
Dai punteggi che Apple80 ha fatto a stock con la sua BFG, risulta che negli SM2 fanno lo stesso punteggio circa (però ricorda i drivers vecchi e/o beta) e che ci sono invece 500 punti di differenza nello SM3. ;)
Più che altro bisognerebbe capire quanto influiscano in questo i clocks delle memorie più alti di quelli della GDDR3 512 (che dovrebbero essere 828MHz vs i 1000MHz della 1GB). Io penso non eccessivamente, visto che comunque la banda della XT è già abbondante.
Poi ci sono quelli di parte che riescono ugualmente perche' fanno titoli talmente colossali (quando sono tali) da costringere gli stessi acquirenti a passare da una parte o l'altra della barricata. ;)
Doom 3 e Half Life 2 docet :mc:
Free Gordon
06-05-2007, 12:30
"hi there the mounting holes accordingly are the same as on the x1900 cards so it should be fine its only the full cover waterblocks which cover the ram etc which may be a problem with these new cards as the pcb is different but the maze 4 which just covers the core should be fine"
C'è la conferma che i buchi son gli stessi della serie X1x00.
Niente cambio di staffa quindi, per chi ha già un R5x0 a liquido. :D
"hi there the mounting holes accordingly are the same as on the x1900 cards so it should be fine its only the full cover waterblocks which cover the ram etc which may be a problem with these new cards as the pcb is different but the maze 4 which just covers the core should be fine"
C'è la conferma che i buchi son gli stessi della serie X1x00.
Niente cambio di staffa quindi, per chi ha già un R5x0 a liquido. :D
ottima notizia :)
bladerunner86
06-05-2007, 12:32
In effetti, calcolando i valori della XT: 160W GPU+ (8x2W) MEM = 176W di TDP :D
Come avevo postato tempo fa, sembrerebbe che la XT 1GB sia:
- o una versione OEM (secondo quanto riportato da Fudzilla oggi)
- o una versione FireGL (il che spiegherebbe i punteggi alti a Specviewperf)
Comunque rimane il fatto che chi ha postato quegli screenshot ha detto di avere drivers vecchi, e che comunque una GTX @ default fa molto meno di quei punteggi SM2&SM3.
nuovi i driver aumentano la compatibilità delle schede con i vecchi giochi, o al massimo, possono aumentare le prestazioni di pochissimo abilitando delle features nuove ma di certo non possiamo aspettarci un grande migliorameto.
Free Gordon
06-05-2007, 12:33
Con la serie x800 non direi proprio, nv40 era un chio più evoluto c'è poco da fare.
L'avevo scritto nel post precedente.
R400 era un chip "quasi" SM4. :D Poi uscì R420 perchè i tempi non erano ancora maturi per un chip a shader unificati, oltre ad esserci probabilmente altre problematiche di carattere tecnico.
Ecco perchè ATI se ne uscì con un upgrade di R300, nell'attesa di tempi migliori.
ps. nel caso non lo sapessi, è la serie R5x0 ad essere un derivato dei chip SM4, non il contrario. :D
nuovi i driver aumentano la compatibilità delle schede con i vecchi giochi, o al massimo, possono aumentare le prestazioni di pochissimo abilitando delle features nuove ma di certo non possiamo aspettarci un grande migliorameto.
Beh, a riprova del fatto che i benchmarks lasciano il tempo che trovano, in realtà le performances al 3DMark variano (e in certi casi pure parecchio) tra una release di drivers e l'altra. A tutto ciò devi comunque aggiungere che comunque se fai andare una scheda con dei drivers che non la supportano ancora rischi di ottenere performances ridotte (anche nel gioco reale). ;)
bladerunner86
06-05-2007, 12:51
Beh, a riprova del fatto che i benchmarks lasciano il tempo che trovano, in realtà le performances al 3DMark variano (e in certi casi pure parecchio) tra una release di drivers e l'altra. A tutto ciò devi comunque aggiungere che comunque se fai andare una scheda con dei drivers che non la supportano ancora rischi di ottenere performances ridotte (anche nel gioco reale). ;)
se i benchmark sono obsoleti o non compatibili ci saremmo dovuti aspettare o valori bassisimi o addiritura il non avvio dei bench.
(liberi di contraddirmi)
se i benchmark sono obsoleti o non compatibili ci saremmo dovuti aspettare o valori bassisimi o addiritura il non avvio dei bench.
(liberi di contraddirmi)
Se vai nel thread originale di quelle immagini ( questo (http://www.xtremesystems.org/forums/showthread.php?t=143104) ), noterai che all'inizio non riusciva nemmeno a far partire i 3DMark a causa dei drivers, infatti. Ci è riuscito solo col "trucchetto" del -nosysteminfo. ;)
leoneazzurro
06-05-2007, 13:02
nuovi i driver aumentano la compatibilità delle schede con i vecchi giochi, o al massimo, possono aumentare le prestazioni di pochissimo abilitando delle features nuove ma di certo non possiamo aspettarci un grande migliorameto.
Poteva essere così una volta. Al contrario oggi i drivers e i compilatori (oltre che ovviamente il software) sono importantissimi, perchè la complessità delle GPU è tale che per sfruttare al massimo le prestazioni occorre tantissimo lavoro.
Ti faccio un esempio per il codice degli shader: lavorando semplicemente su istruzioni di tipo MUL (moltiplicazione) R600 automaticamente perderebbe il 50% della sua capacità di calcolo, G80 in teoria solo il 33% (anche se come abbiamo visto l'unità MUL aggiuntiva), mentre nel caso di sole istruzioni ADD (addizione) R600 perderebbe sempre il 50% della potenza di calcolo, ma G80 ne perderebbe il 66%. Questo andando a ragionare SOLO sulle unità di esecuzione. Ma oltre a queste esistono considerazioni da fare sullo scheduling dell istruzioni, sulle capacità di gestire il branching, sulla gestione delle unità di texturing, sulle cache, ecc. ecc. che possono farti capire che realizzare un driver che sfrutti appieno tutte le capacità di una GPU è un lavoro molto complesso.
Anche per G80, IMHO, il lavoro di ottimizzazione non è certo concluso nonostante la scheda sia uscita dal Novembre scorso.
Poteva essere così una volta. Al contrario oggi i drivers e i compilatori (oltre che ovviamente il software) sono importantissimi, perchè la complessità delle GPU è tale che per sfruttare al massimo le prestazioni occorre tantissimo lavoro.
Ti faccio un esempio per il codice degli shader: lavorando semplicemente su istruzioni di tipo MUL (moltiplicazione) R600 automaticamente perderebbe il 50% della sua capacità di calcolo, G80 in teoria solo il 33% (anche se come abbiamo visto l'unità MUL aggiuntiva), mentre nel caso di sole istruzioni ADD (addizione) R600 perderebbe sempre il 50% della potenza di calcolo, ma G80 ne perderebbe il 66%. Questo andando a ragionare SOLO sulle unità di esecuzione. Ma oltre a queste esistono considerazioni da fare sullo scheduling dell istruzioni, sulle capacità di gestire il branching, sulla gestione delle unità di texturing, sulle cache, ecc. ecc. che possono farti capire che realizzare un driver che sfrutti appieno tutte le capacità di una GPU è un lavoro molto complesso.
Anche per G80, IMHO, il lavoro di ottimizzazione non è certo concluso nonostante la scheda sia uscita dal Novembre scorso.
Soprattutto perche' gli sviluppatori a seconda delle proprie capacita' e scelte danno duro lavoro ad entrambe le case quando nuovi titoli presentano nuove difficolta' per ciascuna scheda video da tamponare con ottimizzazioni e cheating vari. ;)
E questo lavoro e' solo possibile via drivers quando va bene. E quando piu' di un tot non si riesce si vedono chicche memorabili alla "Quack3D" (per chi si ricorda).
Poteva essere così una volta. Al contrario oggi i drivers e i compilatori (oltre che ovviamente il software) sono importantissimi, perchè la complessità delle GPU è tale che per sfruttare al massimo le prestazioni occorre tantissimo lavoro.
Ti faccio un esempio per il codice degli shader: lavorando semplicemente su istruzioni di tipo MUL (moltiplicazione) R600 automaticamente perderebbe il 50% della sua capacità di calcolo, G80 in teoria solo il 33% (anche se come abbiamo visto l'unità MUL aggiuntiva), mentre nel caso di sole istruzioni ADD (addizione) R600 perderebbe sempre il 50% della potenza di calcolo, ma G80 ne perderebbe il 66%. Questo andando a ragionare SOLO sulle unità di esecuzione. Ma oltre a queste esistono considerazioni da fare sullo scheduling dell istruzioni, sulle capacità di gestire il branching, sulla gestione delle unità di texturing, sulle cache, ecc. ecc. che possono farti capire che realizzare un driver che sfrutti appieno tutte le capacità di una GPU è un lavoro molto complesso.
Anche per G80, IMHO, il lavoro di ottimizzazione non è certo concluso nonostante la scheda sia uscita dal Novembre scorso.
molti rumors sostenevano che R600 fosse pronto da mesi ma per scelta strategica viene presentato solo in questo mese...ma se la scelta strategica in realtà fosse dovuta a problemi nel realizzare driver "decenti" per R600? se non erro anche yoss sosteneva la difficoltà di realizzare driver per queste nuove architetture (g80\R600).....
bladerunner86
06-05-2007, 13:12
secondo voi i driver usciranno anche loro il 14 maggio? o dovremo ancora aspettare?
secondo voi i driver usciranno anche loro il 14 maggio? o dovremo ancora aspettare?
ehm...presentano la scheda senza i driver? :stordita:
non credo proprio :D
magari ci saranno dal giorno prima :boh:
Free Gordon
06-05-2007, 13:22
come fai a fare simili deduzioni semplicemente basandoti su uno schema a blocchi di un chip?
Perchè generalmente penso sempre il contrario di ciò che vorrei in realtà accadesse... :asd:
gianni1879
06-05-2007, 13:25
ehm...presentano la scheda senza i driver? :stordita:
non credo proprio :D
magari ci saranno dal giorno prima :boh:
penso di si, infatti di solito i cat si attendono a metà mese ;) ad aprile sono usciti a tempi record :)
"hi there the mounting holes accordingly are the same as on the x1900 cards so it should be fine its only the full cover waterblocks which cover the ram etc which may be a problem with these new cards as the pcb is different but the maze 4 which just covers the core should be fine"
C'è la conferma che i buchi son gli stessi della serie X1x00.
Niente cambio di staffa quindi, per chi ha già un R5x0 a liquido. :D
Ad occhio si vedeva gia,cmq ottima notizia! a sto giro lo cestino immediatamente il "reattore" :sofico:
appleroof
06-05-2007, 13:42
Perchè generalmente penso sempre il contrario di ciò che vorrei in realtà accadesse... :asd:
Chiedi ai possessori o guardati le rece, in questo caso fai sicuramente prima....:asd: :asd:
secondo voi i driver usciranno anche loro il 14 maggio? o dovremo ancora aspettare?
Ci saranno da subito ovviamente,per quelli un po' piu performanti ci vorra' la release successiva (come con le 1800)
DakmorNoland
06-05-2007, 13:49
ehm...presentano la scheda senza i driver? :stordita:
non credo proprio :D
magari ci saranno dal giorno prima :boh:
Sì cmq secondo me la prima release dei cata con supporto per le 2900XT farà schifo, com'è nella tradizione di tutte le schede video ATI. Ci vorrà qualche mese perchè vengano ottimizzate al meglio le prestazioni con le nuove arrivate mi sa.
D'altronde anche Nvidia come driver al debutto delle 8800 non è che abbia brillato! :p
"hi there the mounting holes accordingly are the same as on the x1900 cards so it should be fine its only the full cover waterblocks which cover the ram etc which may be a problem with these new cards as the pcb is different but the maze 4 which just covers the core should be fine"
C'è la conferma che i buchi son gli stessi della serie X1x00.
Niente cambio di staffa quindi, per chi ha già un R5x0 a liquido. :D
:asd: ottimo
grazie per la conferma
Free Gordon
06-05-2007, 13:54
Chiedi ai possessori o guardati le rece, in questo caso fai sicuramente prima....:asd: :asd:
Ma R600 non è ancora fuori.. :p
Sì cmq secondo me la prima release dei cata con supporto per le 2900XT farà schifo, com'è nella tradizione di tutte le schede video ATI. Ci vorrà qualche mese perchè vengano ottimizzate al meglio le prestazioni con le nuove arrivate mi sa.
MAH! dissento totalmente da questa affermazione!
IMHO ATI è sempre partita da ottime basi per poi migliorare anche parecchio,ma mai come hai detto te.
DakmorNoland
06-05-2007, 14:07
MAH! dissento totalmente da questa affermazione!
IMHO ATI è sempre partita da ottime basi per poi migliorare anche parecchio,ma mai come hai detto te.
Non dico che non siano driver buoni, però poi dopo tre mesi vedi che escono dei catalyst che migliorano nettamente le prestazioni!
Infatti sia per ATI che per Nvidia i test andrebbero rifatti dopo qualche mese, perchè le cose migliorano nettamente dopo qualche release di driver dall'uscita.
TecnoWorld8
06-05-2007, 14:12
la mia paura è che per R600 inizino a fare driver concentrandosi soprattutto sulle versioni per Vista, lasciando un po' da parte quelle per XP, sistema operativo che vorrei continuare ad usare finchè non sia proprio necessario cambiare (vedi uscita titoli DX10)
Reverbero
06-05-2007, 14:41
Sono in procinto di accquistare una nuova vga, sapete se uscirà da Ati una scheda che farà concorrenza come pezzo/prestazioni alla 8800 gts 320?
L'avevo scritto nel post precedente.
R400 era un chip "quasi" SM4. :D Poi uscì R420 perchè i tempi non erano ancora maturi per un chip a shader unificati, oltre ad esserci probabilmente altre problematiche di carattere tecnico.
Ecco perchè ATI se ne uscì con un upgrade di R300, nell'attesa di tempi migliori.
ps. nel caso non lo sapessi, è la serie R5x0 ad essere un derivato dei chip SM4, non il contrario. :D
Non centra nulla quello che "avrebbe potuto" far uscire ma quello che esce, la carta centra poco o nulla al fine ludico, con x800 scelse la via conservativa.
Sono in procinto di accquistare una nuova vga, sapete se uscirà da Ati una scheda che farà concorrenza come pezzo/prestazioni alla 8800 gts 320?
Ovvio che ci sarà, non lasceranno scoperte le fasce di mercato dove vendono di più. Si tratta come al solito di aspettare, ancora nessuno sa cos'ha in mente di fare ATi. Nemmeno le testate che recensiscono i prodotti.
Mi spiego meglio.
L'anno scorso (o forse un paio d'anni fa) sono uscite delle schede di fascia medio-bassa che non avevano un rapporto prezzo/prestazioni valido come quello di nVidia. Sono state sostituite con altre migliori nel giro di due-tre mesi.
Quindi il consiglio è sempre quello: acquistare solo quando si ha necessità, senza stare ad aspettare, altrimenti non si acquista mai nulla.
ale0bello0pr
06-05-2007, 15:27
"hi there the mounting holes accordingly are the same as on the x1900 cards so it should be fine its only the full cover waterblocks which cover the ram etc which may be a problem with these new cards as the pcb is different but the maze 4 which just covers the core should be fine"
C'è la conferma che i buchi son gli stessi della serie X1x00.
Niente cambio di staffa quindi, per chi ha già un R5x0 a liquido. :D
ottimissima notizia...
Can a person use their existing GPU WB? Lets say a Maze4??
shim around the GPU is little bit higher than GPU so you might have to remove it when using your own cooling solution..
WC 4 ever :cool:
Altre notizie ( :asd: ) da Fudzilla
The power of R600
ATI has a new driver for R600, Radeon HD 2900XT cards. It is called 8.374 and it is suppose to speed up the Radeon HD 2900 XT cards for up to five percent.
With this driver the card will finally become a bit more competitive but it will still lose in any scenario versus Geforce 8800 Ultra. ATI knows it but it can not do anything about it.
Well at least it will get a bit more faster and will help ATI win over the GTX in at least two games, Splinter Cell with 1600x1200 4X Anti aliasing +16X Anti aliasing or higher and Need for speed Carbon at this resolution or higher.
Come al solito permettetemi un sonoro "e grazie al ca..." http://www.xtremesystems.org/forums/images/smilies/slap.gif :asd:
ale0bello0pr
06-05-2007, 15:43
Altre notizie ( :asd: ) da Fudzilla
Come al solito permettetemi un sonoro "e grazie al ca..." http://www.xtremesystems.org/forums/images/smilies/slap.gif :asd:
raga non postiamo piu' le notizie di Fakezilla xkè le fanno con il :ciapet:
raga non postiamo piu' le notizie di Fakezilla xkè le fanno con il :ciapet:
In realtà l'ho postata perchè iniziano a ritrattare pure sulle prestazioni... Potrebbe essere un buon segno... :asd:
ale0bello0pr
06-05-2007, 15:52
In realtà l'ho postata perchè iniziano a ritrattare pure sulle prestazioni... Potrebbe essere un buon segno... :asd:
ovviamente possono anche essere PRO nVidia e ANTI AMD ma quando la verita' pian piano inizia a venire a galla da altri siti e forum...cercano di evitare di rendersi palesemente falsi:D
e poi ci troveremo un articolo tipo....
"Daaaammmmnn....this fu**ing VGA is better than last nVidia VGA extreme segment..":asd:
TecnoWorld8
06-05-2007, 16:01
per evitare delusioni, non mi illudo che questa scheda, costando circa 400 euro, vada più di una GTX sempre e cmq, ma probabilmente sarà il miglior acquisto come rapporto prestazioni/prezzo.
un vero peccato solo per i consumi. eh, fosse stata a 65nm.......
halduemilauno
06-05-2007, 16:04
http://img440.imageshack.us/img440/2783/06b3daa9rv4.jpg
TecnoWorld8
06-05-2007, 16:07
cavolo, un overclock notevole...e una CPU da urlo :)
Stavo guardando i bench su nordic e ho trovato qualcosa di interessante! Il tipo dice che:
I found a 06 shot with slightly lower gpu-lock but with the pcie bus 2MHz higher. Whatever card it is it seems to scale strangly well with PCIE freq.
di fatto il punteggio è passato a:
SM2: 5421
HDR: 6009
CPU: 5702
freq: 885/2000 con stock cooler
mi autoquoto
TecnoWorld8
06-05-2007, 16:13
da dove si scarica il 3dmark calculator? vorrei vedere cn quei punteggi cosa verrebbe fuori dalla mia cpu
da dove si scarica il 3dmark calculator? vorrei vedere cn quei punteggi cosa verrebbe fuori dalla mia cpu
http://mekk.homeip.net/3DMark2006Calc1.1.zip ;)
TecnoWorld8
06-05-2007, 16:22
gracias!
TecnoWorld8
06-05-2007, 16:27
considerando che con una CPU meno potente si abbassano leggermente anche SM2.0 ed SM3.0, dovrei fare attorno agli 11500/12000 punti con la CPU in sign
ale0bello0pr
06-05-2007, 16:34
http://img440.imageshack.us/img440/2783/06b3daa9rv4.jpg
non può ke essere lei :winner:
non può ke essere lei :winner:
Già, le 8800 non arrivano di sicuro oltre 850 di core sotto stock cooling
TecnoWorld8
06-05-2007, 16:42
interessanti anche i 2000 delle memorie, considerando il bus a 512bit, quella frequenza fornisce una banda paurosa...
ripeto, per meno di 400 euro, potrebbe essere davvero una grande scheda come rapporto prestazioni/prezzo, anche se penso che verso settembre nVidia se ne uscirà con la 8900 che farà almeno 15000 punti, nelle stesse condizioni (ma costerà molto di più chiaramente)
Già, le 8800 non arrivano di sicuro oltre 850 di core sotto stock cooling
con stock ho visto massimo 690
poi è simile all'altro punteggio ;)
si, ma quello che rode è il fatto che, a quanto si legge in giro, entro settembre uscira la nuova scheda a 65 nanometri che scaldera e consumera di meno e allo stesso tempo dovrebbe avere freq piu alte..
quindi si prospetta lo stesso giochetto che ati ha fatto con le 1800 e 2 mesi dopo le 1900...
loperloper
06-05-2007, 16:49
ma sul serio voi date retta a sti bench?Cioè con scritto solo sopra 885/2000 dando per scontato che siano veramente reali??cioè ancora ancora(e ne sarei stato comunque dubbioso) se c era uno screen con le specifiche della scheda...
TecnoWorld8
06-05-2007, 16:50
stig, certo non è da escludere, ma se devo sceglere preferisco questa ora a 400 piuttosto che l'altra magari a 600 euro...pagando questa 400, non mi sento obbligato a tenerla per anni, mentre se spendessi 600, vorrei farla durare almeno un paio...
cmq con i ritardi accumulati da ati, secondo me quella a 65nm uscirà verso ottobre/novembre
non può ke essere lei :winner:
Questo sarebbe il bench della 2900xt da 1gb?siamo sicuri?:D
stig, certo non è da escludere, ma se devo sceglere preferisco questa ora a 400 piuttosto che l'altra magari a 600 euro...pagando questa 400, non mi sento obbligato a tenerla per anni, mentre se spendessi 600, vorrei farla durare almeno un paio...
cmq con i ritardi accumulati da ati, secondo me quella a 65nm uscirà verso ottobre/novembre
beh..chi ti dice che il prezzo sara piu di 400 euro, scusa..?
anzi, io sapevo che con il processo produttivo inferiore si potessero anche abbassare i costi, sbaglio...?:confused:
mi ricordo, per esempio, che quando usci la 7900gt andava meglio della 7800gt e costava di meno..:)
TecnoWorld8
06-05-2007, 17:00
ciò che volevo dire io è che probabilmente quella a 65nm sarà inizialmente solo la XTX, che si posizionerà sopra questa, non la sostituirà...
poi tutto è possibile, ma far durare una scheda solo 3/4 mesi e poi sostituirla mi pare davvero pazzesco. persino x1800xt è durata di più ;)
ma sul serio voi date retta a sti bench?Cioè con scritto solo sopra 885/2000 dando per scontato che siano veramente reali??cioè ancora ancora(e ne sarei stato comunque dubbioso) se c era uno screen con le specifiche della scheda...
Forse non sai di chi stai parlando... :asd: Kinc è uno dei massimi guru mondiali dell'overclocking. :O
Ed il fatto che lui stesso sia stato a postare le immagini comunque da' ai test una credibilità sicuramente molto maggiore della maggior parte delle notizie che si sono viste finora. D'altro canto il fatto che sia lui che W1zzard (altro nome importante dell'OC estremo) e Sampsa Kurri (che era uno degli invitati di Tunisi) abbiano confermato che il core di R600 con raffreddamento non stock (ma non ad azoto) riesce a superare senza grossi problemi i 1000MHz, rende possibilissimo gli 885MHz con dissi stock.
ale0bello0pr
06-05-2007, 17:28
ma sul serio voi date retta a sti bench?Cioè con scritto solo sopra 885/2000 dando per scontato che siano veramente reali??cioè ancora ancora(e ne sarei stato comunque dubbioso) se c era uno screen con le specifiche della scheda...
infatti avrebbe rotto l'NDA se avesse fatto vedere il nome della scheda in questione...x questo... K1nc :D
beh..chi ti dice che il prezzo sara piu di 400 euro, scusa..?
anzi, io sapevo che con il processo produttivo inferiore si potessero anche abbassare i costi, sbaglio...?:confused:
mi ricordo, per esempio, che quando usci la 7900gt andava meglio della 7800gt e costava di meno..:)
Il problema è sempre il solito: rischi di entrare in un loop dal quale non esci più... Magari 6 mesi dopo R650 uscirà R700... :D Se la scheda serve in quel momento e la R600 sarà valida, comunque comprarla non sarà un cattivo affare. ;)
loperloper
06-05-2007, 17:30
aaaa...ok....allora come non detto :D
ale0bello0pr
06-05-2007, 17:30
Almeno siamo arrivati cmq ad un traguardo importante DX10.... adesso prima di sbloccare ulteriori nuove potenzialita', nuove architetture etc...si dovrà passare a DX11...quindi ci vorranno un pò di anni ;)
nuova fotina
http://www.xtremesystems.org/forums/attachment.php?attachmentid=58598&stc=1&d=1178466420
Il problema è sempre il solito: rischi di entrare in un loop dal quale non esci più... Magari 6 mesi dopo R650 uscirà R700... :D Se la scheda serve in quel momento e la R600 sarà valida, comunque comprarla non sarà un cattivo affare. ;)
si..lo so il problema del loop..:asd:
ma qui c'è il rischio veramente di un tempo di 2 massimo 3 mesi prima di una ipotetica r650..(sempre secondo i vari rumors)...
per quello ci andei cauto a comprare la 2900 subito al lancio..
gianni1879
06-05-2007, 18:18
si, ma quello che rode è il fatto che, a quanto si legge in giro, entro settembre uscira la nuova scheda a 65 nanometri che scaldera e consumera di meno e allo stesso tempo dovrebbe avere freq piu alte..
quindi si prospetta lo stesso giochetto che ati ha fatto con le 1800 e 2 mesi dopo le 1900...
se sono a settembre le nuove non sono 2 mesi ma il doppio, e direi che un refresh a 65nm dopo questo tempo sia del tutto normale, poi credo si tratti della presunta XTX (che probabile affiencherà la hd2900xt) con core più spinto e se non fosse a 65nm sarebbe un pò troppo il consumo
Iantikas
06-05-2007, 18:22
forse così come poki mesi dopo la x1800 fece uscire le x1900 cosi ora dopo la hd2900 farà uscire le nuove (hd2950...?) a 65nm e con probabilmente altre migliorie...
...il problema dal mio punto di vista è...quando uscirono le x1800xt riuscì ad aspettare e presi la x1900xtx e son tuttora soddisfatto dell'aquisto (soddisfazione ke una x1800xt nn credo avrebbe potuto darmi)...questa volta ce la farò ad aspettare? oppure, anke senza aspettare, nel tempo rimarrò cmq soddisfatto di aver aquistato una hd2900xt?...
...boh :stordita: ...razionalmente cmq a ki nn ha fretta/necessità di aquistare ora converrebbe tirare avanti ancora un pò con la skeda in proprio posseso e attendere l'uscita di titoli DX10 (ke magari corrisponderà alla nuova ondata di GPU DX10) x poi avere basi migliori su cui basare la propria decisioni...ma appunto bisognerebbe usare la ragione...son momenti difficili :D ...ciao
bladerunner86
06-05-2007, 18:25
ma ora a 8 giorni dal lancio queste schede dove sono? non dovrebbero essere già nei magazzini o nei negozi pronte per essere esposte e vendute? non possono essere ancora in fabbrica.
IL 14 ci sarà presentazione e messa in commercio, prima niente ;)
Skullcrusher
06-05-2007, 18:43
cavolo, un overclock notevole...e una CPU da urlo :)
Già, il processore in quel caso dà davvero una marcia in più!
bladerunner86
06-05-2007, 18:56
ho fatto 2 conti. ditemi se sbaglio, usando il programma 3dmark06 per calcolare i punteggi e ho visto che una BVF 8800GTX 768MB overclockata alla frequenza 660/2100 e con un intel e6600@3709 dà come punteggi SM2.0:5523
SM3.0:5602
Mentre una 2900xt a 885/2000 con unQx6700@3784 dà SM2.0:5421
SM3.0:6009
cosa significa? che una 2900xt overclockata è superiore a una 8800 gtx anch' essa overclockata???
ma ora a 8 giorni dal lancio queste schede dove sono? non dovrebbero essere già nei magazzini o nei negozi pronte per essere esposte e vendute? non possono essere ancora in fabbrica.
sono già nei magazzini, nei negozi dovrebbero arrivare il 12 o il 13 credo
Poliphilo
06-05-2007, 19:03
:D :D :D
webbuffa
06-05-2007, 19:15
sono già nei magazzini, nei negozi dovrebbero arrivare il 12 o il 13 credo
Alla grande allora :cool:
:D :D :D
Si, dicci.... :cry:
Un po' di foto da un sito turco. Ci sarebbero anche le info tecniche definitive, ma non credo che in molti sul forum capiscano il turco :sofico: (me compreso :fagiano: ). Per errore vengono riportati 128 unified shaders, le altre info dovrebbero essere corrette.
http://www.fx57.net/?p=637
http://img457.imageshack.us/img457/1309/1177811939vh9.jpg
http://img457.imageshack.us/img457/4038/1177811961hw3.jpg
http://img457.imageshack.us/img457/8964/1177812035cr6.jpg
http://img457.imageshack.us/img457/729/1177811988np0.jpg
http://img457.imageshack.us/img457/6476/1177812060sd7.jpg
http://img457.imageshack.us/img457/1719/1177812078ix0.jpg
Un po' di rumors sui prezzi...
In Francia la Powercolor HD2900 XT è in pre-ordine in offerta a 390€.
http://www.topachat.com/pages/detail2_cat_est_micro_puis_rubrique_est_wgfx_pcie_puis_ref_est_inm526.html
I commenti di Kombatant (alias Panagiotis Vagiakos, Technical PR Manager di AMD per la zona EMEA) sui prezzi della HD2900 XT:
Originally Posted by Kombatant
Due to taxation, prices here in Europe end up at a 1-to-1 ratio between the Euro and the USD. So you shouldn't compare like that. From what I hear, the card will end up lower than 399 Euros/USD when it launches, I even heard prices like 359 euros in some European countries upon launch.
TecnoWorld8
06-05-2007, 19:34
sicuramente l'Italia non farà parte di quelle "some European countries", dato che il nostro sfigatissimo paese è sempre tra i più bersagliati d'Europa come prezzi dell'hw
Foglia Morta
06-05-2007, 19:35
ok :p
riguardando le ultime foto postate da A.L.M. mi sa che mi ero sbagliato :fagiano:
questo penso sia il dissi stock... non pensavo perchè mi sembrava troppo piccolo
http://resources.vr-zone.com.sg/Shamino/news/cooledr6001.jpg
gianni1879
06-05-2007, 19:35
:D :D :D
??? buone notizie??? :)
TecnoWorld8
06-05-2007, 19:38
spero molto nella sapphire con dissipatore alternativo...mi pare molto più bello
riguardando le ultime foto postate da A.L.M. mi sa che mi ero sbagliato :fagiano:
questo penso sia il dissi stock... non pensavo perchè mi sembrava troppo piccolo
http://resources.vr-zone.com.sg/Shamino/news/cooledr6001.jpg
si , dall'ultimo link ad fx57 mi ero reso conto anche io che il secondo dissi delle foto postate è quello stock :p
ale0bello0pr
06-05-2007, 19:41
CPU都是400X9
2900XT: 05 21554 06 12291*sOl(p5yDM
8800GTX: 05 19909 06 11915+\H ?Z!Z*dl
i!]pX:@ p区别是,跑8800GTX的是X6800,CPU得分3250,跑2900XT的是E6600,CPU得分3155
8800GTX请参考这贴
A8x
8800GTX驱动为158.22,2900XT驱动为8.37.4...
*b@Y|He#k] q2900XT就不说了...
:ops: :ops: :ops: :ops:
spero molto nella sapphire con dissipatore alternativo...mi pare molto più bello
Si, in effetti è più bello, ma in ogni caso la prima cosa che farei nel caso l'avessi sarebbe togliere l'orrendo cartoncino che copre il dissi, magari sostituendolo con uno di plexi su misura.
CPU都是400X9
2900XT: 05 21554 06 12291*sOl(p5yDM
8800GTX: 05 19909 06 11915+\H ?Z!Z*dl
i!]pX:@ p区别是,跑8800GTX的是X6800,CPU得分3250,跑2900XT的是E6600,CPU得分3155
8800GTX请参考这贴
A8x
*b@Y|He#k] q2900XT就不说了...
L'unica cosa che ho capito:
8800GTX: 3dmerd05= 19909; 3dmerd06=11915
2900HD: 3dmerd05= 21554; 3dmerd06=12291
TecnoWorld8
06-05-2007, 19:45
mi pare anche di capire che siano su CPU diverse...
mi pare anche di capire che siano su CPU diverse...
Si, a favore della HD2900 (nel senso che ha un procio meno potente)
loperloper
06-05-2007, 19:48
L'unica cosa che ho capito:
8800GTX: 3dmerd05= 19909; 3dmerd06=11915
2900HD: 3dmerd05= 21554; 3dmerd06=12291
sembra che la 2900xt batte tranquillamente la 8800 gtx...???
bladerunner86
06-05-2007, 19:52
CPU都是400X9
2900XT: 05 21554 06 12291*sOl(p5yDM
8800GTX: 05 19909 06 11915+\H ?Z!Z*dl
i!]pX:@ p区别是,跑8800GTX的是X6800,CPU得分3250,跑2900XT的是E6600,CPU得分3155
8800GTX请参考这贴
A8x
*b@Y|He#k] q2900XT就不说了...
:ops: :ops: :ops: :ops:
il 8800 gtx con un cpu x6800@3250
la 2900xt con una cpu e6600@3155
vero???????????????????????????????
CPU都是400X9
2900XT: 05 21554 06 12291*sOl(p5yDM
8800GTX: 05 19909 06 11915+\H ?Z!Z*dl
i!]pX:@ p区别是,跑8800GTX的是X6800,CPU得分3250,跑2900XT的是E6600,CPU得分3155
8800GTX请参考这贴
A8x
*b@Y|He#k] q2900XT就不说了...
:ops: :ops: :ops: :ops:
CPU: 400X9 2900XT are : 05 21554 06 12291*sOl
(p5yDM 8800GTX : 05 19909 06 11915+\H ?Z!Z*dl i!]pX:p
distinction, 8800GTX running the X6800, CPU score of 3250.
Running 2900XT is E6600. CPU scores 3155
8800GTX please refer affixed A8x *b@Y|He#k] q2900X T not say ...
con un traduttore é + facile
CPU都是400X9
2900XT: 05 21554 06 12291*sOl(p5yDM
8800GTX: 05 19909 06 11915+\H ?Z!Z*dl
i!]pX:@ p区别是,跑8800GTX的是X6800,CPU得分3250,跑2900XT的是E6600,CPU得分3155
8800GTX请参考这贴
A8x
*b@Y|He#k] q2900XT就不说了...
:ops: :ops: :ops: :ops:
L'ho visto anch'io su we.pcinlife.com...
Facendo 2 conti entrambe le cpu sono occate, così come le schede. Un confronto del genere può voler dire tutto e niente. ;)
ale0bello0pr
06-05-2007, 19:55
CPU: 400X9 2900XT are : 05 21554 06 12291*sOl
(p5yDM 8800GTX : 05 19909 06 11915+\H ?Z!Z*dl i!]pX:p
distinction, 8800GTX running the X6800, CPU score of 3250.
Running 2900XT is E6600. CPU scores 3155
8800GTX please refer affixed A8x *b@Y|He#k] q2900X T not say ...
con un traduttore é + facile
doveva essere un "puzzle"....
bladerunner86
06-05-2007, 19:55
se fosse vero la 8800gtx è inferiore alla 2900xt!!!!!:oink: :oink: :oink: :oink: :oink: :sperem: :sperem: :sperem: :sperem:
ma come...il giorno prima la 2900XT si scontra con la GTS
oggi supera la GTX
scusatemi ma io inizio a non capirci più un cazzo :asd:
ale0bello0pr
06-05-2007, 19:57
L'ho visto anch'io su we.pcinlife.com...
Facendo 2 conti entrambe le cpu sono occate, così come le schede. Un confronto del genere può voler dire tutto e niente. ;)
IMHO se nn sn miope : TUTTO:D
Kharonte85
06-05-2007, 19:57
CPU都是400X9
2900XT: 05 21554 06 12291*sOl(p5yDM
8800GTX: 05 19909 06 11915+\H ?Z!Z*dl
i!]pX:@ p区别是,跑8800GTX的是X6800,CPU得分3250,跑2900XT的是E6600,CPU得分3155
8800GTX请参考这贴
A8x
8800GTX驱动为158.22,2900XT驱动为8.37.4...
*b@Y|He#k] q2900XT就不说了...
:ops: :ops: :ops: :ops:
Bellissimo...:asd:
Te lo quoto cosi' non puoi piu' editare :Perfido: :D
Poi se non son veri -----> http://www.mmorpgitalia.it/forum/images/smilies/bastone.gif
MonsterMash
06-05-2007, 19:57
CPU: 400X9 2900XT are : 05 21554 06 12291*sOl
(p5yDM 8800GTX : 05 19909 06 11915+\H ?Z!Z*dl i!]pX:p
distinction, 8800GTX running the X6800, CPU score of 3250.
Running 2900XT is E6600. CPU scores 3155
8800GTX please refer affixed A8x *b@Y|He#k] q2900X T not say ...
con un traduttore é + facile
Se è vero, allora prevedo tempi d'oro per ati :)
Con quella scheda e il mio raffreddamento a liquido, se l'alimentatore regge, potrei spingerla sotto i 1000 mhz (e arrivare intorno ai 13000 punti al 3dmark06!) :D
ale0bello0pr
06-05-2007, 19:58
Bellissimo...:asd:
Te lo quoto cosi' non puoi piu' editare :Perfido: :D
Poi se non son veri -----> http://www.mmorpgitalia.it/forum/images/smilies/bastone.gif
e chi edita :asd: :Prrr: me l'avranno quotato in 50 :rotfl:
-7 1/2 anzi direi.. -5 1/2 ;)
devo solo trovare il modo lucky..di reperire LEI
bladerunner86
06-05-2007, 20:00
e fudzilla sta già ritrattando per pararsi il culo!!!:D
Se è vero, allora prevedo tempi d'oro per ati :)
Con quella scheda e il mio raffreddamento a liquido, se l'alimentatore regge, potrei spingerla sotto i 1000 mhz (e arrivare intorno ai 13000 punti al 3dmark06!) :D
Già ad aria (dissi stock) a 885/2000 fanno quasi 14300... :D
Kharonte85
06-05-2007, 20:12
purtroppo i 3d march stanno diventando inaffidabili...magari la scheda è semplicemente meno cpu-dipended (le 8800 lo sono a bestia oserei dire :stordita: )...anche le 8600 fanno faville ai 3d march ma poi :mc:
Giusto per paragone nel test di daylitech al 3DMark06 faceva 11447 con un QX6700...
http://www.hwupgrade.it/articoli/cpu/1699/3dmark_2006_2.png
Possibile un x6800 che fa 3250? :what:
purtroppo i 3d march stanno diventando inaffidabili...magari la scheda è semplicemente meno cpu-dipended (le 8800 lo sono a bestia oserei dire :stordita: )...anche le 8600 fanno faville ai 3d march ma poi :mc:
Giusto per paragone nel test di daylitech al 3DMark06 faceva 11447 con un QX6700...
http://www.hwupgrade.it/articoli/cpu/1699/3dmark_2006_2.png
Possibile un x6800 che fa 3250? :what:
probabile il mio E4300 a 3.0Ghz fa 2700p
purtroppo i 3d march stanno diventando inaffidabili...magari la scheda è semplicemente meno cpu-dipended (le 8800 lo sono a bestia oserei dire :stordita: )...anche le 8600 fanno faville ai 3d march ma poi :mc:
Giusto per paragone nel test di daylitech al 3DMark06 faceva 11447 con un Intel Core 2 Extreme QX6700...
http://www.hwupgrade.it/articoli/cpu/1699/3dmark_2006_2.png
Possibile un x6800 che fa 3250? :what:
Come ho detto, quei test sono da prendere con le molle: sito cinese, nessuno screen, cpu sicuramente in OC, così come molto probabilmente le schede video. Aspettiamo magari qualcosa di un pelino più affidabile. ;)
Sul prezzo, comunque, a meno che in Italia non decidano di fare i ladri ( :incazzed: ) sembra che i 399€ in Europa siano una certezza. In Norvegia in preordine la XT costa l'equivalente di 398.86€ (3240 NKR).
http://masterit.no/PartDetail.aspx?q=p:1564551;c:36132
Kharonte85
06-05-2007, 20:21
probabile il mio E4300 a 3.0Ghz fa 2700p
Non vedo il nesso...:stordita:
Come ho detto, quei test sono da prendere con le molle: sito cinese, nessuno screen, cpu sicuramente in OC, così come molto probabilmente le schede video. Aspettiamo magari qualcosa di un pelino più affidabile. ;)
Eh sì...
Sul prezzo, comunque, a meno che in Italia non decidano di fare i ladri ( :incazzed: ) sembra che i 399€ in Europa siano una certezza. In Norvegia in preordine la XT costa l'equivalente di 398.86€ (3240 NKR).
http://masterit.no/PartDetail.aspx?q=p:1564551;c:36132
sul prezzo credo che le troveremo da 400 in su...
DakmorNoland
06-05-2007, 20:21
purtroppo i 3d march stanno diventando inaffidabili...magari la scheda è semplicemente meno cpu-dipended (le 8800 lo sono a bestia oserei dire :stordita: )...anche le 8600 fanno faville ai 3d march ma poi :mc:
Giusto per paragone nel test di daylitech al 3DMark06 faceva 11447 con un QX6700...
Possibile un x6800 che fa 3250? :what:
Veramente fa 2400, quello che fa 3250 è il quad 6600. :)
Cmq i bench postati sopra sulla 2900XT speriamo siano veri! E' ora che AMD ritorni competitiva! :D
E speriamo anche che il TDP di 160W postato da qualcuno per la versione 512MB GDDR3 sia vero.
Possibile un x6800 che fa 3250? :what:
si, a 3,8ghz dovrebbe fare quel tanto
TecnoWorld8
06-05-2007, 20:27
io spero che non sia troppo CPU dependent, perchè penso terrò la mia in sign almeno per un altro annetto, fin quando ci sarà la nuova architettura Intel o l'equivalente AMD del momento.
Tidus.hw
06-05-2007, 20:28
purtroppo i 3d march stanno diventando inaffidabili...magari la scheda è semplicemente meno cpu-dipended (le 8800 lo sono a bestia oserei dire :stordita: )...anche le 8600 fanno faville ai 3d march ma poi :mc:
Giusto per paragone nel test di daylitech al 3DMark06 faceva 11447 con un QX6700...
http://www.hwupgrade.it/articoli/cpu/1699/3dmark_2006_2.png
Possibile un x6800 che fa 3250? :what:
così poco fa il 6000+??? 0.o
io col procio in firma faccio sui 2250 ._.
Kharonte85
06-05-2007, 20:29
Veramente fa 2400, quello che fa 3250 è il quad 6600. :)
Veramente non c'è nessun quad6600...:fagiano:
Io mi riferivo ai test che hanno postato prima...:confused:
si, a 3,8ghz dovrebbe fare quel tanto
Alla faccia, e ci arriva facilmente?
così poco fa il 6000+??? 0.o
io col procio in firma faccio sui 2250 ._.
Bravo, ma che c'entra?
bladerunner86
06-05-2007, 20:30
un e6600@3800 in 3d mark06 fa come cpu score:3310.
amd si coming!
così poco fa il 6000+??? 0.o
io col procio in firma faccio sui 2250 ._.
Sì, ma il 6000 è a default, mentre la tua cpu che a default fa quanto il mio T2400, è overcloccata. ;)
Comunque basta parlare di cpu, siamo :ot:
vi ricordo che l'ultima versione del 3dmark06 è la build 1.1.0, nel test di HwUpgrade ce n'è una più vecchia
bYeZ!
DakmorNoland
06-05-2007, 20:32
Veramente non c'è nessun quad...:fagiano:
Io mi riferivo ai test che hanno postato prima...:confused:
Ah scusa non avevo capito! :p
Si cmq un pò overcloccato ci arriva, a default non credo propio.
vi ricordo che l'ultima versione del 3dmark06 è la build 1.1.0, nel test di HwUpgrade ce n'è una più vecchia
bYeZ!
Vabbè, non è che cambi molto... ;)
Kharonte85
06-05-2007, 20:34
vi ricordo che l'ultima versione del 3dmark06 è la build 1.1.0, nel test di HwUpgrade ce n'è una più vecchia
bYeZ!
E cambia cosi' tanto? :mbe:
Vabbe' cmq gia' il fatto che si siano scordati di dire che erano in oc mi fa ritenere quel test un po' poco affidabile...
Friz1983
06-05-2007, 20:34
Preordine in italia... che prezzo......:mad: http://www.eprice.it/default.aspx?sku=1285338&cosa=5&com=116
Kharonte85
06-05-2007, 20:36
Preordine in italia... che prezzo......:mad:
Si era gia' vista (almeno, io si')...:)
Tidus.hw
06-05-2007, 20:37
Sì, ma il 6000 è a default, mentre la tua cpu che a default fa quanto il mio T2400, è overcloccata. ;)
Comunque basta parlare di cpu, siamo :ot:
Bravo, ma che c'entra?
si scusate, comunque se la x2900xt supera la gtx perfino nel rendering semplice senza filtri, nvidia è messa veramente male. non c'è die shrink che tenga, anche un eventuale G80@ 65nm non potrebbe contrastare R600 che tra l'altro è già in produzione con questo processo produttivo
edit: comunque mi ero stupito perchè la mia cpu ha 2900mhz e 1mb di cache, quella 3ghz e 2mb di cache sarà colpa delle ddr2? fine ot/
Poliphilo
06-05-2007, 20:41
:D :D :D
Si, dicci.... :cry:
Dico solo: io l'avevo detto di aspettare :O
:D
Anzi, dico anche un'altra cosa: fino a quando non si vedono test UFFICIALI, scaduto l'NDA, non si può ancora dire niente di vero in assoluto, sia ben chiaro.
bladerunner86
06-05-2007, 20:41
cmq se il prezzo di lancio è di 400 euro significa che tra 1/2 mesi si troveranno già a 350. infatti mi ricordo che la 8800 gts appena uscita costava 499 euro e dopo un solo mese costavano 420/430
bladerunner86
06-05-2007, 20:48
Dico solo: io l'avevo detto di aspettare :O
:D
Anzi, dico anche un'altra cosa: fino a quando non si vedono test UFFICIALI, scaduto l'NDA, non sipuò ancora dire niente.
poliphilo dimmi la verità! hai già provato la scheda!
sicuramente fra queste tante persone iscritte a questo thread c' è qualche redattore del sito sotto false spoglie
Poliphilo
06-05-2007, 20:55
Non ho provato nessuna scheda e non sono redattore di alcun sito.
Solo che, come ho scritto un po' di tempo fa, ci sono rumors di un genere e rumors di tutt'altro genere. Bisogna vedere quali sono affidabili e quali no. Io dissi che bisognava aspettare per vedere la verità.....Adesso vedremo, tanto manca poco ormai. ;)
appleroof
06-05-2007, 20:56
Non ho provato nessuna scheda e non sono redattore di alcun sito.
Solo che, come ho scritto un po' di tempo fa, ci sono rumors di un genere e rumors di tutt'altro genere. Bisogna vedere quali sono affidabili e quali no. Io dissi che bisognava aspettare per vedere la verità.....Adesso vedremo, tanto manca poco ormai. ;)
Illuminante...:D
Free Gordon
06-05-2007, 21:00
MAH! dissento totalmente da questa affermazione!
IMHO ATI è sempre partita da ottime basi per poi migliorare anche parecchio,ma mai come hai detto te.
ATI faceva abbastanza orrore coi driver, fino alla 8500... dopo no.
Poi sono sempre andati migliorando, raggiungendo i livelli di nVidia già sotto la 9700.
Poliphilo
06-05-2007, 21:01
Illuminante...:D
Cosa intendi,scusa?
appleroof
06-05-2007, 21:02
Cosa intendi,scusa?
Che hai detto un'ovvietà, per chi non ha accesso ad informazioni riservate :)
Free Gordon
06-05-2007, 21:02
Non centra nulla quello che "avrebbe potuto" far uscire ma quello che esce, la carta centra poco o nulla al fine ludico, con x800 scelse la via conservativa.
Non concordo. :D
In realtà come ho detto, R420 fu una GPU uscita per convenienza/tempistiche, dato che in SM2 R300 andava già bene (non come nv30 :D ).
Le intenzioni di ATI non sono mai state conservative, quelle di nVidia, sempre!
Sono due case con filosofie differenti proprio alla base.
Cosa intendi,scusa?
forse il fatto che hai ribadito (più e più volte) un'ovvietà? :D
bYeZ!
Poliphilo
06-05-2007, 21:06
Bhè, leggetevi i post di Ale0Bello0pr e capirete....
Poliphilo sa, perchè qualcuno gli ha detto!:)
E' questo qualcuno sono io!.
Ma sia io che lui, non parliamo!
Ciao;)
appleroof
06-05-2007, 21:06
Non concordo. :D
In realtà come ho detto, R420 fu una GPU uscita per convenienza/tempistiche, dato che in SM2 R300 andava già bene (non come nv30 :D ).
Le intenzioni di ATI non sono mai state conservative, quelle di nVidia, sempre!
Sono due case con filosofie differenti proprio alla base.
Forse è proprio quella l'eccezione alla regola cui fai riferimento...
Non concordo. :D
In realtà come ho detto, R420 fu una GPU uscita per convenienza/tempistiche, dato che in SM2 R300 andava già bene (non come nv30 :D ).
Le intenzioni di ATI non sono mai state conservative, quelle di nVidia, sempre!
Sono due case con filosofie differenti proprio alla base.
gia ma R420 andava il doppio.
appleroof
06-05-2007, 21:09
Bhè, leggetevi i post di Ale0Bello0pr e capirete....
Si ma il contenuto del post in sè, era ovvio
inoltre più che dare suggerimenti state alzando l'hype in maniera spropositata :asd: io direi che per il bene della gente :D o dite le cose che sapete oppure basta con stò stillicidio di messaggi sibillini che pare la Cia :D
TecnoWorld8
06-05-2007, 21:11
infatti ho sempre trovato un po' ridicolo chi vuol "far vedere che sa", ma che però "non può dire"...
se non dite le cose chiaramente, allora perchè avete lasciato intendere di saperle? per vantarvi? non vedo altre motivazioni possibili...
cmq va bene lo stesso, tra pochi giorni ci saranno dati ufficiali e bon.
Kharonte85
06-05-2007, 21:15
Si ma il contenuto del post in sè, era ovvio
inoltre più che dare suggerimenti state alzando l'hype in maniera spropositata :asd: io direi che per il bene della gente :D o dite le cose che sapete oppure basta con stò stillicidio di messaggi sibillini che pare la Cia :D
Straquoto...è oltremodo seccante.
loperloper
06-05-2007, 21:19
e cmq ripeto quello gia detto: fino a quando non ci sarà nulla di ufficiale o fino a prova contraria tutto ciò ke viene fatto vedere o detto, da chi sa o non sa, può risultare un fake!Quindi anche chi sa, tanto vale che non venga a dircelo perchè imho "fin che non vedo non credo", cioè potete raccontare tutto ciò che volete ma le chiacchere stanno a zero, sono i fatti che contano ;)
Straquoto...è oltremodo seccante.
*
Poliphilo
06-05-2007, 21:21
infatti ho sempre trovato un po' ridicolo chi vuol "far vedere che sa", ma che però "non può dire"...
se non dite le cose chiaramente, allora perchè avete lasciato intendere di saperle? per vantarvi? non vedo altre motivazioni possibili...
cmq va bene lo stesso, tra pochi giorni ci saranno dati ufficiali e bon.
Avete ragione :O . Il motivo dei miei post comunque non è per vantarmi ma, come scrissi tempo fa, per tranquillizzarvi. ;)
Adesso non scrivo più niente.
P.S.: leggete quello che ha scritto dj.
TecnoWorld8
06-05-2007, 21:24
hehe, senza offesa, non ho bisogno di essere tranquillizzato non essendo azionista AMD :)
sono invece curioso, ma di sapere la verità esatta sulle prestazioni di un nuovo chip, come lo sono sempre all'uscita di qualcosa di nuovo e in particolare quanto ne valuto l'acquisto.
frasi ammiccanti tipo: "non vi deluderà", "non posso dire altro ma...aspettate e vedrete" e cose del genere, non fanno che confondere ulteriormente.
il tutto, come sempre IMHO e ripeto...senza intento di offendere o "sgridare" nessuno. Solo il mio punto di vista e su come prendo certe cose...
appleroof
06-05-2007, 21:26
hehe, senza offesa, non ho bisogno di essere tranquillizzato non essendo azionista AMD :)
:asd: :asd: :asd:
sono invece curioso, ma di sapere la verità esatta sulle prestazioni di un nuovo chip, come lo sono sempre all'uscita di qualcosa di nuovo e in particolare quanto ne valuto l'acquisto.
frasi ammiccanti tipo: "non vi deluderà", "non posso dire altro ma...aspettate e vedrete" e cose del genere, non fanno che confondere ulteriormente.
il tutto, come sempre IMHO e ripeto...senza intento di offendere o "sgridare" nessuno. Solo il mio punto di vista e su come prendo certe cose...
quoto tutto ;)
Free Gordon
06-05-2007, 21:26
vabbè ragazzi, calo le braghe.
anch'io l'ho provata, la scorsa settimana, ma non vi posso dire nulla ovviamente. :ciapet:
Ps.
raga, non vi dico, bionda, occhi verdi, curve mozzafiato... :oink: :rotfl:
Poliphilo
06-05-2007, 21:27
hehe, senza offesa, non ho bisogno di essere tranquillizzato non essendo azionista AMD :)
sono invece curioso, ma di sapere la verità esatta sulle prestazioni di un nuovo chip, come lo sono sempre all'uscita di qualcosa di nuovo e in particolare quanto ne valuto l'acquisto.
frasi ammiccanti tipo: "non vi deluderà", "non posso dire altro ma...aspettate e vedrete" e cose del genere, non fanno che confondere ulteriormente.
il tutto, come sempre IMHO e ripeto...senza intento di offendere o "sgridare" nessuno. Solo il mio punto di vista e su come prendo certe cose...
Vabbè, come vuoi. Non parlo più. Ne riparliamo quando saranno uscite le schede sull'eventuale thread ufficiale, ok? ;)
Free Gordon
06-05-2007, 21:28
sono invece curioso, ma di sapere la verità esatta sulle prestazioni...
La verità esatta non la saprai per molto tempo. Perlomeno non prima del 2008 inoltrato. E può pure darsi che, quel giorno, non te freghi più nulla di saperla.. :asd:
ale0bello0pr
06-05-2007, 21:28
Bhè, leggetevi i post di Ale0Bello0pr e capirete....
;)
appleroof
06-05-2007, 21:33
La verità esatta non la saprai per molto tempo. Perlomeno non prima del 2008 inoltrato. E può pure darsi che, quel giorno, non te freghi più nulla di saperla.. :asd:
E vabbè...sei troppo pignolo, anche se ho capito il senso del tuo post, credo:a stò punto anche delle 6xxx o 8xx bisognava aspettare fine 2006 per avere l'idea esatta delle prestazioni, per ora uno credo si accontenti di vedere come và in dx9 rispetto alla concorrenza e valutare in base al prezzo, poi come giustamente disse dvd2005 per i giochi dx10 tosti (2008) quasi sicuramente non basteranno nè la 8800ultra nè la 2900xt (la speranza è l'ultima a morire, cmq :D ), a meno di grossi compromessi....è la solita storia :)
TecnoWorld8
06-05-2007, 21:38
ci mancherebbe...poi la verità assoluta nn esiste, dipende da quali test si fanno, quali parametri si settano ecc ecc...ma avere dei valori ufficiali, questo voglio.
vedere la recensione qui e sugli altri principali siti internazionali, insomma. non mi interessano nemmeno troppo i commenti che saranno fatti...voglio dei valori nei giochi principali e spero che la scheda verrà testata in quelli in cui la mia attuale zoppica, tipo Stalker, Rainbow 6 Vegas e altri dell'ultima generazione, in attesa della prossima ondata di giochi pesanti e graficamente molto appaganti.
gianni1879
06-05-2007, 21:45
Poliphilo sa, perchè qualcuno gli ha detto!:)
E' questo qualcuno sono io!.
Ma sia io che lui, non parliamo!
Ciao;)
thò chi si vede spuntare zitto zitto ;)
ciao
Free Gordon
06-05-2007, 21:52
E vabbè...sei troppo pignolo, anche se ho capito il senso del tuo post,
In realtà ho solo dei parametri differenti rispetto a quelli che sono utilizzati comunemente nei bench. :D
A me interessa anche la longevità di una scheda (sopratutto per quanto cara la si paga... :cry: ) e secondo me si dovrebbe tenere conto anche di questo particolare quando si giudica l'architettura di una GPU, nel suo complesso.
Però è una cosa che si può fare solamente a distanza di almeno 2 anni dall'uscita di una GPU, purtroppo.
Non concordo. :D
In realtà come ho detto, R420 fu una GPU uscita per convenienza/tempistiche, dato che in SM2 R300 andava già bene (non come nv30 :D ).
Le intenzioni di ATI non sono mai state conservative, quelle di nVidia, sempre!
Sono due case con filosofie differenti proprio alla base.
Le intenzioni di Nvidia sono le medesime di Ati, g80 non mi sembra convenzionale, g40 nemmeno, la serie 7800-7900 puntò sul texturing piuttosto che sui ps per una questione di affinità con la visione di Carmack, tutte e due hanno avuto alti e bassi, ma i fini sono i medesimi.
TecnoWorld8
06-05-2007, 22:01
In realtà ho solo dei parametri differenti rispetto a quelli che sono utilizzati comunemente nei bench. :D
A me interessa anche la longevità di una scheda (sopratutto per quanto cara la si paga... :cry: ) e secondo me si dovrebbe tenere conto anche di questo particolare quando si giudica l'architettura di una GPU, nel suo complesso.
Però è una cosa che si può fare solamente a distanza di almeno 2 anni dall'uscita di una GPU, purtroppo.
credo che ogni scheda di fascia alta che si acquisti ora (sia GTX che XT), durerà almeno un annetto al massimo livello e risoluzioni alte (diciamo fino a 1600x1200 o equivalente). Se davvero si spenderà meno di 400 euro per una XT, è anche vero che tra un anno la si potrà eventualmente vendere ancora a 200 circa e prendere quello che, a quell'epoca, costerà a sua volta sui 400 euro...
...ragazzi stop con i discorsi OT e senza senso. Manca poco...
;)
Free Gordon
06-05-2007, 22:06
tipo Stalker, Rainbow 6 Vegas e altri dell'ultima generazione, in attesa della prossima ondata di giochi pesanti e graficamente molto appaganti.
Ho idee totalmente opposte alle tue. :D
Me ne frega meno di zero di sapere come andrà R600 in un gioco "medio" come Vegas... (e per nulla ottimizzato oltretutto)
Vegas, ad esempio, avrà anche un bel motore sotto (più che altro per "nome") ma ha una qualità grafico/tecnica inferiore ad un GRAW2 (per 360)... tanto per dirne uno (senza scomodare GEARS of WAR).
A me interessa sapere se R600 riuscirà a tirare fuori nei veri giochi nextgen (il primo sarà Crysis) una qualità grafica superiore, ad un frame rate giocabile (e cmq superiore alle concorrenti).
A Stalker (che merita davvero) ci gioco benissimo con la mia 1800XT e, anzi, sono anche convinto che questa scheda sia in grado di mostrare una grafica nettamente migliore di quella che si vede in Stalker, ad un buon frame rate. ;)
R600 e G80 dovranno fare ben altro che farmi andare Stalker a 60fps. :)
Portocala
06-05-2007, 22:08
:D
Mi sono rotto di aspettare :D
Ho preso una 6600GT con 55 euri :Prrr:
Dopo aver seguito questa discussione dalla pagina 150 circa, i miei maroni si sono talmente gonfiati ( cosi >> :sofico: ) che mi e' passata la voglia di saperlo e non me ne frega piu' nulla. Quello che faranno lo faranno il 14 e valutero' in seguito se ho aspettato per nulla :D
Free Gordon
06-05-2007, 22:18
Le intenzioni di Nvidia sono le medesime di Ati, g80 non mi sembra convenzionale, g40 nemmeno, la serie 7800-7900 puntò sul texturing piuttosto che sui ps per una questione di affinità con la visione di Carmack, tutte e due hanno avuto alti e bassi, ma i fini sono i medesimi.
A questa ti rispondo così: :ciapet:
R300 chip davvero SM2. NV30 no.
NV40 chip SM3 accennato. R420 chip SM2. (l'unica volta in cui Nvidia è stata avanti nelle features, ma i motivi imho sono quelli elencati sopra).
R520 chip davvero SM3. G70 humm beh più o meno... (mancano varie cose importanti) :D
R600 chip DX10. G80 chi lo sa? :D
Su 4 generazioni, in 3 ATI sarà più avanzata come features proposte (senza considerare l'attenzione alla qualità grafica che è sempre stata più importante per ATI che per nVidia).
Questo succede perchè in nVidia sono sempre stati conservatori e hanno sempre preferito "l'uovo oggi".
Io, dalla 8500 in poi, ho sempre preferito la filosofia ATI, anche se ho anche avuto varie nVidia nel mentre. :read:
A questa ti rispondo così: :ciapet:
R300 chip davvero SM2. NV30 no.
NV40 chip SM3 accennato. R420 chip SM2. (l'unica volta in cui Nvidia è stata avanti nelle features, ma i motivi imho sono quelli elencati sopra).
R520 chip davvero SM3. G70 humm beh più o meno... (mancano varie cose importanti) :D
R600 chip DX10. G80 chi lo sa? :D
Su 4 generazioni, in 3 ATI sarà più avanzata come features proposte (senza considerare l'attenzione alla qualità grafica che è sempre stata più importante per ATI che per nVidia).
Questo succede perchè in nVidia sono sempre stati conservatori e hanno sempre preferito "l'uovo oggi".
Io, dalla 8500 in poi, ho sempre preferito la filosofia ATI, anche se ho anche avuto varie nVidia nel mentre. :read:
Come vedi dalla mia firma possiedo solo schede ati, oltre che chipset, ma un' analisi così di parte raramente mi è capitato di leggerla.
Che G80 sia perfettamente aderente alle specifiche dx10 è un dato che già ora si può evincere, che r600 con 8 mesi di vantaggio sia più specializzato verso queste Api è probabile, ma non credo che oggi un utente con una 8800 GTX abbia nulla da temere, ne' come innovazione ne' come performance, Ati sbaglia come Nvidia e Nvidia come Ati.
A Stalker (che merita davvero) ci gioco benissimo con la mia 1800XT e, anzi, sono anche convinto che questa scheda sia in grado di mostrare una grafica nettamente migliore di quella che si vede in Stalker, ad un buon frame rate. ;)
R600 e G80 dovranno fare ben altro che farmi andare Stalker a 60fps. :)
Per il resto sono abbastanza d'accordo, però concorderai che manco STALKER è così ottimizzato (anzi :asd: ). Il problema di Vegas è che comunque per ora rimane il primo gioco importante basato su un motore grafico che in DX10 verrà usato per parecchi giochi, e che quindi, imho, valutare le prestazioni di una scheda in R6V ha per certi versi più senso che valutarle in STALKER (che dalla sua ha l'unico "valore" di essere un macigno), come purtroppo fa HWUp. ;)
Sono però d'accordo sul fatto che in Vegas non si sia fatto un uso eccezionale dell'UE3 (tant'è vero che credo che già Double Agent con l'UE2.5 garantisse una qualità grafica dei personaggi migliore sotto certi aspetti). :)
Comunque ari-stop all' :ot: .
Cercherò di dare il buon esempio :D postando alcune presunte info su R600 provenienti da un utente di un forum tedesco (3DCenter) che pare essere ben informato.
Innanzitutto sembra dare una spiegazione alla tabella dei TDP, secondo la quale il "board TDP" (225W, per intenderci) dovrebbe essere il consumo massimo teorico, mentre la somma degli altri valori (lui dice solo GPU, ma credo che pure le memorie vadano inserite nel calcolo) dovrebbe essere il consumo reale. Quindi in condizioni normali in full load la XT dovrebbe consumare circa 160W+(8x2)=176W, ossia una 30ina più della 8800GTX.
Poi aggiunge qualche altro dato alla stessa tabella...
Current consumption R600:
ATI Radeon hp 2900 XT 1024MB DDR4 TDP:
GPU: 180 Watts
Board: 225 Watts
ATI Radeon hp 2900 XT 512MB DDR3 TDP:
GPU: 160 Watts
Board: 225 Watts
ATI Radeon hp 2900XL 512MB DDR3 TDP:
GPU: 130 Watts
Board: 205 Watts
mfg Nakai
Ma la cosa che comunque mi fa credere maggiormente al suo essere ben informato (o particolarmente bravo nello sparare caxxate :asd: ) è la dovizia di particolari che usa per descrivere la full line-up retail di R600. :eek:
ATI Radeon HD2000-series:
ATI Radeon HD2900XT 512MB DDR3, R600, 80Nm
ATI Radeon HD2900XL 512MB DDR3, R600, 80Nm
ATI Radeon HD2900PRO 512MB DDR3, RV670, 65Nm
ATI Radeon HD2600XT 512MB DDR4, RV630, 65Nm
ATI Radeon HD2600XT 512MB DDR3, RV630, 65Nm
ATI Radeon HD2600XT 256MB DDR3, RV630, 65Nm
ATI Radeon HD2600PRO 256MB DDR3, RV630, 65Nm
ATI Radeon HD2400XT 256MB DDR2, RV610, 65Nm
ATI Radeon HD2400PRO 256MB DDR2, Rv610, 65Nm
ATI Radeon HD2400PRO 128MB DDR2, RV610, 65Nm
NDA for complete ATI Radeon HD2000 Series product list ends May 14th, 2007 15:00h CET, excluded ATI Radeon HD2900PRO
Chicco85
06-05-2007, 22:41
Innanzitutto sembra dare una spiegazione alla tabella dei TDP, secondo la quale il "board TDP" (225W, per intenderci) dovrebbe essere il consumo massimo teorico, mentre la somma degli altri valori (lui dice solo GPU, ma credo che pure le memorie vadano inserite nel calcolo) dovrebbe essere il consumo reale. Quindi in condizioni normali in full load la XT dovrebbe consumare circa 160W+(8x2)=176W, ossia una 30ina più della 8800GTX.
IMHO il board TDP sta per il consumo che al massimo può supportare il pcb, più che il consumo massimo teorico.
Comunque, state a scrivè troppo... :sofico:
IMHO il board TDP sta per il consumo che al massimo può supportare il pcb, più che il consumo massimo teorico.
In effetti la tua definizione è più corretta. :)
Chicco85
06-05-2007, 22:47
Staremo a vedere cosa indicherà... ;)
In ogni caso mi aspetto delle belle cose da questo R600, considerando l'esperienza di ATi (almeno più "tangibile" di quella nVidia) con le architetture a shader unificati. :)
Free Gordon
06-05-2007, 22:47
Come vedi dalla mia firma possiedo solo schede ati, oltre che chipset, ma un' analisi così di parte raramente mi è capitato di leggerla.
Edit.
Ma và che è la pura verità! :sofico:
ps.
Per quanto riguarda il TDP, pare proprio che sia 176W.. :D
vabbè ragazzi, calo le braghe.
anch'io l'ho provata, la scorsa settimana, ma non vi posso dire nulla ovviamente. :ciapet:
Ps.
raga, non vi dico, bionda, occhi verdi, curve mozzafiato... :oink: :rotfl:
sospeso 5gg, gli avvertimenti erano numerosi oltre che chiari.
Quindi in condizioni normali in full load la XT dovrebbe consumare circa 160W+(8x2)=176W, ossia una 30ina più della 8800GTX.
Poi aggiunge qualche altro dato alla stessa tabella...
Ma la cosa che comunque mi fa credere maggiormente al suo essere ben informato (...) è la dovizia di particolari che usa per descrivere la full line-up retail di R600. :eek:
NVIDIA dichiara per la GeForce 8800 Ultra un TDP a 175 Watt, contro i 177 Watt della sorella minore GeForce 8800 GTX.
Il calcolo per R600 512 Mb lo avevo ipotizzato qualche post fa e mi sa che ci avevo (avevamo ;) ) preso: 160 watt + le memorie = 176 watt. Aggiungiamoci un margire di sicurezza ed ecco che la scheda consuma comunque meno di quanto i rumors dicono.
...e questa tabella non mi sembra sbagliata...anzi...;)
ATI Radeon HD2000 series:
ATI Radeon HD2900XT 512MB DDR3, R600, 80Nm
ATI Radeon HD2900XL 512MB DDR3, R600, 80Nm
ATI Radeon HD2900PRO 512MB DDR3, RV670, 65Nm
ATI Radeon HD2600XT 512MB DDR4, RV630, 65Nm
ATI Radeon HD2600XT 512MB DDR3, RV630, 65Nm
ATI Radeon HD2600XT 256MB DDR3, RV630, 65Nm
ATI Radeon HD2600PRO 256MB DDR3, RV630, 65Nm
ATI Radeon HD2400XT 256MB DDR2, RV610, 65Nm
ATI Radeon HD2400PRO 256MB DDR2, Rv610, 65Nm
ATI Radeon HD2400PRO 128MB DDR2, RV610, 65Nm
ps. io ci aggiungerei una HD2900XT 1GB DDR4, R600, 80Nm
:)
ps. io ci aggiungerei una HD2900XT 1GB DDR4, R600, 80Nm
:)
Da quanto mi pare di aver capito in realtà quella è o una OEM o una FireGL...
Quindi almeno all'inizio non credo sarà possibile comprare schede retail con 1GB. Vista comunque l'uscita successiva di RV670 a 65nm potrebbe essere che contestualmente (o forse un po' dopo) lancino la XTX (R650 e 65nm) con 1GB. ;)
...io la tabella la completo così, poi vedremo tra qualche giorno...;)
ATI Radeon HD2900XT 1GB DDR4, R600, 80Nm, 196 watt, 2*6 pin
ATI Radeon HD2900XT 512MB DDR3, R600, 80Nm, 176 watt, 2*6 pin
ATI Radeon HD2900XL 512MB DDR3, R600, 80Nm, 146 watt, 1*6 pin
ATI Radeon HD2900PRO 512MB DDR3, RV670, 65Nm, in autunno
ATI Radeon HD2600XT 512MB DDR4, RV630, 65Nm, >100 watt, 1*6 pin
ATI Radeon HD2600XT 512MB DDR3, RV630, 65Nm, >85 watt, no
ATI Radeon HD2600XT 256MB DDR3, RV630, 65Nm, >75 watt, no
ATI Radeon HD2600PRO 256MB DDR3, RV630, 65Nm, >65 watt, no
ATI Radeon HD2400XT 256MB DDR2, RV610, 65Nm
ATI Radeon HD2400PRO 256MB DDR2, Rv610, 65Nm
ATI Radeon HD2400PRO 128MB DDR2, RV610, 65Nm
DakmorNoland
06-05-2007, 23:28
Speriamo che il TDP della 2900XT siano 176W reali.
Nvidia con i TDP mi pare abbia fatto pasticci, visto che dichiara un TDP + basso per la Ultra rispetto alla GTX, quando poi la Ultra consuma di +. :rolleyes:
Vedremo se AMD è riuscita a contenere un pò i consumi reali rispetto alla concorrente.
TecnoWorld8
06-05-2007, 23:30
chissà quali saranno le differenze della PRO rispetto alla XT. Se questa tabella è realistica, curioso che mettano la PRO e non la XTX. Che quest'ultima esca ancora dopo?
la XL potrebbe essere davvero gustosa se i prezzi partono da 400..
TecnoWorld8
06-05-2007, 23:31
la XL potrebbe essere davvero gustosa se i prezzi partono da 400..
se a 400 c'è la XT, la XL potrebbe essere sui 300 e confrontarsi con le GTS 320. Dipende se avrà il bus a 512bit e quanta memoria avrà
la XL potrebbe essere davvero gustosa se i prezzi partono da 400..
A questo punto se il prezzo consigliato per la HD2600 XT 256MB sarà 179€ come avevo letto da qualche parte, mentre presumo poco più di 200€ per la 512MB (bisognerà vedere se effettivamente ci saranno 2 versioni retail una GDDR3 e una GDDR4...) penso proprio che la XL potrebbe assestarsi sui 300€ o poco più. Ovviamente dipende dalle prestazioni e dalle maggiori info sul prezzo, ma rischierebbe di fare concorrenza ad entrambe le 8800GTS... :)
se a 400 c'è la XT, la XL potrebbe essere sui 300 e confrontarsi con le GTS 320. Dipende se avrà il bus a 512bit e quanta memoria avrà
La XL, stando alle pochissime notizie viste finora, dovrebbe essere la scheda a 512bit meno costosa. Però non si sa quante shading units avrà... :stordita:
...voi credete che la fascia dei 256 bit rimmarrà senza esemplari??? io no...
:fiufiu:
...voi credete che la fascia dei 256 bit rimmarrà senza esemplari??? io no...
:fiufiu:
sicuramente non dalla fascia media;) secondo me nelle GTO
Chicco85
06-05-2007, 23:41
...voi credete che la fascia dei 256 bit rimmarrà senza esemplari??? io no...
:fiufiu:
Certo che no, altrimenti ci sarebbe una voragine... ;)
Al lancio comunque sembra che ci siano solo schede con 512 bit / 128 bit di bus. E' da vedere se ATi ha già pronta una gpu con un ring bus dimezzato rispetto alle highend. ;)
...voi credete che la fascia dei 256 bit rimmarrà senza esemplari??? io no...
:fiufiu:
La Pro sarà a 256bit quasi sicuramente. ;)
secondo me nelle GTO
...scordatevi sigle come GTO\GT etc etc...si torna finalmente all'antico con XT, XL e PRO.
La domanda l'ho fatta apposta, scontata come la risposta...;) una vga 256 bit ci sarà.
:)
TecnoWorld8
06-05-2007, 23:50
infatti la nuova/vecchia nomenclatura mi piace molto di più del caos uscito con tutte le altre sigle negli ultimi 2 anni.
la GTO2 che ho io, ad esempio, è a tutti gli effetti una XT venduta sotto prezzo dato che la XT era stata subito sorpassata e ne avevano ancora un sacco da far fuori...
a meno che non ricapiti una cosa del genere (brrrr) certe sigle difficilmente saranno riutilizzate
Mister Tarpone
07-05-2007, 00:14
La Pro sarà a 256bit quasi sicuramente. ;)
era stata postata anche una news proprio in questo Thread ...che parlava di una prossima scheda ATI con chip RV670 e bus 256bit :)
:oink:
Mister Tarpone
07-05-2007, 00:27
infatti la nuova/vecchia nomenclatura mi piace molto di più del caos uscito con tutte le altre sigle negli ultimi 2 anni.
Tranquillo che si ripeterà tutto ;) vedrai che "dopo" XT e XL arriveranno anche PRO,GTO e GT,proprio come negli ultimi 2 anni...sono "quasi" sicuro :asd:
Mister Tarpone
07-05-2007, 00:34
la GTO2 che ho io, ad esempio, è a tutti gli effetti una XT venduta sotto prezzo dato che la XT era stata subito sorpassata e ne avevano ancora un sacco da far fuori...
a meno che non ricapiti una cosa del genere (brrrr) certe sigle difficilmente saranno riutilizzate
lamentati... con pochi € ti sei preso una scheda venduta come fascia media ma che in realtà andava come una di fascia alta!!!
magari facessero una 2900gto moddabile :oink:
Mister Tarpone
07-05-2007, 00:53
la XL potrebbe essere davvero gustosa se i prezzi partono da 400..
sicuramente se costasse 300€ sarebbe la mia prossima scheda.
La XL, stando alle pochissime notizie viste finora, dovrebbe essere la scheda a 512bit meno costosa. Però non si sa quante shading units avrà... :stordita:
e se cambiassero solo le frequenze di core e mem. rispetto alla xt??
tipo un 600/1400mhz....
cmq credo che se partissero anche le shader units, le ridurrebbero solo di 1/4 rispetto alla XT ...quindi magari la XL avrà 48 4-Way ?? :fagiano: ???
............ :oink:
ale0bello0pr
07-05-2007, 01:19
R600 project □card □standard: 1.64 4-Way a SIMD □□color engine, 128 Shader Operations/Cycle 2. TMU×32, ROP×16 3. 512bit □saves controller 4. □to save uses GDDR3@900MHz (in May, 2007 edition) 5. □to save uses GDDR4@1.1GHz (in June, 2007 edition) 6. GDDR3 □□□115GB/s 7. GDDR4 □□□140GB/s 8. supports highest 1024MB □to save 9. completely compatible DX10 as well as DX10.1 the draft 10. 32FP □□principle □regulation 11. hardware supports the GPU colony — — free 2×X □quantity mutually □, even is higher than above 4 cards 12. hardware to support the DVI-HDCP 13. hardware to support Quad-DVI □(□□card) 14. 230W TDP PCI-SIG to be compatible
notate niente...? :sofico:
http://img457.imageshack.us/img457/729/1177811988np0.jpg
si, ma quello che rode è il fatto che, a quanto si legge in giro, entro settembre uscira la nuova scheda a 65 nanometri che scaldera e consumera di meno e allo stesso tempo dovrebbe avere freq piu alte..
quindi si prospetta lo stesso giochetto che ati ha fatto con le 1800 e 2 mesi dopo le 1900...
http://www.tomshw.it/news.php?newsid=9958
;)
9. completely compatible DX10 as well as DX10.1 the draft
notate niente...? :sofico:
ti riferisci a questo? :asd:
R600 project □card □standard: 1.64 4-Way a SIMD □□color engine, 128 Shader Operations/Cycle 2. TMU×32, ROP×16 3. 512bit □saves controller 4. □to save uses GDDR3@900MHz (in May, 2007 edition) 5. □to save uses GDDR4@1.1GHz (in June, 2007 edition) 6. GDDR3 □□□115GB/s 7. GDDR4 □□□140GB/s 8. supports highest 1024MB □to save 9. completely compatible DX10 as well as DX10.1 the draft 10. 32FP □□principle □regulation 11. hardware supports the GPU colony — — free 2×X □quantity mutually □, even is higher than above 4 cards 12. hardware to support the DVI-HDCP 13. hardware to support Quad-DVI □(□□card) 14. 230W TDP PCI-SIG to be compatible
notate niente...? :sofico:
Secondo me varie info in quella lista (che mi pare la stessa che avevo postato io in turco) sono sbagliate: dalle 128 shader operations per ciclo (se gli stream processors sono 320 ne fa 320 di shader operations/ciclo) al TDP.
In effetti, da quanto ho letto ultimamente, sembra che le DX10.1 saranno compatibili con tutte le schede DX10... :boh:
La Tessellation Unit di R600 potrebbe essere un qualcosa che verrà richiesto ancora successivamente alle DX10.1, ma che comunque darebbe il famoso enorme vantaggio rispetto a G80 nelle prestazioni di Geometry Shading... :stordita:
era stata postata anche una news proprio in questo Thread ...che parlava di una prossima scheda ATI con chip RV670 e bus 256bit :)
:oink:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=852&Itemid=1
65 nanometre 256 bit chip
ATI has a few new 65 nanometre cards planned for Q3 2007. One of the most interesting one is the RV670 a 65 nanometre mainstream core with 256 bit memory interface. This card is scheduled to replace the RV570 or Radeon X1950 PRO cards.
ATI will brand this one as Radeon HD 2900 PRO and the card is based on RV670 core done in 65 nanometre. The card comes with 512 MB of memory and DAAMIT doesn't plan to introduce this card on the 14th it will wait till the card is ready.
We heard that it might be some showcase of the beta cards at Computex. So if Nvidia launches a 256 bit version of G84 ATI will have something to fight it with.
Tra l'altro Fudzilla riporta anche gli stessi rumors sulla lineup che avevo riportato io ieri... Ma non è che legge il forum? :sofico:
EDIT: Sembra che VR-Zone stia già preparando l'articolo su R600... :D
Tenete d'occhio questo link (http://www.vr-zone.com/?i=4946&s=1) (e scorrete il menu a tendina). ;)
e se cambiassero solo le frequenze di core e mem. rispetto alla xt??
tipo un 600/1400mhz....
cmq credo che se partissero anche le shader units, le ridurrebbero solo di 1/4 rispetto alla XT ...quindi magari la XL avrà 48 4-Way ?? :fagiano: ???
............ :oink:
Potrebbe essere...
Comunque consumerebbe meno anche in OC... Quindi o ha meno shaders (e forse meno TMU/ROPs?) e il bus a 512 oppure le castrano il bus portandolo a 256 lasciando lo stesso numero di shaders ma con frequenze più basse. In questo caso sarebbe poi la Pro ad avere meno shaders... :boh:
Skullcrusher
07-05-2007, 08:18
la XL potrebbe essere davvero gustosa se i prezzi partono da 400..
Io invece vedendo i prezzi partire da 400€, sono sempre più certo che a breve esca la tanto attesa XTX....:D
EDIT: Sembra che VR-Zone stia già preparando l'articolo su R600... :D
Tenete d'occhio questo link (http://www.vr-zone.com/?i=4946&s=1) (e scorrete il menu a tendina). ;)
c'è una pagina unreal overclocking...
NDA for complete ATI Radeon HD2000 Series product list ends May 14th, 2007 15:00h CET, excluded ATI Radeon HD2900PRO
:cry:
La XL, stando alle pochissime notizie viste finora, dovrebbe essere la scheda a 512bit meno costosa. Però non si sa quante shading units avrà... :stordita:
quoto :)
c'è una pagina unreal overclocking...
Trovo più interessanti le pagine "New Antialiasing" e "Wide-Tent Anti-aliasing" :)
c'è una pagina unreal overclocking...
Sì, sembra che a VR-Zone stiano facendo anche i test di OC estremo... Very interesting! :sofico:
Altro quote del mai banale Kombatant... :D
Originally Posted by Kombatant
Since it's another beautiful morning, here's a little piece of info for those of you who care about Linux and whether the card will have Linux drivers upon launch:
http://img517.imageshack.us/img517/1082/linuxccccu3.png
In questo momento penso questo: bisogna aspettare schede video con GPU sviluppate a 65nm che tradotto significa frequenze superiori (maggiore velocità) ma soprattutto consumi minori. Credo che debba essere questo l'obbiettivo delle nuove schede video, consumare di meno. Perchè a me sinceramente fare 200 fps in un gioco piuttosto che 100 non mi cambia nulla... soprattutto quando per il mio occhio frequenze superiorie ai 50Hz differenze non ce ne sono... o quando il refresh del mio monitor è fissato a 75Hz!!! E' giusto dire che la gente con i propri soldi può fare quello che vuole ma la mia opionione è che per un gioco in DX9 una X1950XTX va più che bene... soprattutto perchè credo che le persone che che giocano a risoluzioni superiori alla 1280x1024 sono relativamente poche (IMHO si intende). Poi cacchio io non so... come diavolo è possibile che ci sono schede video DX10 ma non ci sono i giochi?? C'è qualcosa di marcio soprattutto se si pensa che Flight Simulator X nativo per Vista dovrebbe avere il supporto per le DX10... e allora come mai bisognerebbe aspettare una presunta patch per avere queste benedette DX10 su FSX??? Una cosa è certa, io sicuramente non vado a comprarmi una scheda video DX10 quando non ci sono giochi DX10 o quando c'ho già una X1900XT che per i giochi DX9 va molto bene...
Sì, sembra che a VR-Zone stiano facendo anche i test di OC estremo... Very interesting! :sofico:
Altro quote del mai banale Kombatant... :D
Perchè alcuni dati sono nascosti?
Perchè alcuni dati sono nascosti?
Perchè comunque Kombatant, alias Panagiotis Vagiakos, Technical PR Manager per l'area EMEA (Europa, Medio-Oriente e Africa) di AMD, è sotto NDA. ;)
In questo momento penso questo: bisogna aspettare schede video con GPU sviluppate a 65nm che tradotto significa frequenze superiori (maggiore velocità) ma soprattutto consumi minori. Credo che debba essere questo l'obbiettivo delle nuove schede video, consumare di meno. Perchè a me sinceramente fare 200 fps in un gioco piuttosto che 100 non mi cambia nulla... soprattutto quando per il mio occhio frequenze superiorie ai 50Hz differenze non ce ne sono... o quando il refresh del mio monitor è fissato a 75Hz!!! E' giusto dire che la gente con i propri soldi può fare quello che vuole ma la mia opionione è che per un gioco in DX9 una X1950XTX va più che bene... soprattutto perchè credo che le persone che che giocano a risoluzioni superiori alla 1280x1024 sono relativamente poche (IMHO si intende). Poi cacchio io non so... come diavolo è possibile che ci sono schede video DX10 ma non ci sono i giochi?? C'è qualcosa di marcio soprattutto se si pensa che Flight Simulator X nativo per Vista dovrebbe avere il supporto per le DX10... e allora come mai bisognerebbe aspettare una presunta patch per avere queste benedette DX10 su FSX??? Una cosa è certa, io sicuramente non vado a comprarmi una scheda video DX10 quando non ci sono giochi DX10 o quando c'ho già una X1900XT che per i giochi DX9 va molto bene...
I giochi DX10 stanno per uscire, tra maggio e giugno qualcosa si inizierà a vedere, e così si inizierà a comprendere il reale valore della lineup ATi e nVIDIA. ;)
la 2900 pro sarebbe stata la scheda perfetta (tra l'altro, l'ultima immagine postata o è una pro o è una XL, dato che c'è solo un connettore a 6 pin...) ma aspettare l'autunno è fuori discussione :muro:
Ora, o 2600xt top di gamma, sperando che non facciano voli pindarici coi prezzi - non si sa mai da noi eh, son capaci di sparare 250 per la versione da 512 con gddr4, e se non va minimo come la 8800gts da 320 farà scaffale - oppure la pazzia e 2900xl... se si piazza intorno ai 299.
speriamo che con questa serie AMD si degni ad aumentare il supporto per Linux, ora per ora si deve ripiegare su nVidia per avere de driver degni di tale nome :(
leoneazzurro
07-05-2007, 09:04
sicuramente se costasse 300€ sarebbe la mia prossima scheda.
e se cambiassero solo le frequenze di core e mem. rispetto alla xt??
tipo un 600/1400mhz....
cmq credo che se partissero anche le shader units, le ridurrebbero solo di 1/4 rispetto alla XT ...quindi magari la XL avrà 48 4-Way ?? :fagiano: ???
............ :oink:
Se avesse 48 (*5) unità, l'organizzazione sarebbe divisa in 3 gruppi da 16 (*5) unità di calcolo.
la 2900 pro sarebbe stata la scheda perfetta (tra l'altro, l'ultima immagine postata o è una pro o è una XL, dato che c'è solo un connettore a 6 pin...)
Guarda che ci sono entrambi i connettori, solo che dalla foto non si vede bene quello ad 8 pin, e pare che non ci sia (invece c'è) ;)
http://www.hwupgrade.it/forum/showpost.php?p=17017266&postcount=5902
leoneazzurro
07-05-2007, 09:10
La Tessellation Unit di R600 potrebbe essere un qualcosa che verrà richiesto ancora successivamente alle DX10.1, ma che comunque darebbe il famoso enorme vantaggio rispetto a G80 nelle prestazioni di Geometry Shading... :stordita:
Il vantaggio nel GS deriverebbe IMHO maggiormente dall'architettura, dato che in genere le operazioni sui vertici e geometriche vengono svolte su 4+1 componenti, e quindi ogni unità di shading di R600 può effettuare un calcolo in un solo ciclo di clock, mentre in G80 causa un pò più di lavoro.
gianni1879
07-05-2007, 09:12
lamentati... con pochi € ti sei preso una scheda venduta come fascia media ma che in realtà andava come una di fascia alta!!!
magari facessero una 2900gto moddabile :oink:
beh magari Sapphire più avanti se ne uscirà con una HD2900gto2 non è da escludere
leoneazzurro
07-05-2007, 09:16
Secondo me varie info in quella lista (che mi pare la stessa che avevo postato io in turco) sono sbagliate: dalle 128 shader operations per ciclo (se gli stream processors sono 320 ne fa 320 di shader operations/ciclo) al TDP.
In effetti, da quanto ho letto ultimamente, sembra che le DX10.1 saranno compatibili con tutte le schede DX10... :boh:
La Tessellation Unit di R600 potrebbe essere un qualcosa che verrà richiesto ancora successivamente alle DX10.1, ma che comunque darebbe il famoso enorme vantaggio rispetto a G80 nelle prestazioni di Geometry Shading... :stordita:
No... la scheda ha un solo connettore PCI-Express per l'alimentazione :D
Se fosse la XT definitiva sarebbe una cosa interessante, forse non lo è (forse è una Pro o una XL) ma al momento non si può essere sicuri di nulla
Portocala
07-05-2007, 09:19
Una cosa è certa, io sicuramente non vado a comprarmi una scheda video DX10 quando non ci sono giochi DX10 o quando c'ho già una X1900XT che per i giochi DX9 va molto bene...
:asd:
tu no, ma chi ha un pc olderrimo e vuole comperarsi uno nuovo andrà a comperarsi una scheda dx10 :D e quindi sto hype rompe ancora di più :sofico:
se ho letto bene 179€, allora è un buon prezzo se le prestazioni sono almeno simili se non superiori alla 1950 Pro. :stordita:
se ho letto bene 179€, allora è un buon prezzo se le prestazioni sono almeno simili se non superiori alla 1950 Pro. :stordita:
Sono ancora prezzi ipotetici, anche perchè sul resto della lineup che non sia la HD2900 XT si sa ben poco... :stordita:
Comunque secondo me per la 256MB è un prezzo possibile, in modo da lasciare spazio alla 512MB (GDDR3? GDDR4?) che dovrebbe essere quella più overcloccabile (magari le mettono pure un connettore extra).
Oggi comunque Kinc ha confermato i 12000 punti con tutto a stock (forse anche la cpu). Il che vorrebbe dire imho circa 4600+ punti SM2 e circa 5100+ SM3.
Originally Posted by Kinc
It is about 12k all at stock.
No... la scheda ha un solo connettore PCI-Express per l'alimentazione :D
Se fosse la XT definitiva sarebbe una cosa interessante, forse non lo è (forse è una Pro o una XL) ma al momento non si può essere sicuri di nulla
Credo tu stia rispondendo a me, mi sa che hai toppato il quote ;)
Cmnq i connettori sono due, guarda bene (oltre che essere le stesse schede fotografate nel post che ho linkato, che hanno entrambe due connettori)
Oggi comunque Kinc ha confermato i 12000 punti con tutto a stock (forse anche la cpu). Il che vorrebbe dire imho circa 4600+ punti SM2 e circa 5100+ SM3.
Link per piacere?:)
leoneazzurro
07-05-2007, 09:47
Credo tu stia rispondendo a me, mi sa che hai toppato il quote ;)
Cmnq i connettori sono due, guarda bene (oltre che essere le stesse schede fotografate nel post che ho linkato, che hanno entrambe due connettori)
No, tranquillo, non ho toppato quote, anche se in questo shot
http://www.hwupgrade.it/forum/showpost.php?p=17020738&postcount=6007
la scheda sembra avere solo 1 connettore (a 6 pin).
Però andando sul sito originale, negli altri shot si vede che ne ha due.
Hmm.. come non detto, allora.
Link per piacere?:)
http://www.nordichardware.com/forum/omg-look-what-i-found-on-my-usb-flash-drive-vt8428.html ;)
Ovviamente la cpu, pure a stock, rimarrebbe un quad core QX6700, che non è proprio una cosa da tutti (anzi). Però i valori dovrebbero rimanere quelli. Con un E6600 stock sarebbero comunque oltre 10100 punti, imho.
Comunque attendiamo ancora qualcosa di più succoso. :)
:asd:
tu no, ma chi ha un pc olderrimo e vuole comperarsi uno nuovo andrà a comperarsi una scheda dx10 :D e quindi sto hype rompe ancora di più :sofico:
se ho letto bene 179€, allora è un buon prezzo se le prestazioni sono almeno simili se non superiori alla 1950 Pro. :stordita:
Si hai ben ragione, forse sono io che non sono abbastanza maturo... ma secondo me vale la pena aspettare ancora un 6 mesi e comprare una scheda video a 65nm!!! Se hai resistito fino ad ora e se tieni conto che per vedere molti giochi in DX10 6 mesi ci vogliono tutti... io aspetterei... al massimo mi prenderei a 100€ una X1900XT di seconda mano giusto, giusto per l'attesa...
Portocala
07-05-2007, 09:53
mi sono perso con le sigle ma se i prezzi saranno simil nvidia, 150 per la 2600?? e 200 per la 2600??? spero valgano la spesa in quanto le 8600 fanno pena
http://www.dailytech.com/More+ATI+Radeon+HD+2600+and+HD+2400+Details+Unveiled/article7117.htm
Athlon 64 3000+
07-05-2007, 10:12
http://www.dailytech.com/More+ATI+Radeon+HD+2600+and+HD+2400+Details+Unveiled/article7117.htm
sono andati a riprendere una tabella che avevano pubblicato diversi mesi fa che riporta per la fascia media dei consumi completamente sensa senso.
sono andati a riprendere una tabella che avevano pubblicato diversi mesi fa che riporta per la fascia media dei consumi completamente sensa senso.
ah capito,mi sembrava una tabella nuova visto che la notizia è stata riportata oggi..
Athlon 64 3000+
07-05-2007, 10:27
ah capito,mi sembrava una tabella nuova visto che la notizia è stata riportata oggi..
MI viene da pensare che Dailytech abbia ripreso la tabella solo per cercare di danneggiare Ati come quando ha pubblicato quei benchmark completamente inventati.
gianni1879
07-05-2007, 10:45
MI viene da pensare che Dailytech abbia ripreso la tabella solo per cercare di danneggiare Ati come quando ha pubblicato quei benchmark completamente inventati.
ma a quale scopo?? che ne guadagnerebbe??
MI viene da pensare che Dailytech abbia ripreso la tabella solo per cercare di danneggiare Ati come quando ha pubblicato quei benchmark completamente inventati.
è stato confermato che erano fake?
leoneazzurro
07-05-2007, 10:46
Dato che molte foto recenti attribuite della HD 2600 XT vedono la scheda SENZA connettori di alimentazione ausiliari, possiamo dire che la tabella d Dailytech è ampiamente errata alla voce consumi.
leoneazzurro
07-05-2007, 10:48
è stato confermato che erano fake?
Diciamo che l'opinione di molti che sono sotto NDA è che siano stati fatti su schede di pre-release e con drivers tutt'altro che aggiornati.
Diciamo che l'opinione di molti che sono sotto NDA è che siano stati fatti su schede di pre-release e con drivers tutt'altro che aggiornati.
= attendibilità prossima allo zero..
Diciamo che l'opinione di molti che sono sotto NDA è che siano stati fatti su schede di pre-release e con drivers tutt'altro che aggiornati.
= attendibilità prossima allo zero..
sì, sapevo di questo. comunque nessuna smentita ufficiale?
dailytech lo ritenevo più serio.
bladerunner86
07-05-2007, 10:59
= attendibilità prossima allo zero..
corsini aveva fatto capire che mentre c' erano siti come fudzilla ecc... che sparano cazzate, il sito dailyteck posside veramente la schede della ati ( avute da un sito a loro associato sotto nda) e che i test da loro eseguiti a causa di driver non maturi e probabilmente delle schede non definitive ma dei prototipi i loro valori non erano molto attendibili.
leoneazzurro
07-05-2007, 11:00
Nessuna smentita ufficiale, anche se Kombatant (che lavora per AMD) ha detto di dare retta solo ai risultati ufficiali e che gli utenti sarebbero stati "piacevolmente sorpresi" da R600.
halduemilauno
07-05-2007, 11:01
Diciamo che l'opinione di molti che sono sotto NDA è che siano stati fatti su schede di pre-release e con drivers tutt'altro che aggiornati.
e quindi pur con queste limitazioni(cmq da verificare)veri. e il tutto è ancor da verificare con rece esaustive.
;)
Foglia Morta
07-05-2007, 11:03
sì, sapevo di questo. comunque nessuna smentita ufficiale?
dailytech lo ritenevo più serio.
nessuna smentita ufficiale...
Comunque ci sta che abbiano pubblicato quei test, alla fine loro non hanno firmato nessun NDA e fanno i loro interessi.
La loro serietà potrebbe essere messa in discussione da queste 2 frasi che hanno scritto:
Today's tests used retail drivers ATI released to its board partners.
The less than stellar performance benchmarks are no surprise to board partners and AMD insiders
e quindi pur con queste limitazioni(cmq da verificare)veri. e il tutto è ancor da verificare con rece esaustive.
;)
Quindi seguendo il tuo stesso ragionamento possiamo dire che in DX10 R600 va fino a 50 volte più veloce di G80? Perchè seppure con driver vecchi, le limitazioni del software eccetera, con la patch DX10 di Call of Juarez, i test sono veri.
Giusto? Immagino comunque già la risposta ;)
leoneazzurro
07-05-2007, 11:06
e quindi pur con queste limitazioni(cmq da verificare)veri. e il tutto è ancor da verificare con rece esaustive.
;)
Diciamo che per come hanno posto il tutto il caso ricorda molto quello di Sander Sassen.
halduemilauno
07-05-2007, 11:12
Diciamo che per come hanno posto il tutto il caso ricorda molto quello di Sander Sassen.
beh da parte loro c'è cmq un feedback più positivo rispetto al citato. diciamo cosi. cmq loro le schede le avevano veramente.
;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.