Entra

View Full Version : [THREAD UFFICIALE] Aspettando ATi HD 2900XT


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 [21] 22 23 24 25 26 27 28 29 30 31

Athlon 64 3000+
03-05-2007, 12:17
Io non credo ne alla presunta recensione di Dailytech ne alle sparate di fudzilla.
Ancora 11 giorni e finalmente si saprà tutto.

zorco
03-05-2007, 13:40
Io non credo ne alla presunta recensione di Dailytech ne alle sparate di fudzilla.
Ancora 11 giorni e finalmente si saprà tutto.
idem...

vicius80
03-05-2007, 13:43
Sarebbe meraviglioso! non ci credo nemmeno un po' (come tutte le notizie che girano ultimamente),ma sperare non costa nulla (specialmente per la XTX) :)

non ci credo neanche io però penso che questi ritardi servano a qualcosa.....quindi nulla è impossibile!;)

jinkky
03-05-2007, 13:49
E' già stato specificato che questo thread "Aspettando..." vale per tutti i derivati di R600, quindi dalla 2900xtx alle 2400 :D

A me (e molti altri) della 2900xt non può fregare di meno, se non per pura curiosità, e si aspetta 2600xt... e quei bench, se veritieri, sono decisamente preoccupanti. Se Amd/Ati mi tira fuori una scheda di fascia media che ha le stesse prestazioni scadenti delle 8600 Nvidia, è la volta buona che risparmio, mi prendo una 1950 ed aspetto la prossima infornata dei due produttori, sperando in rese meno ridicole.

Anche io aspetto la 2600xt (avendo già la ps3 come top)...

ale0bello0pr
03-05-2007, 13:54
penso che Kristopher Kubicki sia un fanboy Nvidia..o addirittura se nn ricordo male era implicato nell'nVidia system....

Questo spiega gli articoli ANTI-AMD:D

appleroof
03-05-2007, 13:59
1) Se l'architettura di R600 è quella mostrata nelle slides e commentata da Yossarian (quindi direi che è quella :D) IMHO realizzare drivers (e compilatori) molto performanti è decisamente più complesso che non nel caso di G80, che dalla sua ha comunque 6 mesi di "maturità" drivers in più. Non mi stupirebbe poi che AMD/ATI si sia focalizzata principalmente sui drivers per Vista e sul discorso stabilità, per un motivo molto semplice: gli OEM. Quindi per R600 è comunque ipotizzabile un miglioramento prestazionale via via maggiore con l'affinamento dei drivers.
Detto questo, comunque sangue da una rapa non si può cavare, ergo se in DX9 la scheda ha dei fattori limitanti non è che magicamente un driver può migliorare le prestazioni del 200%. Vedremo nelle recensioni.


Questa volta però c'è da vedere anche (e sopratutto direi) come andrà in dx10, dove forse la differenza si vedrà eccome, nel bene e nel male (vale anche per le nvidia)

vicius80
03-05-2007, 14:22
a me interessa la fascia media. me ne frego dell'ultra e dell'supergts e roba varia. :fagiano:


2900xt - 8800gts
2600xt - 8600gts

suppongo ci sarà una 2600 pro da affiancare alla 8600gt vero?

non sono d'accordo per niente....secondo me sarà così come già detto 300 post fa:D :

2900xtx - superiore alla 8800 ultra
2900xt - 8800gtx
2600xt - 8800gts

se poi sarà vero il discorso dei 65nm non ci sarà sfida....

vicius80
03-05-2007, 14:24
da qua al 14 maggio arriveremo di sto passo a 600 pagine....:sofico:

Kharonte85
03-05-2007, 14:25
da qua al 14 maggio arriveremo di sto passo a 600 pagine....:sofico:
Il bello è che le stsse cose le trovi scritte a "loop" sia all'inizio, sia in mezzo e ci saranno anche alla fine...:D
Fudzilla: "Have you ever met Mr Burns from Springfield? If you haven't, meet his cousin, his name is Mr R600XT, as this card has great potential to burn your fingers. (lol)

A chap informed us that after the card was powered down for two minutes he still couldn't touch the back of the cooler. A separate source reported that the card runs at about 100 degrees Celsius which is ridiculously hot.

So an R600 can at least heat your apartment and don't even think about putting one in a plastic case as, it might melt it. This just adds to the bad news about the R600XT. I really think that this time AMD got really close to a NV30, Geforce 5800 Ultra fiasco, but it got at least get some things right. The R600XT can fight the 8800 GTS but nothing more than that, at 100 degrees Celsius."

:rotfl:

Mister Tarpone
03-05-2007, 14:26
non sono d'accordo per niente....secondo me sarà così come già detto 300 post fa:D :

2900xtx - superiore alla 8800 ultra
2900xt - 8800gtx
2600xt - 8800gts

se poi sarà vero il discorso dei 65nm non ci sarà sfida....

:sbonk: cioè secondo te una 2600xt sarà paragonabile ad una 8800gts??
ho capito bene??

magari.... :fagiano:

bladerunner86
03-05-2007, 14:31
mi sento tanto un' utonto sto aspettando da 6 mesi e ora bisogna aspettare altri 5 mesi per giochi. meglio che uno si compra o un biliardo o un flipper professionali almeno si gioca con gli amici

Portocala
03-05-2007, 14:34
non sono d'accordo per niente....secondo me sarà così come già detto 300 post fa:D :

2900xtx - superiore alla 8800 ultra
2900xt - 8800gtx
2600xt - 8800gts

se poi sarà vero il discorso dei 65nm non ci sarà sfida....
mmhh, se non sarà cosi e io avrò ragione vengo a trovarti sotto casa :D

da quello che ho letto io, la mia ipotesi sembra molto più realistica :Prrr: :sofico:

TecnoWorld8
03-05-2007, 14:48
che ne dite? farà davvero 100°C? La mia scheda in sign va comunque ad 86-87° sotto massimo sforzo...quindi non è del tutto impossibile, anche se chiaramente c'è la barriera psicologica delle tre cifre...

http://www.fudzilla.com/index.php?op...803&Item id=1

continuo a dire che ATi doveva fare il possibile per farla uscire a 65nm, a costo di aspettare ancora 2 mesi

Dexther
03-05-2007, 14:50
la x1900 col dissi stock lavorava praticamente sempre oltre i 90° coi settings RPM/C° di default ;)

DakmorNoland
03-05-2007, 14:52
che ne dite? farà davvero 100°C? La mia scheda in sign va comunque ad 86-87° sotto massimo sforzo...quindi non è del tutto impossibile, anche se chiaramente c'è la barriera psicologica delle tre cifre...

http://www.fudzilla.com/index.php?op...803&Item id=1

continuo a dire che ATi doveva fare il possibile per farla uscire a 65nm, a costo di aspettare ancora 2 mesi

Sì ma chi si compra ste schede, sia 8800GTX che 2900XT, fa un gran cavolata!

Tempo un anno e ci saranno sicuramente le stesse soluzioni con consumi inferiori e meno effetto stufetta! Tanto non posso andare avanti così, i dissi ad aria non bastano +, non hanno soluzione, devono seguire il trend delle CPU.

TecnoWorld8
03-05-2007, 14:56
Sì ma chi si compra ste schede, sia 8800GTX che 2900XT, fa un gran cavolata!

Tempo un anno e ci saranno sicuramente le stesse soluzioni con consumi inferiori e meno effetto stufetta! Tanto non posso andare avanti così, i dissi ad aria non bastano +, non hanno soluzione, devono seguire il trend delle CPU.

Il problema è che da ora a un anno la nostra scheda andrà bene come un fermaporta ;) Già ora inizio a trovare titoli che provo e metto da parte per quando avrò una scheda più potente (es. rainbow 6 vegas, stalker, splinter cell, ...)

yossarian
03-05-2007, 15:13
Ciao Yoss, bello risentirti! :D
Uhm.. non faccio in tempo a farmi qualche giorno di vacanza che mi riempiono venti pagine di commenti :D

Una sola domanda: d'accordo che si va verso un rapporto ALU:TEX sempre più alto, ma almeno si poteva evitare di lesinare sul filtraggio delle texture? 16 mi sembra un numero un pò bassino per una scheda di fascia alta...

vero, però, purtroppo, in fase di progettazione bisogna operare delle scelte (e non tutto c'entra, intendo dire fisicamente, all'interno del die :D ). Nelle operazioni di texturing il problema principale è quello delle latenze nelle operazioni di texture fetch; per questo motivo, ad ogni step di sviluppo, si pensa a soluzioni sempre più efficaci che permettano alle unità che si occupano di texture filtering di restare in idle il meno possibile. Questa di dotare il chip di 80 unità di texture fetch e 16 di texture filtering è una di queste.
Dalle considerazioni fatte e dalle slide postate, emerge una notevole differenza a livello architetturale tra r600 e g80. Nel primo sono state operate scelte più "radicali", mentre il secondo ha un'architettura più "conservativa" che potrebbe pagare di più nell'immediato (mi viene da pensare, ad esempio, al crossbar del mc o all'architettura delle pipeline, schematizzabile con un 32 alu full vect4 con 32 tmu, anche se di fatto si tratta di un'architetura superscalare divisa in 8 blocchi da 16 alu con 4 tmu per ciascun blocco)

bladerunner86
03-05-2007, 15:16
http://www.fudzilla.com/index.php?option=com_content&task=view&id=811&Itemid=1
in germania già si trovano le 2900xt hd a 365 euro, mi aspetto tra uno o due mese già ad un prezzo compreso tra i 330/350 euro

bladerunner86
03-05-2007, 15:17
http://www.fudzilla.com/index.php?option=com_content&task=view&id=811&Itemid=1
ed ecco pure le richieste hardware per la scheda

DakmorNoland
03-05-2007, 15:19
Il problema è che da ora a un anno la nostra scheda andrà bene come un fermaporta ;) Già ora inizio a trovare titoli che provo e metto da parte per quando avrò una scheda più potente (es. rainbow 6 vegas, stalker, splinter cell, ...)

Boh sarà che non gioco agli FPS online. :p

Per ora mi gira tutto o bene o molto bene a 1680x1050!!!

Solo ho avuto problemi con NWN2, che ho dovuto disabilitare le ombre e poi andava fluido, bah. Forse cmq con i cata 7.4 hanno risolto, proverò.

wiltord
03-05-2007, 15:20
http://www.fudzilla.com/index.php?option=com_content&task=view&id=811&Itemid=1
in germania già si trovano le 2900xt hd a 365 euro, mi aspetto tra uno o due mese già ad un prezzo compreso tra i 330/350 euro

beh 365€ come prezzo di lancio comincia a essere interessante.. :)

Athlon 64 3000+
03-05-2007, 15:36
http://www.fudzilla.com/index.php?option=com_content&task=view&id=810&Itemid=1

vicius80
03-05-2007, 15:36
mmhh, se non sarà cosi e io avrò ragione vengo a trovarti sotto casa :D

da quello che ho letto io, la mia ipotesi sembra molto più realistica :Prrr: :sofico:

ragazzi se non è così, spiegatemi il motivo di questi ritardi??? io sono dell'idea che non sono ritardi ma strategie di mercato. ATI ha capito che può bastonare forte NVIDIA e penso si giocherà tutte le armi migliori per farlo il più a lungo possibile.....se è come dite voi a quel punto sarebbe una concorrenza quasi alla pari, anche perchè appena NVIDIA si accorgerà dei prezzi stracciati di ATI li abbasserà per forza, e diventerebbe appunto una conconrrenza alla pari, invece secondo me a questo punto ATI VUOLE MOLTO DI PIU'........:sofico:

Stig
03-05-2007, 15:37
beh 365€ come prezzo di lancio comincia a essere interessante.. :)

per la miseria se è interessante..:) anche se da noi sara sicuramente di piu..:mad:

TecnoWorld8
03-05-2007, 15:38
Boh sarà che non gioco agli FPS online. :p

Per ora mi gira tutto o bene o molto bene a 1680x1050!!!

Solo ho avuto problemi con NWN2, che ho dovuto disabilitare le ombre e poi andava fluido, bah. Forse cmq con i cata 7.4 hanno risolto, proverò.

io gioco a 1280x1024 e i giochi evidenziati con tutto al max sono attorno ai 20-25fps di media, per me assolutamente non accettabile. persino spiderman 3 non mi gira fluidissimo, anche senza AA :(

Free Gordon
03-05-2007, 15:39
ma entra nel mio case da 40€ però :asd:
;)



Dipende solo da quanti rack per HD hai e se hai il liquido integrato o meno... ;)

Se la scheda la monti su un banchetto ci sta sicuramente, ad esempio. :D

Andrea deluxe
03-05-2007, 15:40
una curiosita'?

io che posseggo un monitor @ 1920x1200 sono obbligato ad aspettare la eventuale xtx 1024mb oppure vado di 512mb?

inoltre: il quantitativo di mb utilizzati dalla gpu e' dipendente dal numero di frame x secondo? ed in che modo?

grazie

Stig
03-05-2007, 15:41
http://www.fudzilla.com/index.php?option=com_content&task=view&id=810&Itemid=1

si vabbe..qua hanno sparato che ci vuole un ali da 750 watt in su per la 2900xt..

secondo me è impossibile...tutto marketing..

DakmorNoland
03-05-2007, 15:44
beh 365€ come prezzo di lancio comincia a essere interessante.. :)

Cavoli 365 è ottimo!!! Calcolando poi che gli store tedeschi come spedizioni sono piuttosto affidabili! Per lo meno altern... E una spedizione da la costa poi 25-40€ a seconda della modalità che si sceglie. Quindi in tutto si spende sui 400€ tutto incluso! Mica male!

Nel caso qui in Italia i rivenditori sparassero prezzi sui 450€ marciandoci sopra, mi sembra un'ottima alternativa! :D

Pippox
03-05-2007, 15:44
ragazzi se non è così, spiegatemi il motivo di questi ritardi??? io sono dell'idea che non sono ritardi ma strategie di mercato. ATI ha capito che può bastonare forte NVIDIA e penso si giocherà tutte le armi migliori per farlo il più a lungo possibile.....se è come dite voi a quel punto sarebbe una concorrenza quasi alla pari, anche perchè appena NVIDIA si accorgerà dei prezzi stracciati di ATI li abbasserà per forza, e diventerebbe appunto una conconrrenza alla pari, invece secondo me a questo punto ATI VUOLE MOLTO DI PIU'........:sofico:

certo che sei ottimista:D

TecnoWorld8
03-05-2007, 15:46
secondo me l'unico modo che ATi avrà per convincere a comprare questa scheda, se sarà consermato il consumo folle di oltre 200W ed il riscaldamento da stufa, sarà proprio darla a poco prezzo.

Vedremo le recensioni, ma se andrà poco più di una GTS, non so quale delle due converrà, se questa consumerà così tanto!

appleroof
03-05-2007, 15:48
Sì ma chi si compra ste schede, sia 8800GTX che 2900XT, fa un gran cavolata!

Tempo un anno e ci saranno sicuramente le stesse soluzioni con consumi inferiori e meno effetto stufetta! Tanto non posso andare avanti così, i dissi ad aria non bastano +, non hanno soluzione, devono seguire il trend delle CPU.

Si, tempo due anni e giocheremo a 3000x2000, tempo tre anni e giocheremo dei film in hd, tempo quattro anni e ci immergeremo in un ambiente olografico....scusa l'ironia ma la tua osservazione ha davvero poco senso....

DakmorNoland
03-05-2007, 15:49
io gioco a 1280x1024 e i giochi evidenziati con tutto al max sono attorno ai 20-25fps di media, per me assolutamente non accettabile. persino spiderman 3 non mi gira fluidissimo, anche senza AA :(

???????????????????????

C'è qualcosa che non mi torna, io con la scheda @default giro molto meglio di te! :eek:

Spiderman 3 non l'ho provato, ma magari è solo un problema del gioco, o magari risolveranno con i prossimi catalyst.

appleroof
03-05-2007, 15:49
secondo me l'unico modo che ATi avrà per convincere a comprare questa scheda, se sarà consermato il consumo folle di oltre 200W ed il riscaldamento da stufa, sarà proprio darla a poco prezzo.

Vedremo le recensioni, ma se andrà poco più di una GTS, non so quale delle due converrà, se questa consumerà così tanto!

A rigor di logica non fà una piega, ma non si può dire nulla finchè non usciranno le benedette recensioni ufficiali :rolleyes:

DakmorNoland
03-05-2007, 15:52
Si, tempo due anni e giocheremo a 3000x2000, tempo tre anni e giocheremo dei film in hd, tempo quattro anni e ci immergeremo in un ambiente olografico....scusa l'ironia ma la tua osservazione ha davvero poco senso....

Scusa tanto se non cambiamo tutti scheda grafica ogni tre mesi con le top del momento! :p

Non basta avere pezzi veloci, il pc bisogna anche saperlo far andare, ottimizzare l'OS, i giochi, ecc.

Cmq con sta scheda un anno ci vado avanti in scioltezza.

Dexther
03-05-2007, 15:54
beh 365€ come prezzo di lancio comincia a essere interessante.. :)

altrochè :p

TecnoWorld8
03-05-2007, 15:57
forse sono io ad essere troppo esigente, ma odio la scattosità nei giochi. poi dipende ovviamente dai titoli...io amo molto i FPS e i giochi di guida, e la mia scheda, con gli ultimi usciti sta davvero faticando. Va invece alla grande con giochi tipo command & conquer 3, heroes of m&m ecc ecc, che però non mi fanno impazzire.

cmq se vuoi fare un confronto, io nel 3d mark 2006 faccio circa 2000 punti sia nel SM2.0 che nello SM3.0.




???????????????????????

C'è qualcosa che non mi torna, io con la scheda @default giro molto meglio di te! :eek:

Spiderman 3 non l'ho provato, ma magari è solo un problema del gioco, o magari risolveranno con i prossimi catalyst.

nitroin
03-05-2007, 15:58
altrochè :p

Bisogna vedere con che prestazioni :rolleyes:

E anche quanto consumerà (in rapporto alle prestazioni) 220-240W non sono pochi :fagiano:

E' ovvio che se va più di una GTS ma meno della GTX conviene comunque la prima...se il consumo fosse elevato!

parcher
03-05-2007, 16:00
Bisogna vedere con che prestazioni :rolleyes:

E anche quanto consumerà (in rapporto alle prestazioni) 220-240W non sono pochi :fagiano:

E' ovvio che se va più di una GTS ma meno della GTX conviene comunque la prima...se il consumo fosse elevato!

100° ?????? :cry:

DakmorNoland
03-05-2007, 16:01
forse sono io ad essere troppo esigente, ma odio la scattosità nei giochi. poi dipende ovviamente dai titoli...io amo molto i FPS e i giochi di guida, e la mia scheda, con gli ultimi usciti sta davvero faticando. Va invece alla grande con giochi tipo command & conquer 3, heroes of m&m ecc ecc, che però non mi fanno impazzire.

cmq se vuoi fare un confronto, io nel 3d mark 2006 faccio circa 2000 punti sia nel SM2.0 che nello SM3.0.

Boh il 3d mark non lo considero +! :p Nel 2006 va di + la 1900gt che la 1800xt, poi nei giochi è sempre il contrario. :doh:

Cmq tu parlavi 20-25fps. Mi sembra impossibile.

Io a NWN2 a 1680 tutto al max giro sui 30-35 niente scatti. Devo però disattivare le ombre se no scendo sui 20FPS, ma li è un problema del gioco, che probabilmente è stato ottimizzato per Nvidia. Non ho provato i 7.4, ma cmq in futuro credo risolveranno.

Purtroppo ai giochi in prima persona, non gioco, mi hanno stufato. :p

Giochi di macchine non so a quali ti riferisci, a me Carbon all'inizio a 1680 andava male, poi con i 7.2 fluido anche questo.

nitroin
03-05-2007, 16:01
100° ?????? :cry:

Ti riferisci ai rumors che dicono che il dissipatore della HD 2900 XT raggiunga i 100°?!?

Beh se così fosse ragazzi, le cose si mettono male.

betha
03-05-2007, 16:14
ragazzi se non è così, spiegatemi il motivo di questi ritardi??? io sono dell'idea che non sono ritardi ma strategie di mercato. ATI ha capito che può bastonare forte NVIDIA e penso si giocherà tutte le armi migliori per farlo il più a lungo possibile.....se è come dite voi a quel punto sarebbe una concorrenza quasi alla pari, anche perchè appena NVIDIA si accorgerà dei prezzi stracciati di ATI li abbasserà per forza, e diventerebbe appunto una conconrrenza alla pari, invece secondo me a questo punto ATI VUOLE MOLTO DI PIU'........:sofico:

bella strategia di mercato nel frattempo AMD/ATI é sull'orlo della bancarotta e deve ricorrere a prestiti esterni e a licenziamenti per ridurre l'enorme deficit ma nel frattempo oltre bastonare nvidia bastona pure intel con delle intelligenti strategie di attesa

TecnoWorld8
03-05-2007, 16:15
Boh il 3d mark non lo considero +! :p Nel 2006 va di + la 1900gt che la 1800xt, poi nei giochi è sempre il contrario. :doh:

Cmq tu parlavi 20-25fps. Mi sembra impossibile.

Io a NWN2 a 1680 tutto al max giro sui 30-35 niente scatti. Devo però disattivare le ombre se no scendo sui 20FPS, ma li è un problema del gioco, che probabilmente è stato ottimizzato per Nvidia. Non ho provato i 7.4, ma cmq in futuro credo risolveranno.

Purtroppo ai giochi in prima persona, non gioco, mi hanno stufato. :p

Giochi di macchine non so a quali ti riferisci, a me Carbon all'inizio a 1680 andava male, poi con i 7.2 fluido anche questo.

considera che io gioco con tutto al max max e se si può con AA 4x o 6x. Ti assicuro che stalker fa a dir tanto 20fps di media e anche rainbow six vegas. secondo me nessuno dei prossimi giochi "belli" in uscita sarà giocabile al max dettaglio e risoluzione superiore a 1280x1024 su una scheda inferiore ad una 1950xtx

edit: anche call of juarez va male sulla mia scheda...nn ho provato cn gli ultimi drivers, ma andava proprio maluccio

DakmorNoland
03-05-2007, 16:19
considera che io gioco con tutto al max max e se si può con AA 4x o 6x. Ti assicuro che stalker fa a dir tanto 20fps di media e anche rainbow six vegas. secondo me nessuno dei prossimi giochi "belli" in uscita sarà giocabile al max dettaglio e risoluzione superiore a 1280x1024 su una scheda inferiore ad una 1950xtx

edit: anche call of juarez va male sulla mia scheda...nn ho provato cn gli ultimi drivers, ma andava proprio maluccio

Vabbè io tenendo 1680, l'AA lo tengo disattivato! :p A parte che cmq basterebbe già il 2X.

Cmq se mi dici che tieni 4x o 6x ci credo che hai problemi! A 6x in certi giochi guarda che mi sa che fatica pure la 8800GTS o la 1950xtx, che + o - stanno li.

+Lonewolf+
03-05-2007, 16:21
scusate ma quindi il mio enermax liberty 500w non ce la farà a far andare la configurazione in sign...ma diamine...costa pure 100€...ho letto che consigliano 750w ma a me pare assurdo...CHE ALIMENTATORE CI DEVO METTERE??DEVO CAMBIARE???:cry: :cry:

oro18k
03-05-2007, 16:24
azz io ho un Enermax Coolergiant 480W... mi devo preoccupare?

Nos89
03-05-2007, 16:24
scusate ma quindi il mio enermax liberty 500w non ce la farà a far andare la configurazione in sign...ma diamine...costa pure 100€...ho letto che consigliano 750w ma a me pare assurdo...CHE ALIMENTATORE CI DEVO METTERE??DEVO CAMBIARE???:cry: :cry:

cazzata.basta e avanza

nitroin
03-05-2007, 16:25
Cmq se mi dici che tieni 4x o 6x ci credo che hai problemi! A 6x in certi giochi guarda che mi sa che fatica pure la 8800GTS o la 1950xtx, che + o - stanno li.

Ho qualche dubbio in tal proposito

Nos89
03-05-2007, 16:25
azz io ho un Enermax Coolergiant 480W... mi devo preoccupare?

idem

DakmorNoland
03-05-2007, 16:26
scusate ma quindi il mio enermax liberty 500w non ce la farà a far andare la configurazione in sign...ma diamine...costa pure 100€...ho letto che consigliano 750w ma a me pare assurdo...CHE ALIMENTATORE CI DEVO METTERE??DEVO CAMBIARE???:cry: :cry:

Calmo.

Allora tieni presente che la 8800GTX richiede un 450W con 30 sui +12V (cioè 360W). Il tuo liberty credo avrà 33-36A su quella linea.

Sinceramente non credo che la 2900XT consumerà + di una 8800GTX, cmq nel malaugurato caso ripiega sulla GTX versione Bulk, e con 500 te la cavi. :p

ATi7500
03-05-2007, 16:26
vero, però, purtroppo, in fase di progettazione bisogna operare delle scelte (e non tutto c'entra, intendo dire fisicamente, all'interno del die :D ). Nelle operazioni di texturing il problema principale è quello delle latenze nelle operazioni di texture fetch; per questo motivo, ad ogni step di sviluppo, si pensa a soluzioni sempre più efficaci che permettano alle unità che si occupano di texture filtering di restare in idle il meno possibile. Questa di dotare il chip di 80 unità di texture fetch e 16 di texture filtering è una di queste.
Dalle considerazioni fatte e dalle slide postate, emerge una notevole differenza a livello architetturale tra r600 e g80. Nel primo sono state operate scelte più "radicali", mentre il secondo ha un'architettura più "conservativa" che potrebbe pagare di più nell'immediato (mi viene da pensare, ad esempio, al crossbar del mc o all'architettura delle pipeline, schematizzabile con un 32 alu full vect4 con 32 tmu, anche se di fatto si tratta di un'architetura superscalare divisa in 8 blocchi da 16 alu con 4 tmu per ciascun blocco)
la cosa viene ben ribadita qui: http://forums.techpowerup.com/showthread.php?p=327717
A questo punto mi chiedo: perchè ATi si vuole complicare sempre la vita, considerato anche il fatto che a livello di supporto degli sviluppatori nVidia sta storicamente messa meglio?

bYeZ!

Nos89
03-05-2007, 16:26
Vabbè io tenendo 1680, l'AA lo tengo disattivato! :p A parte che cmq basterebbe già il 2X.

Cmq se mi dici che tieni 4x o 6x ci credo che hai problemi! A 6x in certi giochi guarda che mi sa che fatica pure la 8800GTS o la 1950xtx, che + o - stanno li.

ma ne sei proprio sicuro?la prima va almeno il doppio.la seconda quasi.
saluti.

+Lonewolf+
03-05-2007, 16:27
Calmo.

Allora tieni presente che la 8800GTX richiede un 450W con 30 sui +12V (cioè 360W). Il tuo liberty credo avrà 33-36A su quella linea.

Sinceramente non credo che la 2900XT consumerà + di una 8800GTX, cmq nel malaugurato caso ripiega sulla GTX versione Bulk, e con 500 te la cavi. :p

non ho i soldi x una gtx...

alternative al liberty?

bluefrog
03-05-2007, 16:29
scusate ma quindi il mio enermax liberty 500w non ce la farà a far andare la configurazione in sign...ma diamine...costa pure 100€...ho letto che consigliano 750w ma a me pare assurdo...CHE ALIMENTATORE CI DEVO METTERE??DEVO CAMBIARE???:cry: :cry:

Ma aspettare il 14 quando usciranno le recensioni no? NESSUNO di noi sa nulla riguardo i reali consumi, pazientate ancora qualche giorno e sapremo TUTTO circa HD 2900XT. ;)

Nos89
03-05-2007, 16:29
non ho i soldi x una gtx...

alternative al liberty?

non mi pare il posto ideale per chiedere certe cose;)

ale0bello0pr
03-05-2007, 16:31
E io che ho un 720W della Thermaltake Toughpower?:asd: Devo cambiarlo? :rotfl: non arrivo ai 750:eekk: ...mio dio...:rolleyes: :sbonk:

+Lonewolf+
03-05-2007, 16:31
non mi pare il posto ideale per chiedere certe cose;)

vabbè...dicevo xkè dato che lo devo ancora comprare mi chiedevo se andasse bene x R600...nn sono molto OT se ci pensi...il mio scopo è cmq R600;)

quindi chiedo un ali che in alternativa al liberty mi permette di supportarlo appieno insieme ad un overclock del mio procio

dovella
03-05-2007, 16:33
Ma la cosa che piu mi manda in Tilt è il non possedere minimamente nessun software per spremere le DX 10 con una GTX GTS Ati Etc, quindi nonostante siamo tutti eccitati dall idea di Crysis dobbiamo per forza aspettare per non buttare soldi nel WC. Tuttavia anche le 8600 Gs potrebbero andare meglio con le dx 10 che con le 9, per ora e tutto teorico, Bisogna attendere come dice il titolo del topic Aspettando,,,,,,,,,e non ci resta che aspettare

yossarian
03-05-2007, 16:33
la cosa viene ben ribadita qui: http://forums.techpowerup.com/showthread.php?p=327717
A questo punto mi chiedo: perchè ATi si vuole complicare sempre la vita, considerato anche il fatto che a livello di supporto degli sviluppatori nVidia sta storicamente messa meglio?

bYeZ!

le considerazioni fatte su techpowerup partono da un errore di fondo: gli shader di R600 non sono di tipo full vect4 + scalar ma superscalar co-issued, con una delle alu che funge anche anche da sfu

nitroin
03-05-2007, 16:34
Poi in ogni caso questa cosa dei consumi ci si ritorce contro.

E i connettori 8pin + 6 pin non mi fanno ben sperare!

Sento gente declamare "cavolo! 3xx€...è mia per così poco (licenza poetica)"
Si, la scheda costerà 400€? 380€? ma facciamo anche 360€, bene!...però se a tali spese si deve aggiungere anche un'alimentatore di fascia medio-alta, allora l'affare non è così lampante. A mio avviso sarebbe un'altro punto a nVIDIA ma spero vivamente non sia così!

vicius80
03-05-2007, 16:34
bella strategia di mercato nel frattempo AMD/ATI é sull'orlo della bancarotta e deve ricorrere a prestiti esterni e a licenziamenti per ridurre l'enorme deficit ma nel frattempo oltre bastonare nvidia bastona pure intel con delle intelligenti strategie di attesa

che ATI abbia avuto un periodo di crisi fino a poco tempo fa ci sta e tutti lo sappiamo....ma sono più che sicuro che le schede sono già pronte da marzo-aprile e l'unica maniera che adesso ha per riprendersi è UN VERO BOOM di MERCATO!!! Come giustifichi l'uscita della ULTRA da parte di NVIDIA??? Non mi sembra ce ne fosse bisogno, avendo tutt'ora il monopolio?? Forse sa già cosa ATI sta per far uscire......:eek:

ale0bello0pr
03-05-2007, 16:34
scusate ma quindi il mio enermax liberty 500w non ce la farà a far andare la configurazione in sign...ma diamine...costa pure 100€...ho letto che consigliano 750w ma a me pare assurdo...CHE ALIMENTATORE CI DEVO METTERE??DEVO CAMBIARE???:cry: :cry:

devi metterci una centralina dell'ENEL privata.... :oink:

vicius80
03-05-2007, 16:36
Poi in ogni caso questa cosa di consumi ci si ritorce contro.

E i connettori 8pin + 6 pin non mi fanno ben sperare!

Si, la scheda costerà 400€? 380€? ma facciamo anche 360€...però se a tali spese si deve aggiungere anche un'alimentatore di fascia medio-alta, allora l'affare non è così lampante. A mio avviso sarebbe un'altro punto a nVIDIA ma spero vivamente non sia così!

ma stai a credere a tutte le fesserie (perchè molti ne sparano) di tutti??? Ancora non è uscito una mazza e molti sanno già del wattaggio e delle temperature???? Se si deve parlare tanto per farlo allora.....:doh:

DakmorNoland
03-05-2007, 16:37
non ho i soldi x una gtx...

alternative al liberty?

Forse non hai capito il senso del mio reply! Il tuo liberty ce la fa! Solo non avendo ancora i dati ufficiali, preferisco non affermare cose che si riveleranno sbagliate! Aspetta che esca e sul sito AMD diranno sicuramente le caratteristiche dell'ali consigliato. ;)

Cmq secondo me ce la fai senza problemi.

appleroof
03-05-2007, 16:37
Scusa tanto se non cambiamo tutti scheda grafica ogni tre mesi con le top del momento! :p

Non basta avere pezzi veloci, il pc bisogna anche saperlo far andare, ottimizzare l'OS, i giochi, ecc.

Cmq con sta scheda un anno ci vado avanti in scioltezza.

No, volevo dire che se uno ha determinate esigenze ora, non c'è motivo di aspettare mesi, tutto qui, quindi se uno stà come te e gli va bene fà benissimo ad attendere (anche perchè appunto non ha quella esigenza :p ) se uno invece ha una situazione come tecnoworld8, bè allora è il momento di cambiare senza aspettare nulla, ammesso che lo voglia/può naturalmente, tanto come sappiamo nel mondo dell'informatica cambia tutto alla velocità della luce.

La conclusione è che non è una cavolata secondo me prendere una 8800gtx/2900xt oggi, perchè tutto dipende dalle esigenze e non esiste una regola assoluta :)

+Lonewolf+
03-05-2007, 16:39
ma stai a credere a tutte le fesserie (perchè molti ne sparano) di tutti??? Ancora non è uscito una mazza e molti sanno già del wattaggio e delle temperature???? Se si deve parlare tanto per farlo allora.....:doh:

forse hai ragione sai...in definitiva penso che consumerà come una gts o un po' di +...750w = FAKEEEEEEE:rolleyes:

Pat77
03-05-2007, 16:40
E' già stato specificato che questo thread "Aspettando..." vale per tutti i derivati di R600, quindi dalla 2900xtx alle 2400 :D

A me (e molti altri) della 2900xt non può fregare di meno, se non per pura curiosità, e si aspetta 2600xt... e quei bench, se veritieri, sono decisamente preoccupanti. Se Amd/Ati mi tira fuori una scheda di fascia media che ha le stesse prestazioni scadenti delle 8600 Nvidia, è la volta buona che risparmio, mi prendo una 1950 ed aspetto la prossima infornata dei due produttori, sperando in rese meno ridicole.

Quoto, ci sono anche screen in game incoraggianti ma tutte fake imho, non vedo l'ora che esca per capire tante cose, anche lo sli dovrebbe essere implementato il che non è male (visto la mia main crossfire), a 0,65 dovrebbe consumare meno della mia 1900 gt, staremo a vedere.

+Lonewolf+
03-05-2007, 16:41
Forse non hai capito il senso del mio reply! Il tuo liberty ce la fa! Solo non avendo ancora i dati ufficiali, preferisco non affermare cose che si riveleranno sbagliate! Aspetta che esca e sul sito AMD diranno sicuramente le caratteristiche dell'ali consigliato. ;)

Cmq secondo me ce la fai senza problemi.

GRAZIE;)

appleroof
03-05-2007, 16:42
Quoto, ci sono anche screen in game incoraggianti ma tutte fake imho, non vedo l'ora che esca per capire tante cose, anche lo sli dovrebbe essere implementato il che non è male (visto la mia main crossfire), a 0,65 dovrebbe consumare meno della mia 1900 gt, staremo a vedere.

:D

nitroin
03-05-2007, 16:42
ma stai a credere a tutte le fesserie (perchè molti ne sparano) di tutti??? Ancora non è uscito una mazza e molti sanno già del wattaggio e delle temperature???? Se si deve parlare tanto per farlo allora.....:doh:

Guarda, io a dire il vero non credo a nessuno, infatti, se fai una piccola ricerchina (roba da 5 secondi) mi pare di non aver mai dato un parere a questa vga...ci sono rumors che la fanno andare più di una GTX, altri che la fanno andare meno, altri ancora meno in dx9 e più in dx10 (su che basi, poi, devono dirmelo).

Mi hai, dunque, frainteso dato che con il mio post volevo solo "invitare" alla prudenza verso questo prodotto ed i suoi relativi rumors. Nel caso specifico ragionavo per assurdo.

Spero di essermi chiarito.

Free Gordon
03-05-2007, 16:43
Ormai è risaputo che va più della gts e molto meno della gtx , ma il fatto che consumi di più della gtx mi da troppo da pensare.. Uno la prende perchè costa relativamente poco rispetto alla top gamma nvidia e poi a fine anno ci ha rimesso tutti i soldi in bolletta...:rolleyes:

Credo che nei consumi su un anno, vada considerato anche e sopratutto l'idle, campo in cui le ATI sono sempre andate un pelino meglio delle nVidia. ;)
In sostanza, non credo che una lampadina accesa in più in casa (perchè probabilmente sarà quella la differenza di consumo tra l'una e l'altra) nel corso dell'anno, costi così tanto in termini di dispendio energetico.. soprattutto considerando il fatto che in idle, recuperano. ;)



Credo sia questa , in definitiva , l'arma che ha permesso a questa generazione di gpu nvidia di spuntarla su prestazioni e consumi , aka smentite dell'ultima ora...
Non mi parlate di dx10 dato che non sapremo come vanno ne una ne l'altra almeno ancora per 4-5 mesi ...ergo nuova gen di gpu sia ati che nvidia...

I livelli di clock differenti, già implementati in G70, sono sicuramente un'ottima arma nelle mani di nVidia: permettono di risparmiare transistor sullo shader core. ;)
Resta però il fatto che il resto del chip, potenzialmente più grosso di quello di R600 avrà frequenze inferiori perchè 800mhz non li reggerebbe mai. ;)



P.S. il mio commento non va letto in ottica fud o di parte per la casa californiana , ma come critica nei confronti di una casa che ho sempre rispettato e che fa scelte sempre ai limiti dell'azzardo !!..
A volte il progetto riesce (vedi 9700pro con il suo bel bus a 256bit) e a volte no (X800XT PE) , ma vista la situazione attuale , ho da rimproverare ai 2 ceo di non aver rimandato anche la hd2900XT.. tutto qui.. ;)

Perchè nel caso di x800XT pe non è riuscito? :confused:
In che senso intendi quel "non è riuscito".
Consumava anche di meno della 6800 Ultra... (ah già ma al tempo queste cose non si guardavano... :D ).

ATi7500
03-05-2007, 16:47
le considerazioni fatte su techpowerup partono da un errore di fondo: gli shader di R600 non sono di tipo full vect4 + scalar ma superscalar co-issued, con una delle alu che funge anche anche da sfu

quindi le tue conclusioni sul confronto R600 e G80 sono diverse rispetto a quelle messe in luce su techpowerup? o ritieni che ati abbia fatto il passo più lungo della gamba, a questo giro? magari doveva aspettare i 65nm?

bYeZ!

leoneazzurro
03-05-2007, 16:53
le considerazioni fatte su techpowerup partono da un errore di fondo: gli shader di R600 non sono di tipo full vect4 + scalar ma superscalar co-issued, con una delle alu che funge anche anche da sfu

Tornando a bomba, la questione che ho postato della maggiore difficoltà di ottimizzare i drivers per l'architettura R600 ti pare corretta?
Da quello che ho capito, comunque, G80 ha 64 texture samplers, e R600 16, però a quanto pare una unità di R600 fa più lavoro di una di G80, visto che entrambe possono produrre un valore filtrato bilineare FP64 per ciclo... anche se la limitazione è che su G80 se non erro si può avere un filtraggio trilineare anisotropico per ogni ciclo di clock e su R600 no (anche se poi le TU su R600 hanno frequenza maggiore - o dovrebbero avere frequenza maggiore).

PS:
1) Le specifiche per gli alimentatori per R600 possono anche essere esatte, ma bisogna tenere conto che ATI sa benissimo che "750 W" non è lo stesso valore per tutti gli alimentatori, perchè mentre un buon alimentatore di marca raggiunge benissimo i valori di potenza nominali, un alimentatore economico raggiunge spesso i 750W solo di picco per tempi limitatissimi, per cui dire che la 2900XT necessita di un alimentatore 750W è un modo per dire "se prendete il peggior alimentatore sul mercato con potenza nominale 750W state comunque tranquilli". Credo che un buon alimentatore di marca da 550W sia più che sufficiente per una singola scheda. Del resto anche le specifiche di Nvidia per le 8800GTX (e prima per la serie 7800-7900) erano ampiamente superiori alle necessità reali.
2) i 100°C sul dissipatore sono una boiata.

Nos89
03-05-2007, 16:55
Tornando a bomba, la questione che ho postato della maggiore difficoltà di ottimizzare i drivers per l'architettura R600 ti pare corretta?
Da quello che ho capito, comunque, G80 ha 64 texture samplers, e R600 16, però a quanto pare una unità di R600 fa più lavoro di una di G80, visto che entrambe possono produrre un valore filtrato bilineare FP64 per ciclo... anche se la limitazione è che su G80 se non erro si può avere un filtraggio trilineare anisotropico per ogni ciclo di clock e su R600 no (anche se poi le TU su R600 hanno frequenza maggiore - o dovrebbero avere frequenza maggiore).

PS:
1) Le specifiche per gli alimentatori per R600 possono anche essere esatte, ma bisogna tenere conto che ATI sa benissimo che "750 W" non è lo stesso valore per tutti gli alimentatori, perchè mentre un buon alimentatore di marca raggiunge benissimo i valori di potenza nominali, un alimentatore economico raggiunge spesso i 750W solo di picco per tempi limitatissimi, per cui dire che la 2900XT necessita di un alimentatore 750W è un modo per dire "se prendete il peggior alimentatore sul mercato con potenza nominale 750W state comunque tranquilli". Credo che un buon alimentatore di marca da 550W sia più che sufficiente per una singola scheda. Del resto anche le specifiche di Nvidia per le 8800GTX (e prima per la serie 7800-7900) erano ampiamente superiori alle necessità reali.
2) i 100°C sul dissipatore sono una boiata.

Quoto.basta che l'ali sia di marca non ci saranno problemi.certo se pretendete di far girare queste bestie su un ali xxx da 20€ e 650w bhe avete sbagliato passione:sofico:
Edit:vedi firma

Pat77
03-05-2007, 16:56
:D

Mea culpa, spero nel fuoco incrociato ;)

ale0bello0pr
03-05-2007, 16:57
Scusa tanto se non cambiamo tutti scheda grafica ogni tre mesi con le top del momento! :p

Non basta avere pezzi veloci, il pc bisogna anche saperlo far andare, ottimizzare l'OS, i giochi, ecc.

Cmq con sta scheda un anno ci vado avanti in scioltezza.

OT

Hai detto una cosa giustissima...attualmente si stanno pensando a nuove tecnologie x vga , cpu etc... ma se le stesse software house e le case dei giochi avessero dei reali mostri informatici che sono in grado di farti questo con soli 100Kb.... penso che le nostre schede nn dovranno essere così mostruosamente pesanti e avide di watt, bit, e chi piu' ne ha piu' ne metta...:sofico:

http://en.wikipedia.org/wiki/.kkrieger


http://www.pouet.net/prod.php?which=30244

Magari riuscissero a fare Crysis in soli 10 MB :asd: :eekk:

FINE OT:Prrr:

Free Gordon
03-05-2007, 16:57
Se fossero fake , perchè AMD non chiede di ritirarli ?? , oltre al fatto che hanno le foto del sistema di bench..??
L'unica incognita sono i driver , ma dopo 6 mesi di sviluppo della scheda , temo ci siano solo da limare alcuni problemi di compatibilità...o poco più..

Però se ci pensi sono un pò troppo simili ai test sulle 1950XTX, no? :p
Se fosse così, parrebbe che la 2900XT sia SOLO un 30-35% più veloce di una 1950XTX.. :confused:

Free Gordon
03-05-2007, 16:59
1) Se l'architettura di R600 è quella mostrata nelle slides e commentata da Yossarian (quindi direi che è quella :D) IMHO realizzare drivers (e compilatori) molto performanti è decisamente più complesso che non nel caso di G80, che dalla sua ha comunque 6 mesi di "maturità" drivers in più. Non mi stupirebbe poi che AMD/ATI si sia focalizzata principalmente sui drivers per Vista e sul discorso stabilità, per un motivo molto semplice: gli OEM. Quindi per R600 è comunque ipotizzabile un miglioramento prestazionale via via maggiore con l'affinamento dei drivers.
Detto questo, comunque sangue da una rapa non si può cavare, ergo se in DX9 la scheda ha dei fattori limitanti non è che magicamente un driver può migliorare le prestazioni del 200%. Vedremo nelle recensioni.

Quoto il leone, mi sa che ATI si è un pò "imborghesita" sta volta.. :D e per il momento guarderà più al mercato che alla "gloria".

dj883u2
03-05-2007, 17:04
Tra poco iniziano tuoni e fulmini!
Che le danze abbiano inizio!:)
Ci sarà da divertirsi!:D :D

http://www.xtremesystems.org/forums/showthread.php?t=142955

Ciao;)

retnI W
03-05-2007, 17:06
Infatti se dovesse consumare 240W come nella peggiore nelle ipotesi, il sistema in full consumerebbe un centinaio di watt in più di uno identico di fascia alta con 8800GTX.
Risultato che IMHO anche un alimentatore di 500W reali, se i dati dei 240W sono veri e se non si fa oc sono sufficienti anche se un po al limite per una config con X2900XT.
Se dovesse consumare quanto una 8800Ultra allora 450W sarebbero già ottimi.
La storia dei 750 è una trovata commerciale come già detto, forse sono tanti anche per un crossfire di X2900.

appleroof
03-05-2007, 17:07
Tra poco iniziano tuoni e fulmini!
Che le danze abbiano inizio!:)
Ci sarà da divertirsi!:D :D

http://www.xtremesystems.org/forums/showthread.php?t=142955

Ciao;)

L'ho messo tra i preferiti :) speriamo solo che non valga il detto "tanto rumore per nulla" :D (scherzo, specifichiamo..)

;)

Free Gordon
03-05-2007, 17:11
considera che io gioco con tutto al max max e se si può con AA 4x o 6x. Ti assicuro che stalker fa a dir tanto 20fps di media e anche rainbow six vegas. secondo me nessuno dei prossimi giochi "belli" in uscita sarà giocabile al max dettaglio e risoluzione superiore a 1280x1024 su una scheda inferiore ad una 1950xtx


A Stalker gioco sui 30fps di media, a 1440x900, con illuminazione dinamica full e tutte le slide su 3/4-max. ;)
La scheda sta a 690/750 tramite overdrive.

Sei sicuro di avere tutto a posto? :D

Pat77
03-05-2007, 17:12
Quindi hanno consegnato solo la fascia alta giusto?

appleroof
03-05-2007, 17:14
Quindi hanno consegnato solo la fascia alta giusto?

Mi pare che lanceranno contemporaneamente tutta la gamma..

Kharonte85
03-05-2007, 17:17
Mi pare che lanceranno contemporaneamente tutta la gamma..
Presenteranno contemporaneamente...ma la disponibilita' per la fascia media sembra essersi spostata a Giugno...

betha
03-05-2007, 17:17
che ATI abbia avuto un periodo di crisi fino a poco tempo fa ci sta e tutti lo sappiamo....ma sono più che sicuro che le schede sono già pronte da marzo-aprile e l'unica maniera che adesso ha per riprendersi è UN VERO BOOM di MERCATO!!! Come giustifichi l'uscita della ULTRA da parte di NVIDIA??? Non mi sembra ce ne fosse bisogno, avendo tutt'ora il monopolio?? Forse sa già cosa ATI sta per far uscire......:eek:

dopo 6 mesi è normale che si faccia uscire qualcosa, comunque la ultra é semplicemente una 8800 gtx in oc se fosse uscita una 8900 o la 8950 sarebbe una ragione, ma l'impressione che mi fà nvidia adesso é quella di qualcuno in attesa...della carta che giocherà ATI

appleroof
03-05-2007, 17:18
Presenteranno contemporaneamente...ma la disponibilita' per la fascia media sembra essersi spostata a Giugno...

ah ecco ;)

Free Gordon
03-05-2007, 17:22
Quindi hanno consegnato solo la fascia alta giusto?

Mi sa di sì. Tutti quelli provenienti da Tunisi, sembrano menzionare solo quella per ora.

Pat77
03-05-2007, 17:24
Ma saranno, secondo voi, pci-e normale o 2.0? Ragionandoci la seconda versione offre più banda e più corrente, non vorrei dover cambiare main per supportarla.

Nos89
03-05-2007, 17:25
Mi sa di sì. Tutti quelli provenienti da Tunisi, sembrano menzionare solo quella per ora.

Quoto.credo che le rispettive x2600 2400 usciranno dopo R600 ed essendo basate sulla stessa architettura forse non le hanno volute svelare.

Pat77
03-05-2007, 17:26
Mi sa di sì. Tutti quelli provenienti da Tunisi, sembrano menzionare solo quella per ora.

Ma che della fascia media ai giornalisti non freghi nulla è una sensazione che ho avuto fin dall'inizio, basta vedere che in quanto a notizie saremo un 10 a 1.

Nos89
03-05-2007, 17:26
Ma saranno, secondo voi, pci-e normale o 2.0? Ragionandoci la seconda versione offre più banda e più corrente, non vorrei dover cambiare main per supportarla.

no.impossibile anche perchè la banda in + non sarebbe sfruttata da queste schede e poi nessuna MB al momento le supporta

appleroof
03-05-2007, 17:26
Ma saranno, secondo voi, pci-e normale o 2.0? Ragionandoci la seconda versione offre più banda e più corrente, non vorrei dover cambiare main per supportarla.

edit

Pat77
03-05-2007, 17:30
In ogni caso il pci 2.0 è retrocompatibile

Sì quello delle main, ma se una scheda conta di avere un certo quantitativo dal pettine pci-e di corrente magari la progettano senza molex aggiuntivi, mentre puo darsi che l'1.0 non ce la faccia a soddisfare tali richieste, questo era il mio dubbio.

Nos89
03-05-2007, 17:34
Sì quello delle main, ma se una scheda conta di avere un certo quantitativo dal pettine pci-e di corrente magari la progettano senza molex aggiuntivi, mentre puo darsi che l'1.0 non ce la faccia a soddisfare tali richieste, questo era il mio dubbio.

cmq inutile farsi pippe mentali sul Pci 2.0 non verra sfruttato da tali gpu fortunatamente per le nostre mobo.

Tenebra
03-05-2007, 17:37
Sì quello delle main, ma se una scheda conta di avere un certo quantitativo dal pettine pci-e di corrente magari la progettano senza molex aggiuntivi, mentre puo darsi che l'1.0 non ce la faccia a soddisfare tali richieste, questo era il mio dubbio.

Sei preoccupato per l'assenza del connettore d'alimentazione a 6 pin sulle 2600xt, vero? :p

Nos89
03-05-2007, 17:39
Sei preoccupato per l'assenza del connettore d'alimentazione a 6 pin sulle 2600xt, vero? :p

probabile che siano create a 65nm e quindi con consumo basso.e l'alimentazione ausiliaria è inutile;)

Pat77
03-05-2007, 17:41
Sei preoccupato per l'assenza del connettore d'alimentazione a 6 pin sulle 2600xt, vero? :p

Diciamo che vedendo 8600gts che ce l'ha, mi è sorto lìatroce dubbio.

belin
03-05-2007, 17:41
Ma saranno, secondo voi, pci-e normale o 2.0?
...saranno tutte, R600 e derivate, pci-express 1.0 (ci sarà anche una versione agp). Per il 2.0 c'è tempo.

Sui consumi, anche se una singola vga sarà in full-load sui 200watt o leggermente superiori, pensare che serva un alimentatore da 750 watt è pura follia. Quel tipo di alimentatore sarà la richiesta minima per un crossfire stabile (Nvidia per lo SLI consiglia alimentatori certificati da 750 a 1000 watt). In ogni caso un buon alimentatore da 500 watt con ottime linee A è consigliato, soprattutto se nel pc si hanno più componenti "del normale".

:)

Pat77
03-05-2007, 17:52
Ottimo, anche perchè un upgrade di massa delle mainboard era del tutto improbabile, pensavo che come apripista del 2.0 ci sarebbe stata la top di gamma, poi hanno lasciato i molex li e tolti alla x2600, che sulla carta doveva consumare più della 8600 gts e ora, per forza di cose si candida a consumare meno.

Nos89
03-05-2007, 17:56
Ottimo, anche perchè un upgrade di massa delle mainboard era del tutto improbabile, pensavo che come apripista del 2.0 ci sarebbe stata la top di gamma, poi hanno lasciato i molex li e tolti alla x2600, che sulla carta doveva consumare più della 8600 gts e ora, per forza di cose si candida a consumare meno.

ma anche no.la GTS e anche la GT il connetore ausiliario e pressoche inutile visto il loro consumo ridotto sicuramente inferiore ai 75w forniti dal PCI-E anche le 7900GS-GT avevano il connetore ma consumavano meno di 75w;)

appleroof
03-05-2007, 18:05
Sì quello delle main, ma se una scheda conta di avere un certo quantitativo dal pettine pci-e di corrente magari la progettano senza molex aggiuntivi, mentre puo darsi che l'1.0 non ce la faccia a soddisfare tali richieste, questo era il mio dubbio.

si avevo editato ;)

Y2J Lionheart
03-05-2007, 18:30
ragazzi io vorrei comprare la hd 2900xt.... secondo voi il mio alimentatore (in firma) lo dovrei sostituire?

PS: ho anche le 2 ventole stock del case, l' alimentatore l' ho aquistato a settembre dello scorso anno e mi deve durare ancora per 1 e mezzo.

grazie.

loperloper
03-05-2007, 18:35
ragazzi io vorrei comprare la hd 2900xt.... secondo voi il mio alimentatore (in firma) lo dovrei sostituire?

PS: ho anche le 2 ventole stock del case, l' alimentatore l' ho aquistato a settembre dello scorso anno e mi deve durare ancora per 1 e mezzo.

grazie.

in teoria dovresti andare benone(comunque non arriveresti a 480w, a meno che tu non abbia un pent d 805 in oc a 4,3g ;))...se regge il mio con la mia configurazione....!

appleroof
03-05-2007, 18:36
ragazzi io vorrei comprare la hd 2900xt.... secondo voi il mio alimentatore (in firma) lo dovrei sostituire?

PS: ho anche le 2 ventole stock del case, l' alimentatore l' ho aquistato a settembre dello scorso anno e mi deve durare ancora per 1 e mezzo.

grazie.

Troppo presto da dire, senza specifiche ufficiali ;)

appleroof
03-05-2007, 18:42
A proposito di pci-ex...interessante articolo sui benefici che traggono le schede di ultima generazione dal 16x (è testata una 8800gts, sarebbe ancora più interessante vedere come si comporta una gtx)

http://www.tomshw.it/graphic.php?guide=20070327&page=pci_express_analisi-07

Lo posto qui perchè le stesse considerazioni dovrebbero valere per le nuove Ati e perchè si parlava di pci-ex....se non va bene chiedo ai mod che editino e lo posto sul tread della 8800gts...

Foglia Morta
03-05-2007, 18:52
pare strano ma secondo chi sta provando la XT in idle sta sui 58 gradi e in full load va da 60 a 70 gradi ( sono in 2 a dirlo , uno dalla cina e uno dall' England ). sempre più curioso di leggere recensioni ufficiali

zorco
03-05-2007, 18:57
ragazzi io vorrei comprare la hd 2900xt.... secondo voi il mio alimentatore (in firma) lo dovrei sostituire?

PS: ho anche le 2 ventole stock del case, l' alimentatore l' ho aquistato a settembre dello scorso anno e mi deve durare ancora per 1 e mezzo.

grazie.
cè la dovrebbe fare a mio avviso...

appleroof
03-05-2007, 19:00
http://www.techpowerup.com/img/07-05-03/tool2.gif

http://www.techpowerup.com/img/07-05-03/tool1.gif

;)

Simon82
03-05-2007, 19:01
http://www.fudzilla.com/images/stories/2007/May/graphics/750w.jpg

Skullcrusher
03-05-2007, 19:02
beh 365€ come prezzo di lancio comincia a essere interessante.. :)

Più che interessante, io lo definirei un prezzo eccellente! Un prezzo del genere fa presagire un'imminente uscita di una top di gamma come l'XTX a parere mio ;)

Simon82
03-05-2007, 19:03
Più che interessante, io lo definirei un prezzo eccellente! Un prezzo del genere fa presagire un'imminente uscita di una top di gamma come l'XTX a parere mio ;)

Mi sembra sempre una cifra un po' troppo ottimistica.:mbe:

Foglia Morta
03-05-2007, 19:04
Più che interessante, io lo definirei un prezzo eccellente! Un prezzo del genere fa presagire un'imminente uscita di una top di gamma come l'XTX a parere mio ;)

shamino ha detto che il prezzo sorprende ;)

non ha detto se in positivo o in negativo :D

Comunque fa pensare che sia un prezzo basso rispetto a ciò che offre

Skullcrusher
03-05-2007, 19:07
Mi sembra sempre una cifra un po' troppo ottimistica.:mbe:

shamino ha detto che il prezzo sorprende ;)

non ha detto se in positivo o in negativo :D

Comunque fa pensare che sia un prezzo basso rispetto a ciò che offre

Se ipotesi la HD2900XT non fosse in grado di competere con la GTX e Ati facesse uscire una HD2900XTX da lì a poco, il prezzo sarebbe più che adeguato.....comunque, se il prezzo è basso, Ati una ragione ce l'ha, di certo non regala le sue schede per farsi pubblicità. Per me hanno qualche sorpresina... ;)

galaxygalaxy
03-05-2007, 19:07
per favore potete dirmi quanto è lunga la HD2900xt?

Skullcrusher
03-05-2007, 19:08
per favore potete dirmi quanto è lunga la HD2900xt?

Precisamente ancora non si sa, dalle foto si può vedere che è un po' più lunga della 8800GTS e più corta della GTX. Ipotizzo sia 1cm più lunga della GTS :stordita:

fenicered
03-05-2007, 19:11
come riportato su dinoxpc in uno shop italiano è in ordine a 426E
ho verificato gecube x2900xt 512 ddr3

davide155
03-05-2007, 19:15
per favore potete dirmi quanto è lunga la HD2900xt?

uguale ad una x1950xtx ;)

parcher
03-05-2007, 19:20
Più che interessante, io lo definirei un prezzo eccellente! Un prezzo del genere fa presagire un'imminente uscita di una top di gamma come l'XTX a parere mio ;)

mi sa che hai ragione, :D pericoloso direi, potrei spendere altro denaro ....

P.

Nos89
03-05-2007, 19:24
Mi sembra sempre una cifra un po' troppo ottimistica.:mbe:

Quoto visto sopratutto il prezzo delle 8800GTX tutto dipendera dalle prestazioni reali di questa scheda.Ihmo

loperloper
03-05-2007, 19:24
a quanto mi risulta il prezzo della xt dovrebbe essere intorno ai 430€(stando a quanto scritto da uno shop online)...certo è incredibile quanto mistero ci sia ancora dietro sta scheda!e pensare che uscirà a giorni!!azz però se son bravi a tenere i segreti :D......

EDIT: mi sono accorto adesso del post di fenicered...

Campioni del Mondo 2006!!
03-05-2007, 19:28
ho appena preso una 8600gt.. pensate che a 130 euri ati farà di meglio?

Dexther
03-05-2007, 19:28
ho appena preso una 8600gt.. pensate che a 130 euri ati farà di meglio?

se non si tocca con mano non si può dire :boh:

Nos89
03-05-2007, 19:37
ho appena preso una 8600gt.. pensate che a 130 euri ati farà di meglio?

probabile che sul quel prezzo ci sia la x2600 pro che avrà prestazioni allineate sempre IHMO

Roman91
03-05-2007, 19:39
probabile che sul quel prezzo ci sia la x2600 pro che avrà prestazioni allineate sempre IHMO

allineata alla 8600gt??

Tenebra
03-05-2007, 19:41
allineata alla 8600gt??

E come si fa a saperlo... stiamo tutti aspettando spasmodicamente le recensioni per sapere cosa comprare :D

Kharonte85
03-05-2007, 19:44
come riportato su dinoxpc in uno shop italiano è in ordine a 426E
ho verificato gecube x2900xt 512 ddr3
Infatti...gia' mi sembra buono...non credo scenderanno sotto i 400 (almeno inizialmente) ;)

Campioni del Mondo 2006!!
03-05-2007, 19:55
Io ho preso una 8600gt da poco.. avevo un po urgenza.. speriamo non sia una cattiva scelta..

ATi7500
03-05-2007, 20:08
Io ho preso una 8600gt da poco.. avevo un po urgenza.. speriamo non sia una cattiva scelta..

se l'hai presa vuol dire che ne eri convinto..che serve rifletterci dopo l'acquisto?

bYeZ!

Campioni del Mondo 2006!!
03-05-2007, 20:13
Beh.. non è che ci si riflette.. pero se ati va di piu posso sempre fare il cambio!

belin
03-05-2007, 20:14
http://www.techpowerup.com/img/07-05-03/tool2.gif

http://www.techpowerup.com/img/07-05-03/tool1.gif

;)

...ma solo io ho notato questo post con questi due link???!

:eek:

1000 Mhz sulla GPU R600 in overclock???!

:sbavvv:

ATi7500
03-05-2007, 20:17
...ma solo io ho notato questo post con questi due link???!

:eek:

1000 Mhz sulla GPU R600 in overclock???!

:sbavvv:

si è notevole, da notare anche la temperatura..ma probabilmente sono screen effettuati sui sample a 65nm. Troppo margine tra il default (supposto) della 2900XT e quelle frequenze.

bYeZ!

ATi7500
03-05-2007, 20:18
Beh.. non è che ci si riflette.. pero se ati va di piu posso sempre fare il cambio!

eh ma che senso ha porsi il problema ora? Non si conoscono le prestazioni di nessuna "nuova" Radeon e sopratutto non se ne trovano in commercio.

bYeZ!

belin
03-05-2007, 20:20
si è notevole, da notare anche la temperatura..ma probabilmente sono screen effettuati sui sample a 65nm. Troppo margine tra il default (supposto) della 2900XT e quelle frequenze.

bYeZ!

...notevolissima! W1zzard, l'autore di ATiTool di Techpowerup (persona e sito ben diversi da Fudzilla...) ha "non risposto" quando gli hanno chiesto che gpu\vga era. Anzi, ha detto "gameboy gpu".

:D

ATi7500
03-05-2007, 20:25
...notevolissima! W1zzard, l'autore di ATiTool di Techpowerup (persona e sito ben diversi da Fudzilla...) ha "non risposto" quando gli hanno chiesto che gpu\vga era. Anzi, ha detto "gameboy gpu".

:D

pure lui sotto NDA? :asd: ma almeno li pagano per fargli sottoscrivere questo NDA? :asd:

bYeZ!

leoneazzurro
03-05-2007, 20:26
si è notevole, da notare anche la temperatura..ma probabilmente sono screen effettuati sui sample a 65nm. Troppo margine tra il default (supposto) della 2900XT e quelle frequenze.

bYeZ!

Già.. rispetto alla XT sono molto alti (bisogna vedere anche che sistema di raffreddamento hanno usato)

PS: sospettino....

belin
03-05-2007, 20:29
pure lui sotto NDA? :asd: ma almeno li pagano per fargli sottoscrivere questo NDA? :asd:
:asd:

PS: sospettino....
:fiufiu:

(dicci dicci...)

ATi7500
03-05-2007, 20:30
Già.. rispetto alla XT sono molto alti (bisogna vedere anche che sistema di raffreddamento hanno usato)

PS: sospettino....

liquido? beh in quel caso sarebbe un risultato "scontato" viste le frequenze di partenza.

bYeZ!

Nos89
03-05-2007, 20:34
sinceramente mi sembra molto strano che la gpu di R600 possa arrivare a 1000mhz anche sotto Azoto liquido.

garbage
03-05-2007, 20:36
si infatti 1000mhz sono tantini dicevo fosse una buffonata

ATi7500
03-05-2007, 20:37
guardate che da 850mhz a 1000 è il 15% di overclock, mica tanto per un sistema a liquido

bYeZ!

belin
03-05-2007, 20:43
sinceramente mi sembra molto strano che la gpu di R600 possa arrivare a 1000mhz anche sotto Azoto liquido.

si infatti 1000mhz sono tantini dicevo fosse una buffonata

max709 ha portato la gpu della sua Sapphire X1900XTX a 927 Mhz...;) ed il famoso Sampsa ha spinto R580, se ricordo bene, a 1000 Mhz.

(ogni notizia prima dello scadere dell'NDA va valutata bene, ma in questo caso mi sento molto più fiducioso...W1zzard non è Fuad...)

...ciao!

edit: e Sampsa l'ha preso sul serio postando la notizia. Sospettino...

Foglia Morta
03-05-2007, 20:44
ripeto: a default in full load dovrebbe stare intorno 60-70 gradi e 80 gradi in oc con dissi stock.

jok3r87
03-05-2007, 20:44
Qui c'è una foto che spiega la provenienza di questi test.
http://www.xtremesystems.org/forums/showthread.php?t=142955 (questo link è stato postato qualche pagina fa).

Foglia Morta
03-05-2007, 20:44
max709 ha portato la gpu della sua Sapphire X1900XTX a 927 Mhz...;) ed il famoso Sampsa ha spinto R580, se ricordo bene, a 1000 Mhz.

(ogni notizia prima dello scadere dell'NDA va valutata bene, ma in questo caso mi sento molto più fiducioso...W1zzard non è Fuad...)

...ciao!

1000 Mhz sapevo che ci arriva R520 , sicuro R580 ?

Nos89
03-05-2007, 20:45
max709 ha portato la gpu della sua Sapphire X1900XTX a 927 Mhz...;) ed il famoso Sampsa ha spinto R580, se ricordo bene, a 1000 Mhz.

(ogni notizia prima dello scadere dell'NDA va valutata bene, ma in questo caso mi sento molto più fiducioso...W1zzard non è Fuad...)

...ciao!

vabbe se mi metto a overvoltare probabile che a 750mhz ci arriva anche il mio G80 ricordo di persone che con il G73GT erano arrivate oltre gli 800mhz con v-mod

ATi7500
03-05-2007, 20:48
vabbe se mi metto a overvoltare probabile che a 750mhz ci arriva anche il mio G80 ricordo di persone che con il G73GT erano arrivate oltre gli 800mhz con v-mod

con R5x0 non c'era mica bisogno di voltmod per overvoltare..

bYeZ!

leoneazzurro
03-05-2007, 20:48
Da 750 MHz (se quella fosse una XT) sarebbe il 33 % in più (1000-750)/750

sulle memorie c'è un 21% di overclock.

Data la complessità del chip non direi affatto un risultato scontato (soprattutto per essere stato postato pochissimo dopo l'apertura di quel thread) e non si sa molto neanche sul cooler usato. Se fosse lo stock cooler non sarebbe affatto male.

A meno che la scheda in questione non sia esattamente una XT...

belin
03-05-2007, 20:49
1000 Mhz sapevo che ci arriva R520 , sicuro R580 ?

...hai ragione, forse era R520, non ricordo bene. E mi sembra che la frequenza fosse 998 Mhz o 1001 Mhz, devo trovare lo screen.

:)

appleroof
03-05-2007, 20:50
Già.. rispetto alla XT sono molto alti (bisogna vedere anche che sistema di raffreddamento hanno usato)

PS: sospettino....

Le temp del primo screen sono fatte in underclock ;)

leoneazzurro
03-05-2007, 20:54
Le temp del primo screen sono fatte in underclock ;)

Sono i settaggi del 2D, in idle è normale, così come è abbastanza normale avere 55-65°C in quelle condizioni (le ventole sono anche al minimo).

Foglia Morta
03-05-2007, 20:55
Da 750 MHz (se quella fosse una XT) sarebbe il 33 % in più (1000-750)/750

sulle memorie c'è un 21% di overclock.

Data la complessità del chip non direi affatto un risultato scontato (soprattutto per essere stato postato pochissimo dopo l'apertura di quel thread) e non si sa molto neanche sul cooler usato. Se fosse lo stock cooler non sarebbe affatto male.

A meno che la scheda in questione non sia esattamente una XT...

riguardo R600 secondo te quali sono stati i vantaggi più concreti che amd potrebbe aver ottenuto usando Fast14 per la progettazione ? http://www.intrinsity.com/

jok3r87
03-05-2007, 20:55
Le temp del primo screen sono fatte in underclock ;)

Più che in underclock sono in ambiente 2D. E guardando le temp spero che siano dovute ad rpm molto bassi.

leoneazzurro
03-05-2007, 20:57
riguardo R600 secondo te quali sono stati i vantaggi più concreti che amd potrebbe aver ottenuto usando Fast14 per la progettazione ? http://www.intrinsity.com/

Al momento non è che se ne vedano :D

dantes76
03-05-2007, 20:57
Radeon HD 2900 XT for 365,90


Asus distributor or a etailer leaked the specs and the pricing of the future cards. You can pre order them today for 365.90, but the shipping date is still unknown. This pretty much confirms out €399 price as some guys on this price search engines go lower then they should to get more attention.

The Suggested retail price for any Radeon HD 2900 XT card is still about €399. The Asus card is called ASUS EAH2900XT/HTVDI and it is based on a Radeon HD 2900 XT at 757MHz and 828 (1656 MHz), it has 512MB GDDR3, 2x DVI, ViVo, PCIe and it comes with Stalker.

Pre order one if you like here.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=811&Itemid=1

http://geizhals.at/deutschland/a254977.html

appleroof
03-05-2007, 20:57
Sono i settaggi del 2D, in idle è normale, così come è abbastanza normale avere 55-65°C in quelle condizioni (le ventole sono anche al minimo).

Esatto, per cui il discorso temp basse non va collegato al giga di frq. della gpu in 3D, se mi spiego...forse è proprio la XT a 80nm ;)

Foglia Morta
03-05-2007, 21:01
Al momento non è che se ne vedano :D

appunto :D , è da mesi che ho sta perplessità :D

a qualcosa dovrà pur servire...

comunque mi sono segnato questo rumour: http://www.hexus.net/content/item.php?item=7437

Se ricordo bene yoss aveva commentato dicendo che quella versione di cui parla hexus forse non era destinata alla produzione in volumi ( ovviamente yoss correggimi se sbaglio )

ATi7500
03-05-2007, 21:03
Da 750 MHz (se quella fosse una XT) sarebbe il 33 % in più (1000-750)/750

sulle memorie c'è un 21% di overclock.

Data la complessità del chip non direi affatto un risultato scontato (soprattutto per essere stato postato pochissimo dopo l'apertura di quel thread) e non si sa molto neanche sul cooler usato. Se fosse lo stock cooler non sarebbe affatto male.

A meno che la scheda in questione non sia esattamente una XT...
ah scusami, ero convinto che si parlasse di 850MHz di default :)

bYeZ!

leoneazzurro
03-05-2007, 21:04
Esatto, per cui il discorso temp basse non va collegato al giga di frq. della gpu in 3D, se mi spiego...forse è proprio la XT a 80nm ;)

Più che il processo produttivo mettevo in dubbio che fosse una XT.

appleroof
03-05-2007, 21:07
Più che il processo produttivo mettevo in dubbio che fosse una XT.

ah scusa ...avevo interpretato male allora, pensavo dicessi che non era la Xt poichè questa a 80nm non avrebbe potuto raggiungere 1 giga di freq. per limiti strutturali, dove invece la xtx a 65nm avrebbe potuto farcela tranquillamente...secondo me è la xt

jok3r87
03-05-2007, 21:11
Scusate ma non potrebbe essere un sample particolarmente buono di R600 ?

appleroof
03-05-2007, 21:12
Scusate ma non potrebbe essere un sample particolarmente buono di R600 ?

certo che potrebbe ;)

DakmorNoland
03-05-2007, 21:17
Scusate ma non potrebbe essere un sample particolarmente buono di R600 ?

Ati fa solo sample particolarmente buoni! Mica come Nvidia! :D

leoneazzurro
03-05-2007, 21:19
Scusate ma non potrebbe essere un sample particolarmente buono di R600 ?

Si, o potrebbe essere anche che quello che limita le frequenze di lancio di R600 non sia il chip in sè, quanto la potenza assorbita che a 1 GHz sarebbe stata un pò troppo "fuori standard", costringendo AMD a "volare basso". In questo caso però i rumors di respinning per fare andare il chip a una frequenza maggiore sarebbero poco probabili IMHO: Comunque la questione overclock è interessante perchè a 1 GHz anche la circuiteria di alimentazione è pesantemente stressata

Poliphilo
03-05-2007, 21:21
ragazzi se non è così, spiegatemi il motivo di questi ritardi??? io sono dell'idea che non sono ritardi ma strategie di mercato. ATI ha capito che può bastonare forte NVIDIA e penso si giocherà tutte le armi migliori per farlo il più a lungo possibile.....se è come dite voi a quel punto sarebbe una concorrenza quasi alla pari, anche perchè appena NVIDIA si accorgerà dei prezzi stracciati di ATI li abbasserà per forza, e diventerebbe appunto una conconrrenza alla pari, invece secondo me a questo punto ATI VUOLE MOLTO DI PIU'........:sofico:

che ATI abbia avuto un periodo di crisi fino a poco tempo fa ci sta e tutti lo sappiamo....ma sono più che sicuro che le schede sono già pronte da marzo-aprile e l'unica maniera che adesso ha per riprendersi è UN VERO BOOM di MERCATO!!! Come giustifichi l'uscita della ULTRA da parte di NVIDIA??? Non mi sembra ce ne fosse bisogno, avendo tutt'ora il monopolio?? Forse sa già cosa ATI sta per far uscire......:eek:

Proprio così. :O Ati ha in mano delle schede bomba, si fa attendere creando un hype pazzesco (qualcuno alcune pagine fa ha scritto: che se ne parli bene, che se ne parli male, basta che se ne parli.....e l'attesa cresce). Anche perchè, dopo aver creato tutta questa attesa, se veramente fossero dei flop queste nuove schede, sarebbe la strategia di mercato più idiota che si sia mai vista, perchè gli utenti finali la manderebbero a cagare 2 volte: la prima per l'attesa lunga, la seconda per le schede scadenti.
Stessa opinione per l'uscita delle schede nvidia ultra: anche secondo me sanno già qualcosa e stanno correndo ai ripari con l'uscita della ultra.

Staremo a vedere.

Defragg
03-05-2007, 21:23
...hai ragione, forse era R520, non ricordo bene. E mi sembra che la frequenza fosse 998 Mhz o 1001 Mhz, devo trovare lo screen.

:)

su hwbot il massimo che ho visto è nell'ordine degli 800Mhz per entrambe :eek:

sono tanti :fagiano:

+Lonewolf+
03-05-2007, 21:25
Proprio così. :O Ati ha in mano delle schede bomba, si fa attendere creando un hype pazzesco (qualcuno alcune pagine fa ha scritto: che se ne parli bene, che se ne parli male, basta che se ne parli.....e l'attesa cresce). Anche perchè, dopo aver creato tutta questa attesa, se veramente fossero dei flop queste nuove schede, sarebbe la strategia di mercato più idiota che si sia mai vista, perchè gli utenti finali la manderebbero a cagare 2 volte: la prima per l'attesa lunga, la seconda per le schede scadenti.
Stessa opinione per l'uscita delle schede nvidia ultra: anche secondo me sanno già qualcosa e stanno correndo ai ripari con l'uscita della ultra.

Staremo a vedere.

mancano solo 236,25 ore dai... :sofico:

appleroof
03-05-2007, 21:28
Proprio così. :O Ati ha in mano delle schede bomba, si fa attendere creando un hype pazzesco (qualcuno alcune pagine fa ha scritto: che se ne parli bene, che se ne parli male, basta che se ne parli.....e l'attesa cresce). Anche perchè, dopo aver creato tutta questa attesa, se veramente fossero dei flop queste nuove schede, sarebbe la strategia di mercato più idiota che si sia mai vista, perchè gli utenti finali la manderebbero a cagare 2 volte: la prima per l'attesa lunga, la seconda per le schede scadenti.
Stessa opinione per l'uscita delle schede nvidia ultra: anche secondo me sanno già qualcosa e stanno correndo ai ripari con l'uscita della ultra.

Staremo a vedere.

Non esiste solo la strategia di mercato (cmq raga da questo punto di vista non ci piove, se Ati avesse avuto la scheda pronta a novembre l'avrebbe lanciata subito, se l'avesse avuta pronta a settembre lo avrebbe fatto, nessuno lascia carta bianca al principale concorrente per mesi, ricordo che la scheda era data al 99% per i primi di marzo 2007) il ritardo è stato dovuto a problemi tecnici, magari poi adesso ci stanno marciando un pò, visto che tanto ormai il ritardo c'è stato ed effettivamente aumentare l'hype e attirare l'attenzione non è male, tutta pubblicità gratuita

+Lonewolf+
03-05-2007, 21:34
Non esiste solo la strategia di mercato (cmq raga da questo punto di vista non ci piove, se Ati avesse avuto la scheda pronta a novembre l'avrebbe lanciata subito, se l'avesse avuta pronta a settembre lo avrebbe fatto, nessuno lascia carta bianca al principale concorrente per mesi, ricordo che la scheda era data al 99% per i primi di marzo 2007) il ritardo è stato dovuto a problemi tecnici, magari poi adesso ci stanno marciando un pò, visto che tanto ormai il ritardo c'è stato ed effettivamente aumentare l'hype e attirare l'attenzione non è male, tutta pubblicità gratuita

mah...speriamo almeno che quando scada l'NDA questa scheda non deluda...si stanno facendo troppi rumors e troppe supposizzioni...non vorrei si ripetesse la storia delle 8600...

nitro89
03-05-2007, 21:49
Ragazzi sapete se uscirà anche una ipotetica HD2900XL?
Ho solo sentito dei rumors,per questo ve lo chiedo.

+Lonewolf+
03-05-2007, 21:58
Ragazzi sapete se uscirà anche una ipotetica HD2900XL?
Ho solo sentito dei rumors,per questo ve lo chiedo.

giusto x informazione ma meglio xl o xt come sigla?

Mister Tarpone
03-05-2007, 21:59
giusto x informazione ma meglio xl o xt come sigla?

xt

gherf
03-05-2007, 22:30
scusate x la domanda (probabilmente ripetitiva... spero di nn andare ot)

ma insieme all'uscita della 2900xt il 14 maggio, nello stesso giorno viene presentata anke la 2900xtx???

grazie mille
ciauz :cool:

nickdc
03-05-2007, 22:30
scusate x la domanda (probabilmente ripetitiva... spero di nn andare ot)

ma insieme all'uscita della 2900xt il 14 maggio, nello stesso giorno viene presentata anke la 2900xtx???

grazie mille
ciauz :cool:

No.

loperloper
03-05-2007, 22:32
scusate x la domanda (probabilmente ripetitiva... spero di nn andare ot)

ma insieme all'uscita della 2900xt il 14 maggio, nello stesso giorno viene presentata anke la 2900xtx???

grazie mille
ciauz :cool:

no, la xtx probabilmente non avrà bisogno neanche di essere presentata: amd aspetterà i risultati di vendita della xt e di conseguenza deciderà se immettere sul mercato la xtx o meno

nitro89
03-05-2007, 22:34
Perfetto,quindi ricapitolando il 24 maggio verrà presentata SOLO ED ESCLUSIVAMENTE la HD2900XT,nient'altro (anche se non capisco perchè non mandino fuori anche le 2600 :cry: )

Mister Tarpone
03-05-2007, 22:36
Perfetto,quindi ricapitolando il 24 maggio verrà presentata SOLO ED ESCLUSIVAMENTE la HD2900XT,nient'altro (anche se non capisco perchè non mandino fuori anche le 2600 :cry: )

...ci sto sformando troppo per il ritardo delle 2600 :muro:

A.L.M.
03-05-2007, 22:38
Perfetto,quindi ricapitolando il 24 maggio verrà presentata SOLO ED ESCLUSIVAMENTE la HD2900XT,nient'altro (anche se non capisco perchè non mandino fuori anche le 2600 :cry: )

No. Il 14 maggio verranno presentate HD2900, 2600 e 2400. La 2900 sicuramente sarà in versione XT, la XTX difficilissimo che esca, la XL forse.
La HD2900 inoltre sarà immediatamente disponibile, mentre le 2400/2600 no.

Mister Tarpone
03-05-2007, 22:40
No. Il 14 maggio verranno presentate HD2900, 2600 e 2400. La 2900 sicuramente sarà in versione XT, la XTX difficilissimo che esca, la XL forse.
La HD2900 inoltre sarà immediatamente disponibile, mentre le 2400/2600 no.

disponibili per la fine di giugno giusto?? :sob:

vicius80
03-05-2007, 23:00
dopo 6 mesi è normale che si faccia uscire qualcosa, comunque la ultra é semplicemente una 8800 gtx in oc se fosse uscita una 8900 o la 8950 sarebbe una ragione, ma l'impressione che mi fà nvidia adesso é quella di qualcuno in attesa...della carta che giocherà ATI

Perchè tu pensi che NVIDIA non sappia già cosa gli aspetta??? Guarda che quelli che non sappiamo siamo noi consumatori ma tra di loro sanno tutto....Poi mi fanno incavolare quelli che dicono che probabilmente la xtx non uscirà mai....ma secondo voi se esce la 8900 della nvidia, ati che fa sta a guardare??? io resto sempre dell'idea che ati farà uscire la XTX anche perchè con la sola XT non riuscirebbe a contrastare la concorrenza con l'attuale GTX. In questo modo l'avrebbe vinta NVIDIA troppo facilmente, che anche se ha schede che costano di più di ATI è pur vero che sono più performanti, e quindi valgono quel prezzo maggiore.....
fidati ATI deve risollevarsi no sprofondare.....

vicius80
03-05-2007, 23:02
No.

Scusa ma lavori per la ATI????:mbe:
come fai a dire un no secco se non si sa ancora nulla?:sofico:

Marko91
03-05-2007, 23:05
Proprio così. :O Ati ha in mano delle schede bomba, si fa attendere creando un hype pazzesco (qualcuno alcune pagine fa ha scritto: che se ne parli bene, che se ne parli male, basta che se ne parli.....e l'attesa cresce). Anche perchè, dopo aver creato tutta questa attesa, se veramente fossero dei flop queste nuove schede, sarebbe la strategia di mercato più idiota che si sia mai vista, perchè gli utenti finali la manderebbero a cagare 2 volte: la prima per l'attesa lunga, la seconda per le schede scadenti.
Stessa opinione per l'uscita delle schede nvidia ultra: anche secondo me sanno già qualcosa e stanno correndo ai ripari con l'uscita della ultra.

Staremo a vedere.

I Bench in circolazione non possono essere tutti falsi, e ormai ne sono stati fatti parecchi.

TecnoWorld8
03-05-2007, 23:54
Poliphilo: è da un po' che parli come se "sapessi qualcosa". Finora dai bench non ufficiali pare che R600 sia abbastanza inferiore a GTX. Se questo sarà confermato, quello che hai detto sinora si rivelerà falso...

Spero dunque che tu sappia davvero qualcosa che non ci dici e che tutti questi bench che circolano siano sbagliati :)

ale0bello0pr
04-05-2007, 00:10
proprio così....non vi spiegate perkè Nvidia ha già pronta la carta 8900 e 8950GX2? Ovviamente se quei bench fossero veri...potrebbero tirarle fuori anche fra 1 anno volendo...e invece manca poco che alla fine fanno uscire G90....e le GDDR4....:p
Ovviamente chi si è infiltrato bene in AMD ha visto cosa hanno fatto uscire dopo mesi di silenzio....mancano 11 gg :cool:

IMHO....queste schede in overclock e in DX10...saranno una bomba...aspettiamo:D

Nos89
04-05-2007, 00:19
proprio così....non vi spiegate perkè Nvidia ha già pronta la carta 8900 e 8950GX2? Ovviamente se quei bench fossero veri...potrebbero tirarle fuori anche fra 1 anno volendo...e invece manca poco che alla fine fanno uscire G90....e le GDDR4....:p
Ovviamente chi si è infiltrato bene in AMD ha visto cosa hanno fatto uscire dopo mesi di silenzio....mancano 11 gg :cool:

IMHO....queste schede in overclock e in DX10...saranno una bomba...aspettiamo:D

speriamo confido molto nella mia 8800 spero non mi deluda:D .cmq credo che la XTX verrà presentata non appena usciranno le 8900(si spera a 65nm IHMO) non prima sicuramente.

vicius80
04-05-2007, 00:41
speriamo confido molto nella mia 8800 spero non mi deluda:D .cmq credo che la XTX verrà presentata non appena usciranno le 8900(si spera a 65nm IHMO) non prima sicuramente.

quindi se è come dici tu uscirà solo la xt che sarà molto probabilmente inferiore alla GTX....quindi può mai essere tutta sta attesa per stare sempre al di sotto di Nvidia??? Le cose sono 2 ragà:
O la XT sarà tale e quale alla GTX come prestazioni e quindi ad un prezzo inferiore la spunterebbe ATI, oppure uscirà la XTX che costerà quasi come la GTX ma che la straccerà come prestazioni.....continuo a pensare che sia da folli dopo tutto questo tempo (e crisi) continuare a darsi la zappa sui piedi....fidatevi tra 11 giorni assisteremo al sorpasso di ATI sia nel prezzo che nelle prestazioni.....ricordatevi queste parole e poi ne riparleremo;)

Nos89
04-05-2007, 00:45
quindi se è come dici tu uscirà solo la xt che sarà molto probabilmente inferiore alla GTX....quindi può mai essere tutta sta attesa per stare sempre al di sotto di Nvidia??? Le cose sono 2 ragà:
O la XT sarà tale e quale alla GTX come prestazioni e quindi ad un prezzo inferiore la spunterebbe ATI, oppure uscirà la XTX che costerà quasi come la GTX ma che la straccerà come prestazioni.....continuo a pensare che sia da folli dopo tutto questo tempo (e crisi) continuare a darsi la zappa sui piedi....fidatevi tra 11 giorni assisteremo al sorpasso di ATI sia nel prezzo che nelle prestazioni.....ricordatevi queste parole e poi ne riparleremo;)

non vedo l'ora.;)

Free Gordon
04-05-2007, 01:55
Ma saranno, secondo voi, pci-e normale o 2.0? Ragionandoci la seconda versione offre più banda e più corrente, non vorrei dover cambiare main per supportarla.

Imho è impossibile che sia PCI-e 2.0

Free Gordon
04-05-2007, 01:57
Sui consumi, anche se una singola vga sarà in full-load sui 200watt o leggermente superiori, pensare che serva un alimentatore da 750 watt è pura follia. Quel tipo di alimentatore sarà la richiesta minima per un crossfire stabile (Nvidia per lo SLI consiglia alimentatori certificati da 750 a 1000 watt). In ogni caso un buon alimentatore da 500 watt con ottime linee A è consigliato, soprattutto se nel pc si hanno più componenti "del normale".

Io, se avrò mai una 2900XT, proverò a farla andare col mio 420 in sign. :D
Sarà un esperimento... :sofico:

Free Gordon
04-05-2007, 02:09
A proposito di pci-ex...interessante articolo sui benefici che traggono le schede di ultima generazione dal 16x (è testata una 8800gts, sarebbe ancora più interessante vedere come si comporta una gtx)
http://www.tomshw.it/graphic.php?guide=20070327&page=pci_express_analisi-07
Lo posto qui perchè le stesse considerazioni dovrebbero valere per le nuove Ati e perchè si parlava di pci-ex....se non va bene chiedo ai mod che editino e lo posto sul tread della 8800gts...


Interessante.
Pare che le 8800 necessitino almeno di un 8x in generale, mentre alle 1950 basta un 4x (in quei due giochi analizzati).
Nel professionale invece, la situazione pare molto simile e necessita di ALMENO un 8x per tutte e due.

I motivi sono da ricercarsi nei driver dei due produttori, a mio modo di pensare. Probabilmente i driver nVidia stressano di più la CPU rispetto a quelli ATI. Perlomeno parrebbe così, in base al livello di utilizzo dell'unico bus di comunicazione fra CPU e GPU...

Oppure sono proprio le 8800 che necessitano di più input, per stabilire ciò però bisognerebbe fare la stessa prova con le 7900.

Free Gordon
04-05-2007, 02:24
Se fosse lo stock cooler non sarebbe affatto male.


Mah, se fosse stock cooler sarebbe clamoroso.. altrochè. :D
Da 800 a 1000 ci sono 200mhz.. un OC del 25%.. come se una 1950XTX si overcloccasse da 650 a 812mhz, facilmente. Sono poche quelle che arrivano a 750 invece. ;)

Poliphilo
04-05-2007, 08:03
Poliphilo: è da un po' che parli come se "sapessi qualcosa". Finora dai bench non ufficiali pare che R600 sia abbastanza inferiore a GTX. Se questo sarà confermato, quello che hai detto sinora si rivelerà falso...

Spero dunque che tu sappia davvero qualcosa che non ci dici e che tutti questi bench che circolano siano sbagliati :)

Anche se rivelasse falso? Scritto così' sembra quasi una minaccia :mbe:
Io ho anche scritto che la verità assoluta non ce l'ha nessuno, nemmeno io. In giro ci sono molti rumors e molte fonti diverse, nessuno sa se quelle da cui attingo io o se quelle da cui attingono gli altri siano vere o false. Infatti ho detto staremo a vedere dopo la presentazioe ufficiale, così capiremo la verità. Inutile continuare a farsi seghe mentali sulle prestazioni di questa scheda. ok. ;)



E poi ragazzi è pur sempre SOLO una scheda video.

halduemilauno
04-05-2007, 08:03
http://www.fudzilla.com/index.php?option=com_content&task=view&id=818&Itemid=1

To 10800 on Quad core, 13K overclocked


Sources have confirmed that ultra hot Radeon HD 2900XT card will score about 10600 on a Core 2 Duo X6800 CPU. If you have a quad core CPU you will be able to score 10800 in 3Dmark06 on the default score.

This is a good score and at least in this test the performance is comparable to Geforce 8800 GTX. Unfortunately it is not that fast in games.

If you overclock Core 2 Duo to about 3.5 GHz or more then you can score even 13000 in 3Dmark06. So now you know and these scores come from 8.361 driver.

;)

halduemilauno
04-05-2007, 08:04
http://www.fudzilla.com/index.php?option=com_content&task=view&id=820&Itemid=1

The real volumes at the end of June


DAAMIT already has samples of RV630, Radeon HD 2600 and RV610 Radeon HD 2400 generation and it will finally unveil these cards at Computex.

The real volume shipments are scheduled for late June as we reported before and from what we know the Radeon HD 2600 XT the top version of the card powered with GDDR4 should be faster than Geforce 8600 GTS.

This card will cost around €200 while the HD 2600 PRO version goes versus 8600 GT priced at around €150.


;)

halduemilauno
04-05-2007, 08:06
http://www.tomshw.it/news.php?newsid=9938

;)

Kharonte85
04-05-2007, 08:07
E poi ragazzi è pur sempre SOLO una scheda video.
:eek: in un forum di hardware...:doh:


Cmq visto che non sai (come tutti noi del resto) cerchiamo di evitare frasi allusive e misteriose...
http://www.fudzilla.com/index.php?option=com_content&task=view&id=820&Itemid=1

The real volumes at the end of June


DAAMIT already has samples of RV630, Radeon HD 2600 and RV610 Radeon HD 2400 generation and it will finally unveil these cards at Computex.

The real volume shipments are scheduled for late June as we reported before and from what we know the Radeon HD 2600 XT the top version of the card powered with GDDR4 should be faster than Geforce 8600 GTS.

This card will cost around €200 while the HD 2600 PRO version goes versus 8600 GT priced at around €150.
;)
Quindi sara':


Hd 2600xt (200euro) Vs 8600gts

Hd 2600pro (150euro) Vs 8600gt

Solo alla fine di giugno :eek: :doh:

DakmorNoland
04-05-2007, 08:19
Solo alla fine di giugno :eek: :doh:

Sinceramente non capisco tutti sti drammi!

Alla fine non abbiamo giochi DX10 e nemmeno uno straccio di bench! E l'unico sistema operativo che per ora supporta le nuove librerie ha problemi molto seri! Specie con i driver sia ATI che Nvidia.

Per ora si puo' giocare bene a tutto con una 1950pro, quindi non c'e' nessuna fretta. Poi e' chiaro che dopo la mega acquisizione AMD abbia bisogno di tempo per riassestarsi.

Pippox
04-05-2007, 08:21
Solo alla fine di giugno :eek: :doh:

a questo punto sono in panico.... dovrei prendermi la vga entro una decina di giorni... aspettare... o buttarmi su 8800? se fosse vero il prezzo di ati... (400)

DakmorNoland
04-05-2007, 08:22
a questo punto sono in panico.... dovrei prendermi la vga entro una decina di giorni... aspettare... o buttarmi su 8800? se fosse vero il prezzo di ati... (400)

Scusa ma che GPU hai adesso? Cmq ad aspettare 10giorni non credo morirai. :p

Pat77
04-05-2007, 08:24
Mancano solo le performance, dettagli su una versione xl sarebbero graditi, se la top viene 432 euro in ita, la medio alta potrebbe stare sui 290-300 e diventerebbe molto appetibile.

A.L.M.
04-05-2007, 08:31
http://www.fudzilla.com/index.php?option=com_content&task=view&id=818&Itemid=1

To 10800 on Quad core, 13K overclocked


Sources have confirmed that ultra hot Radeon HD 2900XT card will score about 10600 on a Core 2 Duo X6800 CPU. If you have a quad core CPU you will be able to score 10800 in 3Dmark06 on the default score.

This is a good score and at least in this test the performance is comparable to Geforce 8800 GTX. Unfortunately it is not that fast in games.

If you overclock Core 2 Duo to about 3.5 GHz or more then you can score even 13000 in 3Dmark06. So now you know and these scores come from 8.361 driver.

;)

Questa è proprio la classica fesseria made in Fudzilla... :rolleyes:
Secondo loro cambiare cpu da X6800 ad un quad core fa guadagnare solo 200 punti...
Con gli stessi identici punteggi (4700 SM2 e 4950 SM3, ad esempio, se fosse vero che fa 10600 punti circa con questa configurazione), passare da 2500 di cpu (X6800) a 4100 (QX6700) fa guadagnare oltre 1100 punti finali, arrivando a 11750 circa.

Poliphilo
04-05-2007, 08:31
Non esiste solo la strategia di mercato

Per un'azienda con un fatturato da milioni di euro? Scherzi? E' la cosa basilare!

Pippox
04-05-2007, 08:33
Scusa ma che GPU hai adesso? Cmq ad aspettare 10giorni non credo morirai. :p
ho una 7800 gtx (che non so per quale arcano motivo mi sono convinto a cambiarla.. anzi lo so.. la malattia da hardware:D )
ma tra 10 gg saranno in commercio?

DakmorNoland
04-05-2007, 08:35
ho una 7800 gtx (che non so per quale arcano motivo mi sono convinto a cambiarla.. anzi lo so.. la malattia da hardware:D )
ma tra 10 gg saranno in commercio?

Pare di si. E per fine mese ce ne dovrebbero essere in quantita' abbondante da qualunque rivenditore. ;)

Cmq con una 7800GTX ci fai girare ancora tutto. Secondo me fai male a cambiarla ora. Soprattutto se e' la versione da 512MB.

Kharonte85
04-05-2007, 08:41
Sinceramente non capisco tutti sti drammi!

Alla fine non abbiamo giochi DX10 e nemmeno uno straccio di bench! E l'unico sistema operativo che per ora supporta le nuove librerie ha problemi molto seri! Specie con i driver sia ATI che Nvidia.

Per ora si puo' giocare bene a tutto con una 1950pro, quindi non c'e' nessuna fretta. Poi e' chiaro che dopo la mega acquisizione AMD abbia bisogno di tempo per riassestarsi.
A volte mi domando se sono l'unico a capire la stretta connessione che c'è fra la presenza di hardware dx10 e la voglia dei produttori di giochi di tirar fuori presto titoli in dx10...in altre parole, piu' ritardano le vga dx10 piu' ritarderanno i giochi piu' ritardano le ottimizzazioni sul sistema operativo...piu' devo rimandare l'acquisto del mio prossimo pc...:(

Poliphilo
04-05-2007, 08:42
:eek: in un forum di hardware...:doh:


Ascolta, stavo semplicemente dicendo che oltre l'hardware nella vita c'è di ben altro :rolleyes:
Se invece di fare 10500 punti al 3DMark2006 ne fa 10150 non è mica un dramma.

Kharonte85
04-05-2007, 08:43
Ascolta, stavo semplicemente dicendo che oltre l'hardware nella vita c'è di ben altro :rolleyes:
Se invece di fare 10500 punti al 3DMark2006 ne fa 10150 non è mica un dramma.
Ironia, questa sconosciuta...:rolleyes:

DakmorNoland
04-05-2007, 08:44
Ascolta, stavo semplicemente dicendo che oltre l'hardware nella vita c'è di ben altro :rolleyes:
Se invece di fare 10500 punti al 3DMark2006 ne fa 10150 non è mica un dramma.

Quotone! :D

Ma d'altronde non ti scordare che siamo su un forum di fanatici! :p

Anch'io rispetto alla norma potrei essere definito fanatico del pc, anche se qui mi sa che sono uno dei piu' moderati da quel punto di vista. :)

A.L.M.
04-05-2007, 08:56
Gibbo, venditore (sotto NDA) di overclockers.co.uk, non chè in possesso di un sample di HD2900 XT, sulle "notizie" di Fudzilla riguardanti consumi e calore della HD2900 XT.

Hi there

It does not require a 750W PSU !

It consumes 200W a maximum of 200W at stock speeds.

Hi there

Our system had an Enermax 1000W PSU.

I have the ATI Tech/Fact sheet here so upto 200W is requirement at stock clocks with 2x6pin connectors.

If overclocking then you need 1x8pin and 1x6pin connected and then it consumes upto 225W.

I hope ATI don't bash me for stating this but I don't want misleading information such as that going around.

Fact is a decent quality 400-500W PSU will run of these cards fine if your running a Core 2 DUO system or Athlon X2 based system.

Hi there

Also regarding this 100c nonsence.

This is making my blood boil now.

AMD/ATI let me tell these guys the real facts about this card because the utter crap on the internet is literally that, CRAP!

The card is quiet, in fact its more or less silent even after a good gaming session. It also stays in the 70c-80c under full load whilst overclocked and still remains quiet.

At stock speeds its generally around the 60c-70c mark and the heatsink does not burn to the touch like an 8800GTX or X1950 XTX, so the card can be handled even after a mad benchmarking session.

Dalle sue parole sembra confermato: clock stock e overclock leggero, 200W max. Overclock estremo, 225W.

Portocala
04-05-2007, 08:57
Sinceramente non capisco tutti sti drammi!

Alla fine non abbiamo giochi DX10 e nemmeno uno straccio di bench! E l'unico sistema operativo che per ora supporta le nuove librerie ha problemi molto seri! Specie con i driver sia ATI che Nvidia.

Per ora si puo' giocare bene a tutto con una 1950pro, quindi non c'e' nessuna fretta. Poi e' chiaro che dopo la mega acquisizione AMD abbia bisogno di tempo per riassestarsi.

Certo che è un dramma:
ho aspettato 6 mesi per vedere sta scheda e me la ritardano di altri 14 giorni. Ok, ci sto, ma se dopo 14 giorni più altri 2-3 di distribuizione, mi vieni a dire che la scheda arriverà alla fine di giugno, questi sono altri 2mesi di ritardo.

Si può giocare bene con una 1950Pro, ma non tutti hanno la 1950Pro per farlo.

Faccio un dramma perchè devo prendere il pc, e se entro una data stabilità non vedo la contropartita Ati/Amd io mi butto su NVidia e che se ne andassero a cagà, con le loro R600.

zorco
04-05-2007, 08:59
ho una 7800 gtx (che non so per quale arcano motivo mi sono convinto a cambiarla.. anzi lo so.. la malattia da hardware:D )
ma tra 10 gg saranno in commercio?
se stai morendo e non cè la fai più prenditi la 8800...

Simon82
04-05-2007, 09:06
http://www.fudzilla.com/images/stories/2007/May/graphics/r600_voucher.jpg

http://www.fudzilla.com/images/stories/2007/May/graphics/r600_voucher_back.jpg

A.L.M.
04-05-2007, 09:08
Visto che a un po' di gente i tribali non piacevano, Sapphire ha deciso di accontentarli... :O :D

http://www.pctuner.info/up/results/_200705/20070504101605_sapphireheatpipeR600.jpg

Campioni del Mondo 2006!!
04-05-2007, 09:09
Certo che è un dramma:
ho aspettato 6 mesi per vedere sta scheda e me la ritardano di altri 14 giorni. Ok, ci sto, ma se dopo 14 giorni più altri 2-3 di distribuizione, mi vieni a dire che la scheda arriverà alla fine di giugno, questi sono altri 2mesi di ritardo.

Si può giocare bene con una 1950Pro, ma non tutti hanno la 1950Pro per farlo.

Faccio un dramma perchè devo prendere il pc, e se entro una data stabilità non vedo la contropartita Ati/Amd io mi butto su NVidia e che se ne andassero a cagà, con le loro R600.

Quoto.. io alla fine ho preso la 8600gt.. tanto le ati se andranno di piu.. costeranno anche di piu..

jok3r87
04-05-2007, 09:10
Visto che a un po' di gente i tribali non piacevano, Sapphire ha deciso di accontentarli... :O :D

http://img179.imageshack.us/img179/5121/sapphireheatpiper600bt6.jpg (http://imageshack.us)

Esagerata... ma quel molex in più serve a chi non ha un connettore a 8pin ?

Athlon 64 3000+
04-05-2007, 09:14
Visto che a un po' di gente i tribali non piacevano, Sapphire ha deciso di accontentarli... :O :D

http://img179.imageshack.us/img179/5121/sapphireheatpiper600bt6.jpg (http://imageshack.us)

Molto carina la sapphire.
Chissa se sarà la versione "normale" oppure una versione speciale questa HD 2900XT.

Nos89
04-05-2007, 09:15
Esagerata... ma quel molex in più serve a chi non ha un connettore a 8pin ?

nono servono tutti e 2:read:

Simon82
04-05-2007, 09:18
Davvero (fin) troppo esagerata. Stiamo sempre parlando dei due ormai canonici slot, ma pesera' un chilo. :eek:

Rispetto alle reference images viste finora sembrava meno complesso il sistema di raffreddamento. E quel ventolone da 2.0A per 12V gia' mi fa pensare.

jok3r87
04-05-2007, 09:21
nono servono tutti e 2:read:

E a cosa serve quel molex ?
Se serve ad alimentare la ventola, questa andrà sempre al 100%. A meno che sapphire non dia un modulo esterno alla scheda, che serva a regolare gli rpm della ventola.

Davvero (fin) troppo esagerata. Stiamo sempre parlando dei due ormai canonici slot, ma pesera' un chilo. :eek:

Rispetto alle reference images viste finora sembrava meno complesso il sistema di raffreddamento. E quel ventolone da 2.0A per 12V gia' mi fa pensare.

Più che il secondo slot che ormai è prassi, sono le 3 heat-pipe che escono fuori dal pcb a preoccupare.

zorco
04-05-2007, 09:26
E a cosa serve quel molex ?
Se serve ad alimentare la ventola, questa andrà sempre al 100%. A meno che sapphire non dia un modulo esterno alla scheda, che serva a regolare gli rpm della ventola.



Più che il secondo slot che ormai è prassi, e vedere quanto escono fuori dal pcb le 3 heat-pipe.
in pratica sta scheda ha tre connettori:p ,uno a 6 pin + un'altro 8 pin ed infine quello della ventola più eventuale modulo per regolare gli rpm,eccezzionale veramente:doh:

lukeskywalker
04-05-2007, 09:27
ma quanto consumeranno queste 2900?
non intendo acquistare nessuna nuova vga che consumi più della mia attuale x1900xt 512 :O

wiltord
04-05-2007, 09:27
in pratica sta scheda ha tre connettori:p ,uno a 6 pin + un'altro 8 pin ed infine quello della ventola più eventuale modulo per regolare gli rpm,eccezzionale veramente:doh:

modulo? ma quale modulo?

Superpelo
04-05-2007, 09:28
ragazzi io vorrei comprare la hd 2900xt.... secondo voi il mio alimentatore (in firma) lo dovrei sostituire?

PS: ho anche le 2 ventole stock del case, l' alimentatore l' ho aquistato a settembre dello scorso anno e mi deve durare ancora per 1 e mezzo.

grazie.


una vga per cui non basta un tagn 480 è solo un pezzo di ferraglia ridicolo

zorco
04-05-2007, 09:31
modulo? ma quale modulo?
si vede nella foto un connettore tipo quello che si usa per per regolare le ventole del case,per questo penso che ci sia un modulo esterno...

A.L.M.
04-05-2007, 09:34
una vga per cui non basta un tagn 480 è solo un pezzo di ferraglia ridicolo

Ehm, forse non hai letto... :stordita: :read:

http://www.hwupgrade.it/forum/showpost.php?p=16984514&postcount=5259

wiltord
04-05-2007, 09:37
Ehm, forse non hai letto... :stordita: :read:

http://www.hwupgrade.it/forum/showpost.php?p=16984514&postcount=5259

me l'ero perso quel post, molto interessante ;)

zorco
04-05-2007, 09:37
http://www.pctuner.info/up/results/_200705/20070504103441_sapphireheatpiper600bt6.jpg

quel connettore va collegato probabilmente a un regolatore di velocità della ventola...

GabrySP
04-05-2007, 09:37
Quella ventola è identica ad una turbina di un 767, speriamo che il rumore non sia lo stesso :D

Vista la ventola e le heatpipe, penso che i 200W siano una cosa reale :mad:

wiltord
04-05-2007, 09:38
quel connettore va collegato probabilmente a un regolatore di velocità della ventola...

bah, mi sembra strano, si è sempre fatta via sw la regolazione..

Foglia Morta
04-05-2007, 09:38
quel connettore va collegato probabilmente a un regolatore di velocità della ventola...

infatti la ventola in quella foto non è alimentata. Non è per un modulo esterno , è proprio per la ventola del dissi

Superpelo
04-05-2007, 09:39
Ehm, forse non hai letto... :stordita: :read:

http://www.hwupgrade.it/forum/showpost.php?p=16984514&postcount=5259

infatti gli stavo rispondendo, quell'ali ha 2 linea da 12v con 20A ciascuna, cioè tantissimo, e mi sembra difficile fare una vga a cui non basti tale potenza, nel caso poi esista davero uan vga che consuma così tanto, comprarla è da idioti.

ATi7500
04-05-2007, 09:43
ma la GTX, a titolo di confronto, quanto consuma in full?
comunque non capisco la gente che prima si lamenta che la scheda scalderà troppo, e poi che ha un sistema di raffreddamento troppo corposo (che probabilmente la farà scaldare sensibilmente di meno). Insomma volete sempre la botte piena e la moglie ubriaca? per un chip come R600 (80nm) è un miracolo che non si sia ricorsi al raffreddamento a liquido.

bYeZ!

Foglia Morta
04-05-2007, 09:45
ma la GTX, a titolo di confronto, quanto consuma in full?
comunque non capisco la gente che prima si lamenta che la scheda scalderà troppo, e poi che ha un sistema di raffreddamento troppo corposo (che probabilmente la farà scaldare sensibilmente di meno). Insomma volete sempre la botte piena e la moglie ubriaca? per un chip come R600 (80nm) è un miracolo che non si sia ricorsi al raffreddamento a liquido.

bYeZ!

Considerando che c'è chi usa la GTX con un solo connettore 6pin collegato penso stia intorno ai 130-140W

Edit: io mi sono intestardito con Fast14... http://www.hardwareirc.com/news.php?ID=9366&PHPSESSID=becad187a...

forse questo spiega qualcosa:

A parità di condizioni un chip con logica dinamica dissipa più potenza rispetto ad un chip classico

ATi7500
04-05-2007, 09:47
Considerando che c'è chi usa la GTX con un solo connettore 6pin collegato penso stia intorno ai 130-140W

così poco? e che li hanno messi a fare 2 connettori scusa? :confused:
mica l'hanno undervoltata per farla funzionare con un solo connettore?

bYeZ!

zorco
04-05-2007, 09:48
http://www.xbitlabs.com/articles/video/display/gf8800gtx-roundup_6.html

la 8800gtx come si vede da quel grafico consuma 131.5 w in full...

Pat77
04-05-2007, 09:50
infatti gli stavo rispondendo, quell'ali ha 2 linea da 12v con 20A ciascuna, cioè tantissimo, e mi sembra difficile fare una vga a cui non basti tale potenza, nel caso poi esista davero uan vga che consuma così tanto, comprarla è da idioti.

Perchè? Se uno ha un ali, i soldi e la voglia perchè sarebbe da idioti, magari sarà anche la più veloce oltre che la più affamata di W.

gianni1879
04-05-2007, 09:52
Ehm, forse non hai letto... :stordita: :read:

http://www.hwupgrade.it/forum/showpost.php?p=16984514&postcount=5259

ottimo direi ;)

se sono vermante 200w direi che siamo apposto :)

zorco
04-05-2007, 09:58
http://www.tomshw.it/news.php?newsid=9938

Dexther
04-05-2007, 10:00
http://www.tomshw.it/news.php?newsid=9938

ottima segnalazione, ora lo provo :p

Foglia Morta
04-05-2007, 10:00
così poco? e che li hanno messi a fare 2 connettori scusa? :confused:
mica l'hanno undervoltata per farla funzionare con un solo connettore?

bYeZ!

il produttore deve dare delle info per il funzionamento considerando molte variabili e ovviamente bisogna prendere qulle più avverse per far si che chi rispetta le sue istruzioni è impossibile che possa avere problemi.

Comunque ritornando a parlare di R600:

hexus non è un sito che vive di rumours campati in aria...

pare che a Dicembre con R600 a 750Mhz abbiano indovinato lo score del 3dmark '06 .
http://www.hexus.net/content/item.php?item=7439
http://www.hexus.net/content/item.php?item=7437

IMHO , l'ostacolo principale per R600 è la dissipazione del calore, e in o/c estremi vedremo cose interessanti

gianni1879
04-05-2007, 10:05
http://www.tomshw.it/news.php?newsid=9938

sulle x1000 visualizza le freq

GabrySP
04-05-2007, 10:05
ottimo direi ;)

se sono vermante 200w direi che siamo apposto :)

Consumerebbe poco meno di un intero PC in full con una 8800GTX :sofico:

Visto il periodo dell'anno, sarebbe meglio di mettere in bundle, al posto di HL2-Epidode 2, un bel "Pinguino" De longhi :eek:

Spero sinceramente in consumi più "umani", perchè già la GTX consuma una esagerazione :mad:

zorco
04-05-2007, 10:08
ottima segnalazione, ora lo provo :p
prego..
sulle x1000 visualizza le freq
non saprei..

belin
04-05-2007, 10:10
Visto che a un po' di gente i tribali non piacevano, Sapphire ha deciso di accontentarli... :O :D

http://www.pctuner.info/up/results/_200705/20070504101605_sapphireheatpipeR600.jpg

...dissipatore abbastanza diverso da quello visto sinora e che si vede nella foto di HwUpgrade...e se questa fosse una versione OverClock da circa...mmm...vediamo...1 Ghz??? :cool:

(lo so che è difficile che sia a 1 Ghz, non rispondetemi in millemila!, ma una versione OC da 850 Mhz potrebbe essere...)

gianni1879
04-05-2007, 10:12
prego..

non saprei..

l'ho appena provato ;)

belin
04-05-2007, 10:12
http://www.tomshw.it/news.php?newsid=9938

sulle x1000 visualizza le freq

...già segnalato ieri sera (ci ha meravigliato il clock della gpu a 1 Ghz). L'ho provato con la mia vga e funziona.

:)

Nos89
04-05-2007, 10:14
ottimo direi ;)

se sono vermante 200w direi che siamo apposto :)

ah e ti sembrano pochi?:rolleyes:

Kharonte85
04-05-2007, 10:14
200w sono tanti, troppi...quel dissipatore della sapphire non mi piace...:fagiano:

Dexther
04-05-2007, 10:14
.. ma una versione OC da 850 Mhz potrebbe essere...

sicuramente sarà una versione overclocckata, normalmente nelle VGA non OC Sapphire non si discosta mai dalla reference :boh:

belin
04-05-2007, 10:17
ah e ti sembrano pochi?:rolleyes:

200w sono tanti, troppi...

Nvidia dichiara 177watt per le 8800 GTX in full-load. 23watt in più in full-load non mi sembrano una tragedia.

;)