PDA

View Full Version : [THREAD UFFICIALE] Aspettando ATi HD 2900XT


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 [27] 28 29 30 31

ale0bello0pr
09-05-2007, 15:16
edit

Pr|ckly
09-05-2007, 15:23
hai mai visto una vga potente integrata??

Fasciarsi la testa prima di farsi male ...

No ma potrebbero benissimo proporre un pacchetto di questo tipo ora... già abbiamo i giochi castrati sotto certe vga, potremmo benissimo trovarci di fronte ad uno scenario in cui alcuni titoli rendono meglio sotto determinate vga + determinate cpu oppure castrati se si ha una scheda ati + cpu intel (per esempio).
Non mi rompo la testa, spero solo che non succeda questo, ma nemmeno avrei pensato di vedere spuntare i loghi delle vga nelle intro dei giochi e di vedere certe schede volutamente castrate.

esticbo
09-05-2007, 15:39
Recensione affidabile?

http://it-review.net/index.php?option=com_content&task=view&id=1314&Itemid=1

Nn só ma ho trovato anche questa review http://xtreview.com/translate/ar/?index.php dove la 2900xt nn brilla + di tanto (la review é in arabo ma mettendo il cursore del mouse sopra alla frase viene tradotta in inglese).

belin
09-05-2007, 15:47
Mancano drivers usati, clocks delle schede e impostazioni precise dei diversi giochi. :mbe:

I risultati di DailyTech (sui quali già nutro qualche dubbio) sono già al massimo delle impostazioni possibili e sono in certi casi quasi il doppio di quelli di IT-Review...

...in quasi tutti i giochi la fantomatica XT (che chiameremo Casper @ IT-Review) ottiene risultati minori di una X1950XTX.

I Love IT-Review.

:sofico:

A.L.M.
09-05-2007, 15:49
Nn só ma ho trovato anche questa review http://xtreview.com/translate/ar/?index.php dove la 2900xt nn brilla + di tanto (la review é in arabo ma mettendo il cursore del mouse sopra alla frase viene tradotta in inglese).

E' la review di DailyTech tradotta in arabo con grafici fatti da loro. I setting sono gli stessi, le schede le stesse, i clocks gli stessi e pure i risultati. Finora (a parte i fake più madornali apparsi nei mesi scorsi) ci sono solo 2 supposte review: quella di It-review.net e quella di DailyTech. I siti non sono certo dei più seri.

A.L.M.
09-05-2007, 15:56
...in quasi tutti i giochi la fantomatica XT (che chiameremo Casper @ IT-Review) ottiene risultati minori di una X1950XTX.

I Love IT-Review.

:sofico:

Tra l'altro invito tutti a farsi una risata guardando i risultati (con presumo le stesse impostazioni, visto che per loro esistono solo risoluzione, AA e AF) a 1280 AA4x e AF16x delle 8600GTS OC. Praticamente vanno meglio della HD2900 XT. :asd:

http://it-review.net/index.php?option=com_content&task=view&id=1287&Itemid=91

Grey 7
09-05-2007, 15:59
Recensione affidabile?

http://it-review.net/index.php?option=com_content&task=view&id=1314&Itemid=1

spero di no

tony73
09-05-2007, 16:35
FAKEissima,Stalker va nettamente meglio sulla mia scheda in firma :)

cmq sti giorni sono lunghissimi a passare...

The_SaN
09-05-2007, 16:37
Mah...io non credo a niente fino al 14 :asd:
Basta cercare un po' di review per vedere che i rusultati sono totalmente sballati... la x2900xt va meno di quell' obrobrio di 8600gts :rotfl:

Dai...mancano 5 giorni :D

ale0bello0pr
09-05-2007, 16:39
Se quei risultati fossero stati veri sarei andato il 12 a San Francisco a fare la festa ad AMD.........:D

bladerunner86
09-05-2007, 16:50
Se quei risultati fossero stati veri sarei andato il 12 a San Francisco a fare la festa ad AMD.........:D

e il 14 sarebbe stata la festa di nvidia

ale0bello0pr
09-05-2007, 17:14
iniziate a sbavare :)

http://www.iamxtreme.net/video/r600/x2900xt2.jpg
http://www.iamxtreme.net/video/r600/x2900xt1.jpg
http://www.iamxtreme.net/video/r600/x2900xt4.jpg

12"(ONLY SI) 2900XT 1GB version
Le retail ci entreranno tranqui ;) dovrebbero essere quasi come le HD2900 XT da quello che si "dice"...

A.L.M.
09-05-2007, 17:19
Se quei risultati fossero stati veri sarei andato il 12 a San Francisco a fare la festa ad AMD.........:D

Tanto per riaffermare il tuo concetto... ;)

It-Review (2560x1600 aa4x, af16x)
http://it-review.net/images/stories/A/AMD/R600/NF590/4x/2560/Prey.png

Anandtech
http://images.anandtech.com/graphs/8800%20ultra%20launch_05020740541/14571.png

PCPerspective come controprova...
http://www.pcper.com/images/reviews/402/prey-2560-bar.jpg

It-Review (2560x1600 aa4x, af16x)
http://it-review.net/images/stories/A/AMD/R600/NF590/4x/2560/Supreme.png

Anandtech (senza AA4x, che presumo abbia un certo impatto sulle prestazioni a certe risoluzioni)
http://images.anandtech.com/graphs/8800%20ultra%20launch_05020740541/14572.png

Nelle altre risoluzioni i risultati delle nVIDIA sembrano bassissimi, rispetto a quelli di XBitlabs.


and so on...

Non posto i risultati di Oblivion perchè variando parecchio i framerates a seconda delle scene scelte, diventa difficile comparare. Lo stesso per STALKER: anche HWUpgrade lo misura con fraps (ed ogni sito sceglie scenari differenti), quindi non è che sia attendibilissimo come test.
I dati di FEAR per le nVIDIA sembrano "affidabili", ma ricordo che la X1950XTX fa 48fps a 1920x1200 AA4x AF16x (tutto al max) e 78fps a 1280x1024 (tutto al max) AA4x AF16x: quindi i dati della HD2900 mi sembrano "bassini".
Per FarCry non dicono che scenario hanno scelto, comunque a seconda dello scenario (regulator o research) e della risoluzione scelta, i punteggi delle nVIDIA di IT-reviews sono o troppo alti o troppo bassi.

P.S.: ho cercato di prendere siti affidabili, con risoluzioni compatibili e impostazioni al max possibile...

Comunque la bottom-line di questi test è che non sono assolutamente consistent (in meglio ed in peggio) con le altre review in giro in rete, anzi direi quasi che sono altri test aCdC. :asd:

bladerunner86
09-05-2007, 17:21
12" = 30,5 cm la scheda più grande del mondo!!! a titolo di confronto la 8800 gtx è di 27 cm.

ale0bello0pr
09-05-2007, 17:26
Tanto per riaffermare il tuo concetto... ;)

and so on...

Non posto i risultati di Oblivion perchè variando parecchio i framerates a seconda delle scene scelte, diventa difficile comparare. Lo stesso per STALKER: anche HWUpgrade lo misura con fraps (ed ogni sito sceglie scenari differenti), quindi non è che sia attendibilissimo come test.
I dati di FEAR per le nVIDIA sembrano "affidabili", ma ricordo che la X1950XTX fa 48fps a 1920x1200 AA4x AF16x (tutto al max) e 78fps a 1280x1024 (tutto al max) AA4x AF16x: quindi i dati della HD2900 mi sembrano "bassini".

P.S.: ho cercato di prendere siti affidabili, con risoluzioni compatibili e impostazioni al max possibile...

bassini? io direi disastrosi...per questo sarei andato a "FARGLI LA FESTA":asd:

ale0bello0pr
09-05-2007, 17:28
12" = 30,5 cm la scheda più grande del mondo!!! a titolo di confronto la 8800 gtx è di 27 cm.

leggi bene sotto le foto:read:

Kharonte85
09-05-2007, 17:29
Recensione affidabile?

http://it-review.net/index.php?option=com_content&task=view&id=1314&Itemid=1

bah...

ale0bello0pr
09-05-2007, 17:31
bah...

we terrorista...;)

Roman91
09-05-2007, 17:35
iniziate a sbavare :)

http://www.iamxtreme.net/video/r600/x2900xt1.jpg


12"(ONLY SI) 2900XT 1GB version
Le retail ci entreranno tranqui ;) dovrebbero essere quasi come le HD2900 XT da quello che si "dice"...

scusate questa skeda ha bisogno di 2 cavi d'alimentazione uno a 6 pin (il mio ali ce lha) poi ci sta un altra presa da 8 pin (nn ce lha:cry: ) ..lho appena preso e gia nn va bene???

GabrySP
09-05-2007, 17:41
Quelli di IT-review sono quelli che hanno fatto la prima rece della DFI infinity 965-s (tutti a dire che era un fake, visto le prestazione incredibili) e poi si rivelò tutto vero.

Questi test non si discostano molto da quelli di DT, anche se che quelli di IT-review sono degli incapaci (a fare delle rece fatte bene), non li reputo dei cialtroni (come non reputo dei cialtroni quelli di DT)

Visto che il prezzo della X2900 sarà inferiore a quello di una GTS sarà meglio cominciare a rendersi conto che forse le prestazioni saranno realmente quelle :( (nella speranza di essere smentiti lunedì mattina :D, e vedere una X2900 demolire una 8800Ultra :sofico: ..............nel dubbio è meglio fare scongiuri :tie: )

Kharonte85
09-05-2007, 17:42
we terrorista...;)
:mbe: devo usare il tasto segnala per la prima volta? O è una battuta venuta male? :confused:

Bah = esprimere incertezza ---> sulla veridicita' di quei test...non posso?

Del resto senza indicare i driver, senza foto ecc...sarebbe un atto di fede :mc:, e io sono agnostico, sempre...;)

saluti

bladerunner86
09-05-2007, 17:44
There are two things we can conclude from our first round of testing on this pretty obsolete, but still the highest-end chipset on the market for Socket AM2. First thing, there are some very strange "happenings" with Company of Heroes that forced us to suspect some driver problems.
probabilmente la recensione è vera ma con driver vecchi

TecnoWorld8
09-05-2007, 17:44
se questi risultati di IT-review sono veri, per ora questa scheda non varrà nemmeno i 400 euro che costerà al lancio, almeno per me...

DakmorNoland
09-05-2007, 17:46
scusate questa skeda ha bisogno di 2 cavi d'alimentazione uno a 6 pin (il mio ali ce lha) poi ci sta un altra presa da 8 pin (nn ce lha:cry: ) ..lho appena preso e gia nn va bene???

Penso che cmq includeranno degli adattatori con la scheda video. Ma in ogni caso il tuo alimentatore non è detto ce la faccia. :(

Hai fatto bene a prendere un LC Power, ma dovevi andare almeno su uno dei modelli della pro line.

bladerunner86
09-05-2007, 17:46
We were unable to do CrossFire on NF590SLI (it's not supported) so it doesn't make any sense to compare these scores to SLI because it wouldn't be fair and it would be completely misleading. We'll clash CF vs SLI tomorrow when we publish the second part of our R600 journey - 975 testing. Tuesdays are all about 975 testing, on Mondays, we were feeling a bit old-school. We'll also use SLI scores on EVGA's 680i-based motherboard to compare. So, stay tuned and come back tomorrow. Don't miss it. Just don't. OK?

domani esce la seconda parte dell' articolo. ciò avvalora ulteriormente la veridicità dei test

ale0bello0pr
09-05-2007, 17:46
:mbe: devo usare il tasto segnala per la prima volta? O è una battuta venuta male? :confused:

Bah = esprimere incertezza ---> sulla veridicita' di quei test...non posso?

Del resto senza indicare i driver, senza foto ecc...sarebbe un atto di fede :mc:, e io sono agnostico, sempre...;)

saluti

mmm... io mi rifaccio a una tua "espressione" ;)
E altri che faranno terrorismo...
e so a cosa era riferito..e a chi... :D

Deviad
09-05-2007, 17:47
Scusate, ma ammesso e non concesso che siano tutti sotto NDA,
perché nessuno ha comunicato delle informazioni a qualcunaltro che non lo era? :(

Tenebra
09-05-2007, 17:47
se questi risultati di IT-review sono veri, per ora questa scheda non varrà nemmeno i 400 euro che costerà al lancio, almeno per me...

Ma dai, come fanno ad essere veri? :rotfl:

Guarda il post di A.L.M. poco sopra, ci sono tanto di grafici e confronti di recensioni: i punteggi delle altre schede sono tutti sballati... solo per fare un esempio, secondo IT-review in Prey una 8800GTX fa DIECI fps in più di una 8800 ULTRA (secondo Anandtech, sito decisamente più serio) :mbe:... è l'ennesima vaccata.

wiltord
09-05-2007, 17:49
Scusate, ma ammesso e non concesso che siano tutti sotto NDA,
perché nessuno ha comunicato delle informazioni a qualcunaltro che non lo era? :(

ehm, forse perchè anche questo rappresenta non rispettare l'NDA? :muro:

DVD2005
09-05-2007, 17:49
bah...

Le conclusioni :mbe:

Second thing and the one that we'll elaborate more - the fact of the matter is that NVIDIA's 8800 series is obviously a very well thought-of product. We constantly have a feeling that the overall bandwidth, frequency, GPU frequency, number of Stream Processors and their frequency, Shaders, everything - has been designed so it uses the maximum available power. It has more then enough juice to compete with AMD's Radeon HD2900XT and beat it in pretty much every single test. It's even more worrying is the fact that 8800GTS 640 comes out as a winner in most of the tests, with 2-100% difference in overall score (Supreme Commander at 1920x1200 and 8xAA/16xAF does a 100% better), apart from a couple of FEAR scores and 2560x1600 scores that work in favour of AMD's Radeon HD2900XT in three out of eight tests (at this time, let's put Company of Heroes aside because of the first reason). This is rather logical because of the incredible bandwidth AMD's product has so no wonder 8800GTS 640 can't compete with that.

loperloper
09-05-2007, 17:55
Ma dai, come fanno ad essere veri? :rotfl:

Guarda il post di A.L.M. poco sopra, ci sono tanto di grafici e confronti di recensioni: i punteggi delle altre schede sono tutti sballati... solo per fare un esempio, secondo IT-review in Prey una 8800GTX fa DIECI fps in più di una 8800 ULTRA (secondo Anandtech, sito decisamente più serio) :mbe:... è l'ennesima vaccata.

possono essere tranquillamente veri calcolando l'immaturità dei driver, te non immagini quanto possono incidere dei driver di tanto immaturi ;)...secondo me, ripeto, sta tutto qua e lo confermeranno dopo il 14: driver immaturi...dategli 6mesi come a nvidia e poi tireremo le reali conclusioni....

DakmorNoland
09-05-2007, 17:57
Le conclusioni :mbe:

Sì vabbè dai son cavolate! La 2900XT non può andare meno della 8800GTS, visto che quest'ultima va poco + di una x1950xtx!

Non esiste che amd metta sul mercato la scheda DX10 top di gamma che va come la prededente top di gamma o poco +! :p

Kharonte85
09-05-2007, 17:59
mmm... io mi rifaccio a una tua "espressione" ;)
E altri che faranno terrorismo...
e so a cosa era riferito..e a chi... :D
Se l'ho detto io non mi riferivo di certo a me stesso :O :D ...e cmq non vedo perche' ti devi essere sentito chiamato in causa :boh: ti assicuro che io parlavo in generale senza aver nessuno in mente (pero' quella recensione potrebbe essere il "terrorismo" a cui mi riferivo)...ma sentirsi dare del terrorista gratuitamente e direttamente non è carino...:fagiano:

Deviad
09-05-2007, 18:00
possono essere tranquillamente veri calcolando l'immaturità dei driver, te non immagini quanto possono incidere dei driver di tanto immaturi ;)...secondo me, ripeto, sta tutto qua e lo confermeranno dopo il 14: driver immaturi...dategli 6mesi come a nvidia e poi tireremo le reali conclusioni....

Ma ti rendi conto di quello che stiamo dicendo?
Stiamo dicendo che grazie a questa mossa brillante di ATI di far uscire la scheda con un consistente ritardo rispetto al lancio della sua controparte, avremo dei driver acerbi di 6 mesi da adesso in poi. ^^
E chi cazzo se la comprerebbe + una scheda ATI se ciò fosse vero?

Mi preparo a dover sganciare fior di quattrini per una NVIDIA mi sa e tagliare così la testa al toro (se quanto detto prima è vero) :(

dovella
09-05-2007, 18:02
Effettivamente io sto aspettando come un dannato per non buttare soldi nel WC. Tuttavia l'attesa è giustificata dal fatto che per adesso non possiamo giocare ad una mazza, quindi mi ritengo fortunato ma ad ogni modo credo di dover comprare la 8800 GTS visto che i driver Nvidia saranno sicuramente piu supportati oo sbagio?

ale0bello0pr
09-05-2007, 18:02
Se l'ho detto io non mi riferivo di certo a me stesso :O :D ...e cmq non vedo perche' ti devi essere sentito chiamato in causa :boh: ti assicuro che io parlavo in generale senza aver nessuno in mente (pero' quella recensione potrebbe essere il "terrorismo" a cui mi riferivo)...ma sentirsi dare del terrorista gratuitamente e direttamente non è carino...:fagiano:

:ubriachi:
ok allora avevo frainteso quella tua frase...visto che piu' volte dicevi che saresti venuto a trovarmi :asd:

GabrySP
09-05-2007, 18:03
There are two things we can conclude from our first round of testing on this pretty obsolete, but still the highest-end chipset on the market for Socket AM2. First thing, there are some very strange "happenings" with Company of Heroes that forced us to suspect some driver problems.

probabilmente la recensione è vera ma con driver vecchi


Quella frase vuol dire esattamente l'opposto di quello che hai capito, in pratica dice che R600 in CoH va "troppo bene" nel senso che a causa di qualche problema nei driver, l'AA non viene attivato (questo secondo quelli di IT-review)

Deviad
09-05-2007, 18:03
ehm, forse perchè anche questo rappresenta non rispettare l'NDA? :muro:

Ma è un modo intelligente x non rispettarlo. Le fonti giornalistiche sono protette. :P

bladerunner86
09-05-2007, 18:08
Quella frase vuol dire esattamente l'opposto di quello che hai capito, in pratica dice che R600 in CoH va "troppo bene" nel senso che a causa di qualche problema nei driver, l'AA non viene attivato (questo secondo quelli di IT-review)

Corsini se ci sei batti un colpo!

Kharonte85
09-05-2007, 18:12
:ubriachi:
ok allora avevo frainteso quella tua frase...visto che piu' volte dicevi che saresti venuto a trovarmi :asd:
Vabbe'...in quel caso credo fosse palese (spero) che stessi scherzando...:cincin: :D

Ricordati di chi ti ha aiutato quando avevi bisogno: Qui (http://www.hwupgrade.it/forum/showthread.php?t=1306619) :fiufiu:

Fine OT

In quella recensione si sostiene addirittura che la HD2900xt vada cosi' bene in COH perche' ha problemi di driver (perche' forse non si attivano correttamente le impostazioni) :asd:

Edit:
Quella frase vuol dire esattamente l'opposto di quello che hai capito, in pratica dice che R600 in CoH va "troppo bene" nel senso che a causa di qualche problema nei driver, l'AA non viene attivato (questo secondo quelli di IT-review)
Esatto, non avevo letto il tuo post...

A.L.M.
09-05-2007, 18:20
possono essere tranquillamente veri calcolando l'immaturità dei driver, te non immagini quanto possono incidere dei driver di tanto immaturi ;)...secondo me, ripeto, sta tutto qua e lo confermeranno dopo il 14: driver immaturi...dategli 6mesi come a nvidia e poi tireremo le reali conclusioni....

Il problema è che le nVIDIA hanno risultati strani: o troppo alti o troppo bassi (confrontati con recensioni di pochi giorni fa).

appleroof
09-05-2007, 18:23
possono essere tranquillamente veri calcolando l'immaturità dei driver, te non immagini quanto possono incidere dei driver di tanto immaturi ;)...secondo me, ripeto, sta tutto qua e lo confermeranno dopo il 14: driver immaturi...dategli 6mesi come a nvidia e poi tireremo le reali conclusioni....

I driver...già, sono perfettamente d'accordo con te, anche quelli di Nvidia si può dire che nonostante i 6 mesi siano ancora immaturi (non si è vista un'applicazione dx10 come sappiamo, inoltre) anche se problemi enormi non ne danno: un piccolo esempio sono dovuto tornare dai 158.18 whql (appena usciti, con i quali si è avuto un discreto boot prestazionale in 3D) ai 100.65whql (febbraio) per giocare a TDU (supporta vista) con aa e hdr attivato, sia pure con prestazioni leggermente inferiori....

cmq in generale ormai è davvero questione di giorni, finalmente lunedì si saprà tutta la verità ;)

Tenebra
09-05-2007, 18:26
possono essere tranquillamente veri calcolando l'immaturità dei driver, te non immagini quanto possono incidere dei driver di tanto immaturi ;)...secondo me, ripeto, sta tutto qua e lo confermeranno dopo il 14: driver immaturi...dategli 6mesi come a nvidia e poi tireremo le reali conclusioni....

Il problema è che le nVIDIA hanno risultati strani: o troppo alti o troppo bassi (confrontati con recensioni di pochi giorni fa).

Ecco, appunto ;)
Non guardare i risultati della 2900, guarda quelli delle altre schede: sono completamente sballati rispetto a recensioni più serie - e parliamo di schede già sul mercato, le cui prestazioni sono conosciute.

Se il parametro di riferimento è sbagliato, figurati cosa sono i risultati della 2900 :D

belin
09-05-2007, 18:44
Il problema è che le nVIDIA hanno risultati strani: o troppo alti o troppo bassi (confrontati con recensioni di pochi giorni fa).

...e poi ci volevano 10 secondi a pigiare qualche tasto per scrivere almeno che driver hanno usato con le 8800. Capisco che AMD a loro non ha dato i driver 8.361 e quindi avranno usato i driver 7.x, però...un minimo di serietà...o competenza...chiamatela come volete...

Questo il sistema usato da IT-Review:

- ASUS P5W DH Deluxe
- EVGA 122-CK-NF68-A1
- ASUS M2N32-SLI Premium
- DFI ICFX3200T2R/G
- AMD X2 6000+
- Intel Core 2 Duo E6700
- OCZ Platinum XTC PC2-8500 (2x2x1GB)
- AMD Radeon HD2900XT
- OCZ and EVGA 8800GTX
- ASUS 8800GTS 640MB
- OCZ GameXstream PSU (new revision, rewired for 8-pin PCI-E connector)
- Corsair HX620
- OCZ Vindicator coolers
- WD RaptorX's 150GB
- Pioneer DVR-110BK's
- Dell 3007WFP 30" LCD monitor (up to 2560x1600)
- Benq FP241W (up to 1920x1200)

due cpu diverse, due schede madri, due alimentatori, due monitor, due coppie di memorie...avranno utilizzato almeno un'unica piattaforma di test??? spero, per loro, di si...ma ho dei dubbi. :rolleyes: :stordita:

I Love IT-Review

bladerunner86
09-05-2007, 19:01
siamo passati da
R600XT vs 8800 GTS
poi
R600XT vs 8800 GTX e se overclockata R600XT@XTX VS 8800 GTX ULTRA
e ora
R600XT vs 8800 GTS

domani????

bladerunner86
09-05-2007, 19:05
intanto nvidia mette la freccia per il sorpasso
http://www.tomshw.it/news.php?newsid=9992

ale0bello0pr
09-05-2007, 19:06
siamo passati da
R600XT vs 8800 GTS
poi
R600XT vs 8800 GTX e se overclockata R600XT@XTX VS 8800 GTX ULTRA
e ora
R600XT vs 8800 GTS

domani????

R600XT vs X1900 XT :rolleyes:
imho..io resto fermo della seconda ipotesi...poi mancano quasi....4 giorni...

possono essere tranquillamente veri calcolando l'immaturità dei driver, te non immagini quanto possono incidere dei driver di tanto immaturi ;)...secondo me, ripeto, sta tutto qua e lo confermeranno dopo il 14: driver immaturi...dategli 6mesi come a nvidia e poi tireremo le reali conclusioni....

non sono affatto d'accordo mi spiace...ma quei 6 mesi...nn potranno essere tali in quanto AMD allora gia' si scaverebbe la fossa da sola...quei 6 mesi li hanno utilizzati nn solo x produrre le nuove HD 2000 Series...ma anche per i driver...imho....e sarebbe favoloso vederti tirar fuori il giorno dell'inaugurazione...i driver nuovi...quelli ke danno la reale potenza di R600...non trovate? ;)

intanto nvidia mette la freccia per il sorpasso
http://www.tomshw.it/news.php?newsid=9992

azz strano che Nvidia la mettano come "Ivan Drago"...se nn sbaglio poi le prendi da Rocky...o mi sbaglio?...:asd:

Vabbe'...in quel caso credo fosse palese (spero) che stessi scherzando...:cincin: :D

Ricordati di chi ti ha aiutato quando avevi bisogno: Qui (http://www.hwupgrade.it/forum/showthread.php?t=1306619) :fiufiu:

:vicini:

FINE :ot:

appleroof
09-05-2007, 19:09
azz strano che Nvidia la mettano come "Ivan Drago"...se nn sbaglio poi le prendi da Rocky...o mi sbaglio?...:asd:
FINE :ot:

Ammazza come sei flammoso però....com'era la storia del "celodurismo"? :asd: :asd:

;)

gianlu75xp
09-05-2007, 19:10
siamo passati da
R600XT vs 8800 GTS
poi
R600XT vs 8800 GTX e se overclockata R600XT@XTX VS 8800 GTX ULTRA
e ora
R600XT vs 8800 GTS

domani????

R600XT vs GeForce 3 Ti 500

Imho è presto per avere idea di quale sarà la resa effettiva della nuova nata di casa Ati-AMD, persino il potenziale della 8800, ad oggi è ancora largamente inespresso a causa della mancanza di titoli dx 10. Un po' di pazienza :)
In tal senso l'uscita di Crysis (e solo allora passerò ad una vga dx 10) ci dirà chi è davanti e chi deve inseguire, fino ad allora ci dovremo ancora basare sulle vecchie API... e sempre con il beneficio del dubbio.

ale0bello0pr
09-05-2007, 19:18
Ammazza come sei flammoso però....com'era la storia del "celodurismo"? :asd: :asd:

;)

no diciamo che sn abbastanza preciso...e noto tutto...:O

appleroof
09-05-2007, 19:20
no diciamo che sn abbastanza preciso...e noto tutto...:O

Si, diciamo così.....;)

T3d
09-05-2007, 19:22
intanto nvidia mette la freccia per il sorpasso
http://www.tomshw.it/news.php?newsid=9992

ancora fakezilla? :D
millemila miliardi di schede vendute da nvidia :cool:

halduemilauno
09-05-2007, 19:32
ancora fakezilla? :D
millemila miliardi di schede vendute da nvidia :cool:

con un milione di chip prodotti/venduti alla settimana(+ o -) quella cifra è anche bassa. infatti si riferisce alla sola produzione dx10 e non tiene conto delle dx9 nel frattempo ancora prodotte(ancora per poco).

T3d
09-05-2007, 19:34
con un milione di chip prodotti/venduti alla settimana(+ o -) quella cifra è anche bassa. infatti si riferisce alla sola produzione dx10 e non tiene conto delle dx9 nel frattempo ancora prodotte(ancora per poco).

già... a quel ritmo saremo a 28milioni di chip venduti da nvidia :) bel colpo saranno contenti gli azionisti!

halduemilauno
09-05-2007, 19:47
una testimonianza.
http://www.xtremesystems.org/forums/showpost.php?p=2180185&postcount=34

bladerunner86
09-05-2007, 19:50
una testimonianza.
http://www.xtremesystems.org/forums/showpost.php?p=2180185&postcount=34

chi è Sampsa? una persona affidabile?

appleroof
09-05-2007, 19:50
Edit già postato

leoneazzurro
09-05-2007, 19:52
Un'altra testimonianza :D

http://www.rage3d.com/board/showthread.php?t=33889574&page=32

appleroof
09-05-2007, 19:52
chi è Sampsa? una persona affidabile?

Si (ha già la scheda e la sta provando da un bel pò) ;)

Interessante notare come lui sottolinei che (per alcuni è ovvio) il 3dmark non rispecchia i giochi, nei quali sostanzialmente la 2900XT se la vedrà con la GTS...

ale0bello0pr
09-05-2007, 19:57
io vi dico solo una cosa.....

Sampsa sta coprendo benissimo AMD....essendo stato a Tunisi con lo stesso Kinc e avendo firmato l'NDA...e sta cercando di mettere fuori pista chiunque con le loro affermazioni....
pensateci bene...se Sampsa afferma cio' che dice nel forum vuol dire che l'NDA allora lo avrebbe rotto(poichè da gia' gli esiti della scheda in questione)...mentre..se da risposte vaghe e altre addirittura false(xkè lui sa) in quel caso l'NDA lo sta usando proprio come vuole AMD....infine..:asd: nn vorrei addirittura che, invece di pensare che sia stata nVidia a pagare Fuad o Dailytech o qualsiasi altro sito di IT fasulle, sia stata proprio AMD stessa a far conferire ai suddetti siti queste notizie molto fake(o semplicemente dando i driver sbagliati,old)..per mandar in crisi noi MERCATO e nVidia Competitor...il14.....vabbhè ma questa supposizione finale sarebbe a dir poco assurda...IMHO...;) :rolleyes:
Che bello fare MARKETING:D

bladerunner86
09-05-2007, 20:01
Si (ha già la scheda e la sta provando da un bel pò) ;)

Interessante notare come lui sottolinei che (per alcuni è ovvio) il 3dmark non rispecchia i giochi, nei quali sostanzialmente la 2900XT se la vedrà con la GTS...


ma anche lui è sotto nda?
cmq la differenza dei punteggi nel 3dmark06 è elevatissima non sono mica bruscolini 2000/3000 punti.

appleroof
09-05-2007, 20:03
io vi dico solo una cosa.....

Sampsa sta coprendo benissimo AMD....essendo stato a Tunisi con lo stesso Kinc e avendo firmato l'NDA...e sta cercando di mettere fuori pista chiunque con le loro affermazioni....
pensateci bene...se Sampsa afferma cio' che dice nel forum vuol dire che l'NDA allora lo avrebbe rotto(poichè da gia' gli esiti della scheda in questione)...mentre..se da risposte vaghe e altre addirittura false(xkè lui sa) in quel caso l'NDA lo sta usando proprio come vuole AMD....infine..:asd: nn vorrei addirittura che, invece di pensare che sia stata nVidia a pagare Fuad o Dailytech o qualsiasi altro sito di IT fasulle, sia stata proprio AMD stessa a far conferire ai suddetti siti queste notizie molto fake(o semplicemente dando i driver sbagliati,old)..per mandar in crisi noi MERCATO e nVidia Competitor...il14.....vabbhè ma questa supposizione finale sarebbe a dir poco assurda...IMHO...;) :rolleyes:
Che bello fare MARKETING:D

Quindi Ati (tramite i suoi) starebbe solo "nascondendo" le reali performance della 2900XT per poi stupire al lancio? non lo so....

Indovinate? la verità si saprà solo lunedì, :asd: solo per allora avremo conferme/smentite

Grey 7
09-05-2007, 20:04
cmq la differenza dei punteggi nel 3dmark06 è elevatissima non sono mica bruscolini 2000/3000 punti.
non c'entra niente, i giochi possono essere tutt'altra cosa, ha poco senso fossilizzarsi su dei numeri di un bench, 3d merd soprattutto

appleroof
09-05-2007, 20:04
ma anche lui è sotto nda?
cmq la differenza dei punteggi nel 3dmark06 è elevatissima non sono mica bruscolini 2000/3000 punti.

Leggi la lettura che della cosa dà Aleobellopr...mah :boh:

bladerunner86
09-05-2007, 20:06
io vi dico solo una cosa.....

Sampsa sta coprendo benissimo AMD....essendo stato a Tunisi con lo stesso Kinc e avendo firmato l'NDA...e sta cercando di mettere fuori pista chiunque con le loro affermazioni....
pensateci bene...se Sampsa afferma cio' che dice nel forum vuol dire che l'NDA allora lo avrebbe rotto(poichè da gia' gli esiti della scheda in questione)...mentre..se da risposte vaghe e altre addirittura false(xkè lui sa) in quel caso l'NDA lo sta usando proprio come vuole AMD....infine..:asd: nn vorrei addirittura che, invece di pensare che sia stata nVidia a pagare Fuad o Dailytech o qualsiasi altro sito di IT fasulle, sia stata proprio AMD stessa a far conferire ai suddetti siti queste notizie molto fake(o semplicemente dando i driver sbagliati,old)..per mandar in crisi noi MERCATO e nVidia Competitor...il14.....vabbhè ma questa supposizione finale sarebbe a dir poco assurda...IMHO...;) :rolleyes:
Che bello fare MARKETING:D

quale industria distrugge la sua immagine nell' immediato lancio dei suoi prodotti di punta????? a che pro? e secondo te nvidia non ha già nelle sue mani r600 da almeno 3/4 mesi?

appleroof
09-05-2007, 20:06
non c'entra niente, i giochi possono essere tutt'altra cosa, ha poco senso fossilizzarsi su dei numeri di un bench, 3d merd soprattutto

Per una volta sono completamtne d'accordo con te, sono indicativi (senza arrivare al 3dmerd) ma non bisogna fissarsi unicamente su quelli, questo secondo me ovviamente vale in generale, non solo in questo caso

Kharonte85
09-05-2007, 20:06
Un'altra testimonianza :D

http://www.rage3d.com/board/showthread.php?t=33889574&page=32

Decisamente interessante...

appleroof
09-05-2007, 20:07
Decisamente interessante...

Non riesco a decifrarla, veramente :mbe:

parcher
09-05-2007, 20:09
Quelli di IT-review sono quelli che hanno fatto la prima rece della DFI infinity 965-s (tutti a dire che era un fake, visto le prestazione incredibili) e poi si rivelò tutto vero.



:angel:

leoneazzurro
09-05-2007, 20:11
Potrebbe essere: siccome per R600 l'Hype era montato tantissimo e si favoleggiava già di prestazioni il 50% superiori alla GTX, gli utenti sarebbero rimasti delusi nel vedere le prestazioni reali dopo 6 mesi dalla concorrenza.
Quindi, fare pubblicità negativa (anche per far parlare molto della cosa) per poi poter presentare una scheda che va non come la concorrenza ma non molto distante, e ad un prezzo accessibile, e far tirare un sospiro di sollievo ai suoi fans.
Però, normalmente le aziende non ragionano in questo modo.

ale0bello0pr
09-05-2007, 20:12
quale industria distrugge la sua immagine nell' immediato lancio dei suoi prodotti di punta????? a che pro? e secondo te nvidia non ha già nelle sue mani r600 da almeno 3/4 mesi?

distruggere l'immagine di una grossa azienda in sole 2 settimane è veramente assurdo...stai un pò esagerando :confused: (devi tener conto che tutti i dubbi stanno nascendo dalla presentazione ufficial del 14 maggio di cui si sa l'esistenza da poco piu' di 2 sett...e soprattutto che le varie info "fasulle" stiano uscendo da neanke una settimana....quindi nn penso che ora tutto il mondo stia acquistando nVidia xkè R600 "risulterebbe" fallata nei confronti di G80.....
nVidia ha gia' annunciato da qualke mese di voler mettere sul mercato 8900 e 8950GX2.....questo cos'altro ti fa pensare......

Foglia Morta
09-05-2007, 20:12
Un'altra testimonianza :D

http://www.rage3d.com/board/showthread.php?t=33889574&page=32

sia kinc che sampsa danno un colpo alla botte e un colpo al cerchio... imho manca all'appello una scheda con dissi asetek

Dexther
09-05-2007, 20:12
Potrebbe essere: siccome per R600 l'Hype era montato tantissimo e si favoleggiava già di prestazioni il 50% superiori alla GTX, gli utenti sarebbero rimasti delusi nel vedere le prestazioni reali dopo 6 mesi dalla concorrenza.
Quindi, fare pubblicità negativa (anche per far parlare molto della cosa) per poi poter presentare una scheda che va non come la concorrenza ma non molto distante, e ad un prezzo accessibile, e far tirare un sospiro di sollievo ai suoi fans.
Però, normalmente le aziende non ragionano in questo modo.

ottimo ragionamento , ampiamente condivisibile e plausibile :)

leoneazzurro
09-05-2007, 20:12
Non riesco a decifrarla, veramente :mbe:

leggi i commenti di razor1

TecnoWorld8
09-05-2007, 20:13
mi forzerò a non leggere questo thread fino al 14, tanto ormai non solo più ogni giorno, ma ogni minuto si cambia idea...

dico solo questo: questo sampsa, se volesse coprire AMD, basterebbe che se ne stesse zitto...invece parla e pare dire che la XT andrà come una GTS. Secondo me, se così non fosse, non lo direbbe. Poi, lietissimo di sbagliarmi!

Kharonte85
09-05-2007, 20:14
Non riesco a decifrarla, veramente :mbe:
Metti a fuoco su qua: http://www.rage3d.com/board/showpost.php?p=1334932500&postcount=949 :)

ale0bello0pr
09-05-2007, 20:14
Potrebbe essere: siccome per R600 l'Hype era montato tantissimo e si favoleggiava già di prestazioni il 50% superiori alla GTX, gli utenti sarebbero rimasti delusi nel vedere le prestazioni reali dopo 6 mesi dalla concorrenza.
Quindi, fare pubblicità negativa (anche per far parlare molto della cosa) per poi poter presentare una scheda che va non come la concorrenza ma non molto distante, e ad un prezzo accessibile, e far tirare un sospiro di sollievo ai suoi fans.
Però, normalmente le aziende non ragionano in questo modo.

leone nn so se hai letto l'articolo riguardante il cambio di strategia marketing di AMD....:) l'NDA è una grande cosa.... IMHO... ;)

Simon82
09-05-2007, 20:19
Potrebbe essere: siccome per R600 l'Hype era montato tantissimo e si favoleggiava già di prestazioni il 50% superiori alla GTX, gli utenti sarebbero rimasti delusi nel vedere le prestazioni reali dopo 6 mesi dalla concorrenza.
Quindi, fare pubblicità negativa (anche per far parlare molto della cosa) per poi poter presentare una scheda che va non come la concorrenza ma non molto distante, e ad un prezzo accessibile, e far tirare un sospiro di sollievo ai suoi fans.
Però, normalmente le aziende non ragionano in questo modo.

Sono scelte commerciali possibili agli estremi. Lo dicevo che puo' succedere che l'hype sia negativo piano piano per abituare le persone a questo fatto.

L'hype e' un'arma mediatica potentissima ma a volte ha creato piu' danni che benefici.

leoneazzurro
09-05-2007, 20:21
leone nn so se hai letto l'articolo riguardante il cambio di strategia marketing di AMD....:) l'NDA è una grande cosa.... IMHO... ;)

Si, del resto nvidia ha fatto lo stesso dalle 7800 in poi. Però in questo caso AMD sembra voler tenere tutti ancora di più col fiato sospeso.

ale0bello0pr
09-05-2007, 20:24
Si, del resto nvidia ha fatto lo stesso dalle 7800 in poi. Però in questo caso AMD sembra voler tenere tutti ancora di più col fiato sospeso.

esatto;) e mi sembra sempre di aver letto in questo articolo ke Intel(per quanto ovviamente riguarda il campo CPU) voglia seguire la stessa strategia di AMD.....(ehm....ma dove???!!! :stordita: )

bladerunner86
09-05-2007, 20:30
razor1:
Look at what Kyle said about the comparison, Brent and Kinc say about 3dmarks and comparative to gaming performance, and disregard all the leaked benchmarks for now and the price of the XT.

una persona dice:
i think its going to be more than 5 to 10% slower than the gtx


ed ecco la risposta di razor1
nah in some games it very close to the gtx even edges it out, some games its not, thats the reason the Ultra is priced so high.


altra domanda di un' utente
Huh? How does GTX performance at $400 justify the price of the Ultra?
razor

it doesn't have the GTX performance, in very few games does it get close to the GTX and only in some settings.
The Ultra pricing was set because there is no competition to it, even in those few games the XT is close or marginally better 1-2 fps then the GTX, the Ultra wins those too.

parcher
09-05-2007, 20:33
leggi i commenti di razor1

Mi sembra di aver capito che la 2900XT non arriva alla GTX nei giochi addirittura la GTS va meglio in alcuni casi, mentre la GTX Ultra' e' il TOP, e per questa generazione NVIDIA e' in anticipo su tutti i fronti.

P. ;)

bladerunner86
09-05-2007, 20:36
razor

the r600 losses in x3 by 15% maybe more. This is at high res aswell.

la r600 perde in x3 il 15% e forse anche di più. questo ad alte risoluzioni



:help: :help: :help: :nera: :nera: :nera: :nera:

parcher
09-05-2007, 20:39
razor



la r600 perde in x3 il 15% e forse anche di più. questo ad alte risoluzioni



:help: :help: :help: :nera: :nera: :nera: :nera:

Ecco perche' nel 3dmark corre....:banned:

loperloper
09-05-2007, 20:42
drivers

leoneazzurro
09-05-2007, 20:45
Mi sembra di aver capito che la 2900XT non arriva alla GTX nei giochi addirittura la GTS va meglio in alcuni casi, mentre la GTX Ultra' e' il TOP, e per questa generazione NVIDIA e' in anticipo su tutti i fronti.

P. ;)

Dice che in media è il 5-10% meno veloce della GTX.

Comunque, mi sembra di avere capito una cosa: scrivere dei drivers per la 2900 è parecchio più complesso che non per le 8800. Questo perchè l'architettura di G80 è meno complessa e tende anche ad un autobilanciamento delle risorse, mentre nel caso di R600 c'è bisogno di molto più lavoro e di ottimizzazioni da parte dei programmatori e del compilatore per sfruttare le potenzialità della scheda. La mia opinione è che per sfruttare bene l'architettura R6xx dal punto di vista dei drivers dovrà passare ancora un altro anno almeno, per non parlare del SW...
E' possibilissimo che 3Dmark sia stata la prima cosa ad essere ottimizzata, per i giochi credo ci vorrà ancora un bel pò di tempo

bladerunner86
09-05-2007, 20:49
razor

SC:CT is close marginal at some settings.



In Splinter Cell: Chaos Theory la perdita è marginale alle stesse impostazioni

Defragg
09-05-2007, 20:50
razor



la r600 perde in x3 il 15% e forse anche di più. questo ad alte risoluzioni



:help: :help: :help: :nera: :nera: :nera: :nera:

si, ma R600 costa forse più del 15% in meno della 8800GTX

johnson
09-05-2007, 20:52
io vi dico solo una cosa.....

Sampsa sta coprendo benissimo AMD....essendo stato a Tunisi con lo stesso Kinc e avendo firmato l'NDA...e sta cercando di mettere fuori pista chiunque con le loro affermazioni....
pensateci bene...se Sampsa afferma cio' che dice nel forum vuol dire che l'NDA allora lo avrebbe rotto(poichè da gia' gli esiti della scheda in questione)...mentre..se da risposte vaghe e altre addirittura false(xkè lui sa) in quel caso l'NDA lo sta usando proprio come vuole AMD....infine..:asd: nn vorrei addirittura che, invece di pensare che sia stata nVidia a pagare Fuad o Dailytech o qualsiasi altro sito di IT fasulle, sia stata proprio AMD stessa a far conferire ai suddetti siti queste notizie molto fake(o semplicemente dando i driver sbagliati,old)..per mandar in crisi noi MERCATO e nVidia Competitor...il14.....vabbhè ma questa supposizione finale sarebbe a dir poco assurda...IMHO...;) :rolleyes:
Che bello fare MARKETING:D

Ma solo io leggo nelle parole di Sampsa una conferma sul prezzo della scheda e nulla che riguardi le prestazioni? Se i prezzi che qualche shop pratica in preorder fossero veri, l'unica cosa sicura sarebbe che, un utente che cerca il meglio a quel prezzo, dovrebbe scegliere tra HD2900XT e 8800GTS... scegliendo HD2900XT viste le sue migliori prestazioni per quei soldi.
Secondo me dice il vero ma non viola nessun NDA sulle prestazioni. Per questo può dirlo :D

bladerunner86
09-05-2007, 20:54
Dice che in media è il 5-10% meno veloce della GTX.

Comunque, mi sembra di avere capito una cosa: scrivere dei drivers per la 2900 è parecchio più complesso che non per le 8800. Questo perchè l'architettura di G80 è meno complessa e tende anche ad un autobilanciamento delle risorse, mentre nel caso di R600 c'è bisogno di molto più lavoro e di ottimizzazioni da parte dei programmatori e del compilatore per sfruttare le potenzialità della scheda. La mia opinione è che per sfruttare bene l'architettura R6xx dal punto di vista dei drivers dovrà passare ancora un altro anno almeno, per non parlare del SW...
E' possibilissimo che 3Dmark sia stata la prima cosa ad essere ottimizzata, per i giochi credo ci vorrà ancora un bel pò di tempo

razor spera come te nel miglioramento delle prestazioni con dei nuovi driver

I didn't want to come out and say it orginally, I'm hoping newer drivers can improve the performance some, but the tests I'm seeing are with 8-37-4 drivers. I was waiting on confirmation on some things.

Grey 7
09-05-2007, 21:07
che i driver futuri porteranno a dei miglioramenti lo penso anch'io. Quello che mi lascia dei dubbi è se dei driver piu maturi possano cambiare di tanto la situazione o semplicemente migliorarla solo di un po'. Sara che sui miracoli dei driver non c'ho mai creduto

leoneazzurro
09-05-2007, 21:12
razor spera come te nel miglioramento delle prestazioni con dei nuovi driver

Più che altro io sono ragionevolmente certo che ci saranno miglioramenti prestazionali con i nuovi drivers, del resto i numeri di R600 sono molto più vicini a quelli delle GTX che non a quelli delle GTS, e in alcuni caso vanno oltre.

A vantaggio di R600 ad esempio abbiamo la potenza di calcolo pura (anche rispetto alla GTX se consideriamo il MUL mancante), più banda passante a disposizione, la capacità di effettuare un maggior numero di texture fetch.

A vantaggio della GTX c'è una migliore utilizzazione delle risorse in mancanza di ottimizzazioni specifiche ed una capacità di applicare i filtri alle texture che potrebbe essere fino a 2,5 volte maggiore.

Per il discorso ROPs secondo me siamo su un piano all'incirca paritario.

Poi bisogna dire una cosa: mi sembra di aver letto che l'impostazione del filtro anisotropico in R600 è di default su "HQ" (alta qualità). In questo caso bisognerebbe fare i test in parità di condizioni. Credo che nella situazione attual G80 sarebbe ancora in testa, comunque.

Foglia Morta
09-05-2007, 21:16
Poi bisogna dire una cosa: mi sembra di aver letto che l'impostazione del filtro anisotropico in R600 è di default su "HQ" (alta qualità). In questo caso bisognerebbe fare i test in parità di condizioni. Credo che nella situazione attual G80 sarebbe ancora in testa, comunque.

Ciò che è HQ per R580 è il default per R600... è la base di partenza , poi immagino ci sia anche un HQ per R600

appleroof
09-05-2007, 21:16
leggi i commenti di razor1

Metti a fuoco su qua: http://www.rage3d.com/board/showpost.php?p=1334932500&postcount=949 :)

Grazie, molto meglio :)

Dice che in media è il 5-10% meno veloce della GTX.

Comunque, mi sembra di avere capito una cosa: scrivere dei drivers per la 2900 è parecchio più complesso che non per le 8800. Questo perchè l'architettura di G80 è meno complessa e tende anche ad un autobilanciamento delle risorse, mentre nel caso di R600 c'è bisogno di molto più lavoro e di ottimizzazioni da parte dei programmatori e del compilatore per sfruttare le potenzialità della scheda. La mia opinione è che per sfruttare bene l'architettura R6xx dal punto di vista dei drivers dovrà passare ancora un altro anno almeno, per non parlare del SW...
E' possibilissimo che 3Dmark sia stata la prima cosa ad essere ottimizzata, per i giochi credo ci vorrà ancora un bel pò di tempo

credo che non ti riferisci, credo, allo sfruttamento al 100% sempre e cmq, (visto che nessuna scheda è mai così sfruttata) perchè se così fosse a quel punto uno fa in tempo a prendere una nuova scheda.....

Più che altro io sono ragionevolmente certo che ci saranno miglioramenti prestazionali con i nuovi drivers, del resto i numeri di R600 sono molto più vicini a quelli delle GTX che non a quelli delle GTS, e in alcuni caso vanno oltre.

A vantaggio di R600 ad esempio abbiamo la potenza di calcolo pura (anche rispetto alla GTX se consideriamo il MUL mancante), più banda passante a disposizione, la capacità di effettuare un maggior numero di texture fetch.

A vantaggio della GTX c'è una migliore utilizzazione delle risorse in mancanza di ottimizzazioni specifiche ed una capacità di applicare i filtri alle texture che potrebbe essere fino a 2,5 volte maggiore.

Per il discorso ROPs secondo me siamo su un piano all'incirca paritario.

Poi bisogna dire una cosa: mi sembra di aver letto che l'impostazione del filtro anisotropico in R600 è di default su "HQ" (alta qualità). In questo caso bisognerebbe fare i test in parità di condizioni. Credo che nella situazione attual G80 sarebbe ancora in testa, comunque.

Perchè? :)





Quanto al discorso hype e gente (Sampsa & c) che "lavora" per Ati....a quel punto ogni loro info sarebbe quantomeno falsata, proprio perchè "dettata" da Ati...non lo so...

Alexkidd85
09-05-2007, 21:22
che i driver futuri porteranno a dei miglioramenti lo penso anch'io. Quello che mi lascia dei dubbi è se dei driver piu maturi possano cambiare di tanto la situazione o semplicemente migliorarla solo di un po'. Sara che sui miracoli dei driver non c'ho mai creduto

Sui "miracoli" dei drivers la Nvidia sta tentando di "andare in paradiso" visto che con il 3dmark ha recuperato l'inferno di punti,con i giochi la piena compatibilità...certo,la potenza resta sempre quella,diciamo che però la ottimizzi con il passare del tempo IMHO.
Comunque sto notando sempre più "nvidia" in questo 3d(occhio al doppio,doppio, senso) :D

leoneazzurro
09-05-2007, 21:23
credo che non ti riferisci, credo, allo sfruttamento al 100% sempre e cmq, (visto che nessuna scheda è mai così sfruttata) perchè se così fosse a quel punto uno fa in tempo a prendere una nuova scheda.....

Intendo riuscire a sfruttare le risorse in maniera ragionevolmente alta in molte applicazioni. IMHO lo scheduling per R600 deve'essere un problema mica da poco. Facciamo un esempio grossolano: se l'architettura di ed i drivers di G80 nei giochi attuali rendono sfruttabili l'80% delle risorse del chip, nel caso di R600 penso che sfruttino il 60% delle risorse al massimo.
Poi bisogna vedere se si riuscirà mai a sfruttare nelle applicazioni il restante 40%


Perchè? :)

Perchè G80 perde relativamente poco con le impostazioni HQ

leoneazzurro
09-05-2007, 21:24
Ciò che è HQ per R580 è il default per R600... è la base di partenza , poi immagino ci sia anche un HQ per R600

Si, esatto: però su G80 e R580 le impostazioni di default (che sono quelle con cui si fanno i benchmark) sono altre.

ale0bello0pr
09-05-2007, 21:25
Ma solo io leggo nelle parole di Sampsa una conferma sul prezzo della scheda e nulla che riguardi le prestazioni? Se i prezzi che qualche shop pratica in preorder fossero veri, l'unica cosa sicura sarebbe che, un utente che cerca il meglio a quel prezzo, dovrebbe scegliere tra HD2900XT e 8800GTS... scegliendo HD2900XT viste le sue migliori prestazioni per quei soldi.
Secondo me dice il vero ma non viola nessun NDA sulle prestazioni. Per questo può dirlo :D

:what:
http://en.wikipedia.org/wiki/Non-disclosure_agreement
:read:

parcher
09-05-2007, 21:26
Quanto al discorso hype e gente (Sampsa & c) che "lavora" per Ati....a quel punto ogni loro info sarebbe quantomeno falsata, proprio perchè "dettata" da Ati...non lo so...

Sicuramente di parte, comunque si spiegherebbe il prezzo d'uscita della scheda, chi ha aspettato sin ora il passaggio da una DX9 ad una DX10 avra' comunque piu' alternative.

P.;)

belin
09-05-2007, 21:27
...posto due immagini che potrebbero tornare utili a chi ha intenzione di cambiare dissy o mettere R600 a liquido.

http://www.techpowerup.com/img/07-05-09/MSI2900XT-20.JPG

http://www.techpowerup.com/img/07-05-09/Watercooler_recessed_outer_area.jpg

:)

esticbo
09-05-2007, 21:28
Qui in España hanno iniziato le prevendite della ASUS EAH2900XT/G/HTVDI (90-C3CFW1-JUAY00T) (http://www.abyss.es/w06/productos/ficha.asp?CODIGO=90C3CFW0JUAY00T&CODIGOSUP=11260402&rastrillo=0) x 346,00 € + 16% di iva (401,36 €)

appleroof
09-05-2007, 21:31
Intendo riuscire a sfruttare le risorse in maniera ragionevolmente alta in molte applicazioni. IMHO lo scheduling per R600 deve'essere un problema mica da poco. Facciamo un esempio grossolano: se l'architettura di ed i drivers di G80 nei giochi attuali rendono sfruttabili l'80% delle risorse del chip, nel caso di R600 penso che sfruttino il 60% delle risorse al massimo.
Poi bisogna vedere se si riuscirà mai a sfruttare nelle applicazioni il restante 40%

Sono d'accordo, allora avevo capito bene....secondo me tutto dipende non tanto dai driver (un pò di tempo e sia quelli nvidia che quelli ati credo proprio saranno in grado di offrire il max, non dimentichiamo Vista --e le dx10--, che non è Xp, avevo già accennato ad una dichiarazione ufficiale di un responsabile nvidia che ammetteva che i driver per vista erano più "difficili" di quelli per xp --si usava l'espressione "il comportamento in vista dei driver è molto meno lineare rispetto ad xp" + o -) ma da come saranno scritti i giochi, secondo una percentuale (la butto lì solo per chiarire la mia opnione, nulla di scientifico/matematico :p ) tipo 30/70

Io speravo (e leggendo qua e là sembrava effettivamente così) che le dx10 portassero finalmente molta più standardizzazione e quindi ottimizzazione, e che la differenza la si giocasse nelle nuove features attinenti ad esempio la gestione della fisica, ma a quanto pare nisba :rolleyes:

Perchè G80 perde relativamente poco con le impostazioni HQ

è vero e te lo possso confermare per esperienza diretta, ovviamente (in pratica l'af 16x la scheda vola come se non l'avesse con qualsiasi gioco finora) onestamente però la banda passante della R600 non mi pare offra meno di quella di G80....

ale0bello0pr
09-05-2007, 21:32
...posto due immagini che potrebbero tornare utili a chi ha intenzione di cambiare dissy o mettere R600 a liquido.

http://www.techpowerup.com/img/07-05-09/MSI2900XT-20.JPG

http://www.techpowerup.com/img/07-05-09/Watercooler_recessed_outer_area.jpg

:)

ottimo belin :cool:
da quanto sostengono i guru dell'OC e che la stanno provando anche sotto WC....il K5 della Hybris dovrebbe essere compatibile se forzato un pokino...altri WB non so...qualcuno può fare una lista? :D

appleroof
09-05-2007, 21:33
Sicuramente di parte, comunque si spiegherebbe il prezzo d'uscita della scheda, chi ha aspettato sin ora il passaggio da una DX9 ad una DX10 avra' comunque piu' alternative.

P.;)

Bè su questo non ci piove, almeno questa è una sicurezza al 1000% :asd: :asd:

;)

Foglia Morta
09-05-2007, 21:36
Si, esatto: però su G80 e R580 le impostazioni di default (che sono quelle con cui si fanno i benchmark) sono altre.

Non sono sicuro che tu abbia interpretato bene il mio post...

Intendevo dire che ciò che ti sembrava di aver letto riguardo l'impostazione HQ di default di R600 probabilmente l'hai letto in una slide di AMD ( quella che avevo letto io ). Quel default corrisponde all'HQ di R580 , poi l'HQ di R600 sarà un altro.
Quindi nei bench di R600 di default non è settato sul suo HQ ma solamente al suo livello normale ( ciò che è il massimo in R580 )

ale0bello0pr
09-05-2007, 21:37
Bè su questo non ci piove, almeno questa è una sicurezza al 1000% :asd: :asd:

;)

la cosa che mi preoccupa...è l'avvento delle DX 10.1...pare imminente addirittura....e che queste schede cmq nn supportino il nuovo standard....effettivamente il 14 se mi dicono che invece non è così...passo ad AMD a vita...:asd: (non so se per le CPU però...:stordita: )

leoneazzurro
09-05-2007, 21:39
Sono d'accordo, allora avevo capito bene....secondo me tutto dipende non tanto dai driver (un pò di tempo e sia quelli nvidia che quelli ati credo proprio saranno in grado di offrire il max, non dimentichiamo Vista --e le dx10--, che non è Xp, avevo già accennato ad una dichiarazione ufficiale di un responsabile nvidia che ammetteva che i driver per vista erano più "difficili" di quelli per xp --si usava l'espressione "il comportamento in vista dei driver è molto meno lineare rispetto ad xp" + o -) ma da come saranno scritti i giochi, secondo una percentuale (la butto lì solo per chiarire la mia opnione, nulla di scientifico/matematico :p ) tipo 30/70

Io speravo (e leggendo qua e là sembrava effettivamente così) che le dx10 portassero finalmente molta più standardizzazione e quindi ottimizzazione, e che la differenza la si giocasse nelle nuove features attinenti ad esempio la gestione della fisica, ma a quanto pare nisba :rolleyes:

Non solo da come sono scritti i giochi, ma anche e soprattuto dai drivers. Sia ATI che NVidia spesso operano delle "traduzioni" (chiamiamole così :D) on-the-fly degli shader poco "digestibili" dalle loro architetture con altri equivalenti ma più performanti su quella data GPU. Se tu dai 30/70 io darei il 60/40


è vero e te lo possso confermare per esperienza diretta, ovviamente (in pratica l'af 16x la scheda vola come se non l'avesse con qualsiasi gioco finora) onestamente però la banda passante della R600 non mi pare offra meno di quella di G80....

Non c'entra solo la banda passante, G80 ha 4 volte le unità dedicate al filtraggio delle texture rispetto a R600 (anche se non è chiaro se per ogni unità svolgano o meno lo stesso numero di operazioni) e soprattutto G80 può applicare un filtro anisotropo 16x in un singolo passaggio, R600 no.

appleroof
09-05-2007, 21:41
la cosa che mi preoccupapa...è l'avvento delle DX 10.1...pare imminente addirittura....e che queste schede cmq nn supportino il nuovo standard....effettivamente il 14 se mi dicono che invece è così...passo ad AMD a vita...:asd: (non so se per le CPU però...:stordita: )

Non si sà nulla di definitivo al riguardo, nemmeno che G80 non sia compatibile e quanto/come impatteranno nei giochi e quando (cosa veramente importante secondo me, c'è l'alta probabilità che per quando saranno implementate al 100% in un gioco la 8800ultra/2900XT saranno le 8800gts 320 di oggi)

leoneazzurro
09-05-2007, 21:42
Non sono sicuro che tu abbia interpretato bene il mio post...

Intendevo dire che ciò che ti sembrava di aver letto riguardo l'impostazione HQ di default di R600 probabilmente l'hai letto in una slide di AMD ( quella che avevo letto io ). Quel default corrisponde all'HQ di R580 , poi l'HQ di R600 sarà un altro.
Quindi nei bench di R600 di default non è settato sul suo HQ ma solamente al suo livello normale ( ciò che è il massimo in R580 )

No, ho capito benissimo, mi sono spiegato male io: quello che volevo dire è che il filtro di default di R600 è ad un livello "più alto" di quello di default di G80 e R580, e che quindi a default R600 è (leggermente) più penalizzato dai bench rispetto a queste altre due GPU.

belin
09-05-2007, 21:44
...io sono convinto che con i dovuti driver e le future applicazioni, 2900XT avrà performance vicino a 8800GTX, qualche volta sopra, qualche volta sotto. A prescindere dal 3Dmark. Sono bastate due autorevoli voci "sibilline" ed una review "stranissima" a far scattare l'isterismo collettivo. Sembra che molti si siano già dimenticati tutto quello che persone molto preparate hanno scritto su questo thread ed in un'altra sezione. Utilizzate il tasto cerca.
Controllate i vostri giudizi, non può un giorno essere tutto bello e l'altro un giorno di bratta (chi è di Genova capirà).
Ma voi credete veramente che quel colosso di Nvidia non sappia più di noi su R600??? secondo voi una Ultra con quelle determinate frequenze l'hanno fatta perchè non sapevano che fare e gli avanzavano dei G80 in cantina??? Se la Ultra ha quelle determinate e chiare frequenze vuol dire che a quelle determinate frequenze andrà più di R600XT @ default. Punto. R600 è un progetto maturo, non è nato il mese scorso. E' un architettura completamente nuova, per certi versi più rivoluzionaria dell'ottimo G80.

E ricordatevi di quanto è successo con G80...mezz'ora prima della fine dell'NDA si credevano cose che a pensarci adesso viene da ridere. In Nvidia ed ATi non ci lavorano dei bimbiminchia qualunque, sanno benissimo nascondere le cose sino al minuto prima. Se vogliono.

:)

A.L.M.
09-05-2007, 21:45
Secondo me come al solito si sta creando molto rumore per nulla. Che in molti giochi DX9 potesse essere inferiore alla GTX (ma comunque più nella sua fascia di prestazioni che in quella della GTS, che certo non è solo il 5-10% più lenta di una GTX), lo avevamo già ipotizzato tempo fa. Che la GTX potrebbe avvantaggiarsi nelle situazioni di gioco coi filtri superiori a 1600x1200/1920x1200 anche per via del framebuffer più grande è stato già ripetuto.
Bisogna però aggiungere un paio di cose:
- i driver in R600 potrebbero contare come non mai, come leoneazzurro ed altri hanno fatto notare a più riprese.
- la HD2900 XT si overclocca di brutto, anche con stock cooling, e 100MHz sul core e altrettanti minimo sulle memorie potrebbero portare benefici insperati (si aumenterebbero le capacità di TMU e ROPs) e portare addirittura ad un sostanziale pareggio con la GTX in vari giochi (se non addirittura un sorpasso)

Sarei poi curioso di sapere in quali giochi R600 va come la GTX, sia per capire se si avvantaggia nei famosi giochi shader intensive, sia per capire come si comporta nei porting da XboX360.

Infine aggiungerei che è ancora presto per parlare di superiorità di G80 su tutti i fronti: non esistono ancora giochi DX10. Ma per quello basterà aspettare le poche settimane che ci separano dall'uscita del benchmark basato su CoJ...

appleroof
09-05-2007, 21:45
Non solo da come sono scritti i giochi, ma anche e soprattuto dai drivers. Sia ATI che NVidia spesso operano delle "traduzioni" (chiamiamole così :D) on-the-fly degli shader poco "digestibili" dalle loro architetture con altri equivalenti ma più performanti su quella data GPU. Se tu dai 30/70 io darei il 60/40

capisco....

Non c'entra solo la banda passante, G80 ha 4 volte le unità dedicate al filtraggio delle texture rispetto a R600 (anche se non è chiaro se per ogni unità svolgano o meno lo stesso numero di operazioni) e soprattutto G80 può applicare un filtro anisotropo 16x in un singolo passaggio, R600 no.

In realtà lo sospettavo (mi riferisco alla banda passante) ma volevo una risposta da chi ne sa più di me


grazie delle risposte :)

ale0bello0pr
09-05-2007, 21:45
Non si sà nulla di definitivo al riguardo, nemmeno che G80 non sia compatibile e quanto/come impatteranno nei giochi e quando (cosa veramente importante secondo me, c'è l'alta probabilità che per quando saranno implementate al 100% in un gioco la 8800ultra/2900XT saranno le 8800gts 320 di oggi)

sarebbe una grossa delusione:muro: a meno che nn mi fai intendere che un gioco implementato al top come Crysis esca verso il Q1 2008...allora ok...:) ma a settembre....imho.... :cry:

appleroof
09-05-2007, 21:49
...io sono convinto che con i dovuti driver e le future applicazioni, 2900XT avrà performance vicino a 8800GTX, qualche volta sopra, qualche volta sotto.

Insomma la solita storia (come sono convinto) :)

Ma voi credete veramente che quel colosso di Nvidia non sappia più di noi su R600??? secondo voi una Ultra con quelle determinate frequenze l'hanno fatta perchè non sapevano che fare e gli avanzavano dei G80 in cantina??? Se la Ultra ha quelle determinate e chiare frequenze vuol dire che a quelle determinate frequenze andrà più di R600XT @ default. Punto. R600 è un progetto maturo, non è nato il mese scorso. E' un architettura completamente nuova, per certi versi più rivoluzionaria dell'ottimo G80.

Esattamente quello che dicevo tempo fa proprio qui, sono completamente d'accordo

E ricordatevi di quanto è successo con G80...mezz'ora prima della fine dell'NDA si credevano cose che a pensarci adesso viene da ridere. In Nvidia ed ATi non ci lavorano dei bimbiminchia qualunque, sanno benissimo nascondere le cose sino al minuto prima. Se vogliono.

:)

Anche su questo sono ovviamente d'accordo ;)

Sh0K
09-05-2007, 21:51
http://img5.pcpop.com/ArticleImages/500x375/0/463/000463855.jpg
http://img5.pcpop.com/ArticleImages/500x375/0/434/000434716.jpg
http://img5.pcpop.com/ArticleImages/500x375/0/434/000434724.jpg
http://img5.pcpop.com/ArticleImages/500x375/0/434/000434723.jpg
http://img5.pcpop.com/ArticleImages/500x375/0/434/000434725.jpg

Fonte: http://www.google.com/translate?u=http%3A%2F%2Fgroup.zol.com.cn%2Fzoler%2Findex.php%3Fuserid%3D8wy09596%26page%3D3&langpair=zh%7Cen&hl=en&ie=UTF8

leoneazzurro
09-05-2007, 21:52
Secondo me come al solito si sta creando molto rumore per nulla. Che in molti giochi DX9 potesse essere inferiore alla GTX (ma comunque più nella sua fascia di prestazioni che in quella della GTS, che certo non è solo il 5-10% più lenta di una GTX), lo avevamo già ipotizzato tempo fa. Che la GTX potrebbe avvantaggiarsi nelle situazioni di gioco coi filtri superiori a 1600x1200/1920x1200 anche per via della framebuffer più grande è stato già ripetuto.
Bisogna però aggiungere un paio di cose:
- i driver in R600 potrebbero contare come non mai, come leoneazzurro ed altri hanno fatto notare a più riprese.
- la HD2900 XT si overclocca di brutto, anche con stock cooling, e 100MHz sul core e altrettanti minimo sulle memorie potrebbero portare benefici insperati (si aumenterebbero le capacità di TMU e ROPs) e portare addirittura ad un sostanziale pareggio con la GTX in vari giochi (se non addirittura un sorpasso)

Sarei poi curioso di sapere in quali giochi R600 va come la GTX, sia per capire se si avvantaggia nei famosi giochi shader intensive, sia per capire come si comporta nei porting da XboX360.

Infine aggiungerei che è ancora presto per parlare di superiorità di G80 su tutti i fronti: non esistono ancora giochi DX10. Ma per quello basterà aspettare le poche settimane che ci separano dall'uscita del benchmark basato su CoJ...

In DX10 la differenza la farebbero soprattutto le features come i Geometry shader (se verranno utilizzati massicciamente). E una configurazione 5x1SP sembra molto adatta ai calcolo geometrici (4+1) Però è troppo presto per dire quale architettura andrà meglio, anche perchè magari G80 potrebeb erecuperare in pixel shading quello che perde in vertex e geometri shading....

appleroof
09-05-2007, 21:53
sarebbe una grossa delusione:muro: a meno che nn mi fai intendere che un gioco implementato al top come Crysis esca verso il Q1 2008...allora ok...:) ma a settembre....imho.... :cry:

Ti diverti ad essere ermetico, visto che sai cose su R600 che noi (io) non sappiamo.

ok: R600 è dx10.1 e G80 no? Va bene. Crysis sarà dx10.1? lo giocherò a dx10, oppure le dx10.1 non sono retrocompatibili? :eek: sai anche questo? :eek:

Foglia Morta
09-05-2007, 21:57
- la HD2900 XT si overclocca di brutto, anche con stock cooling, e 100MHz sul core e altrettanti minimo sulle memorie potrebbero portare benefici insperati (si aumenterebbero le capacità di TMU e ROPs) e portare addirittura ad un sostanziale pareggio con la GTX in vari giochi (se non addirittura un sorpasso)

Continui a non considerare che R600 a default e in full load sta sotto i 70° e a 870Mhz a 80°. Sono temperature basse.
Anche considerando il processo produttivo a 80nm un voltaggio di 1.175-1.2v rispetto a 1.35v di G80 sono pochi.

Basterebbe farsi 2 diverse teorie e sotto ognuna di esse raccoglierci i rumours e le voci fin qui venuti fuori e si taglierebbe la testa al toro ( o si scazzerebbe clamorosamente :D )

Edit: aggiungo questa
http://www.hwupgrade.it/articoli/skvideo/1714/temperatura.png

Se vogliono fare una XTX , la fanno

Alexkidd85
09-05-2007, 21:59
...io sono convinto che con i dovuti driver e le future applicazioni, 2900XT avrà performance vicino a 8800GTX, qualche volta sopra, qualche volta sotto. A prescindere dal 3Dmark. Sono bastate due autorevoli voci "sibilline" ed una review "stranissima" a far scattare l'isterismo collettivo. Sembra che molti si siano già dimenticati tutto quello che persone molto preparate hanno scritto su questo thread ed in un'altra sezione. Utilizzate il tasto cerca.
Controllate i vostri giudizi, non può un giorno essere tutto bello e l'altro un giorno di bratta (chi è di Genova capirà).
Ma voi credete veramente che quel colosso di Nvidia non sappia più di noi su R600??? secondo voi una Ultra con quelle determinate frequenze l'hanno fatta perchè non sapevano che fare e gli avanzavano dei G80 in cantina??? Se la Ultra ha quelle determinate e chiare frequenze vuol dire che a quelle determinate frequenze andrà più di R600XT @ default. Punto. R600 è un progetto maturo, non è nato il mese scorso. E' un architettura completamente nuova, per certi versi più rivoluzionaria dell'ottimo G80.

E ricordatevi di quanto è successo con G80...mezz'ora prima della fine dell'NDA si credevano cose che a pensarci adesso viene da ridere. In Nvidia ed ATi non ci lavorano dei bimbiminchia qualunque, sanno benissimo nascondere le cose sino al minuto prima. Se vogliono.

:)

Perfettamente d'accordo anche io...è mesi che cerco di dire,non è che all'amd ci siano dei cretini...ma belin ha coniato un termine più appropriato che io amo :D

loperloper
09-05-2007, 22:00
per quelli che si chiedono quanto dovrebbe essere grande la x2900 xt:

http://img113.imageshack.us/img113/456/msi2900xt01br0wv8.jpg

http://img266.imageshack.us/img266/3896/msi2900xt02xb8bm6.jpg

a quanto pare di parecchio più piccola di una 8800 ultra....

DVD2005
09-05-2007, 22:03
L'attesa si fa spasomodica ogni giorno di piu' ... ma tutto e' relativo... oggi, dopo una bella ed intensa sessione di forum, ho incontrato un amico, si e' parlato del piu' e del meno e poi gli dico con espressione entusiasta che tra pochi giorni sarebbe uscita R600... lui mi guarda e mi dice: "R cosa?"... c'e' stato un reciproco scambio di occhiate di questo tipo :mbe: ognuno di noi deve aver pensato di parlare con un alieno... alla fine e' una VGA ;)

belin
09-05-2007, 22:05
...su, dai, relax con questa bella ragazza:

http://img246.imageshack.us/img246/9886/131qq4.th.jpg (http://img246.imageshack.us/my.php?image=131qq4.jpg) :D

...e novità dal sito r800.blogspot:

Unsymmetrical Physics Acceleration Mode of Radeon HD 2000

Though the AMD ATI enounce Radeon HD 2900 series VPU has already integrated strong physics acceleration ability, but it seems AMD ATI want to endow Radeon HD 2000 series VPUs with stronger physics acceleration ability, so they put forward unsymmetrical physics acceleration mode, composed of a Radeon HD 2000 graphic card and a Radeon X1900 graphic card, among them the Radeon HD 2000 graphic card is responsible for 3D rendering, the Radeon X1900 graphic card is responsible for physical acceleration.

The unsymmetrical physics acceleration mode can make up the relative weak physics acceleration ability of Radeon HD 2600/2400 series, it also can let Radeon HD 2900 graphic card be free from physics acceleration, and concentrate on 3D rendering tasks. The unsymmetrical physics acceleration mode has already been supported by catalyst driver.

However, if there will be a DX9 game supports ATI physics acceleration in the future, another mode in which X1900 is responsible for 3D rendering, HD 2600/2400 is responsible for physical acceleration is also a quite good choice. But AMD ATI possibly don’t support this kind of mode right now and in the near future.

...molto interessante, imho.

:)


edit: scusate, avevo sbagliato a mettere il link dell'immagine.

loperloper
09-05-2007, 22:08
http://forum.coolaler.com/showthread.php?t=152864


chi è che era sotto NDA?? :p

A.L.M.
09-05-2007, 22:09
Continui a non considerare che R600 a default e in full load sta sotto i 70° e a 870Mhz a 80°. Sono temperature basse.
Anche considerando il processo produttivo a 80nm un voltaggio di 1.175-1.2v rispetto a 1.35v di G80 sono pochi.

Basterebbe farsi 2 diverse teorie e sotto ognuna di esse raccoglierci i rumours e le voci fin qui venuti fuori e si taglierebbe la testa al toro ( o si scazzerebbe clamorosamente :D )
Ma è quello che stavo cercando di dire... Comunque lo spazio per un mega OC c'è ed è forte. Per esperienza OC del genere garantiscono 5-10fps in più in qualunque gioco (e con quasi tutte le risoluzioni/impostazioni "umane"), infatti. ;)

In DX10 la differenza la farebbero soprattutto le features come i Geometry shader (se verranno utilizzati massicciamente). E una configurazione 5x1SP sembra molto adatta ai calcolo geometrici (4+1) Però è troppo presto per dire quale architettura andrà meglio, anche perchè magari G80 potrebeb erecuperare in pixel shading quello che perde in vertex e geometri shading....

A tal proposito ricordo come i rumors in tal riguardo parlano (unanimemente) di prestazioni enormemente a favore di ATi. Il problema è capire se e in che misura verranno adottate certe features nei primi giochi DX10.
Sicuramente è presto, così come comunque è presto per dare giudizi definitivi su questa generazione di schede. Se si fossero guardati solo i giochi DX8.1 le GeForceFX andavano di brutto... :asd:

Naturalmente bisogna pensare anche che alla qualità del gioco 5-10fps in più o in meno, quando si gioca già sopra i 50fps, tolgono poco. Ma invece in DX10, da quanto è trapelato finora, i numeretti di fraps potrebbero essere ben più piccoli: ovvio che allora i 5-10fps saranno ben più pesanti. ;)

L'attesa si fa spasomodica ogni giorno di piu' ... ma tutto e' relativo... oggi, dopo una bella ed intensa sessione di forum, ho incontrato un amico, si e' parlato del piu' e del meno e poi gli dico con espressione entusiasta che tra pochi giorni sarebbe uscita R600... lui mi guarda e mi dice: "R cosa?"... c'e' stato un reciproco scambio di occhiate di questo tipo :mbe: ognuno di noi deve aver pensato di parlare con un alieno... alla fine e' una VGA ;)

Piccolo consiglio OT: con gli amici è meglio parlare di quell'altra cosa il cui nome finisce per GA, però non è una VGA. :sofico:

Foglia Morta
09-05-2007, 22:12
http://forum.coolaler.com/showthread.php?t=152864


chi è che era sotto NDA?? :p

apprezziamo il contributo ma stai postando cose già riportate molte pagine fa :)

loperloper
09-05-2007, 22:12
L'attesa si fa spasomodica ogni giorno di piu' ... ma tutto e' relativo... oggi, dopo una bella ed intensa sessione di forum, ho incontrato un amico, si e' parlato del piu' e del meno e poi gli dico con espressione entusiasta che tra pochi giorni sarebbe uscita R600... lui mi guarda e mi dice: "R cosa?"... c'e' stato un reciproco scambio di occhiate di questo tipo :mbe: ognuno di noi deve aver pensato di parlare con un alieno... alla fine e' una VGA ;)

quoto, ed è successo la stessa cosa a me con un mio amico che bene o male ste cose le segue pure :)

loperloper
09-05-2007, 22:14
apprezziamo il contributo ma stai postando cose già riportate molte pagine fa :)

devo essermi perso qualche migliaia di pagina :asd:

leoneazzurro
09-05-2007, 22:14
Dal punto dei vista dei calcoli svolti, tra DX9 e DX10 cambia relativamente poco, mentre tra DX8 e DX9 moltissimo.

DVD2005
09-05-2007, 22:17
Piccolo consiglio OT: con gli amici è meglio parlare di quell'altra cosa il cui nome finisce per GA, però non è una VGA. :sofico:

faro' tesoro del tuo consiglio :asd:

A.L.M.
09-05-2007, 22:18
Dal punto dei vista dei calcoli svolti, tra DX9 e DX10 cambia relativamente poco, mentre tra DX8 e DX9 moltissimo.

Ma ti riferisci alle DX9 in generale o a quelle applicazioni DX9 del tutto teoriche che di fatto non sono mai uscite o quasi (cioè quelle che sfruttavano intensivamente lo SM3.0)?

leoneazzurro
09-05-2007, 22:21
Ma ti riferisci alle DX9 in generale o a quelle applicazioni DX9 del tutto teoriche che di fatto non sono mai uscite o quasi (cioè quelle che sfruttavano intensivamente lo SM3.0)?

Mi riferisco al fatto che i calcoli nello SM 2.0 e superiori sono fatti a FP24-32 (o FP 16 per la precisione parziale) mentre in DX8 ad una precisione molto minore.

A.L.M.
09-05-2007, 22:28
Mi riferisco al fatto che i calcoli nello SM 2.0 e superiori sono fatti a FP24-32 (o FP 16 per la precisione parziale) mentre in DX8 ad una precisione molto minore.

Ah, parli da un punto di vista più strettamente matematico, quindi. Però quanto a innovazioni e cambiamenti come tipo di istruzioni ce ne dovrebbero essere parecchi anche a questo giro o no? :fagiano:

leoneazzurro
09-05-2007, 22:29
Ah, parli da un punto di vista più strettamente matematico, quindi. Però quanto a innovazioni e cambiamenti come tipo di istruzioni ce ne dovrebbero essere parecchi anche a questo giro o no? :fagiano:

Non molto, dal punto di vista matematico :p

ale0bello0pr
09-05-2007, 22:30
Ragazzi scusate ma voi immaginate solo cosa voglia dire una HD 1900 XT@XTX in modo semplice come penso ci abbiano fatto capire alcune immagini postate (quando c'è stato uno stupore generale sulle frequenze intendo e su quel tool simil ATT) ?????

prendetelo come uno spunto di riflessione...lasciando da parte pixel non pixel, GB,MB etc.... :O

Sh0K
09-05-2007, 22:37
Ma le foto che ho postato non sono state postate altre volte vero?
Altra domandina, dato che su quel sito che ho segnalato dicono che la HD2600XT ha la metà esatta delle unità di R600, in teoria dovrebbe andare la metà no? Prestazionalmente parlando ovvio :)
Faccio un'ipotesi, dato che la HD2600XT "dovrebbe" andare la metà rispetto R600 e dato che la 8600GTS è per il 75% più lenta della 8800GTX, la scheda di AMD/ATI sarebbe più veloce e non di poco... non credete? Tutto ciò considerando cosa si è già detto di R600 e G80...

ale0bello0pr
09-05-2007, 22:41
Ragazzi scusate ma voi immaginate solo cosa voglia dire una HD 1900 XT@XTX in modo semplice come penso ci abbiano fatto capire alcune immagini postate (quando c'è stato uno stupore generale sulle frequenze intendo e su quel tool simil ATT) ?????

prendetelo come uno spunto di riflessione...lasciando da parte pixel non pixel, GB,MB etc.... :O

ok viste le tante risposte :asd: dico la mia...

se così fosse, la barriera delle 500-600-700- assurde 800€ verrebbe completamente abbattuta in quanto sappiamo quanto andrà sul mercato da 14 maggio R600...(che "dovrebbe" mettersi al top della fascia HIGH) così nVidia dovrà calare(per forza) la sua politica di prezzi folli per noi consumer...e in questo modo dovrà essere ricalcolata in toto tutta la fascia LOW-MEDIUM-HIGH dei prezzi delle schede VGA......mi sembra che il peggior elemento e quindi "lamento" sia il prezzo delle attuali schede... o sbaglio???:)

http://it-review.net/images/stories/r600test12.jpg lo invidiate? :rotfl::ncomment:

Tenebra
09-05-2007, 22:43
Ma le foto che ho postato non sono state postate altre volte vero?
Altra domandina, dato che su quel sito che ho segnalato dicono che la HD2600XT ha la metà esatta delle unità di R600, in teoria dovrebbe andare la metà no? Prestazionalmente parlando ovvio :)
Faccio un'ipotesi, dato che la HD2600XT "dovrebbe" andare la metà rispetto R600 e dato che la 8600GTS è per il 75% più lenta della 8800GTX, la scheda di AMD/ATI sarebbe più veloce e non di poco... non credete? Tutto ciò considerando cosa si è già detto di R600 e G80...

Quelle foto io le ho già viste tutte, e tra l'altro la prima non mi torna perchè c'è il connettore d'alimentazione, che tutti i rumors sono concordi nel dichiarare non presente sulle 2600xt (che poi qualche produttore lo metta, è possibilissimo - in quel caso spero nell'adattatore incluso però, non come ha fatto Sapphire con le 1950xt :muro: )

Sul discorso prestazioni ci andrei cauto, dipende da molte cose, anche qui però tutti i rumors dicono che andrà di più delle 8600... e vorrei vedere aggiungo io, non ci vuole molto per superarle eh... però aspettiamo e vedremo. Soprattutto la disponibilità, a quando la daranno effettivamente.

Tenebra
09-05-2007, 23:00
e in questo modo dovrà essere ricalcolata in toto tutta la fascia LOW-MEDIUM-HIGH dei prezzi delle schede VGA......mi sembra che il peggior elemento e quindi "lamento" sia il prezzo delle attuali schede... o sbaglio???:)

IMHO scenderà solo la fascia high end, il resto rimarrà dov'è.
Nvidia ha la 8800 gts 320 troppo vicina al prezzo delle 8600gts, con un divario di prestazioni imbarazzante, non può permettersi di abbassarla oltre, a meno di non avere un effetto "castello di carte" su tutte le 8600.
Lo farà se e solo se le 2600-2400 saranno decisamente superiori alle 8600 e derivati, così tanto da lasciare pochi dubbi su quale scegliere: in quel caso sarebbe praticamente costretta ad un taglio radicale, e solo in quello scenario vedremmo un calo su tutte le fasce.
Senza contare che l'unica dichiarazione di un rappresentante Amd rilasciata finora parlava della loro volontà di ridimensionare il mercato delle schede HIGH END, senza menzionare quello mainstream, che è quello in cui fanno il fatturato...

Kharonte85
09-05-2007, 23:03
ok viste le tante risposte :asd: dico la mia...

se così fosse, la barriera delle 500-600-700- assurde 800€ verrebbe completamente abbattuta in quanto sappiamo quanto andrà sul mercato da 14 maggio R600...(che "dovrebbe" mettersi al top della fascia HIGH) così nVidia dovrà calare(per forza) la sua politica di prezzi folli per noi consumer...e in questo modo dovrà essere ricalcolata in toto tutta la fascia LOW-MEDIUM-HIGH dei prezzi delle schede VGA......mi sembra che il peggior elemento e quindi "lamento" sia il prezzo delle attuali schede... o sbaglio???:)
In ogni caso, spero in un abbattimento di prezzi...;)


Cuttone

lo invidiate? :rotfl:
:sbonk: Per le schede si'...per l'aspetto un po' meno...:fagiano:

Alexkidd85
09-05-2007, 23:04
http://it-review.net/images/stories/r600test12.jpg lo invidiate? :rotfl:

OK.....chi è!? :mad:

garbage
09-05-2007, 23:06
http://it-review.net/images/stories/r600test12.jpg :rotfl::ncomment:

asd:D :D :D idolo! pero se ne e portate a casa parecchie

Mister Tarpone
09-05-2007, 23:07
:sbonk: Per le schede si'...per l'aspetto un po' meno...:fagiano:

quoto tantissimo :sbonk:
;)

ale0bello0pr
09-05-2007, 23:07
OK.....chi è!? :mad:

ma come chi è...:)

è wolverine !!! :ronf:

Tenebra
09-05-2007, 23:08
OK.....chi è!? :mad:

Ma come chi è, non riconosci Wolverine, degli X-men? Capigliatura inconfondibile :rotfl:

Scherzi a parte, ha in mano 5 schede dual slot ed una single slot: può essere solo un rivenditore o... ammanicato con uno di essi, dato che non credo che abbiano dato via 5 schede uguali a persona - e da quel che si è detto finora, le dual slot sono solo le 2900xt. Cos'è, ne ha 5 solo lui???

Tenebra
09-05-2007, 23:10
ma come chi è...:)

è wolverine !!! :ronf:

:mbe:
Mi hanno clonato mentre dormivo o mi leggi nel pensiero? :D
Sarà che il tizio è troppo caratteristico :D

Mister Tarpone
09-05-2007, 23:10
vedo che c'ha anche una hd2600xt :oink: !!

Kharonte85
09-05-2007, 23:10
http://it-review.net/images/stories/r600test12.jpg

sara' un tizio di it-review.net...:boh:

A.L.M.
09-05-2007, 23:13
OK.....chi è!? :mad:

Mi pare di aver capito su un altro forum che è uno dei "giornalisti" di IT-Review. Certo dall'aspetto non mi fiderei molto della sua rece... :asd:

Mister Tarpone
09-05-2007, 23:14
ma come chi è...:)

è wolverine !!! :ronf:

eh si...proprio uguale guarda :banned:

ale0bello0pr
09-05-2007, 23:16
Mi pare di aver capito su un altro forum che è uno dei "giornalisti" di IT-Review. Certo dall'aspetto non mi fiderei molto della sua rece... :asd:
Ecco cosa possiamo trarre dalla foto e dalla rece di IT-Review...:O

Puoi avere anche decine di HD 2900 XT in mano....ma se nn hai i driver giusti lo prendi comunque nell'***..... :sbonk:

chiedo scusa a nome di tutti per l'OT....(ma la foto era troppo lollosa) ;)
ok si torna seri :)

FreeMan
09-05-2007, 23:17
stop OT

>bYeZ<

ale0bello0pr
09-05-2007, 23:39
Riprendo un interessante opinione e considerazione che mi stava assolutamente sfuggendo di mente...:O

http://forum.beyond3d.com/showpost.php?p=984014&postcount=4906

e si mette in risalto un test gia' precedente fatto sulle X 1900XTX...

http://www.hexus.net/content/item.php?item=7913&page=6

qui si parla di un risultato apportato da una CPU AMD+GPU ATI.....migliore rispetto alle soluzioni EXTREME INTEL....
fin'ora abbiamo assistito a screen cmq di CPU EXTREME INTEL per quanto riguarda i vari test e bench sulla HD 2900 XT....e se ci fosse anche di mezzo un risultato migliore con una CPU AMD.....? Chi ci aveva pensato? magari...la stessa.... BARCELONA???!!!!!!! :eek: (xkè presentare contemporaneamente le due nuove soluzioni???!!!! Stesse tempistiche fortuite??!!!)

Athlon 64 3000+
10-05-2007, 00:03
IMHO scenderà solo la fascia high end, il resto rimarrà dov'è.
Nvidia ha la 8800 gts 320 troppo vicina al prezzo delle 8600gts, con un divario di prestazioni imbarazzante, non può permettersi di abbassarla oltre, a meno di non avere un effetto "castello di carte" su tutte le 8600.
Lo farà se e solo se le 2600-2400 saranno decisamente superiori alle 8600 e derivati, così tanto da lasciare pochi dubbi su quale scegliere: in quel caso sarebbe praticamente costretta ad un taglio radicale, e solo in quello scenario vedremmo un calo su tutte le fasce.
Senza contare che l'unica dichiarazione di un rappresentante Amd rilasciata finora parlava della loro volontà di ridimensionare il mercato delle schede HIGH END, senza menzionare quello mainstream, che è quello in cui fanno il fatturato...

Cosa intendi per ridimensionamento della fascia alta?

leoneazzurro
10-05-2007, 00:36
http://www.xtremesystems.org/forums/showpost.php?p=2180889&postcount=774

bladerunner86
10-05-2007, 00:44
http://www.xtremesystems.org/forums/showpost.php?p=2180889&postcount=774

sono affidabili?

leoneazzurro
10-05-2007, 00:46
sono affidabili?

Non saprei. Il postatore dice di si.
Io credo solo alle recensioni ufficiali.

Mister Tarpone
10-05-2007, 00:46
ma Stalker fa 87fps a 1920x aa4x e af16x con la gtx?? ma siamo sicuri?? :fagiano:

leoneazzurro
10-05-2007, 00:48
ma Stalker fa 87fps a 1920x aa4x e af16x con la gtx?? ma siamo sicuri?? :fagiano:

Se togli l'HDR... :p

TecnoWorld8
10-05-2007, 01:03
sì, vabbè, basta solo + che ci dicano che la XT va bene solo con le CPU AMD, ora... :cry:

TecnoWorld8
10-05-2007, 03:36
ma questo l'avete visto?

http://www.fudzilla.com/index.php?option=com_content&task=view&id=894&Itemid=1

riguarda l'overdrive, che sarebbe fattibile solo con il 2x4 collegato...

Tenebra
10-05-2007, 07:07
Cosa intendi per ridimensionamento della fascia alta?

Si parlava di prezzi, e del probabile riallineamento verso il basso della fascia high-end, che oggi tocca punte assurde di 800 e passa euro.

Michele81
10-05-2007, 07:36
ma questo l'avete visto?

http://www.fudzilla.com/index.php?option=com_content&task=view&id=894&Itemid=1

riguarda l'overdrive, che sarebbe fattibile solo con il 2x4 collegato...

Scusate la domanda idiota, ma c'è differenza tra il collegamento diretto ali-scheda video e un adattatore molex->pci-e?

A.L.M.
10-05-2007, 07:40
Riprendo un interessante opinione e considerazione che mi stava assolutamente sfuggendo di mente...:O

http://forum.beyond3d.com/showpost.php?p=984014&postcount=4906

e si mette in risalto un test gia' precedente fatto sulle X 1900XTX...

http://www.hexus.net/content/item.php?item=7913&page=6

qui si parla di un risultato apportato da una CPU AMD+GPU ATI.....migliore rispetto alle soluzioni EXTREME INTEL....
fin'ora abbiamo assistito a screen cmq di CPU EXTREME INTEL per quanto riguarda i vari test e bench sulla HD 2900 XT....e se ci fosse anche di mezzo un risultato migliore con una CPU AMD.....? Chi ci aveva pensato? magari...la stessa.... BARCELONA???!!!!!!! :eek: (xkè presentare contemporaneamente le due nuove soluzioni???!!!! Stesse tempistiche fortuite??!!!)

Veramente a me pare di capire il contrario. L'AthlonX2 6000+ è consistentemente più lento di un E6700, soprattutto in quei giochi che non supportano il multithreading (Farcry), quindi ai punteggi della HD2900 XT si dovrebbero aggiungere dal 5% al 25% di prestazioni in più. ;)
Che una scheda video vada meglio con un certo processore lo trovo altamente improbabile, al massimo una cosa del genere sarebbe più realizzabile con una mobo, ma con una cpu...

Se togli l'HDR... :p

I problemi di quei test sono sempre gli stessi:
- drivers usati? sistema usato? settings del gioco?
- ha senso giocare senza HDR su una scheda di fascia alta odierna con un gioco che lo supporta? Non credo. R600 sembra tra l'altro che digerisca meglio l'HDR texturing...
- HD2900 XT va in alcuni giochi consistentemente peggio di una X1950XTX, il che francamente mi pare impossibile a meno che non ci siano dei problemi (gravi) di drivers
- aspetto ancora test di Splinter Cell: Double Agent, R6Vegas, Test Drive Unlimited, Oblivion, GRAW 1 e 2, ecc...
- non credo che siano completamente inventati, ma credo che comunque non siano rigorosissimi come test.

Raven
10-05-2007, 07:40
Si parlava di prezzi, e del probabile riallineamento verso il basso della fascia high-end, che oggi tocca punte assurde di 800 e passa euro.

E' questione di mercato... se hanno raggiunto cifre pazzesche vuol dire che a loro conviene vendere a quei prezzi (= ci sono i fessi disposti a spendere un pozzo di €uro! :p)

Dexther
10-05-2007, 07:42
articolo di hwup :p

http://www.hwupgrade.it/articoli/cpu/1720/agena-fx-quad-core-desktop-di-amd_index.html

http://www.hwupgrade.it/articoli/1720/1.jpg

Foglia Morta
10-05-2007, 07:54
http://images.tweaktown.com/imagebank/MSI_wc_hd2900xt_large.jpg
http://www.tweaktown.com/news/7479/index.html

Tenebra
10-05-2007, 08:16
- ha senso giocare senza HDR su una scheda di fascia alta odierna con un gioco che lo supporta? Non credo. R600 sembra tra l'altro che digerisca meglio l'HDR texturing...

Ecco, apriamo una piccola parentesi: se già a me nella generazione DX9 veniva da storcere il naso vedendo test senza HDR, in quella DX10 lo trovo assurdo... anche nelle recensioni di HWup vediamo sempre Oblivion con AA ma senza HDR, e non ne vedo il senso: è vero che impostandolo si ha un deciso calo delle performance (e vedremo come R600 lo gestirà con la nuova architettura e le sue ottimizzazioni ad hoc) ma queste schede dovrebbero essere fatte apposta. Ed oltretutto, non conosco NESSUNO che giochi ad Oblivion senza HDR - tutt'al più si abbassa la risoluzione e si fa a meno dell'AA, l'HDR in Oblivion è fondamentale per l'esperienza di gioco.

Speriamo quindi di non vedere un altro test con Oblivion senza HDR, sarebbe incomprensibile.

fukka75
10-05-2007, 08:34
Veramente a me pare di capire il contrario. L'AthlonX2 6000+ è consistentemente più lento di un E6700, soprattutto in quei giochi che non supportano il multithreading (Farcry)

In effetti
However, in our benchmarks that test all facets of CPU performance we see that it's consistently slower than the similarly-priced Intel Core 2 Duo E6700 and significantly slower than the Core 2 Extreme QX6700 and X6800 CPUs.
;)

wiltord
10-05-2007, 08:34
cut



assolutamente d'accordo :)

Simon82
10-05-2007, 08:37
http://www.hwupgrade.it/articoli/1720/2.jpg

Si vedono meglio i connettori di alimentazione della vga.. :)

zorco
10-05-2007, 08:53
volevo postare questa notizia sempre attinente al thread riguardante l'alimentazione della scheda..

Con l´arrivo delle nuove schede grafiche R600 che richiedono un connettore di alimentazione aggiuntiva PCI Express a 8-pin (quelli attualmente utilizzati prevedono solo 6-pin), i produttori di alimentatori ATX [G] stanno fornendo degli adeguati adattatori per agevolare il passaggio alle future unità dotate nativamente di tali connettori.

BeQuiet!, per esempio, ha deciso di offrire gratuitamente questo adattatore a tutti gli acquirenti di un proprio prodotto acquistato da Dicembre 2006 in poi.

Anche Corsair, ma solo per coloro che vivono negli Stati Uniti, offrirà questo adattatore ai clienti che ne faranno richiesta al solo costo della spedizione.

Vi ricordiamo, comunque, che le schede grafiche R600 possono essere alimentate anche con un connettore a 6-pin ma certamente ne risentiranno in termini di stabilità sotto condizioni di lavoro fuori specifica (overclock).

http://www.dinoxpc.com/News/news.asp?ID_News=12478&What=News

wiltord
10-05-2007, 08:55
quindi in bundle non si troverà? :mbe:

fede27
10-05-2007, 08:57
articolo di hwup :p

http://www.hwupgrade.it/articoli/cpu/1720/agena-fx-quad-core-desktop-di-amd_index.html

http://www.hwupgrade.it/articoli/1720/1.jpg

Ma scusate come mai qui hanno collegato il 6pin alla presa dell'8?? :wtf:

zorco
10-05-2007, 08:58
quindi in bundle non si troverà? :mbe:
credo di nò...

Dexther
10-05-2007, 08:59
Ma scusate come mai qui hanno collegato il 6pin alla presa dell'8?? :wtf:

non tutti gli ali hanno l'attacco 8pin per la vga e quindi ci puoi collegare il 6pin , un pò come succede per le mobo di nuova generazione :)

ATi7500
10-05-2007, 08:59
http://www.xtremesystems.org/forums/showpost.php?p=2180889&postcount=774

se i test sono veri, la scheda mi sembra pesantemente limitata dai 512MB di framebuffer

bYeZ!

fede27
10-05-2007, 09:01
non tutti gli ali hanno l'attacco 8pin per la vga e quindi ci puoi collegare il 6pin , un pò come succede per le mobo di nuova generazione :)

Sì ma quindi il connettore "primario" per l'alimentazione sarà l'8 pin, giusto? Altrimenti avrebbero tranquillamente potuto collegarlo alla sua presa il 6pin...

Dexther
10-05-2007, 09:01
se i test sono veri, la scheda mi sembra pesantemente limitata dai 512MB di framebuffer

bYeZ!

X3: The Reunion [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 74 fps
- X1950XT: 65.4 fps
- 8800 GTS: 58.8 fps
- 2900 XT: 56.5 fps

questo mi pare troppo strano :what:

Dexther
10-05-2007, 09:01
Sì ma quindi il connettore "primario" per l'alimentazione sarà l'8 pin, giusto? Altrimenti avrebbero tranquillamente potuto collegarlo alla sua presa uil 6pin...

credo di si :)

wiltord
10-05-2007, 09:02
credo di nò...

ho capito, sarà la solita caccia al tesoro per trovarlo negli shop..:rolleyes:

Tenebra
10-05-2007, 09:02
credo di nò...

Io temo fortemente atteggiamenti come quello di Sapphire con le 1950xt, nel cui bundle non veniva incluso l'adattatore per i molex normali con la scusa che "siamo stufi di sentire gente a cui è saltato l'alimentatore per averci collegato la 1950xt" che a me invece puzzava parecchio di "già te la vendo a poco, arrangiati a trovarlo l'adattatore e pagatelo a parte".

Ho letto di utenti che hanno preso le 8600 e non vi hanno trovato l'adattatore, a questo punto figuriamoci per l'adattatore ad 8 pin...

ATi7500
10-05-2007, 09:03
X3: The Reunion [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 74 fps
- X1950XT: 65.4 fps
- 8800 GTS: 58.8 fps
- 2900 XT: 56.5 fps

questo mi pare troppo strano :what:

allora rettifico: ci sono problemi col controller di memoria programmabile via driver :sofico:

bYeZ!

johnson
10-05-2007, 09:03
E' questione di mercato... se hanno raggiunto cifre pazzesche vuol dire che a loro conviene vendere a quei prezzi (= ci sono i fessi disposti a spendere un pozzo di €uro! :p)

Sarà, ma io non mi sento un fesso.

Abbiamo fatto sto discorso mille volte, c'è gente che spende capitali per la moda, il calcio, le sigarette e l'alcool. Perchè l'appassionato del videogioco "in HD" deve essere etichettato in questa maniera?

zorco
10-05-2007, 09:08
Io temo fortemente atteggiamenti come quello di Sapphire con le 1950xt, nel cui bundle non veniva incluso l'adattatore per i molex normali con la scusa che "siamo stufi di sentire gente a cui è saltato l'alimentatore per averci collegato la 1950xt" che a me invece puzzava parecchio di "già te la vendo a poco, arrangiati a trovarlo l'adattatore e pagatelo a parte".

Ho letto di utenti che hanno preso le 8600 e non vi hanno trovato l'adattatore, a questo punto figuriamoci per l'adattatore ad 8 pin...
penso che sia anche una polita per spingere la gente ad acquistare ali di ultima generazione provvisti di quel connettore...

ho cercato in giro in rete ma di quel connettore separatamente non lo vendono questo potrebbe essere un guaio..

Athlon 64 3000+
10-05-2007, 09:31
da quello che ho visto R600 si può alimentare anche usando connettori 2x6 pin e io ne ho uno tramite alimentatore e l'altro ho già un adattatore di scorta.

wiltord
10-05-2007, 09:33
ho cercato in giro in rete ma di quel connettore separatamente non lo vendono questo potrebbe essere un guaio..

spero che nel giro di qualche settimana salti fuori..

shodan
10-05-2007, 09:49
Non c'entra solo la banda passante, G80 ha 4 volte le unità dedicate al filtraggio delle texture rispetto a R600 (anche se non è chiaro se per ogni unità svolgano o meno lo stesso numero di operazioni) e soprattutto G80 può applicare un filtro anisotropo 16x in un singolo passaggio, R600 no.

Aspetta, questa mi era sfuggita... davvero G80 può applicare l'AF16x in single pass? Ma intendi anche single clock (mi parrebbe incredibile!) ?

Ciao. :)

gianni1879
10-05-2007, 10:08
X3: The Reunion [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 74 fps
- X1950XT: 65.4 fps
- 8800 GTS: 58.8 fps
- 2900 XT: 56.5 fps

questo mi pare troppo strano :what:

problemi di driver di sicuro, non è possibile che vada meno di una x1950xtx, questo cmq mi fa ben sperare e se la x1950xtx sta poco sotto la 8800gtx, con i driver più maturi la hd2900xt dovrebbe andare decisamente bene

Pr|ckly
10-05-2007, 10:12
Beh ma non dovrebbe essere un problema la mancanza dell'8pin, almeno per chi non fa oc, o mi sbaglio?

DakmorNoland
10-05-2007, 10:13
Ragazzi ma l'8 pin sarebbe quello con due file da 4pin una sopra l'altra?

Nel caso mi pare di averlo intravisto tra i vari cavi del Titan!!!

Altro che Corsair, LC Power rulez! :D

wiltord
10-05-2007, 10:15
è questo:

http://www.dinoxpc.com/public/images/6abe4bf120fc60e4ae5172fb7fde6b59_be_quiet_PcieII_thm.jpg

belin
10-05-2007, 10:23
...qui trovate tutto per la questione alimentatore: Enermax @ GuruOf3D (http://www.guru3d.com/article/psu/429/3/)

http://img151.imageshack.us/img151/7961/imageviewphpcc3.jpg

Comunque 2900XT va con 2*6 pin e si può fare "overclok normale" in questa situazione. Per raggiungere e superare gli 850 Mhz, da quel che si intuisce leggendo i post di chi ha fatto quei super punteggi al 3Dmark, bisogna utilizzare 6pin + 8pin. La scheda @ default dovrebbe andare anche con il solo 8pin.

:)

wiltord
10-05-2007, 10:30
che vada anche con 2*6 pin ok, ma trovare in bundle l'adattatore non sarebbe ugualmente male..

Robbysca976
10-05-2007, 10:45
2 connettori di alimentazione? Ma insomma quanto assorbe sta scheda? :muro:

belin
10-05-2007, 10:45
http://www.xtremesystems.org/forums/showpost.php?p=2180889&postcount=774

...premesso che la penso come leoneazzurro:

Io credo solo alle recensioni ufficiali.

...credo che questi ultimi risultati postati siano abbastanza veritieri. 2900XT superiore a 8800GTS ed in "guerra" con 8800GTX. Quest'ultima comunque ancora più o meno in vantaggio. Imho driver perfezionati (notato che escono nuove release ogni 2/3 giorni?) possono portare 2900XT @ default ai livelli di GTX. Ecco che si spiega il prezzo di R600, la natura ben definita di 8800Ultra e la questione Unreal-Overclocking per R600XT.
Non si sa quali driver hanno utilizzato (io non l'ho trovato, magari l'hanno scritto dopo e non l'ho visto), ma alcune situazioni mi sembrano imputabili appunto a driver in via di perfezionamento.

che vada anche con 2*6 pin ok, ma trovare in bundle l'adattatore non sarebbe ugualmente male..

...senza dubbio! :)

Athlon 64 3000+
10-05-2007, 10:48
...premesso che la penso come leoneazzurro:



...credo che questi ultimi risultati postati siano abbastanza veritieri. 2900XT superiore a 8800GTS ed in "guerra" con 8800GTX. Quest'ultima comunque ancora più o meno in vantaggio. Imho driver perfezionati (notato che escono nuove release ogni 2/3 giorni?) possono portare 2900XT @ default ai livelli di GTX. Ecco che si spiega il prezzo di R600, la natura ben definita di 8800Ultra e la questione Unreal-Overclocking per R600XT.
Non si sa quali driver hanno utilizzato (io non l'ho trovato, magari l'hanno scritto dopo e non l'ho visto), ma alcune situazioni mi sembrano imputabili appunto a driver in via di perfezionamento.



...senza dubbio! :)

quindi quanto pensi che sia più lenta la hd 2900xt della 8800GTX?

belin
10-05-2007, 10:48
2 connettori di alimentazione? Ma insomma quanto assorbe sta scheda? :muro:

...l'abbiamo scritto 100 volte, comuque non dovrebbe superare i 200watt in full-load. Anche 8800GTX ha due connettori...

magic carpet
10-05-2007, 10:50
Ma la scheda rossa dell'immagine non è mica la 2900XT?
Non aveva i connettori di alimentazione lateralmente? :confused:

wiltord
10-05-2007, 10:51
...premesso che la penso come leoneazzurro:

...credo che questi ultimi risultati postati siano abbastanza veritieri. 2900XT superiore a 8800GTS ed in "guerra" con 8800GTX. Quest'ultima comunque ancora più o meno in vantaggio. Imho driver perfezionati (notato che escono nuove release ogni 2/3 giorni?) possono portare 2900XT @ default ai livelli di GTX. Ecco che si spiega il prezzo di R600, la natura ben definita di 8800Ultra e la questione Unreal-Overclocking per R600XT.
Non si sa quali driver hanno utilizzato (io non l'ho trovato, magari l'hanno scritto dopo e non l'ho visto), ma alcune situazioni mi sembrano imputabili appunto a driver in via di perfezionamento.



imho il test finora più attendibile è il 3dm06 che ho confrontato col mio:

cmq a titolo di confronto ecco i risultati del mio sistema al 3dMark06, sempre tenendo quei risultati come validi:

VGA

----------X1900XT(@XTX)------- ---HD2900XT

SM2.0---------2454-------------------- 4542

SM3.0---------2743-------------------- 5071


CPU

----------E6600(@3,00GHz)------- --- E6700

----------------2752-------------------- 2587

...l'abbiamo scritto 100 volte, comuque non dovrebbe superare i 200watt in full-load. Anche 8800GTX ha due connettori...

eh già, qualcuno sembra dimenticarsi chi ha avviato questo nuovo trend..

Athlon 64 3000+
10-05-2007, 10:52
io userò la hd 2900xt(se avrà prestazioni simili o poco superiori alla 8800GTS se la possono tenere) con la configurazione 2x6 pin.

gianni1879
10-05-2007, 10:53
che vada anche con 2*6 pin ok, ma trovare in bundle l'adattatore non sarebbe ugualmente male..

sarebbe un pò seccante non poterla sfruttare in pieno oc perchè non si trovano sti adattatori in bundle :(

leoneazzurro
10-05-2007, 10:53
Aspetta, questa mi era sfuggita... davvero G80 può applicare l'AF16x in single pass? Ma intendi anche single clock (mi parrebbe incredibile!) ?

Ciao. :)

Scusa, ho errato :D E' il trilineare su FP 32.

wiltord
10-05-2007, 10:54
sarebbe un pò seccante non poterla sfruttare in pieno oc perchè non si trovano sti adattatori in bundle :(

è proprio quello che intendevo..

belin
10-05-2007, 10:56
quindi quanto pensi che sia più lenta la hd 2900xt della 8800GTX?

...in SM2.0 inferiore di un 10/15%. In SM3.0, a seconda delle situazioni, superiore o inferiore a GTX di un 5/10%. In SM4.0 superiore. Rigorosamente con schede default e driver da maturare (X1950XTX non può essere superiore a R600, tranne in situazione bad driver). Felice d'essere smentito... ;)

wiltord
10-05-2007, 11:04
dipende dal resto del sistema, direi sui 700W cmq..

johnson
10-05-2007, 11:15
Scusa, ho errato :D E' il trilineare su FP 32.


In effetti mi sembrava un po' strano. Quando attivo afx16 su oblivion, le prestazioni si abbassano abbastanza marcatamente.
Resta il fatto che la qualità del filtro è nettamente superiore agli af visti in precedenza. Sembrerebbe che quello di R600 sia ancora meglio. Speriamo bene :)

DakmorNoland
10-05-2007, 11:17
Ma se uno avesse la malsana idea di voler mettere in crossfire due 2900xtx oppure una 2900xtx e una 2900xt (per la fisica) che razza di alimentatore dovrebbe avere? :mc:

Ugo

Aspetta che escano le versioni 65nm. ;)

Secondo me AMD lancia ste prime versioni solo per contrastare Nvidia ora che stanno per uscire giochi DX10.

Ma credo fosse nei suoi piani fare le 2900 a 65nm.

ale0bello0pr
10-05-2007, 11:24
http://www.hwupgrade.it/articoli/1720/2.jpg

Si vedono meglio i connettori di alimentazione della vga.. :)

ALL THREE IN ONE
:rolleyes:

Alexkidd85
10-05-2007, 11:56
Semplicemente "siamo amd,facciamo le cose in casa" :D
Certo se ce l'hanno,non gli conviene mettere asus come MB o una 8800 come VGA ;) :D
L'unica cosa è che fa strano tutto quel verde....:rolleyes:

maeco84
10-05-2007, 13:33
Con questa storia dei connettori non ho capito una cosa, se volessi comprare questa scheda dovrei cambiare alimentatore? Soltanto per i connettori?

ATi7500
10-05-2007, 13:34
Con questa storia dei connettori non ho capito una cosa, se volessi comprare questa scheda dovrei cambiare alimentatore? Soltanto per i connettori?

ma aspettare le recensioni per domande del genere no?

bYeZ!

Alexkidd85
10-05-2007, 13:40
Con questa storia dei connettori non ho capito una cosa, se volessi comprare questa scheda dovrei cambiare alimentatore? Soltanto per i connettori?

Ma più che altro,puoi prendere tranquillamente degli adattatori e te ne esci :)

Deviad
10-05-2007, 13:41
Scusate ma questo alimentatore (http://enermax.it/approfondimento.asp?id=1253&cosa=info&yy=00#content) ce l'ha il connettore da 8 pin o no?

giopro
10-05-2007, 13:44
Nella articolo di THG (http://www.tomshw.it/news.php?newsid=10012) parlano delle potenzialità della scheda video

Inaspettata è stata invece la dimostrazione della tecnologia "Stream Processor", in cui ci sono state mostrate due demo: nella prima veniva mostrato il rendering, il riconoscimento dei movimenti e della fisica, mentre nell'altra il riconoscimento del viso. Entrambe le applicazioni sono ancora agli stadi iniziali, ma ci hanno dato modo di assaggiare cosa può fare la GPU quando sottoposta al calcolo di un numero elevato di operazioni parallele.

Qualcuno ne sa qualcosa? Può essere indicativo questo test sulle reali potenzialità di R600?

Ciao :)

belin
10-05-2007, 13:45
Mobility HD 2600 XT preview

HP Pavilion HDX Entertainment Notebook PC - Intel 2.4 GHz Core 2 Duo T7700 processor, 4GB of RAM, ATI Mobility Radeon HD 2600 XT graphics with 256MB of dedicated video memory.

We expected to see high scores from the HDX, and we weren't disappointed. This preproduction model wouldn't run PCMark05, but its 3DMark03 score of 12,240 and 3DMark06 score of 4,002 mean this system can plow through graphics-intensive applications. Strangely, the HDX notched 31 fps on our F.E.A.R gaming test on autodetect, and 26 fps with the settings maxed out. (We suspect this subpar showing might be a driver issue related to Windows Vista.)

HP Pavilion HDX Entertainment Notebook PC @ LapTop (http://laptopmag.com/Review/HP-Pavilion-HDX-Entertainment-Notebook-PC.htm)


:)

nitroin
10-05-2007, 13:45
Scusate ma questo alimentatore (http://enermax.it/approfondimento.asp?id=1253&cosa=info&yy=00#content) ce l'ha il connettore da 8 pin o no?

no! la serie infiniti si

DVD2005
10-05-2007, 13:49
Scusate ma questo alimentatore (http://enermax.it/approfondimento.asp?id=1253&cosa=info&yy=00#content) ce l'ha il connettore da 8 pin o no?

direi di no. Negli Enermax e' previsto nei nuovi Liberty / Infinity, per chi ha un "vecchio" modulare (ad es il mio) e' previsto l'acquisto del cavo a parte con terminale a 8 pin.

Zlatan91
10-05-2007, 13:49
se per oc pesante servirà anche l 8 pin imho questo seccherà molte persone...perke ora la maggiorparte degli ali non ce la......e visto che si parla di unreal oc....

Tidus.hw
10-05-2007, 13:54
non so se è già stata postata questa rece ma.. guardate come si comporta R600 in situazioni "estreme" :)

http://it-review.net/index.php?option=com_content&task=view&id=1314&Itemid=1&limit=1&limitstart=7

askani
10-05-2007, 13:57
non so se è già stata postata questa rece ma.. guardate come si comporta R600 in situazioni "estreme" :)

http://it-review.net/index.php?option=com_content&task=view&id=1314&Itemid=1&limit=1&limitstart=7

:D e si sara propio cosi :D

DVD2005
10-05-2007, 13:58
non so se è già stata postata questa rece ma.. guardate come si comporta R600 in situazioni "estreme" :)

http://it-review.net/index.php?option=com_content&task=view&id=1314&Itemid=1&limit=1&limitstart=7

gia' postata ;)

wiltord
10-05-2007, 13:58
postata e smontata ;)

askani
10-05-2007, 14:01
postata e smontata ;)

diciamo che e stato un momento di ilarita comune:D

belin
10-05-2007, 14:07
http://www.tomshw.it/news.php?newsid=10012

Inaspettata è stata invece la dimostrazione della tecnologia "Stream Processor", in cui ci sono state mostrate due demo: nella prima veniva mostrato il rendering, il riconoscimento dei movimenti e della fisica, mentre nell'altra il riconoscimento del viso. Entrambe le applicazioni sono ancora agli stadi iniziali, ma ci hanno dato modo di assaggiare cosa può fare la GPU quando sottoposta al calcolo di un numero elevato di operazioni parallele.

...questa tecnologia mi interessa tantissimo. Sembra che R600 sia veramente qualcosa di più che una tradizionale scheda video. Prima ho visto nuovi numeri su benchmark in ambiente workstation opengl. Sembra che R600 vada meglio di una Ultra in quell'ambito. Ora vedo di (ri)trovare il link. Qualcosa comunque non torna...mmmmmmmmm...

;)

Tidus.hw
10-05-2007, 14:07
postata e smontata ;)

ah si?? xD puoi gentilmente linkare il post dove avete smontato quella presunta rece? ^^

bladerunner86
10-05-2007, 14:07
altre info da fudzilla
http://www.fudzilla.com/index.php?option=com_content&task=view&id=922&Itemid=34

wiltord
10-05-2007, 14:09
ah si?? xD puoi gentilmente linkare il post dove avete smontato quella presunta rece? ^^

fai prima a leggerti le ultime pagine ;)

belin
10-05-2007, 14:11
Intanto leggiamoci questo...Initial Quik Test on ATI's upcoming new...... (http://forums.hardwarezone.com/showthread.php?t=1607936&page=1&pp=15)

Test Platform

Intel E6600
Asus P5B Deluxe
2 x 1GB D9GMH KVR
Seagate SATA 80GB HDD
Windows Vista Home Premium
CM Real Power Pro 750W with 8pin PCI-E

Radeon HD 2900 ???
GeForce 8800 GTS 320

Driver Beta


:)

wiltord
10-05-2007, 14:13
praticamente il mio sistema, vediamo un pò :)

parcher
10-05-2007, 14:13
edit... non l'avevo visto, sorry....

P.;)

Tidus.hw
10-05-2007, 14:18
Intanto leggiamoci questo...Initial Quik Test on ATI's upcoming new...... (http://forums.hardwarezone.com/showthread.php?t=1607936&page=1&pp=15)

Test Platform

Intel E6600
Asus P5B Deluxe
2 x 1GB D9GMH KVR
Seagate SATA 80GB HDD
Windows Vista Home Premium
CM Real Power Pro 750W with 8pin PCI-E

Radeon HD 2900 ???
GeForce 8800 GTS 320

Driver Beta


:)

è decisamente cpu limited, sopratutto al 2006 :P

Defragg
10-05-2007, 14:19
Intanto leggiamoci questo...Initial Quik Test on ATI's upcoming new...... (http://forums.hardwarezone.com/showthread.php?t=1607936&page=1&pp=15)

Test Platform

Intel E6600
Asus P5B Deluxe
2 x 1GB D9GMH KVR
Seagate SATA 80GB HDD
Windows Vista Home Premium
CM Real Power Pro 750W with 8pin PCI-E

Radeon HD 2900 ???
GeForce 8800 GTS 320

Driver Beta


:)

:muro:

ma vogliono fare i test nei giochi o no?

la cosa più indicativa imho sono gli fps in return to proxycon & co.

Dexther
10-05-2007, 14:22
Intanto leggiamoci questo...Initial Quik Test on ATI's upcoming new...... (http://forums.hardwarezone.com/showthread.php?t=1607936&page=1&pp=15)

Test Platform

Intel E6600
Asus P5B Deluxe
2 x 1GB D9GMH KVR
Seagate SATA 80GB HDD
Windows Vista Home Premium
CM Real Power Pro 750W with 8pin PCI-E

Radeon HD 2900 ???
GeForce 8800 GTS 320

Driver Beta


:)

Pare abbastanza chiaro che nient' altro possa essere se non una hd2900xt :)
Nel merito, mi sembra strano che con 100mhz in più sul core la VGA nel 3D 06 guadagni così poco :mc:

Nos89
10-05-2007, 14:22
...in SM2.0 inferiore di un 10/15%. In SM3.0, a seconda delle situazioni, superiore o inferiore a GTX di un 5/10%. In SM4.0 superiore. Rigorosamente con schede default e driver da maturare (X1950XTX non può essere superiore a R600, tranne in situazione bad driver). Felice d'essere smentito... ;)

mi spieghi da dove viene questa tua sicurezza?visto che non esiste nessun test Dx10 e quindi SM4.......non diciamo cose cosi tanto per dire.
;)

parcher
10-05-2007, 14:22
:muro:

ma vogliono fare i test nei giochi o no?

la cosa più indicativa imho sono gli fps in return to proxycon & co.

Si,infatti nessuno fa uno screen dello stesso gioco sotto le 2 piattaforme, ma e' una questione di tempo ormai....

P.:Prrr:

nickdc
10-05-2007, 14:23
è decisamente cpu limited, sopratutto al 2006 :P

CPU limited con un E6600?

wiltord
10-05-2007, 14:23
CPU limited con un E6600?

@default sì, eccome ;)

askani
10-05-2007, 14:23
Intanto leggiamoci questo...Initial Quik Test on ATI's upcoming new...... (http://forums.hardwarezone.com/showthread.php?t=1607936&page=1&pp=15)

Test Platform

Intel E6600
Asus P5B Deluxe
2 x 1GB D9GMH KVR
Seagate SATA 80GB HDD
Windows Vista Home Premium
CM Real Power Pro 750W with 8pin PCI-E

Radeon HD 2900 ???
GeForce 8800 GTS 320

Driver Beta


:)

ecco questo e molto piu simile alla realta:cool:

belin
10-05-2007, 14:27
mi spieghi da dove viene questa tua sicurezza?visto che non esiste nessun test Dx10 e quindi SM4.......non diciamo cose cosi tanto per dire.
;)

...mi è stato chiesto "secondo me" ed ho risposto "secondo me". Valutando, leggendo ed ascoltando persone che conoscono bene queste architetture mi sono fatto questa mia particolare idea. In SM4.0, imho, R600 andrà meglio che non in SM3.0 e SM2.0. E già adesso tutti i pre-bench riportati dimostrano quanto R600 si trovi più a suo agio con SM3.0 che non con il 2.0.

Non quotare tanto per quotare.

;)

askani
10-05-2007, 14:29
è una buona ipotesi

Nos89
10-05-2007, 14:32
...mi è stato chiesto "secondo me" ed ho risposto "secondo me". Valutando, leggendo ed ascoltando persone che conoscono bene queste architetture mi sono fatto questa mia particolare idea. In SM4.0, imho, R600 andrà meglio che non in SM3.0 e SM2.0. E già adesso tutti i pre-bench riportati dimostrano quanto R600 si trovi più a suo agio con SM3.0 che non con il 2.0.

Non quotare tanto per quotare.

;)

a pure? dici le cose tanto per dire e non dovrei neanche quotare?le tue supposizioni sono basate sul nulla secondo te se R600 va meglio in SM3 che in 2" vuol dire che quindi in DX10 volerà.scusa ma che attinenza c'è in quello che dici? ci credo ben poco

Portocala
10-05-2007, 14:37
a pure? dici le cose tanto per dire e non dovrei neanche quotare?le tue supposizioni sono basate sul nulla secondo te se R600 va meglio in SM3 che in 2" vuol dire che quindi in DX10 volerà.scusa ma che attinenza c'è in quello che dici? ci credo ben poco

lui può :asd:

Zlatan91
10-05-2007, 14:41
e io che ho un 4200+x2@2600 con una gtx quanto sono cpulimited? e quanto guadagnerei in termini pratici nei game con un e6600?


gia a pensare a r600 mi vien male.....

belin
10-05-2007, 14:42
dici le cose tanto per dire e non dovrei neanche quotare?le tue supposizioni sono basate sul nulla secondo te se R600 va meglio in SM3 che in 2" vuol dire che quindi in DX10 volerà.scusa ma che attinenza c'è in quello che dici? ci credo ben poco

...guarda, non ho tempo da perdere in flame da fanboy, fai così: usa il tasto cerca e leggiti tutti gli interventi tecnici che ci sono stati (non puoi non riconoscerli). Poi vai su Beyond3D e fai la stessa cosa (è in inglese). Poi torni qui e ci dici la tua personale idea. Come ho fatto io rispondendo ad una domanda di un altro utente.

ps. non so perchè, ma sono sicuro che se dicevo che in SM4.0 farà schifo non quotavi...:rolleyes:

Tidus.hw
10-05-2007, 14:46
e io che ho un 4200+x2@2600 con una gtx quanto sono cpulimited? e quanto guadagnerei in termini pratici nei game con un e6600?


gia a pensare a r600 mi vien male.....

dipende a che risoluzione giochi :)

Nos89
10-05-2007, 14:49
...guarda, non ho tempo da perdere in flame da fanboy, fai così: usa il tasto cerca e leggiti tutti gli interventi tecnici che ci sono stati (non puoi non riconoscerli). Poi vai su Beyond3D e fai la stessa cosa (è in inglese). Poi torni qui e ci dici la tua personale idea. Come ho fatto io rispondendo ad una domanda di un altro utente.

ps. non so perchè, ma sono sicuro che se dicevo che in SM4.0 farà schifo non quotavi...:rolleyes:

la dici a me fanboy:rotfl: ma se si vede benissimo che in realtà sei tu un fanboy Ati.;) la mia idea non cambia finche non vedo i test le chiacchiere stanno a zero!finche non c'è nero su bianco ce poco da cercare;)

avrei quotato cmq. perchè su SM4 non ce proprio da commentare visto che non esiste nessun applicazione quindi non si sa se va bene o no c'è solo da aspettare.

Alexkidd85
10-05-2007, 14:51
@default sì, eccome ;)

Beh dai consideriamo che pochi come noi lo tengono a default quel processore...e poi siamo proprio sicuri che @default,sia cpu limited?

ale0bello0pr
10-05-2007, 14:51
...guarda, non ho tempo da perdere in flame da fanboy, fai così: usa il tasto cerca e leggiti tutti gli interventi tecnici che ci sono stati (non puoi non riconoscerli). Poi vai su Beyond3D e fai la stessa cosa (è in inglese). Poi torni qui e ci dici la tua personale idea. Come ho fatto io rispondendo ad una domanda di un altro utente.

ps. non so perchè, ma sono sicuro che se dicevo che in SM4.0 farà schifo non quotavi...:rolleyes:

QUOTO Belin.... ;)
IOHO R600 andrà sicuramente meglio con SM4.0 e con le nuove architetture...essendo piu' matura di G80 in questo caso...(è uscita ben6mesi dopo)...:rolleyes:


per quanto riguarda quei test queste sono le mie supposizioni:

1- O sono i driver piu' old che ATI ha rilasciato....
2- O quella HD ...non è la 2900 XT....ma un modello inferiore
3- O :boh:

askani
10-05-2007, 14:52
la dici a me fanboy:rotfl: ma se si vede benissimo che in realtà sei tu un fanboy Ati.;) la mia idea non cambia finche non vedo i test le chiacchiere stanno a zero!finche non c'è nero su bianco ce poco da cercare;)

avrei quotato cmq. perchè su SM4 non ce proprio da commentare visto che non esiste nessun applicazione quindi non si sa se va bene o no c'è solo da aspettare.

un bel respiro....... su........... non è successo nulla sono solo opinioni, a mio avviso giusta:)

Tidus.hw
10-05-2007, 14:53
Beh dai consideriamo che pochi come noi lo tengono a default quel processore...e poi siamo proprio sicuri che @default,sia cpu limited?

sicuri ;)