View Full Version : [THREAD UFFICIALE] Aspettando ATi HD 2900XT
Kharonte85
14-04-2007, 11:28
Se e' vero le cose sono due:
1) hanno fatto un ottimo lavoro di ottimizzazione e finalmente le VGA dx10 vengono sfruttate per il lavoro per cui sono state create
propenderei per questa...;)
o meglio, lo spero...:stordita:
Non dimentichiamoci che le caratteristiche di qst schede sono mostruose e che sn state create apposta per le dx10 nn per le 9!
http://www.hwupgrade.it/articoli/skvideo/1512/overhead_3.jpg
questo implica che a parità di numero di oggetti visualizzati debba aumentare il numero di frames al secondo che possono essere generati.
Il superiore tempo a disposizione può tuttavia essere adottato per integrare nel sistema un numero maggiore di oggetti: averne a disposizione un numero più elevato permette di incrementare il realismo delle scene. Per spiegare questo con un banale esempio, un bosco composto da 10 alberi è sicuramente meno realistico, come tale, di uno nel quale sono 100 gli alberi presenti.
Secondo ATI, la riduzione dell'overhead dovrebbe permettere di ottenere incrementi del numero di oggetti visualizzati in una scena 3D variabili tra 2 e 5 volte, a seconda del tipo di scena e di oggetti, mantenendo invariato il numero di frames al secondo generati.
Un miglioramento dell'overhead passa quindi attraverso le nuove API DirectX 10, ma parallelamente anche con un ampio lavoro sui driver; per questo motivo i produttori di architetture video DirectX 10 sono all'opera nello studio e nell'ottimizzazione dei driver video, così da ridurre il più possibile questo dannoso overhead.
Hardware Upgrade
Tenete in considerazione che la maggior parte di quel WATTAGGIO non lo dissipa solo la gpu, ma quei famosi 6 PWM digitali!
CHE DI CERTO NON SONO EFFICENTI AL 100%
Quindi io azzarderei nel dire che la gpu dissipa circa 160W, ed il resto ram, PWM, rage theater.......ecc
In parte hai ragione ma non del tutto perché sia le ram che i pwm devono essere dissipati. Quindi il dissipatore deve raffreddare anche questi componenti.
I valori g80 di Crysis sono reali : te lo posso garantire (ho seguito la presentazione al GDC personalmente :cool: )
Mi dai anche a me una notizia fantastica. Volevo un sistema per giocare ai massimi dettagli Crysis a 1280x1024 con i filtri attivi a 60 fps. Se la 8800 Gtx sta su quel valore, la HD 2900XT sarà mia, visto che il prezzo potrebbe essere molto più basso con prestazioni un bel pò superiori alla gtx.
Per quanto riguarda la dotazione di ram, quanta ne serve per i massimi dettagli? 2 o 4 Gb? :D
TecnoWorld8
14-04-2007, 13:07
peccato solamente che questo gioco - come tutti gli altri - avrà bisogno di vista per girare con dx10 :(
ma possibile che proprio non le facciano, le dx10 per XP???
in ogni caso, parlando della scheda, io continuo a sperare in una XTX a 65nm, come si diceva tempo fa...cioè l'uscita di una ad 80nm all'inizio (xt) e poi poco dopo (1 mese?) la xtx a 65nm
peccato solamente che questo gioco - come tutti gli altri - avrà bisogno di vista per girare con dx10 :(
ma possibile che proprio non le facciano, le dx10 per XP???
in ogni caso, parlando della scheda, io continuo a sperare in una XTX a 65nm, come si diceva tempo fa...cioè l'uscita di una ad 80nm all'inizio (xt) e poi poco dopo (1 mese?) la xtx a 65nm
io credo che sia improbabile una cosa del genere ;)
mai dire mai però :)
gianni1879
14-04-2007, 13:23
In parte hai ragione ma non del tutto perché sia le ram che i pwm devono essere dissipati. Quindi il dissipatore deve raffreddare anche questi componenti.
beh non è detto, bisogna vedere se il dissy raffreddi anche quei componenti, ad es. sulla x1900 zona mos-fet erano raffreddati passivamente da un dissipatore diverso da quello della GPu, mentre per le ram sembra che il pad gommoso che vi sia serve più da isolante che da conduttore.
TecnoWorld8
14-04-2007, 13:33
diciamo che voglio sperare che non si arrivi MAI ad una scheda che richiede 240W e che quindi ATi corra ai ripari con la versione a 65nm. 200W è già una cosa folle...secondo me. Mi piacerebbe sapere quanto una scheda di questo tipo consuma in idle. Ci sono molti PC che stanno accesi sempre...il mio compreso...bisognerà averne uno per giocare soltanto e uno da tenere acceso???
diciamo che voglio sperare che non si arrivi MAI ad una scheda che richiede 240W e che quindi ATi corra ai ripari con la versione a 65nm. 200W è già una cosa folle...secondo me. Mi piacerebbe sapere quanto una scheda di questo tipo consuma in idle. Ci sono molti PC che stanno accesi sempre...il mio compreso...bisognerà averne uno per giocare soltanto e uno da tenere acceso???
praticamente la sola scheda consuma quanto un intero pc diciamo di medio basso livello..
Kharonte85
14-04-2007, 13:50
praticamente la sola scheda consuma quanto un intero pc diciamo di medio basso livello..
:asd:
:help:
è un discorso giusto.
vedremo quali saranno i valori reali di consumo :)
non credo si arriverà ai 200w emersi fin qui ;)
peccato solamente che questo gioco - come tutti gli altri - avrà bisogno di vista per girare con dx10 :(
ma possibile che proprio non le facciano, le dx10 per XP???
in ogni caso, parlando della scheda, io continuo a sperare in una XTX a 65nm, come si diceva tempo fa...cioè l'uscita di una ad 80nm all'inizio (xt) e poi poco dopo (1 mese?) la xtx a 65nm
L'unico motivo che porterebbe Ati a realizzare una versione a 65 nm sarebbe per diminuire i consumi e i costi di produzione in fabbrica, per ora imho.
Se la XT superasse la 8800 Gtx di un 15%-20% e costasse 399$, Nvidia sarebbe costretta a lanciare la 8800 Ultra per rispondere, senza conoscere le reali performance di R600 XTX. Credo che sarebbe costretta a rispondere per motivi d'immagine e di mercato, perchè uscire con una scheda inferiore dopo la concorrenza è rischioso, non si riesce a ripagare l'investimento.
"Stimiamo" per la 8800 Ultra, performance il 30% superiori alla 8800 Gtx,magari grazie anche a driver molto migliori e ottimizzati. Dovrebbe essere quindi il 10% superiore alla R600XT, ma nella fascia di prezzo dei 499-599$.
A questo punto tocca alla R600XTX.
Con frequenze 800-850 / 2200 sarebbe il 10% più veloce della R600XT nelle basse risoluzioni (sotto i 1920x1200) e molto più veloce per le risoluzioni molto elevate grazie alla banda passante elevata. Non avrebbe senso lanciare un chip a 65 nm con frequenze di 1 Ghz solo 1 mese dopo a R600XT, sarebbe enormemente superiore alla concorrenza, alla propria fascia high-stream e per me sprecato. Se la tecnologia è già pronta, potrebbe servire per abbassare i costi per Ati, i consumi e il prezzo per il pubblico.
Quando Nvidia risponderà con le 8900 Gtx e la 8950 GX2, allora Ati lancerà R650 che avrà molto probabilmente frequenza del core a 1 Ghz e 96 shader unit.
Io credo che questa nuova battaglia inizierà a ottobre-novembre 2007, per un bel pò di mesi staremo molto tranquilli con un R600XT. :)
PS: i valori % gli ho stimati dai rumor (per la 8800 Ultra e R600XT), dalle performance teoriche delle architettura con + o meno Mhz sul core e per la banda passante (per R600XTX)
:D
praticamente la sola scheda consuma quanto un intero pc diciamo di medio basso livello..
Però contiene anche 2-3 volte il numero dei transistor di un pc di basso livello, ed è un centinaio di volte più performante. :D
Essendo R600 un progetto iniziato da Ati e già ormai avviato all'acquisizione da parte di AMD, credo che quest'ultima abbia potuto fare poco per modificare il chip e fargli assorbire meno potenza. Con il prossimo chip totalmente nuovo, cioè R700 credo che le cose cambieranno e AMD introdurrà sicuramente qualche features innovativa per il risparmio energetico.
Che ne pensate di un sistema per disattivare o abbassare la tensione di ognuno dei 5 gruppi delle shader unit in modo indipendente uno dall'altro per risparmiare energia? E magari disattivare pure alcune rops e tmu se si gioca su risoluzioni sotto un certo livello, dove non c'è bisogno di una enorme banda passante.
Sono soluzioni che verranno a breve integrate in K10.
beh non è detto, bisogna vedere se il dissy raffreddi anche quei componenti, ad es. sulla x1900 zona mos-fet erano raffreddati passivamente da un dissipatore diverso da quello della GPu, mentre per le ram sembra che il pad gommoso che vi sia serve più da isolante che da conduttore.
Sulla X1950XTX e sulla X1950Pro il dissi raffredda anche la circuiteria di alimentazione, le immagini della versione OEM di R600 dimostrano che il dissipatore copre tutta la scheda, lo stesso accade con il prototipo di sistema a liquido installato sulla scheda. Il pad sulle ram non fa da isolante.
gianni1879
14-04-2007, 14:19
Sulla X1950XTX e sulla X1950Pro il dissi raffredda anche la circuiteria di alimentazione, le immagini della versione OEM di R600 dimostrano che il dissipatore copre tutta la scheda, lo stesso accade con il prototipo di sistema a liquido installato sulla scheda. Il pad sulle ram non fa da isolante.
beh sulla x1900xt/xtx l'alimentazione è separata dal raffreddamento del core, sulla oem il dissy di r600 è completamente diverso rispetto alla versione retail, nessuno ancora può dire come saranno raffreddati.
ti assicuro che i pad sulla ram della x1900 con conducono calore
Alexkidd85
14-04-2007, 14:23
diciamo che voglio sperare che non si arrivi MAI ad una scheda che richiede 240W e che quindi ATi corra ai ripari con la versione a 65nm. 200W è già una cosa folle...secondo me. Mi piacerebbe sapere quanto una scheda di questo tipo consuma in idle. Ci sono molti PC che stanno accesi sempre...il mio compreso...bisognerà averne uno per giocare soltanto e uno da tenere acceso???
Non è una visione apocalittica.
Molte persona hanno il computer da game e il pc "mulo" da "serverino".
Io sono con un 3200+ e una x800gto2 ed è quasi sempre acceso,ho fastweb,800gb di hd e quando voglio giocare accendo il principale.
Ma ripeto,non sono l'unico...;)
Free Gordon
14-04-2007, 16:22
Con il prossimo chip totalmente nuovo, cioè R700 credo che le cose cambieranno e AMD introdurrà sicuramente qualche features innovativa per il risparmio energetico.
Che ne pensate di un sistema per disattivare o abbassare la tensione di ognuno dei 5 gruppi delle shader unit in modo indipendente uno dall'altro per risparmiare energia? E magari disattivare pure alcune rops e tmu se si gioca su risoluzioni sotto un certo livello, dove non c'è bisogno di una enorme banda passante.
Sono soluzioni che verranno a breve integrate in K10.
Quello che non si è capito, è che il motivo per cui R520 e R580 consumavano più di G70/71 è dovuto alla differente complessità dei circuiti delle due architetture.
Nessuno si è mai chiesto perchè NV40 consumava di più di R420, vero? :asd:
Bene, pensateci... e datavi una risposta. :D
ATI non ha bisogno di AMD per far consumare meno i suoi chip... :) semmai potrebbe ripensare alle scelte fatte in precedenza e mettere un occhio di riguardo in meno all'innovazione tecnologica (si sa che G70 non passa il testing SM3 di Ms, mentre le archi ATI lo fanno, pur mancando del vertex texturing.. un motivo ci sarà no? :D Per la stessa ragione le archi ATI sono usate nel folding@home mentre le nVidia no... -G80 ovviamente a parte-) e uno in più all'aspetto dei consumi.
Basta però osservare la situazione console (campo in cui ATI ha ormai 3 archi proprietarie alle spalle), dove i consumi sono davvero importanti (dato che i box sono piccoli e la dissipazione difficile) e vedere che cosa ha combinato.
Xenos è un chip da 330mln di transistor @500mhz, dissipato passivamente. :)
I suoi consumi si aggirano sui 35-40W in load, meno del corrispettivo nVidia montato sulla console concorrente. ;)
Insomma, penso che il know-how per ridurre i consumi dei chip, non sia ad appannaggio della sola nVidia (in campo GPU) ma piuttosto che i consumi dipendano da scelte architetturali e quindi dalle possibilità fisiche di poterli ridurre, mantenendo però gli obiettivi prefissati, circa le prestazioni. ^_^
E queste ultime però, si possono giudicare solo sul lungo periodo.
gianni1879
14-04-2007, 16:27
Quello che non si è capito, è che il motivo per cui R520 e R580 consumavano più di G70/71 è dovuto alla differente complessità dei circuiti delle due architetture.
Nessuno si è mai chiesto perchè NV40 consumava di più di R420, vero? :asd:
Bene, pensateci... e datavi una risposta. :D
ATI non ha bisogno di AMD per far consumare meno i suoi chip... :) semmai potrebbe ripensare alle scelte fatte in precedenza e mettere un occhio di riguardo in meno all'innovazione tecnologica (si sa che G70 non passa il testing SM3 di Ms, mentre le archi ATI lo fanno, pur mancando del vertex texturing.. un motivo ci sarà no? :D Per la stessa ragione le archi ATI sono usate nel folding@home mentre le nVidia no... -G80 ovviamente a parte-) e uno in più all'aspetto dei consumi.
Basta però osservare la situazione console (campo in cui ATI ha ormai 3 archi proprietarie alle spalle), dove i consumi sono davvero importanti (dato che i box sono piccoli e la dissipazione difficile) e vedere che cosa ha combinato.
Xenos è un chip da 330mln di transistor @500mhz, dissipato passivamente. :)
I suoi consumi si aggirano sui 35-40W in load, meno del corrispettivo nVidia montato sulla console concorrente. ;)
Insomma, penso che il know-how per ridurre i consumi dei chip, non sia ad appannaggio della sola nVidia (in campo GPU) ma piuttosto che i consumi dipendano da scelte architetturali e quindi dalle possibilità fisiche di poterli ridurre, mantenendo però gli obiettivi prefissati, circa le prestazioni. ^_^
E queste ultime però, si possono giudicare solo sul lungo periodo.
hai perfettamente ragione ;)
Deschutes
14-04-2007, 16:44
Non è una visione apocalittica.
Molte persona hanno il computer da game e il pc "mulo" da "serverino".
Io sono con un 3200+ e una x800gto2 ed è quasi sempre acceso,ho fastweb,800gb di hd e quando voglio giocare accendo il principale.
Ma ripeto,non sono l'unico...;)
Pessima cosa almeno per me .....
Voglio 1 solo ottimo pc con cui poter fare tutto ... senza trovarmi un pc con consumi talmente stratosferici di watt da trovarmi costretto o quasi ad avere 2 pc 1 a basso consumo ed 1 senza limiti di watt x giocare.
Qua si parla di una scheda, che se confermato, si mangia 240 watt cioè più di un'intero pc di alto livello, tipo quad core Q6800 con svariati giga di ram una catasta di hard disk ecc
ciao
peccato solamente che questo gioco - come tutti gli altri - avrà bisogno di vista per girare con dx10 :(
ma possibile che proprio non le facciano, le dx10 per XP???
Possibilissimo, visto che una versione di DX10 comporterebbe una riscrittura totale del kernel del sistema operativo ;)
Tranquillo, tanto tra un anno avremo tutti Vista
Pessima cosa almeno per me .....
Voglio 1 solo ottimo pc con cui poter fare tutto ... senza trovarmi un pc con consumi talmente stratosferici di watt da trovarmi costretto o quasi ad avere 2 pc 1 a basso consumo ed 1 senza limiti di watt x giocare.
Qua si parla di una scheda, che se confermato, si mangia 240 watt cioè più di un'intero pc di alto livello, tipo quad core Q6800 con svariati giga di ram una catasta di hard disk ecc
ciao
Ma di solito in idle le Ati non sono cosi male...
Guarda...non non fasciamoci la testa prima di romperla, non abbiamo ancora alcun dato concreto :)
davide155
14-04-2007, 17:37
Ma di solito in idle le Ati non sono cosi male...
Guarda...non non fasciamoci la testa prima di romperla, non abbiamo ancora alcun dato concreto :)
per l'ennesima volta viene riproposta questa frase e per l'ennesima volta la quoto.
E' inutile squartarsi adesso perchè i nostri ali non ce la faranno a reggere.......ancora non sappiamo nemmeno quanto va veloce......figuriamoci se è certo che consuma 240watt :rolleyes:
Non so se qualcuno lo ha già scritto, ma sul forum di Overclockers UK c'è un utente che ha già la HD 2900XT 512MB in prova.
http://forums.overclockers.co.uk/showthread.php?t=17712718
Alcuni post sono molto interessanti, come questa considerazione sulla scelta di ATi di usare solo 64 shaders...
http://forums.overclockers.co.uk/showpost.php?p=9118832&postcount=971
In a best-case scenario each of ATI's 64 shaders can do 5 times as much per clock cycle as each of Nvidia's 128 shaders, so it's the equivalent of 320. Worst case is 2 times as much; but Nvidia's run at double the clock-speed. So, best case is ATI wins by 25%, worst case is Nvidia wins by 100% (if we assume that R600 core clock is half of Nvidia's shader clock - it will probably be slightly better than that).
... oppure come questo in cui Gibbo (così si chiama l'utente) spiega (senza fare cifre precise, dice di non volere fare eccessiva disclosure) il rapporto tra le prestazioni della sua 8800GTX rispetto alla HD 2900XT (su una scala da 1 a 10 alla GTX dava 5).
http://forums.overclockers.co.uk/showpost.php?p=9118832&postcount=971
Maybe it gets a 7 now, but guys the games I tested with were limited so my results when I post them should not be taken as truly representing the cards performance. Wait for more reviews where lots more games have been tasted and dare I say it hopefully some DX10 games/apps.
Stando ai suoi posts, sembra che in Vista R600 vada abbastanza meglio (anche con drivers immaturi) di G80.
EDIT: a questo indirizzo http://rage3d.com/board/showpost.php?p=1334893300&postcount=4546 si può trovare un resoconto delle impressioni di Gibbo.
Skullcrusher
14-04-2007, 17:44
Non so se qualcuno lo ha già scritto, ma sul forum di Overclockers UK c'è un utente che ha già la HD 2900XT 512MB in prova.
http://forums.overclockers.co.uk/showthread.php?t=17712718
Alcuni post sono molto interessanti, come questa considerazione sulla scelta di ATi di usare solo 64 shaders...
http://forums.overclockers.co.uk/showpost.php?p=9118832&postcount=971
... oppure come questo in cui Gibbo (così si chiama l'utente) spiega (senza fare cifre precise, dice di non volere fare eccessiva disclosure) il rapporto tra le prestazioni della sua 8800GTX rispetto alla HD 2900XT (su una scala da 1 a 10 alla GTX dava 5).
http://forums.overclockers.co.uk/showpost.php?p=9118832&postcount=971
Stando ai suoi posts, sembra che in Vista R600 vada abbastanza meglio (anche con drivers immaturi) di G80.
Apperò, non male poter mettere le mani su uno dei sample di R600... :D
Solo non capisco in base a cosa attribuisca 5 alla GTX :fagiano:
Apperò, non male poter mettere le mani su uno dei sample di R600... :D
Solo non capisco in base a cosa attribuisca 5 alla GTX :fagiano:
5 non è un cattivo voto, qualche giorno fa, prima di provare altri giochi, all'R600 aveva dato 5/6.
Skullcrusher
14-04-2007, 17:50
5 non è un cattivo voto, qualche giorno fa, prima di provare altri giochi, all'R600 aveva dato 5/6.
Ah ok, mi mancava questo dato :stordita:
gianni1879
14-04-2007, 17:50
Pessima cosa almeno per me .....
Voglio 1 solo ottimo pc con cui poter fare tutto ... senza trovarmi un pc con consumi talmente stratosferici di watt da trovarmi costretto o quasi ad avere 2 pc 1 a basso consumo ed 1 senza limiti di watt x giocare.
Qua si parla di una scheda, che se confermato, si mangia 240 watt cioè più di un'intero pc di alto livello, tipo quad core Q6800 con svariati giga di ram una catasta di hard disk ecc
ciao
beh in idle non pensi ciucciano (ammesso che sia vero) 240w, almeno che non giochi 24/24h 7/7gg :D
gianni1879
14-04-2007, 17:54
Non so se qualcuno lo ha già scritto, ma sul forum di Overclockers UK c'è un utente che ha già la HD 2900XT 512MB in prova.
http://forums.overclockers.co.uk/showthread.php?t=17712718
Alcuni post sono molto interessanti, come questa considerazione sulla scelta di ATi di usare solo 64 shaders...
http://forums.overclockers.co.uk/showpost.php?p=9118832&postcount=971
... oppure come questo in cui Gibbo (così si chiama l'utente) spiega (senza fare cifre precise, dice di non volere fare eccessiva disclosure) il rapporto tra le prestazioni della sua 8800GTX rispetto alla HD 2900XT (su una scala da 1 a 10 alla GTX dava 5).
http://forums.overclockers.co.uk/showpost.php?p=9118832&postcount=971
Stando ai suoi posts, sembra che in Vista R600 vada abbastanza meglio (anche con drivers immaturi) di G80.
EDIT: a questo indirizzo http://rage3d.com/board/showpost.php?p=1334893300&postcount=4546 si può trovare un resoconto delle impressioni di Gibbo.
molto interessante ;)
specialmente l'ultimo link :)
commenti molto positivi :)
L'unico motivo che porterebbe Ati a realizzare una versione a 65 nm sarebbe per diminuire i consumi e i costi di produzione in fabbrica, per ora imho.
Se la XT superasse la 8800 Gtx di un 15%-20% e costasse 399$, Nvidia sarebbe costretta a lanciare la 8800 Ultra per rispondere, senza conoscere le reali performance di R600 XTX. Credo che sarebbe costretta a rispondere per motivi d'immagine e di mercato, perchè uscire con una scheda inferiore dopo la concorrenza è rischioso, non si riesce a ripagare l'investimento.
"Stimiamo" per la 8800 Ultra, performance il 30% superiori alla 8800 Gtx,magari grazie anche a driver molto migliori e ottimizzati. Dovrebbe essere quindi il 10% superiore alla R600XT, ma nella fascia di prezzo dei 499-599$.
A questo punto tocca alla R600XTX.
Con frequenze 800-850 / 2200 sarebbe il 10% più veloce della R600XT nelle basse risoluzioni (sotto i 1920x1200) e molto più veloce per le risoluzioni molto elevate grazie alla banda passante elevata. Non avrebbe senso lanciare un chip a 65 nm con frequenze di 1 Ghz solo 1 mese dopo a R600XT, sarebbe enormemente superiore alla concorrenza, alla propria fascia high-stream e per me sprecato. Se la tecnologia è già pronta, potrebbe servire per abbassare i costi per Ati, i consumi e il prezzo per il pubblico.
Quando Nvidia risponderà con le 8900 Gtx e la 8950 GX2, allora Ati lancerà R650 che avrà molto probabilmente frequenza del core a 1 Ghz e 96 shader unit.
Io credo che questa nuova battaglia inizierà a ottobre-novembre 2007, per un bel pò di mesi staremo molto tranquilli con un R600XT. :)
PS: i valori % gli ho stimati dai rumor (per la 8800 Ultra e R600XT), dalle performance teoriche delle architettura con + o meno Mhz sul core e per la banda passante (per R600XTX)
:D
Però contiene anche 2-3 volte il numero dei transistor di un pc di basso livello, ed è un centinaio di volte più performante. :D
Essendo R600 un progetto iniziato da Ati e già ormai avviato all'acquisizione da parte di AMD, credo che quest'ultima abbia potuto fare poco per modificare il chip e fargli assorbire meno potenza. Con il prossimo chip totalmente nuovo, cioè R700 credo che le cose cambieranno e AMD introdurrà sicuramente qualche features innovativa per il risparmio energetico.
Che ne pensate di un sistema per disattivare o abbassare la tensione di ognuno dei 5 gruppi delle shader unit in modo indipendente uno dall'altro per risparmiare energia? E magari disattivare pure alcune rops e tmu se si gioca su risoluzioni sotto un certo livello, dove non c'è bisogno di una enorme banda passante.
Sono soluzioni che verranno a breve integrate in K10.
Cmq,di 8800 ultra o di 8900 si sa meno che di R600 ....quindi aspettere a ipotizzare,anche xche in ste 6/7 mesi dal lancio delle 8800 non credo che gli ingen. siano stati in ferie ad aspettare la concorrenza che faceva ;)
Skullcrusher
14-04-2007, 19:57
Cmq,di 8800 ultra o di 8900 si sa meno che di R600 ....quindi aspettere a ipotizzare,anche xche in ste 6/7 mesi dal lancio delle 8800 non credo che gli ingen. siano stati in ferie ad aspettare la concorrenza che faceva ;)
Quoto, anche secondo me è decisamente presto per sapere qualcosa...alla fine dell'8800 ultra si sa a malapena che esce :p
ottime risposte in quel forum.
si delinea una scheda molto ma molto competitiva, nonostante non sia una scheda high-end.
Mah... sara' che le votazioni su scale da 1 a 10 mi lasciano tecnicamente poco soddisfatto... :rolleyes: :fagiano:
TecnoWorld8
14-04-2007, 22:04
sono sempre più propenso ad attendere una fantomatica xtx a 65nm in uscita prima dell'estate (spero)
+Lonewolf+
14-04-2007, 23:48
non la prenderò solo xkè consumerà uno sproposito...a meno che queste voci non si smentiscono
cross713rose
15-04-2007, 00:46
Di sicuro,non vedo l'ora di un confronto 8800ultra/X2900XTX! :D
Ma mi sorge una domanda:il rendimento di queste schede può incidere in base all'uso di chipset specifici?(680i,xpress3200):confused:
In questo post "Gibbo" afferma che le schede siano simili come prestazioni:
http://forums.overclockers.co.uk/showpost.php?p=9110216&postcount=520
Le ultime righe..
I feel/guess/presume it will be around GTX performance but has more features, better Vista performance and according to other post on these forums and websites elsewhere it might cost less than a GTX.
TecnoWorld8
15-04-2007, 01:36
non so...se le prestazioni fossero più o meno quelle della GTX, non posso che dire che SPERO che al più presto esca qualcosa di più potente e a 65nm, dal costo che ha ora la GTX stessa o poco più.
secondo me serve più di questa potenza per vivere sereni con i giochi in uscita da ora a fine 2008.
Robbysca976
15-04-2007, 08:47
non so...se le prestazioni fossero più o meno quelle della GTX, non posso che dire che SPERO che al più presto esca qualcosa di più potente e a 65nm, dal costo che ha ora la GTX stessa o poco più.
secondo me serve più di questa potenza per vivere sereni con i giochi in uscita da ora a fine 2008.
Fino a fine 2008 nn penso proprio...Anche perchè ad inizio 2008 vederemo le gpu con Pcx 2.0 ddr4 dx10.1 shaders 4.0 :D
Kharonte85
15-04-2007, 09:37
Mah... sara' che le votazioni su scale da 1 a 10 mi lasciano tecnicamente poco soddisfatto... :rolleyes: :fagiano:
Infatti, e poi sostanzialmente (caratteristiche, consumi ecc..) non dice nulla perche' c'è ancora l'NDA...:rolleyes:
TecnoWorld8
15-04-2007, 09:46
Robbysca976: considera che a fine 2008 un R600 avrà circa l'età che ha ora un x1800xt. e ti posso assicurare che tale GPU fa ancora girare tutto più che egregiamente...
Fino a fine 2008 nn penso proprio...Anche perchè ad inizio 2008 vederemo le gpu con Pcx 2.0 ddr4 dx10.1 shaders 4.0 :D
E forse una decina di giochi che supportano DirectX 10.
Ciao :)
TecnoWorld8
15-04-2007, 10:21
giopro: ti quoto, hehe :)
Ma postare qualche screen no è!! Mi fido poco di qst Gibbo :O
Anche io ho avuto in prova due HD2900XTX2 e Dual QuadCore :rolleyes:
il mio vota da 1 a 10 è 6+ :muro:
davide155
15-04-2007, 11:31
Fino a fine 2008 nn penso proprio...Anche perchè ad inizio 2008 vederemo le gpu con Pcx 2.0 ddr4 dx10.1 shaders 4.0 :D
Gli shader 4.0 sono supportati pure da questa generazione di vga dx10 :)
Cmq non credo proprio che ad inizio 2008 uscirà il pcx 2.0.........è ancora troppo presto secondo me.
Ma se avete un link ufficiale ben venga
http://img230.imageshack.us/img230/179/r600bench1ni3.th.jpg (http://img230.imageshack.us/my.php?image=r600bench1ni3.jpg)
Catalyst 8.351
Non si capisce quale modello di R600 sia... (e quindi non sappiamo le frequenze)
:cool:
TecnoWorld8
15-04-2007, 11:33
http://img341.imageshack.us/img341/639/attachment239ce1nt9.jpg
http://we.pcinlife.com/thread-749836-1-1.html
Nel campo della gestione della fisica nei giochi non si sa niente su come si comporta R600 e derivati? Non avevano detto che avrebbero creato schede che l'avrebbero gestita senza bisogno di add-on tipo Ageia?
Ciao :)
gianni1879
15-04-2007, 11:52
http://img341.imageshack.us/img341/639/attachment239ce1nt9.jpg
http://we.pcinlife.com/thread-749836-1-1.html
beh con un 6600 a default non è proprio male
Alexkidd85
15-04-2007, 11:52
Per me stanno solo giocando... E non nel senso di "scherzare" ma proprio di "giocare" con l'attributo non del "pupo" come si suol dire...ma mio :muro:
Dico una castroneria!? Il 3dmark non dovrebbe riconoscere la scheda a prescindere dall'nda o meno!?
Cioé...non è che nella mia c'è messa "r5xx" series..c'è proprio scritto 1900series,o mi ricordo male!? (Sto giocando a virtua tennis...non posso controllare :asd:)
gianni1879
15-04-2007, 12:00
Per me stanno solo giocando... E non nel senso di "scherzare" ma proprio di "giocare" con l'attributo non del "pupo" come si suol dire...ma mio :muro:
Dico una castroneria!? Il 3dmark non dovrebbe riconoscere la scheda a prescindere dall'nda o meno!?
Cioé...non è che nella mia c'è messa "r5xx" series..c'è proprio scritto 1900series,o mi ricordo male!? (Sto giocando a virtua tennis...non posso controllare :asd:)
effettivamente mi hai fatto venir il dubbio ....
certo è strano sto r600 series
Ma postare qualche screen no è!! Mi fido poco di qst Gibbo :O
Anche io ho avuto in prova due HD2900XTX2 e Dual QuadCore :rolleyes:
il mio vota da 1 a 10 è 6+ :muro:
A parte il numero di post notevole che ha, che comunque dovrebbe già proteggere dal rischio fake, gli credono su vari forum, anche abbastanza rinomati (rage3d su tutti).
Tra l'altro anche postare screenshots falsi è facile, come abbiamo visto nei mesi scorsi.
Cmq non credo proprio che ad inizio 2008 uscirà il pcx 2.0.........è ancora troppo presto secondo me.
Ma se avete un link ufficiale ben venga
Il PCI-Express 2.0 sarà implementato sui chipset Berlake Intel X38, in uscita entro la fine dell'anno (terzo trimestre), come riportato più volte da hwu
http://www.hwupgrade.it/articoli/skmadri/1692/preview-chipset-intel-p35-bearlake_index.html
Per me stanno solo giocando... E non nel senso di "scherzare" ma proprio di "giocare" con l'attributo non del "pupo" come si suol dire...ma mio :muro:
Dico una castroneria!? Il 3dmark non dovrebbe riconoscere la scheda a prescindere dall'nda o meno!?
Cioé...non è che nella mia c'è messa "r5xx" series..c'è proprio scritto 1900series,o mi ricordo male!? (Sto giocando a virtua tennis...non posso controllare :asd:)
effettivamente mi hai fatto venir il dubbio ....
certo è strano sto r600 series
Quello che viene scritto in 3DMark sotto GFX dipende dai drivers. Quella scritta è facilmente modificabile, tra l'altro.
davide155
15-04-2007, 12:08
http://img341.imageshack.us/img341/639/attachment239ce1nt9.jpg
http://we.pcinlife.com/thread-749836-1-1.html
Se è questa tutta la potenza di r600 mi delude parecchio :rolleyes:
Fa meno di una 8800gtx......
Vabbè che i driver fanno pena per ora.......e vabbè che è su win vista.....però....."solo" 9600 punti........bah......
Speriamo sia un fake :rolleyes:
davide155
15-04-2007, 12:09
Il PCI-Express 2.0 sarà implementato sui chipset Berlake Intel X38, in uscita entro la fine dell'anno (terzo trimestre), come riportato più volte da hwu
http://www.hwupgrade.it/articoli/skmadri/1692/preview-chipset-intel-p35-bearlake_index.html
Buono
Questo vuol dire che aspetterò a maggior ragione natale per cambiare tutto :O
Skullcrusher
15-04-2007, 12:11
Se è questa tutta la potenza di r600 mi delude parecchio :rolleyes:
Fa meno di una 8800gtx......
Vabbè che i driver fanno pena per ora.......e vabbè che è su win vista.....però....."solo" 9600 punti........bah......
Speriamo sia un fake :rolleyes:
Quel punteggio potrebbe essere riferito all'HD2900XT, inoltre tutto è possibile....
Athlon 64 3000+
15-04-2007, 12:17
finche non sarà presentata insisto con il dire che tutto è possibile
Quel punteggio potrebbe essere riferito all'HD2900XT, inoltre tutto è possibile....
Faccio 10800 punti con la 8800 GTS 320 :confused:
P.;)
halduemilauno
15-04-2007, 12:20
Quel punteggio potrebbe essere riferito all'HD2900XT, inoltre tutto è possibile....
credo di si. perchè la xtx verrà(o dovrebbe esser) presentata il 5 giugno al computex.
;)
Skullcrusher
15-04-2007, 12:21
finche non sarà presentata insisto con il dire che tutto è possibile
Per l'appunto....quando sarà finito l'NDA, sapremo ogni cosa.
Athlon 64 3000+
15-04-2007, 12:29
credo di si. perchè la xtx verrà(o dovrebbe esser) presentata il 5 giugno al computex.
;)
quindi non passerà molto tempo tra la XT e la XTX come date di presentazione.
la 8800GTX con il Core 2 Duo E6600 al 3d mark 2006 stai sui 10000 punti.
Per me stanno solo giocando... E non nel senso di "scherzare" ma proprio di "giocare" con l'attributo non del "pupo" come si suol dire...ma mio :muro:
Dico una castroneria!? Il 3dmark non dovrebbe riconoscere la scheda a prescindere dall'nda o meno!?
Cioé...non è che nella mia c'è messa "r5xx" series..c'è proprio scritto 1900series,o mi ricordo male!? (Sto giocando a virtua tennis...non posso controllare :asd:)
Quello non c'entra; (solitamente) dipende dalla versione piu' o meno "beta" dei drivers utilizzati in cui non e' stato necessario per prematurita' degli stessi specificare nei file inf una stringa specifica. E' stato lasciato simile anche su molti drivers ufficiali di schede come "Radeon 9500/9700 Series" o cose simili. ;)
Vorrei ricordare che con un po' di "soft hacking" dovrebbe essere facile modificare manualmente le stringhe dei drivers per cui potrebbero essere benissimo fake.
Athlon 64 3000+
15-04-2007, 12:39
inoltre saprei proprio curioso di sapere se l'NDA su R600 scadrà il 24 aprile o il 14 maggio.
Se è questa tutta la potenza di r600 mi delude parecchio :rolleyes:
Fa meno di una 8800gtx......
Vabbè che i driver fanno pena per ora.......e vabbè che è su win vista.....però....."solo" 9600 punti........bah......
Speriamo sia un fake :rolleyes:
Faccio 10800 punti con la 8800 GTS 320 :confused:
P.;)
Vi ricordo che la cpu in 3DMark06 conta moltissimo. Se con gli stessi settaggi il cpu test avesse segnato già 2500 anzichè 2000 (quindi un X6800 anzichè un 6600) il punteggio sarebbe già stato sui 10200 punti.
Con un QX6700, che è uno dei processori più usati nelle recensioni, avrebbe superato gli 11200 punti.
I punteggi in SM2 e SM3, quelli che contano, sono lievemente inferiori a quelli di una GTX, ma nettamente superiori a quelli di una GTS (parlo di dati a default).
I test sembra siano a default e i drivers non ancora supportano la scheda.
Infine, le nVidia a parità di prestazioni nel gaming reale hanno punteggi più alti al 3DMark06 (il caso della 8600GTS è abbastanza emblematico, ma per esperienza cito anche Mobility Radeon X1600 e 7600 Go, con la seconda che segna anche 300-400 punti in più della mia scheda pur avendo prestazioni uguali/inferiori alla mia nella realtà).
Alexkidd85
15-04-2007, 13:17
Si appunto ragazzi non ci dimentichiamo che molto spesso noi buttiamo l'occhio ai nostri risultati senza vedere le frequenze di sti benedetti conroe...tra un 6600@default e un 6600@4400 mhz passano 2000punti di 3dmark :D
Che non so pochini :D
Alexkidd85
15-04-2007, 13:19
Vi ricordo che la cpu in 3DMark06 conta moltissimo. Se con gli stessi settaggi il cpu test avesse segnato già 2500 anzichè 2000 (quindi un X6800 anzichè un 6600) il punteggio sarebbe già stato sui 10200 punti.
Con un QX6700, che è uno dei processori più usati nelle recensioni, avrebbe superato gli 11200 punti.
I punteggi in SM2 e SM3, quelli che contano, sono lievemente inferiori a quelli di una GTX, ma nettamente superiori a quelli di una GTS (parlo di dati a default).
I test sembra siano a default e i drivers non ancora supportano la scheda.
Infine, le nVidia a parità di prestazioni nel gaming reale hanno punteggi più alti al 3DMark06 (il caso della 8600GTS è abbastanza emblematico, ma per esperienza cito anche Mobility Radeon X1600 e 7600 Go, con la seconda che segna anche 300-400 punti in più della mia scheda pur avendo prestazioni uguali/inferiori alla mia nella realtà).
Praticamente abbiamo scritto in contemporanea la stessa cosa. "ora...o c'è un padre in più,o c'è un figlio in meno....1 e 1/2 non può essere....lei che pensa!?" :rotfl:
NOn è perché sono siculo...ma andatelo a vedere il 7 e l'8 :D
Scusate l'ot :sofico:
non so...se le prestazioni fossero più o meno quelle della GTX, non posso che dire che SPERO che al più presto esca qualcosa di più potente e a 65nm, dal costo che ha ora la GTX stessa o poco più.
secondo me serve più di questa potenza per vivere sereni con i giochi in uscita da ora a fine 2008.
Potente con driver alpha come la GTX e a 399$ non è mica da buttare via eh. :D
Sarebbe mia subito.
Potente con driver alpha come la GTX e a 399$ non è mica da buttare via eh. :D
Sarebbe mia subito.
esatto, come ho detto più volte in passato (ci sono i testimoni) sembra che anche a questo giro AMD voglia usare la politica X1950XTX
;)
gianni1879
15-04-2007, 14:14
esatto, come ho detto più volte in passato (ci sono i testimoni) sembra che anche a questo giro AMD voglia usare la politica X1950XTX
;)
cioè??
inoltre saprei proprio curioso di sapere se l'NDA su R600 scadrà il 24 aprile o il 14 maggio.
Imho il 24 a questo punto.
Vi ricordo che la cpu in 3DMark06 conta moltissimo. Se con gli stessi settaggi il cpu test avesse segnato già 2500 anzichè 2000 (quindi un X6800 anzichè un 6600) il punteggio sarebbe già stato sui 10200 punti.
Con un QX6700, che è uno dei processori più usati nelle recensioni, avrebbe superato gli 11200 punti.
I punteggi in SM2 e SM3, quelli che contano, sono lievemente inferiori a quelli di una GTX, ma nettamente superiori a quelli di una GTS (parlo di dati a default).
I test sembra siano a default e i drivers non ancora supportano la scheda.
Infine, le nVidia a parità di prestazioni nel gaming reale hanno punteggi più alti al 3DMark06 (il caso della 8600GTS è abbastanza emblematico, ma per esperienza cito anche Mobility Radeon X1600 e 7600 Go, con la seconda che segna anche 300-400 punti in più della mia scheda pur avendo prestazioni uguali/inferiori alla mia nella realtà).
Si OK!
ma chi cambia una 8800 GTS /GTX per una R600 se i numeri comunque sono quelli ??;)
Forse la XTX potrebbe attizzare, ma chi ha gia la 8800 da Novembre-Dicembre si aspetta qualcosa di piu, ma di piu in tutti i sensi... :sofico:
o non sei d'accordo ??
P.:read:
http://img230.imageshack.us/img230/179/r600bench1ni3.th.jpg (http://img230.imageshack.us/my.php?image=r600bench1ni3.jpg)
Catalyst 8.351
Non si capisce quale modello di R600 sia... (e quindi non sappiamo le frequenze)
:cool:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=525&Itemid=1
Aspettiamo i test con i driver finali....
Credo che la XT supererà di molto la GTX se sono confermati questi rumor.
Athlon 64 3000+
15-04-2007, 15:08
http://www.fudzilla.com/index.php?option=com_content&task=view&id=525&Itemid=1
Aspettiamo i test con i driver finali....
Credo che la XT supererà di molto la GTX se sono confermati questi rumor.
Se sarà vero,finche di tratta di rumors tutto è possibile.
Speriamo che L'NDA scada veramente il 24 aprile perchè mi sono veramente rotto di aspettare
Raga ma secondo voi col pc in sign, upgradando solo la vga, sarò cpu limited?
Raga ma secondo voi col pc in sign, upgradando solo la vga, sarò cpu limited?
dipende dalla risoluzione del tuo monitor, è lo stesso discorso che riguarda la 8800gtx ;)
Athlon 64 3000+
15-04-2007, 17:19
Raga ma secondo voi col pc in sign, upgradando solo la vga, sarò cpu limited?
io ti dico ti fregartene del fattore cpu limited e di prenderla senza farti troppi problemi.
Io R600 la metterò con un Athlon 64 x2 4800+
dipende dalla risoluzione del tuo monitor, è lo stesso discorso che riguarda la 8800gtx ;)
La risoluzione massima è 1280x1024.
halduemilauno
15-04-2007, 17:23
http://img404.imageshack.us/img404/6958/attachment13b44fsm3.jpg
questa è la versione da un giga. e non si sa nulla del procio.
;)
interessante, la 8800gtx quanto fa a 1280x1024?
edit: visto, fa 9450 con un FX-60
CUT
SM2:4589
HDR/SM3:5160
i valori della gtx nelle stesse condizioni operative quali sono, che non li ricordo?
Grazie
monstergames
15-04-2007, 18:11
io prendero a questo giro la X2900xtx provengo da vga nvidia e ho sotto una x1900xtx e va che una meraviglia e i driver sono superbi
la data di uscita e il prezzo e stato confermato? sapete news a riguardo
io prendero a questo giro la X2900xtx provengo da vga nvidia e ho sotto una x1900xtx e va che una meraviglia e i driver sono superbi
la data di uscita e il prezzo e stato confermato? sapete news a riguardo
si, di questo passo probabilmente a Natale prossimo. :D
dimenticavo, quando sara' uscito il primo gioco DX10 compatibile :mc:
P.:read:
monstergames
15-04-2007, 18:34
beh vediamo la 8800 ultra come sara io sono fiducioso che ati spacchera maggio e quasi vicino
SM2:4589
HDR/SM3:5160
i valori della gtx nelle stesse condizioni operative quali sono, che non li ricordo?
Grazie
Appunto sono queste le considerazioni interessanti da cominciare a puntualizzare. Qualcuno se li ricorda?
Appunto sono queste le considerazioni interessanti da cominciare a puntualizzare. Qualcuno se li ricorda?
...con un Intel Core 2 Extreme X6800 (2.93GHz), Win XP Pro SP2, NVIDIA Forceware v97.92 e ATI Catalyst v7.1, si ottengono questi risultati:
http://www.hothardware.com/articleimages/Item950/3dm.png
:)
Zlatan91
15-04-2007, 18:54
se devo dire la mia che ho appena preso una 8800gts spero la 2900 faccia cagare su ogni aspetto....asd:D :sofico:
halduemilauno
15-04-2007, 18:55
SM2:4589
HDR/SM3:5160
i valori della gtx nelle stesse condizioni operative quali sono, che non li ricordo?
Grazie
indicativamente.
http://service.futuremark.com/compare?3dm06=1137961
;)
Appunto sono queste le considerazioni interessanti da cominciare a puntualizzare. Qualcuno se li ricorda?
ecco...
Skullcrusher
15-04-2007, 18:58
Manca poco all'uscita, quindi avremo modo di sapere tutto su questa scheda....io comunque mi aspetto una scheda ( l' XTX ) che sia il 10% più potente dell'8800GTX, se poi lo è ancora di più, tanto meglio. Essere convinti fin d'ora che l'XTX spaccherà il mondo può portare a delusioni....meglio essere cautamente ottimisti ;)
...premesso che ognuno è libero d'avere le proprie idee sul ritardo di R600, volevo segnalarvi questo interessante articolo e questa tabella che mi hanno "confermato" le mie idee, ovvero che l'uscita di R600 assieme alle vga sorelle di fascia media può veramente essere stata anche una mossa di mercato valida.
Peddie Research’s data @ Xbit's labs (http://www.xbitlabs.com/news/video/display/20070413235044.html)
http://www.xbitlabs.com/images/news/2007-04/jpr_aibs_trends_q4_2006.png
Il mercato della vga High-End è l'ultimo in termini di unità vendute ed il penultimo come ricavi. La fascia media la fa da padrona. Lanciare una serie di vga (fascia alta, media, bassa) contemporaneamente può essere una mossa giusta...il tutto ovviamente imho.
:)
indicativamente.
http://service.futuremark.com/compare?3dm06=1137961
...come si fa a riconoscere se è in SLI?
...dal link ORB: Video Memory 1024 MB
:confused:
halduemilauno
15-04-2007, 19:14
...come si fa a riconoscere se è in SLI?
...dal link ORB: Video Memory 1024 MB
:confused:
l'ho preso da uno che so che ne ha una. dopotutto i valori coincidono con quelli postati da te. per carità mi informo meglio.
chiesto ha confermato ne ha una sola.
...premesso che ognuno è libero d'avere le proprie idee sul ritardo di R600, volevo segnalarvi questo interessante articolo e questa tabella che mi hanno "confermato" le mie idee, ovvero che l'uscita di R600 assieme alle vga sorelle di fascia media può veramente essere stata anche una mossa di mercato valida.
Peddie Research’s data @ Xbit's labs (http://www.xbitlabs.com/news/video/display/20070413235044.html)
http://www.xbitlabs.com/images/news/2007-04/jpr_aibs_trends_q4_2006.png
Il mercato della vga High-End è l'ultimo in termini di unità vendute ed il penultimo come ricavi. La fascia media la fa da padrona. Lanciare una serie di vga (fascia alta, media, bassa) contemporaneamente può essere una mossa giusta...il tutto ovviamente imho.
:)
già... concordo :)
Alexkidd85
15-04-2007, 19:47
l'ho preso da uno che so che ne ha una. dopotutto i valori coincidono con quelli postati da te. per carità mi informo meglio.
chiesto ha confermato ne ha una sola.
E a quanto stiamo di frequenza nella gpu!?
Qua uno screen di un mio amico del forum che con driver di dicembre e sistema sporco e procio specificato ha fatto questo risultato.
Ribadisco...solo una prova al volo con sistema e driver non perfetti...e senza conroe :D
http://img527.imageshack.us/img527/2298/3dmark066001000risoluziwp6.th.jpg (http://img527.imageshack.us/my.php?image=3dmark066001000risoluziwp6.jpg)
Edit:
Però,forse,il fatto che erano driver beta possono risultare un punto a favore del confronto....ora che ci penso....
E a quanto stiamo di frequenza nella gpu!?
Qua uno screen di un mio amico del forum che con driver di dicembre e sistema sporco e procio specificato ha fatto questo risultato.
Ribadisco...solo una prova al volo con sistema e driver non perfetti...e senza conroe :D
http://img527.imageshack.us/img527/2298/3dmark066001000risoluziwp6.th.jpg (http://img527.imageshack.us/my.php?image=3dmark066001000risoluziwp6.jpg)
Edit:
Però,forse,il fatto che erano driver beta possono risultare un punto a favore del confronto....ora che ci penso....
Infatti questo risultato è molto più paragonabile di altri a quelli di R600... ;)
Tra l'altro l'Opteron in questione fa un punteggio di pochissimo inferiore ad un Conroe 6600.
Quindi abbiamo...
8800GTX (uscita a novembre) con drivers di dicembre:
SM2:4291
HDR/SM3:4607
HD2900XT (non ancora uscita) con drivers alpha:
SM2:4376
HDR/SM3:4807
Non male... :Perfido:
appleroof
15-04-2007, 20:22
Infatti questo risultato è molto più paragonabile di altri a quelli di R600... ;)
Tra l'altro l'Opteron in questione fa un punteggio di pochissimo inferiore ad un Conroe 6600.
Quindi abbiamo...
8800GTX (uscita a novembre) con drivers di dicembre:
SM2:4291
HDR/SM3:4607
HD2900XT (non ancora uscita) con drivers alpha:
SM2:4376
HDR/SM3:4807
Non male... :Perfido:
sei ironico? :D
Raga cmq i 3dmark prendeteli sempre come pura indicazione di massima: spesso poi nei giochi si hanno sorprese, in positivo o in negativo, io personalmente aspetterò una rece definitiva (con i giochi!) della nuova top Ati, prima di trarre conclusioni definitive (anche perchè se si prendessero solo questi scores essi sarebbero molto deludenti, per Ati, sempre tenendo a mente il gap di sei mesi dalla 8800gtx). ;)
sei ironico? :D
Raga cmq i 3dmark prendeteli sempre come pura indicazione di massima: spesso poi nei giochi si hanno sorprese, in positivo o in negativo, io personalmente aspetterò una rece definitiva (con i giochi!) della nuova top Ati, prima di trarre conclusioni definitive (anche perchè se si prendessero solo questi scores essi sarebbero molto deludenti, per Ati, sempre tenendo a mente il gap di sei mesi dalla 8800gtx). ;)
Sinceramente a me interessa molto di più il gap potenziale di prezzo (oltre 100€ in meno) a parità di prestazioni... :sofico:
appleroof
15-04-2007, 20:31
Sinceramente a me interessa molto di più il gap potenziale di prezzo (oltre 100€ in meno) a parità di prestazioni... :sofico:
Si, diciamo che è un argomento molto convincente...:asd: :asd:
Raga cmq i 3dmark prendeteli sempre come pura indicazione di massima: spesso poi nei giochi si hanno sorprese, in positivo o in negativo, io personalmente aspetterò una rece definitiva (con i giochi!) della nuova top Ati, prima di trarre conclusioni definitive (anche perchè se si prendessero solo questi scores essi sarebbero molto deludenti, per Ati, sempre tenendo a mente il gap di sei mesi dalla 8800gtx). ;)
dei 3d merd sono indicativi solo i SM3/SM2 score, non il punteggio finale...ovviamente i veri risultati sono quelli ottenuti con i giochi
;)
Sinceramente a me interessa molto di più il gap potenziale di prezzo (oltre 100€ in meno) a parità di prestazioni... :sofico:
concordo pienamente!:)
Sinceramente a me interessa molto di più il gap potenziale di prezzo (oltre 100€ in meno) a parità di prestazioni... :sofico:
Si, diciamo che è un argomento molto convincente...:asd: :asd:
molto convincente? a me pare decisamente determinante per il successo di un prodotto.
costo di meno e vado di più
ergo: vendo di più (anche se esco con ritardo)
;)
appleroof
15-04-2007, 20:41
dei 3d merd sono indicativi solo i SM3/SM2 score, non il punteggio finale...ovviamente i veri risultati sono quelli ottenuti con i giochi
;)
Si è chiaro, sopratutto il punteggio complessivo del 2006 è influenzatissimo come sappiamo bene, in ogni caso anche i 2 sm2 ed sm3 sono in misura sia pure minima pur sempre influenzati dal sistema nel complesso, non credo che siano punteggi completamente avulsi, come se la vga fosse testata "a sè" :)
in ogni caso, tra punteggio complessivo e quello dei test SM è chiaro che siano più indicativi questi ultimi, a parità di sistema ;)
appleroof
15-04-2007, 20:42
molto convincente? a me pare decisamente determinante per il successo di un prodotto.
costo di meno e vado di più
ergo: vendo di più (anche se esco con ritardo)
;)
va bene, determinante
;)
Si è chiaro, sopratutto il punteggio complessivo del 2006 è influenzatissimo come sappiamo bene, in ogni caso anche i 2 sm2 ed sm3 sono in misura sia pure minima pur sempre influenzati dal sistema nel complesso, non credo che siano punteggi completamente avulsi, come se la vga fosse testata "a sè" :)
in ogni caso, tra punteggio complessivo e quello dei test SM è chiaro che siano più indicativi questi ultimi, a parità di sistema ;)
Tutto il 3DMark soprattutto nelle ultime annate e' a se stante, non e' da prendere come oro colato per i giochi futuri, bensi' come un esempio "a grandi linee" di come in titoli che sfrutteranno le stesse features grafiche, il sistema e l'hardware nello specifico potra' performare. Ovviamente si basa su troppo fattori relativi ai programmatori Futuremark cosi' e' impossibile dire se la previsione sara' valida.
Certo e' un buon punto di partenza che fa' capire dove ci sono enormi differenze e il perche' di queste differenze. Se una scheda nei PS performa il 200% di un'altra, ecco che questo benchmark servira' a mettere in luce che in una situazione programmata per un intenso uso dei PS la scheda non e' riuscita laddove altro invece riescono. Questo non significa che a fronte di un'altra tecnica di programmazione e uso dei PS in un game, la stessa scheda possa andare un po' meglio rispetto alla catastrofica previsione annunciata dai test sintetici.
appleroof
15-04-2007, 20:59
Tutto il 3DMark soprattutto nelle ultime annate e' a se stante, non e' da prendere come oro colato per i giochi futuri, bensi' come un esempio "a grandi linee" di come in titoli che sfrutteranno le stesse features grafiche, il sistema e l'hardware nello specifico potra' performare. Ovviamente si basa su troppo fattori relativi ai programmatori Futuremark cosi' e' impossibile dire se la previsione sara' valida.
Certo e' un buon punto di partenza che fa' capire dove ci sono enormi differenze e il perche' di queste differenze. Se una scheda nei PS performa il 200% di un'altra, ecco che questo benchmark servira' a mettere in luce che in una situazione programmata per un intenso uso dei PS la scheda non e' riuscita laddove altro invece riescono. Questo non significa che a fronte di un'altra tecnica di programmazione e uso dei PS in un game, la stessa scheda possa andare un po' meglio rispetto alla catastrofica previsione annunciata dai test sintetici.
certo, sono d'accordo :)
Certo e' un buon punto di partenza che fa' capire dove ci sono enormi differenze e il perche' di queste differenze. Se una scheda nei PS performa il 200% di un'altra, ecco che questo benchmark servira' a mettere in luce che in una situazione programmata per un intenso uso dei PS la scheda non e' riuscita laddove altro invece riescono. Questo non significa che a fronte di un'altra tecnica di programmazione e uso dei PS in un game, la stessa scheda possa andare un po' meglio rispetto alla catastrofica previsione annunciata dai test sintetici.
Beh, comunque tutti i giochi più nuovi fanno un uso intensivo (chi più e chi meno) dei pixel shaders: infatti le X1K avevano un architettura fortemente sbilanciata a favore del numero di pixel shaders rispetto a ROPs e TMU proprio in previsione di quest'uso intensivo.
Quello che però sconcerta è come una scheda che ha caratteristiche simili per certi versi ad un'altra (il numero di shaders) possa andare così. La 7900GT fa segnare un framerate di oltre il 50% superiore al test dei pixel shaders...
appleroof
15-04-2007, 21:19
Beh, comunque tutti i giochi più nuovi fanno un uso intensivo (chi più e chi meno) dei pixel shaders: infatti le X1K avevano un architettura fortemente sbilanciata a favore del numero di pixel shaders rispetto a ROPs e TMU proprio in previsione di quest'uso intensivo.
Quello che però sconcerta è come una scheda che ha caratteristiche simili per certi versi ad un'altra (il numero di shaders) possa andare così. La 7900GT fa segnare un framerate di oltre il 50% superiore al test dei pixel shaders...
Forse perchè cambia la struttura degli stessi e cmq l'architettura in generale fà la sua parte
I più esperti dicono che ad esempio G80 sia "facilitato" nei calcoli semplici (velocità pura) mentre R600 con i suoi shader nei calcoli complessi
Quanto questo si tradurrà in una "vittoria" dell'una o dell'altra nei giochi è tutto da vedere, come sempre secondo me non ci sarà una soluzione schiacciante (aspettando le prove in dx10)
Beh, comunque tutti i giochi più nuovi fanno un uso intensivo (chi più e chi meno) dei pixel shaders: infatti le X1K avevano un architettura fortemente sbilanciata a favore del numero di pixel shaders rispetto a ROPs e TMU proprio in previsione di quest'uso intensivo.
Quello che però sconcerta è come una scheda che ha caratteristiche simili per certi versi ad un'altra (il numero di shaders) possa andare così. La 7900GT fa segnare un framerate di oltre il 50% superiore al test dei pixel shaders...
Beh, la ripartizione delle varie componenti e' delegata alla fase di progettazione e alla "previsione" che i vari cervelloni al lavoro nelle (2) aziende verificano e immaginano per il futuro prossimo. Ci sono casi in cui certe scelte vengono prese male e comportano un fallimento totale, altri casi in cui certe scelte sono piu' intelligenti di altre e aver preferito un maggiore sviluppo di una certa sezione del chip e' anche qui fondamentale.
Non voglio poi insinuare che laddove il 3DMark abbia piu' presa sul pubblico a fronte di un'ottima versione e un uso maggiore nel mercato, entrambe le aziende prevedano una ottimizzazione "dedicata" a quello che Futuremark decida per il proprio benchmark.
appleroof
15-04-2007, 21:21
Beh, la ripartizione delle varie componenti e' delegata alla fase di progettazione e alla "previsione" che i vari cervelloni al lavoro nelle (2) aziende verificano e immaginano per il futuro prossimo. Ci sono casi in cui certe scelte vengono prese male e comportano un fallimento totale, altri casi in cui certe scelte sono piu' intelligenti di altre e aver preferito un maggiore sviluppo di una certa sezione del chip e' anche qui fondamentale.
Come vedi le cose alla luce delle dx10? Dove andranno a differenziarsi veramente le 2 proposte?
Forse perchè cambia la struttura degli stessi e cmq l'architettura in generale fà la sua parte
I più esperti dicono che ad esempio G80 sia "facilitato" nei calcoli semplici (velocità pura) mentre R600 con i suoi shader nei calcoli complessi
Quanto questo si tradurrà in una "vittoria" dell'una o dell'altra nei giochi è tutto da vedere, come sempre secondo me non ci sarà una soluzione schiacciante (aspettando le prove in dx10)
Come abbiamo sempre visto non ci saranno vittorie o perdite facili. Ognuno ha anche un parco di programmatori un po' piu' di parte con cui sicuramente certi titoli andranno meglio (nulla di scandaloso, e' logica di mercato) e altri in cui andranno peggio senza un motivo facilmente apparente.
Cosi' quello che importera' sara' sperare in qualche innovazione proprietaria tale da farci dimenticare questo genere di cose e ci possa regalare appagamento.
appleroof
15-04-2007, 21:24
Come abbiamo sempre visto non ci saranno vittorie o perdite facili. Ognuno ha anche un parco di programmatori un po' piu' di parte con cui sicuramente certi titoli andranno meglio (nulla di scandaloso, e' logica di mercato) e altri in cui andranno peggio senza un motivo facilmente apparente.
Cosi' quello che importera' sara' sperare in qualche innovazione proprietaria tale da farci dimenticare questo genere di cose e ci possa regalare appagamento.
Come vedi le cose alla luce delle dx10? Dove andranno a differenziarsi veramente le 2 proposte?
:read: :)
con l'ultima parte del post hai in parte risposto alla mia domanda, ma visto che le dx10 dovrebbero "standardizzare" il tutto, secondo te la gestione della fisica ad esempio potrebbe essere un elemento di differenziazione?
Come vedi le cose alla luce delle dx10? Dove andranno a differenziarsi veramente le 2 proposte?
Impossibile dirlo ora non sapendo nulla delle scelte di AMD per R600 che siano veramente ufficiali.
Ma il futuro dei titoli su PC imho prendera' una piega in cui non bastera' testare un titolo o come la scheda performera' in un certo tipo di calcolo. La filosofia general purpose alla base delle Directx10 spremera' l'hardware su molti piu' aspetti non appena gli sviluppatori prenderanno mano con queste api sempre che lo facciano in tempo con questa generazione di GPU.
Questo significhera' che ci saranno tanti di quegli aspetti da considerare che i benchmark diventeranno molto piu' complessi e forse ancora meno significativi.
E c'e' anche da dire che si sta andando verso anni in cui queste aziende fanno scelte sempre piu' (fortunatamente) interessanti in ambito marketing (vedi acquisizione ATI) ed e' ovvio che certe mosse sconvolgano tutto il mercato compreso quello dei concorrenti; imho ne vedremo delle... "strane" piu che delle belle.
l'ho preso da uno che so che ne ha una. dopotutto i valori coincidono con quelli postati da te. per carità mi informo meglio.
chiesto ha confermato ne ha una sola.
...te l'ho chiesto solo come informazione generale. soprattutto perchè molte volte c'è scritto "Video Memory 1024 Mb" e non si capisce (io mica l'ho ancora capito :fagiano: ) quand'è una configurazione SLI o no.
:)
Ma il futuro dei titoli su PC imho prendera' una piega in cui non bastera' testare un titolo o come la scheda performera' in un certo tipo di calcolo. La filosofia general purpose alla base delle Directx10 spremera' l'hardware su molti piu' aspetti non appena gli sviluppatori prenderanno mano con queste api sempre che lo facciano in tempo con questa generazione di GPU.
Questo significhera' che ci saranno tanti di quegli aspetti da considerare che i benchmark diventeranno molto piu' complessi e forse ancora meno significativi.
...quoto ed aggiungo che secondo me dovremo dimenticarci delle vga come le abbiamo conosciute sino ad oggi. Andiamo sempre più verso ad una futuro in cui la vga sarà "più di una semplice scheda video". Calcoli ed unità capaci di calcolare la fisica (ed in questo forse decretando la fine definitiva di soluzioni come Ageia), una parte della vga che si occupa del suono (se i rumors si confermano R600 aprirà la strada in questo campo), integrazione sempre più forte con la cpu. Insomma, secondo me le api Dx10 (e relativo hw) ci daranno tante di quelle novità che il passaggio Dx8/Dx9 ci sembrerà una cosa da nulla.
:)
Sinceramente a me interessa molto di più il gap potenziale di prezzo (oltre 100€ in meno) a parità di prestazioni... :sofico:
se si verificheranno queste aspettative, ne venderanno a pacchi come al supermercato.
Alexkidd85
16-04-2007, 02:03
Si ok però,evoluzione a parte,ora come ora,basandoci su "quasi niente" e prendendo per assurdo che quel "quasi" sia vero e che i driver siano una "bozza" e partendo sempre dal presupposto che l'amd/ati non sono 4 cretini buttati li(e che quindi avranno o sperano di aver calcalato tutto a puntino),sono passati troppi mesi per andare a tamponare con una scelta che andrà -10% più forte di una gtx...sotto questo aspetto mi sento allora di stringere la mano a chi a dicembre prese la gtx,se si ritrova ancora oggi con una vga che ancora ballonzola per la leadership.
Diciamo che se i driver porteranno ad un gap prestazionale maggiore,sarò felice di aver aspettato e ci conto...
Facendo un discorso di "3dmark" e non di applicazioni...conto che i driver nuovi facciano almeno 11000(10% e rotti in più) con riferimento e6600@default allo '06 ovviamente :)
Ovviamente il tutto SE non ci stanno facendo un GRAN pacco e se l'amico non ci sta prendendo per il culo in una maniera che non saprei se stringergli la mano o prenderlo a pedate :D
TecnoWorld8
16-04-2007, 03:17
questa XT proprio non mi convince. Costerà anche "poco" (se sarà 399$), ma io per cambiare scheda voglio qualcosa che superi l'attuale top, tra l'altro uscito 7 mesi fa, di almeno 20%.
Per questo spero esca una XTX, a 500$ circa, con quelle prestazioni.
Certo, mi fa un po' ridere l'idea di AMD/ATi di far uscire tutti i prodotti contemporaneamente...ma non la XTX...dopotutto nVidia non si era fatta remore a far uscire GTS e GTX insieme, anche se già GTS era superiore al top di ATi...
dai commenti letti finora deduco che molti degli utenti che postano su questo thread prendono le schede video per sentirsi "superiori" al resto del mondo. Guai se la scheda va "solo" il 10% in meno dell'avversaria, e' troppo poco..e anche se costa di meno, chissenefrega, tanto i soldi mi escono dalle orecchie :sofico:
Tra pochi mesi esce l'evoluzione...mado' allora devo aspettare, se no il primo ganzo che arriva si prende l'XTX e mi supera :cry: e io mi chiedo..si e' ridotta davvero a questo la passione per le schede grafiche?
Io questa passione l'assaporo soprattutto avendo una scheda grafica non ultimo modello e cercando di sfruttarla, di ottimizzarne l'uso in QUALSIASI gioco, documentandomi sui settaggi, sui tweaking, e non seguendo a ruota libera il consumismo che ci propinano (e non capisco proprio chi ci casca con tutte le scarpe e se ne vanta pure :asd: )
Piccola digressione, scusate il forse OT
bYeZ!
halduemilauno
16-04-2007, 07:18
questa XT proprio non mi convince. Costerà anche "poco" (se sarà 399$), ma io per cambiare scheda voglio qualcosa che superi l'attuale top, tra l'altro uscito 7 mesi fa, di almeno 20%.
Per questo spero esca una XTX, a 500$ circa, con quelle prestazioni.
Certo, mi fa un po' ridere l'idea di AMD/ATi di far uscire tutti i prodotti contemporaneamente...ma non la XTX...dopotutto nVidia non si era fatta remore a far uscire GTS e GTX insieme, anche se già GTS era superiore al top di ATi...
ma non è che non vuole non può o non ha potuto farlo finora. ora con la xt ati ha parato la minaccia, ha messo una toppa. con sei mesi di ritardo ma ha nel complesso raggiunto la 8800gtx. a questo punto è alla finestra. si prende ulteriore tempo per sistemare la xtx e valuta cosa farà nvidia. che a sua volta valuterà l'impatto xt e si comporterà di conseguenza.
quindi non ci resta che aspettare su quanto sarà valida la risposta di ati con la xt. lo sapremo il 24 aprile.
;)
Si ok però,evoluzione a parte,ora come ora,basandoci su "quasi niente" e prendendo per assurdo che quel "quasi" sia vero e che i driver siano una "bozza" e partendo sempre dal presupposto che l'amd/ati non sono 4 cretini buttati li(e che quindi avranno o sperano di aver calcalato tutto a puntino),sono passati troppi mesi per andare a tamponare con una scelta che andrà -10% più forte di una gtx...sotto questo aspetto mi sento allora di stringere la mano a chi a dicembre prese la gtx,se si ritrova ancora oggi con una vga che ancora ballonzola per la leadership.
Diciamo che se i driver porteranno ad un gap prestazionale maggiore,sarò felice di aver aspettato e ci conto...
Facendo un discorso di "3dmark" e non di applicazioni...conto che i driver nuovi facciano almeno 11000(10% e rotti in più) con riferimento e6600@default allo '06 ovviamente :)
Ovviamente il tutto SE non ci stanno facendo un GRAN pacco e se l'amico non ci sta prendendo per il culo in una maniera che non saprei se stringergli la mano o prenderlo a pedate :D
Nessun gran pacco: loro ti dicono "Noi facciamo uscire la version MIDDLE-HIGH end, non l'a HIGH end. Questo li tutela sul fatto che se questa versione sara' """"solo"""" 10% migliore della GTX qua e la', la versione al top lo sara' ancora di piu' e quindi appaghera' molto di piu' quelli che si aspettavano un mostro.
Sempre che sia questa la scelta e la politica attuale di questo lancio puo' essere considerata una tattica un po' "vigliacca" ma in effetti a questo punto direi che potrebbe funzionare.
Il bandolo della matassa e' solo uno: per dimostrare se il gap di tempo e' valso in termini di progettazione e infine in termini di prestazioni, AMD dovra' per forza di cose mostrare la versione TOP e tutta la situazione si risolvera' con un successo o insuccesso a seconda di quanto (ma sopratutto quando) questa "futura" scheda performera' rispetto alla concorrente.
Se Nvidia dal canto suo sta' attendendo sicuramente AMD per far si che le carte siano scoperte una volta per tutte, sa benissimo che per affondare un colpo del genere """"le basta"""" far uscire anch'essa un'evoluzione cosi' potente da superare per un'altro (es) 20% la TOP end di AMD.
SE e solo SE questo accadra' allora concordero' nel dire che AMD potrebbe essere a livello di immagine in una situazione un po' delicata. C'e' da considerare pero' che non solo le prestazioni potrebbero essere il punto focale della questione. A fronte di un entrata nel (es) "mercato" dell'audio con queste proprie soluzioni magari il focus si spostera' anche su un discorso di "dotazione" e non solo di mere percentuali sui frames al secondo. (magari)
halduemilauno
16-04-2007, 08:25
per confronto visto che se ne è parlato.
http://img167.imageshack.us/img167/5953/3dmarkres2ie2.jpg
650/2000 con i nuovi driver 158.16.
;)
the inquirer è sempre da prendere con le molle:
http://uk.theinquirer.net/?article=38923
però riporta cose interessanti:
The RV610LE will be known to the world as Radeon HD 2400 Pro, and will support 720p HD playback. If you want 1080p HD playback, you have to get a faster performing part. In addition, the HD2400Pro will be paired with DDR2 memory only, the very same chips many of enthusiasts use as their system memory - DDR2-800 or PC2-6400, 800 MHz memory. The reason for the 720p limitation is very simple - this chip heads against G86-303 chip with 64-bit memory interface, the 8300 series. It goes without saying that the RV610LE is a 64-bit chip as well.
The second in line is RV610Pro chip, branded Radeon HD 2400 XT. This pup is paired with GDDR3 memory and is the first chip able to playback Full HD video (1920x1080), thanks to the fact that this is a fully-fledged RV610 GPU, no ultra-cheap-64-bit-only-PCB. RV630 Pro is an interesting one. Formally named Radeon HD 2600 Pro, it sports the very same DDR2 memory used on HD 2400Pro and GeForce 8500GTs we have, but there are some memory controller differences that will be revealed to you as soon as we get permission to put the pictures online.
The RV630XT - the Radeon HD 2600 XT - is nearly identical to the Pro version when it comes to the GPU, but this board is a monster when it comes to memory support, just like its predecessor, the X1600XT. However, this is the only product in the whole launch day line-up that has support for both GDDR-3 and GDDR-4 memory types. Both GDDR-3 and GDDR-4 memory will end up clocked to heavens high, meaning the excellent 8600GTS will have a fearsome competitor.
The R600 512MB is the grand finale. R600 is HD 2900 XT, as our Wily already disclosed. This board packs 512MB of GDDR-3 memory from Samsung, and offers same or a little better performance than 8800GTX, at a price point of 8800GTS. R600 GPU supports two independent video streams, so even a dual-link DVI can be done, even though we doubt this was high on AMD's priority list. This product is nine months late, and a refresh is around the corner, unless AMD continues to execute as ATi did.
The R600 1GB is very interesting. Originally, we heard about this product as a GDDR-4 only, and it is supposed to launch on Computex. We heard more details, and now you need to order at least 100 cards to get it, it will be available in limited quantities only. We expect that ATi will refrain from introduction until a dual-die product from nV shows up, so that AMD can offer CrossFire version with 2GB of video memory in total, for the same price as Nvidia's 1.5GB. Then again, in the war of video memory numbers, AMD is now losing to Nvidia flat-out.
AMD compromised its own product line-up with this 512MB card being the launch one, and no amount of marketing papers and powerpointery can negate the fact that AMD is nine months late and has 256MB of memory less than a six month old flagship product from the competitor.
the inquirer è sempre da prendere con le molle:
http://uk.theinquirer.net/?article=38923
però riporta cose interessanti:
Cose interessantissime imho e possibili a questo punto della situazione. Se cosi' fosse qualcosa comincia a farmi riflettere sulla fascia alta ma e' meglio aspettare.
Alexkidd85
16-04-2007, 08:46
Nessun gran pacco: loro ti dicono "Noi facciamo uscire la version MIDDLE-HIGH end, non l'a HIGH end. Questo li tutela sul fatto che se questa versione sara' """"solo"""" 10% migliore della GTX qua e la', la versione al top lo sara' ancora di piu' e quindi appaghera' molto di piu' quelli che si aspettavano un mostro.
Sempre che sia questa la scelta e la politica attuale di questo lancio puo' essere considerata una tattica un po' "vigliacca" ma in effetti a questo punto direi che potrebbe funzionare.
Il bandolo della matassa e' solo uno: per dimostrare se il gap di tempo e' valso in termini di progettazione e infine in termini di prestazioni, AMD dovra' per forza di cose mostrare la versione TOP e tutta la situazione si risolvera' con un successo o insuccesso a seconda di quanto (ma sopratutto quando) questa "futura" scheda performera' rispetto alla concorrente.
Se Nvidia dal canto suo sta' attendendo sicuramente AMD per far si che le carte siano scoperte una volta per tutte, sa benissimo che per affondare un colpo del genere """"le basta"""" far uscire anch'essa un'evoluzione cosi' potente da superare per un'altro (es) 20% la TOP end di AMD.
SE e solo SE questo accadra' allora concordero' nel dire che AMD potrebbe essere a livello di immagine in una situazione un po' delicata. C'e' da considerare pero' che non solo le prestazioni potrebbero essere il punto focale della questione. A fronte di un entrata nel (es) "mercato" dell'audio con queste proprie soluzioni magari il focus si spostera' anche su un discorso di "dotazione" e non solo di mere percentuali sui frames al secondo. (magari)
Sono d'accordissimo ma per "pacco" mi riferivo alle notizie e bench che stanno uscendo :D
per confronto visto che se ne è parlato.
http://img167.imageshack.us/img167/5953/3dmarkres2ie2.jpg
650/2000 con i nuovi driver 158.16.
;)
Beh sono rimasto con la boca aperta,poi l'ho chiusa rileggendo che erano ultimi driver e c'è un quad core di mezzo :p
Nota come 400 punti li hai(ha) presi o dall'overclock o dal passaggio a driver "nuovi" visto che si nota il risultato di prima.
Credo che il più attendibile sia quello del mio amico....
halduemilauno
16-04-2007, 08:48
Sono d'accordissimo ma per "pacco" mi riferivo alle notizie e bench che stanno uscendo :D
Beh sono rimasto con la boca aperta,poi l'ho chiusa rileggendo che erano ultimi driver e c'è un quad core di mezzo :p
ma non è che non contano.
;)
dai commenti letti finora deduco che molti degli utenti che postano su questo thread prendono le schede video per sentirsi "superiori" al resto del mondo. Guai se la scheda va "solo" il 10% in meno dell'avversaria, e' troppo poco..e anche se costa di meno, chissenefrega, tanto i soldi mi escono dalle orecchie :sofico:
Tra pochi mesi esce l'evoluzione...mado' allora devo aspettare, se no il primo ganzo che arriva si prende l'XTX e mi supera :cry: e io mi chiedo..si e' ridotta davvero a questo la passione per le schede grafiche?
Io questa passione l'assaporo soprattutto avendo una scheda grafica non ultimo modello e cercando di sfruttarla, di ottimizzarne l'uso in QUALSIASI gioco, documentandomi sui settaggi, sui tweaking, e non seguendo a ruota libera il consumismo che ci propinano (e non capisco proprio chi ci casca con tutte le scarpe e se ne vanta pure :asd: )
Piccola digressione, scusate il forse OT
bYeZ!
*
(in questo thread s'è quotato di tutto, a me lasciatemi quotare questo post)
:)
Sinceramente a me interessa molto di più il gap potenziale di prezzo (oltre 100€ in meno) a parità di prestazioni... :sofico:
se si verificheranno queste aspettative, ne venderanno a pacchi come al supermercato.
Tutto sta a vedere se nVidia applicherà un ribasso dei prezzi, anche se è indubbio che, qualora ciò si verificasse, prima che i vari shop si adeguino passerà del tempo: in questo caso, poiché di sicuro nVidia ne sa molto più di noi sul prezzo di lancio di R600XT, penso che avrebbe dovuto già agire, per avvantaggiarsi ancora di più. Cmnq staremo a vedere: ormai non vedo l'ora di sapere come sarà 'sta malebenedetta R600.
Kharonte85
16-04-2007, 09:50
the inquirer è sempre da prendere con le molle:
http://uk.theinquirer.net/?article=38923
però riporta cose interessanti:
This product is nine months late, and a refresh is around the corner, unless AMD continues to execute as ATi did.
Se è vero questo mi sa che aveva ragione appleroof :stordita:
Cmq ha tralasciato di dire se la fascia media sara' a 128bit o altro...:mc:
La fascia bassa a 64bit è davvero brutta da vedere... :Puke:
ma non è che non contano.
;)
Beh, se devi fare un confronto con una scheda non overcloccata e con drivers alpha, quel risultato serve davvero a poco, oltre che essere lievemente OT. ;)
TecnoWorld8
16-04-2007, 11:45
ATi7500: proprio no, almeno x quanto mi riguarda. io voglio prendere una scheda che mi DURI il più possibile. ad agosto, quando ho preso la scheda in sign, l'ho fatto dicendo: "prendo questa, che costa poco e si overclocka un botto, così mi dura fino all'uscita delle prossime high-end nVidia".
La XT, avendo prestazioni di una GTX uscita 7 mesi fa, secondo me semplicemente non durerà quanto voglio io. Preferisco spendere 100 euro in più e tenere una scheda 6 mesi in più.
Sinceramente me ne frego di avere una scheda + potente degli altri, tanto più che la cosa sarebbe versa solo per alcuni mesi, data l'evoluzione naturale dell'hw. Io progetto di tenere la eventuale R600 per almeno (e sottolineo almeno) 1 anno e mezzo, possibilmente 2 anni, magari cambiando, tra un anno circa, il resto del PC.
Per questo, una scheda che fatica a fare 10000 in 3DMark06 già ora non mi da affidamento per il futuro. Vorrei almeno un 12500/13000 con una CPU tipo la mia in sign.
TecnoWorld8
16-04-2007, 11:51
e comunque sono d'accordissimo con questa frase:
AMD compromised its own product line-up with this 512MB card being the launch one, and no amount of marketing papers and powerpointery can negate the fact that AMD is nine months late and has 256MB of memory less than a six month old flagship product from the competitor.
Secondo me, anche se supererà leggermente la GTX e avrà un vantaggio di prezzo, OGNI recensione dirà innegabilmente che questo è stato fatto con 7 mesi abbondanti di ritardo rispetto ad nVidia e che nonostante tutti questi mesi (che nell'hw sono pari quasi all'uscita di una nuova generazione di GPU) ATi non è riuscita a fare un prodotto che staccasse GTX come GTX aveva staccato la precedente generazione.
Se la XT sarà così, per me sarà una grossa delusione, davvero. Sia tecnica, sia per l'immagine di ATi.
e comunque sono d'accordissimo con questa frase:
Secondo me, anche se supererà leggermente la GTX e avrà un vantaggio di prezzo, OGNI recensione dirà innegabilmente che questo è stato fatto con 7 mesi abbondanti di ritardo rispetto ad nVidia e che nonostante tutti questi mesi (che nell'hw sono pari quasi all'uscita di una nuova generazione di GPU) ATi non è riuscita a fare un prodotto che staccasse GTX come GTX aveva staccato la precedente generazione.
Se la XT sarà così, per me sarà una grossa delusione, davvero. Sia tecnica, sia per l'immagine di ATi.
Non se un'eventuale versione high end (+ high end di questa) uscisse quasi a tempo e con un netto distacco.
kartoshka
16-04-2007, 12:38
nuovi immagini di RV630/610 :D
http://www.vtr-hardware.com/news/rv630xt-rv630-rv610-n9684.html
TecnoWorld8
16-04-2007, 12:43
Simon82: certo, a quel punto sono d'accordissimo. Tanto che tale "high-high end" la acquisterei :)
e comunque sono d'accordissimo con questa frase:
Secondo me, anche se supererà leggermente la GTX e avrà un vantaggio di prezzo, OGNI recensione dirà innegabilmente che questo è stato fatto con 7 mesi abbondanti di ritardo rispetto ad nVidia e che nonostante tutti questi mesi (che nell'hw sono pari quasi all'uscita di una nuova generazione di GPU) ATi non è riuscita a fare un prodotto che staccasse GTX come GTX aveva staccato la precedente generazione.
Se la XT sarà così, per me sarà una grossa delusione, davvero. Sia tecnica, sia per l'immagine di ATi.
:eek: E come avrebbe mai potuto fare ? Mi puoi dire quando è successo che tra due schede della stessa generazione e fascia c'è stato un distacco del 100%. Con queste aspettative è logico che R600 non ti soddisfa, ma se continui con questa idea dovrai aspettare ancora a lungo prima di vedere una scheda che vada il doppio della GTX.
Apix_1024
16-04-2007, 12:44
nuovi immagini di RV630/610 :D
http://www.vtr-hardware.com/news/rv630xt-rv630-rv610-n9684.html
bella grossa la rv630xt... dicono che dovrebbe andare meglio di una x1900xtx... staremo a vedere:rolleyes:
TecnoWorld8
16-04-2007, 12:46
jok3r87: dire che gtx stacca la 1950xtx del 100% è esagerato. forse quello è vero per due GTX in SLI.
In ogni caso, da un prodotto 7 mesi più nuovo, mi attendo almeno un 25% di prestazioni in più allo stesso prezzo.
ATi7500: proprio no, almeno x quanto mi riguarda. io voglio prendere una scheda che mi DURI il più possibile. ad agosto, quando ho preso la scheda in sign, l'ho fatto dicendo: "prendo questa, che costa poco e si overclocka un botto, così mi dura fino all'uscita delle prossime high-end nVidia".
La XT, avendo prestazioni di una GTX uscita 7 mesi fa, secondo me semplicemente non durerà quanto voglio io. Preferisco spendere 100 euro in più e tenere una scheda 6 mesi in più.
Sinceramente me ne frego di avere una scheda + potente degli altri, tanto più che la cosa sarebbe versa solo per alcuni mesi, data l'evoluzione naturale dell'hw. Io progetto di tenere la eventuale R600 per almeno (e sottolineo almeno) 1 anno e mezzo, possibilmente 2 anni, magari cambiando, tra un anno circa, il resto del PC.
Per questo, una scheda che fatica a fare 10000 in 3DMark06 già ora non mi da affidamento per il futuro. Vorrei almeno un 12500/13000 con una CPU tipo la mia in sign.
Secondo me, anche se supererà leggermente la GTX e avrà un vantaggio di prezzo, OGNI recensione dirà innegabilmente che questo è stato fatto con 7 mesi abbondanti di ritardo rispetto ad nVidia e che nonostante tutti questi mesi (che nell'hw sono pari quasi all'uscita di una nuova generazione di GPU) ATi non è riuscita a fare un prodotto che staccasse GTX come GTX aveva staccato la precedente generazione.
Se la XT sarà così, per me sarà una grossa delusione, davvero. Sia tecnica, sia per l'immagine di ATi.
Purtroppo sono discorsi già fatti millemila volte...
- I giochi DX9, che domineranno la scena (almeno per numero) per un altro annetto scarso difficilmente metteranno in difficoltà una 8800GTX o una 2900XT.
- I giochi DX10 non ci sono ancora, dunque non si sa nè come andranno le nVidia nè le ATi
- Come molti hanno già detto, i 3DMark06 già in passato stavano perdendo di significato (almeno come punteggio assoluto), ma con le schede DX10 potrebbero risultare addirittura fuorvianti. La situazione della 8600GTS potrebbe essere emblematica: ha punteggi simili ad una 7900GTX ma va molto peggio, a quanto pare.
- Le 8800 staccavano la concorrenza perchè erano la nuova generazione di schede. Le R600 fanno parte della stessa generazione, quindi era impossibile che andassero molto meglio delle controparti nVidia...
- Capitolo "durata": comunque 8800GTX e 2900XT avranno "durate" simili. Se tu compri oggi la tal scheda, comunque non ti interessa niente se quella scheda è uscita prima o dopo. Guarderai prezzo e prestazioni. Punto.
- Il "ritardo" rimane un falso problema. Giochi DX10 non ce n'erano a novembre e non ce ne saranno all'uscita di R600 a Maggio. Giochi che mettessero davvero in difficoltà le schede DX9 high-end ATi e nVidia non ce n'erano a novembre e non ce ne sono ancora oggi. L'unico vantaggio di nVidia sta nel fatto che in questi 6 mesi scarsi chi voleva spendere oltre 400€ (che ricordo non sono tantissimi, rapportati al totale, anzi) per una scheda video poteva scegliere solo nel suo catalogo.
Tra l'altro non è che più tempo ci metti più potente diventa la scheda. Il ritardo di ATi è probabilmente da attribuirsi alle diverse scelte in sede di progettazione, alle difficoltà interne indipendenti dallo sviluppo della scheda, ecc...
- Tra qualche mese potrebbero uscire schede più potenti (la Ultra e la XTX)? A parte la difficoltà di reperire tali schede (dato che già parlano della 8800 Ultra in serie limitata), devi anche aggiungere che rischierai di pagare 100-200€ in più per prestazioni che saranno nella migliore delle ipotesi il 20% più alte.
In ogni caso, da un prodotto 7 mesi più nuovo, mi attendo almeno un 25% di prestazioni in più allo stesso prezzo.
io mi accontenterei anche stesse prestazioni ma a un costo del 25% inferiore...:asd:
jok3r87: dire che gtx stacca la 1950xtx del 100% è esagerato. forse quello è vero per due GTX in SLI.
In ogni caso, da un prodotto 7 mesi più nuovo, mi attendo almeno un 25% di prestazioni in più allo stesso prezzo.
Dovevo scrivere 50% :doh:
R600 non è più nuovo di 7 mesi.
io mi accontenterei anche stesse prestazioni ma a un costo del 25% inferiore...:asd:
Esattamente :D
TecnoWorld8
16-04-2007, 13:02
jok3r87: è quello il problema...R600 è più nuovo di 7 mesi SOLO per quanto concerne l'uscita sul mercato...
Athlon 64 3000+
16-04-2007, 13:08
se la Radeon HD 2900XT andarà come la 8800GTX e costerà "solo" 400 euro sarà un gran affare e io la prenderò appena posso e chisse ne frega se è uscita 6 mesi dopo.
Soulbringer
16-04-2007, 13:09
Purtroppo sono discorsi già fatti millemila volte...
- I giochi DX9, che domineranno la scena (almeno per numero) per un altro annetto scarso difficilmente metteranno in difficoltà una 8800GTX o una 2900XT.
- I giochi DX10 non ci sono ancora, dunque non si sa nè come andranno le nVidia nè le ATi
- Come molti hanno già detto, i 3DMark06 già in passato stavano perdendo di significato (almeno come punteggio assoluto), ma con le schede DX10 potrebbero risultare addirittura fuorvianti. La situazione della 8600GTS potrebbe essere emblematica: ha punteggi simili ad una 7900GTX ma va molto peggio, a quanto pare.
- Le 8800 staccavano la concorrenza perchè erano la nuova generazione di schede. Le R600 fanno parte della stessa generazione, quindi era impossibile che andassero molto meglio delle controparti nVidia...
- Capitolo "durata": comunque 8800GTX e 2900XT avranno "durate" simili. Se tu compri oggi la tal scheda, comunque non ti interessa niente se quella scheda è uscita prima o dopo. Guarderai prezzo e prestazioni. Punto.
- Il "ritardo" rimane un falso problema. Giochi DX10 non ce n'erano a novembre e non ce ne saranno all'uscita di R600 a Maggio. Giochi che mettessero davvero in difficoltà le schede DX9 high-end ATi e nVidia non ce n'erano a novembre e non ce ne sono ancora oggi. L'unico vantaggio di nVidia sta nel fatto che in questi 6 mesi scarsi chi voleva spendere oltre 400€ (che ricordo non sono tantissimi, rapportati al totale, anzi) per una scheda video poteva scegliere solo nel suo catalogo.
Tra l'altro non è che più tempo ci metti più potente diventa la scheda. Il ritardo di ATi è probabilmente da attribuirsi alle diverse scelte in sede di progettazione, alle difficoltà interne indipendenti dallo sviluppo della scheda, ecc...
- Tra qualche mese potrebbero uscire schede più potenti (la Ultra e la XTX)? A parte la difficoltà di reperire tali schede (dato che già parlano della 8800 Ultra in serie limitata), devi anche aggiungere che rischierai di pagare 100-200€ in più per prestazioni che saranno nella migliore delle ipotesi il 20% più alte.
Straquoto.
Poi non capisco gente che ha una x1900,7900 o 8800 e si lamenta del ritardo di r600..ma che ve ne fate?tanto gia con una x1800xt oggi si gioca da dio.
kartoshka
16-04-2007, 13:09
bella grossa la rv630xt... dicono che dovrebbe andare meglio di una x1900xtx... staremo a vedere:rolleyes:
In effetti da per tutto ce scritto che andrà meglio di x1900xtx :eek:
In 3dmark05 fa intorno @ 12000/12500P!! non male..
jok3r87: è quello il problema...R600 è più nuovo di 7 mesi SOLO per quanto concerne l'uscita sul mercato...
Si ma se esce ad un prezzo nettamente inferiore e performa come la GTX il suo senso comunque ce l'ha no? ;)
TecnoWorld8
16-04-2007, 13:10
Soulbringer: hai ragione al 100%. io non mi lamento del ritardo in sè...mi lamento se il ritardo non porta reale innovazione! per me la xtx può uscire anche a giugno, ma la vorrei a 65nm (con consumo massimo 180W) e 30% + veloce di GTX...
gianni1879
16-04-2007, 13:12
quoto in pieno
Straquoto.
Poi non capisco gente che ha una x1900,7900 o 8800 e si lamenta del ritardo di r600..ma che ve ne fate?tanto gia con una x1800xt oggi si gioca da dio.
bhe oddio...dipende..coi giochi d'oggi non è sempre scontato
bhe oddio...dipende..coi giochi d'oggi non è sempre scontato
purtroppo è vero, a 1680x1050 la mia x1900xt è alle corde. Cmq mi accontento,benchè sia molto curioso di questa nuova GPU, r600 lo guarderò da lontano :D
Alexkidd85
16-04-2007, 13:38
Straquoto.
Poi non capisco gente che ha una x1900,7900 o 8800 e si lamenta del ritardo di r600..ma che ve ne fate?tanto gia con una x1800xt oggi si gioca da dio.
Se scediamo a compremessi si gioca "Da Dio" se non scendiamo,si giochicchia bene(che comunque è un bel vedere).
Ti faccio 3 nomi: Double Agent,Vegas e ti piazzo ancora il classico Oblivion che in spazi aperti e senza mod applicate(se lo moddi...oddio!!) scende sotto la soglia del gioco "Da Dio" dei 25/20 fps...come i primi 2 :D
Quindi,si...non mi lamento affatto ma,vuoi che i giochi sono poco ottimizzati,ma se metti tutto al max a 1280...mi trovi in disaccordo con te nel "gioco Da Dio".
Ripeto,se scendiamo a compremessi gestendo filtri e hdr...allora si...giochiamo molto bene :D
jok3r87: è quello il problema...R600 è più nuovo di 7 mesi SOLO per quanto concerne l'uscita sul mercato...
Capisco che si vogliano schede sempre più potenti ma non è cosi semplice produrle, ad esempio le x1800 non erano molto più potenti delle 7800 eppure con la tua scheda riesci a giocare bene con tutto quello che è uscito fino ad oggi. Per quanto riguarda il rapporto nm consumi, fino ad ora ad una riduzione del processo produttivo non è corrisposto un abbassamento dei consumi, ma un aumento dei transistor con conseguenzte aumento della capacita elaboriva e dei consumi.
Andrea deluxe
16-04-2007, 14:09
infatti!!!
mettiamo un bel "PER ME" in certe affermazioni!
Io purtroppo sono alle corde con la mia x1900xtx, e stalker non posso giocarlo alla risoluzione del mio monitor, una eventuale hd 2900xtx da 1gb mi darebbe soddisfazioni adesso e nell' immediato futuro (NFS next) (CRYSIS) (ETC)
TecnoWorld8
16-04-2007, 14:16
Andrea deluxe: vero. se si gioca ad oltre 1280x1024, penso che ormai sia necessaria una GTS almeno...
infatti!!!
mettiamo un bel "PER ME" in certe affermazioni!
Io purtroppo sono alle corde con la mia x1900xtx, e stalker non posso giocarlo alla risoluzione del mio monitor, una eventuale hd 2900xtx da 1gb mi darebbe soddisfazioni adesso e nell' immediato futuro (NFS next) (CRYSIS) (ETC)
Beh, ma la tua è una situazione estrema... Non è che ci siano così tante persone con un monitor 27"... :eek: :D
La stragrande maggioranza delle persone gioca a risoluzioni inferiori a 1600x1200.
TecnoWorld8
16-04-2007, 14:20
con un 27" da 1920x1200 magari pochi, ma con 22" da 1650x1080 sempre di più, dato il costo ormai sotto i 300 euro di questi ultimi...
Free Gordon
16-04-2007, 14:43
bella grossa la rv630xt... dicono che dovrebbe andare meglio di una x1900xtx... staremo a vedere:rolleyes:
Da cosa lo evinci che è bella grossa? :stordita:
Guarda la lunghezza del pettine pci-e e fai un rapporto. ;)
Apix_1024
16-04-2007, 14:47
Da cosa lo evinci che è bella grossa? :stordita:
Guarda la lunghezza del pettine pci-e e fai un rapporto. ;)
guarda ho detto proprio cosi' a sensazione! la ventolozza posteriore mi sembrava bella grossa... magari e' solo un'impressione:stordita: :stordita:
e poi e' dual slot:muro: :muro:
halduemilauno
16-04-2007, 14:51
nuovi immagini di RV630/610 :D
http://www.vtr-hardware.com/news/rv630xt-rv630-rv610-n9684.html
per la cronaca sono vecchie di un mese.
In effetti da per tutto ce scritto che andrà meglio di x1900xtx :eek:
In 3dmark05 fa intorno @ 12000/12500P!! non male..
Da una parte mi piacerebbe che R630xt andasse come una X1900xtx (sempre se si riferiscono ai giochi e non al sempre più falsato 3dmark) dall'altra non ci credo... sarebbe un grosso divario con 8600gts, ed il prezzo ventilato finora per R630xt è minore di quest'ultima: a queste condizioni Amd/Ati avrebbe tutto lo spazio per poter prezzare R630xt come la concorrente e non far comunque vendere nemmeno una 8600gts a Nvidia, ma non lo fa. E mi pare strano :mbe:
Credo che si piazzerà, più verosimilmente, sui livelli di una X1950pro. Più della concorrente (che va come una X1950gt) e con un prezzo leggermente minore, ma non con un divario così grande.
E personalmente mi girano :muro: perchè mi ero quasi convinto a prendermi una X1950xt e giocare BENE per un annetto, poi cambiare con una scheda dello stesso livello dx10 quando ci saranno i giochi... ma se per assurdo R630xt avesse davvero le prestazioni di una X1900xtx, a meno di 200 dollari/euro, chi me lo fa fare di non passare ad una scheda dx10 ora... che palle, aspettiamo le recensioni.
Free Gordon
16-04-2007, 14:57
se la Radeon HD 2900XT andarà come la 8800GTX e costerà "solo" 400 euro sarà un gran affare e io la prenderò appena posso e chisse ne frega se è uscita 6 mesi dopo.
L'unico effetto che avrà l'arrivo di una ipotetica 2900XT 512 a 400 euro, sarà quello di far scendere alla stessa fascia di prezzo la GTX. ;)
Ovviamente ci vorrà un pochino ma considerando il fatto che di GTX non se ne vedono molte in giro attualmente, il passaggio non avverrà troppo lentamente.
Parlare di affare per una scheda da 400 euro secondo me non è sensato, soprattutto in assenza di giochi che le sfruttino! :D
L'unico effetto che avrà l'arrivo di una ipotetica 2900XT 512 a 400 euro, sarà quello di far scendere alla stessa fascia di prezzo la GTX. ;)
Ovviamente ci vorrà un pochino ma considerando il fatto che di GTX non se ne vedono molte in giro attualmente, il passaggio non avverrà troppo lentamente.
Parlare di affare per una scheda da 400 euro secondo me non è sensato, soprattutto in assenza di giochi che le sfruttino! :D
Ovviamente l'affare sara' per loro. ;)
O per gli enthusiast gamers..
Free Gordon
16-04-2007, 15:08
ma se per assurdo R630xt avesse davvero le prestazioni di una X1900xtx, a meno di 200 dollari/euro, chi me lo fa fare di non passare ad una scheda dx10 ora... che palle, aspettiamo le recensioni.
E beh, un problemone eh!! :D
Se una scheda va e costa come quella che volevi comprare e in più ha le DX10 che problema c'è nel prendere quella al posto della corrispettiva dx9? :D
Un conto è se la scheda dx10 costasse di più.. ora come ora non la prenderei nemmeno io. ;)
fudzilla dice che l'AA for free sarà possibile solamente a basse risoluzioni. Secondo loro è la solita propagando celodurista pre-launch :D
http://www.fudzilla.com/index.php?option=com_content&task=view&id=552&Itemid=1
E beh, un problemone eh!! :D
Se una scheda va e costa come quella che volevi comprare e in più ha le DX10 che problema c'è nel prendere quella al posto della corrispettiva dx9? :D
Un conto è se la scheda dx10 costasse di più.. ora come ora non la prenderei nemmeno io. ;)
Appunto, se. :D
Finchè si parla di prestazioni simili ad una x1950pro, mi sembra plausibile, ma visto la scarsità (uhm... per un anno, saranno si e no 4-5) di giochi dx10 e la maggior potenza della x1950xt, mi prendo la seconda e sono felice per un anno.
Ma se si parla di prestazioni simili alla x1900xtx le cose cambiano, a quel punto e prezzo si impone la R630xt :D solo che ancora son rumors, tocca aspettare per vedere cosa comprare.
Kharonte85
16-04-2007, 17:34
fudzilla dice che l'AA for free sarà possibile solamente a basse risoluzioni. Secondo loro è la solita propagando celodurista pre-launch :D
http://www.fudzilla.com/index.php?option=com_content&task=view&id=552&Itemid=1
Ce lo eravamo chiesti anche qua...ha scoperto l'acqua calda...:fagiano:
Ce lo eravamo chiesti anche qua...ha scoperto l'acqua calda...:fagiano:
Grande fudo :D
Secondo me, anche se supererà leggermente la GTX e avrà un vantaggio di prezzo, OGNI recensione dirà innegabilmente che questo è stato fatto con 7 mesi abbondanti di ritardo rispetto ad nVidia e che nonostante tutti questi mesi (che nell'hw sono pari quasi all'uscita di una nuova generazione di GPU) ATi non è riuscita a fare un prodotto che staccasse GTX come GTX aveva staccato la precedente generazione.
Se la XT sarà così, per me sarà una grossa delusione, davvero. Sia tecnica, sia per l'immagine di ATi.[/QUOTE]
Per molti altri utenti invece sette mesi di lavoro per produrre una scheda uguale e' un vero ritardo, come la mettiamo ??
Dopo tutto questo tempo mi aspetto una scheda almeno il 25% piu potente e magari ad un costo inferiore, di solito i Test si fanno con le schede al Top quindi GTX contro XTX.
:banned:
jok3r87: è quello il problema...R600 è più nuovo di 7 mesi SOLO per quanto concerne l'uscita sul mercato...
Dici solo... Cmq in compenso se ne parlava gia' che non si sapeva nulla di 8800GTX
se la Radeon HD 2900XT andarà come la 8800GTX e costerà "solo" 400 euro sarà un gran affare e io la prenderò appena posso e chisse ne frega se è uscita 6 mesi dopo.
Tutto da appurare se vada di + e a che risoluzioni e a che qualita grafica(512 di memoria contro 768)e se costi realmente 400€
Straquoto.
Poi non capisco gente che ha una x1900,7900 o 8800 e si lamenta del ritardo di r600..ma che ve ne fate?tanto gia con una x1800xt oggi si gioca da dio.
Io con la mia x 1900xt @ come in firma giocando a C&C 3 Timerium Wars quando faccio 50/60 veicoli e faccio uno scontro con altrettanti veicoli rallenta talmente il gioko che scatta.
scusate è un po che leggo ma se ormai le specifiche sono uscite e se sono vere, come potete pensare che una sk come la 2900 possa andare meno della 8800?
sulla carta secondo voi e meno potente?
visto che relamente non è ancora uscita quindi sono tutte ipotesi...
halduemilauno
16-04-2007, 18:39
scusate è un po che leggo ma se ormai le specifiche sono uscite e se sono vere, come potete pensare che una sk come la 2900 possa andare meno della 8800?
sulla carta secondo voi e meno potente?
visto che relamente non è ancora uscita quindi sono tutte ipotesi...
hai detto te sono ipotesi aspettiamo rece.
;)
halduemilauno
16-04-2007, 19:12
http://www.xtremesystems.org/forums/showpost.php?p=2131444&postcount=29
The X2900 XT (512mb/256bit) is slower then 8800 gtx.
The 2900 XT/512mb does 10200 in 3D 06 stock clocks vs 8800 gtx @ 10900
both using QX6700 @ 3.6 testing.
Yes, 8800 U is just pretty much what the 7800gtx 512mb was over an year ago.
I could sell them for an pretty penny, they never loss value as they were
so hard to find...
;)
Mister Tarpone
16-04-2007, 19:13
http://www.xtremesystems.org/forums/showpost.php?p=2131444&postcount=29
The X2900 XT (512mb/256bit) is slower then 8800 gtx.
The 2900 XT/512mb does 10200 in 3D 06 stock clocks vs 8800 gtx @ 10900
both using QX6700 @ 3.6 testing.
Yes, 8800 U is just pretty much what the 7800gtx 512mb was over an year ago.
I could sell them for an pretty penny, they never loss value as they were
so hard to find...
;)
256bit?? :eek:
Kharonte85
16-04-2007, 19:18
256bit?? :eek:
Rilancio: :eek:
Cmq rimango cauto...e poi chi c...o è quello ? :mbe:
appleroof
16-04-2007, 19:21
256bit?? :eek:
Rilancio: :eek:
Cmq rimango cauto...
E che c'è di strano? quella a 512bit (?) sarà quasi sicuramente l'evoluzione di questa top
e poi chi c...o è quello ? :mbe:
:asd:
halduemilauno
16-04-2007, 19:25
Rilancio: :eek:
Cmq rimango cauto...e poi chi c...o è quello ? :mbe:
nvidia ha annullato la 8800ultra.
:D
appleroof
16-04-2007, 19:26
nvidia ha annullato la 8800ultra.
:D
dai..........:eek: :asd: :asd:
kartoshka
16-04-2007, 19:28
Allora è confermato 65nm!!
Una HD2600xt @ 65nm+ddr4 con i consumi abbastanza buoni.., non mica male @200euro
halduemilauno
16-04-2007, 19:29
Allora è confermato 65nm!!
Una HD2600xt @ 65nm+ddr4 con i consumi abbastanza buoni.., non mica male @200euro
http://www.vr-zone.com/?i=4630
ma ti rendi conto che è una news del 10 febbraio?
;)
Kharonte85
16-04-2007, 19:30
ma ti rendi conto che è una news del 10 febbraio?
;)
:asd:
halduemilauno
16-04-2007, 19:31
Allora è confermato 65nm!!
Una HD2600xt @ 65nm+ddr4 con i consumi abbastanza buoni.., non mica male @200euro
http://www.vr-zone.com/?i=4630
lancio nel mese di APRILE :yeah:
forse non hai capito.
:rotfl: :rotfl: :rotfl:
kartoshka
16-04-2007, 19:31
ma ti rendi conto che è una news del 10 febbraio?
;)
in effetti mi sono confuso con la data accanto :muro:
halduemilauno
16-04-2007, 19:33
in effetti mi sono confuso con la data accanto :muro:
dai su non fare cosi.
;)
Kharonte85
16-04-2007, 19:34
in effetti mi sono confuso con la data accanto :muro:
Sei ancora nuovo ti devi fare un po' di "pelo"...:friend:
Soulbringer
16-04-2007, 19:41
Dici solo... Tutto da appurare se vada di + e a che risoluzioni e a che qualita grafica(512 di memoria contro 768)e se costi realmente 400€
Io con la mia x 1900xt @ come in firma giocando a C&C 3 Timerium Wars quando faccio 50/60 veicoli e faccio uno scontro con altrettanti veicoli rallenta talmente il gioko che scatta.
1. Da 768 mb a 512 non cambia nulla..inoltre r600 ha un bus a 512bit..quindi almeno andrà uguale o di più. E costerà di MENO..
2. Certo che se cerchiamo le situzioni impossibili e giochiamo a 2048*1536 tutto è possibile...allora tu mi dici che con una fascia media non potresti mai giocare a niente?
appleroof
16-04-2007, 19:43
1. Da 768 mb a 512 non cambia nulla..inoltre r600 ha un bus a 512bit..quindi almeno andrà uguale o di più. E costerà di MENO..
2. Certo che se cerchiamo le situzioni impossibili e giochiamo a 2048*1536 tutto è possibile...allora tu mi dici che con una fascia media non potresti mai giocare a niente?
Con certi giochi a risoluzioni elevate (quelle a cui sono per lo più destinate stè schede) cambia eccome ( per questo la futura top Ati avrà 1 giga, almeno pare), quanto al bus, pare sia 256bit ;)
Mister Tarpone
16-04-2007, 19:45
1. Da 768 mb a 512 non cambia nulla..inoltre r600 ha un bus a 512bit..quindi almeno andrà uguale o di più. E costerà di MENO..
2. Certo che se cerchiamo le situzioni impossibili e giochiamo a 2048*1536 tutto è possibile...allora tu mi dici che con una fascia media non potresti mai giocare a niente?
:sbonk: ma come no?? son sempre 256mb di ram in più!! mica bruscolini... non esagerare !!! :)
poi siam d'accordo ;) bisogna anche vedere che architettura c'è dietro :fagiano:
Soulbringer
16-04-2007, 19:46
256bit??Come è possibile?non credo che si possa cambiare architettura da un giorno all'altro così..sarà un fake.
Soulbringer
16-04-2007, 19:50
:sbonk: ma come no?? son sempre 256mb di ram in più!! mica bruscolini... non esagerare !!! :)
poi siam d'accordo ;) bisogna anche vedere che architettura c'è dietro :fagiano:
La 8800gts 320 rispetto alla versione da 640mb ci perde SOLO a risoluzione elevatissime superiori a 1920*1440 in alcuni giochi..e siccome qua (r600) si parla di 512 mb e non 320 non mi sembra che ci possa essere tutta questa enorme differenza.
Mister Tarpone
16-04-2007, 19:54
La 8800gts 320 rispetto alla versione da 640mb ci perde SOLO a risoluzione elevatissime superiori a 1920*1440 in alcuni giochi..e siccome qua (r600) si parla di 512 mb e non 320 non mi sembra che ci possa essere tutta questa enorme differenza.
la differenza aumenterà con i giochi che usciranno.
Per esempio... prova a far girare un Oblivion con il Qarl 3 texture prima su una 640, poi su una 320... e vedrai che differenza notevole :stordita: già a risoluzioni come la 1280x
La 8800gts 320 rispetto alla versione da 640mb ci perde SOLO a risoluzione elevatissime superiori a 1920*1440 in alcuni giochi..e siccome qua (r600) si parla di 512 mb e non 320 non mi sembra che ci possa essere tutta questa enorme differenza.
Solito discorso: la differenza c'è; c'è chi la vede e chi no. C'è chi gioca a 1280x1024 con i filtri ed è contento. E la 320 va benissimo. Ma prova a giocare a 1920x1200 con i filtri: le performance tra le due schede cambiano radicalmente. E la differenza si nota pure sui 22" wide (che costano meno di 300€, giusto per evitare di sentirmi dire "sì ma un monitor 1920x1200 lo hanno in pochissimi).
Io credo che la RAM su schede non TOP sia inutile (mi fanno ridere le schede da 50€ con 512Mbyte di RAM...) però su una scheda TOP a risoluzioni medio-alte con i filtri la differenza si sente tutta ;).
Alexkidd85
16-04-2007, 20:08
E ora che ho preso il Packard Bell 22" Maestro 220!? Come la "scattiamo" con oblivion!?
Scusate l'ot ero troppo contento..diciamo che è il mio regalo alla bimbetta che nascerà tra un pochino in casa amd :D
Scusate l'ot...ribadisco :sofico:
NB a conferma di una affermazione di VitOne
/me cerca in tutti i modi di avvicinarsi "all' IT" :asd:
Per chi dice che la 320 va benissimo guardatevi la rece su X-bit e poi riparliamone.
La 320 si impantana già a 1280x1024 con molto giochi (anche vecchi) :
Serius Sam 2
Gothic 3
NWN2
Company of Heroes
IMHO i 512 MiB sono al limite per chi ha monitor "extralarge", IMHO meglio aspettare R600 con un giga (anzi un gibi ;) )
Chi gioca a 1280x1024 dovrebbe stare nei 512 Mib tranquillo (almeno per ora :eek: )
TecnoWorld8
16-04-2007, 20:13
temo purtroppo che le considerazioni sull'ampiezza del BUS siano corrette. Se la scheda con 1GB ha il bus a 512bit, potrebbe benissimo essere che quella da 512MB l'abbia a 256bit. Un esempio è la GTS rispetto alla GTX; quest'ultima ha 6 canali a 64bit da 128MB l'uno, mentre la GTS ne ha 5.
Dunque:
5*128MB = 640MB, mentre 6*128MB=768MB
e
5*64bit = 320bit, mentre 6*64bit = 384bit
da cui la differenza di memoria e di ampiezza del BUS.
Se ora la XT ha 4 canali da 64bit e 128MB, avremo 256bit e 512MB rispettivamente. La XTX magari avrà 8 canali da 64bit e 128MB e dunque 512bit ed 1GB di memoria.
Skullcrusher
16-04-2007, 20:16
temo purtroppo che le considerazioni sull'ampiezza del BUS siano corrette. Se la scheda con 1GB ha il bus a 512bit, potrebbe benissimo essere che quella da 512MB l'abbia a 256bit. Un esempio è la GTS rispetto alla GTX; quest'ultima ha 6 canali a 64bit da 128MB l'uno, mentre la GTS ne ha 5.
Dunque:
5*128MB = 640MB, mentre 6*128MB=768MB
e
5*64bit = 320bit, mentre 6*64bit = 384bit
da cui la differenza di memoria e di ampiezza del BUS.
Se ora la XT ha 4 canali da 64bit e 128MB, avremo 256bit e 512MB rispettivamente. La XTX magari avrà 8 canali da 64bit e 128MB e dunque 512bit ed 1GB di memoria.
Il tuo ragionamento non fa una piega...potrebbe essere proprio così :fagiano:
appleroof
16-04-2007, 20:34
temo purtroppo che le considerazioni sull'ampiezza del BUS siano corrette. Se la scheda con 1GB ha il bus a 512bit, potrebbe benissimo essere che quella da 512MB l'abbia a 256bit. Un esempio è la GTS rispetto alla GTX; quest'ultima ha 6 canali a 64bit da 128MB l'uno, mentre la GTS ne ha 5.
Dunque:
5*128MB = 640MB, mentre 6*128MB=768MB
e
5*64bit = 320bit, mentre 6*64bit = 384bit
da cui la differenza di memoria e di ampiezza del BUS.
Se ora la XT ha 4 canali da 64bit e 128MB, avremo 256bit e 512MB rispettivamente. La XTX magari avrà 8 canali da 64bit e 128MB e dunque 512bit ed 1GB di memoria.
se non sbaglio (e qui ci vorrebbe qualcuno più esperto di me) quei tagli di bus valgono per il tradizionale crossbar di cui è dotato G80, mi pare che per il ringbus valgono altre "regole", fermo restando che l'ampiezza di bus sia cmq 256bit per 512mb 512/1giga, ripeto correggetemi se sbaglio
(che poi se ci fate caso sarebbe il bus della 8800gtx se avesse tagli "netti" di memoria, infatti probabilmente sulla prossima 8800ultra da 1 giga di v-ram -?- il bus potrebbe essere anche lì a 512bit, al 99,99%)
Kharonte85
16-04-2007, 20:44
se non sbaglio (e qui ci vorrebbe qualcuno più esperto di me) quei tagli di bus valgono per il tradizionale crossbar di cui è dotato G80, mi pare che per il ringbus valgono altre "regole", fermo restando che l'ampiezza di bus sia cmq 256bit per 512mb 512/1giga, ripeto correggetemi se sbaglio
Infatti, quel discorso vale per G80 ma per r-600 potrebbe (e dovrebbe) essere del tutto diverso...;)
Per chi dice che la 320 va benissimo guardatevi la rece su X-bit e poi riparliamone.
La 320 si impantana già a 1280x1024 con molto giochi (anche vecchi) :
Serius Sam 2
Gothic 3
NWN2
Company of Heroes
RIPARLIAMONE ALLORA :D
Raccontalo a QUESTI (http://www.guru3d.com/article/content/416/1/) che la 8800GTS 320 si impalla...
Ci sono 20 Pagine di Test ... :read:
Se non ti bastano ci sono i miei di TEST (http://www.hwupgrade.it/forum/showthread.php?t=1403682&page=12) :sofico:
Athlon 64 3000+
16-04-2007, 21:00
vorrei capire che è questa storia del bus a 256 bit della versione R600XT.
Francamente a me pare una cagata passesca e penso che R600XT avrà il bus a 512 bit se vuole rivaleggiare con la 8800GTX.
Se no per poter avere delle buone performance con il bus a 256 bit deve avere come minimo le gddr4 da 2ghz che danno 64 gb/s di banda passante.
Poi ci sarebbe troppa differenza (almeno imho) tra la xt e la xtx per giustificare quelli che credo saranno 100 euro di differenza. Piú di quella che c'é tra gtx e gts (ad occhio).
http://www.xtremesystems.org/forums/showpost.php?p=2131444&postcount=29
The X2900 XT (512mb/256bit) is slower then 8800 gtx.
The 2900 XT/512mb does 10200 in 3D 06 stock clocks vs 8800 gtx @ 10900
both using QX6700 @ 3.6 testing.
Yes, 8800 U is just pretty much what the 7800gtx 512mb was over an year ago.
I could sell them for an pretty penny, they never loss value as they were
so hard to find...
;)
Con certi giochi a risoluzioni elevate (quelle a cui sono per lo più destinate stè schede) cambia eccome ( per questo la futura top Ati avrà 1 giga, almeno pare), quanto al bus, pare sia 256bit ;)
E che c'è di strano? quella a 512bit (?) sarà quasi sicuramente l'evoluzione di questa top
temo purtroppo che le considerazioni sull'ampiezza del BUS siano corrette. Se la scheda con 1GB ha il bus a 512bit, potrebbe benissimo essere che quella da 512MB l'abbia a 256bit. Un esempio è la GTS rispetto alla GTX; quest'ultima ha 6 canali a 64bit da 128MB l'uno, mentre la GTS ne ha 5.
Dunque:
5*128MB = 640MB, mentre 6*128MB=768MB
e
5*64bit = 320bit, mentre 6*64bit = 384bit
da cui la differenza di memoria e di ampiezza del BUS.
Se ora la XT ha 4 canali da 64bit e 128MB, avremo 256bit e 512MB rispettivamente. La XTX magari avrà 8 canali da 64bit e 128MB e dunque 512bit ed 1GB di memoria.
Dai ragazzi ma come fate a credere al primo post qualunque (che tra l'altro potrebbe essere un errore di battitura): a volte verrebbe quasi da sospettare che qualcuno in questo thread sia in malafede e cerchi assolutamente notizie che mettano in cattiva luce l'R600...
Ma nooo cosa vado a pensare... :asd:
Praticamente tutte le fonti viste finora parlavano della XT a 512bit, da quando è uscita la sigla XTX la XT è una versione solo leggermente più lenta e con memorie a volte peggiori, Vijay Sharma ha quasi criticato nVidia per la scelta di un bus a 384bit per il top di gamma, mi sembra che non ci sia nulla che possa far pensare ad un bus a 256bit già sulla XT... Al massimo potrebbe accadere sulle versioni più lente (XL, Pro, GTO, se mai usciranno).
Tra l'altro avete visto che scheda ha in firma l'utente da voi citato? Una 8800GTX, guarda caso.
Tra l'altro la storia del bus e delle memorie regge pochino: ci sono molti modi di configurare le ram... mica le versioni con 256MB delle schede a 256bit e 512MB di ram erano a 128bit...
TecnoWorld8
16-04-2007, 21:25
se ATi si sbrigasse a far trapelare qualcosa (per sbaglio, eh!) non si farebbero più congetture ;) hehe
RIPARLIAMONE ALLORA :D
Raccontalo a QUESTI (http://www.guru3d.com/article/content/416/1/) che la 8800GTS 320 si impalla...
Ci sono 20 Pagine di Test ... :read:
Se non ti bastano ci sono i miei di TEST (http://www.hwupgrade.it/forum/showthread.php?t=1403682&page=12) :sofico:
OT
purtroppo quei test sono una stupidaggine (e sono buono a definirli così), ti basta solo vedere che Serious Sam 2 (casualmente uno dei giochi dove la 320 si incarta) che è testato senza AA :sofico:
Penso che tu sappia benissimo che differenza ci sia tra un frame buffer senza AA e uno con AA 4x
Xbit invece (che è sito serio) non ha usato trucchetti :D
Per la cronaca ho una GTX (non vorrei che mi prendessi per un Fanboy ATI ;) )
So che tu, possedendo una 320, non accetterai mai il fatto che la tua scheda faccia la metà dei frame di una 640 ma questa è la realtà (per tua fortuna in pochissimi giochi a 1280, ma già a 1920 sono almeno il 50%)
Mi scuso per l'OT ma visto che la nuova scheda ATI avrà "solo" 512 MiB di memoria è giusto precisare che i giochi moderni con filtri attivi "ciucciano" quantità assurde di memoria video (le risoluzione dei nuovi monitor e le texture "super" aiutano a riempire a tappo la memoria di quasi tutte le schede video)
Sono convinto che il modello da un giga sia d'obbligo per chi ha monitor con diagonali di Siffrediane dimensioni (io ce l'ho : 24" 1920x1200.......... putroppo di Siffrediane :oink: dimensioni ho solo il monitor :cry: )
PS. sono convintissimo che la storia dei 256 bit è una "baggianata colossale" perchè a conti fatti avrebbe meno banda (parecchia in meno) di una X1950XTX :D (la cosa è, a dir poco, assurda :muro: )
1. Da 768 mb a 512 non cambia nulla..inoltre r600 ha un bus a 512bit..quindi almeno andrà uguale o di più. E costerà di MENO..
2. Certo che se cerchiamo le situzioni impossibili e giochiamo a 2048*1536 tutto è possibile...allora tu mi dici che con una fascia media non potresti mai giocare a niente?
Scusa avevo dimenticato io gioco a 1280x1024 ,e ti posso dire che rallenta un bel po', come poi Supreme Commander (oviamente gioco con tutti i dettagli al max e solo L'anis. a 4x
lo dici tu che non cambia nulla,allora che ne mettono a fare 1 giga sulla xtx potevano metterne 512 visto che andra' cosi forte
Con certi giochi a risoluzioni elevate (quelle a cui sono per lo più destinate stè schede) cambia eccome ( per questo la futura top Ati avrà 1 giga, almeno pare), quanto al bus, pare sia 256bit ;)
Lui ha capito ;)
Dai ragazzi ma come fate a credere al primo post qualunque (che tra l'altro potrebbe essere un errore di battitura): a volte verrebbe quasi da sospettare che qualcuno in questo thread sia in malafede e cerchi assolutamente notizie che mettano in cattiva luce l'R600...
Ma nooo cosa vado a pensare... :asd:
;)
OT
Mi scuso per l'OT ma visto che la nuova scheda ATI avrà "solo" 512 MiB di memoria è giusto precisare che i giochi moderni con filtri attivi "ciucciano" quantità assurde di memoria video (le risoluzione dei nuovi monitor e le texture "super" aiutano a riempire a tappo la memoria di quasi tutte le schede video)
Sono convinto che il modello da un giga sia d'obbligo per chi ha monitor con diagonali di Siffrediane dimensioni (io ce l'ho : 24" 1920x1200.......... putroppo di Siffrediane :oink: dimensioni ho solo il monitor :cry: )
PS. sono convintissimo che la storia dei 256 bit è una "baggianata colossale" perchè a conti fatti avrebbe meno banda (parecchia in meno) di una X1950XTX :D (la cosa è, a dir poco, assurda :muro: )
:rolleyes: ne sei siruro.... :asd:
Xme invece e' fattibilissimo che sia a 256,seno' tra la XT e la XTX ci sarebbe troppo poco marnine di scarto,e come dici tu la comprerebbero quasi solo chi possiede super monitor, o usando un termine carino, i meno accorti
Con certi giochi a risoluzioni elevate (quelle a cui sono per lo più destinate stè schede) cambia eccome ( per questo la futura top Ati avrà 1 giga, almeno pare), quanto al bus, pare sia 256bit ;)
ma se la stessa ATi/AMD aveva dato conferme sul 512bit di bus :mbe:
ora arriva un pivello (quel tizio di quel forum) che vi mette tutti in agitazione?
:rolleyes: ne sei siruro.... :asd:
Xme invece e' fattibilissimo che sia a 256,seno' tra la XT e la XTX ci sarebbe troppo poco marnine di scarto,e come dici tu la comprerebbero quasi solo chi possiede super monitor, o usando un termine carino, i meno accorti
imho delle eventuali HD2900XL o Pro o ancora GT o GTO avranno il 256bit di bus
mentre le XT e XTX saranno a 512bit
naturalmente sono solo ipotesi :read:
kartoshka
16-04-2007, 21:54
Molto bella xro come scheda di fascia media.
Anche caratteristiche sono ottime.., se costerà 180euro sarà una ottima scelta..
http://img440.imageshack.us/img440/8359/2006072610395960306qs3.jpg (http://imageshack.us)
Athlon 64 3000+
16-04-2007, 21:57
io penso che comunque la XT avrà il bus a 512 bit,fare una scheda per contrastare la 8800GTX con un bus a 256 bit mi pare una enorme cacchiata e poi anche se mettessero le gddr4 a 2 ghz penso che per R600 64 gb/s di banda passante siano pochi.
Molto bella xro come scheda di fascia media.
Anche caratteristiche sono ottime.., se costerà 180euro sarà una ottima scelta..
http://img440.imageshack.us/img440/8359/2006072610395960306qs3.jpg (http://imageshack.us)
Sarebbe la xt?
Molto bella xro come scheda di fascia media.
Anche caratteristiche sono ottime.., se costerà 180euro sarà una ottima scelta..
http://img440.imageshack.us/img440/8359/2006072610395960306qs3.jpg (http://imageshack.us)
Il connettore crossfire interno? :confused:
Athlon 64 3000+
16-04-2007, 21:58
Molto bella xro come scheda di fascia media.
Anche caratteristiche sono ottime.., se costerà 180euro sarà una ottima scelta..
http://img440.imageshack.us/img440/8359/2006072610395960306qs3.jpg (http://imageshack.us)
questà è un prototipo della X1950XTX.
Athlon 64 3000+
16-04-2007, 22:00
è un foto che era venuta fuori poche settimane prima della presentazione della X1950XTX ed è un prototipo.
Non è per niente R600 in versione XT.
questà è un prototipo della X1950XTX.
Ah ecco infatti anche perche' non mi tornava il layout... ;)
Foglia Morta
16-04-2007, 22:04
Molto bella xro come scheda di fascia media.
Anche caratteristiche sono ottime.., se costerà 180euro sarà una ottima scelta..
http://img440.imageshack.us/img440/8359/2006072610395960306qs3.jpg (http://imageshack.us)
ma se non ha neanche i connettori interni per il crossfire... quella non c'entra nulla con RV630. La HD2600 ha il pcb ben più corto.
quella era una X1950 XTX con un dissipatore che poi è stato scartato in favore di un altro.
Per chi ipotizza che la HD2900 XT abbia bus 256bit: un intervistato interno ad Ati aveva detto che nVidia con un bus 384bit presto o tardi si sarebbe trovata limitata dalla banda... ergo ha confermato indirettamente il bus 512bit.
Kharonte85
16-04-2007, 22:04
è un foto che era venuta fuori poche settimane prima della presentazione della X1950XTX ed è un prototipo.
Non è per niente R600 in versione XT.
Anche io la sapevo cosi' ;)
Cmq non credo affatto a questa ultima sparata dei 256bit per la HD2900xt...:nonsifa:
:rolleyes: ne sei siruro.... :asd:
Xme invece e' fattibilissimo che sia a 256,seno' tra la XT e la XTX ci sarebbe troppo poco marnine di scarto,e come dici tu la comprerebbero quasi solo chi possiede super monitor, o usando un termine carino, i meno accorti
Guarda che quel "poco margine di scarto" è lo stesso che c'è oggi tra una X1950XT 256MB e la XTX 512MB. Entrambe hanno lo stesso bus, lo stesso numero di shader, ecc... Cambiano solo frequenze e quantità ed il tipo di memorie. ;)
kartoshka
16-04-2007, 22:13
Il connettore crossfire interno? :confused:
è lei :sofico: HD2600XT :D
kartoshka
16-04-2007, 22:17
Mi sono confuso con la foto.., cmq è molto simile quasi uguale
http://img160.imageshack.us/img160/8164/9490ex3.jpg (http://imageshack.us)
Ma secondo voi all'uscita di R600 quanto potrà valere a mia 1900xt da 512mb? :stordita:
kartoshka
16-04-2007, 22:28
Ma secondo voi all'uscita di R600 quanto potrà valere a mia 1900xt da 512mb? :stordita:
La meta di hd2600xt secondo me :stordita:
La meta di hd2600xt secondo me :stordita:
Cioè? :stordita:
kartoshka
16-04-2007, 22:30
Cioè? :stordita:
Se costerà intorno ai €200 fai i conti :stordita:
Se costerà intorno ai €200 fai i conti :stordita:
Azz...quasi quasi la vendo ora...almeno circa 200€ li prendo. :mbe: :stordita:
PS qualcuno sarebbe in grado di fare una lista di schede con R600 che usciranno a breve con relativi prezzi?
pioss~s4n
16-04-2007, 22:36
Azz...quasi quasi la vendo ora...almeno circa 200€ li prendo. :mbe: :stordita:
PS qualcuno sarebbe in grado di fare una lista di schede con R600 che usciranno a breve con relativi prezzi?
200eur per una 1900 da 512 usata contro una 1950 sempre da 512 nuova e in vendita a 250eur nei listini online? mi par impossibile riuscirci. :D
Ad ogni modo è una scheda fantastica, non la venderei al momento.. piuttosto aspetterei a vedere come se la cavano ste R600
Ma secondo voi all'uscita di R600 quanto potrà valere a mia 1900xt da 512mb? :stordita:
con le nostre schede ci possiamo fare dei bei fermacarte :sofico:
200eur per una 1900 da 512 usata contro una 1950 sempre da 512 nuova e in vendita a 250eur nei listini online? mi par impossibile riuscirci. :D
Ad ogni modo è una scheda fantastica, non la venderei al momento.. piuttosto aspetterei a vedere come se la cavano ste R600
Beh sul mercatino le stanno vendendo tutte intorno ai 200€...
con le nostre schede ci possiamo fare dei bei fermacarte :sofico:
Che cavolo però, la presi a giugno a 360€...dopo manco un anno non vale nemmeno un terzo di quanto l'ho comprata. Lo so che c'è l'evoluzione informatica e quello che compri oggi domani non vale un caxxo...però che palle! :muro:
Che cavolo però, la presi a giugno a 360€...dopo manco un anno non vale nemmeno un terzo di quanto l'ho comprata. Lo so che c'è l'evoluzione informatica e quello che compri oggi domani non vale un caxxo...però che palle! :muro:
già si svalutano velocemente di loro, in piu' in questa fase c'è "l'aggravante " delle dx10 che contribuiscono ad aumentare questa svalutazione.
Athlon 64 3000+
16-04-2007, 23:01
penso anche io che l'ultima sparata sui 256 bit di bus per R600XT sia una cretinata clamorosa.
Avrà sicuro il bus a 512 bit.;)
davide155
16-04-2007, 23:09
Quindi facciamo prima a spremere le nostre x1900xt fino alla fine e poi tenerle come scheda "sostitutiva" quando avremo una dx10, anche se....la voglia di venderla ora è tanta, ma ci sono ancora diversi titoli prima di crysis che allettano la mia x1900xt :O
temo purtroppo che le considerazioni sull'ampiezza del BUS siano corrette. Se la scheda con 1GB ha il bus a 512bit, potrebbe benissimo essere che quella da 512MB l'abbia a 256bit. Un esempio è la GTS rispetto alla GTX; quest'ultima ha 6 canali a 64bit da 128MB l'uno, mentre la GTS ne ha 5.
Dunque:
5*128MB = 640MB, mentre 6*128MB=768MB
e
5*64bit = 320bit, mentre 6*64bit = 384bit
da cui la differenza di memoria e di ampiezza del BUS.
Se ora la XT ha 4 canali da 64bit e 128MB, avremo 256bit e 512MB rispettivamente. La XTX magari avrà 8 canali da 64bit e 128MB e dunque 512bit ed 1GB di memoria.
...non è esattamente come hai scritto, ci sono delle particolarità da cogliere. Nella 8800 GTX i 128 stream processors sono divisi in 8 gruppi da 16 ciascuno; per ogni blocco sono presenti le texture units, divise in texture filtering unit e in texture address unit, alle quali sono collegate le cache L1.
A loro volta le L1 sono collegate in cascata a cache L2. Quest'ultime sono quindi collegate direttamente al controller memoria, diviso in 6 blocchi da 64bit di ampiezza ciascuno con due chip memoria collegati ad ogni blocco, per un totale di 384bit di ampiezza complessiva.
Nella 8800 GTS il bus memoria ha ampiezza di 320bit quindi sono 5 i blocchi da 64bit di ampiezza ciascuno; inoltre gli stream processor sono presenti in numero di 96, per un totale di 6 gruppi da 16 processors ciascuno.
...il memory controller ATi (presente sulle X1K) è strutturato in maniera diversa: ha un organizzazione di tipo Ring Bus interna a 512 bit ed una esterna a 256 bit. Il memory controller ha connessioni dirette a 32bit per ciascun chip memoria montato sulla vga. Non sappiamo ancora nulla su come sarà la divisione del Ring Bus su R600 (512/256 o 512/512 o ancora più diverso/evoluto) e non è corretto fare paragoni con bus memoria montati su altre vga come le 8800.
:)
se non sbaglio (e qui ci vorrebbe qualcuno più esperto di me) quei tagli di bus valgono per il tradizionale crossbar di cui è dotato G80, mi pare che per il ringbus valgono altre "regole", fermo restando che l'ampiezza di bus sia cmq 256bit per 512mb 512/1giga, ripeto correggetemi se sbaglio
(che poi se ci fate caso sarebbe il bus della 8800gtx se avesse tagli "netti" di memoria, infatti probabilmente sulla prossima 8800ultra da 1 giga di v-ram -?- il bus potrebbe essere anche lì a 512bit, al 99,99%)
...vale la risposta che ho scritto sopra. Comunque l'equazione eventuale 8800 Ultra da 1 gb = 512 bit è sbagliata, perchè se G80 avrà i soliti 128 stream processors divisi in 8 gruppi da 16 ciascuno vuol dire che manterrà i 6 blocchi di divisione del memory controller. Per avere 512 bit devono modificare l'architettura del memory controller ed il suo rapporto con le cache L1 e L2.
...inoltre R600 dovrebbe avere un "512-bit memory interface with eight channels" (512/8 = 64 bit ovvero potrebbe significare connessione diretta a 32bit double-sided per ciascun chip memoria montato sulla vga...che sulle R600 sono 2 + 3 + 3)
...il tutto imho.
penso anche io che l'ultima sparata sui 256 bit di bus per R600XT sia una cretinata clamorosa.
Avrà sicuro il bus a 512 bit.;)
...questo quanto riportato sul forum dove è comparso quel post:
AFAIK, first developer cards were 256-bit cards. These were first cards available last year, but Samsung memory was having issues then(7900GTO, n-e one?), so they only got 256-bit mems.
This being the case, the above scores posted by dynasty in no way reflect performance of the final retial product, and that's why he's posted them. He himself said no-one witha real card would be posting scores/screenshots, or would be paying the price. Dynasty is a bit on the edge, but he's not stupid.
no, but giveing us an idea as to it's performance. You jsut need to take it with a grain of salt, as much of the info that's on this forum. I jsut happen to be prerty good at choosing the facts from the fiction. Or at least i like to think so.
;)
...e quindi se proprio vogliamo vederla da un altro punto di vista, potremmo chiederci: se un modello di R600 con 256 bit di memory controller ha le stesse prestazioni di G80 GTX, cosa farà quello con 512 bit? :cool: :D
gianni1879
16-04-2007, 23:45
...questo quanto riportato sul forum dove è comparso quel post:
AFAIK, first developer cards were 256-bit cards. These were first cards available last year, but Samsung memory was having issues then(7900GTO, n-e one?), so they only got 256-bit mems.
This being the case, the above scores posted by dynasty in no way reflect performance of the final retial product, and that's why he's posted them. He himself said no-one witha real card would be posting scores/screenshots, or would be paying the price. Dynasty is a bit on the edge, but he's not stupid.
no, but giveing us an idea as to it's performance. You jsut need to take it with a grain of salt, as much of the info that's on this forum. I jsut happen to be prerty good at choosing the facts from the fiction. Or at least i like to think so.
;)
...e quindi se proprio vogliamo vederla da un altro punto di vista, potremmo chiederci: se un modello di R600 con 256 bit di memory controller ha le stesse prestazioni di G80 GTX, cosa farà quello con 512 bit? :cool: :D
SEEE vabbè ora 256bit.... sparata clamorosa :asd: o no??? :D
TecnoWorld8
17-04-2007, 00:18
...e quindi se proprio vogliamo vederla da un altro punto di vista, potremmo chiederci: se un modello di R600 con 256 bit di memory controller ha le stesse prestazioni di G80 GTX, cosa farà quello con 512 bit? :cool: :D
Forse le avrà a 1280x1024...probabilmente a risoluzioni superiori la GTX sarà più potente, se il BUS è da 256bit...
Free Gordon
17-04-2007, 03:08
http://www.xtremesystems.org/forums/showpost.php?p=2131444&postcount=29
The X2900 XT (512mb/256bit) is slower then 8800 gtx.
The 2900 XT/512mb does 10200 in 3D 06 stock clocks vs 8800 gtx @ 10900
both using QX6700 @ 3.6 testing.
Yes, 8800 U is just pretty much what the 7800gtx 512mb was over an year ago.
I could sell them for an pretty penny, they never loss value as they were
so hard to find...
;)
Non credo che esistano R600 con bus a 256bit, come anticipato da dailytech qualche giorno fà.
Il 3dmark '06 cmq, è l'ultimo campo di battaglia su cui vorrei vederle scontrarsi. :D
Free Gordon
17-04-2007, 03:28
...e quindi se proprio vogliamo vederla da un altro punto di vista, potremmo chiederci: se un modello di R600 con 256 bit di memory controller ha le stesse prestazioni di G80 GTX, cosa farà quello con 512 bit? :cool: :D
Devi considerare però che quei test sono fatti a 1280x1024, per cui 700pt di distacco da un all'altra sono comprensibili a quella res. Considerando anche che quell'R600 avrebbe 55GB/s di banda circa, non molti... ma forse sufficienti per competere nel 3D2006 a quella res.
[QUOTE=GabrySP;16769728]OT
OT
purtroppo quei test sono una stupidaggine (e sono buono a definirli così), ti basta solo vedere che Serious Sam 2 (casualmente uno dei giochi dove la 320 si incarta) che è testato senza AA :sofico:
Questo e' il primo sito a caso che ho trovato su Google dove Bencha Serius Sam 2 !! QUI (http://www.3dchip.de/TestCenter/2007/8800GTS320MB/Benchmarks4.php)
i numeri corrispondono a quelli di GURU3D :D
Penso che tu sappia benissimo che differenza ci sia tra un frame buffer senza AA e uno con AA 4x
e si qualcosa la so...
Xbit invece (che è sito serio) non ha usato trucchetti ..
Nessuno dice niente ci mancherebbe coi tempi che corrono ....:D
So che tu, possedendo una 320, non accetterai mai il fatto che la tua scheda faccia la metà dei frame di una 640 ma questa è la realtà (per tua fortuna in pochissimi giochi a 1280, ma già a 1920 sono almeno il 50%)
Realta ??: confused:
qui ci sono dei LINK in cui ti puoi schiarire le idee...
http://uk.theinquirer.net/?article=37553
http://www.hwupgrade.it/articoli/skvideo/1657/nvidia-geforce-8800-gts-ora-con-320-mbytes_index.html
http://www.hardware.fr/articles/644-10/nvidia-geforce-8800-gtx-8800-gts.html
http://www.guru3d.com/article/Videocards/416/1/
http://www.hothardware.com/viewarticle.aspx?articleid=930&cid=2
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/6/#abschnitt_synthetische_benchmarks
Per concludere solo a Risoluzioni superori ai 1280x1024 i 512mb ed oltre di memoria hanno un senso con i Filtri attivati, chi usa LCD da 19" non ha necessita', e poi le prove con l'Utilizzo della Memoria impegnata sulla 8800GTS320 con filtri attivati le puoi trovare sotto ancora....
sono i miei test :D
http://www.hwupgrade.it/forum/showthread.php?t=1403682&page=18
Saluti
P.:read:
halduemilauno
17-04-2007, 07:51
http://www.fudzilla.com/index.php?option=com_content&task=view&id=560&Itemid=1
Now it's final
DAAMIT will show the R600XT a 512 MB GDDR3 card next week but only under NDA. This card is ready from before Cebit days but the driver was not.
With a new driver called 8.361 the card has some fighting chance. The April 23rd and 24th are reserved for NDA presentation of the Radeon HD 2000 generation and this won't be the time for the official introduction.
The official introduction is scheduled for middle of May and we heard a few times that the guys are talking about the 14th of May as the official launch day.
R600XTX is delayed to June if not more as this GDDR4 card would be expensive and it doesn’t bring that much performance increase but the BOM (Build of Material) cost is much higher than with the GDDR3 R600XT card.
;)
TecnoWorld8
17-04-2007, 08:09
notizie sempre più sconfortanti, insomma...dopo così tanti mesi, sono riusciti a fare una scheda appena veloce come GTX. In poche parole la XTX, se mai uscirà, sarà carissima e poco più prestazionale...
temo che tutto ciò sia vero.
Skullcrusher
17-04-2007, 08:09
Quindi HD2900XT a metà maggio e HD2900XTX dopo qualche mese?
http://www.fudzilla.com/index.php?option=com_content&task=view&id=560&Itemid=1
Now it's final
DAAMIT will show the R600XT a 512 MB GDDR3 card next week but only under NDA. This card is ready from before Cebit days but the driver was not.
With a new driver called 8.361 the card has some fighting chance. The April 23rd and 24th are reserved for NDA presentation of the Radeon HD 2000 generation and this won't be the time for the official introduction.
The official introduction is scheduled for middle of May and we heard a few times that the guys are talking about the 14th of May as the official launch day.
R600XTX is delayed to June if not more as this GDDR4 card would be expensive and it doesn’t bring that much performance increase but the BOM (Build of Material) cost is much higher than with the GDDR3 R600XT card.
;)
Ammesso e non concesso che sia (speriamo a questo punto, troppe voci troppi rumors) veramente la situazione finale, la cosa mi lascia perplesso soprattutto sull'ultimo periodo del discorso.
Se R600 in versione high end altro non sara' che una "exclusive" card per i piu' fanatici tale da avere solo quel gap in piu' che la XT non riesce facilmente ad avere, magari con 1GB di GDDR4 significherebbe che allora il bus a 512bit e' gia' incluso sulla XT ma potrebbe non dare (come immaginavo) un reale gap sulle applicazioni in uso attualmente dove forse la banda verso le ram non e' cosi' necessaria quanto in altri scenari passati.
Mi aspettavo comunque una XTX davvero un balzo in avanti. A questo punto e' chiaro che il gioco si fara' sui prezzi. - Ram per la XT e GDDR3 + materiali economici = riparmio per tutti MA sintomo di carenza concettuale.
Iscritto :) !!! Da quello che ho capito la settimana prossima verrà finalmente presentata... e fra un mese alcuni fortunati se la potranno pure comprare!!! La battaglia G80 vs R600 ormai è alle porte... magnifico!!! :)
gianni1879
17-04-2007, 08:29
a breve sapremo se le voci erano tutte cretinate o meno, ormai si è detto di tutto e di più :D
cmq fudzilla ne che mi piace moltissimo come affidabilità
Purtroppo sarà presentata ancora sotto NDA (se fudo ha ragione), quindi ufficialmente non si potrà sapere nulla: e quindi ancora una volta assisteremo allo stillicidio di immagini rubate, bench tarocchi e chi più ne ha più ne metta, fino a quando (metà maggio?) si degneranno di presentarla al grande pubblico.
Che palle :mad: :mad: :muro:
notizie sempre più sconfortanti, insomma...dopo così tanti mesi, sono riusciti a fare una scheda appena veloce come GTX. In poche parole la XTX, se mai uscirà, sarà carissima e poco più prestazionale...
temo che tutto ciò sia vero.
Beh, anche la 8800 Ultra, che pare uscirà a fine maggio (quindi dopo oltre 6 mesi dalla GTX), costerà molto cara, sarà rara ed avrà prestazioni solo lievemente superiori alla GTX, visto che a quanto pare sarà solo una sua versione con clocks molto alti e memorie migliori.
The G80 Ultra is just an overclocked version of the Geforce 8800 GTX. A few of our sources said that Nvidia plans to use a faster memory as well but the chip is the same 90 nanometre marchitecture.
Fonte: Fudzilla ( :asd: )
http://www.fudzilla.com/index.php?option=com_content&task=view&id=562&Itemid=34
Ammesso e non concesso che sia (speriamo a questo punto, troppe voci troppi rumors) veramente la situazione finale, la cosa mi lascia perplesso soprattutto sull'ultimo periodo del discorso.
Se R600 in versione high end altro non sara' che una "exclusive" card per i piu' fanatici tale da avere solo quel gap in piu' che la XT non riesce facilmente ad avere, magari con 1GB di GDDR4 significherebbe che allora il bus a 512bit e' gia' incluso sulla XT ma potrebbe non dare (come immaginavo) un reale gap sulle applicazioni in uso attualmente dove forse la banda verso le ram non e' cosi' necessaria quanto in altri scenari passati.
Mi aspettavo comunque una XTX davvero un balzo in avanti. A questo punto e' chiaro che il gioco si fara' sui prezzi. - Ram per la XT e GDDR3 + materiali economici = riparmio per tutti MA sintomo di carenza concettuale.
Occhio però a non cadere nella trappola "no millemila al 3DMark06, no party"... :asd:
Se non sbaglio, le informazioni trapelate finora, secondo le quali la XT dovrebbe far segnare punteggi simili alla GTX nei benchmark, riguardano quasi esclusivamente i benchmark sintetici. Mi sembra più che chiaro ormai che il 3DMark06 sia parecchio influenzato a favore di nVidia, e che, al di là della sua utilità per stabilire le fasce di prestazione, stia perdendo il legame con le prestazioni reali nei giochi (soprattutto se non si valutano i punteggi nei test opzionali)...
Alcuni esempi:
- la 8600GTS, che ha punteggi molto alti nel suddetto bench, e invece sembra andare peggio (in DX9) delle schede che precedentemente si posizionavano in quella fascia di punti
- prendendo per veri i rumors, la HD2600XT potrebbe essere abbastanza più potente della 8600GTS, ma comunque potrebbe far segnare punteggi solo lievemente più alti della sua avversaria.
- gli ultimi Forceware migliorano le prestazioni nei bench del 30% ( :eek: ), ma all'atto pratico la variazione di prestazioni nei giochi è sì e no del 2%.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=554&Itemid=34
Quindi prima di parlare di sintomi di carenze concettuali io aspetterei di vedere i test reali, no? ;)
Athlon 64 3000+
17-04-2007, 08:46
Purtroppo sarà presentata ancora sotto NDA (se fudo ha ragione), quindi ufficialmente non si potrà sapere nulla: e quindi ancora una volta assisteremo allo stillicidio di immagini rubate, bench tarocchi e chi più ne ha più ne metta, fino a quando (metà maggio?) si degneranno di presentarla al grande pubblico.
Che palle :mad: :mad: :muro:
speravo veramente che venisse presentata il 24 aprile con disponibilità in maggio ma invece bisognerà aspettare fino al 14 maggio.
:mad:
Che rottura dover aspettare ancora quasi un mese.
Beh, anche la 8800 Ultra, che pare uscirà a fine maggio (quindi dopo oltre 6 mesi dalla GTX), costerà molto cara, sarà rara ed avrà prestazioni solo lievemente superiori alla GTX, visto che a quanto pare sarà solo una sua versione con clocks molto alti e memorie migliori.
Fonte: Fudzilla ( :asd: )
http://www.fudzilla.com/index.php?option=com_content&task=view&id=562&Itemid=34
Occhio però a non cadere nella trappola "no millemila al 3DMark06, no party"... :asd:
Se non sbaglio, le informazioni trapelate finora, secondo le quali la XT dovrebbe far segnare punteggi simili alla GTX nei benchmark, riguardano quasi esclusivamente i benchmark sintetici. Mi sembra più che chiaro ormai che il 3DMark06 sia parecchio influenzato a favore di nVidia, e che, al di là della sua utilità per stabilire le fasce di prestazione, stia perdendo il legame con le prestazioni reali nei giochi (soprattutto se non si valutano i punteggi nei test opzionali)...
Alcuni esempi:
- la 8600GTS, che ha punteggi molto alti nel suddetto bench, e invece sembra andare peggio (in DX9) delle schede che precedentemente si posizionavano in quella fascia di punti
- prendendo per veri i rumors, la HD2600XT potrebbe essere abbastanza più potente della 8600GTS, ma comunque potrebbe far segnare punteggi solo lievemente più alti della sua avversaria.
- gli ultimi Forceware migliorano le prestazioni nei bench del 30% ( :eek: ), ma all'atto pratico la variazione di prestazioni nei giochi è sì e no del 2%.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=554&Itemid=34
Quindi prima di parlare di sintomi di carenze concettuali io aspetterei di vedere i test reali, no? ;)
Ovviamente non stavo facendo una lista di vinti o sconfitti. Sono il primo che "crede" in quel che sta' facendo AMD ma percepisco una certa "tendenza" ad appiattire sempre piu' leggermente le aspettative, cosa che noto sempre ad ogni lancio piu ci si avvicina alla presentazione, quasi ad "abituare" i clienti a cio' che sara'.
La cosa strana e' proprio questa completa base del 3DMark quando mi aspettavo invece rumors (leggi informazione divulgata volontariamente) di fps a titoli veri e propri.
Ovviamente e' tutto da vedere e rivedere.
speravo veramente che venisse presentata il 24 aprile con disponibilità in maggio ma invece bisognerà aspettare fino al 14 maggio.
:mad:
Che rottura dover aspettare ancora quasi un mese.
Se non altro Gibbo (il famoso utente del forum di Overclockers.co.uk, nonchè uno dei venditori/soci del sito stesso) ha scritto che il 14 maggio sarà un vero hard launch, visto che per quella data loro dovrebbero avere un centinaio di schede (contando tutti i diversi modelli) in stock.
Ovviamente non stavo facendo una lista di vinti o sconfitti. Sono il primo che "crede" in quel che sta' facendo AMD ma percepisco una certa "tendenza" ad appiattire sempre piu' leggermente le aspettative, cosa che noto sempre ad ogni lancio piu ci si avvicina alla presentazione, quasi ad "abituare" i clienti a cio' che sara'.
La cosa strana e' proprio questa completa base del 3DMark quando mi aspettavo invece rumors (leggi informazione divulgata volontariamente) di fps a titoli veri e propri.
Ovviamente e' tutto da vedere e rivedere.
Su questo hai certamente ragione, ma imho una delle cause di questo silenzio di tomba da parte di AMD-ATi è da ricercarsi nel voler evitare una fuga di notizie che avrebbe favorito nVidia nella fase di tweaking finale dei drivers per la Ultra: la mossa del lancio di fine maggio infatti è sicuramente dovuta alla volontà di nVidia di vedere come vanno le R600.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.