View Full Version : Aspettando G80 [Thread ufficiale]
Pagine :
1
2
3
4
5
[
6]
7
8
9
10
11
12
halduemilauno
25-10-2006, 17:13
se in dollari hanno quei prezzi in euro faranno il botto.
si tiene conto dei singoli mercati.
;)
si tiene conto dei singoli mercati.
;)
generalmente quando si vede qualcosa in $ poi in € costa la stessa cifra numerica o qualcosa in più :(
generalmente quando si vede qualcosa in $ poi in € costa la stessa cifra numerica o qualcosa in più :(
quando dovrebbe essere il contrario :rolleyes:
halduemilauno
25-10-2006, 17:18
generalmente quando si vede qualcosa in $ poi in € costa la stessa cifra numerica o qualcosa in più :(
io ho sempre detto 449€ per la gts e 599€ per la gtx. poi certo qualcuno ci può marciare.
;)
io ho sempre detto 449€ per la gts e 599€ per la gtx. poi certo qualcuno ci può marciare.
;)
e speriamo che tu abbia ragione :D
halduemilauno
25-10-2006, 17:21
e speriamo che tu abbia ragione :D
da calcolare brand da brand e il bundle. asus per esempio è carissima.
;)
da calcolare brand da brand e il bundle. asus per esempio è carissima.
;)
giusto ;)
JoeLatino
25-10-2006, 17:38
News...
dagli ultimi beta drivers e' apparsa stranamente anche una versione 8800gt..... oltre alle gtx/gts :eek:
Che abbiano gia' pronte anche le schede di fascia bassa?
News...
dagli ultimi beta drivers e' apparsa stranamente anche una versione 8800gt..... oltre alle gtx/gts :eek:
Che abbiano gia' pronte anche le schede di fascia bassa?
Copiaci il pezzo dell' inf :eek: .
halduemilauno
25-10-2006, 17:53
http://i14.tinypic.com/401py1k.jpg
;)
News...
dagli ultimi beta drivers e' apparsa stranamente anche una versione 8800gt..... oltre alle gtx/gts :eek:
Che abbiano gia' pronte anche le schede di fascia bassa?
Bhè la GT tutto è tranne che fascia bassa...
appleroof
25-10-2006, 17:57
http://i14.tinypic.com/401py1k.jpg
;)
come la vedrei bene nel mio case.....:sbav: :sbav:
JoeLatino
25-10-2006, 17:58
http://i14.tinypic.com/401py1k.jpg
;)
:D vedo che giri anche tu su diversi siti,eh???? ;)
appleroof
25-10-2006, 17:58
Bhè la GT tutto è tranne che fascia bassa...
quoto...potrebbe essere la nuova medio-alta....ma secondo me non uscirà se non con l'arrivo di Vista...
JoeLatino
25-10-2006, 18:01
Copiaci il pezzo dell' inf :eek: .
NVIDIA_G80.DEV_0192.1 = "CompoTech GeForce 8800 GT"
GTX 0191.1
GTS 0193.1
teoricamente dovrebbe essere una versione media tra la gts e la gtx ;)
halduemilauno
25-10-2006, 18:02
NVIDIA_G80.DEV_0192.1 = "CompoTech GeForce 8800 GT"
GTX 0191.1
GTS 0193.1
teoricamente dovrebbe essere una versione media tra la gts e la gtx ;)
no. è più bassa.
;)
appleroof
25-10-2006, 18:03
NVIDIA_G80.DEV_0192.1 = "CompoTech GeForce 8800 GT"
GTX 0191.1
GTS 0193.1
teoricamente dovrebbe essere una versione media tra la gts e la gtx ;)
secondo me si posizionerà subito sotto la gts...ma qui siamo davvero ancora nel campo delle pure ipotesi... :)
slivio...
25-10-2006, 18:06
Ascolta, hai un pochino stancato. Se hai qualcosa da dire a ME, esistono i privati. Stai continuando ad inquinare il thread con i tuoi attacchi. Se invece non hai nulla da dire, bhè sei un veterano ci arrivi da solo, no? ;)
non ho n ulla da dirti in privato
bye ;)
ugruhell
25-10-2006, 18:07
se leggete sulla scatola della immagine ce scritto D.O.T che significa Dynamic Overclocking Technology.quindi si può overclockare
slivio...
25-10-2006, 18:10
però che me lo fa fare di spendere circa 650 euro per "giocare in dx9" quando potrei prendere (io generico) la 7950gx2 che per i titoli attuali e penso prossimi in dx9 basta ed avanza e costerà decisamente meno?
la mia proposta è sempre valida.. :D
la mia proposta è sempre valida.. :D
ormai come vga sto buono per un pò, mi concentro probabilmente sul dual-core ;)
halduemilauno
25-10-2006, 18:24
ormai come vga sto buono per un pò, mi concentro probabilmente sul dual-core ;)
consiglio un bell'E6400/6600.
;)
Skullcrusher
25-10-2006, 18:44
:eek:
Oddio, certo che ormai si comincia a vedere qualcosa di serio..ottimo! Speriamo comincino a vedersi test anche dalle nostre parti :D
Foglia Morta
25-10-2006, 19:04
Infatti anche a me la cosa incuriosisce. Come incuriosisce il supporto all'HDR a 128Bit ma del solo 16Bit con AA. Comunque Nvidia aveva detto che non era necessario avere un'architettura unificata per aderire alle dx10 e che, anzi, un'architettura dedicata poteva fornire prestazioni superiori in determinati ambiti. Qui la si da come Unified, vedremo cosa salta fuori...
Quello che mi "stupisce" è che Nvidia (non mi ricordo quale personaggio di preciso) non ha rilasciato le dichiarazioni sull'architettura unificata/dedicata molto tempo fa, o comunque non un tempo sufficiente per progettare da nuovo un'architettura.
infatti mesi fa girava il rumour che G80 avrebbe avuto 16 vs e 32 ps , poi da qualche parte ho letto che un requisito delle DX10 è che lo shader possa svolgere 4 operazioni (sono molto impreciso perchè non ci capisco molto ) e i 128 stream processors dovrebbero poter svolgere una sola operazione cioè praticamente sarebbero 32 gruppi di 4. Quindi imho quelle 128 unità non sono shader unificati , secondo me ci sarà un altro gruppo di shaders e alla fine uno dei 2 gruppi farà anche i gs . Invece R600 sarà del tutto unificato ( 64 o 96 shaders per 4 operazioni ciascuno ) , o qualcosa del genere :D
Infatti anche a me la cosa incuriosisce. Come incuriosisce il supporto all'HDR a 128Bit ma del solo 16Bit con AA. Comunque Nvidia aveva detto che non era necessario avere un'architettura unificata per aderire alle dx10 e che, anzi, un'architettura dedicata poteva fornire prestazioni superiori in determinati ambiti. Qui la si da come Unified, vedremo cosa salta fuori...
Quello che mi "stupisce" è che Nvidia (non mi ricordo quale personaggio di preciso) non ha rilasciato le dichiarazioni sull'architettura unificata/dedicata molto tempo fa, o comunque non un tempo sufficiente per progettare da nuovo un'architettura.
Kirk però non disse che loro avevano scelto la strada degli shader non unificati a livello hardware. Il suo discorso fu del tipo: "è possibile supportare le DX10 anche con un'architettura a shader non unificati a livello hardware". Che poi tutti abbiano pensato "allora G80 non avrà gli shader unificati" è semplicemente una conclusione logica, ma assolutamente non ufficiale.
Marko#88
25-10-2006, 19:25
Kirk però non disse che loro avevano scelto la strada degli shader non unificati a livello hardware. Il suo discorso fu del tipo: "è possibile supportare le DX10 anche con un'architettura a shader non unificati a livello hardware". Che poi tutti abbiano pensato "allora G80 non avrà gli shader unificati" è semplicemente una conclusione logica, ma assolutamente non ufficiale.
è vero, alla fine non hanno mai confermato che avrebbero usato una architettura a shader non unificati se non sbaglio...
Kirk però non disse che loro avevano scelto la strada degli shader non unificati a livello hardware. Il suo discorso fu del tipo: "è possibile supportare le DX10 anche con un'architettura a shader non unificati a livello hardware". Che poi tutti abbiano pensato "allora G80 non avrà gli shader unificati" è semplicemente una conclusione logica, ma assolutamente non ufficiale.
Certo certo. Ovviamente a quel tempo nessuno disse niente ma è anche vero che la conclusione era logica. Supportata anche da MS che disse più o meno la stessa cosa (se non ricordo male). Poi di ufficiale ormai in questo mondo non ci sono neanche le presentazioni ufficiali :)
è vero, alla fine non hanno mai confermato che avrebbero usato una architettura a shader non unificati se non sbaglio...
Confermarla a quel tempo sarebbe stato un suicidio (si parla di un anno fa). Così come confermare qualsiasi cosa :)
Per una volta gli ingegneri nvidia hanno ascoltato la ATI, per evitare altre brutte figure! :asd:
Evidentemente hanno ascoltato ATI molto bene, visto che G80 esce ora e R600 esce, quando? tra 4 mesi? :rolleyes:
Confermarla a quel tempo sarebbe stato un suicidio (si parla di un anno fa). Così come confermare qualsiasi cosa :)
Probabilmente un'anno fa questa decisione era ancora da definire.. chissa' quanti progetti che sono nati e poi scartati prima di uscirsene con questa versione di G80. ;)
Marko#88
25-10-2006, 20:21
Confermarla a quel tempo sarebbe stato un suicidio (si parla di un anno fa). Così come confermare qualsiasi cosa :)
già... :)
Dylan BJ
25-10-2006, 22:03
certo ke son sempre 5mesi davanti ad ati.... ke ha annunciato ritardi, pure giugno secondo qalke sito rumor!! :D
Probabilmente un'anno fa questa decisione era ancora da definire.. chissa' quanti progetti che sono nati e poi scartati prima di uscirsene con questa versione di G80. ;)
Perchè secondo te un chip come G80 lo tirano fuori in un anno o anche meno? :rolleyes:
Cmq cè solo da venerarlo il Chippone del G80, scalderà un bel pò e và bene, ma non so se ci pensate che ha 700 MILIONI di transistor :eek: ,
Basti pensare che un Core 2 DUO occupa 291 milioni di transistor, una ATI X1950XTX occupa 384 milioni di transistor, mentre una NVIDIA 7900GTX occupa 302 milioni di transistor...
Cominciate a pensare solamente a quando verranno sfruttati tutti i 700.000.000 di transistor cosa sarà capace di farci vedere :eek: .
:cool: .
Cominciate a pensare solamente a quando verranno sfruttati tutti i 700.000.000 di transistor cosa sarà capace di farci vedere :eek: .
:cool: .
tu intanto ci fai vedere una signa paurosamente irregolare :asd: :asd: :asd:
kenjcj2000
25-10-2006, 22:46
tu intanto ci fai vedere una signa paurosamente irregolare :asd: :asd: :asd:
porca loca che fine hai fatto :eek: non ti becco più ;) saluti come al solito ;)
tu intanto ci fai vedere una signa paurosamente irregolare :asd: :asd: :asd:
3 righe no? ;) .
kenjcj2000
25-10-2006, 22:50
3 righe no? ;) .
ma un pò troppe faccine :D
ma un pò troppe faccine :D
eh già, massimo 3 mi pare :read:
ma un pò troppe faccine :D
Vabbè per far vedere il suo stato d'animo per ogni singolo componente del pc :D :sofico: :sofico:
Vabbè per far vedere il suo stato d'animo per ogni singolo componente del pc :D :sofico: :sofico:
Esatto :sofico: , vabbè ora modifico :Prrr: .
Cmq cè solo da venerarlo il Chippone del G80, scalderà un bel pò e và bene, ma non so se ci pensate che ha 700 MILIONI di transistor :eek: ,
Basti pensare che un Core 2 DUO occupa 291 milioni di transistor, una ATI X1950XTX occupa 384 milioni di transistor, mentre una NVIDIA 7900GTX occupa 302 milioni di transistor...
Cominciate a pensare solamente a quando verranno sfruttati tutti i 700.000.000 di transistor cosa sarà capace di farci vedere :eek: .
:cool: .
Ma allora e' sicuro al 100% sta storia dei 700 milioni di transistor?
Pazzesco...
X-ICEMAN
26-10-2006, 00:00
Evidentemente hanno ascoltato ATI molto bene, visto che G80 esce ora e R600 esce, quando? tra 4 mesi? :rolleyes:
xenos ed i suoi shader unificati nella gpu made in ati esistono da agosto scorso ( quando la gpu è andata in produzione ) e novembre sul mercato
l'r600 è un evoluzione di quella gpu ed è allo stato delle cose la seconda generazione di gpu a shader unificati di Ati :)
indipendentemente dal fatto che sia o meno la soluzione migliore, o dal fatto che le Dx10 ( e successive ) si stiano indirizzando su un supporto a quella soluzione.. la scelta di shader unificati anche da parte di Nvidia è una delle cose migliori che potessero accadere per gli sviluppatori di giochi, perchè almeno non devono preoccuparsi di sviluppare motori di "next gen" tali da funzionare su shader unificati o meno, ma ottimizzare la progettazione verso un tipo di architettura
JoeLatino
26-10-2006, 07:13
:) :) :) :) :)
XFX GeForce 8800GTX 768MB Extreme specification
Specification
Chipset GeForce 8800GTX
Bus Type PCI Express
Eclk 570 MHz
Memory Bus 384 Bit
Memory Type DDR3
Memory Size 768MB
Memory Speed 1800 MHz
Cooling Type Fansink
TV Out Yes
DVI Out Dual
Dual-Link DVI Dual
HDCP Yes
BFG Tech GeForce 8800GTX 768MB specification
Specification
GPU NVIDIA GeForce 8800 GTX
Bus Type PCI Express
Memory 768MB GDDR3
Core Clock 575MHz
Shader Clock 1350MHz
Memory Clock 1800MHz
Stream Processors 128
Shader Model 4.0
Texture Fill Rate 36.8 billion/sec
Memory Bandwidth 86.4GB/s
Connectors 2 Dual-Link DVI-I, HDTV + TV Out
HDCP Enabled Yes
BFG Tech GeForce 8800GTS 640MB specification
Specification
GPU NVIDIA GeForce 8800 GTS
Bus Type PCI Express
Memory 640MB GDDR3
Core Clock 500MHz
Shader Clock 1200MHz
Memory Clock 1600MHz
Stream Processors 96
Shader Model 4.0
Texture Fill Rate 24 billion/sec
Memory Bandwidth 64GB/s
Connectors 2 Dual-Link DVI-I, HDTV + TV Out
HDCP Enabled Yes
;) ;) ;)
JoeLatino
26-10-2006, 07:22
a questo links troverete dei tests interessanti (anche se in parte gia' noti) :D
http://xtremesystems.org/forums/showthread.php?t=120598&highlight=8800gtx
halduemilauno
26-10-2006, 08:00
a questo links troverete dei tests interessanti (anche se in parte gia' noti) :D
http://xtremesystems.org/forums/showthread.php?t=120598&highlight=8800gtx
ha saputo fare meglio.
http://img205.imageshack.us/img205/3203/06zd5.jpg
certo ottenuti con core2duo oc.
;)
Skullcrusher
26-10-2006, 08:09
ha saputo fare meglio.
certo ottenuti con core2duo oc.
;)
Con 5500 punti al cpu test direi un quad core senza dubbio....però anche gli altri risultati non sono male :)
JoeLatino
26-10-2006, 08:10
nota dolente :rolleyes:
essendo la distanza dei 'buchi' diversa dalle vecchie serie, non sara' possibile usare i precedenti wb per il liquido, almenoche' non usciranno (o si modificheranno) le staffe ;)
halduemilauno
26-10-2006, 08:12
Con 5500 punti al cpu test direi un quad core senza dubbio....però anche gli altri risultati non sono male :)
e si. sono nell'ordine dei 4800/4900.
;)
xenos ed i suoi shader unificati nella gpu made in ati esistono da agosto scorso ( quando la gpu è andata in produzione ) e novembre sul mercato
l'r600 è un evoluzione di quella gpu ed è allo stato delle cose la seconda generazione di gpu a shader unificati di Ati :)
Si parla di PC non di console: a maggior ragione perché ATI già ne aveva "pronta" una per console, il discorso di "imparare" (o ascoltare, che è lo stesso) non sta in piedi, visto che nonostante l'esperienza acquisita con la console, rilasceranno R600 con un notevole ritardo rispetto a nVidia, che invece questa esperienza non l'aveva ;)
Senza contare che in passato nVidia ha proposto varie nuove tecnologie prima della rivale, pensa alle schede DX9.0c o alla configurazione con due schede, pur se mutuata dall'esperienza di 3Dfx (ricordo che il primo CF di ATI con le X8x0 era limitato a 60HZ alla risoluzione di 1600X1200, cioè ingestibile): in questi casi è ATI che ha rincorso nVidia, e bisogna dire onestamente che l'ha raggiunta senza molti problemi. Non si tratta di ascoltare per "evitare di fare brutte figure" (quali sarebbero poi 'ste brutte figure non si sa), ma di avere il coraggio di proporre nuove tecnologie prima dei rivali, certo rischiando, e di affinare queste tecnologie, sfruttandole a fondo, quando l'altro ha prodotto qualcosa di equivalente (vedi anche Intel vs. AMD e il capovolgimento dei valori da quando Intel ha abbandonato il Net Burst per siluppare la tecnologia Core)
JoeLatino
26-10-2006, 08:16
ha saputo fare meglio.
certo ottenuti con core2duo oc.
;)
ciao Hal!
ehm... scommetto che in questo test aveva la scheda video oc, eh?? :D :D
Foglia Morta
26-10-2006, 08:18
Si parla di PC non di console: a maggior ragione perché ATI già ne aveva "pronta" una per console, il discorso di "imparare" (o ascoltare, che è lo stesso) non sta in piedi, visto che nonostante l'esperienza acquisita con la console, rilasceranno R600 con un notevole ritardo rispetto a nVidia, che invece questa esperienza non l'aveva ;)
nVidia non è il centro dell'universo... il punto di riferimento è windows vista ;)
JoeLatino
26-10-2006, 08:20
[QUOTE=halduemilauno]ha saputo fare meglio.
ops scusa non mi ero accorto che aveva cambiato la cpu :D
halduemilauno
26-10-2006, 08:21
[QUOTE=halduemilauno]ha saputo fare meglio.
ops scusa non mi ero accorto che aveva cambiato la cpu :D
;)
nVidia non è il centro dell'universo... il punto di riferimento è windows vista ;)
Non mi pare di averlo detto :confused: :confused:
Ho solo detto che, nonostante l'esperienza maturata con xbotolo360 (che è Microsoft, quindi ATI dovrebbe essersene avvantaggiata ancora di più), R600 uscirà con notevole ritardo rispetto a G80: che poi fino all'uscita di R600 (e di Vista) la prossima primavera, non ci saranno giochi DX10, questo è un altro discorso (ed è un discorso vecchio quello dell'hardware che corre più del software)
Foglia Morta
26-10-2006, 08:31
Non mi pare di averlo detto :confused: :confused:
Ho solo detto che, nonostante l'esperienza maturata con xbotolo360 (che è Microsoft, quindi ATI dovrebbe essersene avvantaggiata ancora di più), R600 uscirà con notevole ritardo rispetto a G80: che poi fino all'uscita di R600 (e di Vista) la prossima primavera, non ci saranno giochi DX10, questo è un altro discorso (ed è un discorso vecchio quello dell'hardware che corre più del software)
Ma non è una corsa a chi arriva prima , anche perchè R600 a giudicare dai rumours è andato in tape out prima di G80 e potrebbe benissimo essere pronto. A condizionarne i tempi di uscita possono benissimo essere motivi commerciali ( Vista per l'appunto ) , per cui parlare di ritardo è fuori luogo. Diciamo che probabilmente si sono dati tempi diversi
JoeLatino
26-10-2006, 08:45
Ma non è una corsa a chi arriva prima , anche perchè R600 a giudicare dai rumours è andato in tape out prima di G80 e potrebbe benissimo essere pronto. A condizionarne i tempi di uscita possono benissimo essere motivi commerciali ( Vista per l'appunto ) , per cui parlare di ritardo è fuori luogo. Diciamo che probabilmente si sono dati tempi diversi
dagli ulti rumors comunque sembra che l'R600 non uscira' prima di marzo :D
halduemilauno
26-10-2006, 08:47
Ma non è una corsa a chi arriva prima , anche perchè R600 a giudicare dai rumours è andato in tape out prima di G80 e potrebbe benissimo essere pronto. A condizionarne i tempi di uscita possono benissimo essere motivi commerciali ( Vista per l'appunto ) , per cui parlare di ritardo è fuori luogo. Diciamo che probabilmente si sono dati tempi diversi
se è andato in tape-out prima di g80 allora significa che ha dei problemi. nessuno lascia la sua futura gpu(addirittura di bandiera)nel cassetto. a far cosa? tempi diversi? si può essere. vista? può essere ma un pò meno. quindi può non essere in ritardo sui suoi tempi, ma è in ritardo(nel senso che esce dopo)rispetto al g80.
data prevista di uscita 15 marzo.
Skullcrusher
26-10-2006, 09:00
addirittura marzo?
Purtroppo ho sentito anch'io rumors che la danno in uscita per marzo, non prima...bisognerà aspettare :fagiano:
Ma ieri non dovevano uscire nuovi driver?
halduemilauno
26-10-2006, 09:11
Ma ieri non dovevano uscire nuovi driver?
sono usciti. 96.89
http://www.guru3d.com/news.php
;)
slivio...
26-10-2006, 09:13
infatti installati ieri.. :D
halduemilauno
26-10-2006, 09:15
una 7950gx2 cloccata a 761 associata a un E6800 @ 4946 ha ottenuto.
3DMark Score 12459 3DMarks
SM 2.0 Score 5402 Marks
SM 3.0 Score 4879 Marks
CPU Score 4248 Marks
;)
JoeLatino
26-10-2006, 09:21
una 7950gx2 cloccata a 761 associata a un E6800 @ 4946 ha ottenuto.
3DMark Score 12459 3DMarks
SM 2.0 Score 5402 Marks
SM 3.0 Score 4879 Marks
CPU Score 4248 Marks
;)
chissa' cosa si puo' ottenere con una 8800gtx oc!!! :D
halduemilauno
26-10-2006, 09:23
chissa' cosa si puo' ottenere con una 8800gtx oc!!! :D
e chissa cosa si può ottenere con una 8800gtx associata a quel mostro. con un 1200 di meno ha ottenuto lo stesso score.
;)
Ma non è una corsa a chi arriva prima , anche perchè R600 a giudicare dai rumours è andato in tape out prima di G80 e potrebbe benissimo essere pronto. A condizionarne i tempi di uscita possono benissimo essere motivi commerciali ( Vista per l'appunto ) , per cui parlare di ritardo è fuori luogo. Diciamo che probabilmente si sono dati tempi diversi
:sofico:
Cioè, già sono dietro la 7950gx2, e rischiano di perdere altri 5 mesi di leadership ( sulla fascia alta) perchè ce l'hanno pronta ma hanno tempi diversi :eek: ???
:asd:
evitiamo di buttare la discussione sul solito trollaggio Ati - Nvidia ok?
evitiamo di buttare la discussione sul solito trollaggio Ati - Nvidia ok?
Ma ti pare? :asd: Le ultime pagine sono piene :)
slivio...
26-10-2006, 09:48
una 7950gx2 cloccata a 761 associata a un E6800 @ 4946 ha ottenuto.
3DMark Score 12459 3DMarks
SM 2.0 Score 5402 Marks
SM 3.0 Score 4879 Marks
CPU Score 4248 Marks
;)
ma chi me lo fa fare a cambiare... :asd:
halduemilauno
26-10-2006, 09:50
ma chi me lo fa fare a cambiare... :asd:
stai a metà dell'opera cambia procio.
;)
slivio...
26-10-2006, 09:53
stai a metà dell'opera cambia procio.
;)
si e poi anche mobo.... :rolleyes:
halduemilauno
26-10-2006, 09:56
si e poi anche mobo.... :rolleyes:
pazienza. dai un'impulso, che merita, alla vga. basta un E6300/6400.
;)
ma chi me lo fa fare a cambiare... :asd:
Ma il processore o la VGA ? :asd:
A parte i scherzi se resti con il tuo processore scheda madre e memorie attuali, non ti conviene assolutamente cambiare scheda video, infatti non sfrutteresti ne la 8800GTX ne la 8800GTS, anche perchè non stai sfruttando nemmeno la 7950GX2, sei CPU limited ;) .
slivio...
26-10-2006, 10:00
pazienza. dai un'impulso, che merita, alla vga. basta un E6300/6400.
;)
scusa la domanda ma nel campo dei dual core non ne so molto...
con un dualcore come il core2 di intel... nei game che non sfruttano il dualcore... un processore e superfluo...? o entrambi i core vengono impegnati nel game.. ? e in che misura... o si deve fare qualcosa affinche il lavoro dei due core sia bilanciato... non mi va di avere un sistema... che un core lavora e l'altro si fa le pippe.... :muro:
slivio...
26-10-2006, 10:02
Ma il processore o la VGA ? :asd:
A parte i scherzi se resti con il tuo processore scheda madre e memorie attuali, non ti conviene assolutamente cambiare scheda video, infatti non sfrutteresti ne la 8800GTX ne la 8800GTS, anche perchè non stai sfruttando nemmeno la 7950GX2, sei CPU limited ;) .
per una gpu non lo sono :D
cmq a prestazioni non mi posso lamentare... :D
halduemilauno
26-10-2006, 10:05
scusa la domanda ma nel campo dei dual core non ne so molto...
con un dualcore come il core2 di intel... nei game che non sfruttano il dualcore... un processore e superfluo...? o entrambi i core vengono impegnati nel game.. ? e in che misura... o si deve fare qualcosa affinche il lavoro dei due core sia bilanciato... non mi va di avere un sistema... che un core lavora e l'altro si fa le pippe.... :muro:
eccoti una bella rece.
http://www.tomshw.it/cpu.php?guide=20060714
;)
per una gpu non lo sono :D
cmq a prestazioni non mi posso lamentare... :D
Fidati che sei CPU limited ;) , se vuoi sfruttare bene la 7950GX2 che hai oppure una nuova devi farti come ti ha consigliato giustamente Hal, minimo un Intel E6400/6600 .
Il fatto single o Dual non centra niente sono processori con un architettura superiore ad AMD e quindi spingono di + sia in Single che in Dual core.
(Anche se ormai io consiglio un bel Intel KentsField 4 core :asd: per una 8800GTX) .
ugruhell
26-10-2006, 10:19
scusate credete che io sia cpu limited?
guardate in firma
scusate credete che io sia cpu limited?
guardate in firma
Cerrrrrrrto, tu + di tutti il P4 con Hyer Treading ormai è superatissimo e non sfrutta niente delle nuove VGA .
ugruhell
26-10-2006, 10:24
Cerrrrrrrto, tu + di tutti il P4 con Hyer Treading ormai è superatissimo e non sfrutta niente delle nuove VGA .
posso pure overclockare cosi sono meno cpu limited
halduemilauno
26-10-2006, 10:25
scusate credete che io sia cpu limited?
guardate in firma
certo. E6400/6600.
;)
halduemilauno
26-10-2006, 10:26
posso pure overclockare cosi sono meno cpu limited
per queste schede ci vuole il duo.
;)
ugruhell
26-10-2006, 10:28
per queste schede ci vuole il duo.
;)
ma io mi domando se sono cpu limited con la mia ati x1900xtx,forse te dici con la 8800gtx?
slivio...
26-10-2006, 10:29
eccoti una bella rece.
http://www.tomshw.it/cpu.php?guide=20060714
;)
si ma qui non ho trovato risposta alla mia domanda.... :(
cioè parla di prestazioni al top della gamma... di consumi e temperature molto più contenute di amd.. parla... di tante bellissime cose interessantissime... perfino che sotto stress ci sono parti di cpu inutilizzate e che vengono messe in idle... quando l'ho letto sono rimasto cosi :eek:
ma alla fine un f.e.ar. un farcry.. un Q4 un dark messiah... un serious sam2
un trl.... un Hallife2 un tocarace driver 3 un GTR2 insomma tutta la piattaforma game da 2 anni a questa parte...
sfrutta questo core2 al 100% oppure... uno 100% l'altro 80/7050 persino nulla % questo non mi è chiaro...( a parte i benq naturalmente.. che sono fatti apposta per fare restare la gente di sasso in senso negativo)
halduemilauno
26-10-2006, 10:30
ma io mi domando se sono cpu limited con la mia ati x1900xtx,forse te dici con la 8800gtx?
si avevo capito. certo con la tua x1900xtx.
;)
ma io mi domando se sono cpu limited con la mia ati x1900xtx,forse te dici con la 8800gtx?
Sei Cpu limited anche con la X1900XTX per non esserlo dovresti overcloccare il P4 HT a 6 Ghz ;) .
Core 2 Duo 6300/6400 e cominci a sfruttarla e ti prepari per le DX10 ciao ;) .
JoeLatino
26-10-2006, 10:32
Mi sa' tanto che per Natale dovro' rivedere anche il mio sistema :eek: visto che anche la mia cpu sara' 'limitata' :(
Stavo giusto aspettando le nuove schede madri col chipset Nvidia 680i SLI per poi prendermi un core duo e delle ddrII da abbinare alla 8800gtx :sofico:
Il problema e' che dovro' anche cambiare le staffe per il raffreddamento a liquido! :D
Avete qualche consiglio da darmi (su cosa scegliere)???
si ma qui non ho trovato risposta alla mia domanda.... :(
cioè parla di prestazioni al top della gamma... di consumi e temperature molto più contenute di amd.. parla... di tante bellissime cose interessantissime... perfino che sotto stress ci sono parti di cpu inutilizzate e che vengono messe in idle... quando l'ho letto sono rimasto cosi :eek:
ma alla fine un f.e.ar. un farcry.. un Q4 un dark messiah... un serious sam2
un trl.... un Hallife2 un tocarace driver 3 un GTR2 insomma tutta la piattaforma game da 2 anni a questa parte...
sfrutta questo core2 al 100% oppure... uno 100% l'altro 80/7050 persino nulla % questo non mi è chiaro...( a parte i benq naturalmente.. che sono fatti apposta per fare restare la gente di sasso in senso negativo)
Avrai un incremento di prestazioni pari a 20 FPS circa (se non anche di +) a quasi tutte le risoluzioni con un Intel Core 2 Duo 6400/6600, poi overcloccandolo a 3ghz (ci arrivano anche i più sfigati C2DUO) avrai dei salti prestazionali impensabili.
Io la prima volta che ho portato l' E6400 da 2,13 a 3 Ghz sono rimasto così :eek: :eek: :eek: .
slivio...
26-10-2006, 10:37
Avrai un incremento di prestazioni pari a 20 FPS circa (se non anche di +) a quasi tutte le risoluzioni con un Intel Core 2 Duo 6400/6600, poi overcloccandolo a 3ghz (ci arrivano anche i più sfigati C2DUO) avrai dei salti prestazionali impensabili.
Io la prima volta che ho portato l' E6400 da 2,13 a 3 Ghz sono rimasto così :eek: :eek: :eek: .
si ok ma i due core lavorano sotto un game entrambi?
a quanto ho intuito a sto punto si...
qual è la migliore piattaforma per conroe?
slivio...
26-10-2006, 10:38
Avrai un incremento di prestazioni pari a 20 FPS circa (se non anche di +) a quasi tutte le risoluzioni con un Intel Core 2 Duo 6400/6600, poi overcloccandolo a 3ghz (ci arrivano anche i più sfigati C2DUO) avrai dei salti prestazionali impensabili.
Io la prima volta che ho portato l' E6400 da 2,13 a 3 Ghz sono rimasto così :eek: :eek: :eek: .
ma l'over con queste cpu si fa solo di molti nella rece l'hanno fatto solo di molti... :rolleyes:
si ok ma i due core lavorano sotto un game entrambi?
a quanto ho intuito a sto punto si...
qual è la migliore piattaforma per conroe?
Ti rispiego per l'ultima volta :) :
Gli Intel Core 2 DUO hanno 2 Core come gli Athlon X2 e fino a qui ci siamo ;) .
I giochi attuali al 90% sfruttano 1 CORE e il restante 10% 2 CORE, anche se ormai siamo nel 2007 e sempre + giochi sfrutteranno 2 O + CORE .
L'architettura interna dei Conroe Intel Core 2 DUO di un Singolo Core è migliore rispetto a quella di un Singolo Core che si può trovare in un AMD ATHLON X2 .
Quindi che il gioco sfrutti 1 CORE oppure 2 CORE Sull' Intel andranno sempre + veloci :) .
Per Overcloccare ci sono molti parametri , Il Moltiplicatore (bloccato sui 6300,6400,6600,6700) e sbloccato sui (6800) la frequenza di Bus Quad Punped e cioè moltiplicata X4 e molte altre questioni .
Cmq se abbini un E6400/6600 ad una scheda madre ASUS/Gigabyte/Intel di buona fattura e con DDR 2 da 667mhz arrivi molto facilmente alla soglia dei 3 GHZ, che prestazionalmente è una cosa eccezionale (arrivi alla potenza di un E6800 che costa 1.000 Euro spendendo circa o meno di 300 euro per un 6400/6600)
Te Capì ? ;) .
Athlon 64 3000+
26-10-2006, 11:00
ma l'over con queste cpu si fa solo di molti nella rece l'hanno fatto solo di molti... :rolleyes:
E' assurdo che per sfruttare una 8800GTX ci voglia per forza un Core 2 Duo.
Lascia perdere i consigli degli altri e se vuoi pigliati lo stesso una eventuale 8800GTX perchè non credo proprio che a 1280x1024 con tutto i filtri a palla possa contare la cpu.
Athlon 64 3000+
26-10-2006, 11:01
Secondo quello che dite un'Athlon 64 FX-57 è sottodimensionato per G80.
Allora vi volevo chiedere se mai volessi prendere una 8800GTX,con un'Athlon 64 x2 4800+ sarei cpu limited?
Secondo quello che dite un'Athlon 64 FX-57 è sottodimensionato per G80.
Allora vi volevo chiedere se mai volessi prendere una 8800GTX,con un'Athlon 64 x2 4800+ sarei cpu limited?
Io francamente non capisco perchè si debba avere sempre la cpu che satura completamente la gpu :)
Cioè io mi prendo una scheda (qualunque) e la cpu mi fa fare il 90% degli fps che la gpu può fare. Perchè devo accontentarmi di una scheda inferiore (come dice qualcuno) oppure devo spendere altri € per comprarmi una cpu (quando va bene) più performante (come dice... ehm sempre lo stesso :))?
Uno deve comprare quello che arriva a comprare... come si fa a dire "Ah senza Core 2 Duo non stare neanche a guardarla" come dire "se hai una cpu inferiore non sei degno di averla nel case"... ma sono discorsi da bambini di 5 anni che devono avere sempre il "più" dentro al case...
Condivido invece chi consiglia di fare acquisti più oculati, nel caso in cui uno debba cambiare tutto il pc (ad esempio io non sto neanche guardando nuove gpu, perchè tutto il sistema sarebbe antiquato, ogni singolo € speso sarebbe un € buttato).
Dio mio c'è gente che sputa su degli Athlon 64 x2 o su dei P4 da 3 e rotti ghz...
halduemilauno
26-10-2006, 11:17
Io francamente non capisco perchè si debba avere sempre la cpu che satura completamente la gpu :)
Cioè io mi prendo una scheda (qualunque) e la cpu mi fa fare il 90% degli fps che la gpu può fare. Perchè devo accontentarmi di una scheda inferiore (come dice qualcuno) oppure devo spendere altri € per comprarmi una cpu (quando va bene) più performante (come dice... ehm sempre lo stesso :))?
Uno deve comprare quello che arriva a comprare... come si fa a dire "Ah senza Core 2 Duo non stare neanche a guardarla" come dire "se hai una cpu inferiore non sei degno di averla nel case"... ma sono discorsi da bambini di 5 anni che devono avere sempre il "più" dentro al case...
Condivido invece chi consiglia di fare acquisti più oculati, nel caso in cui uno debba cambiare tutto il pc (ad esempio io non sto neanche guardando nuove gpu, perchè tutto il sistema sarebbe antiquato, ogni singolo € speso sarebbe un € buttato).
Dio mio c'è gente che sputa su degli Athlon 64 x2 o su dei P4 da 3 e rotti ghz...
ma non si tratta di sputare e qui non sputa nessuno. oggi un E6300 lo paghi 189€ I.I. al massino si consiglia(nel mio caso)l'E6600 che si trova sui 300€ o poco +. c'è gente che spende una fortuna per le vga che spendesse qualche € in + per utilizzarle/sfruttarle come si deve.
Athlon 64 3000+
26-10-2006, 11:18
Io francamente non capisco perchè si debba avere sempre la cpu che satura completamente la gpu :)
Cioè io mi prendo una scheda (qualunque) e la cpu mi fa fare il 90% degli fps che la gpu può fare. Perchè devo accontentarmi di una scheda inferiore (come dice qualcuno) oppure devo spendere altri € per comprarmi una cpu (quando va bene) più performante (come dice... ehm sempre lo stesso :))?
Uno deve comprare quello che arriva a comprare... come si fa a dire "Ah senza Core 2 Duo non stare neanche a guardarla" come dire "se hai una cpu inferiore non sei degno di averla nel case"... ma sono discorsi da bambini di 5 anni che devono avere sempre il "più" dentro al case...
Condivido invece chi consiglia di fare acquisti più oculati, nel caso in cui uno debba cambiare tutto il pc (ad esempio io non sto neanche guardando nuove gpu, perchè tutto il sistema sarebbe antiquato, ogni singolo € speso sarebbe un € buttato).
Dio mio c'è gente che sputa su degli Athlon 64 x2 o su dei P4 da 3 e rotti ghz...
La mia era solo una domanda ironica,perchè ritengo assurdo che se uno vuole prendersi una 8800GTX deve per forza un Core 2 Duo.
Per godersi una scheda del genere è anche sufficiente un Athlon 64 3500+
rey.mysterio83
26-10-2006, 11:19
Secondo quello che dite un'Athlon 64 FX-57 è sottodimensionato per G80.
Allora vi volevo chiedere se mai volessi prendere una 8800GTX,con un'Athlon 64 x2 4800+ sarei cpu limited?
ma perchè non la finiamo di dire ste str***onzate??? :muro: :muro:
ma da quando una scheda video SATURA una cpu di ultima generazione???
per cortesia...
da un 4000 san diego in su vanno tutti alla grande!! non spariamo cose per spingere la gente a comprare!!! EVITIAMO! GRAZIE!
halduemilauno
26-10-2006, 11:20
Secondo quello che dite un'Athlon 64 FX-57 è sottodimensionato per G80.
Allora vi volevo chiedere se mai volessi prendere una 8800GTX,con un'Athlon 64 x2 4800+ sarei cpu limited?
certo che è sottodimensionato. ma scusa uno che paga 600 e passa € per una vga mi pare normale che abbia una cpu adeguata. un E6700 e bada parlo di E6700 costa ben meno della 8800gtx. e basta un E6600 con il bus a 1333 e stai a posto.
;)
ma non si tratta di sputare e qui non sputa nessuno. oggi un E6300 lo paghi 189€ I.I. al massino si consiglia(nel mio caso)l'E6600 che si trova sui 300€ o poco +. c'è gente che spende una fortuna per le vga che spendesse qualche € in + per utilizzarle/sfruttarle come si deve.
Ma su questo non ci piove. Io di solito sono per prendere magari una cpu più veloce e magari una gpu di un gradino sotto...
Ma il tuo discorso vale se uno ha già una mobo che supporta il Core 2 Duo. Altrimenti ai 190€ della cpu si sommano anche 100€ (e sto basso) di una mobo.... e se uno ha le ddr e non le ddr2? Il gioco vale la candela? Dubito.
La mia era solo una domanda ironica,perchè ritengo assurdo che se uno vuole prendersi una 8800GTX deve per forza un Core 2 Duo.
Avevo capito :)
Ho solo quotato te e preso spunto dal tuo discorso sull'Athlon per fare il mio discorso :)
sono usciti. 96.89
http://www.guru3d.com/news.php
;)
Io pensavo driver ufficiali (anche beta), non leaked...
[EDIT]Ah, un'altra cosa. Le specifiche del primo post non erano poi così campate in aria...
rey.mysterio83
26-10-2006, 11:24
e basta un E6600 con il bus a 1333 e stai a posto.
;)
ragazzi, ma perchè non vi fate un cavolo di giro nella sezione Processori e vi informate prima di aprir bocca??
ma lo sapete che tra un 4800 e un e6700 ci sono COI FILTRI ATTIVATI e NON A DEFAULT come molti leggono, solo 2-3 fps di differenza???
per cortesia.. :rolleyes:
halduemilauno
26-10-2006, 11:25
Io pensavo driver ufficiali (anche beta), non leaked...
credevo di esser stato chiaro. gli ufficiali escono con la scheda.
;)
JoeLatino
26-10-2006, 11:25
scusa ma tu che configurazione hai esattamente? Hai oc cpu/gpu?
quanto fai con il 3dmark06 (anche a configurazione standard) ?
Grazie (te lo chiedo giusto per fare un paragone ;) )
halduemilauno
26-10-2006, 11:27
ragazzi, ma perchè non vi fate un cavolo di giro nella sezione Processori e vi informate prima di aprir bocca??
ma lo sapete che tra un 4800 e un e6700 ci sono COI FILTRI ATTIVATI e NON A DEFAULT come molti leggono, solo 2-3 fps di differenza???
per cortesia.. :rolleyes:
ma tu non devi pensare solo ad ora. devi pensare in ambiente vista e con i giochi dx10. stiamo nel thread delle 8800 mi pareva chiaro.
oggi come oggi chi compra amd? quelli che non sanno.
;)
Ma su questo non ci piove. Io di solito sono per prendere magari una cpu più veloce e magari una gpu di un gradino sotto...
Ma il tuo discorso vale se uno ha già una mobo che supporta il Core 2 Duo. Altrimenti ai 190€ della cpu si sommano anche 100€ (e sto basso) di una mobo.... e se uno ha le ddr e non le ddr2? Il gioco vale la candela? Dubito.
questo è il problema anche io sarei intenzionato a passare al dual, ma non mi va di cambiare mobo e ram (le Hyperix mi erano costate 220,00 euro), quindi la scelta del dual-amd sarebbe "obbligata"
halduemilauno
26-10-2006, 11:28
Io pensavo driver ufficiali (anche beta), non leaked...
[EDIT]Ah, un'altra cosa. Le specifiche del primo post non erano poi così campate in aria...
avevo intenzione di riproporlo.
;)
JoeLatino
26-10-2006, 11:31
iniziamo con gli oc!!!
http://vic.expreview.com/attachment/1161849836.jpg
http://vic.expreview.com/attachment/1161849814.jpg
halduemilauno
26-10-2006, 11:35
Ma su questo non ci piove. Io di solito sono per prendere magari una cpu più veloce e magari una gpu di un gradino sotto...
Ma il tuo discorso vale se uno ha già una mobo che supporta il Core 2 Duo. Altrimenti ai 190€ della cpu si sommano anche 100€ (e sto basso) di una mobo.... e se uno ha le ddr e non le ddr2? Il gioco vale la candela? Dubito.
e la pensiamo uguale(è la seconda volta mi devo cominciare a preoccupare)meglio la cpu che usi sempre che la gpu.
il mio discorso vale per uno che ha deciso di cambiare standard(agp---pci-e) e quello di fare un bel salto nei giochi sia che cambi solo la cpu(nel caso degli amici che hanno gia vga potenti) e sia(ovviamente)quelli che hanno si il pci-e ma vga modeste/vecchie.
certo infatti consiglio al massimo un E6600 da poco + di 300€. dove poi aggiungere mamma e ram.
poi ci sono le categorie estreme...E6800ee+8800gtx.
JoeLatino
26-10-2006, 11:35
ehm guardate pero' l'oc...come mai la memoria e' sottoOc???? :confused:
iniziamo con gli oc!!!
http://vic.expreview.com/attachment/1161849814.jpg
anche un quad fà 1 o 2 fps al cpu test... consolante...:asd:
halduemilauno
26-10-2006, 11:41
scusa ma tu che configurazione hai esattamente? Hai oc cpu/gpu?
quanto fai con il 3dmark06 (anche a configurazione standard) ?
Grazie (te lo chiedo giusto per fare un paragone ;) )
sono in procinto di cambiare tutto. ora un 2.4@3.0 e 6800le agp. domani conto un E6600@bus 1333 e quindi ram 667. e ovviamente pci-e.
;)
iniziamo con gli oc!!!
http://vic.expreview.com/attachment/1161849836.jpg
http://vic.expreview.com/attachment/1161849814.jpg
:read: Secondo voi perchè testano la nuova scheda video su Intel Core 2 Duo e su Intel Quad Core?
Perchè sono gli unici processori che riescono a spingere una GPU da 700.000.000 di Transistor ;) .
Forse si possono ottenere gli stessi risultati solo con un doppio AMD FX 74 (2 Processori Dual Core su una MOBO) .
JoeLatino
26-10-2006, 11:44
sono in procinto di cambiare tutto. ora un 2.4@3.0 e 6800le agp. domani conto un E6600@bus 1333 e quindi ram 667. e ovviamente pci-e.
;)
bus a 1333 intendi oc vero???
bus a 1333 intendi oc vero???
No, sono usciti con quel bus se non ricordo male :)
halduemilauno
26-10-2006, 11:48
bus a 1333 intendi oc vero???
si. da 1066 a 1333. praticamente stavo aspettando l'allineamento astrale favorevole. core2duo+vista+dx10.
;)
Dire che per sfruttare al 100% G80 bisogna avere per forza un Core 2 Duo è una sorta di terrorismo psicologico, nonché assolutamente falso.
Le situazioni CPU limited salteranno fuori sicuramente, ma quali sono? Essenzialmente quelle che si presentano alle basse risoluzioni e senza filtri e anche in questi casi le prestazioni sono comunque elevate. Semplicemente si hanno 180 fps invece di 230 fps, ma alla fine è principalmente il margine superiore della prestazioni ad abbassarsi il che solo in casi estremi rappresenta una reale limitazione alla giocabilità.
Usando HDR e filtri vari questo problema si riduce sicuramente, per non dire che svanisce e il frame rate medio passando da una CPU all'altra è molto simile.
Si tratta quindi di un falso problema. Il problema è reale solo se la CPU è talmente sottodimensionata da non consentire un funzionamento fluido neanche a 640x480 senza alcun filtro, ma nessuna CPU attualmente in commercio arriva ad avere questi problemi.
No, sono usciti con quel bus se non ricordo male :)
Ancora no ufficialmente siamo a 1066mhz tra qualche mese si passerà a 1333 ma io già sto a 1800mhz di Bus :asd: .
slivio...
26-10-2006, 11:48
:read: Secondo voi perchè testano la nuova scheda video su Intel Core 2 Duo e su Intel Quad Core?
Perchè sono gli unici processori che riescono a spingere una GPU da 700.000.000 di Transistor ;) .
Forse si possono ottenere gli stessi risultati solo con un doppio AMD FX 74 (2 Processori Dual Core su una MOBO) .
non potrebbe fare altrimenti dato che amd e stata assorbita da ati.... :rolleyes: di conseguenza nvidia a forza di cose si publicizza su piattaforma intel
JoeLatino
26-10-2006, 11:50
No, sono usciti con quel bus se non ricordo male :)
strano io sapevo che uscivano con l'anno nuovo....e che ora ci fossero solo quelli col bus a 1066 :confused:
halduemilauno
26-10-2006, 11:50
No, sono usciti con quel bus se non ricordo male :)
si fra un pò. ma io preferisco il bus a 1066 che oc a 1333. cosi un 2400 mi diventa 3000 a prezzi molto più bassi. unica accortezza la ram da prendere subito quella da 667.
slivio...
26-10-2006, 11:50
sapete che vi dico mi tengo il mio caro bel sistema finche non ho problemi di performance... naturalmente non mi faccio ammaliare dai 3Dmark....
a tempo debito... cambio tutto... :D
non potrebbe fare altrimenti dato che amd e stata assorbita da ati.... :rolleyes: di conseguenza nvidia a forza di cose si publicizza su piattaforma intel
Vieni fammi un test http://www.hwupgrade.it/forum/showthread.php?t=1300964&page=1
:cool: .
slivio...
26-10-2006, 11:56
Vieni fammi un test http://www.hwupgrade.it/forum/showthread.php?t=1300964&page=1
:cool: .
non posso farlo per adesso sto effettuando un download importante... se tutto va bene cioe faccio l'aquisto :D lo faccio :D
Dire che per sfruttare al 100% G80 bisogna avere per forza un Core 2 Duo è una sorta di terrorismo psicologico, nonché assolutamente falso.
Le situazioni CPU limited salteranno fuori sicuramente, ma quali sono? Essenzialmente quelle che si presentano alle basse risoluzioni e senza filtri e anche in questi casi le prestazioni sono comunque elevate. Semplicemente si hanno 180 fps invece di 230 fps, ma alla fine è principalmente il margine superiore della prestazioni ad abbassarsi il che solo in casi estremi rappresenta una reale limitazione alla giocabilità.
Usando HDR e filtri vari questo problema si riduce sicuramente, per non dire che svanisce e il frame rate medio passando da una CPU all'altra è molto simile.
Si tratta quindi di un falso problema. Il problema è reale solo se la CPU è talmente sottodimensionata da non consentire un funzionamento fluido neanche a 640x480 senza alcun filtro, ma nessuna CPU attualmente in commercio arriva ad avere questi problemi.
:mano:
slivio...
26-10-2006, 11:58
ma io l'ha non ci vengo... :D:D
siete tutti dualcore apparte 2 o 3... che stanno ultimi..
JoeLatino
26-10-2006, 11:59
Raga ora devo scappare...ci risentiamo stasera! ciao a tutti e buon proseguimento ;)
JoeLatino
26-10-2006, 12:03
ehm guardate pero' l'oc...come mai la memoria e' sottoOc???? :confused:
non e' che i vari test li hanno fatti con frequenze piu' basse??? ;)
ma io l'ha non ci vengo... :D:D
siete tutti dualcore apparte 2 o 3... che stanno ultimi..
Quel test fà capire quanto siano potenti i Core 2 DUO rispetto agli AMD attuali .
Non rifugiamoci sempre dietro a quello che si ha e diciamo che è uguale o meglio, io mi ritengo abbastanza obbietivo:
Chi mi conosce sà che quando avevo l' Intel P4 630 HT con clock di 3 ghz e portato a 3,6ghz e mi si mettevano di fronte gli AMD ATHLON64 X2 da 3800+ in su non potevo far altro che dare ragione ERANO SUPERIORI al mio e basta non mi inventavo favole.
Adesso però chi ha AMD deve rendersi conto che gli Intel Core 2 DUO sono SUPERIORI a tutte le versioni di AMD ATHLON X2 ed FX esistenti oggi e non dovrebbero inventare scuse dicendo che i Core 2 DUO vanno uguale o sono inutili perchè non è vero .
Ripeto se si vuole scoprire il vero potenziale di una scheda video VGA questo oggi è possibile solo tramite i Core 2 DUO, è chiaro che chi già ha un AMD X2 4200+ in su Overcloccato è inutile che cambi tutto quanto per passare ad Intel anche se và di meno, ma se si deve fare un nuovo PC non penso sia giusto consigliare AMD .
Cmq poi fate come vi pare ;) chiuso OT .
Dire che per sfruttare al 100% G80 bisogna avere per forza un Core 2 Duo è una sorta di terrorismo psicologico, nonché assolutamente falso.
Le situazioni CPU limited salteranno fuori sicuramente, ma quali sono? Essenzialmente quelle che si presentano alle basse risoluzioni e senza filtri e anche in questi casi le prestazioni sono comunque elevate. Semplicemente si hanno 180 fps invece di 230 fps, ma alla fine è principalmente il margine superiore della prestazioni ad abbassarsi il che solo in casi estremi rappresenta una reale limitazione alla giocabilità.
Usando HDR e filtri vari questo problema si riduce sicuramente, per non dire che svanisce e il frame rate medio passando da una CPU all'altra è molto simile.
Si tratta quindi di un falso problema. Il problema è reale solo se la CPU è talmente sottodimensionata da non consentire un funzionamento fluido neanche a 640x480 senza alcun filtro, ma nessuna CPU attualmente in commercio arriva ad avere questi problemi.
Concordo piu' che altro e' una sorta di "tranquillita'" quella di sapere che la propria VGA e' sfruttata totalmente ad una risoluzione anche bassa.
Un po' come avere un ferrari con i pneumatici ricoperti.. non sta bene. :p
Poi e' ovvio che quella scheda andra' benissimo su tutti i processori attualmente in commercio. ;)
guglielmit
26-10-2006, 12:24
si. da 1066 a 1333. praticamente stavo aspettando l'allineamento astrale favorevole. core2duo+vista+dx10.
;)
A me manca ancora l'ultimo tassello per passare a core2duo.
http://img169.imageshack.us/img169/4272/nforce680islisneakpeeksr8.jpg
Nforce 680i,dovrebbe uscire con il G80. Quando esce la mobo daro' una bella ripulita al conto :D Per il G80 invece magari attendo un attimo,mi sfrutto ancora un po' le mie fide 7800 :p
A me manca ancora l'ultimo tassello per passare a core2duo.
http://img169.imageshack.us/img169/4272/nforce680islisneakpeeksr8.jpg
Nforce 680i,dovrebbe uscire con il G80. Quando esce la mobo daro' una bella ripulita al conto :D Per il G80 invece magari attendo un attimo,mi sfrutto ancora un po' le mie fide 7800 :p
:cincin: Goood :cool: .
slivio...
26-10-2006, 12:45
Concordo piu' che altro e' una sorta di "tranquillita'" quella di sapere che la propria VGA e' sfruttata totalmente ad una risoluzione anche bassa.
Un po' come avere un ferrari con i pneumatici ricoperti.. non sta bene. :p
Poi e' ovvio che quella scheda andra' benissimo su tutti i processori attualmente in commercio. ;)
finche la mia GPU sosterrà la mia cpu in modo adeguato
non posso che dire lunga vita al re.. :D
lo so che i core2 sono di gran lunga migliori degli x2 e dei single core...
molto di più su questi ultimi...
halduemilauno
26-10-2006, 13:43
A me manca ancora l'ultimo tassello per passare a core2duo.
http://img169.imageshack.us/img169/4272/nforce680islisneakpeeksr8.jpg
Nforce 680i,dovrebbe uscire con il G80. Quando esce la mobo daro' una bella ripulita al conto :D Per il G80 invece magari attendo un attimo,mi sfrutto ancora un po' le mie fide 7800 :p
bella.
;)
Ragazzi, ma 12.000 nel 3dmark06 con una scheda single core mi sembra mostruoso, cosa potranno fare due 8800gtx in sli??: sbav :
io dico che si raggiungono i 20.000!!:D
kenjcj2000
26-10-2006, 13:54
infatti... quella madre è veramente bella (si dice sia ottima in prestazioni)
a me x la mia nuova config mi manca solo scheda madre e vga.... l^accoppiata sarebbe quella e G80 che se tutto và come previsto dovrei averle tutte e due abbastanza velocemente...
Ma non è una corsa a chi arriva prima , anche perchè R600 a giudicare dai rumours è andato in tape out prima di G80 e potrebbe benissimo essere pronto. A condizionarne i tempi di uscita possono benissimo essere motivi commerciali ( Vista per l'appunto ) , per cui parlare di ritardo è fuori luogo. Diciamo che probabilmente si sono dati tempi diversi
Dubito fortemente che una GPU in tape-out, ammesso che lo sia realmente, rivoluzionaria come R600, possa essere tenuta parcheggiata per 4/5 mesi solo per aspettare Vista, quando l'unica concorrente sta per rilasciare una GPU equivalente. In ogni caso l'ho detto qualche post fa: si tratta di scelta coraggiose da parte di nVidia (DX10, DX9.0c, SLI), che ultimamente ha sempre preceduto ATI, almeno nell'immissione sul mercato di nuove tecnologie (per quanto riguarda la fase di preparazione e progettazione invece, non posso certo esprimermi, visto che non conosco i piani di sviluppo delle due case), ma siccome è il mercato che premia o meno una scelta produttiva, si parla cmnq di ritardo (che R600 sia pronto o meno) ... ;)
kenjcj2000
26-10-2006, 14:30
Dubito fortemente che una GPU in tape-out, ammesso che lo sia realmente, rivoluzionaria come R600, possa essere tenuta parcheggiata per 4/5 mesi solo per aspettare Vista, quando l'unica concorrente sta per rilasciare una GPU equivalente. In ogni caso l'ho detto qualche post fa: si tratta di scelta coraggiose da parte di nVidia (DX10, DX9.0c, SLI), che ultimamente ha sempre preceduto ATI, almeno nell'immissione sul mercato di nuove tecnologie (per quanto riguarda la fase di preparazione e progettazione invece, non posso certo esprimermi, visto che non conosco i piani di sviluppo delle due case), ma siccome è il mercato che premia o meno una scelta produttiva, si parla cmnq di ritardo (che R600 sia pronto o meno) ... ;)
bisogna capire se è in ritardo R600.... oppure in anticipo il G80.....
capitan_crasy
26-10-2006, 14:30
http://vic.expreview.com/attachment/1161835755.jpg
Clicca qui... (http://vic.expreview.com/index.php)
JoeLatino
26-10-2006, 14:40
scusa ma quelle immagini erano gia' state postate...
cerchiamo di non fare troppi doppioni ;)
scusa ma quelle immagini erano gia' state postate...
cerchiamo di non fare troppi doppioni ;)
se no i 56k schiopano :sofico:
appleroof
26-10-2006, 14:42
finche la mia GPU sosterrà la mia cpu in modo adeguato
non posso che dire lunga vita al re.. :D
Ho letto il tread (ma quanto scrivete? Ero indietro di quattro pagine e l'ultima visita è stata ieri sera :eek: :D ) e posso dire di essere stra d'accordo con questa conclusione....
Secondo me è un'esagerazione, per usare un eufemismo,(legittima opinione però, è chiaro) dire che per sfruttare le nuove vga top ci vuole almeno un conroe...e dire che tutti quelli che hanno scritto stà "cosa" :rolleyes: ne sanno di pc e dintorni....e concordo pienamente con chi dice che nessuna vga è in grado di saturare un processore recente, e non lo saranno nemmeno le dx10 (al limite basta mettere sù filtri e alzare risoluzione, paradosso!!!)
L'unico upgrade sensato (costi-benefici) che può fare oggi uno che ha un 939 al limite secondo me è passare da un single ad un dual (ormai gli x2 e opty dual costano poco) ma solo per "prepararsi" ai giochi (e chissà quale altra applicazione) che sfrutteranno sempre più l'architettura multi core.
Sono stato con il mio opty 146 a lungo mentre tutti passavano di corsa all'x2 e non ho mai (e tuttora è così, se non fosse che ho trovato un 165 a prezzo stracciato) sentito l'esigenza di passare al dual (visto all'opera su sistemi di amici)
diverso discorso per chi passa da un ormai superato sistema agp ad un sistema pci-x, allora a quel punto meglio passare subito al meglio che c'è attualmente e bona (soldi permettendo...)
appleroof
26-10-2006, 14:53
Ma non è una corsa a chi arriva prima
:mc:
senza offesa davvero...vatti a leggere qualche libro di marketing o economia aziendale va... :)
Foglia Morta
26-10-2006, 15:08
:mc:
senza offesa davvero...vatti a leggere qualche libro di marketing o economia aziendale va... :)
Ho dato l'esame 3 anni fa... libro di testo Marketing , ed il mulino , William J. Stanton e Riccardo Varaldo , facoltà di Modena.
avvocato delle cause perse :rotfl:
Ho dato l'esame 3 anni fa... libro di testo Marketing , ed il mulino , William J. Stanton e Riccardo Varaldo , facoltà di Modena.
avvocato delle cause perse :rotfl:
:asd:
sta vga fà in OC al 3D 06 quanto io faccio a default al 3d 05 :mc: :mc:
impressionante..
capitan_crasy
26-10-2006, 15:38
scusa ma quelle immagini erano gia' state postate...
cerchiamo di non fare troppi doppioni ;)
Chiedo scusa, editato...
bisogna capire se è in ritardo R600.... oppure in anticipo il G80.....
In ogni caso non cambia nulla: G80 c'è ora, R600 no, e questo è un fatto ;)
Non che la cosa mi interessi perché cmnq non comprerò né l'uno né l'altro.
In ogni caso non cambia nulla: G80 c'è ora, R600 no, e questo è un fatto ;)
Non che la cosa mi interessi perché cmnq non comprerò né l'uno né l'altro.
io credo (mera supposizione) che nvidia quando uscirà R600 tirerà fuori una versione più "user friendly" di questo stesso G80....più o meno come è stato per 7900GX2 e 7950GX2...
Skullcrusher
26-10-2006, 16:30
io credo (mera supposizione) che nvidia quando uscirà R600 tirerà fuori una versione più "user friendly" di questo stesso G80....più o meno come è stato per 7900GX2 e 7950GX2...
Beh, questo è più che scontato.... :asd:
halduemilauno
26-10-2006, 16:53
io credo (mera supposizione) che nvidia quando uscirà R600 tirerà fuori una versione più "user friendly" di questo stesso G80....più o meno come è stato per 7900GX2 e 7950GX2...
user friendly????
;)
Cmnq la mia prossima vga, accompagnata da un bel Kentsfield, sarà una fiammante 9900GTX :D :D
per maggio-giugno se ne comincerà a parlare...:asd:
Cmnq la mia prossima vga, accompagnata da un bel Kentsfield, sarà una fiammante 9900GTX :D :D
La prenoto anch'io quella, ma con un Yorkfield grazie.
E 8 GB di DDR3.
:)
La prenoto anch'io quella, ma con un Yorkfield grazie.
E 8 GB di DDR3.
:)
Come sono :old: :old: , hai ragione, il Kensfield è già roba vecchia :muro: :muro: :D
appleroof
26-10-2006, 17:27
Ho dato l'esame 3 anni fa... libro di testo Marketing , ed il mulino , William J. Stanton e Riccardo Varaldo , facoltà di Modena.
Ecco bravo vattelo a ripassare che tre anni son lunghi.... :rolleyes:
per il resto no-comment sei un poveretto....
user friendly????
;)
si scusami, non è il termine esatto. Sarebbe più corretto dire "meglio ottimizzata" ; intendo dire che con buona probabilità in contemporanea con R600 ne faranno una versione che magari abbia bisogno di un singolo connettore Pci-ex e che sicuramente sarà più corta....Ecco, stavolta penso di essermi spiegato meglio :p
per il resto no-comment sei un poveretto....
sospeso 5gg per insulti
>bYeZ<
Esistono immagini o filmati per vedere che differenza c'e' tra HDR di adesso (16bit?) e quello di G80 a 128bit?
Grazie!
Esistono immagini o filmati per vedere che differenza c'e' tra HDR di adesso (16bit?) e quello di G80 a 128bit?
Grazie!
Come scritto sul forum di Beyond 3d il calcolo in floating point a 128bit sarà usato solo in rendering offline, cioè NON in realtime.
halduemilauno
26-10-2006, 17:55
si scusami, non è il termine esatto. Sarebbe più corretto dire "meglio ottimizzata" ; intendo dire che con buona probabilità in contemporanea con R600 ne faranno una versione che magari abbia bisogno di un singolo connettore Pci-ex e che sicuramente sarà più corta....Ecco, stavolta penso di essermi spiegato meglio :p
capito. figurati ma quali scuse.
ciao.
;)
Come scritto sul forum di Beyond 3d il calcolo in floating point a 128bit sarà usato solo in rendering offline, cioè NON in realtime.
Ah be' allora... frega un cacchio... peccato... anche se non so le differenze
:)
Window Vista
26-10-2006, 18:01
Come scritto sul forum di Beyond 3d il calcolo in floating point a 128bit sarà usato solo in rendering offline, cioè NON in realtime.
E allora a che serve, se non è in Real time, a fare pubblicità ingannevole??? :mad: Me sa di si.
JoeLatino
26-10-2006, 19:04
altri tests.... ;)
HDR/SM3.0 Score w Conroe@3.8GHz Reference -- G80 HDR/SM3.0 Score
1280x1024 no AA/AF 4927
1280x1024 in 4 4793
1280x1024 preoperatively 4771
1600x1200 no AA/AF 4102
161600x1200 preoperatively 3940
In ogni caso non cambia nulla: G80 c'è ora, R600 no, e questo è un fatto ;)
Non che la cosa mi interessi perché cmnq non comprerò né l'uno né l'altro.
E cosa prenderai? la Matrox Padella :asd: .
E cosa prenderai? la Matrox Padella :asd: .
e perchè no? :sofico:
E cosa prenderai?
L'ho già deto prima
Cmnq la mia prossima vga, accompagnata da un bel Kentsfield, sarà una fiammante 9900GTX :D :D
Anche se per la CPU mi è stato fatto notare che è meglio uno Yorkfield.
Cmnq se dovessi lavorare nel 2D, sicuramente la Matrox Padella sarebbe la prima scelta :D
ugruhell
26-10-2006, 20:32
conoscete la vecchia diamond monster fusion 16mb?
che ricordi :D
Come scritto sul forum di Beyond 3d il calcolo in floating point a 128bit sarà usato solo in rendering offline, cioè NON in realtime.
Ma sei sicuro?
Adesso è Fp16 (16bit per canale x4 = 64bit) questo dovrebbe essere Fp32 (32 bit x 4 canali = 128bit).
Anche adesso è possibile fare un hdr in fp32, il problema è che avremmo scarse prestazioni e un occupazione di memoria esagerata.
Ora non so se sul G80 avrà gli stessi problemi di pesantezza e quindi si rimarrà comunque sul fp16, forse intendevano questo?
slivio...
26-10-2006, 22:21
conoscete la vecchia diamond monster fusion 16mb?
che ricordi :D
e che minkia centra ........ adesso quella scheda.. :asd:
City Hunter '91
26-10-2006, 23:52
hahahhahah e la vodoo do la metti? :D
Sgt. Bozzer
27-10-2006, 00:03
hahahhahah e la vodoo do la metti? :D
ah... la voodoo...
http://img152.imageshack.us/img152/9056/v56500dx3.jpg
:asd:
Sgt. Bozzer
27-10-2006, 01:20
e intanto su un noto shop online romano.. sono apparse ("Spediz.approx. il 27-10-2006" :confused: ) le due nuove 8800.. queste sono le modiche cifre da sborsare:
-8800GTS - 561,20€
-8800GTX - 699,20€
:muro: :muro:
per sdrammatizzare.. più o meno...:
http://img127.imageshack.us/img127/3526/g80powerig9.jpg:asd:
e intanto su un noto shop online romano.. sono apparse ("Spediz.approx. il 27-10-2006" :confused: ) le due nuove 8800.. queste sono le modiche cifre da sborsare:
-8800GTS - 561,20€
-8800GTX - 699,20€
:muro: :muro:
per sdrammatizzare.. più o meno...:
Come al solito! :rolleyes:
halduemilauno
27-10-2006, 07:08
G80
http://www.pcshow.net/images/article/218270-02
un'esempio
http://www.istartedsomething.com/wp-content/uploads/2006/08/directx9.jpg
http://www.pcshow.net/images/article/218270-01
;)
e intanto su un noto shop online romano.. sono apparse ("Spediz.approx. il 27-10-2006" :confused: ) le due nuove 8800.. queste sono le modiche cifre da sborsare:
-8800GTS - 561,20€
-8800GTX - 699,20€
:muro: :muro:
per sdrammatizzare.. più o meno...:
http://img127.imageshack.us/img127/3526/g80powerig9.jpg:asd:
:D
G80
http://www.pcshow.net/images/article/218270-02
un'esempio
http://www.istartedsomething.com/wp-content/uploads/2006/08/directx9.jpg
http://www.pcshow.net/images/article/218270-01
;)
Ma non sono immagini in game... ho sbaglio ?
Marko#88
27-10-2006, 07:15
quelle 2 del lago sono immagini un po' old...e soprattutto quella in dx9 non è certo la massima espressione della grafica ottenibile con le dx9.0c...anche se quella sotto se non è ritoccata... :eek: :eek:
JoeLatino
27-10-2006, 08:04
G80 preview!!! :D
http://www.pcshow.net/test/Testinfo.jsp?id=218270
tradotto in inglese ;)
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcshow.net%2Ftest%2FTestinfo.jsp%3Fid%3D218270&langpair=zh-CN%7Cen&hl=it&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools
ah... la voodoo...
http://img152.imageshack.us/img152/9056/v56500dx3.jpg
:asd:
Hai toppato, quella nelle foto è la VooDoo5 5500 (io l'ho anche comprata a suo tempo), la VooDoo5 6500 aveva 4 processori :ciapet: ;)
Skullcrusher
27-10-2006, 08:13
Hai toppato, quella nelle foto è la VooDoo5 5500 (io l'ho anche comprata a suo tempo), la VooDoo5 6500 aveva 4 processori :ciapet: ;)
Era la voodoo 5 6000 che aveva 4 processori ;)
Comunque il prezzo riportato dallo shop romano è sicuramente dovuto alla prevendita o alla novità. A mio parere dopo una settimana che è uscita la si troverà a 650€ o meno ;)
Quello che mi interessa è il problema dell'alimentazione. Come minimo per la GTX è richiesto un 450Watt, quindi col mio Enermax da 500Watt dovrei essere a posto, o no? Altra cosa: bisogna collegare 2 connettori a 6 pin, il liberty ha appunto 2 linee apposite per il pci-express, dovrebbero bastare, spero :stordita:
Era la voodoo 5 6000 che aveva 4 processori ;)
:doh: Giusto :muro:
Ma sei sicuro?
Adesso è Fp16 (16bit per canale x4 = 64bit) questo dovrebbe essere Fp32 (32 bit x 4 canali = 128bit).
Anche adesso è possibile fare un hdr in fp32, il problema è che avremmo scarse prestazioni e un occupazione di memoria esagerata.
Ora non so se sul G80 avrà gli stessi problemi di pesantezza e quindi si rimarrà comunque sul fp16, forse intendevano questo?
nAo (alias Marco Salvi), programmatore 3d nel gioco per PS3 Heavenly Sword, diceva che per adesso è una feature pressoché inutile, vista l'estrama pesantezza ed i risibili benefici che porta. Se ne riparla tra qualche anno. Se trovo il post giusto lo quote con il relativo link.
Ma non sono immagini in game... ho sbaglio ?
Si, di Flight simulator X se non sbaglio. Notare tra l'altro che è solo l'acqua a beneficiare del "trattamento" :)
Si, di Flight simulator X se non sbaglio. Notare tra l'altro che è solo l'acqua a beneficiare del "trattamento" :)
non direi guarda il cielo e le nuvole sono su un'altro livello...il miglioramento è ancora maggiore che sull'acqua
non direi guarda il cielo e le nuvole sono su un'altro livello...il miglioramento è ancora maggiore che sull'acqua
Hai ragione per le nuvole, anche se nella prima foto sono fatte veramente da schifo (manca totalmente anche l'hdr cosa che si può benissimo fare da mesi), quasi a voler far risaltare la differenza. Mi riferivo alle montagne e alla vegetazione.
Skullcrusher
27-10-2006, 09:18
Hai ragione per le nuvole, anche se nella prima foto sono fatte veramente da schifo (manca totalmente anche l'hdr cosa che si può benissimo fare da mesi), quasi a voler far risaltare la differenza. Mi riferivo alle montagne e alla vegetazione.
L'immagine in dx9 è fatta secondo me in qualità bassa, giusto per far risaltare meglio la differenza....
nAo (alias Marco Salvi), programmatore 3d nel gioco per PS3 Heavenly Sword, diceva che per adesso è una feature pressoché inutile, vista l'estrama pesantezza ed i risibili benefici che porta. Se ne riparla tra qualche anno. Se trovo il post giusto lo quote con il relativo link.
No ok, i suoi interventi li leggo spesso sopratutto ho letto anche io l'intervista che riguardava HS....praticamente costa troppo per quello che offre a 128bit.
Oddio mi accontento anche dell'Hdr a 64bit eh? :D
Hai ragione per le nuvole, anche se nella prima foto sono fatte veramente da schifo (manca totalmente anche l'hdr cosa che si può benissimo fare da mesi), quasi a voler far risaltare la differenza. Mi riferivo alle montagne e alla vegetazione.
si infatti l'immagine DX9 ha un cielo pessimo e per quanto riguarda montagne e vegetazione nessun miglioramento di rilievo...cmq è già un buon inizio non dimentichiamoci che il loro meglio le dx9 lo stanno dando proprio ora...diciamo il loro "canto del cigno" quindi non mi stupirei di vedere qualcosa di veramente ecclatante con le DX10 solo tra un anno o più
G80
un'esempio
http://www.istartedsomething.com/wp-content/uploads/2006/08/directx9.jpg
http://www.pcshow.net/images/article/218270-01
;)
ancora?? hal guarda che son fake, è stato detto e ridetto :D
ancora?? hal guarda che son fake, è stato detto e ridetto :D
Quoto
XXXandreXXX
27-10-2006, 10:40
http://img135.imageshack.us/my.php?image=immaginetu1.jpg
JoeLatino
27-10-2006, 11:02
x chiunque volesse sapere la differenza delle prestazioni con varie cpu/oc... ;)
AMD Athlon(tm) FX57 @ 4208 MHz (210x20) single core
3DMark06 CPU Score 1696 Marks
http://img199.imageshack.us/img199/9243/cpu42089kx.jpg
Intel Pentium M 780 2MB L2cache @ 4000 MHz (266.6x15) single core
3DMark06 CPU Score 1713 Marks
Intel(R) Core(TM)2 Solo E6600 @ 4050MHz (450x9) single core
3DMark06 CPU score 1753 Marks
Intel Core 2 Extreme X6800 4MB L2cache 2.93GGHz 2x core
3DMark06 CPU score 2512
http://enthusiast.hardocp.com/images...a7RG_2_2_l.gif
Intel(R) Core(TM)2 Duo E6600 @ 3150MHz (350x9) 2x core
3DMark06 CPU score 2727
AMD Athlon(tm) FX62 @ 3676 MHz 2x core
3DMark06 CPU Score 2787 Marks
http://service.futuremark.com/compare?3dm06=329639
Intel Core Duo T2600 @ 3516 MHz 2x core
3DMark06 CPU Score 2874 Marks
http://service.futuremark.com/compare?3dm06=303322
Intel Pentium 965XE @ 6172 MHz 4x core
3DMark06 CPU Score 3314 Marks
http://service.futuremark.com/compare?3dm06=86920
AMD 2x Opteron 275 @ 2797 MHz 4x core
3DMark06 CPU Score 3824 Marks
http://service.futuremark.com/compare?3dm06=91145
Intel(R) Core(TM)2 Extreme X6800 @ 5058 MHz 2x core
3DMark06 CPU score 4387 Marks
http://service.futuremark.com/compare?3dm06=440284
Intel XEON 5160M @ 3000MHz (Woodcrest 3.0GHz 4MB L3cache ) 2x core
3DMark06 CPU Score 4570 Marks
http://service.futuremark.com/compare?3dm06=501026
2x AMD Opteron(tm) 8220 SE processor @ 2800MHz 4x core
3DMark06 CPU Score 4782 Marks
Intel(R) Core 2 Quado Kentsfield Q6600 @ 3600MHz (400x9) 4x core
3DMark06 CPU score 5417 Marks
http://vic.expreview.com/attachment/1161849814.jpg
Intel(R) Xeon(R) Clovertown 2.66GHz (2x Intel Woodcrest Xeon 5150 CPU) 4x core
3DMark06 CPU score 5581 Marks
http://img180.imageshack.us/img180/5765/3dmarkkk6.jpg
AMD Athlon(tm) FX8x (Altair) 2.93 MHz (4x512KB L2cache + 2MB L3cache) 4x core
3DMark06 CPU score ???? Marks
Intel Core 2 Quado QX6700 Kentsfield 8MB L2cache @ 4104MHz 4x core
3DMark06 CPU Score 6057 Marks
http://www.tyrou.net/screens/12856-3d06.png
Intel(R) Xeon(R) 7140M (Tulsa 3.40GHz 16MB L3cache ) 4x core
3DMark06 CPU score 7824 Marks
Intel Core 2 Quado Yorkfield XE 3.73GHz 2x6MB L2cache 4x core
3DMark06 CPU Score ????? Marks
JoeLatino
27-10-2006, 11:41
dalla preview che avevo linkato prima :D
the extra chips is an external ramdac... its a full 10bit!!!.
promette bene,eh??
inoltre
Gflops processing on the G80 Quantum Processing to Ageia's Physics PPU. 400 Gflops on the G80 compared to 30 Gflops of Ageia's PPU :sofico:
se fosse davvero cosi',mi sa' che qualcuno 'chiude' :D
ugruhell
27-10-2006, 11:48
dalla preview che avevo linkato prima :D
the extra chips is an external ramdac... its a full 10bit!!!.
promette bene,eh??
inoltre
Gflops processing on the G80 Quantum Processing to Ageia's Physics PPU. 400 Gflops on the G80 compared to 30 Gflops of Ageia's PPU :sofico:
se fosse davvero cosi',mi sa' che qualcuno 'chiude' :D
:eek: :eek:
speriamo sia cosi
dalla preview che avevo linkato prima :D
the extra chips is an external ramdac... its a full 10bit!!!.
promette bene,eh??
Se non ricordo male già Matrox e Ati lo fanno :)
inoltre
Gflops processing on the G80 Quantum Processing to Ageia's Physics PPU. 400 Gflops on the G80 compared to 30 Gflops of Ageia's PPU :sofico:
se fosse davvero cosi',mi sa' che qualcuno 'chiude' :D
Bhè già le attuali schede probabilmente a livello di GFlops si mangiano a colazione l'Ageia, quindi il valore non farà altro che aumentare.
Ma il confronto non ha senso :)
JoeLatino
27-10-2006, 12:10
Bhè già le attuali schede probabilmente a livello di GFlops si mangiano a colazione l'Ageia, quindi il valore non farà altro che aumentare.
Ma il confronto non ha senso :)[/QUOTE]
in questo caso invece penso proprio di si',visto che ha un layer apposta per la fisica! ;)
mirmeleon
27-10-2006, 13:19
GeForce 8800GTS (G80) 640MB /SLI Ready € 561,20 iva incl.
GeForce 8800GTX (G80) 768MB /SLI Ready € 699,20 iva incl.
trovati su di un sito web di vendita hardware italiano con disponibilità addirittura a partire dalla fine di ottobre.
Come volevasi dimostrare...prezzi assolutamente fuori dalla logica!!!
Invece di abbassare i prezzi delle vecchie schede dx9 evitando di svenderle hanno preferito aumentare quelli delle nuove sk....
in questo caso invece penso proprio di si',visto che ha un layer apposta per la fisica! ;)
Non intendevo in quel senso...
Solo che il confronto tra Gflops lascia il tempo che trova. Ageia supporta delle Api, Nvidia sicuramente delle altre. Quindi dipende anche dalla bontà delle stesse e sopratutto da quali la maggioranza dei produttori adotterà.
E' un numero sparato lì...
GeForce 8800GTS (G80) 640MB /SLI Ready € 561,20 iva incl.
GeForce 8800GTX (G80) 768MB /SLI Ready € 699,20 iva incl.
trovati su di un sito web di vendita hardware italiano con disponibilità addirittura a partire dalla fine di ottobre.
Come volevasi dimostrare...prezzi assolutamente fuori dalla logica!!!
Invece di abbassare i prezzi delle vecchie schede dx9 evitando di svenderle hanno preferito aumentare quelli delle nuove sk....
ho fatto benissimo a prendermi la 7950GT ;)
col prezzo della 8800GTS mi faccio uno sli con 2 7950GT non dico altro...
Foglia Morta
27-10-2006, 13:23
GeForce 8800GTS (G80) 640MB /SLI Ready € 561,20 iva incl.
GeForce 8800GTX (G80) 768MB /SLI Ready € 699,20 iva incl.
trovati su di un sito web di vendita hardware italiano con disponibilità addirittura a partire dalla fine di ottobre.
Come volevasi dimostrare...prezzi assolutamente fuori dalla logica!!!
Invece di abbassare i prezzi delle vecchie schede dx9 evitando di svenderle hanno preferito aumentare quelli delle nuove sk....
sono prezzi normalissimi... nVidia per un po di tempo non avrà concorrenza nella fascia alta. Anche Ati aveva fatto la stessa cosa con la X1900 XT e XTX fino a quando non erano uscite le 7900
mirmeleon
27-10-2006, 13:26
Mica tanto normalissimi, anzi inavvicinabili...Aspettiamo qualche mese e si acquisteranno a 200 euro di meno....
kenjcj2000
27-10-2006, 13:27
sono prezzi normalissimi... nVidia per un po di tempo non avrà concorrenza nella fascia alta. Anche Ati aveva fatto la stessa cosa con la X1900 XT e XTX fino a quando non erano uscite le 7900
infatti sono prezzi del tutto normale visto che io a suo tempo la 1900xtx la pagai sulle 700euro non ci vedo nulla di strano
poi possiamo parlare che siano troppo care (tutte da tempo a questa parte) ma qui entriamo in un altro campo
kenjcj2000
27-10-2006, 13:29
Mica tanto normalissimi, anzi inavvicinabili...Aspettiamo qualche mese e si acquisteranno a 200 euro di meno....
qualche mese :confused:
ho fatto benissimo a prendermi la 7950GT ;)
col prezzo della 8800GTS mi faccio uno sli con 2 7950GT non dico altro...
Per me è da pazzi sia spendere 600-700€ che fare una configurazione SLI.
mirmeleon
27-10-2006, 13:31
Il tempo che escano le rivali ATI......
qualche mese :confused:
Ovvio, con l'uscita di R600 vi sarà il refresh dell'architettura nVidia, e queste attuali scenderanno di prezzo.
kenjcj2000
27-10-2006, 13:31
ho fatto benissimo a prendermi la 7950GT ;)
col prezzo della 8800GTS mi faccio uno sli con 2 7950GT non dico altro...
un affare :rolleyes:
un affare :rolleyes:
Scusa, perché dici così?
kenjcj2000
27-10-2006, 13:32
Il tempo che escano le rivali ATI......
una vga da 700euro dopo 4-5 mesi incominceremo a trovarle intorno alle 400... vga di fascia cosi alta non scenderanno mai sotto i 200euro le tolgono prima dal mercato..
mirmeleon
27-10-2006, 13:32
Un affarone!
mirmeleon
27-10-2006, 13:34
una vga da 700euro dopo 4-5 mesi incominceremo a trovarle intorno alle 400... vga di fascia cosi alta non scenderanno mai sotto i 200euro le tolgono prima dal mercato..
intendevo 200 euro di meno del prezzo attuale....
kenjcj2000
27-10-2006, 13:35
intendevo 200 euro di meno del prezzo attuale....
allora mi scuso ;) voto in pieno quello che hai detto
mirmeleon
27-10-2006, 13:36
allora mi scuso ;) voto in pieno quello che hai detto
No problem man!
JoeLatino
27-10-2006, 13:42
Mica tanto normalissimi, anzi inavvicinabili...Aspettiamo qualche mese e si acquisteranno a 200 euro di meno....
magari 200e euro di meno no,pero' tenete presente che con la seconda fornitura (diciamo dicembre) usciranno anche delle schede oc di fabbrica oltre che ad un numero maggiore di ditributori/produttori quindi il prezzo dovrebbe diminuire abbastanza anche se con Natale alle porte sicuramente qualcuno ci fara' la cresta! :(
mirmeleon
27-10-2006, 13:44
magari 200e euro di meno no,pero' tenete presente che con la seconda fornitura (diciamo dicembre) usciranno anche delle schede oc di fabbrica oltre che ad un numero maggiore di ditributori/produttori quindi il prezzo dovrebbe diminuire abbastanza anche se con Natale alle porte sicuramente qualcuno ci fara' la cresta! :(
Aspettare, aspettare, aspettare..............
ma se riesco ad acciuffare una 7950gx2 a max 300 euro??
sarebbe da prendere ora nonostante tutto???
male che va me la rivendo per di piu...o no?
Scusa, perché dici così?
Sai com'è qui dentro le schede video vecchie e poco costose non le considerano :)
Qui dentro solo Core 2 Duo iper overclockati e la scheda video all'ultimo grido.
Quindi vuoi mettere una 7950 tra l'altro GT (neanche dual gpu che schifo...)...
mirmeleon
27-10-2006, 13:54
ma se riesco ad acciuffare una 7950gx2 a max 300 euro??
sarebbe da prendere ora nonostante tutto???
male che va me la rivendo per di piu...o no?
Per me le tolgono prima dal mercato pur di venderle a quel prezzo...e impossibile!
forse usata ma non so mica tanto....
Per me è da pazzi sia spendere 600-700€ che fare una configurazione SLI.
infatti non lo farò mai :D già mi ritengo pazzo a prendere una scheda video da 280 euro, ma è l'ultimo acquisto la spremerò fino al midollo e poi passerò a wii fra un paio di anni
PS: ora gioco con una 6600gt e mi va stretta solo per oblivion
un affare :rolleyes:
esatto
Sai com'è qui dentro le schede video vecchie e poco costose non le considerano :)
Qui dentro solo Core 2 Duo iper overclockati e la scheda video all'ultimo grido.
Quindi vuoi mettere una 7950 tra l'altro GT (neanche dual gpu che schifo...)...
Ok ora è tutto più chiaro, figurati che stavo per buttare nel cesso la mia antiquata 7800GTurbo :D:D
Ps: però il Venice mi sa che lo sostituisco con qualcosa di più performante, senza spendere grosse cifre, scambio e conguaglio ;)
mirmeleon
27-10-2006, 13:57
infatti non lo farò mai :D già mi ritengo pazzo a prendere una scheda video da 280 euro, ma è l'ultimo acquisto la spremerò fino al midollo e poi passerò a wii fra un paio di anni
280 euro è un prezzo onesto per una vga medio-alta!
kenjcj2000
27-10-2006, 14:01
Sai com'è qui dentro le schede video vecchie e poco costose non le considerano :)
Qui dentro solo Core 2 Duo iper overclockati e la scheda video all'ultimo grido.
Quindi vuoi mettere una 7950 tra l'altro GT (neanche dual gpu che schifo...)...
spero che questo tuo discorso sia x buttarla in burla x che stai dicendo una inesattezza immane
spendere 600-700euro x fare uno sli di due schede che saranno veloci come una 8800gtx ma che non avranno gli effetti drtx10 è da matti.... il discorso vga vecchie che tiri fuori è sensa senso.....
è come se io oggi che esce il G80 metterei un^altra 1900xtx che senso avrebbe?????????????
è come se io oggi che esce il G80 metterei un^altra 1900xtx che senso avrebbe?????????????
:eek: :eek: :eek: :eek: :eek: :eek:
Magari mettessi ;)
Per me le tolgono prima dal mercato pur di venderle a quel prezzo...e impossibile!
forse usata ma non so mica tanto....
si la prenderei usata, ma dato che è bfg avrebbe garanzia a vita, quindi nn sarebbe un problema...
quindi mi dite di aspettare ancora? anche se per me non le trovero tanto presto le 7950gx2 sotto i 300 euro....passeranno altri mesi come minimo..oggi c'è ancora gente che la compra per oltre 500 euro... :mbe:
kenjcj2000
27-10-2006, 14:06
:eek: :eek: :eek: :eek: :eek: :eek:
Magari mettessi ;)
pardon ;) come amo quando correggete :mc: quasi quasi lo facciamo diventare un forum sulla lingua Italiana.. che dici...
spero che questo tuo discorso sia x buttarla in burla x che stai dicendo una inesattezza immane
spendere 600-700euro x fare uno sli di due schede che saranno veloci come una 8800gtx ma che non avranno gli effetti drtx10 è da matti.... il discorso vga vecchie che tiri fuori è sensa senso.....
è come se io oggi che esce il G80 metterei un^altra 1900xtx che senso avrebbe?????????????
secondo me il suo discorso era un altro, più ampio e sottile e tutto sommato condivisibile ;)
mirmeleon
27-10-2006, 14:12
si la prenderei usata, ma dato che è bfg avrebbe garanzia a vita, quindi nn sarebbe un problema...
quindi mi dite di aspettare ancora? anche se per me non le trovero tanto presto le 7950gx2 sotto i 300 euro....passeranno altri mesi come minimo..oggi c'è ancora gente che la compra per oltre 500 euro... :mbe:
Per 300 euri....quasi quasi, spero che tu faccia qualcosa vendendo la tua però perchè altrimenti il gioco non vale la candela!
spero che questo tuo discorso sia x buttarla in burla x che stai dicendo una inesattezza immane
spendere 600-700euro x fare uno sli di due schede che saranno veloci come una 8800gtx ma che non avranno gli effetti drtx10 è da matti.... il discorso vga vecchie che tiri fuori è sensa senso.....
è come se io oggi che esce il G80 metterei un^altra 1900xtx che senso avrebbe?????????????
il senso che spendi la metà dato che l'altra la hai già
PS: gli effetti dx10 li vedrai sfruttati a dovere quando g80 sarà già vecchio
segui il mio ragionamento
attualmente ho un prescott 3200 con 1GB di ram
già ora sono cpu e ram limited in alcuni giochi
secondo te faccio meglio a spendere 600 euro per una scheda che il mio sistema non sarà MAI in grado di sfruttare
oppure
mi godo ADESSO tutti i giochi Dx9 che ci sono spendendo la metà
ora capisci perchè ho preso ora la 7950GT? ;) non tutti hanno a disposizione un capitale da spendere in videogiochi, io devo farmi i conti in tasca e sono contento della scelta che ho fatto, che A PARER MIO è la scelta migliore che potessi fare (avrei potuto prendermi una ati che costava uguale e andava leggermente meglio, ma aveva la metà della ram (e 512MB mi servono in oblivion per la mod delle texture hi res) e consuma un botto di più)
l'alternativa sarebbe stata spendere 600 euro di scheda video e sicuramente altri 1000 per un sistema in grado di far girare i giochi dx10
alla luce di questo la mia scelta ti sembra ancora una cavolata? ;)
pardon ;) come amo quando correggete :mc: quasi quasi lo facciamo diventare un forum sulla lingua Italiana.. che dici...
quoto :rolleyes:
mirmeleon
27-10-2006, 14:19
il senso che spendi la metà dato che l'altra la hai già
PS: gli effetti dx10 li vedrai sfruttati a dovere quando g80 sarà già vecchio
quoto
il senso che spendi la metà dato che l'altra la hai già
PS: gli effetti dx10 li vedrai sfruttati a dovere quando g80 sarà già vecchio
quoto
stessa situazione si presentò all'uscita delle dx9.
son le stesse storie ke si ripetono.
Per 300 euri....quasi quasi, spero che tu faccia qualcosa vendendo la tua però perchè altrimenti il gioco non vale la candela!
beh, certamente qualcosa dovrei rifarmi dalla 7900gt che ho ora..
vedremo....
per me g80 a quei prezzi puo tranquillamente aspettare... :muro:
pardon ;) come amo quando correggete :mc: quasi quasi lo facciamo diventare un forum sulla lingua Italiana.. che dici...
Infatti anch'io non li sopporto, tutti che cercano di parlare in modo più comprensibile!
Invece esprimiamoci tutti a gesti :huh:
io ne approfitto per provare una 7950gx2 che spero in tempi brevi di trovare sulle 350-380 euro :p (sempre che qualcuno tiri fuori un wb decente ).
io ne approfitto per provare una 7950gx2 che spero in tempi brevi di trovare sulle 350-380 euro :p (sempre che qualcuno tiri fuori un wb decente ).
startene buono un pò mai eh?...:asd:
mirmeleon
27-10-2006, 14:34
beh, certamente qualcosa dovrei rifarmi dalla 7900gt che ho ora..
vedremo....
per me g80 a quei prezzi puo tranquillamente aspettare... :muro:
Piazzala subito puoi fare tranquillamente 160-180 euro.
Con il resto vai di 7950gx2, così è molto più conveniente e fai un super upgrade!!!
pardon ;) come amo quando correggete :mc: quasi quasi lo facciamo diventare un forum sulla lingua Italiana.. che dici...
Abbiamo rimasti in pochi a parlare l'itagliese ;)
Piazzala subito puoi fare tranquillamente 160-180 euro.
Con il resto vai di 7950gx2, così è molto più conveniente e fai un super upgrade!!!
gia...ma prima mi devo assicurare l'altra, altrimenti rimango di :ciapet:
:D :D
vediamo come si evolvera la situazione!! :)
halduemilauno
27-10-2006, 14:48
GeForce 8800GTS (G80) 640MB /SLI Ready € 561,20 iva incl.
GeForce 8800GTX (G80) 768MB /SLI Ready € 699,20 iva incl.
trovati su di un sito web di vendita hardware italiano con disponibilità addirittura a partire dalla fine di ottobre.
Come volevasi dimostrare...prezzi assolutamente fuori dalla logica!!!
Invece di abbassare i prezzi delle vecchie schede dx9 evitando di svenderle hanno preferito aumentare quelli delle nuove sk....
con le 7950gx2 a 550€...le volevi comprare a meno? aspettiamo che almeno quelle spariscano. e poi aspettiamo un minimo di concorrenza fra distributori.
;)
mirmeleon
27-10-2006, 14:49
gia...ma prima mi devo assicurare l'altra, altrimenti rimango di :ciapet:
:D :D
vediamo come si evolvera la situazione!! :)
Se riesci nell'intento hai fatto l'operazione giusta!
mirmeleon
27-10-2006, 14:50
con le 7950gx2 a 550€...le volevi comprare a meno? aspettiamo che almeno quelle spariscano. e poi aspettiamo un minimo di concorrenza fra distributori.
;)
quoto
peccato che faranno sparire dalla circolazione le 7950 gx2! :muro:
halduemilauno
27-10-2006, 15:03
Sai com'è qui dentro le schede video vecchie e poco costose non le considerano :)
Qui dentro solo Core 2 Duo iper overclockati e la scheda video all'ultimo grido.
Quindi vuoi mettere una 7950 tra l'altro GT (neanche dual gpu che schifo...)...
per le cpu che male c'è a comprare/consigliare core2duo dall'E6300 a 189€ all'E6600 a 320€? che male c'è a dire che tali cpu si possono oc con un nonnulla basta elevare il bus da 1066 a 1333? dov'è l'errore nel dire che le nuove gpu verranno maggiormente sfruttate con tali cpu? e mai detto e ne mai letto di comprare g80 perchè le altre schede fanno schifo. ma solo detto e letto che chi ha/avrà intenzione di spendere cifre importanti in schede video di lasciar perdere le dx9 e di farsi invece le dx10.
mi pare un sarcasmo un pò fuori luogo.
Skullcrusher
27-10-2006, 15:08
Eddai, è il prezzo di un unico negozio e per di più ancor prima che escano le schede...essendo un'architettura completamente nuova, sotto i 650€ la GTX sarà impossibile vederla per i primi giorni...contate anche il fatto che c'è il fattore novità...è normale che gonfino i prezzi...basta aspettare un po' :)
mi pare un sarcasmo un pò fuori luogo.
Sopravviverò lo stesso...
Cos'è, mangiato pesante? Chi ha voluto capire cosa intendevo ha capito, poi se tu ti sei sentito chiamato in causa per qualcosa visto che ti sei messo a sparare prezzi (a cui non ho fatto riferimento nel mio post) o per qualunque altro motivo il problema non è mio.
Francamente l'unica cosa fuori luogo è il tuo post. Non penso di avere offeso nessuno, ma a quanto pare a te ho fatto un torto :asd:
halduemilauno
27-10-2006, 15:22
Sopravviverò lo stesso...
Cos'è, mangiato pesante? Chi ha voluto capire cosa intendevo ha capito, poi se tu ti sei sentito chiamato in causa per qualcosa visto che ti sei messo a sparare prezzi (a cui non ho fatto riferimento nel mio post) o per qualunque altro motivo il problema non è mio.
Francamente l'unica cosa fuori luogo è il tuo post. Non penso di avere offeso nessuno, ma a quanto pare a te ho fatto un torto :asd:
non ho detto ne che hai offeso e ne che hai fatto un torto. ho parlato di sarcasmo un pò fuori luogo. ti riferivi ad altri? ok. visto che ieri ho parlato di questi argomenti sono intervenuto e ho ribadito. tutto qui.
mangiato bene grazie.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.