View Full Version : [THREAD UFFICIALE] Geforce 8800GTX
Wéé..scusate il post ma sono onorato di avere delly tra di voi/noi...ovviamente neanche a leggerla la firma...avrei scommesso sulla tua configurazione reparto grafico :D
Un saluto ;)
Beh la configurazione di Delly é sempre il top a livello nazionale e non:sofico: ..;) non solo sul comparto grafico..ma anche per quanto
riguarda il raffredamento di cpu e vga(non meno di due):D ...ciaooo
DarkNiko
15-05-2007, 15:02
Installato i 158.42 beta, non mi permette più di attivare Aero in Vista 64bit....
Sotto Windows Vista 32 Bit (Ultimate) nessun problema, vanno ottimamente. Ho solo dovuto disinstallare e reinstallare Riva Tuner 2.01 che all'inizio non me li riconosceva.
Installato i 158.42 beta, non mi permette più di attivare Aero in Vista 64bit....
io li ho appena installati su Vista ultimate 64bit e non ho nessun problema, prova a reinstallarli (lo so' che è una cosa che sicuramente sai già, ma una volta disinstallati i driver precedenti hai cancellato la cartella "C:\NVIDIA" ? )
la demo di lost planet per domani alle 15.00... ma mi sa che già lo sapete;)
The_max_80
15-05-2007, 16:10
la demo di lost planet per domani alle 15.00... ma mi sa che già lo sapete;)
che gioco è?
che gioco è?
il gioco in se é uno sparatutto in 3a persona interessante é che sia per vista ed é il primo in dx10
Arrivataaaaa!!!!! :D :D :D
462€ trasporto compreso, niente male per una GTX... son qui che sto scaricando i driver! :cool:
Purtroppo mi ha chiamato Tecno e per la DFI dovrò aspettare ancora una settimana... :cry:
Vabbeh comincio a vedere come se la cava la 8800 col buon vecchio FX55. :p
ma nel mese di maggio non dovrebbe uscire halo 2 x pc in dx 10
la demo di lost planet per domani alle 15.00... ma mi sa che già lo sapete;)
MAh essendo un porting da X360 non so quanto in effetti sfrutti le DX10... essendo un gioco MS il fatto che sia DX10 mi sa solo di mossa commerciale.
Se però non mi gira come sul 360 va a finire che il PC lo brucio! :p
ma nel mese di maggio non dovrebbe uscire halo 2 x pc in dx 10
Quello poi addirittura un porting da Xbox1...
Tra un tirano fuori Pacman in DX10! :doh:
MAh essendo un porting da X360 non so quanto in effetti sfrutti le DX10... essendo un gioco MS il fatto che sia DX10 mi sa solo di mossa commerciale.
Se però non mi gira come sul 360 va a finire che il PC lo brucio! :p
Quello poi addirittura un porting da Xbox1...
Tra un tirano fuori Pacman in DX10! :doh:
Ho dato un' occhita agli screenshot.....ma....dove sarebbero ste dx10 in lost planet??:confused:
Comunque dalle recensioni r600 ha la tesselletion unit
The_max_80
15-05-2007, 17:11
il gioco in se é uno sparatutto in 3a persona interessante é che sia per vista ed é il primo in dx10
mitico, il primo gioco in directx 10, allora domani scarico la demo sicuramente
Il tuo discorso può anche essere giusto,a parte il fatto che la xt
sia superiore alla gts é tutto da dimostrare visto che in alcuni
giochi é superiore una ed in altri l'altra, ma la realtà veramente
drammatica la sta vedendo ATI ora..a livello di mercato, come é stato
per i dual core amd ed il conroe, le perdite di ATI in questi sette mesi
sono state enormi...non solo ma dopo sette mesi di attesa ATI sforna
una scheda di fascia medio-alta e non c'é alcuna data di presentazione
per la presunta X2900XTX...sai questo che vuol dire?Nvidia ha accumulato
un vantaggio temporale tale a livello tecnoclogico che se vuole, quando e se ATI presenterà la presunta x2900xtx con tutta probabilità Nvidia presenterà la 8950 GX2 che la surclassa(non considero nemmeno la 8800ultra).
Il problema vero é che in questi ultimi 10 anni,
tra le schede video di fascia alta, non c'é mai stato ,a livello di concorrenza, una delle due rivali che avesse la scheda top di gamma nettamente superiore alla top di gamma della rivale(perché ripeto ormai il ritardo accumulato da Ati é tale che se verrà presentata la X2900XTX andrà a scontrarsi con la 8950 gx2)per un periodo di tempo così lungo(credo che prima del 2008 avanzato non se ne parli ormai vista la 8950 od 8900 gx2).E comunque la mancanza di concorrenza non fa di certo bene al consumatore anche se ovviamente
chi ha già comprato la 8800gtx vede la sua scheda conservare più a lungo
il suo valore di mercato, chi invece la deve ancora compare ancora invece
vede la 8800gtx mantenere cmq discretamente il suo prezzo.
Se ATI avesse sfornato una scheda superiore alla 8800gtx qualche mese fa
ora la 8800gtx costerebbe quanto la 8800gts!!
Comunque da Nvidioso:Prrr: spero che ATI torni presto nell'alternanza
della supremazia,abbiamo solo da guadagnarci.
Ciao:)
Non sono daccordo,e siccome ora praticamente non vi e' concorrenza x il top gamma,vedremo se il tempo mi da' ragione o meno.
Io sono convinto che la troppa concorrenza,se cosi' la si puo' chiamare,visto che in pratica se la giocano in 2,cosa ha portato? ,calo dei prezzi ok ma a che costo? cioe ,(tralasciando un attimo l'usato che si trova,che conta ben poco nel mercato totale), 1 compra 1 VGA da 500€ dell'ATI ,la NV ne fa 1 che va un 10% in + e costa 550 o viceversa, dopo sei mesi escono nuovi modelli delle rispettive case che vanno un 20% + e con new opzioni,filtri ecc..,e calano i prezzi delle vecchie,ok ,dopo altri 4 escono altre VGA sempre + pompate x cercare di strapparsi il podio,e calano i prezzi delle vecchie.Nel frattempo che le case si fanno la lotta, calano si i prezzi, ma escono new game che usano nuove cose,opzioni,filtri ecc,e molto + pesanti non del tutto giustificabile la pesantezza,secondo me(siccome le Sowtware house lo sanno che cosa uscira e/o verra implementato con le new VGA),alla fine ci si trova a dover cambiare VGA xche ormai arranca,(x chi come me ama i game), e quella che valeva 550€ dopo 1 anno ne vale 180,x poi far girare game mal otimizzati.Io dico che la concorrenza va bene ma con con criterio,ora sono obbligati x un po a programmare i game su quello che c'e' e i nostri soldi spesi x queste VGA ne trarranno beneficio ,poi come dico e' una mia opinione discutibile
appleroof
15-05-2007, 17:26
Ciao a tutti...vengo dall'altro forum :D
No serio,preoccupato dalla situazione e sfruttando l'istinto che purtroppo e perfortuna ho,ho preso una gtx OC della BFG. Se mi confermano la disponibilità bene,sennò è destino che devo restare rosso,non solo politicamente :D
Non sono mai stato un fanboy,prendo ciò che il meglio mi propone quando ho i soldi(ancora per poco) e mi sa che stop giro,offre nvidia (magari offrisse :asd:)
Una domanda però mi "preoccupa":ho letto di problemi nel fixare la risoluzione a 1680*1050,è verò!? I driver stanno andando a migliorare ancora la compatibilità/prestazioni?
Come siamo messi a test dx10? Vedo che comunque era superiore alla 2900xt(driver acerbi però,onestamente)....
No ;)
appleroof
15-05-2007, 17:31
la demo di lost planet per domani alle 15.00... ma mi sa che già lo sapete;)
Io no, la aspettavo per oggi :mad:
Non sono daccordo,e siccome ora praticamente non vi e' concorrenza x il top gamma,vedremo se il tempo mi da' ragione o meno.
Io sono convinto che la troppa concorrenza,se cosi' la si puo' chiamare,visto che in pratica se la giocano in 2,cosa ha portato? ,calo dei prezzi ok ma a che costo? cioe ,(tralasciando un attimo l'usato che si trova,che conta ben poco nel mercato totale), 1 compra 1 VGA da 500€ dell'ATI ,la NV ne fa 1 che va un 10% in + e costa 550 o viceversa, dopo sei mesi escono nuovi modelli delle rispettive case che vanno un 20% + e con new opzioni,filtri ecc..,e calano i prezzi delle vecchie,ok ,dopo altri 4 escono altre VGA sempre + pompate x cercare di strapparsi il podio,e calano i prezzi delle vecchie.Nel frattempo che le case si fanno la lotta, calano si i prezzi, ma escono new game che usano nuove cose,opzioni,filtri ecc,e molto + pesanti non del tutto giustificabile la pesantezza,secondo me(siccome le Sowtware house lo sanno che cosa uscira e/o verra implementato con le new VGA),alla fine ci si trova a dover cambiare VGA xche ormai arranca,(x chi come me ama i game), e quella che valeva 550€ dopo 1 anno ne vale 180,x poi far girare game mal otimizzati.Io dico che la concorrenza va bene ma con con criterio,ora sono obbligati x un po a programmare i game su quello che c'e' e i nostri soldi spesi x queste VGA ne trarranno beneficio ,poi come dico e' una mia opinione discutibile
Ma su quello che dici concordo pienamente anche io e non entra in
contraddizione con quello che ho affermato.Quando una scheda é
superiore al 10%-20% rispetto alla top di fascia alta non la camba quasi nessuno se non gli appassionati perché il 10-20% in più non ti rende impossibile giocare con un software ottimizzato per quella scheda tutt'altro.Qui il problema é che probabilmente fino a metà del 2008 non ci sarà concorrenza...quello che volevo far notare é il lasso di tempo troppo lungo in cui non ci sarà concorrenza..io credo ci voglia sempre un 'alternanza con tempi ragionevoli per spuntare i prezzi migliori ed avere cmq una scheda che duri a livello di performance...qui il problema é l'opposto..cmq ti quoto..ripeto non capisco la differenza con quello che ho affermato io..ciaoo;)
Io no, la aspettavo per oggi :mad:
posta qualche test..ho la gtx in rma:)
grazie
appleroof
15-05-2007, 18:07
posta qualche test..ho la gtx in rma:)
Certo ;)
Io no, la aspettavo per oggi :mad:
Già... ero venuto a chiede come andasse la scheda con la demo di lost planet :sob:
halduemilauno
15-05-2007, 18:28
http://www.fudzilla.com/index.php?option=com_content&task=view&id=999&Itemid=1
$550 and no price drops
DAAMIT messed up Nvidia fan boys as well. Everyone expected that Nvidia will finally drop the price of the Geforce 8800 GTX but that is not happening anytime soon.
Radeon HD 2900XT clearly can not beat Geforce 8800 GTX and therefore Nvidia doesn’t even jokes about getting the price down. GTX sells for about €500 in Europe and some $550 in America and of course we are talking about default clocked cards.
Unfortunately a few sources confirmed that this price is here to stay at least for some time as ATI card is not competitive to GTX.
We already wrote that 8800 GTS 320 sells for €256 including shipping and 640 MB version costs about 300 to €310 or a bit more if you want an overclocked card. The Geforce 8800 GTX wont go down in price anytime soon. Sorry to disappoint you but don’t kill the messenger.
;)
DarkNiko
15-05-2007, 18:30
Non sono daccordo,e siccome ora praticamente non vi e' concorrenza x il top gamma,vedremo se il tempo mi da' ragione o meno.
Io sono convinto che la troppa concorrenza,se cosi' la si puo' chiamare,visto che in pratica se la giocano in 2,cosa ha portato? ,calo dei prezzi ok ma a che costo? cioe ,(tralasciando un attimo l'usato che si trova,che conta ben poco nel mercato totale), 1 compra 1 VGA da 500€ dell'ATI ,la NV ne fa 1 che va un 10% in + e costa 550 o viceversa, dopo sei mesi escono nuovi modelli delle rispettive case che vanno un 20% + e con new opzioni,filtri ecc..,e calano i prezzi delle vecchie,ok ,dopo altri 4 escono altre VGA sempre + pompate x cercare di strapparsi il podio,e calano i prezzi delle vecchie.Nel frattempo che le case si fanno la lotta, calano si i prezzi, ma escono new game che usano nuove cose,opzioni,filtri ecc,e molto + pesanti non del tutto giustificabile la pesantezza,secondo me(siccome le Sowtware house lo sanno che cosa uscira e/o verra implementato con le new VGA),alla fine ci si trova a dover cambiare VGA xche ormai arranca,(x chi come me ama i game), e quella che valeva 550€ dopo 1 anno ne vale 180,x poi far girare game mal otimizzati.Io dico che la concorrenza va bene ma con con criterio,ora sono obbligati x un po a programmare i game su quello che c'e' e i nostri soldi spesi x queste VGA ne trarranno beneficio ,poi come dico e' una mia opinione discutibile
La questione secondo il mio umile punto di vista è leggermente diversa. Primo, nessuno ti obbliga a star dietro alla tecnologia. Prendi me, e non solo me, ad esempio. Mi trovo con una 8800 GTX e non ho visto ancora un gioco degno di tale scheda, non tanto per le DX10, di cui ancora nessuno è in grado di pronunciarsi nè a favore nè contro, ma nemmeno in DX9. Mi riferisco al fatto che da Gennaio ad oggi non è che siano usciti titoli o titoloni da far cadere la mascella o da vedere la GPU del G80 lavorare intensamente anche se sapevo benissimo a cosa andavo incontro, e infatti la mia è stata comunque una libera scelta, non me l'ha ordinato il medico di comprarla questa scheda.
Secondo, sono perfettamente d'accordo con te riguardo al fatto che spesso molti giochi sono volutamente appesantiti dalle software house al solo scopo da indurre i "polli" (senza offesa per nessuno) a dover upgradare il proprio hardware solo per poter mettere tutto a palla (e non è nemmeno detto che il gioco vada fluido), anche se mi permetto di aggiungere che ci sono tanti e tanti titoli che, rinunciando a qualche minimo livello grafico che cmq non pregiudica la qualità complessiva del gioco stesso, rimangono comunque godibili appieno.
Infine, c'è anche il discorso di sapersi accontentare. Io amo la concorrenza e la battaglia che si danno ATi e NVidia, per diverse ragioni. Di certo non sono così ingenuo da vendermi una scheda solo perchè dopo 3 mesi esce quella che va anche il 20% più veloce o aggiunge filtri in più, perchè, come la 8800 GTX insegna, magari adesso hai il top di scheda e non sei supportato da titoli di pari livello, un domani escono i titoloni ma la scheda non ce la fa più di tanto a starli dietro. Quindi secondo me bisogna vedere tanti aspetti. Il discorso è talmente ampio e soggettivo che è difficile mettere tutti d'accordo, io mi rifaccio solo a un pizzico di buonsenso. Cmq aspettiamo e vedremo come evolvono le cose.
halduemilauno
15-05-2007, 18:31
Arrivataaaaa!!!!! :D :D :D
462€ trasporto compreso, niente male per una GTX... son qui che sto scaricando i driver! :cool:
Purtroppo mi ha chiamato Tecno e per la DFI dovrò aspettare ancora una settimana... :cry:
Vabbeh comincio a vedere come se la cava la 8800 col buon vecchio FX55. :p
ottimo.
;)
ancora non trovo la demo di lost planet in rete..mi sa ke allora è confermato per domani...bha...
posso mettere vista su hd esterno?
così mi preparo l'so per provare sta demo.
appleroof
15-05-2007, 18:33
Già... ero venuto a chiede come andasse la scheda con la demo di lost planet :sob:
:friend: dai bisogna aspettare solo un giorno...;)
http://www.fudzilla.com/index.php?option=com_content&task=view&id=999&Itemid=1
$550 and no price drops
DAAMIT messed up Nvidia fan boys as well. Everyone expected that Nvidia will finally drop the price of the Geforce 8800 GTX but that is not happening anytime soon.
Radeon HD 2900XT clearly can not beat Geforce 8800 GTX and therefore Nvidia doesn’t even jokes about getting the price down. GTX sells for about €500 in Europe and some $550 in America and of course we are talking about default clocked cards.
Unfortunately a few sources confirmed that this price is here to stay at least for some time as ATI card is not competitive to GTX.
We already wrote that 8800 GTS 320 sells for €256 including shipping and 640 MB version costs about 300 to €310 or a bit more if you want an overclocked card. The Geforce 8800 GTX wont go down in price anytime soon. Sorry to disappoint you but don’t kill the messenger.
;)
Bè, a questo punto viste le prestazioni della 2900 mi sembra assolutamente fisiologico che la GTX si "fermi" un pò mentre le gts scendano, queste ultime saranno davvero un grande affare ;)
:friend: dai bisogna aspettare solo un giorno...;)
Bè, a questo punto viste le prestazioni della 2900 mi sembra assolutamente fisiologico che la GTX si "fermi" un pò mentre le gts scendano, queste ultime saranno davvero un grande affare ;)
questo vuol dire longevità della gtx....:sofico:
Evangelion01
15-05-2007, 18:36
questo vuol dire longevità della gtx....:sofico:
Già... :p
Skullcrusher
15-05-2007, 18:47
Sotto Windows Vista 32 Bit (Ultimate) nessun problema, vanno ottimamente. Ho solo dovuto disinstallare e reinstallare Riva Tuner 2.01 che all'inizio non me li riconosceva.
Hai installato gli international o quelli inglesi?
io li ho appena installati su Vista ultimate 64bit e non ho nessun problema, prova a reinstallarli (lo so' che è una cosa che sicuramente sai già, ma una volta disinstallati i driver precedenti hai cancellato la cartella "C:\NVIDIA" ? )
Sì, cartella cancellata. Hai installato gli international o quelli inglesi? Mi giungono voci che potrebbe trattarsi di un baco della versione international :fagiano:
appleroof
15-05-2007, 19:07
Hai installato gli international o quelli inglesi?
Sì, cartella cancellata. Hai installato gli international o quelli inglesi? Mi giungono voci che potrebbe trattarsi di un baco della versione international :fagiano:
Ti rispondo io che ho vista64: appena installato i 158.44 (international) nessunissimo problema con Aero, devo provarli con i giochi (aspetto domani...:D )
;)
http://www.fudzilla.com/index.php?option=com_content&task=view&id=999&Itemid=1
$550 and no price drops
..
;)
..peccato...per lo sli, aspetterò
Alexkidd85
15-05-2007, 19:20
No ;)
Grazie ;)
DarkNiko
15-05-2007, 20:06
Hai installato gli international o quelli inglesi?
Sì, cartella cancellata. Hai installato gli international o quelli inglesi? Mi giungono voci che potrebbe trattarsi di un baco della versione international :fagiano:
Ho quelli italiani, quindi direi International e ripeto sotto Vista Ultimate, l'Aero funziona ancora divinamente, così come RivaTuner e tutto il resto.
Skullcrusher
15-05-2007, 20:14
Ti rispondo io che ho vista64: appena installato i 158.44 (international) nessunissimo problema con Aero, devo provarli con i giochi (aspetto domani...:D )
;)
Ho quelli italiani, quindi direi International e ripeto sotto Vista Ultimate, l'Aero funziona ancora divinamente, così come RivaTuner e tutto il resto.
Ok, allora si è trattato di un qualche problema durante l'installazione. Proverò a reinstallarli, grazie :)
appleroof
15-05-2007, 20:16
Ok, allora si è trattato di un qualche problema durante l'installazione. Proverò a reinstallarli, grazie :)
de nada ;)
Confermo, li ho provati anche io e aereo funziona. La cosa che non mi convince, e domani non ho neanche troppo tempo per provare :(, è che sembrerebbero non reggere le stesse frequenze che avevo impostato con gli altri; infatti già a 670-1566-1080Mhz non sono riuscito a terminare un test con 3 loop di 3dM06, ed il driver si è bloccato, cosa che con gli altri accadeva a 680Mhz (a 670-1566 li ho provati per 4 ore consecutive prima, per 2 ore e poi per altre 2 ore con vari loop di 3dM06 multitest senza mai un problema) per cui escludo possa trattarsi di una conicidenza.
Se domani riesco provo a vedere se magari avevo installato qualcosa male, cmq per adesso non sono ovviamente molto contento, qualcun'altro che li ha provato in overclock questi nuovi drivers c'è?
da windows no...
mettigli sopra nvflash 5.31 + il bios della XFX XXX... :)
all'avvio al prompt digita nvflash -5 -6 nomebios.rom
;)
Non ho ancora la scheda,forse arriva domani,ma puoi darmi i link dove scaricare il bios?
Anche io ho installato i driver ufficiali sotto sVista e mi è scomparso l'aero... :rolleyes:
Vabbeh tanto ho visto che non mi cambia nulla, i giochi mi giravano da schifo prima con la x1900xtx quanto mi girano da schifo adesso con la 8800gtx. :p
Discorso diverso con XP invece, ora Oblivion anche a 1920x1080 mi sta ampiamente sopra i 30fps. :D (sotto svista non saliva sopra i 15/20 :rolleyes: )
Anche con Lord Of The Rings Online ho avuto un bel guadagno: 1920x1080 dettagli Ultra High, ora sta mediamente tra i 40 e i 50fps, esattamente il doppio che con la ATI. :) (anche LOTRO sotto Vista calava a 25/30fps)
Ho provato anche a cloccarla come le XXX, 630-2000, e sembra funzionare correttamente, :D ma non ho visto miglioramenti.
Sicuramente con l'FX55 sono molto CPU-Limited, come dimostrano le seguenti prove fatte a diverse risoluzioni, in cui il risultato quasi non cambia:
Con 3d Mark 05, settaggi default in 1024x768 ho fatto 11087 punti, con OC 630-2000 sono sceso addirittura a 10970. :rolleyes:
Un piccolo miglioramento c'è stato lanciando il 3dmark a 1920*1080:
Con cloccaggio di default ho fatto 10634 punti, contro i 10783 ottenuti con clock 630-1000. :)
Piccola considerazione finale: Quando avevo le 2 GF6800gt in SLI, avevo ottenuto praticamente lo stesso punteggio con 3dmark! :)
Test eseguiti con: Asus A8N-SLI Deluxe, AMD FX55, 2gb Corsair XMS, Sparke Geforce 8800gtx.
Driver 158.43 per vista sempre beta
http://www.nvidia.com/object/winvista_x86_158.43.html
Non ho ancora la scheda,forse arriva domani,ma puoi darmi i link dove scaricare il bios?
http://www.mvktech.net/component/option,com_remository/Itemid,26/func,selectcat/cat,2/
halduemilauno
16-05-2007, 06:20
http://www.legitreviews.com/article/505/1/
;)
http://www.lostplanetcommunity.com/demo/
;)
Skullcrusher
16-05-2007, 07:32
Driver 158.43 per vista sempre beta
http://www.nvidia.com/object/winvista_x86_158.43.html
In download versione a 64bit. Vediamo se mi scompare ancora Aero.
http://www.lostplanetcommunity.com/demo/
;)
grande...metto subito in DL la dx10 demo :)
In download versione a 64bit. Vediamo se mi scompare ancora Aero.
skull ho messo ieri i 158.43 vista32bit....nessun problema ovviamente ;)
Skullcrusher
16-05-2007, 07:50
skull ho messo ieri i 158.43 vista32bit....nessun problema ovviamente ;)
Tnx.
Niente, installato i 158.43 e Aero scompare ancora. Allora è un problema mio. Bene, oggi si formatta.
http://www.lostplanetcommunity.com/demo/
;)
Ah c'è anche in versione DX9! :D
Notare come le richieste HW della versione DX10 siano più esose... :rolleyes:
E scommetterei che le due versioni saranno pressochè identiche! :p
Con 3d Mark 05, settaggi default in 1024x768 ho fatto 11087 punti, con OC 630-2000 sono sceso addirittura a 10970. :rolleyes:
Un piccolo miglioramento c'è stato lanciando il 3dmark a 1920*1080:
Con cloccaggio di default ho fatto 10634 punti, contro i 10783 ottenuti con clock 630-1000. :)
spero che tu stia parlando di 3d06:eek:
spero che tu stia parlando di 3d06:eek:
Nono, è proprio 3dm05! :p
Come ho detto è sicuramente la CPU a limitarmi molto, come dimostra il fatto che sia in 1024 che in 1920 il risultato non cambia. :)
Quando arriverà la mammina per il Quad, vedrò la sua vera putenza! :D
Confermo, li ho provati anche io e aereo funziona. La cosa che non mi convince, e domani non ho neanche troppo tempo per provare :(, è che sembrerebbero non reggere le stesse frequenze che avevo impostato con gli altri; infatti già a 670-1566-1080Mhz non sono riuscito a terminare un test con 3 loop di 3dM06, ed il driver si è bloccato, cosa che con gli altri accadeva a 680Mhz (a 670-1566 li ho provati per 4 ore consecutive prima, per 2 ore e poi per altre 2 ore con vari loop di 3dM06 multitest senza mai un problema) per cui escludo possa trattarsi di una conicidenza.
Se domani riesco provo a vedere se magari avevo installato qualcosa male, cmq per adesso non sono ovviamente molto contento, qualcun'altro che li ha provato in overclock questi nuovi drivers c'è?
Nessuno passando ai nuovi 158.42 ha avuto problemi di overclock? La mia scheda sembra andare un 10Mhz in meno come frequenza GPU rispetto a prima, avete notizie in proposito? Inoltre il calore prodotto sembra minore di quello che avevo con i driver precedenti, con cui stavo in media 3° sopra con la stessa temperatura ambiente, sembra come se la GPU funzionasse ad un voltaggio inferiore e quindi scalda meno ma sale anche di più. Ovviamente è solo un'ipotesi basata sui "sintomi" della mia specifica configurazione, il fatto è che tutto il resto è uguale a prima.
Tra poco scarico la versione di LostPlanet per Vista e vediamo se lo SLi in DX10 funziona come promettono questi nuovi drivers ;). Mi pare ci sia proprio una modalità benchmark, è esatto?
Sakurambo
16-05-2007, 10:14
Domanda secca da parte di uno che non ha mia comprato nvidia e quindi informazioni pari a zero su marche e modelli.
Se volessi comprare una 8800GTX quale mi converrebbe comprare?
Sono tutte uguali o devo cercare una specifica per avere memorie più veloci o stabili?
Revision?
Dissipatori più o meno funzionali?
Grazie dell'aiuto ad un noob nvidia :D
Andrea deluxe
16-05-2007, 10:16
mi serve una mano!
oggi mi arriva una asus 8800 gtx!
Ma ho un dubbio. modifico il bios originale della scheda portando le frequenze a GPU 630 SHADER 1500 RAM 1000 oppure prendo l'ultimo bios della xfx 8800 gtx xxx e aumento gli shader DA 1350 a 1500?
ps: ci sono differenze strutturali tra il pcb scuro e quello verde pisello?
aiuto!
The_max_80
16-05-2007, 10:34
mi serve una mano!
oggi mi arriva una asus 8800 gtx!
Ma ho un dubbio. modifico il bios originale della scheda portando le frequenze a GPU 630 SHADER 1500 RAM 1000 oppure prendo l'ultimo bios della xfx 8800 gtx xxx e aumento gli shader DA 1350 a 1500?
ps: ci sono differenze strutturali tra il pcb scuro e quello verde pisello?
aiuto!
che significa aumentare gli shaders?
Andrea deluxe
16-05-2007, 10:37
INNALZARE LA FREQUENZA!
Kharonte85
16-05-2007, 10:43
Vi segnalo questo Thread per provare la DEMO di Lost Planet e postare le impressioni:
http://www.hwupgrade.it/forum/showthread.php?t=1473391
Dateci dentro! ;)
INNALZARE LA FREQUENZA!
fai un bck dell'originale, poi lo modifichi da quanto ne so non mi sembra una buona idea alzare gli shader tout court, devi alzare in modo progressivo la ram il clock e gli shader come si fa per l'oc della cpu. prima fai un test con riva tuner così ti rendi conto dei limiti, nelle gtx il problema sono le ram a volte é difficile salire sopra i 950 senza problemi. e il fatto che salgano non significa poi che tengano a quelle frequenze, ne so qualcosa:)
occhio alle temperature
Andrea deluxe
16-05-2007, 10:56
quindi tu pensi che l'ideale e':
GPU 630
SHADER 1500
RAM 950
Domanda secca da parte di uno che non ha mia comprato nvidia e quindi informazioni pari a zero su marche e modelli.
Se volessi comprare una 8800GTX quale mi converrebbe comprare?
Sono tutte uguali o devo cercare una specifica per avere memorie più veloci o stabili?
Revision?
Dissipatori più o meno funzionali?
Grazie dell'aiuto ad un noob nvidia :D
inizialmente sembra fossero costruite tutte da asus quindi cambiava il disegno del dissi ma la scheda in se non aveva grosse differenze. ora credo non sia + cosi.
per valutare l'acquisto terrei conto anche del servizio dopo vendita. Nel mio caso la EVGA mi ha dato la possibilità di rma sia per la mb che non saliva che per la gtx. quindi un ottimo servizio dopo vendita. le ram vanno a:ciapet: puoi acquistare una qualsiasi marca e non salgono oppure si
quindi tu pensi che l'ideale e':
GPU 630
SHADER 1500
RAM 950
non é detto, devi salire a gradi e provare, magari le tue ram tengono anche a 1050, tieni conto di quanto il tutto stà a default (575/1350/900) inoltre ci sono degli scalari per l'oc, mi spiego meglio ad esempio la ram fino ad un certo clock, poniamo ad esempio 956 resta comunque a 900 quindi per salire devi impostare almeno 960. queste cifre che posto sono casuali ma se cerchi nella rete troverai sicuramente quali sono questi scalini e a quali valori
Andrea deluxe
16-05-2007, 11:08
;)
;)
non ti posso linkare i valori poichè sono col muletto la mia mb e la gtx sono in rma e i dati sono sull'altro pc:)
Andrea deluxe
16-05-2007, 11:15
non riesco a trovare neanche un sito che mi dia quei valori:muro:
halduemilauno
16-05-2007, 11:41
non riesco a trovare neanche un sito che mi dia quei valori:muro:
quei valori li puoi ottenere con rivatuner.
;)
non riesco a trovare neanche un sito che mi dia quei valori:muro:
Stock card clocks on my OCZ8800GTX cards are:
567 core
1350 Shader domain
900 memory
In theory if i set 568 for the core it should go up 1Mhz...fact is it doesn't.
Here is what I found.
554 thru 571 = 567
572 thru 584 = 576
585 thru 603 = 594
604 thru 616 = 612
617 thru 634 = 621
635 thru 661 = 648
662 thru XXX = 675
I stopped here but the trend continues.
Now we need to add the shader clock into the mix:
576=1350
577 thru 588 =1350
589 = 1404....AHHA
After a little detective work the shader clock rises every 23Mhz or close to it.
Here are where I found the shader clocks changed.
565=1350
589=1404
611=1458
634=1512
657=1566
681=1620
Now we need to bring the memory into the mix also:
897 thru 908 = 900
909 thru 927 = 918
928 thru 940 = 936
941 thru 958 =945
959 thru 985 = 972
986 thru 1003 = 999
1004 thru 1116 =1008
1117 thru 1035 = 1026
1036 thru 1048 = 1044
1049 thru 1066 =1053
1067 thru 1101 = 1080
1102 thru 1110 = 1107
Andrea deluxe
16-05-2007, 12:40
quindi intervenendo sul bios metto direttamnete CON NIBITOR
GPU 634
SHADER 1512
RAM (IN BASE A QUANTO REGGONO)
giusto?
quindi intervenendo sul bios metto direttamnete CON NIBITOR
GPU 634
SHADER 1512
RAM (IN BASE A QUANTO REGGONO)
giusto?
Vedi che anche con tutto il resto devi vedere se ti regge,non sta scritto mica da nessuna parte che ti regga i 634 oppure i 1512 sugli shader,ad esempio a me regge i 621 sulla gpu i 1566 sugli shader ed i 1008 sulle memorie,ma ad altri regge meno ad altri di più il consiglio spassionato comunque è sempre quello di trovare i valori adatti con ati tool e poi flashare il bios,tieni presente che almeno a me la gpu e gli shader non sono sincronizzati,perche regge meglio gli shader che la gpu e quindi gli shader sono uno step in più rispetto la gpu,ma per sapere queste cose devi comunque sempre provare!
Andrea deluxe
16-05-2007, 13:08
adesso mi e' tutto chiaro!
posso andare su di step con gli shader rispetto al clock della gpu!
grazie a tutti!
adesso mi e' tutto chiaro!
posso andare su di step con gli shader rispetto al clock della gpu!
grazie a tutti!
Si,però solo da bios,perchè se lo fai via software è sempre sincronizzato,ossia sale uno e sale l'altro!
Andrea deluxe
16-05-2007, 13:14
si si
tanto io overclocco sempre da bios con nvidia!
usero':
Nv flash 5.40
nibitor v3.4a
e lo stesso bios originale
pesate sia tutto ok?
altri consigli?
Di nvflash è uscito il 5.50 ma tanto io fino a 3 giorni fa adoperavo ancora il 5.31 e gli ho flashato il bios della ultra,quindi alla fine nessun problema
Evangelion01
16-05-2007, 13:25
Raga, non so se avete visto l' articolo di toms'hw sulla hd2900 in cf... :asd:
Vanno più lente delle x1950xtx... :cry:
La 8800gtx RULLA ! :yeah:
The_max_80
16-05-2007, 13:35
Raga, non so se avete visto l' articolo di toms'hw sulla hd2900 in cf... :asd:
Vanno più lente delle x1950xtx... :cry:
La 8800gtx RULLA ! :yeah:
beh proprio per il cross fire aspetterei un attimo un driver piu maturo
Evangelion01
16-05-2007, 13:36
beh proprio per il cross fire aspetterei un attimo un driver piu maturo
Quoto, questo si...
Però se il buon giorno si vede dal mattino.... :rolleyes:
Dato come funziona lo SLI sotto Svista dovremmo solo che stare zitti... :Prrr: :Prrr:
Andrea deluxe
16-05-2007, 13:47
Di nvflash è uscito il 5.50 ma tanto io fino a 3 giorni fa adoperavo ancora il 5.31 e gli ho flashato il bios della ultra,quindi alla fine nessun problema
eeeeeeeeeeeee
come cavolo e' possibile!
le ram della ultra hanno caratteristiche diverse....(hai abbassato le ram vero?)
di che marca e' la tua gtx?
Dato come funziona lo SLI sotto Svista dovremmo solo che stare zitti... :Prrr: :Prrr:
Con i recenti driver 158.42 faccio 10700 punti al 3dM06 con lo SLi ed un QX6700. Però a risoluzione 1920x1200 con AA8x e AS16x :D, direi che non è male, inoltre in tutti i giochi va veramente bene lo SLi con Vista... Le tue parole da che tipo di esperienza derivano?
Appunto, "Con i recenti driver 158.42", dopo 7 mesi che ci sono le 8800 in giro... :p
Le mie esperienze con Svista sono state ultra-negative, dato che i giochi mi girano dal 30 al 70% in meno rispetto ad XP... :mad:
Ma probabilmente il SO ha bisogno di un multicore, riproverò quando mi arriva il quad. :D
Appunto, "Con i recenti driver 158.42", dopo 7 mesi che ci sono le 8800 in giro... :p
Le mie esperienze con Svista sono state ultra-negative, dato che i giochi mi girano dal 30 al 70% in meno rispetto ad XP... :mad:
Ma probabilmente il SO ha bisogno di un multicore, riproverò quando mi arriva il quad. :D
Con disponibili da subito facevo 1000 punti di meno, ma rispetto ad R600 mi pare si sia su altri livelli, e si parlava di configurazione in scheda multipla :D. Cmq è ovvio che con un sistema operativo nuovo ci siano parecchi ritocci da fare. La 8800GTX in configurazione SLi però mi ha sempre consentito di giocare a tutto come volevo. Vista è un sistema operativo che mi ha impressionato molto favorevolmente, e di certo non per il suo aspetto grafico, mi spiace per le tue esperienze :(.
appleroof
16-05-2007, 14:38
Raga chi ha avuto questi problemi con la demo di lost planet e vista 64?
http://www.hwupgrade.it/forum/showpost.php?p=17146195&postcount=110
Con i recenti driver 158.42 faccio 10700 punti al 3dM06 con lo SLi ed un QX6700. Però a risoluzione 1920x1200 con AA8x e AS16x :D, direi che non è male, inoltre in tutti i giochi va veramente bene lo SLi con Vista... Le tue parole da che tipo di esperienza derivano?
non capisco:confused: 10700 con lo sli ? sli di gts immagino ne faccio 11500 con la config in firma
fdadakjli
16-05-2007, 14:54
non capisco:confused: 10700 con lo sli ? sli di gts immagino ne faccio 11500 con la config in firma
hai letto le impostazioni??? ;)
non capisco:confused: 10700 con lo sli ? sli di gts immagino ne faccio 11500 con la config in firma
come non detto una sVista della config:mc:
Appunto, "Con i recenti driver 158.42", dopo 7 mesi che ci sono le 8800 in giro... :p
Le mie esperienze con Svista sono state ultra-negative, dato che i giochi mi girano dal 30 al 70% in meno rispetto ad XP... :mad:
Ma probabilmente il SO ha bisogno di un multicore, riproverò quando mi arriva il quad. :D
eppure in tutti i test di pc professionale.. si perdeva massimo un 5 % con vista nei giochi
lost planet bench @default 1280x760: snow 60 cave 56
La grafica è carina ma non mi ha per nulla stupito
Se metto anke le shadow su hig e non @default 1280x1024 mi fa 15-20 fps xke??
appleroof
16-05-2007, 15:52
Raga ho provato la demo di lost planet (i driver sono i 158.42 vista 64): ad impostazioni al max è giocabile a 1920x1080 con un frame medio quasi a 30, togliendo aa e hdr basso (mi pare non si possa escludere del tutto) naturalmente il gioco vola, devo provare a mettere aa2x e hdr al max, a quella mega risoluzione deve essere il compromesso giusto, poi proverò a 1680x1050, mi sà che così vola anche al max....non nascondo la max soddisfazione :)
una cosa stranissima: ho dovuto abbassare l'oc del sistema altrimenti crashava, ho portato l'fsb a 280 da 290 e ho dovuto rilassare le memorie a 3-4-4-8, non mi è mai successo, sono mesi che gioco con le impostazioni in firma e mai crash... non so proprio che pensare....
dimenticavo: scheda default ;)
Raga ho provato la demo di lost planet (i driver sono i 158.42 vista 64): ad impostazioni al max è giocabile a 1920x1080 con un frame medio quasi a 30, togliendo aa e hdr basso (mi pare non si possa escludere del tutto) naturalmente il gioco vola, devo provare a mettere aa2x e hdr al max, a quella mega risoluzione deve essere il compromesso giusto, poi proverò a 1680x1050, mi sà che così vola anche al max....non nascondo la max soddisfazione :)
una cosa stranissima: ho dovuto abbassare l'oc del sistema altrimenti crashava, ho portato l'fsb a 280 da 290 e ho dovuto rilassare le memorie a 3-4-4-8, non mi è mai successo, sono mesi che gioco con le impostazioni in firma e mai crash... non so proprio che pensare....
dimenticavo: scheda default ;)
media di 30 a 1280x980 se metto tutto tutto al max aa4x as 8x
messe le ombre su medium 43 di media (snow)
appleroof
16-05-2007, 16:40
media di 30 a 1280x980 se metto tutto tutto al max aa4x as 8x
messe le ombre su medium 43 di media (snow)
Interessante...visto che hai un conroe (ma è default no?) e la gtx potresti confrontare i tuoi risultati in "snow" e "cave" con i miei a 1280x960 qui:
http://www.hwupgrade.it/forum/showthread.php?t=1473471&page=8
DarkNiko
16-05-2007, 16:49
Ciao a tutti, vi posto i miei risultati ottenuti nel seguente modo:
Windows XP (DX9)
-----------------
Risoluzione : 1280 * 720 (il max che ho potuto selezionare).
Drivers : 158.19 ufficiali
Settaggi: AA 8x, Aniso 8x, tutto il resto al max (a parte il settaggio Shadow Quality che non so perchè non sale oltre Medium).
Snow : 52 fps
Cave : 47 fps
premetto che ho fatto i tests con pc a default e non come in firma, quindi CPU a 2.4 GHz e VGA a default 575/900
Windows Vista Ultimate (32 Bit) (Demo DX10)
-------------------------------------------
Drivers : 158.42 (con i 158.43 non cambia nulla)
Con gli stessi settaggi ottenuti sotto XP, faccio :
Snow : 54 fps
Cave : 46 fps
quindi siamo lì
Windows Vista Ultimate (32 Bit) (Demo DX9)
------------------------------------------
Snow : 57 fps
Cave : 48 fps
Invece su Windows Vista 64 bit in DX9 va uguale alla 32 Bit, mentre in DX10 non so perchè fa schifo, non supero i 30 fps mah.
Ad ogni modo mi ritengo ampiamente soddisfatto. Cmq inutile a dirsi che settando al medio hdr, motion blur e le ombre, il gioco guadagna una 10 di fps massimi. Aggiungo anche che ho messo il Vsync ON.
Speriamo tuttavia che sia NVidia che la Capcom, chi con i drivers e chi con le ottimizzazioni interne, provveda a rendere più costante il framerate. Questo gioco promette bene.
Per quanto riguarda la qualità d'immagine mi sembra che in DX10 abbia qualcosa in più, diciamo colori più vivi, ma è solo una mia impressione.
Interessante...visto che hai un conroe (ma è default no?) e la gtx potresti confrontare i tuoi risultati in "snow" e "cave" con i miei a 1280x960 qui:
http://www.hwupgrade.it/forum/showthread.php?t=1473471&page=8
tue stesse impostazioni(tutto al max) 21 cave e 18 snow........1280x960:confused:
DarkNiko
16-05-2007, 16:56
Cmq mi permetto di aggiungere che se queste sono le premesse di framerate dei giochi futuri, specialmente con le DX10 io inizierei a preoccuparmi seriamente. Spero solo di non trovarmi di fronte all'inculata classica in cui le software house programmano giochi che richiedono hardware video sempre più potente, al punto che una 8800 GTX non sia più sufficiente a garantire framerates elevati, dove per elevati intendo almeno sui 60 fps, perchè se così fosse venderei di corsa il PC e passerei alle console.
appleroof
16-05-2007, 17:06
tue stesse impostazioni(tutto al max) 21 cave e 18 snow........1280x960:confused:
In effetti è molto strano...:what:
Cmq mi permetto di aggiungere che se queste sono le premesse di framerate dei giochi futuri, specialmente con le DX10 io inizierei a preoccuparmi seriamente. Spero solo di non trovarmi di fronte all'inculata classica in cui le software house programmano giochi che richiedono hardware video sempre più potente, al punto che una 8800 GTX non sia più sufficiente a garantire framerates elevati, dove per elevati intendo almeno sui 60 fps, perchè se così fosse venderei di corsa il PC e passerei alle console.
I tempi dell'aa16xQ af16x a 1600x1200 in sù ovviamente finiranno, anzi sono già finiti, inoltre devi considerare cosa pretendi da un gioco: 40fps in media a 1920x1080 per me sono sufficienti anche per uno sparatutto (preferisco sempre e cmq la grafica alla velocità, finchè posso) per un altro potrebbero essere totalmente insufficienti.
Ora, a parte che bisogna ricordare che questa è la demo del primo dx10, cosa assolutamente non secondaria, io non mi aspettavo di certo che la scheda andasse come a novembre in dx9 quando lasciavo filtri e tutto al max assoluto e non ci pensavo più, sarebbe stato quasi utopistico, però sono assolutamente soddisfatto di come gira a 1920x1080 aa2x af16x, non potevo chiedere di meglio alla risoluzione a cui gioco e sono sempre davvero più soddisfatto della scelta che ho fatto a novembre (aspettando ulteriori giochi dx10, Crysis prima di tutti) ;)
In effetti è molto strano...:what:
I tempi dell'aa16xQ af16x a 1600x1200 in sù ovviamente finiranno, anzi sono già finiti, inoltre devi considerare cosa pretendi da un gioco: 40fps in media a 1920x1080 per me sono sufficienti anche per uno sparatutto (preferisco sempre e cmq la grafica alla velocità, finchè posso) per un altro potrebbero essere totalmente insufficienti.
Ora, a parte che bisogna ricordare che questa è la demo del primo dx10, cosa assolutamente non secondaria, io non mi aspettavo di certo che la scheda andasse come a novembre in dx9 quando lasciavo filtri e tutto al max assoluto e non ci pensavo più, sarebbe stato quasi utopistico, però sono assolutamente soddisfatto di come gira a 1920x1080 aa2x af16x, non potevo chiedere di meglio alla risoluzione a cui gioco e sono sempre davvero più soddisfatto della scelta che ho fatto a novembre (aspettando ulteriori giochi dx10, Crysis prima di tutti) ;)
Gia molto strano....si ma va bene accopntentarsi ma 21 di media no!!!! se è cosi mi girano e tanto anke!! solo passando da 1280x760 a 1280 x 960 ho perso 15 fps di media!!:mad:
appleroof
16-05-2007, 17:14
Gia molto strano....si ma va bene accopntentarsi ma 21 di media no!!!! se è cosi mi girano e tanto anke!! solo passando da 1280x760 a 1280 x 960 ho perso 15 fps di media!!:mad:
Ma sei sicuro che è tutto ok? I miei risultati pensavo fossero falsati dalla cpu a quella risoluzione, ma và meglio che a te,,, :confused:
Ma sei sicuro che è tutto ok? I miei risultati pensavo fossero falsati dalla cpu a quella risoluzione, ma và meglio che a te,,, :confused:
in che senso?? al 3dmark06 faccio 10400... ma tu la shadow qualcosa...la seconda opzione delle ombre non la qualita l'hai messa a default o su high? Perche a def mi fa suu 34 di media
appleroof
16-05-2007, 17:29
in che senso?? al 3dmark06 faccio 10400... ma tu la shadow qualcosa...la seconda opzione delle ombre non la qualita l'hai messa a default o su high? Perche a def mi fa suu 34 di media
Default! ho usato esattamente le impostazioni (le prime dei 2 test) che trovi qui (in fondo):
http://www.hwupgrade.it/forum/showpost.php?p=17140280&postcount=1
cmq se clocchi il processore (credo di aver capito che sei a default) vedrai la scheda andare ancora meglio e non di poco, a quella risoluzione
;)
DarkNiko
16-05-2007, 17:30
In effetti è molto strano...:what:
I tempi dell'aa16xQ af16x a 1600x1200 in sù ovviamente finiranno, anzi sono già finiti, inoltre devi considerare cosa pretendi da un gioco: 40fps in media a 1920x1080 per me sono sufficienti anche per uno sparatutto (preferisco sempre e cmq la grafica alla velocità, finchè posso) per un altro potrebbero essere totalmente insufficienti.
Ora, a parte che bisogna ricordare che questa è la demo del primo dx10, cosa assolutamente non secondaria, io non mi aspettavo di certo che la scheda andasse come a novembre in dx9 quando lasciavo filtri e tutto al max assoluto e non ci pensavo più, sarebbe stato quasi utopistico, però sono assolutamente soddisfatto di come gira a 1920x1080 aa2x af16x, non potevo chiedere di meglio alla risoluzione a cui gioco e sono sempre davvero più soddisfatto della scelta che ho fatto a novembre (aspettando ulteriori giochi dx10, Crysis prima di tutti) ;)
Che sia godibile non ci piove, però se il limite massimo di questo gioco alla risoluzione max che posso impostare (1280*960) è di circa 60 fps (valore ottimo per carità), spero che i giochi che verranno (vedi Crysis che è molto più dettagliato di Lost Planet) siano ottimizzati meglio.
Vero è, come tu giustamente hai sottolineato, che è la prima demo DX10 (non che in DX9 giri meglio, le prestazioni sono in linea) e che forse non farà tanto testo, però se il buongiorno si vede dal mattino....
Resta il fatto che la 8800 GTX in questa demo è messa un pò alla frusta, poi spero di sbagliarmi.
appleroof
16-05-2007, 17:34
Che sia godibile non ci piove, però se il limite massimo di questo gioco alla risoluzione max che posso impostare (1280*960) è di circa 60 fps (valore ottimo per carità), spero che i giochi che verranno (vedi Crysis che è molto più dettagliato di Lost Planet) siano ottimizzati meglio.
Vero è, come tu giustamente hai sottolineato, che è la prima demo DX10 (non che in DX9 giri meglio, le prestazioni sono in linea) e che forse non farà tanto testo, però se il buongiorno si vede dal mattino....
Resta il fatto che la 8800 GTX in questa demo è messa un pò alla frusta, poi spero di sbagliarmi.
Oltre alla risoluzione come sono le altre impostazioni del gioco? il v-sync l'hai disabilitato?
halduemilauno
16-05-2007, 17:36
lost planet bench @default 1280x760: snow 60 cave 56
La grafica è carina ma non mi ha per nulla stupito
Se metto anke le shadow su hig e non @default 1280x1024 mi fa 15-20 fps xke??
con le stesse impostazioni snow 53 e cave 47. 8800gts320 default.
;)
appleroof
16-05-2007, 17:37
con le stesse stesse impostazioni snow 53 e cave 47. 8800gts320 default.
;)
Rullano anche in dx10 eh? ;)
halduemilauno
16-05-2007, 17:39
Rullano anche in dx10 eh? ;)
alla faccia di qualch'altra.
;)
appleroof
16-05-2007, 17:41
alla faccia di qualch'altra.
;)
:D
La gtx tornassi indietro la comprerei 10000 volte....;)
halduemilauno
16-05-2007, 17:45
:D
La gtx tornassi indietro la comprerei 10000 volte....;)
figurati io con la gts a 250€.
;)
DarkNiko
16-05-2007, 17:47
Oltre alla risoluzione come sono le altre impostazioni del gioco? il v-sync l'hai disabilitato?
1280*960, AA 8x, Aniso 8x, e tutto il resto al max selezionabile, vsync on certamente (levandolo la situazione cambia di poco).
invece con AA 4x, Aniso 4x, 57 fps al 1° test e 51 fps al 2°.
con le impostazioni che mi hai detto tu faccio 30 snow e 41 cave....mi sa che dx10 non sono cosi dipendenti dal procio
Evangelion01
16-05-2007, 18:05
:D
La gtx tornassi indietro la comprerei 10000 volte....;)
IDEM.. :D
appleroof
16-05-2007, 18:11
con le impostazioni che mi hai detto tu faccio 30 snow e 41 cave....mi sa che dx10 non sono cosi dipendenti dal procio
Hai perfettamente ragione :doh: ragionavo in "termini dx9"....ma è cmq strano che a me va leggermente meglio che a te...
eeeeeeeeeeeee
come cavolo e' possibile!
le ram della ultra hanno caratteristiche diverse....(hai abbassato le ram vero?)
di che marca e' la tua gtx?
Veramente all'inizio l'ho flashato così com'era,ma appena entravo in 3d si freezzava e con grande delusione ho visto che alla fine reggeva esattamente le stesse frequenze del suo bios (speravo che magari avesse i timings delle ram più rilassati e mi permettesse qualche cosina di più) adesso comunque ho rimesso il suo originale modificato
Installata versione DX9 ma non funge neanche a me! :mad:
Gli manca il file "ximput1_3.dll". :(
P.S. Scaricata da http://www.dll-files.com, ma poi gli mancava d3dx9_33.dll, che non c'era nemmeno sul sito... :rolleyes:
Copiando e rinominando la "d3dx9_32.dll" il gioco parte, ora vediamo come va. :p
appleroof
16-05-2007, 18:26
Anche a me non parte, gli manca "ximput1_3.dll". :mad:
Aggiorna le directx 9 con le ultime di aprile ;)
voi che siete DX10 ready-compliant-frizzi&lazzi :D e state provando Lost Planet, si nota una grafica "differente" rispetto alle DX9?
appleroof
16-05-2007, 18:31
voi che siete DX10 ready-compliant-frizzi&lazzi :D e state provando Lost Planet, si nota una grafica "differente" rispetto alle DX9?
Per me assolutamente si, come ho scritto nell'altro tread vedendo il gioco in dx9 e poi in dx10 il primo sembra un gioco "vecchio" a parità di impostazioni, o meglio, la differenza non è sempre così avvertibile, lo è "a parità di scena" se mi sono spegato....
Per me assolutamente si, come ho scritto nell'altro tread vedendo il gioco in dx9 e poi in dx10 il primo sembra un gioco "vecchio" a parità di impostazioni, o meglio, la differenza non è sempre così avvertibile, lo è "a parità di scena" se mi sono spegato....
mica tanto :stordita:
mica tanto :stordita:
sinceramente non ho trovato grandix differenze...non so se gli screen che ho visto io erano orribili o cosa.....(quelli di un link che qualcuno aveva postato qualche messaggio piu indietro)
Hai perfettamente ragione :doh: ragionavo in "termini dx9"....ma è cmq strano che a me va leggermente meglio che a te...
be va ke siamo li...1 fps non la chiamo "differenza"...pero questo dimostra che le dx10 hanno eliminato qualsiasi collo di bottiglia creato dal processore...ore è la scheda video a fare davvero la differenza
DarkNiko
16-05-2007, 18:47
voi che siete DX10 ready-compliant-frizzi&lazzi :D e state provando Lost Planet, si nota una grafica "differente" rispetto alle DX9?
Sì si vede ad occhio nudo la differenza, diciamo è meglio definita in DX10. Tuttavia sarei curioso di conoscere le performance della demo sulla tua configurazione, hai modo gentilmente di provarla ???
Grazie ;)
Sì si vede ad occhio nudo la differenza, diciamo è meglio definita in DX10. Tuttavia sarei curioso di conoscere le performance della demo sulla tua configurazione, hai modo gentilmente di provarla ???
Grazie ;)
l'ho scaricata oggi, questa sera dopo cena la provo e poi ti dico ;)
DarkNiko
16-05-2007, 18:52
Ti ringrazio. :D
appleroof
16-05-2007, 19:02
be va ke siamo li...1 fps non la chiamo "differenza"...pero questo dimostra che le dx10 hanno eliminato qualsiasi collo di bottiglia creato dal processore...ore è la scheda video a fare davvero la differenza
sono d'accordo ;) (e mò chi se lo cambia più il resto del sistema? :asd: :asd: )
mica tanto :stordita:
Me ne ero reso conto già mentre scrivevo...:D
Allora ancora ci ho giocato poco e niente, ti parlo sopratutto del bench: questo è fatto di 2 parti, neve e grotte (non so se lo sapevi già) la differenza si vede ovunque quantificabile in una qualità grafica complessiva maggiore, come diiceva darkniko, io aggiungo poi che sopratutto nelle grotte la differenza è grossa, per me, soprtutto in "cose secondarie" (ma mica tanto) come l'acqua che cade dall'alto sulla roccia, il modo il numero in cui si muovono alcuni "esseri" e gli effetti di luce...diciamo che secondo me è difficilissimo rendere l'idea senza vedere all'opera il gioco nelle 2 modalità, e anche dagli screen postati secondo me non si percepisce appieno la differenza...
cmq se questo è, come lo è, l'inizio delle dx10 direi che ne vedremo davvero delle belle da qui in poi :)
sono d'accordo ;) (e mò chi se lo cambia più il resto del sistema? :asd: :asd: )
Me ne ero reso conto già mentre scrivevo...:D
Allora ancora ci ho giocato poco e niente, ti parlo sopratutto del bench: questo è fatto di 2 parti, neve e grotte (non so se lo sapevi già) la differenza si vede ovunque quantificabile in una qualità grafica complessiva maggiore, come diiceva darkniko, io aggiungo poi che sopratutto nelle grotte la differenza è grossa, per me, soprtutto in "cose secondarie" (ma mica tanto) come l'acqua che cade dall'alto sulla roccia, il modo il numero in cui si muovono alcuni "esseri" e gli effetti di luce...diciamo che secondo me è difficilissimo rendere l'idea senza vedere all'opera il gioco nelle 2 modalità, e anche dagli screen postati secondo me non si percepisce appieno la differenza...
cmq se questo è, come lo è, l'inizio delle dx10 direi che ne vedremo davvero delle belle da qui in poi :)
comunque poi ci lamentiamo dei driver nvidia...ati manco lo fa andare sto gioco in dx10 (artefatti ovunque e frame del 70 percento inferiori ai nostri):asd:
Ecco il mio risultato in DX9:
http://img525.imageshack.us/img525/7311/lostplanetcj4.th.jpg (http://img525.imageshack.us/my.php?image=lostplanetcj4.jpg)
Qualcuno sa che con un single Core in DX10 parte?
A sto punto mi scazza reinstallare Vista, dato che la prox settimana mi arrivano mobo e procio nuovi... :D
qualcuno ha provato le diretcx10 beta x XP con il nuovo gioco lostPlanet che sfrutta le nuove diretcx???
http://www.dinoxpc.com/OpenLab/softwareModule.asp?Area=Utilities&Sect=Sistemi%20Operativi&Prod=Falling%20Leaf%20Systems&SID=700
appleroof
16-05-2007, 19:33
comunque poi ci lamentiamo dei driver nvidia...ati manco lo fa andare sto gioco in dx10 (artefatti ovunque e frame del 70 percento inferiori ai nostri):asd:
E non dimentichiamo che in dx10 e vista hanno ancora abbastanza margine di miglioramento ;)
The_max_80
16-05-2007, 19:34
comunque poi ci lamentiamo dei driver nvidia...ati manco lo fa andare sto gioco in dx10 (artefatti ovunque e frame del 70 percento inferiori ai nostri):asd:
mi ma è uscita da 1 settimana sta vga, gli state col fiato sul collo pure voi
qualcuno ha provato le directx10 beta x XP con il nuovo gioco lostPlanet che sfrutta le nuove diretcx???
http://www.dinoxpc.com/OpenLab/softwareModule.asp?Area=Utilities&Sect=Sistemi%20Operativi&Prod=Falling%20Leaf%20Systems&SID=700
Provato, mi dice "Impossibile trovare il punto di ingresso D3DXSHEvalDirectionalLight della procedura nella libreria di collegamento dinamico d3dx10_33.dll" e non parte.
Provato, mi dice "Impossibile trovare il punto di ingresso D3DXSHEvalDirectionalLight della procedura nella libreria di collegamento dinamico d3dx10_33.dll" e non parte.
scusa la domanda ovvia ma l'hai provato con la versione lostplanet dx10 o quella dx 9?
scusa la domanda ovvia ma l'hai provato con la versione lostplanet dx10 o quella dx 9?
Ovviamente la DX10, la DX9 parte anche se crasha dopo pochi minuti di gioco... :rolleyes:
mi ma è uscita da 1 settimana sta vga, gli state col fiato sul collo pure voi
No era solo una considerazione sui driver....fino ad aprile anke noi ci lamentavamo dei driver nvidia (anke ora se per questo) pensa solo a double agent;)
ma solo a me crasha la demo???
i test mi vanno benone... il gioco dopo un po mi crasha:(
Zlatan91
16-05-2007, 20:31
quasi quasi fra un po mi schiaffo una altra 8800gtx.....quand ocstano un po meno......da affiancare a phenom:D
dite che ne vale la pena non so per 400 euro?
appleroof
16-05-2007, 20:45
quasi quasi fra un po mi schiaffo una altra 8800gtx.....quand ocstano un po meno......da affiancare a phenom:D
dite che ne vale la pena non so per 400 euro?
Sto accarezzando anche io la stessa idea...ma per quando ci sarà phenom (e cmq a fine anno, per quanto mi riguarda, credo) mi sa che potrebbe non valerne più la pena dal punto di vista costi/benefici...
appleroof
16-05-2007, 20:47
ma solo a me crasha la demo???
i test mi vanno benone... il gioco dopo un po mi crasha:(
Nessun problema (ma ci ho giocato mezz'oretta) ricordo solo che la prima videata avverte a chiare lettere che il sw è ancora in fase di ottimizzazione...
Nessun problema (ma ci ho giocato mezz'oretta) ricordo solo che la prima videata avverte a chiare lettere che il sw è ancora in fase di ottimizzazione...
mmm sai che potrebbero essere i driver audio? devo provare.. (uso ancora quelli del cd:fagiano: (della xfi)
appleroof
16-05-2007, 20:54
mmm sai che potrebbero essere i driver audio? devo provare.. (uso ancora quelli del cd:fagiano: (della xfi)
Si, non sarebbe così strana come ipotesi, anzi....
Sto accarezzando anche io la stessa idea...ma per quando ci sarà phenom (e cmq a fine anno, per quanto mi riguarda, credo) mi sa che potrebbe non valerne più la pena dal punto di vista costi/benefici...
dell'utilizzare una seconda vga per la fisica non se ne parla + ?
stavo pensando allo sli anch'io ma, probabilmente é solo una mia fantasia, utilizzare la gtx per la fisica e le "future" nuove nvidia per la grafica?
The_max_80
16-05-2007, 21:12
No era solo una considerazione sui driver....fino ad aprile anke noi ci lamentavamo dei driver nvidia (anke ora se per questo) pensa solo a double agent;)
no ok, e solo che in generale in giro vedo molto tifo e poca passione per l informatica, al di la che penso che ati fara grandi cose, cmq ricordiamoci che nvidia ritorno a fare belle schede solo xchè la serie 9xxx era superiore nettamente, quindi speriamo in ati
appleroof
16-05-2007, 21:17
dell'utilizzare una seconda vga per la fisica non se ne parla + ?
stavo pensando allo sli anch'io ma, probabilmente é solo una mia fantasia, utilizzare la gtx per la fisica e le "future" nuove nvidia per la grafica?
Che io sappia è ancora tutto congelato.....
no ok, e solo che in generale in giro vedo molto tifo e poca passione per l informatica, al di la che penso che ati fara grandi cose, cmq ricordiamoci che nvidia ritorno a fare belle schede solo xchè la serie 9xxx era superiore nettamente, quindi speriamo in ati
Hai ragione, la concorrenza a noi consumatori fà solo bene. Ti ricordo solo però, visto che parli di tifo, e diserie 9xxx/fx, che pensa che qualche "aficionado" :asd: Ati ancora cavalca l'onda della serie fx Nvidia...:rolleyes:
Ti ringrazio. :D
Queste sono le impostazioni che ho tenuto nel test, ne ho fatti due ed ho cambiato solo l'HDR da medium ad high lasciando invariate le altre voci
http://img230.imageshack.us/img230/2830/lostplanetsi1.th.jpg (http://img230.imageshack.us/my.php?image=lostplanetsi1.jpg)
Con HDR Medium:
Snow 42
Cave 35
Con HDR High:
Snow 34
Cave 34
Monitorando con Rmclock direi che entrambi i core del processore vengono sfruttati.
Come tipo di gioco non mi fa impazzire, molto console oriented nella gestione dell'omino....in piu' odio gli insetti :D
Me ne ero reso conto già mentre scrivevo...:D
Allora ancora ci ho giocato poco e niente, ti parlo sopratutto del bench: questo è fatto di 2 parti, neve e grotte (non so se lo sapevi già) la differenza si vede ovunque quantificabile in una qualità grafica complessiva maggiore, come diiceva darkniko, io aggiungo poi che sopratutto nelle grotte la differenza è grossa, per me, soprtutto in "cose secondarie" (ma mica tanto) come l'acqua che cade dall'alto sulla roccia, il modo il numero in cui si muovono alcuni "esseri" e gli effetti di luce...diciamo che secondo me è difficilissimo rendere l'idea senza vedere all'opera il gioco nelle 2 modalità, e anche dagli screen postati secondo me non si percepisce appieno la differenza...
cmq se questo è, come lo è, l'inizio delle dx10 direi che ne vedremo davvero delle belle da qui in poi :)
Grazie ;) ora e' piu' chiaro :D Indubbiamente penso che vederlo in movimento sia la cosa migliore.
Zlatan91
16-05-2007, 21:41
perke dici che non ne varra piu la pena.....andra a intaccare quasi le prossime schede next-gen ....che vuoi di più.....
poi con phenom sai che boost
perke dici che non ne varra piu la pena.....andra a intaccare quasi le prossime schede next-gen ....che vuoi di più.....
poi con phenom sai che boost
no scusate la mia ignoranza....phenom?:confused:
ma solo a me crasha la demo???
i test mi vanno benone... il gioco dopo un po mi crasha:(
Siamo in 2, il test ha girato più di un'ora mentre cenavo, ma se gioco crasha dopo pochissimo! :mad:
Formattato ieri e tutti i driver sono aggiornatissimi, compresi i driver per la mia Audigy2... magari si picchia con le creative.
Siamo in 2, il test ha girato più di un'ora mentre cenavo, ma se gioco crasha dopo pochissimo! :mad:
Formattato ieri e tutti i driver sono aggiornatissimi, compresi i driver per la mia Audigy2... magari si picchia con le creative.
meno male... almeno non è un mio problema:Prrr:
(sai com'è.. pc nuovo nuovo:D )
Zlatan91
16-05-2007, 22:07
no scusate la mia ignoranza....phenom?:confused:
http://www.hwupgrade.it/news/cpu/phenom-il-nuovo-nome-delle-cpu-amd-desktop_21156.html
;)
sperando che siano una bomba..visto che dal 22 luglio..si porterà a casa un qE6600 a quasi 200 euro....
http://www.hwupgrade.it/news/cpu/phenom-il-nuovo-nome-delle-cpu-amd-desktop_21156.html
;)
sperando che siano una bomba..visto che dal 22 luglio..si porterà a casa un qE6600 a quasi 200 euro....
:eek: Niente male!!!! chissa se supereranno i core2duo (l'FX ho idea di si). Mi sa che le 2900 le hanno trascurate x qst:asd:
DarkNiko
16-05-2007, 23:22
meno male... almeno non è un mio problema:Prrr:
(sai com'è.. pc nuovo nuovo:D )
A me nessun problema di sorta e uso Windows Vista Ultimate 64 bit col pc che vedete in firma. Ho aggiornato i drivers ai 158.43 e settando tutto al massimo a parte lo "Shadow Quality" che ho messo a livello medio e AA 4x, Aniso 4x, Vsync on, il gioco va a 60 fps.
Ho giocato per 1 oretta ai 2 livelli selezionabili e non ho riscontrato nessun artefatto e nessun tipo di crash.
Il gioco in DX10 è un altro pianeta a livello di qualità d'immagine ed effetti grafici rispetto alle DX9 e si vede ad occhio, non servono screenshots, provate e vedete voi stessi. E se, come dice appleroof, il gioco dalla scritta iniziale Capcom non è del tutto ottimizzato, allora diciamo che i margini di miglioramento potrebbero essere davvero notevoli visto che abbassando di una tacca la qualità delle ombre, il gioco mi va adesso a 60 fps fissi col vsync e ben oltre senza !!!! :sofico:
Ho provato anche io il demo di Lost Planet però su Windows XP quindi
in DirectX 9.
Con AntiAliasing 8x Anisotropico 8X HDR High e tutto il resto su High
a parte la Shadow Quality che oltre Medium non va,vga 621@1800,
risoluzione 1280x960,cpu@3,5 ghz,ForceWare v.158.22:
SNOW 47 FPS
CAVERN 61 FPS
gli effetti di luce(Cavern) sono piacevoli devo dire anche se in DirectX 10,come testato da DarkNiko,sicuramente la qualità dell'immagine sarà superiore.
Comunque promette bene e tutto sommato la 8800gtx si difende molto
bene:)
PS:Per chi ha problemi di crash con il demo su XP appena usciti i driver 160.02 WHQL che fixano
questo problema.Tra l'altro sono driver per le Quadro per cui la qualità dell'immagine
dovrebbe essere buona.
raga,
succede anche a voi che con i driver x vista la nostra bella 8800 GTX quando si gioca e si vuole fare un bel screenschoot con il tasto stamp una volta incollata l'immagine risulta totalmente NERA :(
a me succedeva sia con la 6800gt che con la 5900 su xp;) non credo sia un problema ne di vista ne di driver...prova a cambiare programma di acquisizione;) a me il 90 percento delle volte con corel me la incollava nera
Siamo in 2, il test ha girato più di un'ora mentre cenavo, ma se gioco crasha dopo pochissimo! :mad:
Formattato ieri e tutti i driver sono aggiornatissimi, compresi i driver per la mia Audigy2... magari si picchia con le creative.
Io ho una Audigy 2 ZS ma non mi da problemi :(, se mai prova a disabilitarla, anche giocando per adesso non si è bloccato, cmq lost planet con Quad e 8800GTX va veramente alla grande :D.
Si ma arrivare a mettere vista per vedere decentemente un gioco...
Ce ne fossero basta un paio... :rolleyes:
Se Vista migliorasse la resa dei giochi, ben venga! :p
Ma purtroppo da quello che ho visto, la situazione è opposta. :(
Se Vista migliorasse la resa dei giochi, ben venga! :p
Ma purtroppo da quello che ho visto, la situazione è opposta. :(
Mi dici che la resa grafica è peggiore? Non credo altriemnti non si sarebbero sbattuti a farne 2 versioni. Oppure è una mossa commerciale giusto per dire Dx10 mettete sotto vista... :stordita:
Mi dici che la resa grafica è peggiore? Non credo altriemnti non si sarebbero sbattuti a farne 2 versioni. Oppure è una mossa commerciale giusto per dire Dx10 mettete sotto vista... :stordita:
Parlavo in generale, i giochi che ho provato sia sotto Vista che sotto XP, giravamo molto meglio sul "vecchio" SO.
Lost Planet è un caso a parte, essendo un dei primi DX10. ;)
Ho fatto un po di bench, ed ho notato 8800GTX scarsissima in grafica 3d professionale! :cry: :cry:
Spero che esca presto un mod per trasformarla in quadro, così usarla in Maya e 3ds è un po deprimente... :p
Ecco i risultati ottenuti con un bench appostio, SpecViewPerf 8, sotto lo stesso sistema, con l'attuale 8800gtx e con la mia vecchia 6800gt, che tra l'altro era perfettamente moddabile a quadro.
Anche solo in modalità standard 6800gt andava meglio della 8800, ed in modalità quadro ovviamente la incenerisce. ;)
Mi sa che l'hanno "nerfata" apposta, altrimenti la quadro non la comprava più nessuno! :p
------------------------------------------------------------------------
Run All Summary: 8800gtx
---------- SUM_RESULTS\3DSMAX\SUMMARY.TXT
3dsmax-03 Weighted Geometric Mean = 14.99
---------- SUM_RESULTS\CATIA\SUMMARY.TXT
catia-01 Weighted Geometric Mean = 10.67
---------- SUM_RESULTS\ENSIGHT\SUMMARY.TXT
ensight-01 Weighted Geometric Mean = 17.61
---------- SUM_RESULTS\LIGHT\SUMMARY.TXT
light-07 Weighted Geometric Mean = 10.06
---------- SUM_RESULTS\MAYA\SUMMARY.TXT
maya-01 Weighted Geometric Mean = 17.21
---------- SUM_RESULTS\PROE\SUMMARY.TXT
proe-03 Weighted Geometric Mean = 12.25
---------- SUM_RESULTS\SW\SUMMARY.TXT
sw-01 Weighted Geometric Mean = 9.726
---------- SUM_RESULTS\UGS\SUMMARY.TXT
ugs-04 Weighted Geometric Mean = 16.44
------------------------------------------------------------------------
Run All Summary: 6800gt
---------- SUM_RESULTS\3DSMAX\SUMMARY.TXT
3dsmax-03 Weighted Geometric Mean = 17.25
---------- SUM_RESULTS\CATIA\SUMMARY.TXT
catia-01 Weighted Geometric Mean = 11.31
---------- SUM_RESULTS\ENSIGHT\SUMMARY.TXT
ensight-01 Weighted Geometric Mean = 10.77
---------- SUM_RESULTS\LIGHT\SUMMARY.TXT
light-07 Weighted Geometric Mean = 9.953
---------- SUM_RESULTS\MAYA\SUMMARY.TXT
maya-01 Weighted Geometric Mean = 19.61
---------- SUM_RESULTS\PROE\SUMMARY.TXT
proe-03 Weighted Geometric Mean = 16.39
---------- SUM_RESULTS\SW\SUMMARY.TXT
sw-01 Weighted Geometric Mean = 13.06
---------- SUM_RESULTS\UGS\SUMMARY.TXT
ugs-04 Weighted Geometric Mean = 4.378
------------------------------------------------------------------------
Run All Summary: 6800gt@quadro
---------- SUM_RESULTS\3DSMAX\SUMMARY.TXT
3dsmax-03 Weighted Geometric Mean = 28.06
---------- SUM_RESULTS\CATIA\SUMMARY.TXT
catia-01 Weighted Geometric Mean = 20.17
---------- SUM_RESULTS\ENSIGHT\SUMMARY.TXT
ensight-01 Weighted Geometric Mean = 21.37
---------- SUM_RESULTS\LIGHT\SUMMARY.TXT
light-07 Weighted Geometric Mean = 17.06
---------- SUM_RESULTS\MAYA\SUMMARY.TXT
maya-01 Weighted Geometric Mean = 32.07
---------- SUM_RESULTS\PROE\SUMMARY.TXT
proe-03 Weighted Geometric Mean = 34.06
---------- SUM_RESULTS\SW\SUMMARY.TXT
sw-01 Weighted Geometric Mean = 21.46
---------- SUM_RESULTS\UGS\SUMMARY.TXT
ugs-04 Weighted Geometric Mean = 25.50
appleroof
17-05-2007, 20:29
Ho fatto un po di bench, ed ho notato 8800GTX scarsissima in grafica 3d professionale! :cry: :cry:
Spero che esca presto un mod per trasformarla in quadro, così usarla in Maya e 3ds è un po deprimente... :p
Ecco i risultati ottenuti con un bench appostio, SpecViewPerf 8, sotto lo stesso sistema, con l'attuale 8800gtx e con la mia vecchia 6800gt, che tra l'altro era perfettamente moddabile a quadro.
Anche solo in modalità standard 6800gt andava meglio della 8800, ed in modalità quadro ovviamente la incenerisce. ;)
cut
Possibile che non sia moddabile? cmq se non lo hanno fatto finora....
Possibile che non sia moddabile? cmq se non lo hanno fatto finora....
Ho provato la stessa procedura che usavo con la 6800 ma purtroppo non funziona. :(
Adesso ho capito perchè me le hanno pagate quasi come nuove! :p
appleroof
17-05-2007, 20:38
Ho provato la stessa procedura che usavo con la 6800 ma purtroppo non funziona. :(
Adesso ho capito perchè me le hanno pagate quasi come nuove! :p
cosa? :D
cosa? :D
Le 2 6800gt che avevo, me le ha comprate un'amico grafico, quando ha saputo che erano moddabili a quadro me he ha pagate quasi come nuove... :D
Mi ci ero comprato una 7800gtx avanzando ancora un bel gruzzoletto. :p
Le 2 6800gt che avevo, me le ha comprate un'amico grafico, quando ha saputo che erano moddabili a quadro me he ha pagate quasi come nuove... :D
Mi ci ero comprato una 7800gtx avanzando ancora un bel gruzzoletto. :p
Scuasami ma credo che la GTX sia dedicata ai videogame, analizzare le sue prestazioni in grafica 3D professionale può essere interessante come analizzare le prestazioni in 3D di un processore, per esempio nel test 3DM06 CPU dove anche la CPU più potente fa max 2 fps (e sono molti). A nessuno salta in mente di chiedere una CPU che vada meglio in 3D e di paragonare una CPU ad una GPU, proprio perché ci sono le GPU :D :D. Il confronto è un po' estremizzato, però credo sia opportuno distinguere gli ambiti: le GTX sono schede per videogiocare, certo se fossero moddabili (le utlime ad essere moddabili sono state le 6, le 7 già non lo erano se non ricordo male) avrebbero un valore aggiunto.
Ho fatto questo discorso perché le prestazioni catastrofiche della 8800GTX nel 3D professionale sono state già denunciate su vari forum stranieri, ed ogni volta si scatenavano flame, perché c'era chi sosteneva che fosse scandaloso avere delle schede con una GPU in teoria ideale per il 3D professionale che però veniva bloccata. Sotto questo punto di vista ATI offre molte più possibilità, però mettersi a discutere di questi aspetti può essere interessante ma bisogna considerare che si sta chiedendo ad un prodotto qualcosa che esula da quello per cui è nato. Nessuno ci vieta di usare la 8800GTX per il 3D, però è una scheda orientata ai videogame ;).
Evangelion01
18-05-2007, 02:35
Nessuno ci vieta di usare la 8800GTX per il 3D, però è una scheda orientata ai videogame ;).
Esatto, se uno ha bisogno di fare grafica professionale si piglia una Quadro... :)
Con la configurazione in sign, escluse le memorie che sono delle Kingston 667mhz prestate e cpu a 3.000 faccio 13893 a 3dmark06 res. 1280x1024. Vorrei sapere se il punteggio é ok per la configurazione.
Inoltre 3Dmark06 non sembra riconoscere lo SLI:
Driver Name NVIDIA GeForce 8800 GTX
Driver Version 7.15.11.5842
Driver Status WHQL - Not FM Approved
Co-operative adapters No
Video Memory 512 MB
Core Clock 108 MHz
Memory Clock 337 MHz
In alcuni altri test che ho visto in comparazione da si al Co-operative adapters e Video memory 1024 mb
Grazie a chi vorrà rispondere e un saluto a tutti
no, sembra andare con una sola VGA
Con la configurazione in sign, escluse le memorie che sono delle Kingston 667mhz prestate e cpu a 3.000 faccio 13893 a 3dmark06 res. 1280x1024. Vorrei sapere se il punteggio é ok per la configurazione.
Inoltre 3Dmark06 non sembra riconoscere lo SLI:
Driver Name NVIDIA GeForce 8800 GTX
Driver Version 7.15.11.5842
Driver Status WHQL - Not FM Approved
Co-operative adapters No
Video Memory 512 MB
Core Clock 108 MHz
Memory Clock 337 MHz
In alcuni altri test che ho visto in comparazione da si al Co-operative adapters e Video memory 1024 mb
Grazie a chi vorrà rispondere e un saluto a tutti
infatti... poi il punteggio dello sli è bassissimo
Mi serve un urgente aiuto tecnico:
Ho venduto la mia XFX 8800GTX ad un tipo che mi ha scritto dicendomi che i colori del monitor, se attaccato all'uscita DVI-2, gli tendono al ROSSO.
Da cosa potrebbe dipendere??????????
Grazie!
Mi serve un urgente aiuto tecnico:
Ho venduto la mia XFX 8800GTX ad un tipo che mi ha scritto dicendomi che i colori del monitor, se attaccato all'uscita DVI-2, gli tendono al ROSSO.
Da cosa potrebbe dipendere??????????
Grazie!
L'uscita DVI è digitale, per cui non si dovrebbero avere problemi di questo tipo (come succedeva con i cavi VGA per esempio, se un cavo VGA era difettoso il monitor tendeva ad un determinato colore) nel caso in cui la scheda o il cavo siano difettosi. Io credo che sia un problema di regolazione o di monitor (se le connessioni ed i monitor sono tutti digitali).
L'uscita DVI è digitale, per cui non si dovrebbero avere problemi di questo tipo (come succedeva con i cavi VGA per esempio, se un cavo VGA era difettoso il monitor tendeva ad un determinato colore) nel caso in cui la scheda o il cavo siano difettosi. Io credo che sia un problema di regolazione o di monitor (se le connessioni ed i monitor sono tutti digitali).
Il tipo mi deve fare sapere appunto quello.
Se fossero entrambe digitali e avesse provato lo stesso monitor prima sulla prima uscita e poi sulla seconda, cosa potrebbe essere??
Scuasami ma credo che la GTX sia dedicata ai videogame, analizzare le sue prestazioni in grafica 3D professionale può essere interessante come analizzare le prestazioni in 3D di un processore......
Beh questo è ovvio, ma mi aspettavo che comunque le prestazioni in ambito 3d fossero state migliori rispetto ad una "vecchia" 6800gt (moddabilità a quadro esclusa), al massimo equivalenti, ma non certo peggiori!
Poi non tutti possono permettersi una Quadro, di certo non lo studente di architettura che usa il Cad o quello di progettazione che usa Katja, il designer o il grafico amatoriale che si diverte con 3d Studio, Maya, ecc. :p
Ci si aspetta che una scheda di questo livello, e comunque una fascia di prezzo non certo popolare, possa rendere bene anche in campi diversi da quello ludico.
Tanto la quadro avrebbe comunque molta più memoria, feature e connessioni video avanzate che di certo non ha una Geforce, non hanno certo bisogno di "castrare" le 8800 per venderle ai professionisti.
Infine uno dei motivi per cui ho sempre preferito nVidia ad Ati era proprio la loro superiorità in ambito OpenGL.
Se adesso questa superiorità viene a mancare, sono convinto che nVidia una fetta di sostenitori la perderà.
Ragazzi un consiglio veloce, a quasi parità di prezzo meglio Sparkle o Point of view? (non rispondetemi che è la stessa cosa :D , voglio un parere sulla "fama" della marca soprattutto ;) )
@ Bestio hai pm!
halduemilauno
18-05-2007, 13:11
Ragazzi un consiglio veloce, a quasi parità di prezzo meglio Sparkle o Point of view? (non rispondetemi che è la stessa cosa :D , voglio un parere sulla "fama" della marca soprattutto ;) )
@ Bestio hai pm!
POV.
;)
Come risposto in PM con la Sparkle mi trovo benissimo (Grafica 3d professionale a parte :p ).
A 630/2000MHz non fa una grinza. :D
Ma poi alla fine credo che siano un po tutte uguali, confrontata con la XFX di un'amico è assolutamente identica, camba solo l'adesivo sul dissi! :p
Beh questo è ovvio, ma mi aspettavo che comunque le prestazioni in ambito 3d fossero state migliori rispetto ad una "vecchia" 6800gt (moddabilità a quadro esclusa), al massimo equivalenti, ma non certo peggiori!
Poi non tutti possono permettersi una Quadro, di certo non lo studente di architettura che usa il Cad o quello di progettazione che usa Katja, il designer o il grafico amatoriale che si diverte con 3d Studio, Maya, ecc. :p
Ci si aspetta che una scheda di questo livello, e comunque una fascia di prezzo non certo popolare, possa rendere bene anche in campi diversi da quello ludico..
Io non me lo aspetto, questa scheda è fatta solo per il 3D professionale, aspettarsi dalla 8800GTX delle prestazioni in ambito diverso da quello videogame significa non aver capito a chi è indirizzato il prodotto, secondo me ;).
Che poi non faccia piacere vederla andare meno di un'altra scheda più vecchia è evidente, però è una scheda creata per il gaming, al cui prezzo si trovano delle soluzioni più che valide per la grafica 3D amatoriale.
Inoltre proprio il prezzo di questa scheda non mi pare adatto ad uno studente, d'altronde rappresenta l'attuale fascia alta del mercato, per cui il discorso dello studente o dell'hobbysta mi pare un po' fuori luogo. Se si hanno 550€ (costo medio della GTX) a disposizione e delle eseginze grafiche ci si può rivolgere altrove con risultati più che adeguati.
Facciamo fare a questa scheda quello per cui è progettata e venduta :D, sognamo tutti un solo processore in grado di elabotare video, audio, grafica 3D, videogiochi etc, ma il PC è componibile a piacere proprio perché tutto questo non è possibile o perlomeno non è raccomandabile.
appleroof
18-05-2007, 15:14
Io non me lo aspetto, questa scheda è fatta solo per il 3D professionale, aspettarsi dalla 8800GTX delle prestazioni in ambito diverso da quello videogame significa non aver capito a chi è indirizzato il prodotto, secondo me ;).
Che poi non faccia piacere vederla andare meno di un'altra scheda più vecchia è evidente, però è una scheda creata per il gaming, al cui prezzo si trovano delle soluzioni più che valide per la grafica 3D amatoriale.
Inoltre proprio il prezzo di questa scheda non mi pare adatto ad uno studente, d'altronde rappresenta l'attuale fascia alta del mercato, per cui il discorso dello studente o dell'hobbysta mi pare un po' fuori luogo. Se si hanno 550€ (costo medio della GTX) a disposizione e delle eseginze grafiche ci si può rivolgere altrove con risultati più che adeguati.
Facciamo fare a questa scheda quello per cui è progettata e venduta :D, sognamo tutti un solo processore in grado di elabotare video, audio, grafica 3D, videogiochi etc, ma il PC è componibile a piacere proprio perché tutto questo non è possibile o perlomeno non è raccomandabile.
Esatto, non esiste a mio parere quelo che dice Bestio, mettiamola così: se la 8800gtx fosse moddabile potrebbe far piacere a chi lacompra perchè spende molto meno rispetto ad una Quadro, se non lo fosse, come non lo è, non è mica un punto a sfavore, visto che è una scheda per il gaming, capisco la delusione di chi era abituato a moddare le schede @ quadro, però è semplicemente ovvio quello che dice Vitone...
Cambiando discorso...ho provato dopo un bel pò TDU con gli ultimi 158.44 sotto vista64 e a parità di impostazioni ho notato un boost decisamente alto, a 1920x1200 aa2x af16x e frizzi e lazzi al max sia da driver che gioco mi fà una media di circa 50fps (con picchi minimi intorno ai 35) contro una media di 30/35 (con picchi in basso di 25) rispetto ai 100.65.....mi pare incredibile, anche se ovviamente mi fà molto piacere, qualcuno si trova?
DarkNiko
18-05-2007, 16:42
@appleroof
Se pensi che persino Rainbow Six Vegas, in cui i programmatori hanno usato l'attrezzo in mezzo alle gambe al posto di quello che dovrebbe stare in testa per programmarlo, con gli ultimi drivers su un Core 2 Duo liscio (E6600) e scheda video a default, col vsync attivo ha una media superiore ai 50 fps in 1280*960 con tutto il resto a manetta e in certi punti non si schioda dai 60 fps, direi sì, hanno fatto un bel passo in avanti con questi ultimi drivers.
W la 8800 GTX :D :D
JoeLatino
18-05-2007, 18:29
Beh questo è ovvio, ma mi aspettavo che comunque le prestazioni in ambito 3d fossero state migliori rispetto ad una "vecchia" 6800gt (moddabilità a quadro esclusa), al massimo equivalenti, ma non certo peggiori!
Poi non tutti possono permettersi una Quadro, di certo non lo studente di architettura che usa il Cad o quello di progettazione che usa Katja, il designer o il grafico amatoriale che si diverte con 3d Studio, Maya, ecc. :p
Ci si aspetta che una scheda di questo livello, e comunque una fascia di prezzo non certo popolare, possa rendere bene anche in campi diversi da quello ludico.
Tanto la quadro avrebbe comunque molta più memoria, feature e connessioni video avanzate che di certo non ha una Geforce, non hanno certo bisogno di "castrare" le 8800 per venderle ai professionisti.
Infine uno dei motivi per cui ho sempre preferito nVidia ad Ati era proprio la loro superiorità in ambito OpenGL.
Se adesso questa superiorità viene a mancare, sono convinto che nVidia una fetta di sostenitori la perderà.
ciao!
io ti quoto in pieno....;)
pero' giusto per paragone mi piacerebbe avere dei risultati ottenuti con una ATI xt 2900:D
se li trovate in giro per favore postateli....devo capire se la mia proosima scheda sara' ancora Nvidia o AMD/Ati;)
appleroof
18-05-2007, 18:40
ciao!
io ti quoto in pieno....;)
pero' giusto per paragone mi piacerebbe avere dei risultati ottenuti con una ATI xt 2900:D
se li trovate in giro per favore postateli....devo capire se la mia proosima scheda sara' ancora Nvidia o AMD/Ati;)
Mi pare di aver visto tempo fa dei bench pro in cui la 2900xt andava alla grande, però erano i tempi dei famigerati rumors....
JoeLatino
18-05-2007, 18:42
Mi pare di aver visto tempo fa dei bench pro in cui la 2900xt andava alla grande, però erano i tempi dei famigerati rumors....
si' infatti erano dei test usciti prima ancora delle schede quindi penso che erano dei fakes:(
JoeLatino
18-05-2007, 18:58
http://img249.imageshack.us/my.php?image=spec903wv0.jpg
a sinistra una 2900xt oc ad aria
a dx una gtx 700/2200
questo' e' un risultato che mi hanno passato in rete....;)
appleroof
18-05-2007, 19:28
http://img249.imageshack.us/my.php?image=spec903wv0.jpg
a sinistra una 2900xt oc ad aria
a dx una gtx 700/2200
questo' e' un risultato che mi hanno passato in rete....;)
:boh:
;)
mi é tornata la gtx dall rma mi hanno cambiato scheda...e questa sale e promette bene 630/1500/1026 senza artefatti in 3d06 lop
con gli ultimi driver beta 46° in idle e 55° dopo il loop:)
fr4nc3sco
18-05-2007, 20:41
sono rimasto 1 po indietro alle news precisamente ad anno vecchio lol ho la 8800gtx nella scatola dal 15 dicembre adesso tra poco la rimonto insieme al pc che programmi ci sono per cloccare? ho visto che adesso si parla pure degli shared a 1500 ma c'è un programma per aumentarli o aumentano in relazione al clock?
sono rimasto 1 po indietro alle news precisamente ad anno vecchio lol ho la 8800gtx nella scatola dal 15 dicembre adesso tra poco la rimonto insieme al pc che programmi ci sono per cloccare? ho visto che adesso si parla pure degli shared a 1500 ma c'è un programma per aumentarli o aumentano in relazione al clock?
con rivatuner aumentano con la ram e il clock testi i limiti della tua vga poi con nibitor ti crei un bios ad hoc poi nvflash:)
appleroof
18-05-2007, 21:03
mi é tornata la gtx dall rma mi hanno cambiato scheda...e questa sale e promette bene 630/1500/1026 senza artefatti in 3d06 lop
con gli ultimi driver beta 46° in idle e 55° dopo il loop:)
Ottimo ;)
Ragazzi mi è arrivata la GTX,ho cestinato immediatamente il catafalco e c'ho piazzato immediatamente un WB :D
ora 2 cose che ancora non ho capito (ho finito il lavoro da pochissimo)
1) cosa si usa per overcloccare?? vengo dal CCC di ATI e con quello di nvidia non ci capisco ancora nulla e cmq non vedo nessuna opzione per overcloccare...ma probabilmente sono anche stanchino dato che ho fatto festa da lavoro alle 22 (e poi giua al "secondo" lavoro) aiuto. :D
2) come faccio ad abilitare il "digital brilliance (per gli amici la saturazione del colore)? l'opzione c'è ma non me la fa spostare :( aiuto!! odio i colori default delle SV :cry:
P.S.
Vediamo dove puo' arrivare in OC la mia scheda,poi si passa al flash :D
Franzooo
19-05-2007, 03:02
posseggo questo mostro di scheda video...
ma nn sono sicuro di avere i driver giusti... ho winzoz vista home premium... e in qualche gioco tipo STALKER nn mi fa ANTIALIASING... in GTA ogni tanto si chiude dicendo di nn aver trovato un file nei driver video... ecc... che posso fa? :(
(e credo che mi dia prob anche in MSN lol)
Franzooo
19-05-2007, 03:03
sry doppio post... (tnx router)
posseggo questo mostro di scheda video...
ma nn sono sicuro di avere i driver giusti... ho winzoz vista home premium... e in qualche gioco tipo STALKER nn mi fa ANTIALIASING... in GTA ogni tanto si chiude dicendo di nn aver trovato un file nei driver video... ecc... che posso fa? :(
(e credo che mi dia prob anche in MSN lol)
se hai vista 32bit prendi questi
http://www.nvidia.com/object/winvista_x86_158.18.html
se hai vista 64bit questi
http://www.nvidia.com/object/winvista_x64_158.18.html
sono gli ultimi ufficiali. ;)
ps : hai la firma irregolare.max 3righe a 1024 :O
ciauuz
Ragazzi mi è arrivata la GTX,ho cestinato immediatamente il catafalco e c'ho piazzato immediatamente un WB :D
ora 2 cose che ancora non ho capito (ho finito il lavoro da pochissimo)
1) cosa si usa per overcloccare?? vengo dal CCC di ATI e con quello di nvidia non ci capisco ancora nulla e cmq non vedo nessuna opzione per overcloccare...ma probabilmente sono anche stanchino dato che ho fatto festa da lavoro alle 22 (e poi giua al "secondo" lavoro) aiuto. :D
2) come faccio ad abilitare il "digital brilliance (per gli amici la saturazione del colore)? l'opzione c'è ma non me la fa spostare :( aiuto!! odio i colori default delle SV :cry:
P.S.
Vediamo dove puo' arrivare in OC la mia scheda,poi si passa al flash :D
http://www.madshrimps.be/?action=gethowto&number=1&howtopage=188&howtoID=72
illidan2000
19-05-2007, 08:07
mi é tornata la gtx dall rma mi hanno cambiato scheda...e questa sale e promette bene 630/1500/1026 senza artefatti in 3d06 lop
con gli ultimi driver beta 46° in idle e 55° dopo il loop:)
temperature polari
ma ventola a 100%? artic silver?
la terrai cloccata?
Esatto, non esiste a mio parere quelo che dice Bestio, mettiamola così: se la 8800gtx fosse moddabile potrebbe far piacere a chi lacompra perchè spende molto meno rispetto ad una Quadro, se non lo fosse, come non lo è, non è mica un punto a sfavore, visto che è una scheda per il gaming, capisco la delusione di chi era abituato a moddare le schede @ quadro, però è semplicemente ovvio quello che dice Vitone...
Ma non pretendo che sia moddabile, ma pretendo che almeno una 8800gtx vada meglio di una normale 6800gt non moddata.
Se andasse bene nei giochi solo ed esclusivamente 3d, ma poi in 2d, facesse schifo (un po come la prima GeForce :p) sareste forse contenti? ;)
The_max_80
19-05-2007, 10:59
Ragazzi mi è arrivata la GTX,ho cestinato immediatamente il catafalco e c'ho piazzato immediatamente un WB :D
ora 2 cose che ancora non ho capito (ho finito il lavoro da pochissimo)
1) cosa si usa per overcloccare?? vengo dal CCC di ATI e con quello di nvidia non ci capisco ancora nulla e cmq non vedo nessuna opzione per overcloccare...ma probabilmente sono anche stanchino dato che ho fatto festa da lavoro alle 22 (e poi giua al "secondo" lavoro) aiuto. :D
2) come faccio ad abilitare il "digital brilliance (per gli amici la saturazione del colore)? l'opzione c'è ma non me la fa spostare :( aiuto!! odio i colori default delle SV :cry:
P.S.
Vediamo dove puo' arrivare in OC la mia scheda,poi si passa al flash :D
il colore a default? ovvero cosa cambi?
il colore a default? ovvero cosa cambi?
La saturazione del colore (meno o piu colore),sulle nvidia è il "digital brilliance,sulle ATI è semplicemente saturazione e si accompagna alle classiche gamma,contrasto e luminosita'.
Il problema è che non mi fa agire sul digital brilliance...perchè?!? :eek:
http://www.madshrimps.be/?action=gethowto&number=1&howtopage=188&howtoID=72
Grazie 1000 :)
Ho fatto un po' di test e la scheda sembra salire senza problemi,per ora sono a 621/1044 (gli shader non so come alzarli ancora) RS,la temp della cpu sotto sforzo non supera i 43gradi con un Lunasio dell'anteguerra :D
Ma purtroppo non sono molto soddisfatto dei risultati ottenuti al 3dm06,ho totalizzato 9058 punti! mi sembrano un po' pochini onestamente...io credo e spero di essere cpu limited,ma non posso non menzionare il fatto che ho la scheda collegata alla PCIe 8X,nella 16X era impossibile da mettere dato che ho il dissi sul SB...spero sia per la cpu,anche se mi sembrerebbe un punteggio basso lo stesso...dimmi la tua.IMG]
http://img520.imageshack.us/img520/4609/immaginevl9.th.jpg (http://img520.imageshack.us/my.php?image=immaginevl9.jpg)
temperature polari
ma ventola a 100%? artic silver?
la terrai cloccata?
sono a liquido, posterò prossimamente le foto del marchingeno che ho costruito..al momento sembra tenere quindi penso che la terrò un po a queste frequenze e poi..salirò ancora:)
quello di progettazione che usa Katja
Si chiama Catia :D
Grazie 1000 :)
Ho fatto un po' di test e la scheda sembra salire senza problemi,per ora sono a 621/1044 (gli shader non so come alzarli ancora) RS,la temp della cpu sotto sforzo non supera i 43gradi con un Lunasio dell'anteguerra :D
Ma purtroppo non sono molto soddisfatto dei risultati ottenuti al 3dm06,ho totalizzato 9058 punti! mi sembrano un po' pochini onestamente...io credo e spero di essere cpu limited,ma non posso non menzionare il fatto che ho la scheda collegata alla PCIe 8X,nella 16X era impossibile da mettere dato che ho il dissi sul SB...spero sia per la cpu,anche se mi sembrerebbe un punteggio basso lo stesso...dimmi la tua.IMG]
http://img520.imageshack.us/img520/4609/immaginevl9.th.jpg (http://img520.imageshack.us/my.php?image=immaginevl9.jpg)
con un e6600@3400 e 634/1512/1026 faccio 11566 in 3d06 quindi immagino che tu possa essere cpu limited starei comunque attento alle temp della ram visto che non sono coperte dal WB..penso che anche il pcie a 8x ti limita parecchio, cambia dissi del sb oppure prendi una sli 2x 16 cosi non mi sembra una situazione ottimale,,gli shader in riva tuner salgono proporzionalmente alle ram e al clock se vuoi settarli manualmente devi flashare
Franzooo
19-05-2007, 12:03
se hai vista 32bit prendi questi
http://www.nvidia.com/object/winvista_x86_158.18.html
se hai vista 64bit questi
http://www.nvidia.com/object/winvista_x64_158.18.html
sono gli ultimi ufficiali. ;)
ps : hai la firma irregolare.max 3righe a 1024 :O
ciauuz
ok speriamo in dio... ora scarico, tnx
Firma sistemata :O
con un e6600@3400 e 634/1512/1026 faccio 11566 in 3d06 quindi immagino che tu possa essere cpu limited starei comunque attento alle temp della ram visto che non sono coperte dal WB..penso che anche il pcie a 8x ti limita parecchio, cambia dissi del sb oppure prendi una sli 2x 16 cosi non mi sembra una situazione ottimale,,gli shader in riva tuner salgono proporzionalmente alle ram e al clock se vuoi settarli manualmente devi flashare
Lo spero tanto di essere cpu limited...sarebbe davvero un casino se fosse per via della porta 16x :muro: cmq ho fatto un altro test,stavolta a 650/1026 il risultato è li piu o meno
http://img514.imageshack.us/img514/3021/immaginegl8.th.jpg (http://img514.imageshack.us/my.php?image=immaginegl8.jpg)
quello che mi consola è che la scheda regge frwquenze alte senza colpo ferire e devo ancora tirarla per bene :D
certo se poi le prestazioni sono quelle serve a poco...
P.S.
cosa è lo "sli 2x 16" ??
Grave Digger
19-05-2007, 13:00
ok speriamo in dio... ora scarico, tnx
Firma sistemata :O
toglimi una curiosità,ma sei megalomane :stordita: ????
avatar,firma,etc etc....
Grazie 1000 :)
Ho fatto un po' di test e la scheda sembra salire senza problemi,per ora sono a 621/1044 (gli shader non so come alzarli ancora) RS,la temp della cpu sotto sforzo non supera i 43gradi con un Lunasio dell'anteguerra :D
Ma purtroppo non sono molto soddisfatto dei risultati ottenuti al 3dm06,ho totalizzato 9058 punti! mi sembrano un po' pochini onestamente...io credo e spero di essere cpu limited,ma non posso non menzionare il fatto che ho la scheda collegata alla PCIe 8X,nella 16X era impossibile da mettere dato che ho il dissi sul SB...spero sia per la cpu,anche se mi sembrerebbe un punteggio basso lo stesso...dimmi la tua.IMG]
si sei cpu limited.. facevo sui 9000 anchio con 3800x2 @2.6.. con core2 supero i 10000
http://img520.imageshack.us/img520/4609/immaginevl9.th.jpg (http://img520.imageshack.us/my.php?image=immaginevl9.jpg)
toglimi una curiosità,ma sei megalomane :stordita: ????
avatar,firma,etc etc....
omg... :eek:
Ragazzi chi ha un AMD dual core come cpu ed ha la GTX mi faccia sapere se i risultati sono giusti o no....adesso ho la gpu a 660 ma il punteggio è poco piu di 9180...:cry:
EDIT
Pippo ho letto solo ora il tuo commento,si mischiava col mio ^_^
cmq grazie,meglio cosi' che cambiare porta.A frequenza avevi la gpu?
Franzooo
19-05-2007, 13:34
toglimi una curiosità,ma sei megalomane :stordita: ????
avatar,firma,etc etc....
LOL... che hanno che nn vanno :D no no solo mi piace pasticciare con i prog di grafica.... ehehehehe
cmq ora sembra andare... persiste solo il problema di MSN che a quanto pare a quiesto punto nn penso dipenda dalla vga... che pizza... spero nn sia vista... bah continuerò a cercare e ad attendere una riposta nella sezione giusta... che nn la caca nessuno :D
Ma purtroppo non sono molto soddisfatto dei risultati ottenuti al 3dm06,ho totalizzato 9058 punti! mi sembrano un po' pochini onestamente...io credo e spero di essere cpu limited,ma non posso non menzionare il fatto che ho la scheda collegata alla PCIe 8X,nella 16X era impossibile da mettere dato che ho il dissi sul SB...spero sia per la cpu,anche se mi sembrerebbe un punteggio basso lo stesso...dimmi la tua.IMG]
Sei sicuramente CPU-Limited, anche io con l'FX55 in 3D-Mark 05 faccio poco più di 11000.
Lo dimostra il fatto che sia occandola, sia alzando la risoluzione il risultato non cambia...
Prova a lanciare un 3dmark a 2048x1536 e vedrai. :)
Ragazzi chi ha un AMD dual core come cpu ed ha la GTX mi faccia sapere se i risultati sono giusti o no....adesso ho la gpu a 660 ma il punteggio è poco piu di 9180...:cry:
EDIT
Pippo ho letto solo ora il tuo commento,si mischiava col mio ^_^
cmq grazie,meglio cosi' che cambiare porta.A frequenza avevi la gpu?
a 2.6 con ram a 260... non tifare troppe paranoie... 1000 punti di 3dmark non si sentono nei giochi
a 2.6 con ram a 260... non tifare troppe paranoie... 1000 punti di 3dmark non si sentono nei giochi
no no tranquillo non mi strappero' certo i capelli :D
era solo per sapere se ero appunto cpu limited o per via della PCIe 8x
Sei sicuramente CPU-Limited, anche io con l'FX55 in 3D-Mark 05 faccio poco più di 11000.
Lo dimostra il fatto che sia occandola, sia alzando la risoluzione il risultato non cambia...
Prova a lanciare un 3dmark a 2048x1536 e vedrai. :)
OK ormai è appurato al 10000% :D
a sto punto mi dedico all OC della scheda per sfizio :p
Ho dato un'occhiata su tom's Hard. alle prove delle HD2900 in crossf. vs 8800 gtx/gts 640 -320 in Sli ,ma come' possibile che alcune volte le GTS 320 vadano di + delle GTS con 640? :confused:
Lo spero tanto di essere cpu limited...sarebbe davvero un casino se fosse per via della porta 16x :muro: cmq ho fatto un altro test,stavolta a 650/1026 il risultato è li piu o meno
http://img514.imageshack.us/img514/3021/immaginegl8.th.jpg (http://img514.imageshack.us/my.php?image=immaginegl8.jpg)
quello che mi consola è che la scheda regge frwquenze alte senza colpo ferire e devo ancora tirarla per bene :D
certo se poi le prestazioni sono quelle serve a poco...
P.S.
cosa è lo "sli 2x 16" ??
oltre ad essere cpu limited mi sembra, se ho ben capito, hai messo la gtx in uno slot a 8x invece che a 16x e questo non aiuta le prestazioni. al tuo posto troverei una soluzione a questo o togli il wb da sb, metti una ventolina provvisoria e prova lo slot a 16x e se vedi un miglioramento trova una soluzione definitiva
The_max_80
19-05-2007, 14:38
ragazzi come si chiamava il demo d10 appena uscito?
in piu il bench coj d10 è scaricabile?
Lo spero tanto di essere cpu limited...sarebbe davvero un casino se fosse per via della porta 16x :muro: cmq ho fatto un altro test,stavolta a 650/1026 il risultato è li piu o meno
http://img514.imageshack.us/img514/3021/immaginegl8.th.jpg (http://img514.imageshack.us/my.php?image=immaginegl8.jpg)
quello che mi consola è che la scheda regge frwquenze alte senza colpo ferire e devo ancora tirarla per bene :D
certo se poi le prestazioni sono quelle serve a poco...
P.S.
cosa è lo "sli 2x 16" ??
Tony prima di tutto complimenti per la scheda video:eek: ..sale da paura(a
proposito sulle ram cosa hai messo?la temperatura della gpu é rilevata
dal Riva con la dll della 8800gtx o con quella di default?grazie)..
per il punteggio tranquillo che con l'opteron a 2800 mhz sei allineato...
sei cpu limited...tra l'altro é montata su uno slot pci-x 8x..per cui é normale..ciaoo:)
OK ormai è appurato al 10000% :D
a sto punto mi dedico all OC della scheda per sfizio :p
Guarda un po quanto faccio io con e consolati... :p
http://img243.imageshack.us/img243/5769/3d06fx558800gtxfz3.th.jpg (http://img243.imageshack.us/my.php?image=3d06fx558800gtxfz3.jpg)
Se porto la 8800 a 640/2000 perdo addirittura 17 punti!
Spero che si sbrighino a spedirmi la MoBo nuova... :D
Comunque nonostante il basso punteggio ai 3dmark ora riesco a giocare qualsiasi gioco a 1920x1080, e non è cosa da poco. :cool:
Infatti anche a 2048x1536, il risultato in 3dmark 06 cambia ben poco... :)
http://img80.imageshack.us/img80/6169/3d06fx558800gtx2048tt1.th.jpg (http://img80.imageshack.us/my.php?image=3d06fx558800gtx2048tt1.jpg)
http://img514.imageshack.us/my.php?image=3dwfn6.jpg
3d06/11907
Tony prima di tutto complimenti per la scheda video:eek: ..sale da paura(a
proposito sulle ram cosa hai messo?la temperatura della gpu é rilevata
dal Riva con la dll della 8800gtx o con quella di default?grazie)..
per il punteggio tranquillo che con l'opteron a 2800 mhz sei allineato...
sei cpu limited...tra l'altro é montata su uno slot pci-x 8x..per cui é normale..ciaoo:)
Allora iniziamo
Sulle ram non ho messo niente,aspetto che rientri il Lunasio Logix per quello :)
non ho fatto nessuna rilevazione con riva,tra l'altro non saprei nemmeno come fare (non sono pratico di quel programma) ho semplicemente alzato le frequenze e testato :D
Non sono piu a 2,8Ghz da un pezzo!! le ballistix che monto io (il terzo kit per la cronaca) SI AUTODISTRUGGONO A TEMPO adesso sono a 2,53Ghz..in queste condizioni ho fatto i test.
Oggi ho rimesso la scheda nello slot 16x ne ho guadagnato solo 150 punti (intorno ai 9300 punti in totale),ormai credo sia appurato che la "colpevole" è la cpu
Guarda un po quanto faccio io con e consolati... :p
http://img243.imageshack.us/img243/5769/3d06fx558800gtxfz3.th.jpg (http://img243.imageshack.us/my.php?image=3d06fx558800gtxfz3.jpg)
Se porto la 8800 a 640/2000 perdo addirittura 17 punti!
Spero che si sbrighino a spedirmi la MoBo nuova... :D
Comunque nonostante il basso punteggio ai 3dmark ora riesco a giocare qualsiasi gioco a 1920x1080, e non è cosa da poco. :cool:
Infatti anche a 2048x1536, il risultato in 3dmark 06 cambia ben poco... :)
http://img80.imageshack.us/img80/6169/3d06fx558800gtx2048tt1.th.jpg (http://img80.imageshack.us/my.php?image=3d06fx558800gtx2048tt1.jpg)
:eek:
quella faccina non è per il punteggio,che tra parentesi non si puo' guardare,ma per il wallpaper di Jessica :sbav:
dove l'hai trovato?!?:bimbo:
:eek:
quella faccina non è per il punteggio,che tra parentesi non si puo' guardare,ma per il wallpaper di Jessica :sbav:
dove l'hai trovato?!?:bimbo:
Boh e chi si ricorda, faccio prima a postartela. :)
Il mio FX55 ha viaggiato a 3000MHz per un bel po, ma poi dato che tanto giocavo sempre e solo WoW l'ho riportato a default.
Ora invece non c'è verso di farlo stare a 3000! :doh:
Già a 2800 non è stabilissimo, nemmeno completa il 3dmark. :cry:
Tra l'altro a quello a cui l'ho venduto ho decantato il fatto che andasse a 3000, e mo che gli racconto? :p
http://img481.imageshack.us/img481/8051/jahiresdm2.th.jpg (http://img481.imageshack.us/my.php?image=jahiresdm2.jpg)
The_max_80
19-05-2007, 20:41
ragazzi quale driver devo mettere per vista 32 bit?
illidan2000
19-05-2007, 20:54
158.22, gli ultimi ufficiali che trovi sul sito nvidia
The_max_80
19-05-2007, 22:49
158.22, gli ultimi ufficiali che trovi sul sito nvidia
appunto, ma a me su nvidia.it per vista 32bit vedo solo i 158.18
halduemilauno
20-05-2007, 08:35
ragazzi quale driver devo mettere per vista 32 bit?
questi.
http://www.nvidia.com/object/winvista_x86_158.43.html
;)
Ragazzi per piacere qulacuno puo' dirmi come fare ad abilitare la voce "Brillantezza digitale"?!? non posso vivere con i colori smorti delle vga a default :cry:
qui c'è la voce che intendo io
http://img517.imageshack.us/img517/793/immaginebw8.th.jpg (http://img517.imageshack.us/my.php?image=immaginebw8.jpg)
aiuto :cry:
The_max_80
20-05-2007, 11:37
raga sotto vista 32 bit, per esempio giocando a pes6 , pur mettendo il vsync il gioco va come se non fosse attivato, ma che sotto vista niente vsync?
ma guarda.. a me la fa mettere..
raga sotto vista 32 bit, per esempio giocando a pes6 , pur mettendo il vsync il gioco va come se non fosse attivato, ma che sotto vista niente vsync?
No non funziona in alcun modo.
The_max_80
20-05-2007, 12:04
No non funziona in alcun modo.
cioè niente vsync sotto vista :eek: :mad:
fr4nc3sco
20-05-2007, 12:05
raga sapete se la gtx riesce a fare l'upscaling dei dvd a 1080p? entrando in un tv hdmi?
The_max_80
20-05-2007, 12:39
ho provato sto lost planet, fa vedere le potenzialità d10 ma a mio avviso non è il massimo
ma sapete come impostare risoluzioni maggiori in 16/9?? a me non le vede
DarkNiko
20-05-2007, 12:46
cioè niente vsync sotto vista :eek: :mad:
In realtà dipende anche dal gioco. Ad esempio se setti il VSync in Vegas, esso viene abilitato, così come nella demo di Lost Planet. Il problema nasce quando il gioco non ha tale opzione dal menu e quindi anche forzandolo esternamente con rivatuner non viene riconosciuto.
Però come ripeto, se il gioco offre la possibilità di selezionare il Vsync, esso verrà utilizzato se attivato.
raga sapete se la gtx riesce a fare l'upscaling dei dvd a 1080p? entrando in un tv hdmi?
Non solo con i DVD, ma anche con i giochi e il desktop windows. :)
Se tu imposti l'uscita in cui hai collegato la TV in 1080p, qualsiasi risoluzione imposti su quel monitor, viene riscalata in 1080p
Oggi ho installato i driver 158.22 sostituendo i 97.92.
lanciato 3DM06 e rispetto a prima a parità di configurazione ho guadagnato 504 punti.
97.92
3DMark Score 10600 3DMarks
SM2.0 Score 4777
HDR/SM3.0 Score 4860
CPU Score 2523
Game Score N/A
GT1 - Return To Proxycon 39,784 FPS
GT2 - Firefly Forest 39,827 FPS
CPU1 - Red Valley 0,803 FPS
158.22
3DMark Score 11104 3DMarks
SM2.0 Score 5 K
HDR/SM3.0 Score 4985
CPU Score 2652
Game Score N/A
GT1 - Return To Proxycon 42,149 FPS
GT2 - Firefly Forest 42,818 FPS
CPU1 - Red Valley 0,837 FPS
CPU2 - Red Valley 1,345 FPS
HDR1 - Canyon Flight 45,896 FPS
HDR2 - Deep Freeze 53,810 FPS
Notevole!! :D
Nvidia sta lavorando bene con i driver ultimamente in un pò tutti i fronti.
Appena mi arriva la scheda posto qualche screen. ;)
appleroof
20-05-2007, 20:19
Nvidia sta lavorando bene con i driver ultimamente in un pò tutti i fronti.
Appena mi arriva la scheda posto qualche screen. ;)
Ci vuole tempo e....pazienza :rolleyes:
Io non ho mai avuto grossi problemi di dirver, per fortuna e per i giochi che ho usato finora, però il miglioramento non mi può che fare piacere, ovviamente...cmq credo che per avere driver buoni al 100% (parlo sopratutto di vista, in particolar modo io ho la 64bit) si dovrà aspettare ancora un bel pò...
Scrambler77
20-05-2007, 23:47
Ci vuole tempo e....pazienza :rolleyes:
Io non ho mai avuto grossi problemi di dirver, per fortuna e per i giochi che ho usato finora, però il miglioramento non mi può che fare piacere, ovviamente...cmq credo che per avere driver buoni al 100% (parlo sopratutto di vista, in particolar modo io ho la 64bit) si dovrà aspettare ancora un bel pò...
Beh... se ATi può dimostrare che i drivers possono "fare miracoli" non vedo il perchè non debba poterlo fare nVidia... anzi! ;)
Alexkidd85
21-05-2007, 02:20
Edito,sbagliato sessione,poi se qualcuno mi vuole illuminare su un problema gravissimo relativo alla 8800gtx...sarà ben accetto :'(
Edito,sbagliato sessione,poi se qualcuno mi vuole illuminare su un problema gravissimo relativo alla 8800gtx...sarà ben accetto :'(
Quale problema?
Ciao;)
Alexkidd85
21-05-2007, 10:47
Questo (http://www.hwupgrade.it/forum/showthread.php?t=1476671) :(
sapete dirmi se la modifica al registro per ottenere il pannello di controllo classico funziona anche per gli ultimi drivers x vista?
Scrambler77
21-05-2007, 11:35
sapete dirmi se la modifica al registro per ottenere il pannello di controllo classico funziona anche per gli ultimi drivers x vista?
Interessa anche a me...
p.s: dove trovo questa modifica?
Questo (http://www.hwupgrade.it/forum/showthread.php?t=1476671) :(
Disinstalla i 3d mark e i driver video con driver cleaner e reinstalla.
Se ancora non hai risolto non ti resta che con il format.
Alexkidd85
21-05-2007, 12:08
Su vista fa lo stesso quindi non è problema di driver :(
Interessa anche a me...
p.s: dove trovo questa modifica?
ecchilo, il pannello classico funziona, ma la voce oc non è abilitata
fr4nc3sco
21-05-2007, 13:55
raga qualcuno ha collegato questa vga in hdmi ad un monitor fullhd facendogli fare upscaling dei dvd?
appleroof
21-05-2007, 17:16
Beh... se ATi può dimostrare che i drivers possono "fare miracoli" non vedo il perchè non debba poterlo fare nVidia... anzi! ;)
Si, da tenere presente la struttura diversa delle 2 architetture che partendo dagli shader unificati poi sono molto diverse...i più esperti sostengono che è molto più difficile ottimizzare i driver di R600 a causa sopratutto della particolare architettura degli shader, però questo non toglie appunto che anche i driver per G80 possano solo migliorare...:)
Scrambler77
21-05-2007, 17:23
Si, da tenere presente la struttura diversa delle 2 architetture che partendo dagli shader unificati poi sono molto diverse...i più esperti sostengono che è molto più difficile ottimizzare i driver di R600 a causa sopratutto della particolare architettura degli shader, però questo non toglie appunto che anche i driver per G80 possano solo migliorare...:)
Se devo essere sincero, non capisco il motivo di tutta questa sofisticazione nell'architettura di R600... considerato che, allo stato attuale, se vogliamo parlare di rendimento, rende più il "vecchio" G80 che il "nuovo" R600.
Sinceramente preferisco la semplicità (che parolone) architetturale di G80 perchè forse assicura una maggiore scalabilità. Prova ad immaginare un G80 a 45nm con il doppio degli stream processors e magari frequenze più elevate... Si tratta semplicemente di "aggiungere".
Sarò ottuso, ma non riesco a vedere l'equivalente per R600...
appleroof
21-05-2007, 17:31
Se devo essere sincero, non capisco il motivo di tutta questa sofisticazione nell'architettura di R600... considerato che, allo stato attuale, se vogliamo parlare di rendimento, rende più il "vecchio" G80 che il "nuovo" R600.
Sinceramente preferisco la semplicità (che parolone) architetturale di G80 perchè forse assicura una maggiore scalabilità. Prova ad immaginare un G80 a 45nm con il doppio degli stream processors e magari frequenze più elevate... Si tratta semplicemente di "aggiungere".
Sarò ottuso, ma non riesco a vedere l'equivalente per R600...
non saprei, i sostenitori Ati sostengono :p che l'architettura di R600 renderà più in dx10 rispetto a quella di G80 che è più "di passaggio" tra dx9 e dx10....il problema è stabilire appunto quanto questa scelta (ammesso che sia tutta giusta l'analisi che giunge a questa conclusione e che, se è così, dalla carta si passi alla realtà, vedi ad esempio sopratutto programmazione dei giochi dx10 che non credo possano mai prescindere da Nvidia per "facilitare" solo Ati così come avviene il contrario, quindi tutta teoria finora) paghi nell'immediato rispetto a quella Nvidia, dal momento in cui praticamente tutti i giochi di qui a metà 2008 sono dx9/dx10 e fino ad allora acqua sotto i ponti delle vga come sappiamo ne deve correre....
quanto al discorso "potenziamento" non è detto, loro potrebbero benissimo raddoppiare anche gli shader, visto che di fatto sono "fisicamente" 64, almeno mi è parso di capire
sono sempre più convinto cmq che nemmeno Ati si aspettava un G80 così...
Scrambler77
21-05-2007, 17:42
non saprei, i sostenitori Ati sostengono :p che l'architettura di R600 renderà più in dx10 rispetto a quella di G80 che è più "di passaggio" tra dx9 e dx10....il problema è stabilire appunto quanto questa scelta (ammesso che sia tutta giusta l'analisi che giunge a questa conclusione e che, se è così, dalla carta si passi alla realtà, vedi ad esempio sopratutto programmazione dei giochi dx10 che non credo possano mai prescindere da Nvidia per "facilitare" solo Ati così come avviene il contrario, quindi tutta teoria finora) paghi nell'immediato rispetto a quella Nvidia, dal momento in cui praticamente tutti i giochi di qui a metà 2008 sono dx9/dx10 e fino ad allora acqua sotto i ponti delle vga come sappiamo ne deve correre....
quanto al discorso "potenziamento" non è detto, loro potrebbero benissimo raddoppiare anche gli shader, visto che di fatto sono "fisicamente" 64, almeno mi è parso di capire
sono sempre più convinto cmq che nemmeno Ati si aspettava un G80 così...
Beh, secondo me l'ipotesi che ATi non si aspettasse un G80 così potente è suffragata dal fatto che ha ritardato di molto il debutto di R600. Non credo alle voci di corridoio per cui il problema è da ricondurre ai drivers, perchè di tempo ne hanno avuto e tra l'altro anche oggi stesso, nonostante il lancio, non c'è un driver ufficiale per R600 (e meno male! almeno i fans ATi possono sperare in qualche sostanziale miglioramento)...
Il discorso che facevo rispetto al potenziamento è anche in rapporto dei transistors utilizzati. Mi pare di capire che R600 ne abbia parecchi di più, e che le sue unità streaming siano parecchio più complesse di quelle di G80. Raddoppiarle su R600 sarebbe più oneroso (anche economicamente) rispetto al raddoppio degli SP su G80... Insomma nVidia ha realizzato unità di calcolo più piccole e semplificate. Con R600 abbiamo invece SP più complessi ma che occupano più spazio fisico, limitando di fatto la possibilità di raddoppiarli sul die...
...non so se sono riuscito a spiegarmi... :fagiano:
appleroof
21-05-2007, 17:55
Il discorso che facevo rispetto al potenziamento è anche in rapporto dei transistors utilizzati. Mi pare di capire che R600 ne abbia parecchi di più, e che le sue unità streaming siano parecchio più complesse di quelle di G80. Raddoppiarle su R600 sarebbe più oneroso (anche economicamente) rispetto al raddoppio degli SP su G80... Insomma nVidia ha realizzato unità di calcolo più piccole e semplificate. Con R600 abbiamo invece SP più complessi ma che occupano più spazio fisico, limitando di fatto la possibilità di raddoppiarli sul die...
...non so se sono riuscito a spiegarmi... :fagiano:
Credo di aver capito cosa intendi, però proprio 700mln di transistor su un chip a 90nm (G80) dimostrano che i miracoli di ingegneria a cui pochissimi, anche esperti, credevano solo pochi mesi prima della GTX (guarda i primi commenti al tread in basso, valgono più di 1000 parole :asd: :asd: :asd: )
http://www.hwupgrade.it/forum/showthread.php?t=1286664&highlight=force
quindi non darei cose per scontato, ma questo se vale per Ati vale a maggior ragione per Nvidia, visto il capolavoro (obiettivamente, proprio considerando le sue caratteristiche complessive, inclusi consumi e temperature proprio in relazione ai 90nm) di ingegneria di G80...stiamo a vedere l'evoluzione delle cose...:)
Scrambler77
21-05-2007, 18:04
http://www.hwupgrade.it/forum/showthread.php?t=1286664&highlight=force
Ma lo sai che non l'avevo letto quel 3d?? :asd: :asd: :asd:
E' incredibile come molti si siano sblilanciati tanto con i loro commenti da "ca**ta", "fake", "stron**ta" ecc ecc e poi si siano visti cadere G80 tra capo e collo con quelle prestazioni... Guarda caso molti sono proprio fan ATi... :rotfl:
mi hai trovato una cosa nuova da leggere stanotte! Grazie! ;)
non saprei, i sostenitori Ati sostengono :p che l'architettura di R600 renderà più in dx10 rispetto a quella di G80 che è più "di passaggio" tra dx9 e dx10....il problema è stabilire appunto quanto questa scelta (ammesso che sia tutta giusta l'analisi che giunge a questa conclusione e che, se è così, dalla carta si passi alla realtà, vedi ad esempio sopratutto programmazione dei giochi dx10 che non credo possano mai prescindere da Nvidia per "facilitare" solo Ati così come avviene il contrario, quindi tutta teoria finora) paghi nell'immediato rispetto a quella Nvidia, dal momento in cui praticamente tutti i giochi di qui a metà 2008 sono dx9/dx10 e fino ad allora acqua sotto i ponti delle vga come sappiamo ne deve correre....
quanto al discorso "potenziamento" non è detto, loro potrebbero benissimo raddoppiare anche gli shader, visto che di fatto sono "fisicamente" 64, almeno mi è parso di capire
sono sempre più convinto cmq che nemmeno Ati si aspettava un G80 così...
non credo che amd abbia progettato qualcosa che funzionerà a dovere con i giochi del 2009:D semplicemente cerca di giustificare quello che ora come ora appare un flop dal punto di vista di parecchie persone, il prezzo in fondo ne é la conferma. Se poi ci mettiamo anche otellini che rincara la dose affermando +o- che anche con k10 la supremazia resterà ad intel....amd non se la passa proprio bene..per i fan ati in fondo si é passati dall'isteria dei bench dell r600 all'isteria dei driver a mio modesto parere questa é una cannata di architettura e spero che ati si risollevi con il 650:)
Scrambler77
21-05-2007, 18:11
Se poi ci mettiamo anche otellini che rincara la dose affermando +o- che anche con k10 la supremazia resterà ad intel....amd non se la passa proprio bene..
No aspetta... mi è mancata la vista... :eek:
Dove l'hai letta questa?
appleroof
21-05-2007, 18:15
Ma lo sai che non l'avevo letto quel 3d?? :asd: :asd: :asd:
E' incredibile come molti si siano sblilanciati tanto con i loro commenti da "ca**ta", "fake", "stron**ta" ecc ecc e poi si siano visti cadere G80 tra capo e collo con quelle prestazioni... Guarda caso molti sono proprio fan ATi... :rotfl:
mi hai trovato una cosa nuova da leggere stanotte! Grazie! ;)
:asd: mi è capitato di rileggerlo pochi giorni fa perchè cercavo altro e quando ho visto quei post....:asd: :asd:
non credo che amd abbia progettato qualcosa che funzionerà a dovere con i giochi del 2009:D semplicemente cerca di giustificare quello che ora come ora appare un flop dal punto di vista di parecchie persone, il prezzo in fondo ne é la conferma. Se poi ci mettiamo anche otellini che rincara la dose affermando +o- che anche con k10 la supremazia resterà ad intel....amd non se la passa proprio bene..per i fan ati in fondo si é passati dall'isteria dei bench dell r600 all'isteria dei driver a mio modesto parere questa é una cannata di architettura e spero che ati si risollevi con il 650:)
Anche secondo me la questione driver è "sopravvalutata" però è vero che driver giusti fanno molto, vale anche per la nostra scheda e vista ha complicato non poco le cose....
cmq anche io credo che questa scheda sia una sorta di ripiego, non sono riusciti a lanciare R600 che avevano in mente e che probabilmente vedrà la luce tra pochi mesi, anche perchè ripeto secondo me non si aspettavano un G80 così ;)
appleroof
21-05-2007, 18:15
No aspetta... mi è mancata la vista... :eek:
Dove l'hai letta questa?
Anche io interessato...aspetto il k10 per cambiare sistema....:rolleyes:
No aspetta... mi è mancata la vista... :eek:
Dove l'hai letta questa?
aspetta che ti cerco il link
Credo di aver capito cosa intendi, però proprio 700mln di transistor su un chip a 90nm (G80) dimostrano che i miracoli di ingegneria a cui pochissimi, anche esperti, credevano solo pochi mesi prima della GTX (guarda i primi commenti al tread in basso, valgono più di 1000 parole :asd: :asd: :asd: )
http://www.hwupgrade.it/forum/showthread.php?t=1286664&highlight=force
quindi non darei cose per scontato, ma questo se vale per Ati vale a maggior ragione per Nvidia, visto il capolavoro (obiettivamente, proprio considerando le sue caratteristiche complessive, inclusi consumi e temperature proprio in relazione ai 90nm) di ingegneria di G80...stiamo a vedere l'evoluzione delle cose...:)
:asd: :asd: :asd: non ho parole....:doh:
Anche io interessato...aspetto il k10 per cambiare sistema....:rolleyes:
http://www.tomshw.it/news.php?newsid=10118
non era solo su tom lo letto anche su altri siti .fr che ora non trovo
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.