View Full Version : [THREAD UFFICIALE] Geforce 8800GTX
appleroof
03-07-2007, 13:45
I prezzi delle 8800GTX sono in discesa, pensate sia il momento giusto per un eventuale acquisto o è meglio attendere?
come giustamente detto, secondo me, se nn hai un'esigenza impellente, aspetta settembre ;)
Ragazzi l'impostazione della trasparenza dell'antialiasing MULTISAMPLING E SUPERSAMPLING in cosa differisce? mi sembra di ricordare che il supersampling è nettamente più accurato ma anche molto più pesante da gestire...in pratica anche voi usate sempre e solo il multisampling giusto?
Ragazzi mi rispondete?
appleroof
03-07-2007, 13:58
Ragazzi mi rispondete?
Hai visto giusto: il supersampling è più qualitativo ma più pesante....cmq con i giochi fino a tdu e colin dirt, la gtx regge un supersampling 4/8x (con i giochi più vecchi addirittura un 16x) senza fare una grinza
in tdu ad esempio metto il supersampling 2x anzichè il multisampling 4x, perchè è meglio il primo, e cmq a 1920x1200 è più che sufficiente ;)
frankdan
03-07-2007, 14:09
Amici del forum,vi chiedo un ultimo favore...
Sono qui a scervellarmi su quale cabinet possa essere adatto ad ospitare una o due (in SLI) GeForce 8800 GTX...il problema è da non sottovalutare perchè la 8800 GTX è bella grossa e quindi non vorrei avere brutte sorprese se poi non ci entra...comunque tenete conto che la mia configurazione è questa :
-alimentatore LC 850W
-processore Intel Core 2 Duo E6600
-dissipatore Arctic Cooling Alpine 7 o freezer 7 pro
-motherboard Gigabyte P35-DS3R oppure forse una adatta allo SLI
-RAM Kit 2GiB TeamGroup Elite PC6400
-VGA PoV GeForce 8800GTX 768mb
-HD Seagate 400GB
-Masterizzatore DVD
-floppy 1.44mb
-lettore dvd
...quindi tutta questa roba dovrà entrare nel cabinet,sperando che poi anche il raffreddamento possa essere realizzato al meglio.
Il cabinet che cerco deve avere le seguenti caratteristiche :
-colore nero oppure nero&silver
-minimo 2 usb+le uscite audio
-abbastanza bello da vedere (anche se è questione di gusti...)
-che abbia 2 porte ps2 (per tastiera e mouse)
-Possibilità di ospitare e raffreddare senza problemi tutto l'hardware che ho scritto prima,soprattutto la scheda grafica.
-Prezzo massimo 80 euro (quindi molto economico)
Ho fatto qui questa domanda specifica (sarebbe stato più appropriato postare nel thread su alimentatori e case) perchè visto che molti di voi hanno la geforce 8800 GTX (o almeno credo...),penso che mi possano dare un consiglio anche su quale cabinet usano per contenere questa vga dalle grosse dimensioni (ho letto che occupa addirittura 2 slot a causa della grossa ventola).
Avevo già pensato al Coolermaster Centurion 5 ...e vorrei sapere da voi se è adatto...ma naturalmente se avete altri cabinet da consigliare fatelo pure !
Amici del forum,vi chiedo un ultimo favore...
Sono qui a scervellarmi su quale cabinet possa essere adatto ad ospitare una o due (in SLI) GeForce 8800 GTX...il problema è da non sottovalutare perchè la 8800 GTX è bella grossa e quindi non vorrei avere brutte sorprese se poi non ci entra...comunque tenete conto che la mia configurazione è questa :
-alimentatore LC 850W
-processore Intel Core 2 Duo E6600
-dissipatore Arctic Cooling Alpine 7 o freezer 7 pro
-motherboard Gigabyte P35-DS3R oppure forse una adatta allo SLI
-RAM Kit 2GiB TeamGroup Elite PC6400
-VGA PoV GeForce 8800GTX 768mb
-HD Seagate 400GB
-Masterizzatore DVD
-floppy 1.44mb
-lettore dvd
...quindi tutta questa roba dovrà entrare nel cabinet,sperando che poi anche il raffreddamento possa essere realizzato al meglio.
Il cabinet che cerco deve avere le seguenti caratteristiche :
-colore nero oppure nero&silver
-minimo 2 usb+le uscite audio
-abbastanza bello da vedere (anche se è questione di gusti...)
-che abbia 2 porte ps2 (per tastiera e mouse)
-Possibilità di ospitare e raffreddare senza problemi tutto l'hardware che ho scritto prima,soprattutto la scheda grafica.
-Prezzo massimo 80 euro (quindi molto economico)
Ho fatto qui questa domanda specifica (sarebbe stato più appropriato postare nel thread su alimentatori e case) perchè visto che molti di voi hanno la geforce 8800 GTX (o almeno credo...),penso che mi possano dare un consiglio anche su quale cabinet usano per contenere questa vga dalle grosse dimensioni (ho letto che occupa addirittura 2 slot a causa della grossa ventola).
Avevo già pensato al Coolermaster Centurion 5 ...e vorrei sapere da voi se è adatto...ma naturalmente se avete altri cabinet da consigliare fatelo pure !
se vuoi mettere in futuro 2 GTX in SLi la P35-DS3R non fà per te, devi prendere necessariamente una mobo con chipset 650i, 680i LT o 680i
frankdan
03-07-2007, 14:17
se vuoi mettere in futuro 2 GTX in SLi la P35-DS3R non fà per te, devi prendere necessariamente una mobo con chipset 650i, 680i LT o 680i
Si,lo sapevo...adesso il problema però è il cabinet !
PS=per lo SLI ci sono anche mobo con chipset n570
Si,lo sapevo...adesso il problema però è il cabinet !
PS=per lo SLI ci sono anche mobo con chipset n570
si ma è poco performante, meglio puntare sulla serie 6x0i :)
frankdan
03-07-2007, 14:40
si ma è poco performante, meglio puntare sulla serie 6x0i :)
si,hai ragione...;)
Amici del forum,vi chiedo un ultimo favore...
Sono qui a scervellarmi su quale cabinet possa essere adatto ad ospitare una o due (in SLI) GeForce 8800 GTX...il problema è da non sottovalutare perchè la 8800 GTX è bella grossa e quindi non vorrei avere brutte sorprese se poi non ci entra...comunque tenete conto che la mia configurazione è questa :
-alimentatore LC 850W
-processore Intel Core 2 Duo E6600
-dissipatore Arctic Cooling Alpine 7 o freezer 7 pro
-motherboard Gigabyte P35-DS3R oppure forse una adatta allo SLI
-RAM Kit 2GiB TeamGroup Elite PC6400
-VGA PoV GeForce 8800GTX 768mb
-HD Seagate 400GB
-Masterizzatore DVD
-floppy 1.44mb
-lettore dvd
...quindi tutta questa roba dovrà entrare nel cabinet,sperando che poi anche il raffreddamento possa essere realizzato al meglio.
Il cabinet che cerco deve avere le seguenti caratteristiche :
-colore nero oppure nero&silver
-minimo 2 usb+le uscite audio
-abbastanza bello da vedere (anche se è questione di gusti...)
-che abbia 2 porte ps2 (per tastiera e mouse)
-Possibilità di ospitare e raffreddare senza problemi tutto l'hardware che ho scritto prima,soprattutto la scheda grafica.
-Prezzo massimo 80 euro (quindi molto economico)
Ho fatto qui questa domanda specifica (sarebbe stato più appropriato postare nel thread su alimentatori e case) perchè visto che molti di voi hanno la geforce 8800 GTX (o almeno credo...),penso che mi possano dare un consiglio anche su quale cabinet usano per contenere questa vga dalle grosse dimensioni (ho letto che occupa addirittura 2 slot a causa della grossa ventola).
Avevo già pensato al Coolermaster Centurion 5 ...e vorrei sapere da voi se è adatto...ma naturalmente se avete altri cabinet da consigliare fatelo pure !
E per il problema del cabinet hai qualche consiglio ?
come giustamente detto, secondo me, se nn hai un'esigenza impellente, aspetta settembre ;)
Aspettiamo! ;)
Hai visto giusto: il supersampling è più qualitativo ma più pesante....cmq con i giochi fino a tdu e colin dirt, la gtx regge un supersampling 4/8x (con i giochi più vecchi addirittura un 16x) senza fare una grinza
in tdu ad esempio metto il supersampling 2x anzichè il multisampling 4x, perchè è meglio il primo, e cmq a 1920x1200 è più che sufficiente ;)
Azz mi sono accorto solo ora che oltre alla stessa scheda video abbiamo anche lo stesso pannello da 27" (marca diversa ma sempre di samsung è il pannello).
1) Quindi mi consigli di usare sempre il supersampling 4x/8x per bene o male tutti i giochi in commercio ora come ora?
2) ma si nota tanto la differenza tra un supersampling 4x ed un multisampling 4x a 1920x1200? te lo chiedo perchè non ho ancora avuto tempo di provare :cry:
3) hai trovato un gioco dove la gtx va "in difficoltà" a 1920x1200?
Hai visto giusto: il supersampling è più qualitativo ma più pesante....cmq con i giochi fino a tdu e colin dirt, la gtx regge un supersampling 4/8x (con i giochi più vecchi addirittura un 16x) senza fare una grinza
in tdu ad esempio metto il supersampling 2x anzichè il multisampling 4x, perchè è meglio il primo, e cmq a 1920x1200 è più che sufficiente ;)
Appleroofino ma da quand'é che ce l'hai il dell da 27 ?:)
Gandhi82
03-07-2007, 19:58
Dal pannello di controllo
'impostazioni 3D-
'Accellerazione multi schermo\GPU miste'
1)modalità multischermo
2)modalità prestazioni compatibilità
3)modalità prestazione a schermo singolo
di queste 3 quale và impostato?
io ho solo un monitor e quindi ho sempre messo la n°3
Innanzitutto c'è modo e modo di fare osservare le cose. Chi ti credi di essere ???? I 52° sono la temperatura che mi viene rilevata da Rivatuner usando la DLL ADT7473.DLL (che di norma rileva 8 gradi in meno rispetto all'altra DLL). Anche Everest Ultimate mi rileva la stessa temperatura. Solo la temp del diodo è 60°, per cui può darsi che i 64° siano la temp misurata dal diodo.
Io ho solo detto che per me quelle temp sono alte per chi tiene la ventola al 100%. Magari con la ventola settata a default posso crederci, ma al 100% un pò di gradi li perdi. Poi sei libero di pensarla come vuoi, ma quel tuo "MA DAI...." m'ha dato molto fastidio (scusami se te lo faccio rispettosamente osservare).
Con stima,
Dark. ;)
Ciao a tutti,
potreste spiegarmi meglio queste differenze di temperature a cosa sono dovute? Cioe', 8 gradi di differenza sono un bel po'... rischio di fondere la scheda senza accorgermene...
Un'altra domanda, ma quindi e' normale che la temperatura di funzionamento si attesti sui 74 gradi in idle? la mia scheda e' costantemente sui 74... O_O
mi sembra eccessivo!!! Considerando il fatto che ho due ventole da 14 ed una da 8 dentro il case. (il case e' chiuso.)
Scusate, ancora una domanda, considerate attendibile il wizard di nTune che setta tutte le caratteristiche del PC al meglio? (tensioni, clock, etc...)
Ciao e grazie,
D.
^Memphis^
04-07-2007, 09:54
X frankdan: guarda, il sistema in firma a me sta comodamente nel centurion 5 e poi a me piace anke esteticamente :cool: (gusti) e con temperature nella norma@default (ambiente permettendo), quindi a meno che tu non voglia aggiungere un'altra 8800gtx e un paio di hdd o fare oc estremo il centurion può andare!
X Amon76: ti consiglio di dare una sitemata nel case (magari la cavetteria non favorisce un flusso corretto d'aria):D ! Una domanda: ma come setti la ventola della scheda (quale % imposti)? Usi RivaTuner o nTune:mbe: ?
Perchè anche se fosse @ default la ventola (60%), mi sembrano un po' troppi 74° in idle :eek: (anche se con le temperature di questo periodo potrebbe pure essere:sofico: ).
Dipende anche da come sono settate le ventole del case perchè deve essere in depressione rispetto all'ambiente (maggiore la quantità d'aria in uscita che in entrata) per evitare ristagni d aria calda che non aiutano affatto a raffreddare la vga!
appleroof
04-07-2007, 17:38
Azz mi sono accorto solo ora che oltre alla stessa scheda video abbiamo anche lo stesso pannello da 27" (marca diversa ma sempre di samsung è il pannello).
1) Quindi mi consigli di usare sempre il supersampling 4x/8x per bene o male tutti i giochi in commercio ora come ora?
2) ma si nota tanto la differenza tra un supersampling 4x ed un multisampling 4x a 1920x1200? te lo chiedo perchè non ho ancora avuto tempo di provare :cry:
3) hai trovato un gioco dove la gtx va "in difficoltà" a 1920x1200?
1) dove regge, a seconda della risoluzione, si
2) dipende dai giochi: come detto ad esempio in tdu ho notato che è molto meglio il supesampling 2x che il multi 4x, sempre a 1920x1200, quindi un ss a 4x è molto meglio di un ms a 4x....
3) finora no, però tdu e colin dirt l'aa deve essere da 2 a 4 max per mantenersi sopra i 30 a quella risoluzione, senza aa non c'è gioco che la pieghi (oltre a quelli provato cod 2, carbon, stalker, oblivion), in attesa di vedere cosa combina con giochi dx10
;)
Appleroofino ma da quand'é che ce l'hai il dell da 27 ?:)
:D
da quando è uscito, più o meno ;)
X Amon76: ti consiglio di dare una sitemata nel case (magari la cavetteria non favorisce un flusso corretto d'aria):D ! Una domanda: ma come setti la ventola della scheda (quale % imposti)? Usi RivaTuner o nTune:mbe: ?
Perchè anche se fosse @ default la ventola (60%), mi sembrano un po' troppi 74° in idle :eek: (anche se con le temperature di questo periodo potrebbe pure essere:sofico: ).
Dipende anche da come sono settate le ventole del case perchè deve essere in depressione rispetto all'ambiente (maggiore la quantità d'aria in uscita che in entrata) per evitare ristagni d aria calda che non aiutano affatto a raffreddare la vga!
Grazie ^Memphis^,
Io uso nTune, e le ventole le lascio in automatico, nella speranza che quando non serva scendano di giri.
Cmq ti ringrazio, mi hai dato una bella dritta a proposito del flusso d'aria all'interno del case... Io avevo lasciato una ventola che butta dentro aria e due che pescano da dentro e buttano fuori, adesso provo ad invertire anche quella.
Attualmente le due da 14 buttano fuori l'aria, e quella da 8 la butta dentro, ma voglio provare a fare come dici tu, ovvero tutte che aspirano dal case l'aria calda.
La cavetteria e' un altro grosso problema purtroppo, ma cosa ci posso fare? :muro: I cavetti ci sono e non posso certo tagliarli! O devo? :eek:
Ho un case della Termaltake (Il Matrix) e attualmente dentro ci sono:
Alimentatore Infiniti Enermax da 650W;
3HD;
un lettore/Mast DVD;
la 8800GTX;
scheda audio;
una PCI-e per l'e-SATA;
e il floppy.
Come posso ridurre il quantitativo di cavi per far respirare meglio i componenti? C'e' una convenienza nell'utilizzare i cavi tondi, anzicche' i soliti flat IDE, altri cavetti particolari? Suggerimenti?
sono seriamente preoccupato per la salute del mio PC, durante il giorno la stanza dove lo tengo (acceso 24h/24h) arrivera' ad almeno 35gradi, se non qualcosa in piu'. :( Quando sono a casa non e' un problema perche' tengo il condizionatore acceso, ma non posso lasciarlo sempre acceso solo per il computer... :mad:
Attualmente le temperature del sistema, rivelate con nTune sono:
52 gradi l'enviroment (all'interno del case):
sui 50 gradi la CPU,
e dai 74 agli 80 gradi la GPU!!! :eek:
E queste quando sto a casa con il condizionatore attivo!!!
Please... help me!!! qualsiasi idea e' ben accetta.
^Memphis^
05-07-2007, 07:47
Di nulla! :D
X il case: forse mi sono espresso male:p , comunque le ventole come le hai settate già vanno bene, altrimenti non ci sarebbe alcun flusso d'aria :eek: cosa sempre presente nel case, quindi ti consiglio di lasciarle come sono ora!
X la cavetteria: beh hai abbastanza componenti in quel case :sofico: quindi posso solo consigliarti di fascettare e tenere + ordinati possibile i cavi!
X le temperature: beh la componentistica scalda l'ambiente del tuo pc, in più 35° di temperetura ambientale:eek: e il pc 24h/24 acceso scaldano molto! A quanto imposti la ventola della scheda video?
1)...........
;)
:D
da quando è uscito, più o meno ;)
interessa anche a me, come ti trovi ? la risoluzione é quella del 24 quindi stessa area ma caratteri e desk + grandi immagino..con i giochi ?
grazie:)
ps: devo imparare a guardare le firme
Scrambler77
05-07-2007, 08:45
interessa anche a me, come ti trovi ? la risoluzione é quella del 24 quindi stessa area ma caratteri e desk + grandi immagino..con i giochi ?
grazie:)
ps: devo imparare a guardare le firme
Che paraculo... non avevo notato il 27"!! :ciapet:
Cmq io ho il 24" sempre 1920x1200 (acer) e mi ci trovo molto bene. Per i giochi, tutto dipende dallo scaler. Il mio è pessimo per alcune risoluzioni...
Certo un 27 a 2500-e-rotti.... mi piacerebbe, ma non penso si trovino, giusto?
Di nulla! :D
X il case: forse mi sono espresso male:p , comunque le ventole come le hai settate già vanno bene, altrimenti non ci sarebbe alcun flusso d'aria :eek: cosa sempre presente nel case, quindi ti consiglio di lasciarle come sono ora!
X la cavetteria: beh hai abbastanza componenti in quel case :sofico: quindi posso solo consigliarti di fascettare e tenere + ordinati possibile i cavi!
X le temperature: beh la componentistica scalda l'ambiente del tuo pc, in più 35° di temperatura ambientale:eek: e il pc 24h/24 acceso scaldano molto! A quanto imposti la ventola della scheda video?
In automatico, ho paura a settarla manualmente. Se la ventilazione non fosse sufficiente in un momento in cui non fossi presente rischierei al minimo un crash del sistema, se non bruciare la scheda! :cry:
Cmq, ti ringrazio ancora per i preziosi consigli, magari proverò a potenziare le ventole del case. :)
Scrambler77
05-07-2007, 09:08
Grazie ^Memphis^,
Attualmente le due da 14 buttano fuori l'aria, e quella da 8 la butta dentro, ma voglio provare a fare come dici tu, ovvero tutte che aspirano dal case l'aria calda.
Sarebbe un errore. L'aria che esce dal case deve in qualche modo esserci entrata prima. Se metti tutte le ventole in estrazione, metterai il case in depressione, con conseguente ristagno d'aria calda in prossimità dei componenti critici.
In termini quantitativi, è praticametne impossibile trovare l'equilibrio tra aria in ingresso e in uscita, ma di solito si usa bilanciare le ventole per favorire il costante ricambio d'aria.
In termini qualitativi, invece, la posizione delle ventole determina il ristagno dell'aria in alcune zone del case. L'aria calda tende ad andare verso l'alto, pertanto sarebbe ideale posizionare le ventole in estrazione nella parte alta e in immissione nella parte bassa. Nello specifico, quelle in immissione in prossimità dei componenti da raffreddare, se possibile.
Per la cavetteria: usa cavi rounded della lunghezza giusta per arrivare giusto alla periferica. Fascettali sulle pareti del case e cerca di non far ostruire le grate o le correnti d'aria interne. I cavi che vanno da case a motherboard (tasti accensione, usb, firewire ecc ecc) sarebbe ideale cablarli alle spalle della mobo (prima di montarla, far passare i cavi tra la scheda madre e il case, a sandwitch). In tal modo liberi un sacco di spazio.
Certo un 27 a 2500-e-rotti.... mi piacerebbe, ma non penso si trovino, giusto?
che io sappia ci sono solo 30" da 2560x1600 :)
Scrambler77
05-07-2007, 09:20
che io sappia ci sono solo 30" da 2560x1600 :)
Eh... ma sulla mia scrivania un 30" sarebbe improponibile. Il mio notebook ha un 15" 1620x1080... non capisco dov'è la difficoltà nel fare pannelli a 2560x1600 tra i 24" e i 27"... :confused:
http://www.hwupgrade.it/news/videogiochi/crysis-nuovo-sito-e-data-di-rilascio_21836.html
Eh... ma sulla mia scrivania un 30" sarebbe improponibile. Il mio notebook ha un 15" 1620x1080... non capisco dov'è la difficoltà nel fare pannelli a 2560x1600 tra i 24" e i 27"... :confused:
:doh:
trovato, mi sembrava di averlo già visto: Dell UltraSharp 2707WFP
http://www.hwupgrade.it/articoli/periferiche/1731/dell-ultrasharp-2707wfp-27-pollici-meglio-di-30_index.html
http://www.hwupgrade.it/news/videogiochi/crysis-nuovo-sito-e-data-di-rilascio_21836.html
ottimo :cool:
Scrambler77
05-07-2007, 09:29
:doh:
trovato, mi sembrava di averlo già visto: Dell UltraSharp 2707WFP
http://www.hwupgrade.it/articoli/periferiche/1731/dell-ultrasharp-2707wfp-27-pollici-meglio-di-30_index.html
Ma è sempre 1920x1200... :(
Sarebbe un errore. L'aria che esce dal case deve in qualche modo esserci entrata prima. Se metti tutte le ventole in estrazione, metterai il case in depressione, con conseguente ristagno d'aria calda in prossimità dei componenti critici.
In termini quantitativi, è praticametne impossibile trovare l'equilibrio tra aria in ingresso e in uscita, ma di solito si usa bilanciare le ventole per favorire il costante ricambio d'aria.
In termini qualitativi, invece, la posizione delle ventole determina il ristagno dell'aria in alcune zone del case. L'aria calda tende ad andare verso l'alto, pertanto sarebbe ideale posizionare le ventole in estrazione nella parte alta e in immissione nella parte bassa. Nello specifico, quelle in immissione in prossimità dei componenti da raffreddare, se possibile.
Per la cavetteria: usa cavi rounded della lunghezza giusta per arrivare giusto alla periferica. Fascettali sulle pareti del case e cerca di non far ostruire le grate o le correnti d'aria interne. I cavi che vanno da case a motherboard (tasti accensione, usb, firewire ecc ecc) sarebbe ideale cablarli alle spalle della mobo (prima di montarla, far passare i cavi tra la scheda madre e il case, a sandwitch). In tal modo liberi un sacco di spazio.
Bene bene... mi state dando consigli veramente utili su questo fronte... cose che fino a poco tempo fa non avevo mai avuto la necessita' di considerare!
grazie.
Skullcrusher
05-07-2007, 09:42
http://www.hwupgrade.it/news/videogiochi/crysis-nuovo-sito-e-data-di-rilascio_21836.html
Bene bene, finalmente metteremo a dura prova le 8800 :D
Ma è sempre 1920x1200... :(
:doh: :stordita: :sbonk:
sono fuso oggi :help:
fdadakjli
05-07-2007, 09:55
Bene bene, finalmente metteremo a dura prova le 8800 :D
azz...crysis alle porte...:sbav:
non vedo l'ora di averlo tra le mani... :)
Scrambler77
05-07-2007, 10:18
azz...crysis alle porte...:sbav:
non vedo l'ora di averlo tra le mani... :)
11 Settembre...: una data ricorrente! :mbe:
Cmq non è poi tanto vicino... :(
fdadakjli
05-07-2007, 10:27
chissà chi ha scelto il giorno... :D
cmq dai si parla di un paio di mesetti o poco più...a tutto vantaggio delle vga che avranno benefici dalle temp ambientali inferiori... :sofico:
Scrambler77
05-07-2007, 10:49
chissà chi ha scelto il giorno... :D
cmq dai si parla di un paio di mesetti o poco più...a tutto vantaggio delle vga che avranno benefici dalle temp ambientali inferiori... :sofico:
Tu hai vapochill e impianto a liquido e ti lamenti??? Pensa a noi comuni mortali che andiamo ancora ad aria (come il :ciapet: )!!! :asd:
fdadakjli
05-07-2007, 10:57
Tu hai vapochill e impianto a liquido e ti lamenti??? Pensa a noi comuni mortali che andiamo ancora ad aria (come il :ciapet: )!!! :asd:
io non mi lamento affatto...parlavo in generale...quindi anche a nome dei "comuni mortali" che sono ad aria o a liquido non refrigerato... ;)
cmq temp amb + basse fanno comodo anche a me che posso scendere con la temperatura dell'acqua senza spiacevole sviluppo di condensa... :sofico:
Scrambler77
05-07-2007, 11:03
cmq temp amb + basse fanno comodo anche a me che posso scendere con la temperatura dell'acqua senza spiacevole sviluppo di condensa... :sofico:
Come rosico!! :asd:
...cmq stavo scherzando eh! ;)
fdadakjli
05-07-2007, 11:13
già tu pensa che bello quando potrò tenere l'acqua chessò a 5/6°c fissi...calcolando che ora con le ultra xxx@700/2400 sto a max 33/34°c in full con acqua a 18/19°c le temp dovrebbero scendere abbastanza... :ciapet:
già tu pensa che bello quando potrò tenere l'acqua chessò a 5/6°c fissi...calcolando che ora con le ultra xxx@700/2400 sto a max 33/34°c in full con acqua a 18/19°c le temp dovrebbero scendere abbastanza... :ciapet:
ma come fai a raffreddare l'acqua?
^Memphis^
05-07-2007, 11:29
Delly perdona la curiosità:D , ma quanto cavolo ti è costato il tuo computer? :sofico: :sofico: :sofico:
X Amon76: visto che hai il pc acceso 24H/24 ti consiglierei di impostare la ventola all'85% fisso (se nn a 90%:sofico: ), con nTune è semplicissimo: se nn ricordo male vai su "regola impostazioni gpu" scegli la casella con "controllo ventola diretto" e sposti il cursore sulla barra fino alla velocita in % che desideri, Applica ed hai fatto! Prova e facci sapere!
illidan2000
05-07-2007, 11:36
ma rivatuner?
chi mi linka quel sito dove c'era la spiegazione anche per il downvolt 2d?
fdadakjli
05-07-2007, 11:47
ma come fai a raffreddare l'acqua?
l'acqua la raffreddo con un refrigeratore... :)
ero stufo di vedere l'acqua raggiungere temp da "pastasciutta"...
poi in un impianto raffreddare l'acqua ad aria [radiatore] porta inevitabilmente ad un aumento della temperatura del liquido con il passare del tempo e quindi alla riduzione dei vantaggi rispetto ad un normale raffreddamento ad aria...
con l'acqua refrigerata la musica cambia dato che la temp dell'acqua viene mantenuta in modo costante nel tempo... ;)
l'acqua la raffreddo con un refrigeratore... :)
ero stufo di vedere l'acqua raggiungere temp da "pastasciutta"...
poi in un impianto raffreddare l'acqua ad aria [radiatore] porta inevitabilmente ad un aumento della temperatura del liquido con il passare del tempo e quindi alla riduzione dei vantaggi rispetto ad un normale raffreddamento ad aria...
con l'acqua refrigerata la musica cambia dato che la temp dell'acqua viene mantenuta in modo costante nel tempo... ;)
Era ora che ti decidessi altro che radiatori... :D :D :sofico:
Io tra compressori e cazzi vari ho 1 cavallo e mezzo.... :D :D
Quand'è che Vmoddi le ultra? :D :D I benefici si vedono non solo con temperature basse.. occhio che se scendi di temperatura guadagni ma in abbinamento all'aumento della tensione sulle gpu :D :D
fdadakjli
05-07-2007, 12:06
sono anni che ho il refri... ;)
solo che l'avevo accantonato per un pò...ma ora l'ho ripreso :D
vmodd?? direi che si potrebbe anche fare...poi però dovrei aprire la scatola delle TEC e mettere 2 belle 226w sulle gpu...è che ultimamente sono meno matto del solito...o sto guarendo o sto andando fuori del tutto... :sofico:
sono anni che ho il refri... ;)
solo che l'avevo accantonato per un pò...ma ora l'ho ripreso :D
vmodd?? direi che si potrebbe anche fare...poi però dovrei aprire la scatola delle TEC e mettere 2 belle 226w sulle gpu...è che ultimamente sono meno matto del solito...o sto guarendo o sto andando fuori del tutto... :sofico:
Stai guarendo... fidati :D :D Io sono un po fermo come puoi vedere dalla firma... mi sono concentrato un attimino sul sistema home theater... :D :D
Cmq una volta messo sotto una roba tipo questo:
http://img127.imageshack.us/img127/1011/20070619120356img7439nu0.th.jpg (http://img127.imageshack.us/my.php?image=20070619120356img7439nu0.jpg)
Vai tranquillo :) :)
Scrambler77
05-07-2007, 12:52
ma rivatuner?
chi mi linka quel sito dove c'era la spiegazione anche per il downvolt 2d?
Up!
interessa anche a me, come ti trovi ? la risoluzione é quella del 24 quindi stessa area ma caratteri e desk + grandi immagino..con i giochi ?
grazie:)
ps: devo imparare a guardare le firme
con i giochi? beh dire che è uno spettacolo è dir poco :D ...le prime volte toglie letteralmente il fiato...poi ci fai un po' l'occhio (purtroppo ;) ).
per quanto riguarda i caratteri devo dire che il dot pitch di 0.303 li rende un po' granulosi rispetto all'altro mio monitor da 20" che ha un dp di 0.270...a me non da assolutamente fastidio, anzi si deve tirare di meno gli occhi a tutto vantaggio della minor stanchezza visiva.
The-Revenge
05-07-2007, 14:11
qualcuno mi spiega come si legge il 3d mark? cioè ho fatto una prova rapida, il primo video (quello dell'astronave) mi faceva 30 fps di media a default , con risoluzione 1280, impossibile.
i punti dv si vedono?
con i giochi? beh dire che è uno spettacolo è dir poco :D ...le prime volte toglie letteralmente il fiato...poi ci fai un po' l'occhio (purtroppo ;) ).
per quanto riguarda i caratteri devo dire che il dot pitch di 0.303 li rende un po' granulosi rispetto all'altro mio monitor da 20" che ha un dp di 0.270...a me non da assolutamente fastidio, anzi si deve tirare di meno gli occhi a tutto vantaggio della minor stanchezza visiva.
grazie:)
appleroof
05-07-2007, 17:02
interessa anche a me, come ti trovi ? la risoluzione é quella del 24 quindi stessa area ma caratteri e desk + grandi immagino..con i giochi ?
grazie:)
ps: devo imparare a guardare le firme
con i giochi? beh dire che è uno spettacolo è dir poco :D ...le prime volte toglie letteralmente il fiato...poi ci fai un po' l'occhio (purtroppo ;) ).
per quanto riguarda i caratteri devo dire che il dot pitch di 0.303 li rende un po' granulosi rispetto all'altro mio monitor da 20" che ha un dp di 0.270...a me non da assolutamente fastidio, anzi si deve tirare di meno gli occhi a tutto vantaggio della minor stanchezza visiva.
ecco :D
qui trovi un bell'articolo proprio del mio monitor (stesso pannello di ShineOn)
http://www.hwupgrade.it/articoli/periferiche/1731/dell-ultrasharp-2707wfp-27-pollici-meglio-di-30_index.html
Che paraculo... non avevo notato il 27"!! :ciapet:
Cmq io ho il 24" sempre 1920x1200 (acer) e mi ci trovo molto bene. Per i giochi, tutto dipende dallo scaler. Il mio è pessimo per alcune risoluzioni...
Certo un 27 a 2500-e-rotti.... mi piacerebbe, ma non penso si trovino, giusto?
Il mio ha uno scaler ottimo, devo dire (e con quello che costa! :D :D ), in ogni caso quelle volte che voglio provare risoluzioni più basse metto "rapporto propsettico fisso" da driver e con le bande nere ai lati nessuno scaling, è solo come avere un monitor più piccolo :)
l'acqua la raffreddo con un refrigeratore... :)
ero stufo di vedere l'acqua raggiungere temp da "pastasciutta"...
poi in un impianto raffreddare l'acqua ad aria [radiatore] porta inevitabilmente ad un aumento della temperatura del liquido con il passare del tempo e quindi alla riduzione dei vantaggi rispetto ad un normale raffreddamento ad aria...
con l'acqua refrigerata la musica cambia dato che la temp dell'acqua viene mantenuta in modo costante nel tempo... ;)
ora capisco meglio la "storia" delle temperature polari :)
46° é temperatura da pastasciutta o quasi.....
fdadakjli
05-07-2007, 18:52
la mia acqua passava i 50°c dopo qualche ora di gioco...capirai come alla fine con un liquido a quella temperatura tanto valeva tenere il dissy stock dato che le vga raggiungevano le stesse temperature... :stordita:
la mia acqua passava i 50°c dopo qualche ora di gioco...capirai come alla fine con un liquido a quella temperatura tanto valeva tenere il dissy stock dato che le vga raggiungevano le stesse temperature... :stordita:
Inutile dirti che mi trovo d'accordo con te: il problema è che ad un certo punto l'aria intorno al radiatore si scalda troppo, io ho due radiatori biventola, un Extreme convogliato con due vetole da 80CFM sopra (dato che le alette dissipanti sono molto fitte) ed un radiatore biventola con alette meno fitte con due ventole ma senza convogliatore (dato che sembra non essercene bisogno). Le temperature delle Ultra partono da 45° senza carico, ma dopo un bel po' di ore con carico (anche sulla CPU, che è collegata in serie nello stesso impianto) le temperature iniziano a salire, la stanza è condizionata, però in ogni caso ci si avvicina troppo alle temperature ottenibili con un raffreddamento ad aria ottimizzato...
fdadakjli
05-07-2007, 19:24
azz...tu hai anche la cpu oltre alle vga a liquido...quindi ancora peggio...
io avevo solo le vga e liquido "raffreddato" da 2 radiatori con 2*120x120 ciascuno... ;)
The-Revenge
05-07-2007, 19:59
qualcuno mi spiega come si legge il 3d mark? cioè ho fatto una prova rapida, il primo video (quello dell'astronave) mi faceva 30 fps di media a default , con risoluzione 1280, impossibile.
i punti dv si vedono?
sembra che i miei post sono invisibili :( mi aiutate?
appleroof
05-07-2007, 20:01
sembra che i miei post sono invisibili :( mi aiutate?
Alla fine ti dà un punteggio complessivo diviso in sm2.0 sm3.0 (i più importanti per la vga) e cpu (dà i punti al procio), poi li confronti sul sito futuremark o nella "banca dati" di questo forum, ad esempio ;)
scusa, non capisco , in che senso come si vedono?? :confused: Alla fine! :D
nico88desmo
05-07-2007, 20:47
Nuovi Driver beta
http://www.nvidia.it/object/winxp_2k_162.18_it.html
nico88desmo
05-07-2007, 20:49
nuova recensione con gli ultimi driver
http://www.anandtech.com/video/showdoc.aspx?i=3029&p=2
appleroof
05-07-2007, 21:01
nuova recensione con gli ultimi driver
http://www.anandtech.com/video/showdoc.aspx?i=3029&p=2
:eek: :eek:
cosa si diceva a proposito di una patch dx10 indipendente??
http://img125.imageshack.us/img125/6743/testdx10em4.jpg (http://imageshack.us)
;)
nico88desmo
05-07-2007, 21:07
Mi sà che fra una settimana ci sarà il rilascio sia della demo di crysis sia della nuova demo di COJ :D (almeno spero).
Dopo si potrà finalmente fare dei veri test DX10 :D
:eek: :eek:
cosa si diceva a proposito di una patch dx10 indipendente??
.......
;)
URCA:stordita:
azz...tu hai anche la cpu oltre alle vga a liquido...quindi ancora peggio...
io avevo solo le vga e liquido "raffreddato" da 2 radiatori con 2*120x120 ciascuno... ;)
3 radiatori da 120 uno per la cpu e 2 per la vga su due circuiti separati.....dopo questi post mi sento un pò lo scemo del villaggio :doh:
frankdan
05-07-2007, 21:56
:eek: :eek:
cosa si diceva a proposito di una patch dx10 indipendente??
http://img125.imageshack.us/img125/6743/testdx10em4.jpg (http://imageshack.us)
;)
Mi interessa capire se il test sulla 8800GTX è stato fatto con anche il filtro anisotropico disattivato,visto che è proprio quella la vga che mi accingo a comprare...
C'è molta differenza tra la 8800GTX e la 8800 Ultra uscita da pochissimo ?
Poi volevo sapere se potete consigliarmi un software per misurare le temperature di vga,scheda madre,cabinet ecc. e magari anche uno per regolare la velocità delle ventole...
Grazie a chi mi aiuterà
:eek: :eek:
cosa si diceva a proposito di una patch dx10 indipendente??
http://img125.imageshack.us/img125/6743/testdx10em4.jpg (http://imageshack.us)
;)
sono finti i risultati, fino a quando la 2900 non passerà avanti alla 8800, tutti i test trovati nella rete sono dei fake :D
uhahuahuahauhua
scusatemi, il caldo stasera mi fa strani effetti, o forse 1 ora a NFSMW e smadonnamenti alla polizia mi hanno rincretinito...
3 radiatori da 120 uno per la cpu e 2 per la vga su due circuiti separati.....dopo questi post mi sento un pò lo scemo del villaggio :doh:
azz...tu hai anche la cpu oltre alle vga a liquido...quindi ancora peggio...
io avevo solo le vga e liquido "raffreddato" da 2 radiatori con 2*120x120 ciascuno... ;)
Io ho due radiatori da 120, come ho scritto, in ogni caso devo dire che l'aria condizionata aiuta molto, ad un certo punto si forma proprio una cappa di caldo intorno alla zona dei radiatori (che tra l'altro sono anche distanziati tra loro e posti non vicinissimo al case, in modo da poter lavorare senza intoppi di nessun tipo). Posso chiedervi quali sono/erano le vostre temperature? Nel mio caso l'incremento con il tempo è veramente folle, ci si mangiano anche 10° :(, spero che il waterchiller arrivi presto. In ogni caso molte persone mi dicevano che un singolo biventola ottimizzato poteva già bastare per la mia configurazione... Secondo me viene troppo spesso sottovalutato il fatto che l'aria, soprattutto in ambienti non condizionati, ad un certo punto si scalda...
nuova recensione con gli ultimi driver
http://www.anandtech.com/video/showdoc.aspx?i=3029&p=2
Molto interessante, le conclusioni, fermo restando che in DX10 ancora ovviamente non viene dichiarato un vincitore, e che le ATI hanno il maggiore boost prestazionale tra DX9 e DX10, sono inquietanti: In short, we really need to see faster hardware before developers can start doing more impressive things with DirectX 10. E pensare che si era detto che le DX10 a parità di hardware avrebbero offerto prestazioni migliori rispetto alle 9...
nico88desmo
05-07-2007, 22:34
Molto interessante, le conclusioni, fermo restando che in DX10 ancora ovviamente non viene dichiarato un vincitore, e che le ATI hanno il maggiore boost prestazionale tra DX9 e DX10, sono inquietanti: In short, we really need to see faster hardware before developers can start doing more impressive things with DirectX 10. E pensare che si era detto che le DX10 a parità di hardware avrebbero offerto prestazioni migliori rispetto alle 9...
Già! Infatti se uno leggesse solo le conclusioni...dopo un pò si sentirebbe male!
Comunque secondo me le schede sono più che buone, entrambe le schede riescono a fare 450 - 500 GigaFlops!!!! E' un numero spropositato, imho si sono impegnati a far andar piano queste schede in DX10.
Tra l'altro entrambe le architetture sono estremamente studiate per calcoli paralleli...mah, questa situazione non riesco a capirla...spero che i fps bassi siano più che altro dovuti ai driver ed ai giochi mal programmati.
Attendiamo Bioshock, CRYSIS e compagnia bella! :D
illidan2000
06-07-2007, 00:21
ma rivatuner?
chi mi linka quel sito dove c'era la spiegazione anche per il downvolt 2d?
up
Io ho due radiatori da 120, come ho scritto, in ogni caso devo dire che l'aria condizionata aiuta molto, ad un certo punto si forma proprio una cappa di caldo intorno alla zona dei radiatori (che tra l'altro sono anche distanziati tra loro e posti non vicinissimo al case, in modo da poter lavorare senza intoppi di nessun tipo). Posso chiedervi quali sono/erano le vostre temperature? Nel mio caso l'incremento con il tempo è veramente folle, ci si mangiano anche 10° :(, spero che il waterchiller arrivi presto. In ogni caso molte persone mi dicevano che un singolo biventola ottimizzato poteva già bastare per la mia configurazione... Secondo me viene troppo spesso sottovalutato il fatto che l'aria, soprattutto in ambienti non condizionati, ad un certo punto si scalda...
devo dire che dalle mie parti le temperature sono molto basse per la stagione 28° temp esterna..la mia vga viaggia da 41 a 46° in idle e raggiunge i 55 dopo ore di gioco, la cpu da parte sua stà sui 31° in idle (@3400) e i 43-47 in full.
vero che dopo ore di utilizzo la temp dell'acqua si stabilizza e l'effetto si avvicina ad un buon raffreddamento ad aria, ma vuoi mettere il divertimento di montarti il tuo sistema a liquido:) ...mi stò incuriosendo ad un sistema misto acqua e peltier ma credo dovrò cambiare ali
pensavo ad una soluzione simile
http://www.ckitaly.com/pdf/controllo_temperatra/sistemi_peltier/diretto_liquido.pdf
Skullcrusher
06-07-2007, 07:46
Mi interessa capire se il test sulla 8800GTX è stato fatto con anche il filtro anisotropico disattivato,visto che è proprio quella la vga che mi accingo a comprare...
C'è molta differenza tra la 8800GTX e la 8800 Ultra uscita da pochissimo ?
Poi volevo sapere se potete consigliarmi un software per misurare le temperature di vga,scheda madre,cabinet ecc. e magari anche uno per regolare la velocità delle ventole...
Grazie a chi mi aiuterà
No, tra GTX e Ultra non c'è molta differenza, con un leggero overclock poi puoi portare la GTX@Ultra. Tra le due ti consiglio la GTX, ma se trovi la Ultra a un prezzo d'occasione facci un pensierino :D
Per misurare la temperatura della vga io uso rivatuner, che uso anche per regolarne la ventola, overcloccarla ecc.
Per il resto del pc uso Everest ;)
frankdan
06-07-2007, 07:55
Tra le due ti consiglio la GTX, ma se trovi la Ultra a un prezzo d'occasione facci un pensierino :D;
Sarebbe bello trovarla a prezzo ribassato...ma purtroppo è uscita solo 1 mese fa!
Per misurare la temperatura della vga io uso rivatuner, che uso anche per regolarne la ventola, overcloccarla ecc.;)
Io uso Rivatuner per leggerissimi overclock...su quale icona devo cliccare per vedere la temperatura ? (sempre che la mia vga abbia il sensore...)
Per il resto del pc uso Everest
Anch'io !
Skullcrusher
06-07-2007, 08:05
Sarebbe bello trovarla a prezzo ribassato...ma purtroppo è uscita solo 1 mese fa!
Lo so, per quello ti ho detto che è preferibile la GTX a meno di trovare la Ultra ad un prezzone ;)
Io uso Rivatuner per leggerissimi overclock...su quale icona devo cliccare per vedere la temperatura ? (sempre che la mia vga abbia il sensore...)
http://xs317.xs.to/xs317/07275/temp.JPG.xs.jpg (http://xs.to/xs.php?h=xs317&d=07275&f=temp.JPG)
Trovi i grafici con le varie temperature. Col doppio clic del mouse sopra al grafico della temperatura della vga ti si apre il pannello opzioni, basta poi abilitare la monitorizzazione nella tray ;)
frankdan
06-07-2007, 08:11
http://xs317.xs.to/xs317/07275/temp.JPG.xs.jpg (http://xs.to/xs.php?h=xs317&d=07275&f=temp.JPG)
Trovi i grafici con le varie temperature. Col doppio clic del mouse sopra al grafico della temperatura della vga ti si apre il pannello opzioni, basta poi abilitare la monitorizzazione nella tray ;)
Ho provato,ma purtroppo se clicco su "hardware monitoring" gli unici 2 parametri misurabili sono il core clock e il memory clock...quindi forse significa che la mia vga non ha il sensore delle temperature ! (o mi sbaglio ?)
Skullcrusher
06-07-2007, 08:12
Ho provato,ma purtroppo se clicco su "hardware monitoring" gli unici 2 parametri misurabili sono il core clock e il memory clock...quindi forse significa che la mia vga non ha il sensore delle temperature ! (o mi sbaglio ?)
Esatto, se non ti compare, non hai il sensore per la temperatura ;)
frankdan
06-07-2007, 08:16
Esatto, se non ti compare, non hai il sensore per la temperatura ;)
Ok,grazie (soprattutto per aver postato l'immagine).
Certo che la mia scheda video è proprio un "mostro",eh ? :asd: :asd:
Skullcrusher
06-07-2007, 08:18
Ok,grazie (soprattutto per aver postato l'immagine).
Certo che la mia scheda video è proprio un "mostro",eh ? :asd: :asd:
Prego! Se prendi la GTX noterai un "leggero" miglioramento :D
frankdan
06-07-2007, 08:29
Prego! Se prendi la GTX noterai un "leggero" miglioramento :D
Con l'hardware che ho (in firma) devo praticamente cambiare tutto il pc...ma l'impresa più ardua è un'altra : convincere i miei !!!:D
fdadakjli
06-07-2007, 08:55
devo dire che dalle mie parti le temperature sono molto basse per la stagione 28° temp esterna..la mia vga viaggia da 41 a 46° in idle e raggiunge i 55 dopo ore di gioco, la cpu da parte sua stà sui 31° in idle (@3400) e i 43-47 in full.
vero che dopo ore di utilizzo la temp dell'acqua si stabilizza e l'effetto si avvicina ad un buon raffreddamento ad aria, ma vuoi mettere il divertimento di montarti il tuo sistema a liquido:) ...mi stò incuriosendo ad un sistema misto acqua e peltier ma credo dovrò cambiare ali
dipende da quanti watt è la TEC e a quanti V viene alimentata...cmq meglio sarebbe alimentarla con un ali dedicato... ;)
sappi che il lato freddo della cella sarà più freddo quanto più raffredderai il lato caldo...se consideri che l'acqua già senza avere il carico della peltier non la riesci a tenere fresca tramite radiatori ma sale di temp con il tempo...capirai che se gli aggiungi anche la TEC le temp saliranno molto + rapidamente e consistentemente fino al "collasso" del sistema... :(
fai conto che tempo fa quando usavo le peltier...con 1x 226W@13.5V sulla cpu e 1x170W@13.5V sulla vga ero al limite con il refrigeratore...che dopo qualche ora di utilizzo cedeva e non riusciva più a controllare la temperatura del liquido, che aumentava esattamente come se non ci fosse stato nemmeno...tu pensa con un radiatore in che condizioni sarei stato :D
con entrambe le tec a 12v invece non avevo problemi in daily use e riuscivo a mantenere temp abbondantemente sotto zero senza che il refri avesse problemi... :)
No, tra GTX e Ultra non c'è molta differenza, con un leggero overclock poi puoi portare la GTX@Ultra. Tra le due ti consiglio la GTX, ma se trovi la Ultra a un prezzo d'occasione facci un pensierino :D
Per misurare la temperatura della vga io uso rivatuner, che uso anche per regolarne la ventola, overcloccarla ecc.
Per il resto del pc uso Everest ;)
La Ultra ha shaders ad una frequenza più elevata, chip revisionato e mediamente più propneso all'overlcock, ram solitamente di qualità maggiore, voltaggio della GPU aumentato. C'è qualcosa in più di una semplice manciata di Mhz tra le due schede, le Ultra hanno delle potenzialità in overlcock decisamente superiori ;).
devo dire che dalle mie parti le temperature sono molto basse per la stagione 28° temp esterna..la mia vga viaggia da 41 a 46° in idle e raggiunge i 55 dopo ore di gioco, la cpu da parte sua stà sui 31° in idle (@3400) e i 43-47 in full.
vero che dopo ore di utilizzo la temp dell'acqua si stabilizza e l'effetto si avvicina ad un buon raffreddamento ad aria, ma vuoi mettere il divertimento di montarti il tuo sistema a liquido:) ...mi stò incuriosendo ad un sistema misto acqua e peltier ma credo dovrò cambiare ali
pensavo ad una soluzione simile
http://www.ckitaly.com/pdf/controllo_temperatra/sistemi_peltier/diretto_liquido.pdf
La soluzione della cella mi ha sempre affascianto, però richiede ad oggi un sistema di dissipazione del calore molto molto efficiente, oltre ad un alimentatore dedicato, dato che devi usare celle di elevata potenza. Secondo me a quel punto, considerando che è necessario in ogni caso coibentare per usare la cella, si può pensare di mettere un liquido raffreddato da un chiller a 5° coibentando scheda e tubi.
fdadakjli
06-07-2007, 11:16
La Ultra ha shaders ad una frequenza più elevata, chip revisionato e mediamente più propneso all'overlcock, ram solitamente di qualità maggiore, voltaggio della GPU aumentato. C'è qualcosa in più di una semplice manciata di Mhz tra le due schede, le Ultra hanno delle potenzialità in overlcock decisamente superiori ;).
La soluzione della cella mi ha sempre affascianto, però richiede ad oggi un sistema di dissipazione del calore molto molto efficiente, oltre ad un alimentatore dedicato, dato che devi usare celle di elevata potenza. Secondo me a quel punto, considerando che è necessario in ogni caso coibentare per usare la cella, si può pensare di mettere un liquido raffreddato da un chiller a 5° coibentando scheda e tubi.
bhe...con il solo liquido@ 5°c non si raggiungono nemmeno lontanamente le temp raggiungibili con una peltier adeguata e acqua refrigerata...;)
cavolo...basta!!! mi fate venire voglia di aprire la scatola delle TEC... :muro:
:sofico:
Skullcrusher
06-07-2007, 11:31
La Ultra ha shaders ad una frequenza più elevata, chip revisionato e mediamente più propneso all'overlcock, ram solitamente di qualità maggiore, voltaggio della GPU aumentato. C'è qualcosa in più di una semplice manciata di Mhz tra le due schede, le Ultra hanno delle potenzialità in overlcock decisamente superiori ;).
Vero, ma questo importa solo a chi interessa l'overclock estremo.... ;)
fdadakjli
06-07-2007, 11:32
La Ultra ha shaders ad una frequenza più elevata, chip revisionato e mediamente più propneso all'overlcock, ram solitamente di qualità maggiore, voltaggio della GPU aumentato. C'è qualcosa in più di una semplice manciata di Mhz tra le due schede, le Ultra hanno delle potenzialità in overlcock decisamente superiori ;).
già...verissimo...:)
però per un'utente normale e non "pazzo" come noi...una GTX@O.C. è un'ottimo affare al momento...considerando poi che con non molti €€ in più di una Ultra si possono prendere due GTX usate da mettere in SLi... ;)
bhe...con il solo liquido@ 5°c non si raggiungono nemmeno lontanamente le temp raggiungibili con una peltier adeguata e acqua refrigerata...;)
cavolo...basta!!! mi fate venire voglia di aprire la scatola delle TEC... :muro:
:sofico:
[tentatore mode: ON]
aprila dai...sarà bello :O
[tentatore mode: OFF]
:Perfido:
fdadakjli
06-07-2007, 11:37
[tentatore mode: ON]
aprila dai...sarà bello :O
[tentatore mode: OFF]
:Perfido:
maledetti!!! :muro:
ma io resisterò alle tentazioni... :fuck:
maledetti!!! :muro:
ma io resisterò alle tentazioni... :fuck:
:asd:
teoricamente a quanto riuscireti a portarla sotto TEC?
fdadakjli
06-07-2007, 11:45
:asd:
teoricamente a quanto riuscireti a portarla sotto TEC?
intendi la temp o la freq???
frankdan
06-07-2007, 11:46
Ma dopo la 8800 Ultra la Nvidia ha in programma quali altre schede?
fdadakjli
06-07-2007, 11:48
Ma dopo la 8800 Ultra la Nvidia ha in programma quali altre schede?
8900 :D
frankdan
06-07-2007, 11:50
Avete qualche link con le informazioni su questa futura scheda ? Quando verrà messa in commercio ?
intendi la temp o la freq???
entrambe :)
dipende da quanti watt è la TEC e a quanti V viene alimentata...cmq meglio sarebbe alimentarla con un ali dedicato... ;)
sappi che il lato freddo della cella sarà più freddo quanto più raffredderai il lato caldo...se consideri che l'acqua già senza avere il carico della peltier non la riesci a tenere fresca tramite radiatori ma sale di temp con il tempo...capirai che se gli aggiungi anche la TEC le temp saliranno molto + rapidamente e consistentemente fino al "collasso" del sistema... :(
fai conto che tempo fa quando usavo le peltier...con 1x 226W@13.5V sulla cpu e 1x170W@13.5V sulla vga ero al limite con il refrigeratore...che dopo qualche ora di utilizzo cedeva e non riusciva più a controllare la temperatura del liquido, che aumentava esattamente come se non ci fosse stato nemmeno...tu pensa con un radiatore in che condizioni sarei stato :D
con entrambe le tec a 12v invece non avevo problemi in daily use e riuscivo a mantenere temp abbondantemente sotto zero senza che il refri avesse problemi... :)
grazie delle info:)
fdadakjli
06-07-2007, 12:12
entrambe :)
cmq facendo i dovuti calcoli...se le 8800ultra stanno circa sui 200w...e per dissiparli ci vuole una peltier maggiore...quindi prendiamo due belle 226w alimentate almeno a 13.5v...questa è mole di calore da dissipare:
2x Peltier 226w@13.5v
226x13.5/15 = 203w * 2 = 406w :eek:
questo è il wattaggio delle sole peltier che finirebbe nell'acqua...al quale va aggiunto quello delle 2*8800ultra...quindi altri 400w...ahahahahah
probabile che l'acqua bolle già in fase di boot del pc... :sofico:
meglio cambiare strada... :D
faccio altri due giri di nastro alla scatola delle TEC... :sofico:
sono finti i risultati, fino a quando la 2900 non passerà avanti alla 8800, tutti i test trovati nella rete sono dei fake :D
uhahuahuahauhua
scusatemi, il caldo stasera mi fa strani effetti, o forse 1 ora a NFSMW e smadonnamenti alla polizia mi hanno rincretinito...
:D
bhe...con il solo liquido@ 5°c non si raggiungono nemmeno lontanamente le temp raggiungibili con una peltier adeguata e acqua refrigerata...;)
cavolo...basta!!! mi fate venire voglia di aprire la scatola delle TEC... :muro:
:sofico:
cmq facendo i dovuti calcoli...se le 8800ultra stanno circa sui 200w...e per dissiparli ci vuole una peltier maggiore...quindi prendiamo due belle 226w alimentate almeno a 13.5v...questa è mole di calore da dissipare:
2x Peltier 226w@13.5v
226x13.5/15 = 203w * 2 = 406w :eek:
questo è il wattaggio delle sole peltier che finirebbe nell'acqua...al quale va aggiunto quello delle 2*8800ultra...quindi altri 400w...ahahahahah
probabile che l'acqua bolle già in fase di boot del pc... :sofico:
meglio cambiare strada... :D
faccio altri due giri di nastro alla scatola delle TEC... :sofico:
Infatti il problema è quello, servirebbero due chiller a quel punto mi sa :D e la strada si fa un po' troppo complicata, per quello sugerivo un chiller singolo da settare con la temp molto in basso e con una buona coibentazione :D.
Avete qualche link con le informazioni su questa futura scheda ? Quando verrà messa in commercio ?
Nessuna informazione certa; se devi comprare compra quando hai i soldi o la necessità, se ti metti ad aspettare sappi che ci sarà sempre una scheda "dopo" quella che vai a prendere, e se ne inizia a parlare con molto anticipo, per cui sarei sempre ad aspettare la soluzione successiva ;).
OT on:
Cristo ma hai un MOSTRO, non un pc! :eek:
Se posso chiedertelo, quanto c'è in eurozzi tutto quel ben di dio ?
OT off
Alexkidd85
06-07-2007, 12:41
Si nota che non lo conosci...è da secoli che ormai ha sempre il top :D
frankdan
06-07-2007, 13:32
Nessuna informazione certa; se devi comprare compra quando hai i soldi o la necessità, se ti metti ad aspettare sappi che ci sarà sempre una scheda "dopo" quella che vai a prendere, e se ne inizia a parlare con molto anticipo, per cui sarei sempre ad aspettare la soluzione successiva ;).
Hai perfettamente ragione...oltretutto le GeForce 89xx che usciranno in futuro supereranno,ma non di chissà quanto,la GeForce 8800 (che in una ipotetica classifica già stilata da alcuni siti rimarrebbe comunque al 3° posto in ordine di potenza e prestazioni).Le prossime geForce della serie 89xx avranno delle frequenze di funzionamento un po' più alte (700 mhz),tutto qua.
Quello che invece mi stupisce e mi spinge a farmi delle domande,sono le dimensioni di queste schede : già l'attuale 8800GTX ha una lunghezza abnorme e non entra in molti tipi di cabinet...le prossime schede come saranno ? Se si adotternno processi produttivi a 80 e 60 nm,forse si riuscirà a non oltrepassare le dimensioni della 8800GTX (perchè queste tecniche costruttive aumentano la densità di transistor su un singolo chip),altrimenti la vedo dura...e oltretutto già adesso,proprio a causa delle dimensioni e dell'ingombrante sistema di dissipazione della 8800GTX,è impensabile realizzare una scheda di tale potenza per i notebook.
Quindi ciò che mi chiedo è : fin dove si arriverà? Forse,come ha già detto qualcuno,al posto dei cabinet useremo dei frigoriferi... :p
La Ultra ha shaders ad una frequenza più elevata, chip revisionato e mediamente più propneso all'overlcock, ram solitamente di qualità maggiore, voltaggio della GPU aumentato. C'è qualcosa in più di una semplice manciata di Mhz tra le due schede, le Ultra hanno delle potenzialità in overlcock decisamente superiori ;).
Comparandola con la gtx lasciandola cosi' com'è è sicuramente migliore... ma moddando la gtx? :D Ti assicuro che le differenze non sono enormi... anzi... :D :D Ovviamente però se potessi scegliere avendo tanta grana comprerei le ultra... :D :D
Si nota che non lo conosci...è da secoli che ormai ha sempre il top :D
Buahahah Delly si fa sempre un pacco di pubblicità :D :D :D
Hai perfettamente ragione...oltretutto le GeForce 89xx che usciranno in futuro supereranno,ma non di chissà quanto,la GeForce 8800 (che in una ipotetica classifica già stilata da alcuni siti rimarrebbe comunque al 3° posto in ordine di potenza e prestazioni).Le prossime geForce della serie 89xx avranno delle frequenze di funzionamento un po' più alte (700 mhz),tutto qua.
Quello che invece mi stupisce e mi spinge a farmi delle domande,sono le dimensioni di queste schede : già l'attuale 8800GTX ha una lunghezza abnorme e non entra in molti tipi di cabinet...le prossime schede come saranno ? Se si adotternno processi produttivi a 80 e 60 nm,forse si riuscirà a non oltrepassare le dimensioni della 8800GTX (perchè queste tecniche costruttive aumentano la densità di transistor su un singolo chip),altrimenti la vedo dura...e oltretutto già adesso,proprio a causa delle dimensioni e dell'ingombrante sistema di dissipazione della 8800GTX,è impensabile realizzare una scheda di tale potenza per i notebook.
Quindi ciò che mi chiedo è : fin dove si arriverà? Forse,come ha già detto qualcuno,al posto dei cabinet useremo dei frigoriferi... :p
se queste saranno le 8900 allora se non si riuscira a giocare in dx10 con le 8800 non si riuscira neanke con le 8900. a meno che le prestazione non siano cosi orribili come si è visto fin ora
Comparandola con la gtx lasciandola cosi' com'è è sicuramente migliore... ma moddando la gtx? :D Ti assicuro che le differenze non sono enormi... anzi... :D :D Ovviamente però se potessi scegliere avendo tanta grana comprerei le ultra... :D :D
:D ma lo stesso discorso vale per le Ultra, hai visto dove arrivano vModdandole? 950Mhz circa :D, a parità di raffreddamentoe mod usata le Ultra viaggiano di più ;), certo che la differenza di prezzo nella maggior parte dei casi non è giustificata, ma è sempre stato così con le soluzioni top.
guglielmit
06-07-2007, 14:49
dipende da quanti watt è la TEC e a quanti V viene alimentata...cmq meglio sarebbe alimentarla con un ali dedicato... ;)
sappi che il lato freddo della cella sarà più freddo quanto più raffredderai il lato caldo...se consideri che l'acqua già senza avere il carico della peltier non la riesci a tenere fresca tramite radiatori ma sale di temp con il tempo...capirai che se gli aggiungi anche la TEC le temp saliranno molto + rapidamente e consistentemente fino al "collasso" del sistema... :(
fai conto che tempo fa quando usavo le peltier...con 1x 226W@13.5V sulla cpu e 1x170W@13.5V sulla vga ero al limite con il refrigeratore...che dopo qualche ora di utilizzo cedeva e non riusciva più a controllare la temperatura del liquido, che aumentava esattamente come se non ci fosse stato nemmeno...tu pensa con un radiatore in che condizioni sarei stato :D
con entrambe le tec a 12v invece non avevo problemi in daily use e riuscivo a mantenere temp abbondantemente sotto zero senza che il refri avesse problemi... :)
Quoto Delly,stai lontano dalle peltier..io ne ho usate diverse per tempo.Di diverso wattaggio e con vari stadi di raffreddamento. Idea folle il solo pensare di gestire una peltier con radiatore..si riesce a fatica a controllare la temp con normale wb figurati...
PS: X Delly...il problema e' il refri che usi,unico neo nella tua signa.Ho provato l'Iced 400 ed e' veramente PESSIMO!! Con un Teco riuscivo a tenere sotto controllo una 226w e una 124w(se non ricordo male) alimentate a 13.5v(ali dedicato) con temp acqua intorno a 0° sotto carico!!
Fantascenza per un Iced :D
Scusate la domanda da ignorante ma la 8800 GTX è una scheda directx 10??
Scusate la domanda da ignorante ma la 8800 GTX è una scheda directx 10??
ovvio k si;) anke se non si sa ancora come andra in dx10
:D ma lo stesso discorso vale per le Ultra, hai visto dove arrivano vModdandole? 950Mhz circa :D, a parità di raffreddamentoe mod usata le Ultra viaggiano di più ;), certo che la differenza di prezzo nella maggior parte dei casi non è giustificata, ma è sempre stato così con le soluzioni top.
Quoto.
Evviva altri 1200 euro di schede!!! :D :D :sofico: ed almeno mezz'ora di lavoro per moddarle!!! :D :D :D
EDIT: Dai va... vendiamo le mie due gtx... come nuove!
http://www.pctuner.info/up/results/_200707/th_20070706165208_1.JPG (http://www.pctuner.info/up/image.php?src=_200707/20070706165208_1.JPG)
:rotfl: :rotfl:
PS: X Delly...il problema e' il refri che usi,unico neo nella tua signa.Ho provato l'Iced 400 ed e' veramente PESSIMO!! Con un Teco riuscivo a tenere sotto controllo una 226w e una 124w(se non ricordo male) alimentate a 13.5v(ali dedicato) con temp acqua intorno a 0° sotto carico!!
Fantascenza per un Iced :D
Quoto!
Le soluzioni migliori sono sempre quelle fatte in casa... Delly mi capisce... :)
JoeLatino
06-07-2007, 16:33
Quoto!
Le soluzioni migliori sono sempre quelle fatte in casa... Delly mi capisce... :)
scusate ma volendo prendere un refrigeratore per l'impianto a liquido,a chi mi devo rivolgere,e soprattutto mi consigliate dei modelli non troppo costosi ed affidabili?
grazie
ps. hanno bisogno di particolare manuntenzione?
scusate ma volendo prendere un refrigeratore per l'impianto a liquido,a chi mi devo rivolgere,e soprattutto mi consigliate dei modelli non troppo costosi ed affidabili?
grazie
ps. hanno bisogno di particolare manuntenzione?
ne ho trovati diversi tramite google cerca refrigeratori per acquari :)
guglielmit
06-07-2007, 17:36
scusate ma volendo prendere un refrigeratore per l'impianto a liquido,a chi mi devo rivolgere,e soprattutto mi consigliate dei modelli non troppo costosi ed affidabili?
grazie
ps. hanno bisogno di particolare manuntenzione?
Dai un occhio Qua' (http://www.tecosrl.com/)
The-Revenge
06-07-2007, 18:04
ragazzi mi sà che c'è qualcosa che non và, ho fatto solo 4985 al 3d mark :mc:
ho e6600, 8800 gtx e 2 gb 800 mhz. Però ho sparato tutto a palla a 1680, non so se è per questo.
edit : di default (le impostazioni di 3d mark) ho fatto 9500.
ragazzi mi sà che c'è qualcosa che non và, ho fatto solo 4985 al 3d mark :mc:
ho e6600, 8800 gtx e 2 gb 800 mhz. Però ho sparato tutto a palla a 1680, non so se è per questo.
edit : di default (le impostazioni di 3d mark) ho fatto 9500.
allora è ok di default...cioe un pelino basso forse ma nella norma. io @default faccio 10200
EDIT : doppio post scusate
nico88desmo
06-07-2007, 19:14
Come funziona questa scheda con DIRT?
Quoto.
Evviva altri 1200 euro di schede!!! :D :D :sofico: ed almeno mezz'ora di lavoro per moddarle!!! :D :D :D
EDIT: Dai va... vendiamo le mie due gtx... come nuove!
http://www.pctuner.info/up/results/_200707/th_20070706165208_1.JPG (http://www.pctuner.info/up/image.php?src=_200707/20070706165208_1.JPG)
:rotfl: :rotfl:
Hai mica uno schema chiaro da postare per effettuare la mod?? dio come rosiko,senza volts andare oltre i 675 Mhz è impossibile :muro:
The-Revenge
06-07-2007, 19:26
allora è ok di default...cioe un pelino basso forse ma nella norma. io @default faccio 10200
penso che quel tuo punteggio derivi sopratutto dal procio. Io non so perchè al procio ho fatto meno di un AMD 4800X2 (200 punti in meno). Fatto sta che quandoh o soldi gli compro lo zalman 9700 e lo occo il più possibile senza overvoltare, non mi piace toccare i voltaggi :stordita:
fdadakjli
06-07-2007, 19:40
Quoto Delly,stai lontano dalle peltier..io ne ho usate diverse per tempo.Di diverso wattaggio e con vari stadi di raffreddamento. Idea folle il solo pensare di gestire una peltier con radiatore..si riesce a fatica a controllare la temp con normale wb figurati...
PS: X Delly...il problema e' il refri che usi,unico neo nella tua signa.Ho provato l'Iced 400 ed e' veramente PESSIMO!! Con un Teco riuscivo a tenere sotto controllo una 226w e una 124w(se non ricordo male) alimentate a 13.5v(ali dedicato) con temp acqua intorno a 0° sotto carico!!
Fantascenza per un Iced :D
diciamo che non è proprio come mamma sfiligoi lo ha fatto...:D di suo lo so che non è un granchè, specie con le peltier, l'ho detto sopra con una 226w+170w@13.5v perdevo il controllo sulle temperature...però così com'è adesso rende abbastanza... :D
diciamo che non è proprio come mamma sfiligoi lo ha fatto...:D di suo lo so che non è un granchè, specie con le peltier, l'ho detto sopra con una 226w+170w@13.5v perdevo il controllo sulle temperature...però così com'è adesso rende abbastanza... :D
Abbastanza? direi che rende bene... moooolto bene :D :sofico:
Hai mica uno schema chiaro da postare per effettuare la mod?? dio come rosiko,senza volts andare oltre i 675 Mhz è impossibile :muro:
Ti mando un pvt...
Cmq è na cazzata piazzi un trimmerino da 10k multigiro tra la massa del connettore di alimentazione e un punto sul pcb della scheda... che poi non è altro che un condensatore in smd...
Per il punto di misura fai la stessa cosa... e lo porti fuori dal pcb sul bordo della scheda collegato in modo tale da avere una lettura della tensione sulla gpu facile facile.... ah ovviamente rispetto a massa...
Cmq ti mando degli screen semplici... ti faccio presente (lo saprai di sicuro) che se decidi di prendere in mano il saldatore, invalidi la garanzia, ma se rimuovi il tutto con una dissaldante, beh fai un lavoro pulitissimo e la garanzia ce l'hai di nuovo. :D :D
Preciso che non mi assumo nessuna responsabilità se stai troppo sopra ai componenti con il saldatore e stacchi qualcosa inavvertitamente... :D :D
Se non sei sicuro non farlo.
Ciauz! :)
Ti mando un pvt...
Cmq è na cazzata piazzi un trimmerino da 10k multigiro tra la massa del connettore di alimentazione e un punto sul pcb della scheda... che poi non è altro che un condensatore in smd...
Per il punto di misura fai la stessa cosa... e lo porti fuori dal pcb sul bordo della scheda collegato in modo tale da avere una lettura della tensione sulla gpu facile facile.... ah ovviamente rispetto a massa...
Cmq ti mando degli screen semplici... ti faccio presente (lo saprai di sicuro) che se decidi di prendere in mano il saldatore, invalidi la garanzia, ma se rimuovi il tutto con una dissaldante, beh fai un lavoro pulitissimo e la garanzia ce l'hai di nuovo. :D :D
Preciso che non mi assumo nessuna responsabilità se stai troppo sopra ai componenti con il saldatore e stacchi qualcosa inavvertitamente... :D :D
Se non sei sicuro non farlo.
Ciauz! :)
Manderesti gli schemi anche a me?
Grazie
appleroof
08-07-2007, 19:30
Ti mando un pvt...
Cmq è na cazzata piazzi un trimmerino da 10k multigiro tra la massa del connettore di alimentazione e un punto sul pcb della scheda... che poi non è altro che un condensatore in smd...
Per il punto di misura fai la stessa cosa... e lo porti fuori dal pcb sul bordo della scheda collegato in modo tale da avere una lettura della tensione sulla gpu facile facile.... ah ovviamente rispetto a massa...
Cmq ti mando degli screen semplici... ti faccio presente (lo saprai di sicuro) che se decidi di prendere in mano il saldatore, invalidi la garanzia, ma se rimuovi il tutto con una dissaldante, beh fai un lavoro pulitissimo e la garanzia ce l'hai di nuovo. :D :D
Preciso che non mi assumo nessuna responsabilità se stai troppo sopra ai componenti con il saldatore e stacchi qualcosa inavvertitamente... :D :D
Se non sei sicuro non farlo.
Ciauz! :)
Se hai voglia quegli screen potresti postarli qui a disposizione di tutti, così eviti anche che ti intasino i pvt :D :D
;)
illidan2000
08-07-2007, 21:23
Ho provato,ma purtroppo se clicco su "hardware monitoring" gli unici 2 parametri misurabili sono il core clock e il memory clock...quindi forse significa che la mia vga non ha il sensore delle temperature ! (o mi sbaglio ?)
a me si è imputtanito il sistema, e nn mi fa toccare più nulla rivatuner........................
appleroof
08-07-2007, 21:25
a me si è imputtanito il sistema, e nn mi fa toccare più nulla rivatuner........................
cioè???
vicius80
09-07-2007, 00:08
ragazzi mi accingerei ad acquistare una 8800 gtx ma girovagando in rete non è che ne parlino cosi bene....ottima in dx9 ma in dx10 ci sono molti dubbi.....che dite voi?
scipionix75
09-07-2007, 00:10
ragazzi mi accingerei ad acquistare una 8800 gtx ma girovagando in rete non è che ne parlino cosi bene....ottima in dx9 ma in dx10 ci sono molti dubbi.....che dite voi?
è dove stanno sti titoli dx10 con cui fare le prove:sofico: :sofico: :sofico:
ragazzi mi accingerei ad acquistare una 8800 gtx ma girovagando in rete non è che ne parlino cosi bene....ottima in dx9 ma in dx10 ci sono molti dubbi.....che dite voi?
la mia l'ho già buttata, ho rimesso la vodooooo 3000 e con delle modifiche ai driver è un fulmine in dx10 ;)
halduemilauno
09-07-2007, 09:29
ragazzi mi accingerei ad acquistare una 8800 gtx ma girovagando in rete non è che ne parlino cosi bene....ottima in dx9 ma in dx10 ci sono molti dubbi.....che dite voi?
ecco bravo accingiti e concludi. spero di esser stato chiaro.
;)
ragazzi mi accingerei ad acquistare una 8800 gtx ma girovagando in rete non è che ne parlino cosi bene....ottima in dx9 ma in dx10 ci sono molti dubbi.....che dite voi?
Vedi il problema è che molti parlano perchè hanno la bocca,si basano su motori DX9 "toppati" a DX10.
I motori grafici DX10 vanno creati ad HOC e non patchati,i conti li faremo con Crysis non con Lost Planet o Call of Juarez...ovvio che in futuro usciranno schede piu performanti,ma dire OGGI che una GTX è gia da buttare è pura follia :rotfl: cosa dovrebbero fare allora l'80% degli utenti PC che hanno schede inferiori??? meditate gente meditate ;)
Se hai voglia quegli screen potresti postarli qui a disposizione di tutti, così eviti anche che ti intasino i pvt :D :D
;)
Io sto ancora aspettando il mio di PVT :(
Perdonate il ritardo... ma sto week-end ho avuto da fare... (raduno muscle car a Voghera... :D :D )
Ecco le foto che chiedevate:
Una precisazione, nella Vmod gpu non usate un trimmer da 400 ohm ma uno da 10k che è migliore... ;)
Punti di misura:
http://img184.imageshack.us/img184/2944/nvidiageforce8800overclqy4.th.jpg (http://img184.imageshack.us/my.php?image=nvidiageforce8800overclqy4.jpg)
Vmod GPU:
http://img166.imageshack.us/img166/2007/nvidiageforce8800overclpb3.th.jpg (http://img166.imageshack.us/my.php?image=nvidiageforce8800overclpb3.jpg)
Vmod Mem:
http://img184.imageshack.us/img184/4407/nvidiageforce8800overclss3.th.jpg (http://img184.imageshack.us/my.php?image=nvidiageforce8800overclss3.jpg)
Ciauz!
Scrambler77
09-07-2007, 10:06
la mia l'ho già buttata, ho rimesso la vodooooo 3000 e con delle modifiche ai driver è un fulmine in dx10 ;)
Ma i drivers non sono un tantino "acerbi"??? :asd:
Scrambler77
09-07-2007, 10:10
Vedi il problema è che molti parlano perchè hanno la bocca,si basano su motori DX9 "toppati" a DX10.
Come non quotarti.
ragazzi mi accingerei ad acquistare una 8800 gtx ma girovagando in rete non è che ne parlino cosi bene....ottima in dx9 ma in dx10 ci sono molti dubbi.....che dite voi?
Se "girovagare" significa leggere il "3d ufficiale della 2900XT" di sto forum, è normale che abbia le idee confuse... ;)
illidan2000
09-07-2007, 11:47
è dove stanno sti titoli dx10 con cui fare le prove:sofico: :sofico: :sofico:
mi pare che sia già uscito quel lost planet...
illidan2000
09-07-2007, 11:49
Vedi il problema è che molti parlano perchè hanno la bocca,si basano su motori DX9 "toppati" a DX10.
I motori grafici DX10 vanno creati ad HOC e non patchati,i conti li faremo con Crysis non con Lost Planet
è riadattato?
è riadattato?
è un porting da xbox360;)
Vedi il problema è che molti parlano perchè hanno la bocca,si basano su motori DX9 "toppati" a DX10.
I motori grafici DX10 vanno creati ad HOC e non patchati,i conti li faremo con Crysis non con Lost Planet o Call of Juarez...ovvio che in futuro usciranno schede piu performanti,ma dire OGGI che una GTX è gia da buttare è pura follia :rotfl: cosa dovrebbero fare allora l'80% degli utenti PC che hanno schede inferiori??? meditate gente meditate ;)
il problema è che crysis non è altro che un gioco DX9 ;)
le DX10 in crysis sono state implementate dopo, principalmente per marketing, ma il motore è scritto completamente in DX9 a cui sono stati aggiunti un po' di effettini DX10 per renderlo più eye candy
resta il fatto che pare la seconda applicazione (la prima è bioshock in arrivo ad agosto, altro gioco DX9 con una spruzzatina di DX10, principalmente per gestire meglio l'AA e gli effetti di shading) decente per iniziare a vedere come si comporteranno le nuove librerie grafiche e cosa possono portare sui nostri monitor :)
mi pare che sia già uscito quel lost planet...
Che tra l'altro gira alla grnde in DX10,preso sabato tutto a paletta a 1600x1200 a parte l'AA,tenendo conto che,come ho gia detto,è un gioco toppato e pure un porting,tutto mi fa pensare che Crysis sara' ALTAMENTE godibile :)
aspettiamo ste 3-4 settimane che mancano alle 2 demo,poi tiriamo le conclusioni.
Che tra l'altro gira alla grnde in DX10,preso sabato tutto a paletta a 1600x1200 a parte l'AA,tenendo conto che,come ho gia detto,è un gioco toppato e pure un porting,tutto mi fa pensare che Crysis sara' ALTAMENTE godibile :)
aspettiamo ste 3-4 settimane che mancano alle 2 demo,poi tiriamo le conclusioni.
Mi tocca fare la partizione con partition magic... che @@! :D :D
il problema è che crysis non è altro che un gioco DX9 ;)
le DX10 in crysis sono state implementate dopo, principalmente per marketing, ma il motore è scritto completamente in DX9 a cui sono stati aggiunti un po' di effettini DX10 per renderlo più eye candy
resta il fatto che pare la seconda applicazione (la prima è bioshock in arrivo ad agosto, altro gioco DX9 con una spruzzatina di DX10, principalmente per gestire meglio l'AA e gli effetti di shading) decente per iniziare a vedere come si comporteranno le nuove librerie grafiche e cosa possono portare sui nostri monitor :)
Si si lo so,ed è uno dei motivi che non mi fa minimamente dubitare sulle prestazioni finali.
Mi tocca fare la partizione con partition magic... che @@! :D :D
Non l'ho capita :confused:
:D
Che tra l'altro gira alla grnde in DX10,preso sabato tutto a paletta a 1600x1200 a parte l'AA,tenendo conto che,come ho gia detto,è un gioco toppato e pure un porting,tutto mi fa pensare che Crysis sara' ALTAMENTE godibile :)
aspettiamo ste 3-4 settimane che mancano alle 2 demo,poi tiriamo le conclusioni.
scusa?? cioè ma se il demo a 1280 fa 30fps di media con tutto al max....:confused: ma vuol dire che va meglio della versione demo??
scusa?? cioè ma se il demo a 1280 fa 30fps di media con tutto al max....:confused: ma vuol dire che va meglio della versione demo??
se fa 30 fps col tuo io il pc nuovo no lo faccio.compro crysis e lo metto sulla mensola con gli altri giochi e tra 2 anni lo gioco.tra 4 generazioni di processori e vga dovrei giocarlo a 80 fps :O
se fa 30 fps col tuo io il pc nuovo no lo faccio.compro crysis e lo metto sulla mensola con gli altri giochi e tra 2 anni lo gioco.tra 4 generazioni di processori e vga dovrei giocarlo a 80 fps :O
la demo di lost planet si. cioe a 1600 fara i 25-24...cioe poi magari la versione finale è stata ben ottimizzata x carita! x questo sono curioso di sapere a quanti fps gioca a 1600
Non l'ho capita :confused:
:D
Intendevo dire installare vista... :D
Se "girovagare" significa leggere il "3d ufficiale della 2900XT" di sto forum, è normale che abbia le idee confuse... ;)
ma che dici, guarda che con i driver che usciranno (forse) a dicembre 2008 sarà una scheggia di scheda supererà anche la ultra e di un pezzo poi..:D
ma che dici, guarda che con i driver che usciranno (forse) a dicembre 2008 sarà una scheggia di scheda supererà anche la ultra e di un pezzo poi..:D
:rotfl:
appleroof
09-07-2007, 17:34
il problema è che crysis non è altro che un gioco DX9 ;)
le DX10 in crysis sono state implementate dopo, principalmente per marketing, ma il motore è scritto completamente in DX9 a cui sono stati aggiunti un po' di effettini DX10 per renderlo più eye candy
resta il fatto che pare la seconda applicazione (la prima è bioshock in arrivo ad agosto, altro gioco DX9 con una spruzzatina di DX10, principalmente per gestire meglio l'AA e gli effetti di shading) decente per iniziare a vedere come si comporteranno le nuove librerie grafiche e cosa possono portare sui nostri monitor :)
Che Crysis sia un gioco nato dx9 è vero. Che sia solo una spruzzatina di effetti dx10 per renderlo più bellino non mi pare proprio, stando alle dichiarazioni rilasciate. Potresti ribattere che quelle sono dichiarazioni di marketing, ma resta il fatto che tutti coloro che hanno avuto la fortuna di vederlo girare in dx10 dicono che è una roba allucinante. Inoltre è vero che è nato dx9, ma con un occhio (e 1/2 :D ) a Vista/dx10 sin dall'inizio, e i continui rinvii vengono dai più spiegati proprio per renderlo ottimizzato per Vista/dx10
Insomma, considerato tutto questo, ed in attesa di vedere come girerà "dal vivo" in dx10, mi sento cmq di affermare senza dubbio che non avrà nulla a che vedere con le demo beta/bench buggati che si sono visti in giro finora, e sicuramente sarà il primo vero banco di prova per le vga dx10 attuali
;)
The-Revenge
09-07-2007, 17:42
raga ma mi sembrava di capire che erano usicti i drive 162...sono andato sul sito nvidia e mi dà gli ultimi drive 158, che ho installati...sono drive beta, i 162?:confused: dove li posso reperire? aumentano le prestazioni? leggevo, non ricordo se qui o altrove, che le prestazioni rimangono uguali o scendono di 2 fps in alcuni giochi...in tal caso, visto che sono beta, nemmeno li installo
ma che dici, guarda che con i driver che usciranno (forse) a dicembre 2008 sarà una scheggia di scheda supererà anche la ultra e di un pezzo poi..:D
l'ho letto anke io:rotfl: :rotfl: :rotfl:
nico88desmo
09-07-2007, 18:16
raga ma mi sembrava di capire che erano usicti i drive 162...sono andato sul sito nvidia e mi dà gli ultimi drive 158, che ho installati...sono drive beta, i 162?:confused: dove li posso reperire? aumentano le prestazioni? leggevo, non ricordo se qui o altrove, che le prestazioni rimangono uguali o scendono di 2 fps in alcuni giochi...in tal caso, visto che sono beta, nemmeno li installo
sono i 162.18
http://it.nzone.com/object/nzone_downloads_rel70betadriver_it.html
ma che dici, guarda che con i driver che usciranno (forse) a dicembre 2008 sarà una scheggia di scheda supererà anche la ultra e di un pezzo poi..:D
Inoltre verso marzo-aprile 2009 dovrebbero uscire i nuovi omega driver basati sui supermegaultraglobalturbo catalyst di dicembre 2008 :sofico: , la GTX è spacciata. :fagiano:
:mc:
The-Revenge
09-07-2007, 19:36
sono i 162.18
http://it.nzone.com/object/nzone_downloads_rel70betadriver_it.html
si avevo già visto...ho controllato velocemente le feature, non mi attirano, aspetot quelli ufficiali...
Cmq qualcuno di voi ha raimbow six vegas ? quanti FPS vi fà? a me 30 ttt al max a 1280 :( incredibile :( però ttt al max c'è da dire che è uno spettacolo, e io dei rallentamenti non me ne accorgo...non và mai giù ai 30 però...però 30 fps da ora, e a quella risoluzione, mi immagino crysisi, o meglio unreal tournament 3, visto che vegas gira col suo stesso motore (unreal engine 3)
Che Crysis sia un gioco nato dx9 è vero. Che sia solo una spruzzatina di effetti dx10 per renderlo più bellino non mi pare proprio, stando alle dichiarazioni rilasciate. Potresti ribattere che quelle sono dichiarazioni di marketing, ma resta il fatto che tutti coloro che hanno avuto la fortuna di vederlo girare in dx10 dicono che è una roba allucinante. Inoltre è vero che è nato dx9, ma con un occhio (e 1/2 :D ) a Vista/dx10 sin dall'inizio, e i continui rinvii vengono dai più spiegati proprio per renderlo ottimizzato per Vista/dx10
sarà (è) allucinante, ma rimane marketing :)
invece, ad esempio, lost planet o coj DX10 sono marketing ma per niente allucinanti :D
tanto di cappello ai crytek :O
Insomma, considerato tutto questo, ed in attesa di vedere come girerà "dal vivo" in dx10, mi sento cmq di affermare senza dubbio che non avrà nulla a che vedere con le demo beta/bench buggati che si sono visti in giro finora, e sicuramente sarà il primo vero banco di prova per le vga dx10 attuali
;)
ovvio, sarà il primo banco di prova...crysis rappresenta un nuovo standard per la grafica dei giochi 3d
scusa?? cioè ma se il demo a 1280 fa 30fps di media con tutto al max....:confused: ma vuol dire che va meglio della versione demo??
Quello è un bench,quindi strutturato come tale..il gioco finale è ben altra cosa in prestazioni.
Intendevo dire installare vista... :D
capito :D
Quello è un bench,quindi strutturato come tale..il gioco finale è ben altra cosa in prestazioni.
si ma nella demo ci sono una o 2 mappe. a quanti fps stai??
in base a questi discorsi per giocare con i nuovi giochi dx10 la 8800gts da 320mb sarebbe una gpu fascia bassa,altro che fascia media....----->una 8800gts da 640mb una medio-bassa-----> la 8800gtx media--------->8800ultra medio-alta
le future 8900 fascia quasi alta :ciapet:
scipionix75
10-07-2007, 10:01
in base a questi discorsi per giocare con i nuovi giochi dx10 la 8800gts da 320mb sarebbe una gpu fascia bassa,altro che fascia media....----->una 8800gts da 640mb una medio-bassa-----> la 8800gtx media--------->8800ultra medio-alta
le future 8900 fascia quasi alta :ciapet:
sto provando lost planet completo..............
devo dire mooooooolto meio in confronto alla demo:D :D :D
però fraps non mi segna gli fps e rivatuner server non mi segnala le temp in osd
e come se sti due programmi non riconoscessero che siamo entrati in 3d:mc: :mc: :mc:
sto provando lost planet completo..............
devo dire mooooooolto meio in confronto alla demo:D :D :D
però fraps non mi segna gli fps e rivatuner server non mi segnala le temp in osd
e come se sti due programmi non riconoscessero che siamo entrati in 3d:mc: :mc: :mc:
cioè?? a occhio quanto sara?? che impostazioni??
scipionix75
10-07-2007, 10:42
cioè?? a occhio quanto sara?? che impostazioni??
il mio occhio non vede + di 24fps LOL:D :D
impostazioni nn al max ma quasi era giusto un giro di provola:D :D
vorrei una misurazione oggettiva ma al momento non est possibbile:muro: :muro:
qualcuno sa come risovere con riva e fraps?:help: :help: :help: :help:
illidan2000
10-07-2007, 10:54
controlla la versione di fraps
scipionix75
10-07-2007, 10:58
controlla la versione di fraps
ho l'ultima la 2.8.2:read: :read:
il mio occhio non vede + di 24fps LOL:D :D
impostazioni nn al max ma quasi era giusto un giro di provola:D :D
vorrei una misurazione oggettiva ma al momento non est possibbile:muro: :muro:
qualcuno sa come risovere con riva e fraps?:help: :help: :help: :help:
:mbe: eh??
cmq da consolle non c'è un comando tipo show fps o roba simile??
scipionix75
10-07-2007, 11:02
:mbe: eh??
cmq da consolle non c'è un comando tipo show fps o roba simile??
ci sarà ma io nn lo sò!!!!!!!!!:sofico: :sofico: :sofico:
ci sarà ma io nn lo sò!!!!!!!!!:sofico: :sofico: :sofico:
:doh: cmq non ho capito il 24fps
:doh: cmq non ho capito il 24fps
Be è che l'occhio umano mediamente quelli sono i frames al secondo che è in grado di distinguere :read:
Be è che l'occhio umano mediamente quelli sono i frames al secondo che è in grado di distinguere :read:
ah giusto:D
scipionix75
10-07-2007, 20:01
nessuno sa come risolvere il problema di fraps e riva?:help: :help: :help:
appleroof
10-07-2007, 20:44
nessuno sa come risolvere il problema di fraps e riva?:help: :help: :help:
proverei banalmente a reinstallarli entrambi, come prima cosa....
proverei banalmente a reinstallarli entrambi, come prima cosa....
no ma è un problema gia noto, e se non sbaglio quei programmi non vanno con nex applicazione dx10
JoeLatino
11-07-2007, 09:18
nessuno sa come risolvere il problema di fraps e riva?:help: :help: :help:
prova a scaricarti la 2.9;)
scipionix75
11-07-2007, 09:32
prova a scaricarti la 2.9;)
non esiste la 2.9 :D
o no?:stordita:
scipionix75
11-07-2007, 09:34
non esiste la 2.9 :D
o no?:stordita:
:cry: :cry: :cry:
ho controllato ieri e nn c'era
stmane c'è:doh: :doh: :doh:
La mia è una questione un po' specifica, ma credo che il mio sia un problema "incorciato" che riguarda tre cose diverse ma non so quale di preciso.
Premetto che ho appena installato un LCD e fino a l'altro ieri avevo un CRT
Gioco a World of Warcraft come da topic ho una gefo 8800 gtx e un monitor nuovo di pacca Samsung 226 BW
Ora non so se siano i settaggi della scheda video, del monitor o del gioco o cosa, fatto sta che io WOW lo vedo sgranato, intravedo i puntolini dell'lcd e i personaggi in lontananza sono poco nitidi con contorni come se l'antialiasing fosse a 0.
Ora mi è sorto il dubbio ci fossero delle cose da settare nel pannello della vga piuttosto che del monitor anche perchè nei settaggi del gioco l'antialiasing me lo propone max a 8x, quando la scheda video dovrebbe portarmi fino a 16x.
Non so più dove mettere le mani sinceramente ... qualcuno mi da' un imput??
--------------------------------------------------------------------------------
La mia è una questione un po' specifica, ma credo che il mio sia un problema "incorciato" che riguarda tre cose diverse ma non so quale di preciso.
Premetto che ho appena installato un LCD e fino a l'altro ieri avevo un CRT
Gioco a World of Warcraft come da topic ho una gefo 8800 gtx e un monitor nuovo di pacca Samsung 226 BW
Ora non so se siano i settaggi della scheda video, del monitor o del gioco o cosa, fatto sta che io WOW lo vedo sgranato, intravedo i puntolini dell'lcd e i personaggi in lontananza sono poco nitidi con contorni come se l'antialiasing fosse a 0.
Ora mi è sorto il dubbio ci fossero delle cose da settare nel pannello della vga piuttosto che del monitor anche perchè nei settaggi del gioco l'antialiasing me lo propone max a 8x, quando la scheda video dovrebbe portarmi fino a 16x.
Non so più dove mettere le mani sinceramente ... qualcuno mi da' un imput??
--------------------------------------------------------------------------------
Scommetto che al 99% non hai messo la risoluzione a 1680x1050 ?
:D
Scommetto che al 99% non hai messo la risoluzione a 1680x1050 ?
:D
si, sia in win che nel gioco
si, sia in win che nel gioco
Se sei in DVI non ho la più pallida idea di cosa possa essere, se sei in VGA prova a giocare col valore di "sharpness".
Ma questo "scherzo" te lo fa solo WoW o anche gli altri giochi ?
Se sei in DVI non ho la più pallida idea di cosa possa essere, se sei in VGA prova a giocare col valore di "sharpness".
Ma questo "scherzo" te lo fa solo WoW o anche gli altri giochi ?
eh ho il pc nuovo e ad oggi solo WOW installato
se sono DVI o VGA?
boh ho attccato il cavo e ciao
appleroof
11-07-2007, 16:46
eh ho il pc nuovo e ad oggi solo WOW installato
se sono DVI o VGA?
boh ho attccato il cavo e ciao
prova ad attaccare il dvi
Colasante 5
11-07-2007, 17:15
Giornata ricca di novità per i drivers, quella di oggi...
Sono usciti i 162.22 beta... :cool:
RELEASE NOTES: http://it.download.nvidia.com/Windows/162.22/162.22_WinVista_Forceware_Release_Notes.pdf
VISTA 32bit:
http://www.nvidia.it/object/winvista_x86_162.22_it.html
VISTA 64bit:
http://www.nvidia.it/object/winvista_x64_162.22_it.html
...ed anche i 163.11, sempre beta, appositi per le GeForce serie 8:
RELEASE NOTES: http://it.download.nvidia.com/Windows/163.11/163.11_WinVista_Forceware_Release_Notes.pdf
VISTA 32bit:
http://www.nvidia.it/object/winvista_x86_163.11_it.html
VISTA 64bit:
http://www.nvidia.it/object/winvista_x64_163.11_it.html
Provo a mettere su questi ultimi... ;)
appleroof
11-07-2007, 17:36
Giornata ricca di novità per i drivers, quella di oggi...
Sono usciti i 162.22 beta... :cool:
RELEASE NOTES: http://it.download.nvidia.com/Windows/162.22/162.22_WinVista_Forceware_Release_Notes.pdf
VISTA 32bit:
http://www.nvidia.it/object/winvista_x86_162.22_it.html
VISTA 64bit:
http://www.nvidia.it/object/winvista_x64_162.22_it.html
...ed anche i 163.11, sempre beta, appositi per le GeForce serie 8:
RELEASE NOTES: http://it.download.nvidia.com/Windows/163.11/163.11_WinVista_Forceware_Release_Notes.pdf
VISTA 32bit:
http://www.nvidia.it/object/winvista_x86_163.11_it.html
VISTA 64bit:
http://www.nvidia.it/object/winvista_x64_163.11_it.html
Provo a mettere su questi ultimi... ;)
Ottimo! Hai Vista64? io li proverei ma è inutile: in questo periodo gioco zero perchè sto ad un giga (kit ram in rma :rolleyes: ) e a cpu default in attesa di ristabilire le cose....:muro:
Colasante 5
11-07-2007, 17:37
Ottimo! Hai Vista64? io li proverei ma è inutile: in questo periodo gioco zero perchè sto ad un giga (kit ram in rma :rolleyes: ) e a cpu default in attesa di ristabilire le cose....:muro:
No, ho Vista32... ;)
appleroof
11-07-2007, 17:41
No, ho Vista32... ;)
e vabbè, aspetterò qualcun altro, cmq se vuoi posta le tue impressioni che potrebbero essere utili ad altri :)
;)
Skullcrusher
11-07-2007, 17:46
Se riesco dopo installo i 163.11 su Vista 64bit e li provo ;)
appleroof
11-07-2007, 17:49
Se riesco dopo installo i 163.11 su Vista 64bit e li provo ;)
grande! ;)
DarkNiko
11-07-2007, 20:20
Installati i 162.22 beta sotto Vista64. Lost Planet registra un ottimo framerate.
60 fps fissi ovunque, vsync on, 1280*1024, tutto al massimo, a parte la qualità delle ombre su medio, però ho AA 8x, Aniso 8x !!!!!
Prima a parità di settaggi oscillavo tra i 53 ed i 60, quindi confermo che vi è un sensibile incremento di prestazioni (senza vsync mi arriva a 75 con picchi di 85 fps !!). :D
I 163.11 sotto Windows Vista 32 non mi funzionano...
Ciao;)
appleroof
11-07-2007, 21:46
Installati i 162.22 beta sotto Vista64. Lost Planet registra un ottimo framerate.
60 fps fissi ovunque, vsync on, 1280*1024, tutto al massimo, a parte la qualità delle ombre su medio, però ho AA 8x, Aniso 8x !!!!!
Prima a parità di settaggi oscillavo tra i 53 ed i 60, quindi confermo che vi è un sensibile incremento di prestazioni (senza vsync mi arriva a 75 con picchi di 85 fps !!). :D
Ottimo, veramente ottimo.... ;)
Ottimo, veramente ottimo.... ;)
porca boiaaaaaaaa ottimo si!!!!!:eek: :eek:
@darknico:ma in dx10?! se metti ombre su alto quanto fai?? anke l'hdr è su alto(64bit) no??
The_max_80
11-07-2007, 22:31
ma per vista 32 quali sono i migliori driver sulla piazza?
Skullcrusher
12-07-2007, 07:30
Provati i 163.11 su Vista 64bit. Sensibile miglioramento in Lost Planet, in Colin Dirt mi pare non sia cambiato nulla, andava bene già con la rpecedente relase.
Sono il solo che ha notato un leggero peggioramento?????
Sinceramente non provati con LostPlanet, ma CSS realizza meno fps dei driver whql.
Disinstallati, rimango con gli ufficiali per il momento.
Skullcrusher
12-07-2007, 08:51
Sono il solo che ha notato un leggero peggioramento?????
Sinceramente non provati con LostPlanet, ma CSS realizza meno fps dei driver whql.
Disinstallati, rimango con gli ufficiali per il momento.
Io ho provato Colin Dirt, Lost Planet e Battlefield 2, tutti e tre vanno bene :sisi:
Magari hanno qualche ottimizzazione che non va d'accordo con Css
Installati i 162.22 beta sotto Vista64. Lost Planet registra un ottimo framerate.
60 fps fissi ovunque, vsync on, 1280*1024, tutto al massimo, a parte la qualità delle ombre su medio, però ho AA 8x, Aniso 8x !!!!!
Prima a parità di settaggi oscillavo tra i 53 ed i 60, quindi confermo che vi è un sensibile incremento di prestazioni (senza vsync mi arriva a 75 con picchi di 85 fps !!). :D
ma a lost planet dx10?
ma a lost planet dx10?
LP in path DX10 se non si abilitano le ombre al max ma a medio,ha un frame rate pauroso,io ci gioco a 1600x1200 AF 16x no AA tutto al MAX a parte le su citate ombre.Attivandole il frame rate si dimezza pur rimanendo assolutamente nella soglia della fluidita' minima.
Cmq il gioco finale gira decisamente meglio che la demo.
P.S.
La differenza di ombre tra medio e max è che a medio sono ombre normali,al max sono soft shadows.
LP in path DX10 se non si abilitano le ombre al max ma a medio,ha un frame rate pauroso,io ci gioco a 1600x1200 AF 16x no AA tutto al MAX a parte le su citate ombre.Attivandole il frame rate si dimezza pur rimanendo assolutamente nella soglia della fluidita' minima.
Cmq il gioco finale gira decisamente meglio che la demo.
P.S.
La differenza di ombre tra medio e max è che a medio sono ombre normali,al max sono soft shadows.
MA x frame pauroso intendi ottimo o pessimo?
come mai con vista ultimate 64 mi blocca l'avvio automatico di oc e ventola di rivaturner e devo ogni volta sbloccarlo?
DarkNiko
12-07-2007, 12:42
ma a lost planet dx10?
Ovvio, in DX10 e sotto Vista 64 Bit (Ultimate).
Provati i 163.11 su Vista 64bit. Sensibile miglioramento in Lost Planet, in Colin Dirt mi pare non sia cambiato nulla, andava bene già con la rpecedente relase.
idem
Ovvio, in DX10 e sotto Vista 64 Bit (Ultimate).
con le soft shadows quanti fps fai?
ma sono meglio i 163.11 o i 162.22?
Skullcrusher
12-07-2007, 14:56
ma sono meglio i 163.11 o i 162.22?
Io ho provato direttamente i 163.11, non ho ancora sentito pareri da chi ha provato i 162.22 :stordita:
appleroof
12-07-2007, 15:58
Bene bene ragazzi, tutto questo mi fà mooooolto piacere, speriamo siano beneauguranti per Crysis ;)
Bene bene ragazzi, tutto questo mi fà mooooolto piacere, speriamo siano beneauguranti per Crysis ;)
se ne hanno fatto una versione dx9....mi sà che i requisiti per dx10 saranno altini
:)
http://www.tomshw.it/news.php?newsid=10738
appleroof
12-07-2007, 17:25
se ne hanno fatto una versione dx9....mi sà che i requisiti per dx10 saranno altini
:)
http://www.tomshw.it/news.php?newsid=10738
si che c'è dx9, anzi è nato dx9 :D
per la versione dx10, da un lato c'è chi sostiene giustamente che questa può essere stata testata solo su hw esistente (quindi la 8800gtx, che ancora è il top tra le vga dx10, dovrebbe andare bene), dall'altro c'è chi sostiene che è ovvio che i primi giochi dx10 andranno non benissimo sulle prime vga dx10, secondo tradizione...
Io penso che la 8800gtx lo farà girare bene ad impostazioni alte almeno a 1280x1024, poi se và ancora meglio ok, vedremo :)
Io penso che la 8800gtx lo farà girare bene ad impostazioni alte almeno a 1280x1024, poi se và ancora meglio ok, vedremo :)
e se andrà così, tu che farai? ne butti dentro un'altra in SLi?
Skullcrusher
12-07-2007, 18:53
e se andrà così, tu che farai? ne butti dentro un'altra in SLi?
No, si vende la GTX e si passa al modello successivo 8900 o G90 :D
appleroof
12-07-2007, 19:20
e se andrà così, tu che farai? ne butti dentro un'altra in SLi?
no, ci gioco a 1280x1024 (con le bande nere zero decadimento dell'immagine :) ), ora e fino a fine anno credo che la mia priorità sarà cambiare il resto del sistema, ma le cose possono anche cambiare....come suggerito da skull...:D
No, si vende la GTX e si passa al modello successivo 8900 o G90 :D
touchè :O
no, ci gioco a 1280x1024 (con le bande nere zero decadimento dell'immagine :) ), ora e fino a fine anno credo che la mia priorità sarà cambiare il resto del sistema, ma le cose possono anche cambiare....come suggerito da skull...:D
fai bene (anche se preferirei una risoluzione wide :p) :)
No, si vende la GTX e si passa al modello successivo 8900 o G90 :D
esatto
appleroof
12-07-2007, 20:30
fai bene (anche se preferirei una risoluzione wide :p) :)
e vabbè, scegliero 1360x768 :D , se poi viaggia bene a 1920x1200 non è che mi dispero eh? :sofico:
;)
Dalle ultime voci giunte da Crysis online,pur non essendo nulla di ufficiale (ma molto vicino agli sviluppatori date le varie prove ed interviste) si dice che una GTX sara' ampiamente sufficiente per la Ultra High,accoppiato ad una CPU DC (ovviamente al momento meglio Intel) e i classici 2 GB di ram....tra 3-4 settimane al massimo sapremo se è vero o no,io credo proprio di si ;) sino a 1600x1200 con AF 16x e niente AA per me si avranno frame rate ben superiori ai 40FPS di media,vedremo.
MA x frame pauroso intendi ottimo o pessimo?
La prima ovviamente,mi sembrava evidente :D
Dalle ultime voci giunte da Crysis online,pur non essendo nulla di ufficiale (ma molto vicino agli sviluppatori date le varie prove ed interviste) si dice che una GTX sara' ampiamente sufficiente per la Ultra High,accoppiato ad una CPU DC (ovviamente al momento meglio Intel) e i classici 2 GB di ram....tra 3-4 settimane al massimo sapremo se è vero o no,io credo proprio di si ;) sino a 1600x1200 con AF 16x e niente AA per me si avranno frame rate ben superiori ai 40FPS di media,vedremo.
guarda se hai ragione ti pago da bere!:cincin: ma in dx10 dici vero??
DarkNiko
13-07-2007, 07:24
con le soft shadows quanti fps fai?
30-35 massimo. Le soft shadows appesantiscono inutilmente il gioco secondo me. Preferisco settare le ombre su medium così almeno il gioco lo vedo fluidissimo e soprattutto l'immagine rimane pur sempre di ottima qualità. :D
30-35 massimo. Le soft shadows appesantiscono inutilmente il gioco secondo me. Preferisco settare le ombre su medium così almeno il gioco lo vedo fluidissimo e soprattutto l'immagine rimane pur sempre di ottima qualità. :D
no va be di una pesantezza assurda.....e credo che la differenza non si noti poi cosi tanto
Skullcrusher
13-07-2007, 07:45
no va be di una pesantezza assurda.....e credo che la differenza non si noti poi cosi tanto
Non si nota... ;)
tanto per info da delle interviste dei crytek all E3 crysis su schede top farebbe i 50-60 fps costanti in dx10 anke se ancora in fase di ottimizzazione. cioe...8800gtx rulezzzzzzzzz:yeah:
http://www.actiontrip.com/features/e32007crysis.html
Skullcrusher
13-07-2007, 08:32
tanto per info da delle interviste dei crytek all E3 crysis su schede top farebbe i 50-60 fps costanti in dx10 anke se ancora in fase di ottimizzazione. cioe...8800gtx rulezzzzzzzzz:yeah:
http://www.actiontrip.com/features/e32007crysis.html
:eek:
Finchè non lo vedo girare così sul mio pc non ci credo :eek:
:eek:
Finchè non lo vedo girare così sul mio pc non ci credo :eek:
:D gia ma stasera avremo magari le prime conferme dalla conferenza all'e3
sapete come mai vista 64 mi blocca l'avvio automatico di oc e ventola di rivaturner e devo ogni volta sbloccarlo? help
tanto per info da delle interviste dei crytek all E3 crysis su schede top farebbe i 50-60 fps costanti in dx10 anke se ancora in fase di ottimizzazione. cioe...8800gtx rulezzzzzzzzz:yeah:
http://www.actiontrip.com/features/e32007crysis.html
Onestamente non avevo il minimo dubbio,quando dicevo di non fidarsi dei motori "pezzati" DX9 a DX10 molti (non in questo topic) mi davano del pazzo,adesso voglio vedere cosa dicono :cool:
Skullcrusher
13-07-2007, 09:23
sapete come mai vista 64 mi blocca l'avvio automatico di oc e ventola di rivaturner e devo ogni volta sbloccarlo? help
Sei admin del sistema? Io sono admin, e a parte lo sblocco quando lo si installa, poi funziona regolamente senza problemi come in Xp. Parlo di Vista 64bit Ultimate.
Sei admin del sistema? Io sono admin, e a parte lo sblocco quando lo si installa, poi funziona regolamente senza problemi come in Xp. Parlo di Vista 64bit Ultimate.
anke io ho vista 64 ultimate. non sono admin, come si fa?
Skullcrusher
13-07-2007, 09:28
anke io ho vista 64 ultimate. non sono admin, come si fa?
Basta disattivare l'UAC: vai in pannello di controllo -> account utente -> disattiva controllo account utente. Disattivalo e non dovresti più aver problemi.
DarkNiko
13-07-2007, 09:34
Basta disattivare l'UAC: vai in pannello di controllo -> account utente -> disattiva controllo account utente. Disattivalo e non dovresti più aver problemi.
Hai PVT !!!! :D
ma sono meglio i 163.11 o i 162.22?
Guarda, io li ho provati entrambi e devo dire che a mio parere, vanno meglio i 162.22....
Non ho riscontrato calo di framerate, mentre con i 163.11 si su alcuni giochi...
Poi a WiC io non gioco...:D
bello stò video di crysis dall e3 :)
http://www.clubic.com/actualite-76670-e3-niveau-inedit-crysis-video-exclue.html
illidan2000
13-07-2007, 20:08
ragazzuoli...
ho appena preso un monitoricchio 22" wide (tale asus mw221u) e ho notato ora dei rallentamenti su C&C3 sparato al massimo....
penso sia normale...
ora vedo che fps ho con il solito fraps
Kharonte85
13-07-2007, 21:41
CUDA 1.0 libera la forza delle GPGPU Nvidia
I programmatori possono sbloccare la potenza di calcolo delle proprie schede grafiche Nvidia con il nuovo SDK rilasciato dall'azienda. Il Compute Unified Device Architecture (CUDA) toolkit 1.0 di Nvidia permette ai programmatori di utilizzare un linguaggio simile a quello C con il quale adibire la scheda grafica a calcoli non prettamente grafici. La nuova versione dell'SDK è disponibile per Windows e diverse distribuzioni Linux.
http://www.tomshw.it/articles/20070713/cuda-example-1_c.jpg
CUDA fa uso di un driver runtime che interagisce con i driver OpenGL e DirectX di Nvidia. L'azienda promette che il toolkit aiuterà i programmatori a comunicare al meglio con il chip grafico, per permettergli d'interagire i diversi campi: il primo esempio che ci sovviene è Folding@Home, un progetto di calcolo distribuito dove la potenza bruta della scheda video ha un forte impatto. Ricordiamo a tal proposito che per questo progetto è utilizzabile anche la CPU Cell della Playstatation 3 con risultati entusiasmanti.
Nvidia spera che CUDA possa aprirle la strada verso applicazioni che includono la simulazione di una rete neurale o di processo dell'immagine.
http://www.tomshw.it/news.php?newsid=10768
scusate avete visto il pannello di controllo dei nuovi 163.11?? c'è una voce hdr lighting...ma a ke serve?? negli altri non c'era:confused:
scusate avete visto il pannello di controllo dei nuovi 163.11?? c'è una voce hdr lighting...ma a ke serve?? negli altri non c'era:confused:
Dalla breve spiegazione nel pannello sembra che voglia dire che abikita' l'HDR in qualsiasi applicazione 3D :D io ci credo poco...devo provare.Piu verosimile il fatto che abiliti l'HDR quando richiesto.
Dalla breve spiegazione nel pannello sembra che voglia dire che abikita' l'HDR in qualsiasi applicazione 3D :D io ci credo poco...devo provare.Piu verosimile il fatto che abiliti l'HDR quando richiesto.
il mio è attivato...in x3 xo non mi sembra ci sia....
Dalla breve spiegazione nel pannello sembra che voglia dire che abikita' l'HDR in qualsiasi applicazione 3D :D io ci credo poco...devo provare.Piu verosimile il fatto che abiliti l'HDR quando richiesto.
lo abilita solo nei giochi dove è supportato :)
bello stò video di crysis dall e3 :)
http://www.clubic.com/actualite-76670-e3-niveau-inedit-crysis-video-exclue.html
Mamma mia !!!
Bellissimo...questo è da considerare un vero e proprio salto generazionale!!:)
lo abilita solo nei giochi dove è supportato :)
ah grazie ma allora non cambia una bega da prima!! solo ke ora lo puoi escludere via driver
come mai se gioco a lost planet dx10 non trovo la risoluzione 1280x1024? ma solo la 1280x960? mentre in dx9 c'è
damolition
16-07-2007, 10:56
Scusate ma il mio opteron 185 sfrutterebbe a pieno la 8800 GTX???
Diciamo ke non è il massimo
illidan2000
16-07-2007, 11:11
ragazzuoli...
ho appena preso un monitoricchio 22" wide (tale asus mw221u) e ho notato ora dei rallentamenti su C&C3 sparato al massimo....
penso sia normale...
ora vedo che fps ho con il solito fraps
up
:muro: dimmi pure che sono un "pollo" ma prima di "bruciare" oltre 1000 euro, meglio chiedere....:help:
su ogni singola 8800GTX (tutte penso) ci sono
2 connessioni SLI affiancate.
Ora, io le devo mettere due schede in SLI e il ponticello è uno solo.:confused:
quale fra le due due sono le connessioni da utilizzare?
quella verso la ventola o l'altra verso lo schienale?
Per l'alimentazione stessa cosa: :mbe:
2 connessioni 12V a 6 pin affiancatequindi avendo 2 schede , sono 4.
L'alimentatore Termaltake nuovo di palla da 750 W ha solo due cavi PCI-E 1 e 2.....da 6 pin.
Come cavolo faccio a connettere tutti e 4 i contatti? servono ? non ne basta 1 ?
ho bisogno di una risposta urgente, garzie.
Ciao, axeweb.
TT ARMOR 8000 alu + Mb.ASUS STRIKER EXTREME + Cpu INTEL CORE 2 DUO 6600 O.C. (3.6 GHz)+ 4Gb DDR2 800 + Gpu 2xSparkle 8800GTX in SLI + HDD 2x SeagateBarracuda 500 Gb + 2x Monitor Fujitsu 22" 16:9 ecc.
:muro: dimmi pure che sono un "pollo" ma prima di "bruciare" oltre 1000 euro, meglio chiedere....:help:
su ogni singola 8800GTX (tutte penso) ci sono
2 connessioni SLI affiancate.
Ora, io le devo mettere due schede in SLI e il ponticello è uno solo.:confused:
quale fra le due due sono le connessioni da utilizzare?
quella verso la ventola o l'altra verso lo schienale?
Per l'alimentazione stessa cosa: :mbe:
2 connessioni 12V a 6 pin affiancatequindi avendo 2 schede , sono 4.
L'alimentatore Termaltake nuovo di palla da 750 W ha solo due cavi PCI-E 1 e 2.....da 6 pin.
Come cavolo faccio a connettere tutti e 4 i contatti? servono ? non ne basta 1 ?
ho bisogno di una risposta urgente, garzie.
Ciao, axeweb.
TT ARMOR 8000 alu + Mb.ASUS STRIKER EXTREME + Cpu INTEL CORE 2 DUO 6600 O.C. (3.6 GHz)+ 4Gb DDR2 800 + Gpu 2xSparkle 8800GTX in SLI + HDD 2x SeagateBarracuda 500 Gb + 2x Monitor Fujitsu 22" 16:9 ecc.
1) è indifferente quale utilizzare, il doppio ponticello servira in futuro x la gpgpu.
2) usa uno sdoppiatore no??;) dovrebbero essere nella confezione
Grazie...quindi sono uguali? una o l'altra fa lo stesso?
e che sdoppiatore , pensa te che se hanno fatto "economia " di manuale (altrimenti non stavo qui a chiedere) figuriamoci se non hannno risparmiato lo sdoppiatore....ce se ci fosse stato lo avrei intuito anche,....nonostante il "pollo".
Ma ti pare che su 500 euro (+500) andavano a risparmiare anche quelli....
Bah, misteri!
Comunque se sei sicuro , io procedo.....brrrrrrrrrrrrrrrr!
ciao. axeweb
come mai se gioco a lost planet dx10 non trovo la risoluzione 1280x1024? ma solo la 1280x960? mentre in dx9 c'è
ho risolto comprando un nuovo monitor da 22", :D :D
Grazie...quindi sono uguali? una o l'altra fa lo stesso?
e che sdoppiatore , pensa te che se hanno fatto "economia " di manuale (altrimenti non stavo qui a chiedere) figuriamoci se non hannno risparmiato lo sdoppiatore....ce se ci fosse stato lo avrei intuito anche,....nonostante il "pollo".
Ma ti pare che su 500 euro (+500) andavano a risparmiare anche quelli....
Bah, misteri!
Comunque se sei sicuro , io procedo.....brrrrrrrrrrrrrrrr!
ciao. axeweb
si i ponticelli sono indifferendi...ecco magari non metterlo "a incrocio"(sopratt se il ponticello è rigido) :asd: no comunque bo nella mia della asus c'era tutto e anke di piu (porta cd in pelle). fatto sta che ti servono due sdoppiatori x collegare le vga all'ali
ho risolto comprando un nuovo monitor da 22", :D :D
azzo economica come soluzione! :asd:
azzo economica come soluzione! :asd:
xò è + bella, almeno passo da un 19" a un 22". :sofico:
xò è + bella, almeno passo da un 19" a un 22". :sofico:
ah be su questo nulla da dire;)
appleroof
16-07-2007, 17:39
ho risolto comprando un nuovo monitor da 22", :D :D
:D :D
ho risolto comprando un nuovo monitor da 22", :D :D
ottimo monitor quello che hai preso, io ho il fratellino da 19" ed è ottimo davvero :)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.