View Full Version : [THREAD UFFICIALE] Geforce 8800GTX
Ma dai... c'è chi la compra solo per dire di averla! Che male c'è ad usarla per provare la grafica dei giochi? :D
:D
Oh ciao Dex! :friend:
Ragazzi ho un problema.. uso i 97.02 e come sapete... per variare le frequenze e ottimizzare il tutto, bisogna usare per forza Ntune, e non più il Pannello Nvidia!
Ora, quando apro ntune, e clicco so "regola impostazioni scheda madre", mi si chiude il pannello! In più, non mi fa cambiare le frequenze della vga! Come mai?
cmq per la cronaca, fsx riesce a mettere in crisi anche le nostre 8800... incredibile...
Ciao!
Hai ragione, FSX è una piaga vera per quanto riguarda il frame.
Anche con un X6800 EE, se Ti posizioni su aeroporti come il
Kennedy, la situazione non è rosea.
Avevo giust'appunto proposto alla Redazione di effettuare i loro
tests mettendo in elenco (dei giochi testati) proprio anche FSX.
Ciao!
Hai ragione, FSX è una piaga vera per quanto riguarda il frame.
Anche con un X6800 EE, se Ti posizioni su aeroporti come il
Kennedy, la situazione non è rosea.
Avevo giust'appunto proposto alla Redazione di effettuare i loro
tests mettendo in elenco (dei giochi testati) proprio anche FSX.
Spero vivamente che lo sistemino per le DX10, perché così è veramente uno scandalo :eek:.
Ma è normale che CO2 tutto al max 1920x1200 AA16x etc mi vada a 20fps minimo (50 "crucchi" e fumo ed effetti vari) di media siamo sui 35...
athlon xp 2400
12-12-2006, 16:56
a quella ris e quei filtri si :)
Ho appena letto un articolo su DX 10.1 che dovrebbe uscire nel secondo trimestre del 2007, sembra che R600 lo supporta mentre le nostre G80 no... :eek:
ne sapete qualcosa ?
Ho appena letto un articolo su DX 10.1 che dovrebbe uscire nel secondo trimestre del 2007, sembra che R600 lo supporta mentre le nostre G80 no... :eek:
ne sapete qualcosa ?
ma figurati se non lo supporterà g80 e r600 a livello di caratteristiche sono molto simili solo come prestazioni delle unità e quantità differescono...
POTRESTI postare il link del articolo ?
appleroof
12-12-2006, 19:05
Ho appena letto un articolo su DX 10.1 che dovrebbe uscire nel secondo trimestre del 2007, sembra che R600 lo supporta mentre le nostre G80 no... :eek:
ne sapete qualcosa ?
potresti linkare questo scoop?? :mbe:
Scrambler77
12-12-2006, 19:17
Ho appena letto un articolo su DX 10.1 che dovrebbe uscire nel secondo trimestre del 2007, sembra che R600 lo supporta mentre le nostre G80 no... :eek:
ne sapete qualcosa ?
Se è vero mi metto in macchina e vengo a picchiarti!! :D
E se è vero e non cambiano strategia, mi metto in macchina e vado a picchiare il mio negoziante!! :muro:
Ho appena letto un articolo su DX 10.1 che dovrebbe uscire nel secondo trimestre del 2007, sembra che R600 lo supporta mentre le nostre G80 no... :eek:
ne sapete qualcosa ?
a me sembra una tavanata galattica sta notizia :rolleyes:
Scrambler77
12-12-2006, 19:21
Io ho trovato questo:
"A quanto pare la prima point release delle DirectX 10 non dovrebbe vedere la luce molto dopo le DirectX 10 stesse. Tuttavia i dispositivi hardware DirectX 10.1 capable difficilmente debutteranno sul mercato prima o durante il lancio della nuova iterazione della API, a causa dei requisiti addizionali necessari per supportare il driver model WDDM 2.1.
Miglioramenti rispetto a DirectX 10: DirectX 10.1 sarà un superset di DirectX 10, supporterà tutto ciò che viene supportato da DirectX 10 ma introdurrà miglioramenti in funzionalità e performance. Nella API si avrà un migliorato accesso alle risorse shader (che riguarda in particolare un migliore controllo nella rilettura dei campioni ottenuti dal anti-aliasing multi-sample) . In aggiunta a questo DirectX 10.1 consentirà di creare filtri di downsampling personalizzati. Anche il blending in virgola mobile sarà migliorato nelle funzionalità, in particolare quando usato con i render target, ora trattabili indipendentemente gli uni dagli altri, in virtù anche di nuovi formati dedicati con supporto per il blending. Ci saranno poi miglioramenti nelle capacità di shadow filtering, che porteranno auspicatamente a miglioramenti nella qualità delle immagini. Dal punto di vista delle performance ci saranno miglioramenti sui sistemi multi-core, una riduzione del numero delle chiamate alla API durante drawing e rendering di riflessione e rifrazione, e un migliorato cube mapping (con array indicizzabile).
Novità rispetto a DirectX 10: DirectX 10.1 introdurrà il filtering in virgola mobile a 32-bit (migliore qualità del rendering High Dynamic Range), incrementerà la precisione sull'intera pipeline di rendering, e offrirà alle applicazioni il controllo totale sull'anti-aliasing (anti-aliasing multi-sample e super-sample, e pixel coverage mask), che potrà essere usato in maniera più razionale ed efficiente, in supporto base 4x. Infine DirectX 10.1 introdurrà il driver model WDDM (Windows Driver Display Model) 2.1 che rispetto al WDDM 2.0 di DirectX 10 offrirà un paio di novità significative, destinate entrambe all'ottimizzazione delle performance su GPU DirectX 10.1 capable: migliorate capacità di context switching (ora eseguibile in maniera istantanea) e modifiche nella gestione dei "page faults" per GPU e driver (ora più veloce)."
Leggete la prima frase... :mbe:
Scrambler77
12-12-2006, 19:32
Seguitemi: il G80 è una GPGPU... A quanto si legge in giro, DX10.1 sarà DX10 con il supporto per la fisica.
Nvidia ha preannunciato la possibilità di allocare dinamicamente gli stream processors per calcoli impegnativi come la fisica... :hic:
Skullcrusher
12-12-2006, 19:52
Seguitemi: il G80 è una GPGPU... A quanto si legge in giro, DX10.1 sarà DX10 con il supporto per la fisica.
Nvidia ha preannunciato la possibilità di allocare dinamicamente gli stream processors per calcoli impegnativi come la fisica... :hic:
Esatto, dovrebbe essere proprio così...o almeno si spera :stordita:
Io ho trovato questo:
"A quanto pare la prima point release delle DirectX 10 non dovrebbe vedere la luce molto dopo le DirectX 10 stesse. Tuttavia i dispositivi hardware DirectX 10.1 capable difficilmente debutteranno sul mercato prima o durante il lancio della nuova iterazione della API, a causa dei requisiti addizionali necessari per supportare il driver model WDDM 2.1.
Miglioramenti rispetto a DirectX 10: DirectX 10.1 sarà un superset di DirectX 10, supporterà tutto ciò che viene supportato da DirectX 10 ma introdurrà miglioramenti in funzionalità e performance. Nella API si avrà un migliorato accesso alle risorse shader (che riguarda in particolare un migliore controllo nella rilettura dei campioni ottenuti dal anti-aliasing multi-sample) . In aggiunta a questo DirectX 10.1 consentirà di creare filtri di downsampling personalizzati. Anche il blending in virgola mobile sarà migliorato nelle funzionalità, in particolare quando usato con i render target, ora trattabili indipendentemente gli uni dagli altri, in virtù anche di nuovi formati dedicati con supporto per il blending. Ci saranno poi miglioramenti nelle capacità di shadow filtering, che porteranno auspicatamente a miglioramenti nella qualità delle immagini. Dal punto di vista delle performance ci saranno miglioramenti sui sistemi multi-core, una riduzione del numero delle chiamate alla API durante drawing e rendering di riflessione e rifrazione, e un migliorato cube mapping (con array indicizzabile).
Novità rispetto a DirectX 10: DirectX 10.1 introdurrà il filtering in virgola mobile a 32-bit (migliore qualità del rendering High Dynamic Range), incrementerà la precisione sull'intera pipeline di rendering, e offrirà alle applicazioni il controllo totale sull'anti-aliasing (anti-aliasing multi-sample e super-sample, e pixel coverage mask), che potrà essere usato in maniera più razionale ed efficiente, in supporto base 4x. Infine DirectX 10.1 introdurrà il driver model WDDM (Windows Driver Display Model) 2.1 che rispetto al WDDM 2.0 di DirectX 10 offrirà un paio di novità significative, destinate entrambe all'ottimizzazione delle performance su GPU DirectX 10.1 capable: migliorate capacità di context switching (ora eseguibile in maniera istantanea) e modifiche nella gestione dei "page faults" per GPU e driver (ora più veloce)."
Leggete la prima frase... :mbe:
vi allego il link per R600 e DX10.1 nell'articolo stesso c'è un link a elitebastards
e sembra che il presupposto per 10.1 sia un'architettura hw diversa...
poi se cercate in google si trovano altri articoli su R600...non è che mi sia piaciuta nemmeno a me la notizia visto che ho una evga 8800gtx da poche settimane e pagata molto :) se fosse vero mi picchio da solo :D
http://www.nordichardware.com/news,5147.html
Skullcrusher
12-12-2006, 20:08
Direi che sarebbe una presa in giro....io credo non sarà così, altrimenti mi incavolo di brutto ( e non sarei certo il solo... )
davide155
12-12-2006, 20:17
Macchè.......ma non è vero nulla.......
Sono i soliti rumors prima di un attesissima vga come l'r600.
Si risolverà tutto in una bolla di sapone ;)
Cmq se fosse vero avrebbero inculato tutti coloro che possiedono una nvidia g80 :sofico:
ragazzi l'r600 sara' l'apoteosi
Scrambler77
12-12-2006, 20:22
vi allego il link per R600 e DX10.1 nell'articolo stesso c'è un link a elitebastards
e sembra che il presupposto per 10.1 sia un'architettura hw diversa...
poi se cercate in google si trovano altri articoli su R600...non è che mi sia piaciuta nemmeno a me la notizia visto che ho una evga 8800gtx da poche settimane e pagata molto :) se fosse vero mi picchio da solo :D
http://www.nordichardware.com/news,5147.html
Mmmmh.... Non ci credo molto. Non è espressamente specificato che G80 NON supporterà DX10.1...
Vero è che DX10.1 non è ancora uscito
Vero è che le schede non aderiranno allo standard DX10.1 prima dell'uscita di DX10.1
Vero è che R600 uscirà nel PRIMO trimestre 2007
Vero è che DX10.1 uscirà nel tardo 2007
Falso è che è stato accertato che R600 sarà compatibile DX10.1
Falso è che è stato accertato che G80 NON sarà compatibile DX10.1
Alla fine, penso che si tratti solo di una questione software, perchè della stessa scheda sono stati rilasciati drivers WDDM1.0 e WDDM2.0... Alias penso che usciranno drivers WDDM2.1 anche per G80, così come per R600 (quando sarà il momento)...
Altrimenti mi incazzo sul serio! :D
appleroof
12-12-2006, 20:25
Macchè.......ma non è vero nulla.......
Sono i soliti rumors prima di un attesissima vga come l'r600.
Si risolverà tutto in una bolla di sapone ;)
Cmq se fosse vero avrebbero inculato tutti coloro che possiedono una nvidia g80 :sofico:
noto una "leggera" goduria in quest'ultima frase.... :rolleyes:
certo che venire nel tread ufficiale della 8800gtx con una frase del genere, roba da trovarti 3000 possessori di G80 sotto casa :asd:
cmq sarebbe davvero una beffa colossale: secondo me sono bufale, se a 2 mesi dalle dx10 escono dx10.1 che non vanno con le prime (ma i giochi con 10.1 quando verrebbero fuori? Nel 2009?? Oppure non uscirà nemmeno 1 gioco in dx10.... :eek: :D ) passo davvero alla console stavolta e bona!! E poi che fanno? le dx10.2 dopo altri tre mesi e tutti a buttare R600 per G90 e R700... :rolleyes:
Scrambler77
12-12-2006, 20:34
ragazzi l'r600 sara' l'apoteosi
Io non la vedo così avveneristica, apparte l'uso delle GDDR4...
Alla fine ha più banda passante ma meno stream processors (64 pix/vertx shaders contro 128 stream-processors)...
davide155
12-12-2006, 20:36
noto una "leggera" goduria in quest'ultima frase.... :rolleyes:
certo che venire nel tread ufficiale della 8800gtx con una frase del genere, roba da trovarti 3000 possessori di G80 sotto casa :asd:
cmq sarebbe davvero una beffa colossale: secondo me sono bufale, se a 2 mesi dalle dx10 escono dx10.1 che non vanno con le prime (ma i giochi con 10.1 quando verrebbero fuori? Nel 2009?? Oppure non uscirà nemmeno 1 gioco in dx10.... :eek: :D ) passo davvero alla console stavolta e bona!! E poi che fanno? le dx10.2 dopo altri tre mesi e tutti a buttare R600 per G90 e R700... :rolleyes:
Per me può venire pure lo chef tony sotto casa :D non me ne importerebbe nulla.
Fatto sta chese fosse vero si confermano tutte le teorie che sostenevo.
Ovvero di non comprare mai un hardware, così immaturo come le vga dx10, appena uscito.
Non voglio fare lo stronzo, però un pò ve la siete cercata (ammesso e concesso che sia tutto vero), perchè avete avuto un pò troppa gola.
Non ditemi che era necessaria, perchè c'è gente che è passato da una x1950xtx ad un g80, nonostante il mercato giochi pc sia completamente in stallo. Si, padronissimo di farlo, però non mi venga a piangere se adesso hanno cambiato le carte in tavola.
Cmq prima di impazzire aspettiamo l'uscita di r600 e guardiamo. Perchè per ora sono solo parole campate in aria ;)
appleroof
12-12-2006, 20:42
Io non la vedo così avveneristica, apparte l'uso delle GDDR4...
Alla fine ha più banda passante ma meno stream processors (64 pix/vertx shaders contro 128 stream-processors)...
però di tipo "nuovo" capace cioè di effettuare 4 operazioni rispetto ad 1 degli shader della 8800 per un risultato effettivo di 256 shader
Scrambler77
12-12-2006, 20:43
Per me può venire pure lo chef tony sotto casa :D non me ne importerebbe nulla.
Fatto sta chese fosse vero si confermano tutte le teorie che sostenevo.
Ovvero di non comprare mai un hardware, così immaturo come le vga dx10, appena uscito.
Non voglio fare lo stronzo, però un pò ve la siete cercata (ammesso e concesso che sia tutto vero), perchè avete avuto un pò troppa gola.
Non ditemi che era necessaria, perchè c'è gente che è passato da una x1950xtx ad un g80, nonostante il mercato giochi pc sia completamente in stallo. Si, padronissimo di farlo, però non mi venga a piangere se adesso hanno cambiato le carte in tavola.
Cmq prima di impazzire aspettiamo l'uscita di r600 e guardiamo. Perchè per ora sono solo parole campate in aria ;)
Può essere lo stesso "piagnisteo" che hai fatto tu quando hai preso una x1900xt e 2 giorni dopo è uscito G80... (con la x1900 che è calata del 50% di prezzo). :D
Ad aver cambiato le carte in tavola è stata nvidia... Il fatto che Microsoft decida di far uscire le DX10.1 a 2 mesi dalle DX10 è il motivo che fa incazzare la gente... Non di certo l'essere passati da una scheda DX9 (vedi X19xx) ad una DX10 (vedi G80)...
Scrambler77
12-12-2006, 20:45
però di tipo "nuovo" capace cioè di effettuare 4 operazioni rispetto ad 1 degli shader della 8800 per un risultato effettivo di 256 shader
E' da vedere se le 4 (teoriche) operazioni saranno vere o meno. Se poi all'atto pratico sono 2-3.... saremo lì.
Per me può venire pure lo chef tony sotto casa :D non me ne importerebbe nulla.
Fatto sta chese fosse vero si confermano tutte le teorie che sostenevo.
Ovvero di non comprare mai un hardware, così immaturo come le vga dx10, appena uscito.
Non voglio fare lo stronzo, però un pò ve la siete cercata (ammesso e concesso che sia tutto vero), perchè avete avuto un pò troppa gola.
Non ditemi che era necessaria, perchè c'è gente che è passato da una x1950xtx ad un g80, nonostante il mercato giochi pc sia completamente in stallo. Si, padronissimo di farlo, però non mi venga a piangere se adesso hanno cambiato le carte in tavola.
Cmq prima di impazzire aspettiamo l'uscita di r600 e guardiamo. Perchè per ora sono solo parole campate in aria ;)
ok calma, ;) non ho avuto nessuna intenzione di alimentare una discussione fra g80 e r600, ho semplicemente letto l'articolo e ho postato la domanda + per rassicurarmi che per alimentare le polemiche..già mi girano.. che i driver pe vista non si "vedono" ...che gli ultimi driver hanno peggiorato le prestazioni di giochi come oblivion...bè spero che sia una grossa c...ata sta notizia...
ciao
appleroof
12-12-2006, 21:30
E' da vedere se le 4 (teoriche) operazioni saranno vere o meno. Se poi all'atto pratico sono 2-3.... saremo lì.
certo è tutto da verificare ;)
x finire con la storia delle dx10.1, ripeto per me è una bufala che (a parte far godere gli "nvidiosi") sarebbe un suicidio commerciale:
ma vi immaginate se ad ogni aggiornamento delle dx uno deve cambiare vga? (comese tra dx9 dx9b e dx9c uno avrebbe dovuto prendere 3 vga :eek: )
Già Vista nasce con un sacco di beghe legate al TC, al fatto che le stesse dx10 non sono retrocompatibili che ti obbliga a prendere il nuovo OS al DRM e compagnia bella, se ci aggiungono anche questa è boicottaggio vero...
certo è tutto da verificare ;)
x finire con la storia delle dx10.1, ripeto per me è una bufala che (a parte far godere gli "nvidiosi") sarebbe un suicidio commerciale:
ma vi immaginate se ad ogni aggiornamento delle dx uno deve cambiare vga? (comese tra dx9 dx9b e dx9c uno avrebbe dovuto prendere 3 vga :eek: )
D'accordissimo con te, e sebbene sia anche io in trepidante attesa per vedere di cosa sia capace la nuova nata di casa ATI sti rumors lasciano il tempo che trovano :boh:.
Se davvero le dx 10.1 non saranno compatibili con g80, Nvidia dovrebbe come minimo offrire uno sconto a noi possessori di 8800 per l'acquisto di una scheda alternativa che supporti le 10.1, poi dovrebbe incazzarsi a morte con microsoft, e infine dovrebbe chiedere scusa a noi poveri appassionati di hardware, che abbiamo speso 600€ per una scheda già inutilizzabile dopo neanche un anno.
Penso sia cmq prematuro fasciarsi la testa, anzi... continuiamo a goderci questa scheda, perchè tanto tra un anno, quando e se usciranno ste 10.1 so già che l'80% di noi venderà la 8800 per una scheda che supporti ste 10.1 :D
Se davvero le dx 10.1 non saranno compatibili con g80, Nvidia dovrebbe come minimo offrire uno sconto a noi possessori di 8800 per l'acquisto di una scheda alternativa che supporti le 10.1, poi dovrebbe incazzarsi a morte con microsoft, e infine dovrebbe chiedere scusa a noi poveri appassionati di hardware, che abbiamo speso 600€ per una scheda già inutilizzabile dopo neanche un anno.
Penso sia cmq prematuro fasciarsi la testa, anzi... continuiamo a goderci questa scheda, perchè tanto tra un anno, quando e se usciranno ste 10.1 so già che l'80% di noi venderà la 8800 per una scheda che supporti ste 10.1 :D
Ma infatti, tranquilli e godetevi sto mostro voi che l'avete. Non penso nvidia sia capace di un autogol commerciale e d'immagine come questo ;).
Chipster21
12-12-2006, 21:46
Se davvero le dx 10.1 non saranno compatibili con g80, Nvidia dovrebbe come minimo offrire uno sconto a noi possessori di 8800 per l'acquisto di una scheda alternativa che supporti le 10.1, poi dovrebbe incazzarsi a morte con microsoft, e infine dovrebbe chiedere scusa a noi poveri appassionati di hardware, che abbiamo speso 600€ per una scheda già inutilizzabile dopo neanche un anno.
Penso sia cmq prematuro fasciarsi la testa, anzi... continuiamo a goderci questa scheda, perchè tanto tra un anno, quando e se usciranno ste 10.1 so già che l'80% di noi venderà la 8800 per una scheda che supporti ste 10.1 :D
Quoto
appleroof
12-12-2006, 21:54
Certo, e poi immagino che nvidia e ati (per parlare del bipolio attuale) hanno avuto le specifiche dx10 da almeno qualche anno (lo sviluppo di G80 mi pare sia partito a fine 2003) e hanno sviluppato i nuovi chip in collaborazione con microsoft:
e questo per la unica ragione che conviene a tutti operare così...
non per nulla all'Nvidia hanno sviato tutti con la storia di non credere agli shader unificati fino ad un mese da G80 e poi ecco la sorpresa, cosa che tra l'altro và di pari passo con lo sviluppo delle nuove librerie che (ormai è chiaro) richiedono un hw del genere per poter essere sfruttate appieno
Dylan BJ
12-12-2006, 22:12
secondo me le dx10.1 sono tipo le dx9.0b... nel senso una semplice ottimizzazione di programmazione puramente software quindi.... con retrocompatibilita' x tutte le skede dx10 :p
Ho appena letto un articolo su DX 10.1 che dovrebbe uscire nel secondo trimestre del 2007, sembra che R600 lo supporta mentre le nostre G80 no... :eek:
ne sapete qualcosa ?
se mi fanno questo sgarro vado da nvidia e microsoft e inculo tutti i dipendenti con pasta abrasiva al posto della vasellina
se mi fanno questo sgarro vado da nvidia e microsoft e inculo tutti i dipendenti con pasta abrasiva al posto della vasellina
:rotfl:
raga,manco da un pò,mi spiegate sta storia delle dx10.1 e dell'ipotetica incompatibilità con nvidia?
secondo me le dx10.1 sono tipo le dx9.0b... nel senso una semplice ottimizzazione di programmazione puramente software quindi.... con retrocompatibilita' x tutte le skede dx10 :p
Ma veramente sono l'unico a ricordare che le schede ati precedenti la serie x1000 erano compatibili con le dx 9.0b e non con le 9.0c ???
Io ritengo molto semplice che accada la stessa cosa,ma sinceramente peggio per loro,siamo gli entusiasth (sempre che l'ho scritto bene) e non ci lamentiamo,altrimenti ci saremmo comprati schede un po' più economiche e non il giorno dopo uscite.
Quindi non ci lamentiamo,tanto siamo noi che decidiamo di fare i beta tester,perchè chi vuole essere sicuro e non vuole fare il beta tester aspetta buono buono che passino un po' di mesi e poi compra un prodotto innovativo!
Tutto ciò ovviamente a mio avviso,però,........... :rolleyes:
davide155
12-12-2006, 22:21
Può essere lo stesso "piagnisteo" che hai fatto tu quando hai preso una x1900xt e 2 giorni dopo è uscito G80... (con la x1900 che è calata del 50% di prezzo). :D
Ti ricordi di quando ho cambiato vga? :D Che mi segui? :D :D
Bè adesso.....50% in meno no.
Diciamo che il prezzo si è abbassato sensibilmente, ma non del 50% :O
Io l'ho pagata 245€......e a quanto dici tu dopo l'uscita di g80 doveva stare a 122€? :rotfl:
Kharonte85
12-12-2006, 22:25
se mi fanno questo sgarro vado da nvidia e microsoft e inculo tutti i dipendenti con pasta abrasiva al posto della vasellina
:asd:
Questa storia di dx10.1 mi sa proprio di caxxata galattica...http://www.mmorpgitalia.it/forum/images/smilies/asd2.gif
piperprinx
12-12-2006, 22:46
Pe quando ci saranno le DX10.1 i tre quarti di questo 3d avra' gia' cambiato scheda...;)
chi sa darmi fonti riguardo il rallentamento di Oblivion con i nuovi driver?
se in questi giorni sentite gridare...........sono loro.....
Grave Digger
12-12-2006, 23:38
se mi fanno questo sgarro vado da nvidia e microsoft e inculo tutti i dipendenti con pasta abrasiva al posto della vasellina
di che genere di esperimenti ti occupi solitamente????
:D
Se davvero le dx 10.1 non saranno compatibili con g80, Nvidia dovrebbe come minimo offrire uno sconto a noi possessori di 8800 per l'acquisto di una scheda alternativa che supporti le 10.1, poi dovrebbe incazzarsi a morte con microsoft, e infine dovrebbe chiedere scusa a noi poveri appassionati di hardware, che abbiamo speso 600€ per una scheda già inutilizzabile dopo neanche un anno.
Penso sia cmq prematuro fasciarsi la testa, anzi... continuiamo a goderci questa scheda, perchè tanto tra un anno, quando e se usciranno ste 10.1 so già che l'80% di noi venderà la 8800 per una scheda che supporti ste 10.1 :D
Se si chiamano Dx10.1 non saranno no compatibili con il G80 a meno che le modifiche relative all'evoluzione delle Directx10."0" non siano tali da rientrare nelle capacita' architetturali di questa gpu. Ma e' un problema che onestamente non mi farei. Anche ai tempi del Radeon 8500 si sapeva chiaramente che il supporto ad una versione migliore di Pixel Shaders poteva creare questo genere di panico in molti, ma alla fine non e' detto che gli sviluppatori si buttino tutti a capofitto su un qualcosa che magari non e' indispensabile implementare. Stessa cosa con lo Shader Model 3... alla fine dei conti e' stato sfruttato solo ultimamente e sono convinto che per molti giochi chi ancora aveva schede compatibili con la versione precedente, ha giocato degnamente magari non sfruttando alcune features di ultmia generazione ma godendo in ogni modo di una qualita' grafica eccelsa. ;)
le dx10.1 non saranno altro che una nuova realise della 10 con delle migliorie per sfruttare meglio l'architettura delle nuove gpu sia di nvidia che di ati..
infatti nell'articolo postato da Scrambler77 dice chiaramente che le dx10.1 sono una point realise della 10 quindi una versione della stessa realise... ;)
Grave Digger
13-12-2006, 09:58
le dx10.1 non saranno altro che una nuova release della 10 con delle migliorie per sfruttare meglio l'architettura delle nuove gpu sia di nvidia che di ati..
infatti nell'articolo postato da Scrambler77 dice chiaramente che le dx10.1 sono una point realise della 10 quindi una versione della stessa realise... ;)
esattamente,mi sembra sciocco da parte di ms e nvidia portare avanti una manovra simile danneggiando gli utenti che gli hanno cacciato 600 euro e passa nelle tasche ad occhi chiusi.....e non possono neanche fare orecchie da mercante,in quanto l'80% dei loro proventi provengono proprio dalla fascia enthusiast......
Scrambler77
13-12-2006, 10:08
Diciamo che il prezzo si è abbassato sensibilmente, ma non del 50% :O
Io l'ho pagata 245€......e a quanto dici tu dopo l'uscita di g80 doveva stare a 122€? :rotfl:
In effetti... 122 no..... ma 160 si!!! Se vuoi te ne compro una dal mio rivenditore di fiducia! :asd: :rotfl:
Qualcuno li consiglia questi driver "Xtreme G 97.44 Win XP-2K" ???
esattamente,mi sembra sciocco da parte di ms e nvidia portare avanti una manovra simile danneggiando gli utenti che gli hanno cacciato 600 euro e passa nelle tasche ad occhi chiusi.....e non possono neanche fare orecchie da mercante,in quanto l'80% dei loro proventi provengono proprio dalla fascia enthusiast......
si darebbero la zappa sui marroni a fare una mossa del genere..
^Memphis^
13-12-2006, 10:47
Salve, siccome sto per acquistare questa stupenda G80 :sbavvv: non so quale marca delle tante scegliere :doh: , sapete consigliarmi qualcosa a riguardo? ne ho trovata una della CHAINTEC, qualcuno ce 'lha? può dirmi come va? grazie! :D :D :D
di che genere di esperimenti ti occupi solitamente????
:Dtorture sessuali :D :D :D
torture sessuali :D :D :D
:ops:
Scrambler77
13-12-2006, 11:18
Salve, siccome sto per acquistare questa stupenda G80 :sbavvv: non so quale marca delle tante scegliere :doh: , sapete consigliarmi qualcosa a riguardo? ne ho trovata una della CHAINTEC, qualcuno ce 'lha? può dirmi come va? grazie! :D :D :D
Dicono che ASUS abbia il bundle migliore.. ma considera che sono tutte costruite da ASUS e poi rimarchiate (manco io lo sapevo!!), pertanto il bundle fa la differenza.
Io ho preso una Galaxy 8800gtx a 487€!! :D
:ops:
manca slivio in questo thread :D :D
Dylan BJ
13-12-2006, 11:20
le dx10.1 non saranno altro che una nuova realise della 10 con delle migliorie per sfruttare meglio l'architettura delle nuove gpu sia di nvidia che di ati..
infatti nell'articolo postato da Scrambler77 dice chiaramente che le dx10.1 sono una point realise della 10 quindi una versione della stessa realise... ;)
:mano:
Dicono che ASUS abbia il bundle migliore.. ma considera che sono tutte costruite da ASUS e poi rimarchiate (manco io lo sapevo!!), pertanto il bundle fa la differenza.
Io ho preso una Galaxy 8800gtx a 487€!! :D
in italia?
in italia?
:eek: mi associo..
Scrambler77
13-12-2006, 11:29
Sisi... in italy... :sofico:
Dicono che ASUS abbia il bundle migliore.. ma considera che sono tutte costruite da ASUS e poi rimarchiate (manco io lo sapevo!!), pertanto il bundle fa la differenza.
Io ho preso una Galaxy 8800gtx a 487€!! :D
:eek:
Io ho preso una Galaxy 8800gtx a 487€!! :D
Dove?
edit: ok, è rubata :D
Scrambler77
13-12-2006, 11:33
Dove?
edit: ok, è rubata :D
:asd: no non è rubata (se lo fosse stata sarebbe costata la metà!!)... anzi, me la consegnerà il corriere questo weekend con tanto di fattura... :p
edit: sono così in priscio che l'ho già messa in firma!! :fagiano:
Sisi... in italy... :sofico:
dammi il link in pvt sennò di sgozzo come un capretto :D :p
:asd: no non è rubata (se lo fosse stata sarebbe costata la metà!!)... anzi, me la consegnerà il corriere questo weekend con tanto di fattura... :p
IN KE NEGOZIO l'hai presa?
dammi il link in pvt sennò di sgozzo come un capretto :D :p
idem
dammi il link in pvt sennò di sgozzo come un capretto :D :p
ho in mano il coltello :sofico:
ptv please :D
avanti che siamo in tre :D
Scrambler77 ti conviene dircelo per il tuo bene :D
Scrambler77
13-12-2006, 11:41
Qualcuno di voi ha accesso ai listini per rivenditori?
Qualcuno di voi ha accesso ai listini per rivenditori?
IO non sono un rivenditore ma ho la partita iva
Scrambler77
13-12-2006, 11:44
IO non sono un rivenditore ma ho la partita iva
E iscr. camera di commercio in ambito informatico?
E iscr. camera di commercio in ambito informatico?
ehm no. xò devo usare x forza i computer x lavorare. uso programmi cad
E iscr. camera di commercio in ambito informatico?
con un pò di elasticità ci potrei rientrare :D
Scrambler77
13-12-2006, 11:52
Cmq il mio fornitore vende la Galaxy 8800gtx al pubblico a 540 + IVA. Non so se è un prezzo "ecclatante" ma se avete modo di scaricarvi l'iva è già un ottimo traguardo.
Con la giusta iscrizione alla camera di commercio, potete accedere ai listini "vendor"... il che significa godere di ulteriori sconti del 10-15%... Non sto dicendo nulla di nuovo.
edit: anche l'iscrizione di un amico "disponibile" può andar bene...
Cmq il mio fornitore vende la Galaxy 8800gtx al pubblico a 540 + IVA. Non so se è un prezzo "ecclatante" ma se avete modo di scaricarvi l'iva è già un ottimo traguardo.
Con la giusta iscrizione alla camera di commercio, potete accedere ai listini "vendor"... il che significa godere di ulteriori sconti del 10-15%... Non sto dicendo nulla di nuovo.
direi che è un prezzo in linea. Ma il prezzo che hai postato è iva inclusa?
dicci in pvt chi è questo tuo fornitore che poi se è possibile ci mettiamo d'accordo con gli altri..
direi che è un prezzo in linea. Ma il prezzo che hai postato è iva inclusa?
+ iva cè scritto :rolleyes:
Scrambler77
13-12-2006, 12:01
direi che è un prezzo in linea. Ma il prezzo che hai postato è iva inclusa?
:asd: no, è iva esclusa!! :ops:
Piaciuto lo scherzetto?? :ahahah:
Scrambler77
13-12-2006, 12:04
Cmq se avete qualcuno in questo campo, può tranquillamente occuparsi lui dell'acquisto (in effetti la rivendita delle 8800gtx avviene solo "via internet", quindi solo verso l'utente finale)...
Considerate anche che molte aziende (ad es. su trovaprezzi) importano direttamente le schede dall'estero, pertanto sull'utente finale praticano un ricarico doppio.
In italia, però, c'è qualcuno che importa e pratica anche i prezzi per i vendors... Io ne ho trovato uno. Tutto quì.
Cmq se avete qualcuno in questo campo, può tranquillamente occuparsi lui dell'acquisto (in effetti la rivendita delle 8800gtx avviene solo "via internet", quindi solo verso l'utente finale)...
Considerate anche che molte aziende (ad es. su trovaprezzi) importano direttamente le schede dall'estero, pertanto sull'utente finale praticano un ricarico doppio.
In italia, però, c'è qualcuno che importa e pratica anche i prezzi per i vendors... Io ne ho trovato uno. Tutto quì.
MI dai il sito in pvt xfavore?
:asd: no, è iva esclusa!! :ops:
Piaciuto lo scherzetto?? :ahahah:
Insomma 487€ è il prezzo solo per rivenditori, senza IVA.
Fammici pensare.... è ufficiale: sei un sòla :D :D
Scrambler77
13-12-2006, 12:07
direi che è un prezzo in linea. Ma il prezzo che hai postato è iva inclusa?
Il problema è questo: le aziende che importano hanno fatto cartello sui prezzi (10-20 euro di scarto), indipendentemente da chi acquista (vendor o utente finale). Le 8800 non sono nei listini vendor tranne qualche eccezione.
Scrambler77
13-12-2006, 12:08
Insomma 487€ è il prezzo solo per rivenditori, senza IVA.
Fammici pensare.... è ufficiale: sei un sòla :D :D
Non ho mai detto di non essere un rivenditore... :Prrr: :asd:
Scrambler77
13-12-2006, 12:09
MI dai il sito in pvt xfavore?
Ti mando un pvt... one moment...
occhio che c'è wiltord vigile, pronto a segare le gambe a qualcuno :asd::asd:
+ iva cè scritto :rolleyes:
non ci avevo fatto caso :stordita:
EDIT: non c'era scritto ;)
occhio che c'è wiltord vigile, pronto a segare le gambe a qualcuno :asd::asd:
chiudiamolo qua sto mercatino infatti..per queste comunicazioni sentitevi DIRETTAMENTE in pvt, grazie. ;)
Scrambler77
13-12-2006, 12:19
chiudiamolo qua sto mercatino infatti..per queste comunicazioni sentitevi DIRETTAMENTE in pvt, grazie. ;)
No no che mercatino!! Sia chiaro che non sono io il "rivenditore" con quei prezzi... (magari lo fossi!!! :D)
non ci avevo fatto caso :stordita:
EDIT: non c'era scritto ;)
:boh: me lo sono immaginato io allora :confused:
:ops:
:D :D :D :D
cmq se mi fanno sto scherzo,prima li lego e poi......mi gira spendere 650€ per poi avera una scheda gia obsoleta
appleroof
13-12-2006, 15:10
le dx10.1 non saranno altro che una nuova realise della 10 con delle migliorie per sfruttare meglio l'architettura delle nuove gpu sia di nvidia che di ati..
infatti nell'articolo postato da Scrambler77 dice chiaramente che le dx10.1 sono una point realise della 10 quindi una versione della stessa realise... ;)
quoto, mi preoccuperei di più di sentir parlare eventualmente di SM 4.1 per esempio...
non ce l'ho fatta :D
sono un inguaribile imbecille quando si tratta di comprare schede video :p
ordinata oggi :p
gianlu75xp
13-12-2006, 15:21
non ce l'ho fatta :D
sono un inguaribile imbecille quando si tratta di comprare schede video :p
ordinata oggi :p
Il sistema è quello in firma o lo devi cambiare a breve? :what:
Il sistema è quello in firma o lo devi cambiare a breve? :what:
no ovviamente lo devo cambiare :D
sono stupido ma non fino a sto punto eh :D
gianlu75xp
13-12-2006, 15:34
no ovviamente lo devo cambiare :D
sono stupido ma non fino a sto punto eh :D
;) :D
Spider-Mans
13-12-2006, 15:34
chi ha installato i driver 97,44 puo controllare con riva tuner 16.2 o con everest la frequenza che ha del clock memory della 8800 ???
perchè ho letto che qualcuno con i 97,44 ha subito un bug del clock delle memoria video che risultano downcloccate dopo un po a 396mhz anziche la frequenza normale di 792mhz (che poi raddoppiata è 1600 circa)
ho fatto un reply molto lungo nel topic delle 8800gts qui:
http://www.hwupgrade.it/forum/showthread.php?p=15094706#post15094706
....pero sembra che abbiano problemi anche chi ha una GTX
se ne parla qui nel topic di RivaTuner16.2 (chi capisce bene l'inglese se lo legga attentamente perche danno delle soluzioni pure...)
http://www.nvnews.net/vbulletin/showthread.php?p=1094978
e qui in guru3d
http://forums.guru3d.com/showthread.php?t=206684&page=8
ecco una imamginie postata da un utente di quel forum:
http://www.peecee.dk/uploads/1206/47_untitled.jpg
e infine nel forum ufficiale nvidia ecco qui l'ultimo reply:
http://forums.nvidia.com/index.php?showtopic=22793
non controllate con ati tool (almeno che non avete l'ultimissima versione) o con il control panel nvidia....perche mi dava anche a me le frequenze giuste..me ne sono accorto con rivatuner16.2 e everest che il clock memory era downcloccato
appleroof
13-12-2006, 15:49
chi ha installato i driver 97,44 puo controllare con riva tuner 16.2 o con everest la frequenza che ha del clock memory della 8800 ???
cut
perchè ho letto che qualcuno con i 97,44 ha subito un bug del clock delle memoria video che risultano downcloccate dopo un po a 396mhz anziche la frequenza normale di 792mhz (che poi raddoppiata è 1600 circa)
cut
non controllate con ati tool (almeno che non avete l'ultimissima versione) o con il control panel nvidia....perche mi dava anche a me le frequenze giuste..me ne sono accorto con rivatuner16.2 e everest che il clock memory era downcloccato
ho controllato: a me tutto ok (ma me ne sarei accorto giocando...) cmq è normale che rivatuner dia problemi con questi driver poichè non è "testato" con quelli (e infatti come avrai visto esce un "warning" quando lo avvii),
io attualmente lo uso solo per regolare la ventola (e chi ha bisogno di overcloccare per adesso? :) )
Spider-Mans
13-12-2006, 15:53
ho controllato: a me tutto ok (ma me ne sarei accorto giocando...) cmq è normale che rivatuner dia problemi con questi driver poichè non è "testato" con quelli (e infatti come avrai visto esce un "warning" quando lo avvii),
io attualmente lo uso solo per regolare la ventola (e chi ha bisogno di overcloccare per adesso? :) )
si ok ma non sono l'unico ad averlo notato..la mia domanda è
problema con rivatuner e everest oppure sono i driver che hanno problemi?
cmq ho rimesso i 97.02 ed ora tutto perfetto come sempre...e prima di cambiare driver aspettero altri chelo facciano prima di me:D
appleroof
13-12-2006, 16:09
si ok ma non sono l'unico ad averlo notato..la mia domanda è
problema con rivatuner e everest oppure sono i driver che hanno problemi?
cmq ho rimesso i 97.02 ed ora tutto perfetto come sempre...e prima di cambiare driver aspettero altri chelo facciano prima di me:D
ho scritto che questa versione di riva non supporta i 97.44 :stordita: ;)
io overclokko con riva e ho i 97.44 ma non ho nessun problema. dopo quanto rallenta?
Spider-Mans
13-12-2006, 16:23
io overclokko con riva e ho i 97.44 ma non ho nessun problema. dopo quanto rallenta?
boh non lo so io me ne sono accorto questa mattina avevo la stessa frequenza di quell utente...ed usavo i 97,44 da dal giorno della loro uscita...
cmq ora con i 97.02 sto di nuovo perfettamente a posto con le frequenze normali...cmq mi sono tolto un pensiero perche pensavo chissa cosa..invece altri hanno avuto questo problemino a quanto vedo in rete^^ :D
Io tengo la scheda overcloccata da bios a 621 1458 1008 ed ovviamente hi i 97.44 controllando con everest a me tutto a posto
Io tengo la scheda overcloccata da bios a 621 1458 1008 ed ovviamente hi i 97.44 controllando con everest a me tutto a posto
COSA è???
COSA è???
é lo shader domain,perchè da bios si potrebbero impostare in maniera indipendente anche se nel mio caso sono alla stessa % perchè non ho provato se regge di più
mentre il 621 è il geometric domain
Spider-Mans
13-12-2006, 16:44
cmq se leggete bene l'ultima pagina di questo topic su rivatuner
http://forums.guru3d.com/showthread.php?t=205416&page=3
l'utente UNWINDER dice che modificando un dato file cfg all interno dei plugin di rivatuner e possibile sbloccare nell hardware monitoring i tre "domain memory clock"
ed infatti un utente ha confermato che due domain su tre risultano "buggati" nel clock con i driver 97,44:
thx, Unwinder.. your trick is working great :-)
97.44 is also bugged with 2 generators running 396mhz.
I've even flashed the newest bios to my card..
You should report it to nvidia, or post at their forum.. (i cant since i dont get an activation email...)
cosi come quello che aveva postato la immagine qui presente in un altro forum:
http://forums.guru3d.com/showthread.php?t=206684&page=8
http://www.peecee.dk/uploads/1206/47_untitled.jpg
notate la scritta "memory clock/ domain 0" ecc..."1" e "2"....
io ho sbloccato questo plugin modificandolo ed ho controllato ci sono ora anche i tre clock domain memory e sono tutti e tre alla stessa frequenza del clock memory generale....come giusto che sia :D
ovviamente non ho controllato quando avevo i 97.44 che ho immediatamente disinstallato dopo essermi accorto del clock ridotto...
boh :D
Scrambler77
13-12-2006, 16:46
Ho bisogno di aiuto per capire una cosa: il G80 può essere architetturalmente paragonato al Cell di IBM? :confused:
spiegatemi un pò come è sto hardware monitor. io ho cloccato a 621 e 2000, e quando apro un gioco vedo ke il primo valore passa da 576 a 621. gli altri poi non li capisco
TORSELLO18680
13-12-2006, 17:31
salve a tutti
volevo sapere 1 cosa ...(chiedo scusa se nn ho letto le vostre precedenti risposte....nn sono molto pratico del forum).
avendo intenzione di prendere la 8800 gtx volevo sapere se avevo problemi con il mio processore (amd 4600 dual core ) 2 giga di ram g-skill,monitor lcd samsung 730 bf...in poche parole volevo sapere se viene sfruttata a dovere la skeda.
al momento posseggo una 7800 gt 256 mega della m.s.i.
grazie
saluti luca
dovresti dirci anche l'ali che monti :D
comunque se è sui 500 dovrebbe andare bene, aspetta però anche qualche altro più esperto di me, magari mi sbaglio :doh:
salve a tutti
volevo sapere 1 cosa ...(chiedo scusa se nn ho letto le vostre precedenti risposte....nn sono molto pratico del forum).
avendo intenzione di prendere la 8800 gtx volevo sapere se avevo problemi con il mio processore (amd 4600 dual core ) 2 giga di ram g-skill,monitor lcd samsung 730 bf...in poche parole volevo sapere se viene sfruttata a dovere la skeda.
al momento posseggo una 7800 gt 256 mega della m.s.i.
grazie
saluti luca
sinceramente per un 17" la VGA è sprecata :boh:
lo sarebbe già la GTS , la GTX poi....
gianlu75xp
13-12-2006, 17:48
sinceramente per un 17" la VGA è sprecata :boh:
lo sarebbe già la GTS , la GTX poi....
Dici che a 1280*1024 non ha senso?
TORSELLO18680
13-12-2006, 17:48
è 1 alimentatore di 500 w.....pero' nn di marca ....insomma quelli ke escono nei case...comprato da 1 notta ditta di pc online e****i.
grazie alexx in ogni caso x la risposta
Dici che a 1280*1024 non ha senso?
domanda interessata? :p
TORSELLO18680
13-12-2006, 17:49
per dexter..
e quindi quale scheda mi consiglieresti???
gianlu75xp
13-12-2006, 17:52
domanda interessata? :p
Un po'... anche in vista di R600... avendo un lcd vincolato a 1280*1024... sai com'è :p
Io tutto questo spreco non ce lo vedo, dipende poi da quale vga si proviene ecc...
Un po'... anche in vista di R600... avendo un lcd vincolato a 1280*1024... sai com'è :p
Io tutto questo spreco non ce lo vedo, dipende poi da quale vga si proviene ecc...
dai un'occhiata se già non l'hai fatto:
http://www.hwupgrade.it/articoli/skvideo/1616/nvidia-geforce-8800-gtx-e-gts-in-sli_12.html
;)
Un po'... anche in vista di R600... avendo un lcd vincolato a 1280*1024... sai com'è :p
Io tutto questo spreco non ce lo vedo, dipende poi da quale vga si proviene ecc...
gianlu, io dico che per un 1280x1024 una 7900gtx o x1900xt sono più che sufficienti :boh: . Stiamo parlando di VGA che oramai si trovano alla metà di una gtx , per cui a meno di avere un monitor che vada dai 1600 in sù attualmente io non la prenderei :).
per dexter..
e quindi quale scheda mi consiglieresti???
considerando i 1280x1024 direi una 7900gtx o una x1900xt , credo che con quest'ultima però potresti avere problemi di amperaggi non avendo un ali di alto livello ... :boh:
cmq siamo OT, queste domande vanno in "consigli per gli acquisti" :)
Scrambler77
13-12-2006, 17:59
Ho bisogno di aiuto per capire una cosa: il G80 può essere architetturalmente paragonato al Cell di IBM? :confused:
Non m'ha ca*ato nessuno... :(
TORSELLO18680
13-12-2006, 18:06
grazie per i consigli....ma poi la scheda nn supporterebbe le dx10..
quindi nn so se conviene....nn ti pare?
Non m'ha ca*ato nessuno... :(
non ti saprei rispondere..
a me da così rivaturner.
il pc l'ho appena acceso:
http://img243.imageshack.us/img243/5082/nuovaimmagine2wo1.th.jpg (http://img243.imageshack.us/my.php?image=nuovaimmagine2wo1.jpg)
grazie per i consigli....ma poi la scheda nn supporterebbe le dx10..
quindi nn so se conviene....nn ti pare?
mm è questione molto dibattuta : se vogliamo essere ottimisti i primi giochi in DX10 usciranno a metà dell'anno prossimo :boh:.
cmq son valutazioni personali, se vuoi fare questa spesa per essere a posto per un bel pò di tempo raggiungerai il tuo scopo , giochi in dx10 o meno :p.
ora ho rimesso i 97.02 e a memory mi da 900. prima mi dava sempre 396, senza neanke usare il pc.
Spider-Mans
13-12-2006, 18:41
ora ho rimesso i 97.02 e a memory mi da 900. prima mi dava sempre 396, senza neanke usare il pc.
ecco come volevasi dimostrare :sofico:
i driver 97.44 hanno dei problemi evidentemente
appleroof
13-12-2006, 18:44
ecco come volevasi dimostrare :sofico:
i driver 97.44 hanno dei problemi evidentemente
io continuo col dire che non sono i driver ad avere problemi ma è rivatuner ad averli con i driver (nel caso specifico semplicemente non legge bene le frequenze), altrimenti non si spiegherebbe come mai non c'è nessun problema nei giochi, e qualche "piccolo problemino" con le memorie a metà frequenza si dovrebbe notare....
Spider-Mans
13-12-2006, 18:45
io continuo col dire che non sono i driver ad avere problemi ma è rivatuner ad averli con i driver (nel caso specifico semplicemente non legge bene le frequenze), altrimenti non si spiegherebbe come mai non c'è nessun problema nei giochi, e qualche "piccolo problemino" con le memorie a metà frequenza si dovrebbe notare....
ed everest? anche lui avrebbe problemi? anche everest mi segnava 396mhz
non credo....
ma fate dei test alla massima risoluzione che potete e con tutti i filtri attivi e vedete se ci sono differenze,con una frequenza sulla ram quasi di 1/3 le differenze debbono essere molto visibili
appleroof
13-12-2006, 18:55
ma fate dei test alla massima risoluzione che potete e con tutti i filtri attivi e vedete se ci sono differenze,con una frequenza sulla ram quasi di 1/3 le differenze debbono essere molto visibili
esatto, ed io non vedo alcuna differenza, anzi devo ancora provare se hanno risolto il problema con Call of Juarez dei precedenti,
ma con il resto dei giochi (in questo periodo sono preso da half life 2 che non ho mai giocato e mi sto godendo a 1680x1050 tutto al max, a proposito con questo gioco L'AA 16Q in modalità "sovrascrivi" và una bellezza...) va esattamente come prima :boh:
Spider-Mans
13-12-2006, 18:55
ma fate dei test alla massima risoluzione che potete e con tutti i filtri attivi e vedete se ci sono differenze,con una frequenza sulla ram quasi di 1/3 le differenze debbono essere molto visibili
ma io ho risolto disainstallando i 97.44 e rimettendo i 97.02 :sofico:
adesso vedo con un 3dmark 06 se cambia
Scrambler77
13-12-2006, 19:35
Secondo me è solo un problema di lettura della frequenza. Probabilmente è il driver che ha un bug di lettura, a fronte però di numerosissime correzioni per i videogames...
Sinceramente a me interesserebbe più che funzionino bene i videogames anzichè leggere un numerino sullo schermo... :mbe:
Magari segnalando la cosa a nvidia, nella prox release dei drivers risolvono anche questo...
infatti, è un bug di lettura. alle stesse freq faccio addirittura di meno al 3d06, con i 97.44 e stesse freq di 621/2000 faccio di +. quindi sono migliori i 97.44 di ben 100 punti
Skullcrusher
13-12-2006, 19:50
Io era da quando li avevo installati che mi sembrava che Oblivion andasse peggio....forse sarà una mia impressione mi ero detto...ma ora che è saltata fuori questa cosa, controllo e vedo che le memorie sembrano downcloccate.... mi sa che provo a rimettere i 97.02 e vedo che succede.
Esclusi Ntune e Rivatuner, che altro c'è per regolare la ventola?
Io era da quando li avevo installati che mi sembrava che Oblivion andasse peggio....forse sarà una mia impressione mi ero detto...ma ora che è saltata fuori questa cosa, controllo e vedo che le memorie sembrano downcloccate.... mi sa che provo a rimettere i 97.02 e vedo che succede.
Esclusi Ntune e Rivatuner, che altro c'è per regolare la ventola?
A me Oblivion gira uguale, ho proprio fatto degli screen negli stessi punti dove li avevo fatti con i 97.02 ed ho paragonato gli FPS: identico. In 3D mark 06 pure il punteggio è quello, così come negli altri giochi il comportamento della scheda è circa lo stesso...
Avete visto che in un negozio online abbastanza popolare è disponibile la BFG @ liquido? Sembra carina, peccato per il prezzo :D. Cmq io sono fortemente tentato da prendere un WB OC Labs con la nuova staffa che hanno realizzato (anche se non copre tutta la placca della GPU dovrebbe buttare giù parecchio le temperature. Secondo voi poi le RAM le posso lasciare scoperte con una (o più) ventola 8x8 (che raffreddi pure il circuito di alimentazione) o devo mettere i dissini in rame?
Skullcrusher
13-12-2006, 20:16
A me Oblivion gira uguale, ho proprio fatto degli screen negli stessi punti dove li avevo fatti con i 97.02 ed ho paragonato gli FPS: identico. In 3D mark 06 pure il punteggio è quello, così come negli altri giochi il comportamento della scheda è circa lo stesso...
Ok, allora sono io che sto invecchiando :p
io continuo col dire che non sono i driver ad avere problemi ma è rivatuner ad averli con i driver (nel caso specifico semplicemente non legge bene le frequenze), altrimenti non si spiegherebbe come mai non c'è nessun problema nei giochi, e qualche "piccolo problemino" con le memorie a metà frequenza si dovrebbe notare....
io non uso riva tuner ma ati tools solo per monitorare le temp e con gli ultimi driver oblivion é rallentato e a volte si blocca, con i drver beta precedenti andava meglio
appleroof
13-12-2006, 22:55
io non uso riva tuner ma ati tools solo per monitorare le temp e con gli ultimi driver oblivion é rallentato e a volte si blocca, con i drver beta precedenti andava meglio
si ma al limite questo conferma che non c'è un conflitto con rivatuner
nessun possessore di 8800 la monta su una p5b? ho sentito che dà qualche problema col bios :mad:
ovviamente lo scopro dopo che ho ordinato la suddetta mobo.. mi sembra giusto :muro:
fr4nc3sco
13-12-2006, 23:31
nessun possessore di 8800 la monta su una p5b? ho sentito che dà qualche problema col bios :mad:
ovviamente lo scopro dopo che ho ordinato la suddetta mobo.. mi sembra giusto :muro:
be se tutto va come deve forze venerdi la metto sotto la p5b per dei test al freddo...
ragazzi ma allora quale programmma conviene per overcloccare
ragazzi ma allora quale programmma conviene per overcloccare
Ni.bi.tor 3.1 per modificare il bios
nvflash per flashare il bios così modificato! :)
YANEZ84 sistema la sign, massimo 3 righe a 1024.
Prometheus ts
14-12-2006, 10:59
Ciao , adesso ho anche io la GTX della point of view , ma ditemi vanno bene i driver installati dal CD oppure dovrei installarne altri?
be se tutto va come deve forze venerdi la metto sotto la p5b per dei test al freddo...
mmh che bolle in pentola? :D
tienici informati su come funziona la coppia ;)
comunque spero che asus rilasci a breve un bios che fixi questa incompatibilità :mad:
sperem...
Ciao , adesso ho anche io la GTX della point of view , ma ditemi vanno bene i driver installati dal CD oppure dovrei installarne altri?
io metterei gli ultimi usciti sul sito nvidia
Ciao , adesso ho anche io la GTX della point of view , ma ditemi vanno bene i driver installati dal CD oppure dovrei installarne altri?
no installa i driver aggiornati vanno meglio
mmh che bolle in pentola? :D
tienici informati su come funziona la coppia ;)
comunque spero che asus rilasci a breve un bios che fixi questa incompatibilità :mad:
sperem...
io metterei gli ultimi usciti sul sito nvidiaecco,lo sapevo,io che scheda potrò mai avere???p5b deluxe. e voglio prendere una 8800gxt. mi sa che devo andara a fare una visitina in asus
ecco,lo sapevo,io che scheda potrò mai avere???p5b deluxe. e voglio prendere una 8800gxt. mi sa che devo andara a fare una visitina in asus
aspetta la dfi rd680! ;)
Scrambler77
14-12-2006, 12:42
ecco,lo sapevo,io che scheda potrò mai avere???p5b deluxe. e voglio prendere una 8800gxt. mi sa che devo andara a fare una visitina in asus
:asd:
Prometheus ts
14-12-2006, 12:49
Io l'ho montata su una p5b deluxe , non mi pare dare problemi , che problemi dovrebbe dare?
Skullcrusher
14-12-2006, 13:01
Non ci sono problemi tra 8800 e Asus P5B - P5W DH, l'unico "difetto" è che il bios diventa un po' più lento.....ad esempio, quando si aumenta il fsb manualmente, con l'x1950 che avevo era rapidissimo, ora invece è diventato più lento, tutto qua. Per il resto, nessun altro problema ;)
aspetta la dfi rd680! ;)ma cosi devo cambiare mobo per fare andare la scheda video?? :muro: :muro: ma cazzo,ho speso 200€ per la p5b............e la cambierei con la striker che è piena di fronzoli e cose inutili se dovessi(adesso di certo no visot il costo)
Io l'ho montata su una p5b deluxe , non mi pare dare problemi , che problemi dovrebbe dare?
ah non saprei,leggevo di incompatibilità
ma cosi devo cambiare mobo per fare andare la scheda video?? :muro: :muro: ma cazzo,ho speso 200€ per la p5b............e la cambierei con la striker che è piena di fronzoli e cose inutili se dovessi(adesso di certo no visot il costo)
no dico che se proprio devi cambiare vai sulla rd680 che dovrebbe essere davvero una bella mobo! ;)
se devi predere una bella mobo prendi la bad axe 2 io mi trovo da dio
no dico che se proprio devi cambiare vai sulla rd680 che dovrebbe essere davvero una bella mobo! ;)dovrebbe................non si sa poi.......
anche il vecchio chipset ati doveva essere incredibile poi pero............
cmq credo di prendere la striker,mi piacciono tutte le cose inutili ce ha :eek:
dovrebbe................non si sa poi.......
anche il vecchio chipset ati doveva essere incredibile poi pero............
cmq credo di prendere la striker,mi piacciono tutte le cose inutili ce ha :eek:
:asd:
:asd:
è vero,sembrava che doveva fare il caffeè e altre cose che si fanno in altri momenti...........ma invece......non ero sto gran che
la striker invece è buona e ha un sacco di lucette e altre cose che non servono a nulla :D :D :D
la striker invece è buona e ha un sacco di lucette e altre cose che non servono a nulla :D :D :D
che bella l'inutilità di un oggetto! :D (la penso come te)...mmm nerd inside? :stordita:
fine ot
ma cosi devo cambiare mobo per fare andare la scheda video?? :muro: :muro: ma cazzo,ho speso 200€ per la p5b............e la cambierei con la striker che è piena di fronzoli e cose inutili se dovessi(adesso di certo no visot il costo)
nessun problema con la p5b deluxe, anzi na bomba BOOOM :D
bios un po lento come qualcuno osservava ma ci si abitua
Grave Digger
14-12-2006, 14:07
infatti credo che il 90% degli interessati alla striker extreme la preferiscano in virtù dell'immancabile portachiavi incluso :D .....
cmnq io la prendo perchè non ha audio integrato,perchè ha 6 usb esterne che gioveranno al mio stacker..................e per il microfono filtrato :sofico: !
infine,in ordine d'importanza,la prendo perchè ha il chipset nvidia nforce 680i :O ....
:D :D :D
Prometheus ts
14-12-2006, 14:27
Ok ho testato la GTX col gioco della mia serie preferita Total war ....
Gioco testato è mtw2
Ho messo in campo una battaglia con tutti gli effetti al max filtro anisotropico a 16 x e antiailiaising a 8x su schermo a risoluzione 1920 1200 ...
uomini in campo 13667 .....
Ho avuto lag , probabilmente un framerate di 22
infatti credo che il 90% degli interessati alla striker extreme la preferiscano in virtù dell'immancabile portachiavi incluso :D .....
cmnq io la prendo perchè non ha audio integrato,perchè ha 6 usb esterne che gioveranno al mio stacker..................e per il microfono filtrato :sofico: !
infine,in ordine d'importanza,la prendo perchè ha il chipset nvidia nforce 680i :O ....
:D :D :D
ecco bene.........concordiamo,niente audio integrato che da solo rogne quando abbiamo gia una scheda esterna.....in piu mille fronzoli inclusi
bella e lunga rece :D
http://www.xbitlabs.com/articles/video/display/gf8800-games.html
peccato che non ci sia la gts nei bench..
scusate, qualcuna sà qual'è il sito della BGT in primo post?
grazie
gianlu75xp
14-12-2006, 16:29
bella e lunga rece :D
http://www.xbitlabs.com/articles/video/display/gf8800-games.html
peccato che non ci sia la gts nei bench..
c'è anche il riferimento ai problemi con qualche mainboard
http://www.xbitlabs.com/articles/video/display/gf8800-games_27.html
c'è anche il riferimento ai problemi con qualche mainboard
http://www.xbitlabs.com/articles/video/display/gf8800-games_27.html
gia... e la nebbiolina in hl2...
Dylan BJ
14-12-2006, 18:39
ragazzi sono uscite le dx9 di dicembre... :p
una domanda da gufo...
se si cambia il dissi originale con uno ad acqua si perde la garanzia ?
grazie
Dylan BJ
14-12-2006, 18:58
una domanda da gufo...
se si cambia il dissi originale con uno ad acqua si perde la garanzia ?
grazie
temo proprio di si :D
Scrambler77
14-12-2006, 19:17
temo proprio di si :D
A meno che non glielo rimonti su prima di fare l'RMA... :fagiano: :ciapet:
A meno che non glielo rimonti su prima di fare l'RMA... :fagiano: :ciapet:
e la pasta termica ? la tieni da parte per rimetterla originale ? :fagiano:
Grave Digger
14-12-2006, 20:19
basta la comune pasta siliconica bianca,e sei apposto....
Scrambler77
14-12-2006, 20:21
e la pasta termica ? la tieni da parte per rimetterla originale ? :fagiano:
Considerata la consistenza, basta una spruzzatina di calcestruzzo... Non se ne accorgono. :D
Cmq Thermopad come quelli si trovano ovunque... ;)
Considerata la consistenza, basta una spruzzatina di calcestruzzo... Non se ne accorgono. :D
Cmq Thermopad come quelli si trovano ovunque... ;)
appunto :)
Taurus19-T-Rex2
14-12-2006, 20:54
gia... e la nebbiolina in hl2...
già pure in counter strike source fa un effetto del genere :O
a titolo informativo dal FAQ help center Evga
Question / Issue
Does water-cooling or installing a third party cooling solution on my video card void the warranty?
Answer / Solution
Installing third party cooling solutions does not void warranty on our products. Just be sure to keep the original cooling solution as it will have to be on the card if it is ever sent in for RMA. Any physical damage such as burn marks or damaged PCB will void the warranty.
:)....potevo anche cercarlo prima :D
Scrambler77
14-12-2006, 21:11
a titolo informativo dal FAQ help center Evga
Question / Issue
Does water-cooling or installing a third party cooling solution on my video card void the warranty?
Answer / Solution
Installing third party cooling solutions does not void warranty on our products. Just be sure to keep the original cooling solution as it will have to be on the card if it is ever sent in for RMA. Any physical damage such as burn marks or damaged PCB will void the warranty.
:)....potevo anche cercarlo prima :D
:asd: :read:
a titolo informativo dal FAQ help center Evga
Question / Issue
Does water-cooling or installing a third party cooling solution on my video card void the warranty?
Answer / Solution
Installing third party cooling solutions does not void warranty on our products. Just be sure to keep the original cooling solution as it will have to be on the card if it is ever sent in for RMA. Any physical damage such as burn marks or damaged PCB will void the warranty.
:)....potevo anche cercarlo prima :D
Attenzione,perchè quello con buona probbabilità si riferisce alle schede con sistema di dissipazione ecs che puo essere rimosso senza far decadere la garanzia,ma per quelli come me che hanno una evga non ecs la rimozione invaliderebbe la garanzia,ma poi c'è anche da dire che se uno gli rende la scheda senza il dissy o con altro non originale è proprio fesso,basta che in caso di problemi rimetta quello originale ripristinando almeno il colore della pasta,per il resto poichè interventi di riparazione sono pressochè inesistenti mai nessuno rimuoverà il dissy dalla scheda difettosa,che se constatato che da problemi e risulta coperta da garanzia loro fanno prima a dartene un'altra nuova! perchè alla fine spesso il prezzo dei componenti elettronici se non è fittizio è solo una questione di marketing,mentre il reale costo economico per l'azienda produttrice è praticamente insignificante,specie per prodotti appena usciti e quindi straquotati!
ciao
Prometheus ts
15-12-2006, 13:35
Per chi fosse interessato ho montato tranquillamente e con successo la scheda della Point of View nella configuraZIONE CHE VEDETE NELLA MIA FIRMA , CHE NE DITE? .... :rolleyes:
facci sapere come va col dellone ke hai in firma ke ho tanta voglia di prenderlo ;)
Scrambler77
15-12-2006, 14:12
Per chi fosse interessato ho montato tranquillamente e con successo la scheda della Point of View nella configuraZIONE CHE VEDETE NELLA MIA FIRMA , CHE NE DITE? .... :rolleyes:
...che t'è partito il CAPS-LOCK! :asd:
JoeLatino
15-12-2006, 15:19
Scusate...
stando alle ultime info che circolano sul web Ati presentera' le sue nuove schede grafiche il 14 febbraio e le mandera' in distribuzione per la meta' di marzo..
Secondo voi Nvidia fara' uscire la sua "g90" ossia la versione potenziata della g80 prima o dopo di queste date???
Scrambler77
15-12-2006, 15:24
Scusate...
stando alle ultime info che circolano sul web Ati presentera' le sue nuove schede grafiche il 14 febbraio e le mandera' in distribuzione per la meta' di marzo..
Secondo voi Nvidia fara' uscire la sua "g90" ossia la versione potenziata della g80 prima o dopo di queste date???
Sicuramente molto dopo...
Sicuramente molto dopo...
Beati voi con la sfera di cristallo :D. E ancora più beati quelli che fanno domande a "previsione del futuro" nel campo dell'informatica, complimenti:D! :eek:.
La domanda mi pare formulata male: parli della versione "potenziata" di G80 (magari "G81") o parli della prossima GPU nVidia?
Chipster21
15-12-2006, 15:39
Scusate...
stando alle ultime info che circolano sul web Ati presentera' le sue nuove schede grafiche il 14 febbraio e le mandera' in distribuzione per la meta' di marzo..
Secondo voi Nvidia fara' uscire la sua "g90" ossia la versione potenziata della g80 prima o dopo di queste date???
Dipenderà dal potenziale delle nuove proposte ATI, ed in caso, penso che nVidia sicuramente farà la sua contro mossa..........comunque sia, cio avviene di norma con un ciclo semestrale.
Ciao
Prezioso
15-12-2006, 15:42
nvidia è molto puntuale nel presentare prodotti nuovi....il g90 forse uscirà verso giugno\luglio....per ati farà una versione potenziata de g80...probabilmente come fece con la 7800gtx 512....una 7800 pompata al massimo :D
spero che per i fan di ati che non esca la x2000? a febbraio e a marzo già la x2100 :D ..come hanno fatt per x1800 e x1900....
JoeLatino
15-12-2006, 15:46
Beati voi con la sfera di cristallo :D. E ancora più beati quelli che fanno domande a "previsione del futuro" nel campo dell'informatica, complimenti:D! :eek:.
La domanda mi pare formulata male: parli della versione "potenziata" di G80 (magari "G81") o parli della prossima GPU nVidia?
intendevo la versione potenziata della g80 (come del resto HO specificato :doh: )
ps se ho fatto questa domanda e' perche' devo cambiare scheda video e non so' fino a quanto aspettare....
Chipster21
15-12-2006, 15:53
intendevo la versione potenziata della g80 (come del resto HO specificato :doh: )
ps se ho fatto questa domanda e' perche' devo cambiare scheda video e non so' fino a quanto aspettare....
Se fai questi raggionamenti non cambierai mai la scheda video o altro, poichè per effetto dell'evoluzione tecnologica, i prodotti tendono ad invecchiare rapidamente (2-3 mesi Max).
JoeLatino
15-12-2006, 16:00
Se fai questi raggionamenti non cambierai mai la scheda video o altro, poichè per effetto dell'evoluzione tecnologica, i prodotti tendono ad invecchiare rapidamente (2-3 mesi Max).
questo e' vero...ed io che sono un tecnico di professione ne so' qualcosa ;)
pero' visto che in questo periodo sto' gia' cambiando monitor (24") ed altro ancora, volevo aspettare un pochino (almeno fino ai primi di febbraio) per vedere se esce qualcosa di nuovo (o meglio una g80 potenziata :D )
Chipster21
15-12-2006, 16:02
questo e' vero...ed io che sono un tecnico di professione ne so' qualcosa ;)
pero' visto che in questo periodo sto' gia' cambiando monitor (24") ed altro ancora, volevo aspettare un pochino (almeno fino ai primi di febbraio) per vedere se esce qualcosa di nuovo (o meglio una g80 potenziata :D )
E' la cosa più saggia da fare.
Ciao
questo e' vero...ed io che sono un tecnico di professione ne so' qualcosa ;)
pero' visto che in questo periodo sto' gia' cambiando monitor (24") ed altro ancora, volevo aspettare un pochino (almeno fino ai primi di febbraio) per vedere se esce qualcosa di nuovo (o meglio una g80 potenziata :D )
prendi un 24" con la 7600. sprecato
Scusate...
stando alle ultime info che circolano sul web Ati presentera' le sue nuove schede grafiche il 14 febbraio e le mandera' in distribuzione per la meta' di marzo..
Secondo voi Nvidia fara' uscire la sua "g90" ossia la versione potenziata della g80 prima o dopo di queste date???
piu che gi 90 sarà g81 :O
secondo voi,che monitor conviene abbinare a sta belva? :confused:
JoeLatino
15-12-2006, 16:09
prendi un 24" con la 7600. sprecato
guarda che la 7600 e' provvisoria (la mia 7800gtx mi ha lasciato :( )
e poi mi serve il 24" per poter lavorare a 1920*1200!!
Chipster21
15-12-2006, 16:15
piu che gi 90 sarà g81 :O
secondo voi,che monitor conviene abbinare a sta belva? :confused:
Secondo me non si deve scendere sotto i 1600x1200 o 1680x1050 (wide), ma naturalmente tutto il sistema deve poter coadiuvare l'immensa potenza di questa ..... appunto ...... belva.
intendevo la versione potenziata della g80 (come del resto HO specificato :doh: )
ps se ho fatto questa domanda e' perche' devo cambiare scheda video e non so' fino a quanto aspettare....
No, non hai specificato proprio nulla :doh:: Basta che rileggi: "G90" cioè la versione potenziata può essere tranquillamente interpretato in tutti e due i modi. Come il futuro G90 (che cmq sarà una versione più potente di G80) o come la "consueta" versione "potenziata" basata sulla nuova architettura :rolleyes: :muro:.
Ma sei un tecnico e ancora ti fai di queste domande? Fai una domanda in un 3D ufficiale chiedendo informazioni non prettamente coerenti? Fai domande a cui nessuno può rispondere con precisione e che vanno a toccare argomenti su cui tutti possono dire tutto ed il contrario di tutto? :mbe:
Per il discorso "che monitor conviene abbianare" ci sono da fare diverse valutazioni, fondamentalmente a praticamente tutti i giochi usciti fino adesso si può giocare con questa scheda a 1920x1200, Oblivion compreso magari anche con qualche filtro, quindi anche un 24W Wide va bene. I giochi in uscita però potrebbero richiedere più potenza: in particolare coloro i quali hanno provato la prima implementazione PC del UE3.0 (ovvero RS Vegas) hanno tutti notato framerate inaccettabili in svariate situazioni, però c'è da attendere l'uscita reale del gioco e magari qualche patch e driver ottimizzato per poter dare un responso decisivo ;). Io ho preso il 24" della Eizo per lavoro, e cmq riesco a giocare bene. Se dovessi prendere uno schermo solo per il gioco andrei su un 20-22" wide ;).
Secondo me non si deve scendere sotto i 1600x1200 o 1680x1050 (wide), ma naturalmente tutto il sistema deve poter coadiuvare l'immensa potenza di questa ..... appunto ...... belva.
vabeh 6600 @3400mhz,2x1gb 6400 hz,e futura 8800gtx tagan 900w :sborone: su p5b provvisoria in futuro la striker
piuttosto,la prendo dopo natale a sto punto la 8800gtx?
non vorrei dire fesserie in quanto non ne so molto su questo argomento, comunque :)
una tv, lcd o al plasma che sia, ho visto che se hd-ready ha una risoluzione 1366x768, se full-hd 1920 x 1080
collegando il pc alla tv tramite hdmi (penso che sia l'uscita video migliore disponibile, se mi sbaglio ditemelo), se metto una risulazione maggiore da PC su tv non cambia proprio nulla, sforzo solo di più l' 8800...
quindi devo mettere da pc la stessa identica risoluzione che ha la tv
giusto?
non vorrei dire fesserie in quanto non ne so molto su questo argomento, comunque :)
una tv, lcd o al plasma che sia, ho visto che se hd-ready ha una risoluzione 1366x768, se full-hd 1920 x 108
collegando il pc alla tv tramite hdmi (penso che sia l'uscita video migliore disponibile, se mi sbaglio ditemelo), se metto una risulazione maggiore da PC su tv non cambia proprio nulla, sforrzo solo di più l' 8800...
quindi devo mettere da pc la stessa identica risoluzione che ha la tv
giusto?diciamo che nelel tv lcd qualsiasi risoluzione vai a impostare alla fine lo scaler la riadatta a quella che puo gestire.
tanto è vero che se gli dai una immagine full hd a 1080 a una tv al palsma(a meno che tu non abbia il pioneer full hd :eek: ) l'immagine verr riadattata alla risuluzione nativa
per quanto riguara l'hdmi è si il tipo di connessioen migliore,ma porta los tesso segnale che puo portare una dvi,con l'unica differenza che puo portare pure l'audio in digitale cosa che l'altra presa non puo fare
Chipster21
15-12-2006, 16:35
vabeh 6600 @3400mhz,2x1gb 6400 hz,e futura 8800gtx tagan 900w :sborone: su p5b provvisoria in futuro la striker
piuttosto,la prendo dopo natale a sto punto la 8800gtx?
Minimo............. :O
Se puoi comprala subito :stordita: , non credo che il prezzo scenda molto subito dopo Natale, magari all'approssimarsi dell'uscita del R600 e della nuova versione nVidia.
dalla scheda grafica mi esce anche l'audio tramite hdmi???? :confused: :confused:
Chipster21
15-12-2006, 16:38
dalla scheda grafica mi esce anche l'audio tramite hdmi???? :confused: :confused:
NO NO NO
diciamo che nelel tv lcd qualsiasi risoluzione vai a impostare alla fine lo scaler la riadatta a quella che puo gestire.
tanto è vero che se gli dai una immagine full hd a 1080 a una tv al palsma(a meno che tu non abbia il pioneer full hd :eek: ) l'immagine verr riadattata alla risuluzione nativa
per quanto riguara l'hdmi è si il tipo di connessioen migliore,ma porta los tesso segnale che puo portare una dvi,con l'unica differenza che puo portare pure l'audio in digitale cosa che l'altra presa non puo fare
ma allora come fa hdmi a portare audio?
geminibruni
15-12-2006, 16:44
Ragazzi mi aggiungo anche io a questo topic visto che ho appena concluso l'ordine per questa bella bestiolina, precisamente una BFG Liquid Cooling, che considerando il prezzo della versione normale è sui 650 eurozzi e comprare il wb era minimo 130 dollari, la spesa di 750 euro non è un esagerazione....
Che dite ho fatto una pazzia???
:sofico:
In effetti è una pazzia ma non ho resistito :cool:
Quando mi arriva vi posto le prime impressioni di questo wb made in DangerDen, che non sembra niente male....
Alla prossima... :D
Chipster21
15-12-2006, 16:46
ma allora come fa hdmi a portare audio?
E' vero l'HDMI porta anche l'audio se e solo se il dispositivo di outupt ed input hanno anche l'audio mappato sulla connessione HDMI, ad esempio lettore DVD e TV.
La scheda grafica non interfaccia e gestisce i flussi audio sulla connessione HDMI.
Spero di aver frugato i tuoi dubbi.
Ciao
E' vero l'HDMI porta anche l'audio se e solo se il dispositivo di outupt ed input hanno anche l'audio mappato sulla connessione HDMI, ad esempio lettore DVD e TV.
La scheda grafica non interfaccia e gestisce i flussi audio sulla connessione HDMI.
Spero di aver frugato i tuoi dubbi.
Ciao
grazie
comunque non credo che un' uscita hdmi sia montata su 8800 di qualunque marca sia, oppure esiste già qualche marca che propone 8800 con hdmi?
comunque è inutile: il dvi basta ed offre la stessa qualità video, vero?
ma allora come fa hdmi a portare audio?no,non lo porta perche dalla scheda video l'audio non c'è,ma nel caso di un lettore dvd,hd dvd,o blue ray che sia c'è
grazie
comunque non credo che un' uscita hdmi sia montata su 8800 di qualunque marca sia, oppure esiste già qualche marca che propone 8800 con hdmi?
comunque è inutile: il dvi basta ed offre la stessa qualità video, vero?si,il segnale è identico,tanto è vero che fanno cavi dvi hdmi
Ragazzi mi aggiungo anche io a questo topic visto che ho appena concluso l'ordine per questa bella bestiolina, precisamente una BFG Liquid Cooling, che considerando il prezzo della versione normale è sui 650 eurozzi e comprare il wb era minimo 130 dollari, la spesa di 750 euro non è un esagerazione....
Che dite ho fatto una pazzia???
:sofico:
In effetti è una pazzia ma non ho resistito :cool:
Quando mi arriva vi posto le prime impressioni di questo wb made in DangerDen, che non sembra niente male....
Alla prossima... :D
io avrei preso la classica base e poi avreimesso uno di pc tuner,senza dubbio piu efficienti
ragazzi ma secondo voi conviene averla a liquido .c'e quella della bfg solo che devi possedere tutto l'impiantino per averla a liquido
ragazzi ma secondo voi conviene averla a liquido .c'e quella della bfg solo che devi possedere tutto l'impiantino per averla a liquido
secondo me si sei interessato all' OC, puoi spingerla di più :)
JoeLatino
15-12-2006, 17:21
Ragazzi mi aggiungo anche io a questo topic visto che ho appena concluso l'ordine per questa bella bestiolina, precisamente una BFG Liquid Cooling, che considerando il prezzo della versione normale è sui 650 eurozzi e comprare il wb era minimo 130 dollari, la spesa di 750 euro non è un esagerazione....
Che dite ho fatto una pazzia???
:sofico:
In effetti è una pazzia ma non ho resistito :cool:
Quando mi arriva vi posto le prime impressioni di questo wb made in DangerDen, che non sembra niente male....
Alla prossima... :D
scusa ma l'hai ordinata in Italia o all'estero?
fr4nc3sco
15-12-2006, 17:31
raga qualcuno a linux con la 8800gtx? se si che distro avete vorrei provarne 1 ma gia hai tempi dei tempi con la 1900xtx avevo 20000 problemi e non riuscii a istallare nessuna distro
secondo me si sei interessato all' OC, puoi spingerla di più :)
Secondo me dopo aver fatto un miriade di prove su schede 8800gtx ne ho gia provate 8 di marca differente, e posso dire che a liquidi si ha un incremento trascurabile e di poco conto che non giustifica il prezzo elevato di un impianto a liquido.
Porto un esempio
XFX 8800gtx raffr.aria 670/2110
XFX 8800gtx raffr.liquido 692/2152
Naturlamente queste sono frequenze in daily altrimenti si puoi salire anche di più, pero come vedete la differenza è minima. :)
halduemilauno
15-12-2006, 17:43
buon'ultima ma grande rece.
http://www.xbitlabs.com/articles/video/display/gf8800-games.html
;)
Scrambler77
15-12-2006, 18:17
buon'ultima ma grande rece.
http://www.xbitlabs.com/articles/video/display/gf8800-games.html
;)
Già vista... :asd:
piperprinx
15-12-2006, 19:29
E' vero l'HDMI porta anche l'audio se e solo se il dispositivo di outupt ed input hanno anche l'audio mappato sulla connessione HDMI, ad esempio lettore DVD e TV.
La scheda grafica non interfaccia e gestisce i flussi audio sulla connessione HDMI.
Spero di aver frugato i tuoi dubbi.
Ciao
Esistono pero' schede tipicamente per HTPC con uscita HDMI che hanno l'ingresso digitale per la scheda audio.
Per cui, a differenza di quelle classiche con uscita DVI portano anche l'audio.
Prometheus ts
15-12-2006, 19:33
Col Dell va una favola , e non ho ancora manco montato i Driver del LCD ..... va alla grande e non ho nessun rallentamento in nessun gioco ..... ora dovrò testare 3dsmax coi due core e la scheda .... spero bene .....
Chipster21
15-12-2006, 20:07
Esistono pero' schede tipicamente per HTPC con uscita HDMI che hanno l'ingresso digitale per la scheda audio.
Per cui, a differenza di quelle classiche con uscita DVI portano anche l'audio.
Hai raggione ma qui si parlava della GeForce 8800GTX
fr4nc3sco
15-12-2006, 21:50
Col Dell va una favola , e non ho ancora manco montato i Driver del LCD ..... va alla grande e non ho nessun rallentamento in nessun gioco ..... ora dovrò testare 3dsmax coi due core e la scheda .... spero bene .....
ciao mi dici sai mica dove trovare i driver dell monitor dell 2405fpw?
appleroof
15-12-2006, 22:22
ciao mi dici sai mica dove trovare i driver dell monitor dell 2405fpw?
ehm...sul sito dell? :stordita:
http://search.euro.dell.com/results.aspx?c=it&l=it&s=dhs&cat=sup&cs=itdhs1&k=2405fpw&qmp=12&p=1&subcat=dyd&sort=K&snpsd=A&nf=&dt=&navla=&fm=&ss=&ira=False&cp1=-1&cp2=-1&si=&spf=&ssysid=&ssysn=&stag=&~srd=f
geminibruni
15-12-2006, 23:23
La scheda l'ho presa in Italia, se vuoi mandami un pvt... Anche io volevo aspettare che uscisse qualcosa della Ybris visto che ho un loro wb per la cpu (e anche un pò pre sano patriottismo :p ), ma vedo che fanno con molta calma e non voglio rischiare di rimanere a "piedi" fino dopo a natale... In più il wb che la XFX offre in bundle è di una nota azienda americana, la DangerDen che si è sempre distinta per ottimi prodotti, e a dire il vero anche molto belli...
Per chi compra liquido dovete considerare che i migliori margini di overclock non è l'unico motivo che lo porta a fare questa scelta, ma và tenuto conto anche del rumore praticamete annullato, e dell'effetto "cool" che regala :cool:
W il Liquid Cooling :sofico:
geminibruni
15-12-2006, 23:30
PS: per quelle persone che considerano la 8800GTX sprecata per un "misero" monitor 1280x1024 gli consiglio di leggere la recensione della X-bit Labs così magari si rende conto che OGGI per giocare a questa risoluzione con il massimo del dettaglio e dei filtri le vga della vecchia generazione non sono più sufficenti visto che in molti casi non riescono neppure a garantire un framerate decente....
Spero di non leggere più consigli evidentemente strambalati di certe persone che insistono in questa affermazione come è successo poche pagine prima....
Prezioso
15-12-2006, 23:35
il problema non è che la 8800 è sprecata a 1280....è che ORA magari un pò di giochi vanno molto fluidi anche a 1900....ma già i prox dx10 non credo proprio....
secondo me se non si è milionari e cioè si cambia scheda ad ogni nuova uscita....il monitor 1280 è la migliore scelta.....tra 1/2 mesi la 8800 non da fluidità a risoluzione nativa di 1600 o 1900...che si fa???? :D nuovo sli con le 8900? soldi soldi soldi :D ...... a 1280 dura un BEL pò invece.....gioco ancora io con la 6800 quasi :p
il problema non è che la 8800 è sprecata a 1280....è che ORA magari un pò di giochi vanno molto fluidi anche a 1900....ma già i prox dx10 non credo proprio....
secondo me se non si è milionari e cioè si cambia scheda ad ogni nuova uscita....il monitor 1280 è la migliore scelta.....tra 1/2 mesi la 8800 non da fluidità a risoluzione nativa di 1600 o 1900...che si fa???? :D nuovo sli con le 8900? soldi soldi soldi :D ...... a 1280 dura un BEL pò invece.....gioco ancora io con la 6800 quasi :p
quotissimo!! :D
Ragazzi.....il mio ali in sign........di cui vi allego le caratteristiche, (http://www.enermax.it/scheda_tecnica_alimentatori.php?id_prod=142&serie=Alimentatori%20Serie%20Noisetaker%20II%20SFMA%20ATX%2012V%20v2.2) eroga 22A sulla linea da 12......Potrebbe darmi problemi di alimentazione insufficiente, nel caso monti una 8800GTX sul mio sistema??? :rolleyes:
Vi chiedo questo perche'......... (cito testualmente) "NVIDIA raccomanda un alimentatore da 450 Watt con una linea 12 volt da 30A per il GeForce 8800 GTX" :rolleyes:
piperprinx
16-12-2006, 01:08
Hai raggione ma qui si parlava della GeForce 8800GTX
sicuro, non intendevo correggerti, era solo per completare il discorso...
redbaron
16-12-2006, 01:18
il problema non è che la 8800 è sprecata a 1280....è che ORA magari un pò di giochi vanno molto fluidi anche a 1900....ma già i prox dx10 non credo proprio....
Su cosa ti basi per fare quest'affermazione ?
gianlu75xp
16-12-2006, 01:48
Su cosa ti basi per fare quest'affermazione ?
Beh non penso abbia tutti i torti... tutti i componenti hardware all'uscita fanno faville, soprattutto con software ottimizzato e in presenza di driver ad hoc... poi man mano che usciranno software (vedi giochi) che implementeranno in modo più consistente features più moderne detto hardware affronterà l'inevitabile parabola discendente in quanto a prestazioni, si abbasserà la risoluzione e il framerate calerà... ma all'epoca ci saranno già componenti (vedi vga) che saparanno ripetersi quanto a prestazioni eccellenti.... e così via, è un ciclo di decadimento ed obsolescenza che, più intenso o meno intenso, è parte intrinseca della vita di ogni gpu/cpu/ram/chipset.
Lo spererei molto... ma dubito che le prime schede dx 10 riusciranno a far girare i primi giochi directx 10 a 1900*1200 di risoluzione tutto a paletta :)
Prezioso
16-12-2006, 02:06
perchè è sempre stato così.....
esce la 7900gtx....va una bomba anche a 1600, è cpu limited, 2/3 mesi e inizia ad andare in crisi con qualche gioco....6 mesi e diventa 'vecchia'...esce la 8800....la 7900 passa a 1280 o 1600 con meno filtri....la 8800 va a 1600 con filtri a palla è cpu limited.....ecc ecc.....è come una corsa in cui si passa il testimone......
poi, tutti gridano al 'miracolo'...che skeda! ke numeri.....ma ricordatevi che la vedete funzionare solo in dx9 :D .....io non dico che andrà male con le dx10 dato che sarà da verificare come saranno sti shader unificati...ma quando usciranno i primi VERI giochi dx10 già ci sarà la 8900 e la 8800 servirà per il 1280(inteso come non ce la farà più a stare in HD)....ecc ecc......
e poi se uno cerca il full hd stai sicuro che ogni 6 mesi devi passare al top video\cpu successivo altrimenti ha cali di fps negli ultimissimi giochi.....poi è ovvio c'è chi abbassa il dettaglio e va....ma chi spende tutti questi soldi immagino che voglia SEMPRE il massimo quindi......
poi non so se hai letto tutte le recensioni ma a parte dei giochi già vecchi!! diciamo da stress 100% 7900 e x1900....tipo fear,quake4...ecc ecc.....nei giochi usciti tra 7900 e 8800 la 8800 non è che va poi tanto una bomba, sarà che sono programmati male ma cmq non vanno bene, o almeno io sicuramente non sarei soddisfatto!
se uno si compra un monitor HD e quindi obbligato al 90% alla risoluzione nativa.....si compra tomb raider e.......21/52....che non è proprio il massimo della fluidità!!.....gothic 3 19/37.....per non parlare del 16/38 di neverwinther n 2....
è vero che il test è con un fx60 e non un conroe x6800 ( e da vedere il vantaggio di conroe, guardando call of duty2 i valori sono = e di pochi fps con altri giochi)....ma tutta sta POTENZA non la vedo,..........in alcuni giochi va quasi come la 7950.....e ribadisco ORA in alcuni giochi non da fluidità in HD.....figurati l'anno prossimo!inteso come tra un paio di mesi....crysis a 1900? LO DUBITO FORTEMENTE.....secondo me neanche con lo sli :D
mentre un bel monitor 1280.....o meglio ancora un crt così si cambia tra 1280 1600 e 2050 come si vuole......e la scheda è sicuramente + longeva.....
questo è il mio ragionamento per preservare l'acquisto per il tempo + lungo possibile.......io ancora gioco con la mia 6800....dipende dai giochi 1024 o 1280...ma gioco....se ero obbligato al 1600 e passa dovevo buttare il pc già un anno fa......
ki invece non ha problemi di soldi.....bhe beato lui, anche io li butterei così.....esce il top e vendo il mio sli di 6 mesi su exxx.....ecc ecc :D e vivo felice e contento a 1900 fluidi sempre......
appleroof
16-12-2006, 09:07
cut
poi, tutti gridano al 'miracolo'...che skeda! ke numeri.....ma ricordatevi che la vedete funzionare solo in dx9 :D .....io non dico che andrà male con le dx10 dato che sarà da verificare come saranno sti shader unificati...ma quando usciranno i primi VERI giochi dx10 già ci sarà la 8900 e la 8800 servirà per il 1280(inteso come non ce la farà più a stare in HD)....ecc ecc......
cut
a parte il fatto che sono d'accordissimo che la scheda va bene anche se non hai un 30" e lo dico da sempre, c'è cmq da dire che molto probabilmente con le dx10 potremmo avere una sorpresa: sulla carta queste librerie dovrebbero sfruttare molto meglio la gpu e molto più la gpu rispetto alla cpu, quindi in teoria non dovremmo assistere al classico abbassamento cui siamo abituati, nel momento in cui G80 ha una potenza di calcolo enorme e tuttora inespressa...
proprio perchè stiamo usando una dx10 con le dx9 i test non sono completamente veritieri sulle reali capacità della scheda (a parte il fatto che i giochi che hai citato, essendo stati programmati con i piedi, vanno male con qualsiasi scheda in giro)
mancano driver maturi e giochi che possano spremere a fondo i 128 shader (attualmente la scheda sarà sfruttata al massimo al 50%), quindi aspetterei di vederla all'azione con Crysis e compagnia bella, per me non deluderà le aspettative e permetterà di giocare a risoluzioni alte a lungo..
a parte il fatto che sono d'accordissimo che la scheda va bene anche se non hai un 30" e lo dico da sempre, c'è cmq da dire che molto probabilmente con le dx10 potremmo avere una sorpresa: sulla carta queste librerie dovrebbero sfruttare molto meglio la gpu e molto più la gpu rispetto alla cpu, quindi in teoria non dovremmo assistere al classico abbassamento cui siamo abituati, nel momento in cui G80 ha una potenza di calcolo enorme e tuttora inespressa...
già. e da quanto dicono le dx10 dovrebbero facilitare la programmazione dei giochi e renderli automaticamente più ottimizzati. quello che mi preoccuperà non sarà l'ottimizzazione di un gioco, ma la pesantezza di Vista, che mangerà risorse e allora ci ritroveremo punto a capo. Come per W95 W98 W2000. alla fine la potenza viene sbranata da un nuovo OS. Che menata :mad:
concordo con appleroof,nel dire che le reali potenzialità di g80 per ora non si viste perchè non supportate adeguatamente dal software "api dx10,driver e giochi ottimizzati per l'architettura"
secondo mè è presto per fare supposizioni del tipo che le 8800 non saranno in grado di reggere risoluzioni elevate con i giochi futuri come fanno adesso, perchè potremmo avere delle grosse smentite...
Scrambler77
16-12-2006, 10:26
mancano driver maturi e giochi che possano spremere a fondo i 128 shader (attualmente la scheda sarà sfruttata al massimo al 50%), quindi aspetterei di vederla all'azione con Crysis e compagnia bella, per me non deluderà le aspettative e permetterà di giocare a risoluzioni alte a lungo..
Quoto tutto. Anche secondo me una ristrutturazione da zero delle librerie grafiche potrà tradursi in una notevole (e molto sensibile) ottimizzazione delle performance hardware.
Non dimenticate che i giochi fin quì testati non hanno MAI sfruttato a fondo qualsiasi vga. Avete mai visto qualche demo dedicata alla vostra gpu?? Beh, il livello grafico è nettamente superiore a quello di un videogame di qualità. Questo accade perchè la demo è realizzata appositamente per la vostra gpu.
Cio significa che fino a ieri, gli sviluppatori di videogames sono sempre stati molto rilassati nella creazione di un engine grafico che potesse girare virtualmente su qualsiasi gpu, trovando però un compromesso tra le varie configurazioni palesemente diversificate.
Oggi siamo ad una inversione di tendenza: anzichè ottimizzare l'engine sull'hardware, si sta cercando di rendere l'hardware il più versatile e standardizzato possibile, e le librerie più lineari, al fine di erogare sempre la massima potenza disponibile sulla GPU.
Per questo su molti titoli dx9 (che tra l'altro funzionano ancora con la vecchia logica degli shaders separati e quindi non espressamente compilati per l'uso degli shaders unificati) il g80 rende notevolmente, ma essi non sono indice "in negativo" di quanto renderanno i titoli dx10, anzi.
Secondo me un titolo come FEAR, compilato appositamente per gli shader di una x1800 andrebbe più veloce di FEAR "standard" su una G80.
E' come voler far girare su un conroe un kernel compilato per x386 ed uno per x686-smp... non c'è paragone!
appleroof
16-12-2006, 11:04
Certo raga, e poi non dimentichiamo che stiamo tralasciando il discorso overclock, che non può essere una soluzione alla portata di tutti, ma cmq al momento opportuno darà sicuramente una mano in più (se ce ne fosse bisogno...) ;)
Kharonte85
16-12-2006, 12:17
a parte il fatto che sono d'accordissimo che la scheda va bene anche se non hai un 30" e lo dico da sempre, c'è cmq da dire che molto probabilmente con le dx10 potremmo avere una sorpresa: sulla carta queste librerie dovrebbero sfruttare molto meglio la gpu e molto più la gpu rispetto alla cpu, quindi in teoria non dovremmo assistere al classico abbassamento cui siamo abituati, nel momento in cui G80 ha una potenza di calcolo enorme e tuttora inespressa...
proprio perchè stiamo usando una dx10 con le dx9 i test non sono completamente veritieri sulle reali capacità della scheda (a parte il fatto che i giochi che hai citato, essendo stati programmati con i piedi, vanno male con qualsiasi scheda in giro)
mancano driver maturi e giochi che possano spremere a fondo i 128 shader (attualmente la scheda sarà sfruttata al massimo al 50%), quindi aspetterei di vederla all'azione con Crysis e compagnia bella, per me non deluderà le aspettative e permetterà di giocare a risoluzioni alte a lungo..
quoto...anche perche se non sara' cosi' saremo nella M. ricordiamoci che la fascia media delle vga dx10 avra' meno potenza della 8800gtx...quindi :sperem:
Ragazzi.....il mio ali in sign........di cui vi allego le caratteristiche, (http://www.enermax.it/scheda_tecnica_alimentatori.php?id_prod=142&serie=Alimentatori%20Serie%20Noisetaker%20II%20SFMA%20ATX%2012V%20v2.2) eroga 22A sulla linea da 12......Potrebbe darmi problemi di alimentazione insufficiente, nel caso monti una 8800GTX sul mio sistema??? :rolleyes:
Vi chiedo questo perche'......... (cito testualmente) "NVIDIA raccomanda un alimentatore da 450 Watt con una linea 12 volt da 30A per il GeForce 8800 GTX" :rolleyes:
Nessun problema ;)!Il tuo alimentatore eroga ben 35A combinati sui 12v:
http://www.bigbruin.com/reviews05/enermaxeg701ax/large/spec1.jpg
Direi che sei in una botte di ferro :D!
Vai tranquillo!
Ciauz
Certo come no, con le DX10 volerà :D
Si avranno prestazioni più basse per via della complessità dei nuovi giochi, per la pesantezza della nuova architettura (Vista, librerie), e mettici anche per l'obsolescenza della scheda.
Acquistare una DX10 adesso, a questi prezzi, l'ho già detto ieri, è stata una follia :)
appleroof
16-12-2006, 12:34
quoto...anche perche se non sara' cosi' saremo nella M. ricordiamoci che la fascia media delle vga dx10 avra' meno potenza della 8800gtx...quindi :sperem:
si sperem, anche se saranno presumibilmente più ottimizzate.... ;)
redbaron
16-12-2006, 12:34
Beh non penso abbia tutti i torti... tutti i componenti hardware all'uscita fanno faville, soprattutto con software ottimizzato e in presenza di driver ad hoc... poi man mano che usciranno software (vedi giochi) che implementeranno in modo più consistente features più moderne detto hardware affronterà l'inevitabile parabola discendente in quanto a prestazioni, si abbasserà la risoluzione e il framerate calerà... ma all'epoca ci saranno già componenti (vedi vga) che saparanno ripetersi quanto a prestazioni eccellenti.... e così via, è un ciclo di decadimento ed obsolescenza che, più intenso o meno intenso, è parte intrinseca della vita di ogni gpu/cpu/ram/chipset.
Lo spererei molto... ma dubito che le prime schede dx 10 riusciranno a far girare i primi giochi directx 10 a 1900*1200 di risoluzione tutto a paletta :)
Dimentichi che questa scheda ha una architettura pensata per il futuro, non per i giochi esistenti. Comunque la risoluzione 1900*xxxx non mi interessa proprio. Quello che voglio dire e' che nessuno puo' sapere con certezza come andra'. Io contestavo l'assoluta certezza di chi gioca gia' ai giochi dx10 da anni... :rolleyes:
appleroof
16-12-2006, 12:43
Io contestavo l'assoluta certezza di chi gioca gia' ai giochi dx10 da anni... :rolleyes:
:confused:
Kharonte85
16-12-2006, 12:54
Io contestavo l'assoluta certezza di chi gioca gia' ai giochi dx10 da anni... :rolleyes:
:mbe:
gianlu75xp
16-12-2006, 12:54
Dimentichi che questa scheda ha una architettura pensata per il futuro, non per i giochi esistenti. Comunque la risoluzione 1900*xxxx non mi interessa proprio. Quello che voglio dire e' che nessuno puo' sapere con certezza come andra'. Io contestavo l'assoluta certezza di chi gioca gia' ai giochi dx10 da anni... :rolleyes:
Non lo dimentico anzi... se è come sostieni tu meglio per tutti, G80 sarà un acquisto molto duraturo per chi, come me, gioca a 1280*1024...
Skullcrusher
16-12-2006, 13:15
Sto scaricando i nuovi demo per G80, rilasciati su nzone:
Adrianne
http://www.nzone.com/object/nzone_adrianne_downloads.html
Box of smoke
http://www.nzone.com/object/nzone_boxofsmoke_downloads.html
Froggy
http://www.nzone.com/object/nzone_froggy_downloads.html
Son curioso di vedere Adrianne :oink: ...anche il rospo deve essere bello :asd:
Non lo dimentico anzi... se è come sostieni tu meglio per tutti, G80 sarà un acquisto molto duraturo per chi, come me, gioca a 1280*1024...
diciamo anche che se uno spende 650€ e oltre per una scheda video,non ha problemi economici;puo aggiornarla mettendoci ancora 50-100€ come fanno in molti,appena esce il muovo modello tac la cambiano. se io sono in precarie condizioni economiche,e voglio di certo divertirmi con i videogiochi,di certo non spendo 650€ per la scheda video e tutto il resto che ci va a dietro(vedi ali etc) per giocare. ne spendo 300 x la x360 e gioco forse meglio in quanto console.tenendo un pc per la navigazione anche obsoleto
Sto scaricando i nuovi demo per G80, rilasciati su nzone:
Adrianne
http://www.nzone.com/object/nzone_adrianne_downloads.html
Box of smoke
http://www.nzone.com/object/nzone_boxofsmoke_downloads.html
Froggy
http://www.nzone.com/object/nzone_froggy_downloads.html
Son curioso di vedere Adrianne :oink: ...anche il rospo deve essere bello :asd: :eek: .......depravato
redbaron
16-12-2006, 13:27
:confused:
Mi riferivo a chi ho quotato la prima volta. ;)
Skullcrusher
16-12-2006, 13:32
:eek: .......depravato
:asd:
Mister Tarpone
16-12-2006, 13:40
si sperem, anche se saranno presumibilmente più ottimizzate.... ;)
Infatti..io ipotizzo una 8600gt pericolosamente vicina(per non dire = )alle prestazioni dell'attuale 8800gts :) .
E il tutto a un prezzo più umano,consumi più bassi e dimensioni compatte.
Vedremo.. :)
gianlu75xp
16-12-2006, 14:08
diciamo anche che se uno spende 650€ e oltre per una scheda video,non ha problemi economici;puo aggiornarla mettendoci ancora 50-100€ come fanno in molti,appena esce il muovo modello tac la cambiano. se io sono in precarie condizioni economiche,e voglio di certo divertirmi con i videogiochi,di certo non spendo 650€ per la scheda video e tutto il resto che ci va a dietro(vedi ali etc) per giocare. ne spendo 300 x la x360 e gioco forse meglio in quanto console.tenendo un pc per la navigazione anche obsoleto
:confused:
non stavo parlando di questo :)
Dylan BJ
16-12-2006, 14:23
Sto scaricando i nuovi demo per G80, rilasciati su nzone:
Adrianne
http://www.nzone.com/object/nzone_adrianne_downloads.html
Box of smoke
http://www.nzone.com/object/nzone_boxofsmoke_downloads.html
Froggy
http://www.nzone.com/object/nzone_froggy_downloads.html
Son curioso di vedere Adrianne :oink: ...anche il rospo deve essere bello :asd:
ottimo!! volo a scaricarli ank'io... :p
Chipster21
16-12-2006, 14:32
Ragazzi,
per chi si ricorda (vedete i miei post precedenti) che lamentavo problematiche di aloni e/o caratteri sdoppiati sotto Dos Like (ese. scheramte del bios), ebbene oggi mi è arrivata la eVGA 8800GTX in sostituzione della Gainward 8800GTX (a dire il vero la seconda) ed il problema non si è risolto, quindi non dipende dalla scheda video ma dalla scheda madre (Asus P5W DH), come sospettavo, ho provato pure con il nuovo bios della mobo 1707 ma nulla è cambiato.
P.S. la eVGA è arrivata con un Bundle piuttosto scarno (niente giochi e niente decoder DVD), mi rivolgo a chi ha la stessa scheda, mi potete confermare che anche per voi è cosi.
P.S. II senza cambiare niente la eVGA mi ha fatto guadagnare circa 79 punti in 3Dmark06 rispetto alla Bliss 8800GTX (10098 contro 10019), ho verificato le frequenze (RivaTuner) e sono quelli normali............Bho meglio cosi :stordita:
Certo mi rode un'po per il Bundle e per il maggiore costo circa venti euruzzi in più (siamo a € 670,00) ma daltro canto la eVga offre un'eccellente supporto tecnico ed una garanzia di 10 anni previa registarzione sul loro sito.
Ciao
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.