View Full Version : GeForce 6800 Ultra: alcune precisazioni
Redazione di Hardware Upg
06-05-2004, 17:06
Link alla notizia: http://news.hwupgrade.it/12375.html
Nuove informazioni sulle versione Extreme della scheda NV40 di NVIDIA, che fanno un po' di chiarezza sulla gamma di prodotti NVIDIA
Click sul link per visualizzare la notizia.
Appena uscite e già comincia il casino con le sigle......
la curiosità è sapere come le chiamerà l'Asus
super pompa 13500 ultra turbo
Intel-Inside
06-05-2004, 17:24
Vabbè era scritto nelle recensione ke il modello Extreme era un prodotto di nicchia dal costo elevatissimo e ke verrà commercializzato in poki esemplari ... potevano scriverci anke ProTurbo 16 Valvole ke era lo stesso :D
mah... dubbi su dubbi.. la saga del gonzo sta per colpire... l'unica consolazione è che tutte le schede di questa generazione vanno molto di più della scorsa... cosa che non sempre si poteva dire nel passato...
falcon.eddie
06-05-2004, 17:29
20 Mhz in più per andare ad acqua?Sono fuori dal mondo...Ottimo invece vedere 430Mhz per la Ultra ad aria.Chi è quel fesso da prendere quella col raffreddamento a liquido per 20 Mhz in più?(e magari 200€ in più) :D
TyGerONE
06-05-2004, 17:29
se la versione "base" della 6800 Ultra ha il core cloccato a 430 Mhz con raffreddamento ad aria, i risultati dei tast cambiano. Vabbè, mi sa che la recensione è tutta da rifare, considerando anche il fatto che la 6800 GT era azzoppata. Ne riparleremo quando usciranno i modelli destinati alla vendita. Le versione "sample" non sono molto affidabili
permaloso
06-05-2004, 17:32
il progetto NV30 non certo fortunatissimo ha partorito all'atto pratico almeno 8 tipi diversi di scheda(tralasciando le differenze dovute alle diverse dotazioni di memoria) questo NV40 sembra orientato in una direzione addirittura peggiore almeno a giudicare da come sono partite le cose... quasi quasi mi guardo quante schede ha generato il progetto precedente(geforce4)
halduemilauno
06-05-2004, 17:47
Originariamente inviato da falcon.eddie
20 Mhz in più per andare ad acqua?Sono fuori dal mondo...Ottimo invece vedere 430Mhz per la Ultra ad aria.Chi è quel fesso da prendere quella col raffreddamento a liquido per 20 Mhz in più?(e magari 200€ in più) :D
giusto.
aggiungiamo che la ultra passando per la extreme è arrivata in OC a 475/1255 col raffreddamento ad aria.
OverClocK79®
06-05-2004, 17:54
in giro avevo visto alcune skede con nome 6850ULTRA
riferito appunto a quella con core 450
il discorso del raff a liquido è una scelta che Gainward segue già da parekkio tempo.....
anke con le versioni 5950ULTRA
nn è questione di differenziare il prodotto o di pomparlo ma proprio di scelta di raffreddamento per chi magari ha già nel case un raff liquido.....
stando dovutamente attento ai fenomeni elettrolitici
BYEZZZZZZZZZZZ
(IH)Patriota
06-05-2004, 17:56
Be' magari la versione @ liquido uno potrebbe comprarla per non sentire il rumore della ventola piu' che per i 20Mhz in piu'.. ;)
falcon.eddie
06-05-2004, 18:23
Originariamente inviato da halduemilauno
giusto.
aggiungiamo che la ultra passando per la extreme è arrivata in OC a 475/1255 col raffreddamento ad aria.
Ciao collega, ;)
hai fatto bene a puntualizzare, sembra salga molto bene anche ad aria, ma dimmi in quale rece l'hanno portata a quella frequenza? Grazie! :)
PS=Non vedo l'ora arrivi ai fornitori,non ce la faccio + a tirare avanti con una 5200. ( :D Da una 9800XT non è una bella cosa)
Originariamente inviato da (IH)Patriota
Be' magari la versione @ liquido uno potrebbe comprarla per non sentire il rumore della ventola piu' che per i 20Mhz in piu'.. ;)
Gia',solo x 900€ tanto......:eek:
P.S.
Ci becchiamo a CoD;) :p
BYe
phobos04
06-05-2004, 19:16
Si dice tantyo che la nvidia geforce 6800 è tecnologicamente più avanti della ati x800.Ma qualcuno mi spiega a che serve una tecnologia nuova se poi questa risulta inferiore della rivale che ha soltanto finalizzato la tecnologia di cui dispone?Come sempre nVIDIA ha fatto un altra figuraccia con tutti quei 220 milioni di transistors per stare ancora dietro ad ati!!!
cari ingegneri nVIDIA ma andate a fanculo va!
-(Lovin'Angel)-
06-05-2004, 19:22
Originariamente inviato da phobos04
Si dice tantyo che la nvidia geforce 6800 è tecnologicamente più avanti della ati x800.Ma qualcuno mi spiega a che serve una tecnologia nuova se poi questa risulta inferiore della rivale che ha soltanto finalizzato la tecnologia di cui dispone?Come sempre nVIDIA ha fatto un altra figuraccia con tutti quei 220 milioni di transistors per stare ancora dietro ad ati!!!
cari ingegneri nVIDIA ma andate a fanculo va!
..dai ma non dire cosi su! :asd:
Alcune features implementate via hw sulla serie 6800(gpu che sgrava dal lavoro di compress/decompress. DivX ecc..)
ATi nn ce l'ha!
ah... hai dimenticato 2 milioni di transistor nel conteggio prima di insultarli .... :sofico: :oink:
ma dai che non sono cosi indietro ad ati
e lo dico da atista estremista
nvidia stavolta a buttato fuori qualcosa di veramente valido,forse un ditino sopra alla x800
Decidetevi per favore.
Vi lamentate perchè l'R420 non ha molte innovazioni però quando è uscita la parhelia vi siete lamentati perchè aveva scarse prestazioni, che poi con i filtri attivati erano uguali a quelle di una 4600.
Certo potevano overcloccare la scheda all'estremo, mettere due molex e una turbina per raffreddare, infine dire che ci voleva un alimentatore da 480 watt.
Meno male che poi qualcuno ci ha pensato
phobos04
06-05-2004, 22:27
per la geforce 6800 ultra ci vuole minimo un alimentatore da 480 watt per cosa?Per stare sempre dietro ad ati che ha pure un solo attacco di alimentazione?
cari ingegneri mi ripeto : ANDATE A FANCULO!!!!ATI ha dimostrato che l'architettura vincente è la sua che per stare davanti ha bisogno di soli 160 milioni di transistors mentre nVIDIA per inseguire deve fare i salti mortali per pompare i suoi chip!!!
SPARATEVI!!!!!!!!!
ErminioF
06-05-2004, 22:49
Se guardate alcune recensioni (toms per esempio), nei raffronti del consumo scheda non è che sia molto differente dalla x800 :)
nonikname
06-05-2004, 22:58
1) Nessuno ti obbliga a comprare niente ....
2) Cerca di non usare il linguaggio che di solito usi a casa tua , qui sei su un forum pubblico e ci sono delle regole , fosse per me ti bannerei per 1 anno....
3) I tecnici ATI hanno specificato che gli Shaders 3.0 sono inutili , ergo si possono raggiungere gli stessi risultati con Shaders 2.0 : allora guardati il demo di RUBY in tempo reale se riesci....
Non puoi perchè qualche funzione delle DX9c (PS e VS 3.0) c'è anche nella X800 , ma non ci sono tutte , ecco perchè ci sono meno transistor .....
Poi a me sembra la X800XT la più pompata , dato che è impossibile overclokkarla , la X800Pro con 12 pipe arriva a 500 e spingi , ma la XTplatinum non sale nemmeno di 1 HZ ...come mai??
Mentre la 6800 ha ampi margini di miglioramento , e l'unica sua pecca (se cosi vogliamo chiamarla dato che va almeno il doppio della 9800xt a tutte le risoluzioni) , sono i filtri che "pesano" di più confronto alla rivale , ma se stai a vedere senza filtri è quasi sempre più veloce
Senza parlare dell'Opengl che è un su un altro pianeta...
Per i consumi poi rileggiti qualche recensione in giro per il web , la X800XT consuma 20 W meno della 6800ultra .....
http://www.tomshw.it/guides/graphic/20040504/images/power008.gif
Nino Grasso
07-05-2004, 01:10
mm dai tutti a sparare a nVidia... l'architettura è nuova... come ogni passo generazionale bisogna che si affinino e di molto i driver, mentre ATi utilizzando la stessa architettura (o giù di lì) sfrutta già al massimo X800 via driver! e poi guardate che le nVidia a quanto ho potuto vedere è leggermente superiore (spesso, non sempre) se escludete i test effettuati con anisotropic filtering... il problema infatti si è capito che è insito nelle scarse performance che la NV40 ha con l'uso dell'AF rispetto alla X800XT, gap risolvibile secondo me interagendo e ottimizzando via driver (cosa tra l'altro fatta pure con le Geforce4) per lo stesso aspetto... quindi dai... nVidia e ATi in questa generazione partono sulla stessa posizione, forse l'unica pecca dell'NV40 sta nella richiesta dell'ali a 480W, ma ragionando in questa via le X800XT dovrebbero necessitare di un ali di 450W :D (visti i consumi)
cdimauro
07-05-2004, 06:01
Non credo proprio che NV40 abbia "ampii margini di miglioramento": è un mostro da 222 milioni di transistor, e le prove di overclock mi sembrano abbastanza eloquenti...
aceto876
07-05-2004, 07:35
Insomma....pare che qualcuno sia riuscito a salire oltre i 450MHz http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/page22.asp
aceto876
07-05-2004, 07:37
In ogni caso è presto per dire come si comporteranno gli esemplari di produzione contando che poi le rese migliorano e con queste l'oc
aceto876
07-05-2004, 07:48
Questo è il terzo post di fila che mando...ma ho visto 1 cosa che mi sembra interessante:in realtà le dimensioni del die di nV40 e R420 non sono così diverse a dispetto dell'uso per entrambi d processi a 0,13um
http://www.techreport.com/reviews/2004q2/radeon-x800/index.x?pg=4
barabba73
07-05-2004, 07:52
Premesso che ritengo entrambi i prodotti ottimi, lascia stupefatti vedere quanto buono sia il progetto r300 !! visto cosa è riuscito a fare nella sua ultima evoluzione r420. Il prodotto nvidia è sicuramente più acerbo di quello Ati, ma con un buon potenziale (anche se per guadagnare 20/50 mhz ci vuole raffreddamento a liquido...). Bisogna vedere se il tempo necessario a farlo maturare non serva ad Ati a sviluppare e mettere in commercio il suo r500 ! Comunque dire che il prodotto ati è meglio sono con filtri attivati non è cosa limitativa, anzi: se spendo 500€ di scheda voglio il massimo settaggio possibile, con fluidità decente. Fare 100 o 250 fps non fa differenza, attivare un filtro o no SI ! imho
Lord Archimonde
07-05-2004, 10:11
La cosa che mi infastidisce sono gli overclock di fabbrica che ti fanno pagare a caro prezzo, togliendoti il divertimento e dandoti in mano una scheda uguale
phobos04
07-05-2004, 10:33
Cara nVIDIA proprio non riesci a capire come ATI riesce sempre a starew davanti.A tutti gli ingegneri nVIDIA vorrei darvi un consiflio:comprarte una ATI X800 e studiatevi perbenino come si fa una architettura vincente!!
MUOVETEVI!!!!!!!
Originariamente inviato da nonikname
Per i consumi poi rileggiti qualche recensione in giro per il web , la X800XT consuma 20 W meno della 6800ultra .....
20W su una SVGA sono parecchi, se permetti. E consuma meno della 9800xt nonostante sia a 500+ mhz e 16 pipe.
sono i filtri che "pesano" di più confronto alla rivale , ma se stai a vedere senza filtri è quasi sempre più veloce
Chi compra una scheda del genere per giocarci senza filtri è un pazzo
nonikname
07-05-2004, 10:55
Chi compra una scheda del genere per giocarci senza filtri è un pazzo
Chi compra una scheda del genere senza il supporto agli shaders 3.0 è un pazzo.....
Originariamente inviato da nonikname
Chi compra una scheda del genere senza il supporto agli shaders 3.0 è un pazzo.....
E lì userò fra due anni, se va bene, con FP32 e decadimento prestazionale e qualità identica al SM 2.0b.Periodo in cui la 6800 sarà già che bella obsoleta. Vedi l'Unreal Engine 3 che arranca già su NV40.
Invece i filtri me li godo da subito con tutte le applicazioni del passato, presente e futuro.
^TiGeRShArK^
07-05-2004, 11:14
gli shaders 3.0 imho sono comletamente inutili....
si è visto qto tempo è passato dall'uscita della 9700 pro al primo gioco ke usasse veramente gli shaders 2 (farcry) e non mi pare assolutamente poco...
tenendo conto poi ke con gli shaders 2 è possibile fare esattamente le stesse cose dei 3, ke le skede nvidia in farcry hanno una qualità penosa se nn si forza fp32 e shaders 2 (perdendo in media 10 fps e passando pure dietro alla x800 pro), mi spiegate a ke serviranno gli shaders 3 ??? a far viaggiare il primo gioco ke li sfrutterà decentemente a 10 fps mentre le skede ati riusciranno a farlo andare a 30 fps???
x qto riguarda la questione degli alimentatori, mi sa ke vi sfugge una cosa semplicissima ke si studia ad elettrotecnica 1 .....
La potenza si calcola come tensione x corrente ....
quindi ke ne sapete voi ke i requisiti rikiesti da nvidia x un alimentatore di ALMENO 480 w non siano dovuti alla rikiesta particolarmente elevata di amperaggi di questa skeda???
la mia ipotesi sarebbe supportata anke dal fatto ke sono rikiesti due molex diversi, in quanto utilizzando un solo rail l'amperaggio ke sarebbe possibile fornire sarebbe più limitato rispetto alla solouzione con due molex.
inoltre la x800xt se non ve ne siete accorti, consuma addirittura MENO della 9800 xt, e non mi pare ke x utilizzare questa skeda venga rikiesto espressamente un 450 W (come proposto da qualcuno analizzando semplicemente la differenza di potenza rikiesta dalle due skede)
nonikname
07-05-2004, 11:48
Chi compra una scheda del genere per giocarci senza filtri è un pazzo
Fra l'altro non è che non abbia il supporto per l'AA : se va male è solo 2 volte più veloce della 9800xt e scusa se è poco , ma con la stessa spesa di una X800XT sarà totalmente compatibile con le DX9c , quindi per 2 anni puoi usarla ....
Invece l'anno prossimo ATI farà uscire la sua scheda DX9c con FP32 e shaders3.0 , e dovrà far girare solo programmi scritti e ottimizzati sull'unica scheda oggi in commercio che ti permette di scrivere Shaders3.0....
orig inviato da CDmauroNon credo proprio che NV40 abbia "ampii margini di miglioramento": è un mostro da 222 milioni di transistor, e le prove di overclock mi sembrano abbastanza eloquenti.
Infatti con o.c. ad aria l'ultraEx va a 475/1255 e la gt a 425/1200 : con quest'o.c. la gt supera già la ultra originale ( mi sa che di eloquente qui c'è solo il grafico sotto)
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/ocfc1600.gif
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/octr1600.gif
Mentre l'X800XT non è possibile overcloccarla : http://www.digit-life.com/articles2/radeon/r420.html?6798
Ti ricordo che , fino a prova contraria , abbiamo davanti due architetture completamente diverse : una è la solita 9700x2 con qualche registro in più , una nuova tecnica di compressione e poco altro , l'altra è quasi totalmente nuova ...
Prima di trarre qualche conclusione attendibile io aspetterei prima di tutto lo sviluppo dei Driver Nvidia , poi c'è da capire il tempo necessario per l'uscita dei primi titoli DX9c (dato che gia Stalker dovrebbe uscire a settembre) e per finire c'è Doom3 , che se è scritto bene come dicono , dovrebbe essere un'engine usatissimo per i prossimi due anni ....
Ricordiamoci che l'AA e l'AF sono solo dei filtri e con 2 filtri non ci costruisci un immagine3d. (così come 2 rondini non fanno primavera..)
E menomale che ATI ha anticipato di 6 mesi l'uscita dell'XT se no a quest'ora erano grane....
Ma fra 6 mesi cosa succederà ????
nonikname
07-05-2004, 11:55
tenendo conto poi ke con gli shaders 2 è possibile fare esattamente le stesse cose dei 3, ke le skede nvidia in farcry hanno una qualità penosa se nn si forza fp32 e shaders 2 (perdendo in media 10 fps e passando pure dietro alla x800 pro), mi spiegate a ke serviranno gli shaders 3 ??? a far viaggiare il primo gioco ke li sfrutterà decentemente a 10 fps mentre le skede ati riusciranno a farlo andare a 30 fps???
Allora se anche tu credi ad ATI scaricati il demo di Ruby ......
Dato che è possibile fare tutto quello che fanno gli shaders3.0 con più passate dei 2.0 , perchè ATI non è riuscita nemmeno a far girare un Demo in Shaders2.0b sulle schede 2.0 ????
Come dimostrazione della sua tesi sarebbe stato un ottimo esempio.........
nonikname
07-05-2004, 12:01
E' ovvio che intendevo dire che ATI avrebbe potuto ricompilare il codice 2.0b in 2.0 per far vedere come sarebbe andata Ruby nei 2 modi...
Alimentatore da 480W ????
FiringSquad:: " To test our 12V rail theory out, I installed the GeForce 6800 Ultra Extreme in my personal system. It’s an Epox KT333-based motherboard with an Athlon XP 2100+, 512MB DDR266 memory, SB Live!, Promise RAID controller card, and 3Com 10/100 NIC. I also have my system outfitted with four hard drives, a DVD-ROM drive, and a CD-R/RW burner (for those of you who were wondering, I’ve been running it with a RADEON 9800 PRO 256MB).
On the power side, the real gem is the Enermax Whisper Quiet EG365P-VE PSU I purchased over a year ago to go with my Cooler Master aluminum case (it’s one of the later model ATC-110 series cases with exhaust/intake fans, before they messed it all up with the Wavemaster line). This PSU is only 350 watts total, but capable of delivering up to 26A on the 12V rail, four amps more than the Antec TruePower I bought at Fry’s a few weeks ago for the 6800 Ultra test bed.
As theorized in our 6800 Ultra preview article, the system ran flawlessly with this setup. 3DMark 03, Call of Duty, and UT 2004 all ran with complete stability on a 350-watt power supply with GeForce 6800 Ultra. Clearly, NVIDIA’s 480-watt PSU recommendation errs on the side of extreme caution, as a high quality sub-$50 350W PSU like the Enermax EG365P-VE can be used with no problems. "
Fonte (http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/default.asp)
.
Ci mancava che richiedessero un alimentatore da 480 Watt dell'Enermax.
Era chiaro si riferissero ad un alimentatore non di marca.
Originariamente inviato da nonikname
Fra l'altro non è che non abbia il supporto per l'AA
Ci mancherebbe, mi ha fatto solo sorridere il tuo accostamento tra SM 3.0 e filtri.. Dando più importanza al SM 3.0 che non è altro che una semplice evoluzione del SM 2.0 e nulla più.
se va male è solo 2 volte più veloce della 9800xt
Quindi? Non è la stessa cosa che per l'X800 ? Anzi è ancor più veloce in molte situazioni?
e scusa se è poco , ma con la stessa spesa di una X800XT sarà totalmente compatibile con le DX9c , quindi per 2 anni puoi usarla .....
Ripeto: quando si sfrutterà il SM 3.0, la 6800 non sarà in grado in farli girare degnamente. Basti vedere come già arranca in SM 2.0 ed FP 32 costringendo Nvidia a forzare l'FP16....
Quindi il problema non si pone
http://www.hardocp.com/images/articles/1083564189888Adk70te_4_4_l.jpg
Parliamo di SM 3.0, poi vediamo che Nvidia combina queste schifezze?
Allora se anche tu credi ad ATI scaricati il demo di Ruby ......
E' uscito un wrapper per R3X0, purtroppo non completamente renderizzato correttamente per l'utilizzo delle 3dc
http://www.users.on.net/triforce/ruby/ruby6.jpg
Ricordiamoci che l'AA e l'AF sono solo dei filtri e con 2 filtri non ci costruisci un immagine3d. (così come 2 rondini non fanno primavera..)
Mi pare chiaro. Converrai con me che sono infinitamente più importanti i filtri al confronto del SM 3.0 che non appronta nulla di nuovo sul fronte della qualità rispetto a SM 2.0X.
phobos04
07-05-2004, 13:16
Cari sostenitori nvidia rassegnatevi.Lo volete capire che nvbidia è ancora costretta ad inseguire???
basta con tutte queste cazzate!!!a questi livelli i paragoni vanno fatti tassativamente con tutti i filtri attivati e ci mancherebbe!!!!lo sanno tutti ormai che non ce storia sulle performance a favore di ati appunto.nvidia ha fallito ancora una volta se pensava di fare la scheda 3d più veloce del pianeta come si dice nel loro sito!!!Buffoni...
phobos04
07-05-2004, 13:19
e aggiungo ancora......nvidia ma vaffanculo va.Continui ad attaccarti sui pixel shader 3.0 quando non porta nulla di nuovo per quanto concerne la qualità visiva rispetto ai 2.0.RIDICOLI!!!!
aceto876
07-05-2004, 15:06
phobos sei sempre 1 signore nei tuoi interventi
phobos04
07-05-2004, 15:19
SEMPRE!Ben detto!
T. Alexius
07-05-2004, 15:20
direi che l'unica cosa che si capisce per il momento e che la Geforce GT sarà la fortuna degli overclockers, il resto son parole fittizie fino all'uscita delle versioni commerciali con relativi driver (inutile negarlo le schede son quasi sempre li li, per cui non è neanche detto che i driver modifichino più di tanto la situazione)
mi piacciono certi commenti particolarmente moderati, educati e,soprattutto, ragionati -.- (ogni riferimento a persone o cose è puramente casuale...)
aceto876
07-05-2004, 15:49
Pare che le X800 salgano di brutto invece...http://www.anandtech.com/#22124
T. Alexius
07-05-2004, 16:41
vero, notevole
phobos04
07-05-2004, 17:20
Alexius ti riferivi a me per caso?
Paoletta Corsini
07-05-2004, 17:41
Originariamente inviato da nonikname
1) Nessuno ti obbliga a comprare niente ....
E nemmeno nessuno ti obbliga a difendere una casa, quando continua riproporre soluzioni inferiori alla rivale, sia in termini di qualità che di velocità pura.
3) I tecnici ATI hanno specificato che gli Shaders 3.0 sono inutili , ergo si possono raggiungere gli stessi risultati con Shaders 2.0 : allora guardati il demo di RUBY in tempo reale se riesci....
Non puoi perchè qualche funzione delle DX9c (PS e VS 3.0) c'è anche nella X800 , ma non ci sono tutte , ecco perchè ci sono meno transistor .....
Non ci sono meno transistor solo per questo, ad ogni modo se è quello che serve in questo momento, e per questo momento intendo i prossimi 24 mesi a cosa serve implementarle adesso su una scheda che fra un anno sarà ugualmente obsoleta?
Poi a me sembra la X800XT la più pompata , dato che è impossibile overclokkarla , la X800Pro con 12 pipe arriva a 500 e spingi , ma la XTplatinum non sale nemmeno di 1 HZ ...come mai??
Mentre la 6800 ha ampi margini di miglioramento , e l'unica sua pecca (se cosi vogliamo chiamarla dato che va almeno il doppio della 9800xt a tutte le risoluzioni) , sono i filtri che "pesano" di più confronto alla rivale , ma se stai a vedere senza filtri è quasi sempre più veloce
Apparte che la scheda sale (oggi hanno pubblicato una prova dove con sistemi di dissipazione alternativi si son raggiunti i 150mhz di overclock sulla sola gpu) cosa significa? io pago per quello che ho, l'overclock è una pratica che non interessa la gente che acquista le schede (gli overclockers son meno dell'1% degli acquirenti totali). Una scheda deve essere stabile così come esce di default, il resto è fuffa.
Poi come fai a sapere che la 6800 ha ampi margini? l'unica fonte attendibile che conosco in Italia (Raffele Fanizzi) ha detto l'esatto contrario.
Senza filtri? :D allora va bene anche la mia 8500, a me non da fastidio il linguaggio di phobos04 ma la disinformazione.
Senza parlare dell'Opengl che è un su un altro pianeta...
;)
Per i consumi poi rileggiti qualche recensione in giro per il web , la X800XT consuma 20 W meno della 6800ultra .....
http://www.tomshw.it/guides/graphic/20040504/images/power008.gif
Quando capirete che il consumo è qualcosa di basilare nella nostra società sarà troppo tardi. Spero che i miei figli possano avere in eredità un pianeta migliore di quello che abbiamo adesso, scusa se sono OT, ma mi collego alla discussione di ieri notte: http://forum.hwupgrade.it/showthread.php?s=&threadid=679069
Concordo, cara Paoletta :vicini:
leoneazzurro
07-05-2004, 17:54
Mah, secondo me la questione della velocità sta diventando secondaria. Vediamo ormai che tutte queste schede a 1024x768 punti con antialiasing e filtro anisotropico sono più CPU limited che altro, e siccome la tecnologia dei monitor è molto meno rapida di quella delle schede grafiche, passerà molto tempo prima che la maggior parte degli utenti, che ha un monitor 17" o giù di lì possa apprezzare praticamente le differenze che vengono riportate a 1600x1200 punti e oltre con tutti gli effetti attivati (tale risoluzione necessita almeno di un monitor da 19-21" di ottima qualità). A quel punto la differenza la possono fare altre questioni: qualità grafica, features, consumi, costi.
La prima diciamo che è un pò ad appannaggio di ATI (almeno nel Direct 3D), le features ad nVIDIA e il consumo ad ATI). Nel complesso, a mio parere, questa differenza terrificante nell'uso pratico non ci sarà, e uno sceglierà l'una o l'altra in base alle proprie esigenze (vedi decodifica HW, oppure consumi più ridotti o convenienza nell'acquisto).
^TiGeRShArK^
07-05-2004, 19:15
Originariamente inviato da nonikname
Alimentatore da 480W ????
FiringSquad:: " To test our 12V rail theory out, I installed the GeForce 6800 Ultra Extreme in my personal system. It’s an Epox KT333-based motherboard with an Athlon XP 2100+, 512MB DDR266 memory, SB Live!, Promise RAID controller card, and 3Com 10/100 NIC. I also have my system outfitted with four hard drives, a DVD-ROM drive, and a CD-R/RW burner (for those of you who were wondering, I’ve been running it with a RADEON 9800 PRO 256MB).
On the power side, the real gem is the Enermax Whisper Quiet EG365P-VE PSU I purchased over a year ago to go with my Cooler Master aluminum case (it’s one of the later model ATC-110 series cases with exhaust/intake fans, before they messed it all up with the Wavemaster line). This PSU is only 350 watts total, but capable of delivering [B]up to 26A on the 12V rail[B]:eek:, [B]four amps more than the Antec TruePower[B]:eek: I bought at Fry’s a few weeks ago for the 6800 Ultra test bed.
As theorized in our 6800 Ultra preview article, the system ran flawlessly with this setup. 3DMark 03, Call of Duty, and UT 2004 all ran with complete stability on a 350-watt power supply with GeForce 6800 Ultra. Clearly, NVIDIA’s 480-watt PSU recommendation errs on the side of extreme caution, as a high quality sub-$50 350W PSU like the Enermax EG365P-VE can be used with no problems. "
Fonte (http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/default.asp)
.
ke ho detto io????
il problema non è assolutamente il wattaggio, è piuttosto l'amperaggio ....
se leggevi x bene il mio post lo capivi questo.....
e cmq quegli amperaggi non li hanno alimentatori propriamente economici.....
Dark Schneider
07-05-2004, 20:52
Originariamente inviato da phobos04
e aggiungo ancora......nvidia ma vaffanculo va.Continui ad attaccarti sui pixel shader 3.0 quando non porta nulla di nuovo per quanto concerne la qualità visiva rispetto ai 2.0.RIDICOLI!!!!
A me l'unica cosa che mi pare ridicola è il tuo commento.:rolleyes:
phobos04
07-05-2004, 23:36
Ribadisco il concetto : inutile difendere ancora nvidia.Orami è sotto gli occhi di tutti cosa è stto capace di fare ati!!Di nuovo ad inseguire cari ingegneri nvidia!!!
ma fottetevi per piacere.da 4 anni a questa parte non sapete più che cazzo inventare per tornare in testa.E' dura la vita...
Originariamente inviato da phobos04
Ribadisco il concetto : inutile difendere ancora nvidia.Orami è sotto gli occhi di tutti cosa è stto capace di fare ati!!Di nuovo ad inseguire cari ingegneri nvidia!!!
ma fottetevi per piacere.da 4 anni a questa parte non sapete più che cazzo inventare per tornare in testa.E' dura la vita...
Fammi capire... sei appena stato riammesso 2gg fa dopo la tua 2° sospensione di ben 30 giorni e te ne torni subitocon questi commenti?!
Contento tu... da ora lo farai da un'altra parte...
sei bannato!
aceto876
08-05-2004, 10:54
Mi pareva strano che tu che ci tieni d'occhio non provvedessi...
Alienmax
08-05-2004, 11:16
E si banna una persona per un commento come il mio?Mi sembra di stare alle elementari.A raven ma fammi capire tu che cazzo vuoi!
Originariamente inviato da Alienmax
E si banna una persona per un commento come il mio?Mi sembra di stare alle elementari.A raven ma fammi capire tu che cazzo vuoi!
vedo che oggi tutti siamo felici e contenti di usare un linguaggio corretto con gli altri, l'educazione si spreca :rolleyes:
Dark Schneider
08-05-2004, 15:06
Originariamente inviato da Alienmax
E si banna una persona per un commento come il mio?Mi sembra di stare alle elementari.A raven ma fammi capire tu che cazzo vuoi!
Mi sa che non ti è chiaro che un utente deve avere un comportamento civile e che un moderatore ha il compito di far rispettare questo comportamento. Se uno non rispetta una volta....poi due volte...poi tre...mi sembra ovvio che poi un moderatore sia costretto a prendere provvedimenti.
Quanti "flames" inutili per queste 2 schede video.....alla fine si comprerà quella che da di + con - euro no?Ci manca solo che oltre alle risse degli stadi si aggiungano quelle per ati e nvidia :rolleyes:
^TiGeRShArK^
09-05-2004, 12:53
dipende cosa si intende da di +
se ad uno interessa quasi esclusivamente l'opengl e pensa di non utilizzare gioki ke sfruttino pesantemente gli shader 2 allora la scelta obbligata è nvidia (x ora, fino a ke ati non finisce di riscrivere i suoi driver opengl sperando che faccia un buon la voro), mentre x i futuri gioki direct x mi pare ke la via da seguire sia ATI stando alle informazioni attuali confermate da tutte le recensioni online....
Dark Schneider
09-05-2004, 14:17
Originariamente inviato da ^TiGeRShArK^
dipende cosa si intende da di +
se ad uno interessa quasi esclusivamente l'opengl e pensa di non utilizzare gioki ke sfruttino pesantemente gli shader 2 allora la scelta obbligata è nvidia (x ora, fino a ke ati non finisce di riscrivere i suoi driver opengl sperando che faccia un buon la voro), mentre x i futuri gioki direct x mi pare ke la via da seguire sia ATI stando alle informazioni attuali confermate da tutte le recensioni online....
Guarda che Ati attualmente si ritrova con una scheda con drivers ottimizzati visto che l'R420 e che già fanno rendere al meglio la scheda visto che non è altro che un R300...raddoppiato...ma pur sempre R300. Architettura quindi collaudata..quindi al momento con drivers che la sfruttano meglio o che cmq son più facilmente adattabili all'R420...in ogni caso in stadio più avanzato.
nVidia ha un architettura nuova ed ha bisogno di un po' di tempo per prendere confidenza con essa ed adattarla al meglio per i giochi. Ati può crescere con i drivers, ma nVidia ha più margine. Tanto per fare un esempio nei futuri drivers (che non significa già dalla prossima realese..ma cmq una delle prossime) ci sarà un nuovo compilatore che farà rendere di più con gli shader. E' sbagliato emettere una sentenza adesso. Bisognerà aspettare un po' di tempo. Nei prossimi mesi ne sapremo di più.
E' poi considera anche altre cose...non esistono solo i giochi. Chi fa uso di Linux poi è più indicato ad utilizzare nVidia.
Insomma ognuno ha i suoi motivi per acquistare.
Originariamente inviato da Dark Schneider
Bisognerà aspettare un po' di tempo. Nei prossimi mesi ne sapremo di più.
E' questo che intendo. Inutile continuare a creare thread in cui si afferma X800 60% + veloce in Far Cry o 6800 Ultra ultraveloce a 1600x1200...w i pixel shader 3.0 w i 2.0 etc..etc....
Alla fine una volta uscite ste benedette schede vedremo i risultati veri e propri con i nostri occhi ;)
Per il discorso "va di + e costa -" intendo un buon rapporto prezzo/prestazioni...come quello offerto dalla 9800pro ora come ora (per intenderci)...o le 5900xt@5950.
Io non sono pro nessuno.....la scheda che mi garba di + la prendo senza pensare tanto al brand....ho avuto modo di apprezzare la qualità di ati e anche quella di nvidia con lo sfigatissimo NV30 che cmq con gli ultimi forceware mi ha appena dato un bel 6065 pti in 3dschif03 (patch 340) con il pc in signa: non male per una scheda che per tutti era da buttare nel cesso.
Ciauz!
Io sto da Dio con la mia 9700 Pro@400 e di queste nuove entry non me ne può fregar di meno ;)
jappilas
09-05-2004, 15:43
Originariamente inviato da Dark Schneider
[cut]
E' poi considera anche altre cose...non esistono solo i giochi. Chi fa uso di Linux poi è più indicato ad utilizzare nVidia.
Insomma ognuno ha i suoi motivi per acquistare.
uhm, però questo post mi fa pensare che cmq un utente linux non comprerà una 6800 ultra...
e perchè appunto non ci sono solo giochi,
e perchè cmq i giochi 3D "gravosi" sotto il pinguino scarseggiano (e perderebbero cmq gli effetti audio directsound3d/eax)
e perchè, anche in ambito SW non ludico, i prog di grafica non sono molti....
a parte Blender (free), Maya (prof / commerciale) Realsoft4D... (nel 3d) cos' altro c' è ?
Cioè mi pare che cmq l' utente linux la scheda 3d non la stresserebbe molto, una 6800U meno che meno
... o sbaglio?
dragunov
09-05-2004, 20:12
ovviamente lo avevate già anticipato!
cdimauro
11-05-2004, 06:58
Originariamente inviato da nonikname
Infatti con o.c. ad aria l'ultraEx va a 475/1255 e la gt a 425/1200 : con quest'o.c. la gt supera già la ultra originale ( mi sa che di eloquente qui c'è solo il grafico sotto)
Sull'overclock t'hanno già risposto. Aggiungo qualche precisazione.
Dovresti capire che, sebbene siano entrambe soluzioni a 0,13u, ci sono due differenze fra NV40 e R420: il numero di transistor (60 milioni in più per NV40) e l'adozione della tecnologia low-K (per R420). Ora, non so tu, ma a mio modesto avviso queste due cose incidono, ognuno in una certa misura, sull'assorbimento della corrente e sulla scalabilità in frequenza del processore. E' chiaro, quindi, che NV40 non potrà MAI raggiungere gli stessi livelli di clock di R420. Com'è chiaro pure che l'aumento dell'assorbimento di corrente di un chip comporti di conseguenza una modifica anche sostanziale delle specifiche tecniche di alimentazione (leggi: requisiti degli alimentatori).
Ti ricordo che , fino a prova contraria , abbiamo davanti due architetture completamente diverse: una è la solita 9700x2 con qualche registro in più , una nuova tecnica di compressione e poco altro, l'altra è quasi totalmente nuova...
Ti rispondo usando il nome di una famosa rubrica di "Cuore": e chi se ne frega! Se nVidia ha voluto strafare un'altra volta, saranno pur sempre fatti suoi, no? Con NV30 ha proposto un'architettura più complessa di R300: quanti l'hanno sfruttata? Nessuno. Adesso ha fatto la stessa cosa: vediamo quanto supporto riceverà e se le sue caratteristiche innovative possono effettivamente esser sfruttate per avere dei giochi migliori: fino a prova contraria sono cose che rimarranno sulla carta.
Oltre a ciò, le differenze rispetto a R300 sono abbastanza e tali da non poter classificare R420 come una "minestra riscaldata". E la compressione delle texture delle mappe normali con quella definizione è qualcosa di fantastico: non so se capisci le implicazioni pratiche di questa nuova tecnologia.
Prima di trarre qualche conclusione attendibile io aspetterei prima di tutto lo sviluppo dei Driver Nvidia,
Anch'io: nella speranza che ne realizzino finalmente qualche versione senza cheat... :rolleyes:
poi c'è da capire il tempo necessario per l'uscita dei primi titoli DX9c (dato che gia Stalker dovrebbe uscire a settembre) e per finire c'è Doom3 , che se è scritto bene come dicono , dovrebbe essere un'engine usatissimo per i prossimi due anni ....
Bene: vedremo se e come verrà offerto supporto MASSICCIO alle caratteristiche di NV40.
Ricordiamoci che l'AA e l'AF sono solo dei filtri e con 2 filtri non ci costruisci un immagine3d.
Mah, da quando sono passato a una 9600Pro e ho potuto attivare entrambi i tipi di filtri, francamente non riesco più a vedere delle applicazioni 3D che non ne facciano uso. :D
(così come 2 rondini non fanno primavera..)
Quelle due rondini per i miei occhi hanno fatto l'estate: altro che la primavera! ;)
E menomale che ATI ha anticipato di 6 mesi l'uscita dell'XT se no a quest'ora erano grane....
Non avrebbe potuto farlo se non avesse già progettato l'architettura di R420 così come la conosciamo adesso. E' stato tutto marketing e strategia: non capisco di cosa ti possa lamentare. Alla fine ha sfornato una signora architettura che permetterà, per chi potrà acquistarla, di godersi i migliori (e pesanti) giochi alle più alte risoluzioni, con tutti i dettagli e i filtri al massimo: io non ci sputerei sopra. Da videogiocatore, intendo.
Ma fra 6 mesi cosa succederà ????
Non lo so: non ho nessuna sfera di cristallo a portata di mano. :asd:
So soltanto che i tuoi ultimi messaggi mi sembrano palesemente pro-nVidia: non me ne volere, ma un po' più razionalità e meno partigianeria sarebbero gradite. ;)
Comprati una 6800Ultra XT (o come la chiameranno), ma da videogiocatore la scelta mi pare scontata: X800 XT. Perché NV40 sarà pure tanto innovativa con gli SM 3.0, ma prima che ne arrivi il supporto passerà parecchio tempo, e in ogni caso non credo che riuscirà a reggere il carico di lavoro richiesto: i risultati di FarCry con FP32 sono piuttosto chiari, e pensare di sfruttare i FP16 anziché i FP32 significa soltanto voler fare del male ai propri occhi o doversi accontentatore, pur avendo speso un capitale. Oltre a ciò, le applicazioni SM3.0 probabilmente utilizzeranno il dynamic branching, con tutte le implicazioni che puoi ben immaginare con le architetture attuali...
Poi se uno vuol comprarsi una scheda soltanto per ammirare qualche demo tecnologico con gli effetti più avanzati, faccia pure... :asd:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.