View Full Version : GeForce 6800 Ultra: conferme finali per l'alimentazione
Redazione di Hardware Upg
07-06-2004, 13:56
Link alla notizia: http://news.hwupgrade.it/12560.html
Dopo un'iniziale incertezza, emergono dettagli finali sui requisiti di alimentazione per le schede video NVIDIA GeForce 6800 Ultra: alimentatore da 350 Watt e 2 Molex anche non indipendenti
Click sul link per visualizzare la notizia.
Castellese
07-06-2004, 14:00
Continuo a pensare che sia davvero eccessivo tutto ciò per una scheda per videogiochi (a partire dal prezzo)
HyperText
07-06-2004, 14:02
Ma è possibile che la mia scheda video non abbia neanche 1 molex?
alimentatore più potente? A questo punto me ne compro un altro solo per la geforce, anzi, farebbero bene a regalarlo in bundle!!! Ma quanto costa, in termini di corrente elettrica consumata, un'ora di videogiocata con questo mostro? :-D
Da quando Nvidia dà consigli sull'overclock??
Cmq le specifiche sull'ali in pratica sono rimaste le stesse: un 480 schifoso e un 350 di marca buona sono quasi equivalenti... :rolleyes:
Jack Ryan
07-06-2004, 14:08
errata corrige
alcune GT assomigliano di più alla 6800u e hanno 2 molex (anche se con 1 la scheda funzionerà benissimo ugualmente)
quindi le GT con 2 molex potrebbero salire di più in OC con ali molto potente ... vedremo (esempio la Albatron ha solo 1 molex)
RadeonDexter
07-06-2004, 14:18
a parte che è la stessa cosa collegare le alimentazioni in un modo o nell'altro perchè all'interno dell'alimentatore tutti i fili della 5 volt arrivano da un contatto unico e lo stesso si dica per la 13 volt....
Condivido! Fanno le macchine e poi devi essere tu a farti la strada. Non non ci siamo.
Bello sarebbe che facessero la scheda con l'alimentatore dedicato esterno.
RadeonDexter
07-06-2004, 14:19
...ehm 12 volt nn 13....
sdjhgafkqwihaskldds
07-06-2004, 14:33
quote:
Qualora si desideri overcloccare la propria scheda video, NVIDIA consiglia di utilizzare un alimentatore più potente e di collegare i due molex ciascuno ad un connettore indipendente proveniente dall'alimentatore.
E se la scheda si brucia perchè nVidia ha consigliato di overcloccarla me la cambiano, o la garanzia non include danni da OC ? :muro:
Assassin
07-06-2004, 14:36
D'altronde vuoi o non vuoi una spesa tira l'altra e l'energia elettrica non la regalano. La differenza ovviamente non la fa di certo una scheda video più o meno potente.. ma comincio davvero a pensare ad un sistema di alimentazione tramite pannelli solari.. ma guarda te che bisogna fare per una partitina...
Originariamente inviato da Jack Ryan
errata corrige
alcune GT assomigliano di più alla 6800u e hanno 2 molex (anche se con 1 la scheda funzionerà benissimo ugualmente)
quindi le GT con 2 molex potrebbero salire di più in OC con ali molto potente ... vedremo (esempio la Albatron ha solo 1 molex)
a me pare che la albatron invece ne abbia 2........
http://www.hwupgrade.it/articoli/1032/albatron_4.jpg
così come la ultra, si ritorna al solito discorso , scelte delle singole case, e quella di albatron mi sembra chiara.....
Quando comprai un Antec True Power 550W (pagandolo una cifra....) dentro di me allora pensai :"Certo che stavolta ho voluto proprio fare lo sborone.....quando mai mi servirà per un PC DESKTOP......".......ultime parole famose....5 mesi dopo esce questa scheda (che cmq non penso di comprare).......
Incredibile adesso mi viene quasi da pensare che con qualke hd in raid e un bel prescott overcloccato o un AMD FX e questa scheda in overclock quasi quasi faccia fatica.....
Roba da :eek: !!!!!!!!!!!!!
:eek:
ma infatti la scheda gira con un 350watt di buona qualità...
si ma se usi un alimentatore da 350W puoi avere solo la scheda video o appena monti un secondo HD salta tutto ????;)
x sgksgk: fatica non la fa tranquillo, se guardi il mio pc in signature capirai ;)
Assassin
07-06-2004, 16:23
con un 350 fatica non ne fa..basta vedere la configurazione che era stata testata la prima volta dalla redazione di hwupgrade..
halduemilauno
07-06-2004, 16:51
Originariamente inviato da kuru
quote:
Qualora si desideri overcloccare la propria scheda video, NVIDIA consiglia di utilizzare un alimentatore più potente e di collegare i due molex ciascuno ad un connettore indipendente proveniente dall'alimentatore.
E se la scheda si brucia perchè nVidia ha consigliato di overcloccarla me la cambiano, o la garanzia non include danni da OC ? :muro:
nVidia ha consigliato di OC????
:rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:
Originariamente inviato da halduemilauno
nVidia ha consigliato di OC????
:rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:
beh anch'io fra le righe la leggo così....
Qualora si desideri overcloccare la propria scheda video, NVIDIA consiglia di utilizzare un alimentatore più potente e di collegare i due molex ciascuno ad un connettore indipendente proveniente dall'alimentatore.
....:rolleyes:
Ex sostenitore NVidia, preciso.
Il progetto NV40 è ottimo, sorprendente direi, ma non puoi creare un mostro di scheda aggiungendo solo altra energia a quella che già si mangia. Non era più furbo, progettualmente intendo, implementare miglioramenti strutturali per far crescere le prestazioni pensando anche al fattore "risparmio di energia"?
Forse il giocatore "entusiasta" incallito possiede solo un paio di HDD e di lettori ottici e un alimentatore da 500W, ma non credo siano poi così tanti... i case dei cosidetti "entusiasti" di tutto il mondo sono pieni zeppi di roba!!! Il discorso è questo: è nata una scheda super-potente, la PIU' POTENTE, ma il suo limite risiede nel fatto che sarà sempre e solo un prodotto "di nicchia", "per soli pochi fortunati" per il prezzo che possiede e che possiederà ancora per molto (inarrivabile per i più) con l'unica differenza che rimarrà alla storia solo per quel molex aggiuntivo, per le richieste esose di alimentazione che richiede soprattutto in overclock, le stesse che secondo il produttore ne giustificano il prezzo! La Radeon 9800XT insegna: scheda strepitosa (progetto vecchio spremuto fino all'osso senza bisogno di altri molex aggiuntivi o cose del genere!) che con il passare del tempo è scesa di prezzo mantenendo la potenza grafica che aveva (basta guardare alcuni bench con le X800 e le FX6800)
... non parlo per essere sempre da quella parte... il più delle volte i fatti hanno dato ragione ad ATI, anche in fatto di marketing... e succederà ancora!
Sinceramente la comprerei una 6800 per stare davanti alle x800, ma non pagherei uno sproposito per avere qualche frames in più che nemmeno noto, "che nemmeno sfrutto"... pixel shaders 2.0 o 3.0? Non lo so chi vincerà, ma infondo che importanza ha se so che fra 6 mesi sarà già troppo vecchio il mio mostro! Ed allora perché non dividere la spesa di un gigante come la 6800ULTRA per due e cambiare scheda con questo metodo di sei in sei mesi rimanendo comunque un "entusiasta" dei videogiochi di ultima generazione!
... chissà, forse ragiono così perché non sono ricco ed uno ricco non si fa di questi problemi, compra felice di farlo e basta, ma una società del livello di NVidia, piena zeppa di brevetti validi suoi e comperati, non potrebbe regalarci l'illusiione di pompare al limite un chip grafico attraverso delle vere innovazioni/miglioramenti strutturali di quel chip.
Scusate se mi sono dilungato, era solo un pensiero felice verso un'azienda che mi ha fatto sognare e che ora ha perso un po' di punti nella mia personale lista dei preferiti. Ciaoz.
marcobrd
07-06-2004, 19:59
alla faccia dello sviluppo sostenibile. io prima di pensare a prendere schede che consumano 3000 watt o di overclockare, penso al risparmio energetico. mi sembra ben piu' importante. mi terro' la mia 9800 non pro finche' non uscira' una scheda 2 volte piu' potente ma che allo stesso tempo consumi la stessa corrente, o magari anche meno. e' questo il vero sviluppo: avere risultati migliori spendendo le stesse risorse. se per avere risultati doppi devo investire il doppio (in questo caso in energia), beh... non vedo un gran miglioramento, e mi tengo il mio pc che crea meno problemi (e gia' ne crea) al pianeta terra
AndreaG.
07-06-2004, 20:17
Originariamente inviato da marcobrd
alla faccia dello sviluppo sostenibile. io prima di pensare a prendere schede che consumano 3000 watt o di overclockare, penso al risparmio energetico. mi sembra ben piu' importante. mi terro' la mia 9800 non pro finche' non uscira' una scheda 2 volte piu' potente ma che allo stesso tempo consumi la stessa corrente, o magari anche meno. e' questo il vero sviluppo: avere risultati migliori spendendo le stesse risorse. se per avere risultati doppi devo investire il doppio (in questo caso in energia), beh... non vedo un gran miglioramento, e mi tengo il mio pc che crea meno problemi (e gia' ne crea) al pianeta terra
C'è già quella scheda e si chiama x800xt, esce a fine mese (lo so lo so, consuma leggermente di più...). con i filtri attivati và il doppio di una 9800pro.
Ragazzi mi è venuto un dubbio... la 9800 pro non ha molex aggiuntivi vero?
AndreaG.
07-06-2004, 23:02
Originariamente inviato da bizzu
Ragazzi mi è venuto un dubbio... la 9800 pro non ha molex aggiuntivi vero?
Si la 9800 ha l'alimentazione tramite cavetto quello tipo floppy (come si chiama!?)
DioBrando
08-06-2004, 03:39
Originariamente inviato da bizzu
Da quando Nvidia dà consigli sull'overclock??
Cmq le specifiche sull'ali in pratica sono rimaste le stesse: un 480 schifoso e un 350 di marca buona sono quasi equivalenti... :rolleyes:
infatti...quello che s'era scritto l'altra volta...e cioè che Nvidia n ha mai precisato cosa intendesse per 480W o la marcia indietro a 350.
Se si intendono effettivi allora il costo è praticamente =, anzi forse qlc di + per il secondo vedi marche top della gamma tipo Nexus o Fortron...
bene! vorrà dire il prossimo inverno protremo tranquillamente comprare una di queste caldaie magari con un precotto e spegnere definitivamente il riscaldamento di casa...
In ogni caso questa storia non ha fatto bene alla 6800....
Serpico78
08-06-2004, 10:51
http://news.hwupgrade.it/immagini/v5-6000_gfxboards_6000_000.jpg
http://www.eurogamer.net/assets/converted/pics/previews/v56000/v5602b.jpg
:D :D :D :D :D
cdimauro
08-06-2004, 21:48
Quando postate queste immagini enormi, sappiate che vi odio: cordialmente, ma vi odio... :cry:
BurninMachine
09-06-2004, 10:43
Ma allora fra 5 anni un utente appassionato x far alimentare una skeda video dovrà richiedere un allacciamento ad un centrale nucleare??? Ai posteri l'ardua sentenza :D
Originariamente inviato da lappaz
Ex sostenitore NVidia, preciso.
Il progetto NV40 è ottimo, sorprendente direi, ma non puoi creare un mostro di scheda aggiungendo solo altra energia a quella che già si mangia. Non era più furbo, progettualmente intendo, implementare miglioramenti strutturali per far crescere le prestazioni pensando anche al fattore "risparmio di energia"?
Forse il giocatore "entusiasta" incallito possiede solo un paio di HDD e di lettori ottici e un alimentatore da 500W, ma non credo siano poi così tanti... i case dei cosidetti "entusiasti" di tutto il mondo sono pieni zeppi di roba!!! Il discorso è questo: è nata una scheda super-potente, la PIU' POTENTE, ma il suo limite risiede nel fatto che sarà sempre e solo un prodotto "di nicchia", "per soli pochi fortunati" per il prezzo che possiede e che possiederà ancora per molto (inarrivabile per i più) con l'unica differenza che rimarrà alla storia solo per quel molex aggiuntivo, per le richieste esose di alimentazione che richiede soprattutto in overclock, le stesse che secondo il produttore ne giustificano il prezzo! La Radeon 9800XT insegna: scheda strepitosa (progetto vecchio spremuto fino all'osso senza bisogno di altri molex aggiuntivi o cose del genere!) che con il passare del tempo è scesa di prezzo mantenendo la potenza grafica che aveva (basta guardare alcuni bench con le X800 e le FX6800)
... non parlo per essere sempre da quella parte... il più delle volte i fatti hanno dato ragione ad ATI, anche in fatto di marketing... e succederà ancora!
Sinceramente la comprerei una 6800 per stare davanti alle x800, ma non pagherei uno sproposito per avere qualche frames in più che nemmeno noto, "che nemmeno sfrutto"... pixel shaders 2.0 o 3.0? Non lo so chi vincerà, ma infondo che importanza ha se so che fra 6 mesi sarà già troppo vecchio il mio mostro! Ed allora perché non dividere la spesa di un gigante come la 6800ULTRA per due e cambiare scheda con questo metodo di sei in sei mesi rimanendo comunque un "entusiasta" dei videogiochi di ultima generazione!
... chissà, forse ragiono così perché non sono ricco ed uno ricco non si fa di questi problemi, compra felice di farlo e basta, ma una società del livello di NVidia, piena zeppa di brevetti validi suoi e comperati, non potrebbe regalarci l'illusiione di pompare al limite un chip grafico attraverso delle vere innovazioni/miglioramenti strutturali di quel chip.
Scusate se mi sono dilungato, era solo un pensiero felice verso un'azienda che mi ha fatto sognare e che ora ha perso un po' di punti nella mia personale lista dei preferiti. Ciaoz.
BRAVO!!!....
stavo per dire la stesa cosa,
inoltre c'è da dire...
- "che un consumo inferiore ha un riflesso diretto sui requisiti di dissipazione termica delle schede."
- "Grazie alla forte presenza all'interno del JEDEC, ATI sta ponendo le premesse per lo sviluppo della prossima generazione di memorie video: GGR4. Queste memorie introdurranno innovazioni in termini di risparmio energetico e di consumo, oltre a permettere di ottenere frequenze di clock stimate a 1,4 GHz di clock (2,8 GHz effettivi)."
...a quanto pare la ATi non pensa solo a se stessa, ma anche al consumatore...
- "Oltre a questo, le soluzioni ATI non hanno mai creato problemi in termini di spazio all'interno del Case, occupando solo l'area dello Slot AGP 8x già con il reference design ATI. I requisiti in termini di alimentazione sono sempre rimasti all'interno di quello che è indicabile come norma, quindi un connettore Molex (identico a quello di un hard disk o di un lettore ottico) per alimentare direttamente la scheda e un alimentatore ATX da almeno 300 Watt, uno standard per un PC di recente costruzione."
- "ATI ha scelto, con il progetto Radeon X800, di seguire il medesimo trend. Le due schede R420 richiedono di essere alimentate con un tradizionale connettore Molex a 4 pin, in abbinamento ad un tradizionale alimentatore ATX. Le dimensioni complessive e il sistema di raffreddamento permettono di utilizzare queste schede anche in sistemi Mini-PC Barebone, senza particolari requisiti in termini di raffreddamento."
- "L'approccio di NVIDIA con le schede NV40 è completamente all'opposto: il desing richiede di utilizzare anche l'area corrispondente allo Slot PCI adiacente a quello AGP 8x, con 2 Molex di alimentazione che devono essere utilizzati per alimentare la scheda e un alimentatore ATX che è consigliato sia da 480 Watt. Al momento, inoltre, non pare possibile utilizzare schede GeForce 6800 Ultra all'interno di sistemi Barebone quali i popolari Shuttle."
"[...]ATI Radeon X800 Platinum Edition e NVIDIA GeForce 6800 Ultra fanno registrare prestazioni velocistiche molto vicine tra di loro, anche se la soluzione ATI pare nel complesso superiore. In particolare, il prodotto canadese mostra un chiaro vantaggio utilizzando filtraggio anisotropico e FSAA alle risoluzioni più elevate...[...]
[...]ATI ha sempre ricercato, con le ultime generazioni di soluzioni video, la massima compatibilità con tutti i tipi di sistema. Niente requisiti particolari anche per le soluzioni Radeon X800, entrambe capaci di operare stabilmente con un alimentatore da almeno 300 Watt, uno standard per i PC odierni. Il calore generato durante il funzionamento da queste schede è addirittura inferiore a quello della soluzione Radeon 9800 XT, con un sistema di raffreddamento proporzionato e tale da non creare ingombri anomali[...]
[...]NV40 e R420 sono soluzioni estremamente potenti: se le schede ATI hanno un margine di vantaggio attuale, quelle NVIDIA necessitano ancora di un notevole sviluppo dal versante driver a fronte dell'architettura completamente nuova. In prospettiva il supporto agli Shader 3.0 può rappresentare un elemento di forza per NVIDIA, ma in un mercato come quello delle schede video 3D nel quale nuovi prodotti si alternano ogni 6 mesi è indispensabile poter sfruttare da subito i vantaggi della tecnologia. Al momento attuale, osservando i titoli a disposizione, non pare che gli Shader 3.0 possano realmente fare la differenza, a breve termine, su quelli 2.0.[...]"[Paolo Corsini , Raffaele Fanizzi]
...ditemi voi a che serve una scheda del genere...
http://www.hwupgrade.it/i.php?img=nv40_extreme_front.jpg
Si parla molto della 6800 e delle sue incredibili capacità, ma a quanto pare, a parte nei test di Pixel Shader, la x800xt non ha nulla da invidiare alla 6800Ultra, che a suo sfavore ha una serie di gap veramente penalizzanti!!!
...insomma, ati, ati, ati....
basta, ho scritto anche troppo, ciao!
...mmm Prescott,GeForce6800Ultra,...secondo voi dove la posso mettere la centrale nucleare?:confused:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.