PDA

View Full Version : Due GeForce 8800 GT per overclock da Gigabyte


Redazione di Hardware Upg
22-01-2008, 09:40
Link alla notizia: http://www.hwupgrade.it/news/skvideo/due-geforce-8800-gt-per-overclock-da-gigabyte_23959.html

Gigabyte introduce la tecnologia Gamer HUD in due nuove schede GeForce 8800 GT: overvolt della GPU direttamente da pannello windows

Click sul link per visualizzare la notizia.

Praetorian
22-01-2008, 09:53
overclock facile eh? :D bella sta cosa :D

serassone
22-01-2008, 09:54
In sostanza si tratterebbe di una sorta di "speedstep" applicato alla scheda video: mi sembra un'ottima idea, così quando le richieste sono minime si consuma meno corrente e si produce meno calore, viceversa quando è necessaria la massima potenza la scheda può esprimersi ai massimi livelli.
Resta da vedere come funzioni realmente, ma mi sembra proprio una buona idea, ripeto.

29Leonardo
22-01-2008, 10:00
In sostanza si tratterebbe di una sorta di "speedstep" applicato alla scheda video: mi sembra un'ottima idea, così quando le richieste sono minime si consuma meno corrente e si produce meno calore, viceversa quando è necessaria la massima potenza la scheda può esprimersi ai massimi livelli.
Resta da vedere come funzioni realmente, ma mi sembra proprio una buona idea, ripeto.

In effetti mi chiedo perchè non implementino queste funzionalità su schede di ultima generazione, ve lo immaginate a stare 3 ore a navigare su internet con una 8800gtx che frulla :asd:

Pakko
22-01-2008, 10:13
uhaahuah vero, sembra davvero figa cmq sia mi lascia perplesso il sistema di raffreddamento... e le memorie??? :confused:

ninja750
22-01-2008, 10:22
In sostanza si tratterebbe di una sorta di "speedstep" applicato alla scheda video: mi sembra un'ottima idea, così quando le richieste sono minime si consuma meno corrente e si produce meno calore, viceversa quando è necessaria la massima potenza la scheda può esprimersi ai massimi livelli.
Resta da vedere come funzioni realmente, ma mi sembra proprio una buona idea, ripeto.

In effetti mi chiedo perchè non implementino queste funzionalità su schede di ultima generazione, ve lo immaginate a stare 3 ore a navigare su internet con una 8800gtx che frulla :asd:

non so le ultime vga, ma per esempio le X1950XT di ATI questa cosa ce l'hanno già da tempo non hanno inventato nulla di nuovo ;)

killer978
22-01-2008, 10:24
Le ultime ATI 3800 hanno tutte questa funzone ovvero il Powerplay!!

In 2D scendono da 800mhz con 1,3V a 300mhz con 1,2V è un ottima mossa x i consumi!!!

Quindi ben vengano schede di questo tipo se servono a contenere i consumi!!!

TROJ@N
22-01-2008, 10:27
a prima vista sembra abbastanza diverso il pcb nella zona di alimentazione...mi sembra anche + corto no?

kralin
22-01-2008, 10:29
ma non basta usare atitool?

killer978
22-01-2008, 10:36
x Kralin

Non funziona Atitool con le ultime ATI, e poi non c'è bisogno fanno tutto in automatico in base al carico la GPU aumenta i mhz!!!

grifis87
22-01-2008, 10:53
qualcuno sa quanto verrebbero a costare queste schede?

ninja750
22-01-2008, 10:56
x Kralin

Non funziona Atitool con le ultime ATI, e poi non c'è bisogno fanno tutto in automatico in base al carico la GPU aumenta i mhz!!!

più che i mhz (che già li variava la mia ex nvidia 6800) variano il voltaggio che è la cosa principale per abbattere i consumi e il calore

Evangelion01
22-01-2008, 10:58
In effetti mi chiedo perchè non implementino queste funzionalità su schede di ultima generazione, ve lo immaginate a stare 3 ore a navigare su internet con una 8800gtx che frulla :asd:

Infatti basta installare Rivatuner e utilizzare la guida presente nel furum. Io quando navigo la downclocco dimezzandone i mhz, e non ho mai avuto problemi.... ;)

stefalo
22-01-2008, 11:04
Ma ancora si sotinano a sfornare le 8800 gt con 256 MB ?? bohh

Spellsword
22-01-2008, 11:10
io sta cosa la faccio già con atitool, ci va veramente 10 minuti a configurarla.. le hd3000 la fanno in automatico, dalla serie x1000 le ati hanno due modalità di funzionamento, Quindi la novità dove è?

ZiP!
22-01-2008, 11:31
Abbassare il clock non serve praticamente a nulla, quello che incide sui consumi è il voltaggio. Questa proposta imho è molto interessante, sarei curioso di sapere i valori che vengono impostati e magari dei test sul consumo effettivo.

Catan
22-01-2008, 11:44
ma ragazzi io non è per dire ma come molte persone dicono
sulle ati è dalla x1800 che ci sono 2 frequenza diverse a 2 voltaggi diversi per il 3d ed il 2d, solitamente un 1.3v a tot frequenza per il 3d e un 1.1v a tot frequenze per il 2d.
è per questo che se ci fate caso la tanto bistrattata hd2900xt aditata come mostruosa nei consumi in idle consuma meno di una 8800gtx.
le nvidia da quello che ricordo gia dalla 6800 avevano voltaggio variabile fisso da bios per il 2d e 3d.
credo che l'unica novita è che ati dalla serie x1800 in poi lascia sui suoi chip di fascia alta lascia poter decidere all'utente in ambiente windows il voltaggio della gpu e ram (senza andare a scomodare atitool o atitrytool basta cercare il softwarino ati che si chiama atisystem o come si chiama adesso amdsystem)
mentre le vga nvidia non hanno questo controllo dinamico dei voltaggi da windows , e quindi gigabyte per poter implementare questa features ha dovuto aggiungere un chip di controllo supplettivo .

Evangelion01
22-01-2008, 11:59
Abbassare il clock non serve praticamente a nulla, quello che incide sui consumi è il voltaggio.

Sarà , pero intanto ci sono una decina di gradi in meno sul core,e ciò vuol dire che la corrente consumata è decisamente inferiore. :)

manu89ft
22-01-2008, 12:22
ma questa scheda va su una Asus P5B-E ?? non capisco molto la storia del PCI-E 2.0... con un ali da 550Watt pensate che la tengo bene?? grazie..

Mparlav
22-01-2008, 12:47
Ha una sezione d'alimentazione a 4 fasi.
Con in più la possibilità d'overvolt, prevedo overclock da paura su sta' scheda.
Imho, gli 800/1900/2000 li fa' :-)

Tra l'altro il dissy mi sembra piuttosto corposo.

Mi piace quando qualcuno cerca di discostarsi dalla "massa" delle solite schede con reference design e dissipatori.

C'è da vedere il prezzo di questa, perchè quella "vecchia" col dissy simil-Zalman costa quanto tutte le altre 8800GT.

29Leonardo
22-01-2008, 13:01
Infatti basta installare Rivatuner e utilizzare la guida presente nel furum. Io quando navigo la downclocco dimezzandone i mhz, e non ho mai avuto problemi.... ;)

Si ma ciò implica il fatto che tu debba usare un programma esterno e fare manualmente ogni volta la cosa, qui mi pare sia automatico ;)

MiKeLezZ
22-01-2008, 13:32
La voglio! Dove sta? Quanto costa?
Mi faccio il PC giggabytezz

Evangelion01
22-01-2008, 13:45
Si ma ciò implica il fatto che tu debba usare un programma esterno e fare manualmente ogni volta la cosa, qui mi pare sia automatico ;)

Ammesso che sia automatico, con Riva è semplicissimo : una volta settato basta 1 click. :D
Cmq ben vengano tutti questi sistemi. Anzi , se si potesse spegnere la vga quando non serve sarebbe il massimo....

Gabriyzf
22-01-2008, 14:00
bel raffreddamento rispetto alla mia rev.1:
però le memorie?

il Caccia
22-01-2008, 15:19
si matanto già non sono reperibili quelle normali, figurati queste, ne manderanno fuori 3-4....

D3stroyer
22-01-2008, 17:11
mi ricorda tanto il mio vecchio VF-900

MiKeLezZ
22-01-2008, 19:23
Anzi , se si potesse spegnere la vga quando non serve sarebbe il massimo....Cavolo, nessuo ci ha mai pensato: e spegnere la scheda grafica quando il monitor è spento? Non sarebbe una feature da paura?
Adesso vado a brevettarla...

Mirkolo
22-01-2008, 21:44
Le nuove schede madri in arrivo hanno il video integrato e la possibilità di switchare al volo da integrato (con discreta spenta) a scheda discreta, gran bella cosa.

superbau
23-01-2008, 02:07
hahahah neverwinter night 2 sta talmente nel fosso che lo regalano con la scheda video LOL

che delusione, venendo da nwn1

*Caos*
23-01-2008, 11:53
Quindi visto che Crysis lo regalano con i PC vuol dire che sta nel fosso a far compagnia a NwN2?

Hai proprio capito tutto di marketing...

Meglio parlare della scheda video vah.

CoolBits
23-01-2008, 13:56
Promettono bene in oc...chissà quale sarà il voltaggio max per la gpu...con 1.3 si dovrebbero prendere gli 850mhz con dissipazione adeguata