PDA

View Full Version : Come cuocere una GeForce FX...


Simon82
17-04-2003, 08:55
Pauroso..:eek::D:rolleyes:

(della serie.. la "automatic detection" del carico di lavoro della vpu serve a molto)



How can a screensaver cook a GeForce FX 5800 Ultra card v1.0 by Ozren Zagmester

It’s very very simple to do!

Test system (even though this will probably work on any system):
AthlonXP 2400+
Chaintech Zenith 7NJS nForce2 board
NVIDIA nForce 2.03 drivers
2x 256MB Infineon PC3200
Gainward GeForce FX 5800 Ultra
NVIDIA Detonator 43.45 drivers
Terratec Aeron Sky 5.1
Latest XP drivers, too lazy to look up as it’s unimportant anyway
DirectX9
Windows XP Pro SP1
To make a GeForce FX 5800 Ultra card suffer great pain, apart from Detonators 43.45 (we will test other versions of Detonators during the night) you need a 3D screensaver. Even the OpenGL screensavers like Pipes that come with Windows are OK, but for some serious “firepower” (to make the card extra hot in no time) you need a screensaver like Matrix Reloaded from www.uselesscreations.com or, the one we used the most, DiveVisions 2.0 from www.atlantis3d.com. This behavior was first noticed by Denis Arunovic from our team, and after he called me in the middle of the night, I joined the “hunt”.

Set up the screensaver to turn on itself after 1 minute, so you don’t have to wait too long. After the screensaver starts, you’ll hear the fan on the GF FX 5800 Ultra start spinning. Just wait around 5-10 secs and you’ll hear the fan stop! The 3D screensaver will continue playing on the screen, and after some time (depending on the screensaver) you’ll start seeing artifacts, or in the case of DiveVisions, the screen will look like the monitor was having some interference from a strong magnetic source. You can leave the screensaver running as long as you feel its safe, but don’t overdo it. We tried this around 10 times and were cautious enough not to let it run to long, as the temperature on the card, according to the drivers, reached 95-100C. According to my finger, the drivers were not lying (ouch!). When you end the screensaver, you’ll realize that your 2D screen is messed up and wavy. At this point the fan still won’t be running. To make it run, start something like 3dMark 2001. After you start the demo/benchmark, you’ll finally hear the fan! It will seem as if the 3dMark crashed, but just let it unattended. You’ll see some bizarre things but after a while the card will resume working as normal - when the fan cools it down (the cooling, when it works, is excellent, at least on the Gainward card).

This behavior was confirmed by Croteam who tried it with a NVIDIA reference board they received from NVIDIA Developer Relations, and also by a friend of mine with a MSI GF FX 5800 Ultra card. Also, if you try running the screensaver in the preview mode, the fan will spin the whole time. For this to work, it has to be done with a “real” screensaver, not with the preview of one. I am off to try this on a different system (just to make sure for one more time) and then I’ll start trying different Detonators.

If you think why this is happening, well we think that for some reason when using a 3D screensaver the card, or its drivers, decide the card is not running in 3D mode and stop the fan. The problem, of course, is that regardless of the temperature the card reaches, the fan won’t start running again (as long as you don’t exit the screensaver and start running 3dMark or some game like Il2 Sturmovik, Quake 3, etc.). This means that NVIDIA has made a big overlook on how the whole system of cooling-on-demand (i.e. when you are in 3D, or when you a reach high temperature) works. Basically the whole thing obviously works on the basis that the card/drivers will realize they are running in 3D, instead of also taking the temperature in consideration. I mean, you have the bloody thing that measures the temperature, why not use it as you should?

Answer might be that NVIDIA decided to minimize noise, and to do that decided the fan should not spin in 2D (or when the card thinks its in 2D) because it is very likely that the user will be doing something that does not produce much noise (for example writing a document in Word). When the user goes into 3D, to play a game, well then the game will produce lot of sound (explosions, music, you name it) that will diminish the noise that cooler on a GF FX 5800 Ultra card makes. I seriously hope this is not case. We’ll never know, as I am sure NVIDIA won’t admit such a thing even if it was true.

Update: Well, this is bad! the thing is still running, with the temperature of the GF FX 5800 Ultra heatsink currently at 95.2C (and rising) and of course, the fan isnt working. all this is with a system that is not in a case, but out open at the table!

i just installed 43.45, left everything at default, and the same thing happens!

New config:
P4 2.4GHz (533FSB)
Gigabyte 8GE667 Pro i845GE mobo
1x 256MB Corsair XMS3500C2
CL Audigy! (drv update 31.12.2002)
and of course, GF FX 5800 Ultra
(rest is same, DX9, Det 43.45s,...)
Ozren Zagmester also sent me a .zip file of two .mov's he recorded of during his experiment. Kinda funny to see the fan just stop. What's interesting is the tempatures! Yikes!

Click Here! for the 8.8Mb .zip file


:D

Simon82
17-04-2003, 09:05
Originally posted by "UltimateBou"

cavolo la stavo postando pure io per mettere in guardia i possessori di geffx! certo che è pazzesco, una scheda che fonde per lo screensaver! :mc: :muro: :sofico:

:D


Il bello e' che la ventola si ferma dopo un pochino.. magari parte lo screensaver e tu sei in bagno, torni in camera 10 minuti dopo e la scheda supera i 100 gradi.. roba da pazzi.. tempo mezzora e si fotte tutto. Dice chiaramente che dopo anche tornando al desktop la ventola rimane spenta.. :eek:

Gablogan
17-04-2003, 10:45
fantastico,mi sconpiscio dalle risate :D

mcatk
17-04-2003, 10:49
Originally posted by "Gablogan"

fantastico,mi sconpiscio dalle risate :D


Pure io pure io :D :eek:

Si st@ raggiungendo il paradossale.....

VAbbè le prestazioni non eccelenti, VAbbè il rumore pressochè "assordante", ma un "bug" (lo chiamo così perchè non saprei come meglio definirlo)del genere che porta la scheda alla fusione...... :mc: :mc: :mc: :mc:

fox76
17-04-2003, 10:49
Che bello....

magari uno si prende la 5800 ultra tutto contento.... se ne va un attimo in cucina si fa uno spuntino nel mentre gli parte lo screen saver.....

si inizia a sentire puzza di bruciato e quando torna a vedere cosa succede si trova il pc in fiamme!!! :D :D

NV30 ogni giorno nuove sorprese, in effetti è vero è un chip che col tempo riserve sempre novità.....

meno male che mi sono preso una 9700 pro!!! :D

mcatk
17-04-2003, 10:52
Originally posted by "Simon82"

Pauroso..:eek::D:rolleyes:

(della serie.. la "automatic detection" del carico di lavoro della vpu serve a molto)



How can a screensaver cook a GeForce FX 5800 Ultra card v1.0 by Ozren Zagmester

It’s very very simple to do!

Test system (even though this will probably work on any system):
AthlonXP 2400+
Chaintech Zenith 7NJS nForce2 board
NVIDIA nForce 2.03 drivers
2x 256MB Infineon PC3200
Gainward GeForce FX 5800 Ultra
NVIDIA Detonator 43.45 drivers
Terratec Aeron Sky 5.1
Latest XP drivers, too lazy to look up as it’s unimportant anyway
DirectX9
Windows XP Pro SP1
To make a GeForce FX 5800 Ultra card suffer great pain, apart from Detonators 43.45 (we will test other versions of Detonators during the night) you need a 3D screensaver. Even the OpenGL screensavers like Pipes that come with Windows are OK, but for some serious “firepower” (to make the card extra hot in no time) you need a screensaver like Matrix Reloaded from www.uselesscreations.com or, the one we used the most, DiveVisions 2.0 from www.atlantis3d.com. This behavior was first noticed by Denis Arunovic from our team, and after he called me in the middle of the night, I joined the “hunt”.

Set up the screensaver to turn on itself after 1 minute, so you don’t have to wait too long. After the screensaver starts, you’ll hear the fan on the GF FX 5800 Ultra start spinning. Just wait around 5-10 secs and you’ll hear the fan stop! The 3D screensaver will continue playing on the screen, and after some time (depending on the screensaver) you’ll start seeing artifacts, or in the case of DiveVisions, the screen will look like the monitor was having some interference from a strong magnetic source. You can leave the screensaver running as long as you feel its safe, but don’t overdo it. We tried this around 10 times and were cautious enough not to let it run to long, as the temperature on the card, according to the drivers, reached 95-100C. According to my finger, the drivers were not lying (ouch!). When you end the screensaver, you’ll realize that your 2D screen is messed up and wavy. At this point the fan still won’t be running. To make it run, start something like 3dMark 2001. After you start the demo/benchmark, you’ll finally hear the fan! It will seem as if the 3dMark crashed, but just let it unattended. You’ll see some bizarre things but after a while the card will resume working as normal - when the fan cools it down (the cooling, when it works, is excellent, at least on the Gainward card).

This behavior was confirmed by Croteam who tried it with a NVIDIA reference board they received from NVIDIA Developer Relations, and also by a friend of mine with a MSI GF FX 5800 Ultra card. Also, if you try running the screensaver in the preview mode, the fan will spin the whole time. For this to work, it has to be done with a “real” screensaver, not with the preview of one. I am off to try this on a different system (just to make sure for one more time) and then I’ll start trying different Detonators.

If you think why this is happening, well we think that for some reason when using a 3D screensaver the card, or its drivers, decide the card is not running in 3D mode and stop the fan. The problem, of course, is that regardless of the temperature the card reaches, the fan won’t start running again (as long as you don’t exit the screensaver and start running 3dMark or some game like Il2 Sturmovik, Quake 3, etc.). This means that NVIDIA has made a big overlook on how the whole system of cooling-on-demand (i.e. when you are in 3D, or when you a reach high temperature) works. Basically the whole thing obviously works on the basis that the card/drivers will realize they are running in 3D, instead of also taking the temperature in consideration. I mean, you have the bloody thing that measures the temperature, why not use it as you should?

Answer might be that NVIDIA decided to minimize noise, and to do that decided the fan should not spin in 2D (or when the card thinks its in 2D) because it is very likely that the user will be doing something that does not produce much noise (for example writing a document in Word). When the user goes into 3D, to play a game, well then the game will produce lot of sound (explosions, music, you name it) that will diminish the noise that cooler on a GF FX 5800 Ultra card makes. I seriously hope this is not case. We’ll never know, as I am sure NVIDIA won’t admit such a thing even if it was true.

Update: Well, this is bad! the thing is still running, with the temperature of the GF FX 5800 Ultra heatsink currently at 95.2C (and rising) and of course, the fan isnt working. all this is with a system that is not in a case, but out open at the table!

i just installed 43.45, left everything at default, and the same thing happens!

New config:
P4 2.4GHz (533FSB)
Gigabyte 8GE667 Pro i845GE mobo
1x 256MB Corsair XMS3500C2
CL Audigy! (drv update 31.12.2002)
and of course, GF FX 5800 Ultra
(rest is same, DX9, Det 43.45s,...)
Ozren Zagmester also sent me a .zip file of two .mov's he recorded of during his experiment. Kinda funny to see the fan just stop. What's interesting is the tempatures! Yikes!

Click Here! for the 8.8Mb .zip file


:D


potresti linkare please, thanks :)

vincenzonapoli
17-04-2003, 10:54
Beh alla Nvidia volevano sorprenderci con effetti speciali!! :D

ziobystek
17-04-2003, 10:58
Originally posted by "vincenzonapoli"

Beh alla Nvidia volevano sorprenderci con effetti speciali!! :D

si le fiamme direttamente nel case! :D

-=Krynn=-
17-04-2003, 11:23
Originally posted by "ziobystek"



si le fiamme direttamente nel case! :D

Ormai le fiamme dipinte sono superate....
Meglio quelle vere che eruttano direttamente dall'interno :D

Simon82
17-04-2003, 11:31
Ci sono anche i video.. :eek::D:D:D:

http://www.pcekspert.com/

OverClocK79®
17-04-2003, 11:33
forse è per quello che qlkuno ha messo il raff a liquido :D

BYEZZZZZZZZZZZ

Maurizio XP
17-04-2003, 11:34
E' una cosa davvero ridicola però

lunaticgate
17-04-2003, 11:39
:eek: :eek: :eek:

Ragazzi non ci scherzerei troppo sopra.......dobbiamo mettere in allerta il mondo intero contro questo grande pericolo......dopo la guerra e la sars adesso anche l'Nvidia vuole la sua parte.
:muro: :muro:


P.S. LOL :D

ZapMangusta
17-04-2003, 11:54
La mia configurazione è quella sotto......Ge Force FX Ultra 5800 Terratec, provato lo screen saver tubi 3d, matrix reloaded e dive 2.0..........La ventola non si ferma.....e così il primo di aprile è passato da 16 giorni...........

ant72
17-04-2003, 12:03
Ciao! Anche io ho provato gli stessi screen saver con i detonator 43.51 e non ho problemi di temperature! (t-core 54° t-amb 39°) :D

falcon.eddie
17-04-2003, 12:03
Cmq il punto di cottura della FX è di 140 °C(ZapMangusta può confermare,basta guardare nei det)...Monta un sistema simile a quello dei pentium che arrivata ad una certa temperatura riduce il ciclo di clock e la scheda anche se la ventola si ferma NON si brucia,probabilmente si tratta di una partita di schede fallate. ;)

Dardo Xp
17-04-2003, 12:05
Non so quanto possa essere vero ma una cosa è certa..... Radeon 9800 PRO a palla!!!!!!!!!!!!!!!

Dardo XP :D
ULTRAS 1900 LAZIO

rubex
17-04-2003, 12:30
Originally posted by "Dardo Xp"

Non so quanto possa essere vero ma una cosa è certa..... Radeon 9800 PRO a palla!!!!!!!!!!!!!!!

Molto costruttivo come commento.. :rolleyes:
Questo e' un prob abbastanza serio, che spero x i possessori del FX risolva al + presto,anche se a molti non da questo prob.
Quando leggo queste cose la prima cosa che penso e a come mi sentirei io dopo aver speso quasi 600€ di scheda video e ritrovarmela con questo prob....

P.S.
C'e' gente che ha acquistato la FX xche' gli piace,o x qualsiasi altro motivo,cerchiamo di rispettare la loro scelta evitando inutili flames.
P.P.S.
Non riesco a scaricare il video

BYe

STICK
17-04-2003, 12:51
E poi dicevano che era la ATI a mettere in commercio schede difettose che non andavano!

FENZ
17-04-2003, 14:25
io l'ho scaricato ma non ho capito come farlo funzionare!! :confused:

FENZ
17-04-2003, 15:18
qualcuno lo sa?

mtitone
17-04-2003, 15:32
Continuo a non capire perchè non la ritirano dal mercato............

rera
17-04-2003, 15:43
per vederlo ci vuole il quick time di apple.
Uno shot dello schermo durante la produzione di artefatti avrebbe fatto male?

Saturn
17-04-2003, 15:50
Originally posted by "STICK"

E poi dicevano che era la ATI a mettere in commercio schede difettose che non andavano!

Ben detto. Bell'affare portarsi a casa una FX... :rolleyes:

CS25
17-04-2003, 17:19
Ritengo sia un problema abbastanza stupido, nel senso che il funzionamento del fxflow (come ho ben spiegato nella recensione) e' comandato dai driver, e che gli stessi possono venire settati da Nvidia in maniera piu' o meno sensibile.
Se nei 43.45 hanno avuto la svista di non tenere conto degli screensaver ok, gli si bacchettano le dita.
L'esempio che avevo riportato era quello del 3dmark coi detonator 42.68 e coi 43.45 : coi primi l'fxflow si accendeva non appena si avviava il programma, coi secondi solo quando si fanno partire i test. Coi primi lo spegnimento avveniva subito dopo la chiusura dell'applicativo, in maniera graduale, coi secondi in maniera istantanea, ma dopo 60 secondi dalla chiusura dell'applicativo.
Con una release ad hoc l'eventuale problema, se non riguarda solo taluni screensaver testati, dovrebbe rientrare senza ulteriori casini.
Diciamo che cio' che a me personalmente stupisce e' vedere una svista del genere da parte del team che si occupa dei driver, anche se detto per inciso noie io non ne ho ancora avute col funzionamento del FXFlow.

checo
17-04-2003, 18:30
non sarebbe più semplice termoregolarlo e non farlo andare coi driver??

lzeppelin
17-04-2003, 18:49
Originally posted by "checo"

non sarebbe più semplice termoregolarlo e non farlo andare coi driver??

Giusto! Chissà perchè non è stato fatto così. Forse costava troppo, ma sarebbe la strada migliore.

CS25
17-04-2003, 19:01
Non vorrei contraddirvi, ma E' termoregolato, infatti in caso di surriscaldamento riduce automaticamente il clock.
Il fatto che non lo faccia coi suddetti screensaver fa parte integrante del problema stesso : la scheda non capisce che e' una applicazione 3d in esecuzione e si incasina, non comportandosi come dovrebbe.

In poche parole sulla carta la soluzione funziona, in pratica i driver vanno corretti :rolleyes:

E' raro che Nvidia prenda dei lisci del genere per colpa dei driver, cio' che pero' andrebbe visto e' se accada con TUTTI gli screensaver 3d o se solo con quelli citati nella notizia... boh :confused:

Hanamichi
17-04-2003, 19:07
che roba :cry:

checo
17-04-2003, 19:10
Originally posted by "CS25"

Non vorrei contraddirvi, ma E' termoregolato, infatti in caso di surriscaldamento riduce automaticamente il clock.
Il fatto che non lo faccia coi suddetti screensaver fa parte integrante del problema stesso : la scheda non capisce che e' una applicazione 3d in esecuzione e si incasina, non comportandosi come dovrebbe.

In poche parole sulla carta la soluzione funziona, in pratica i driver vanno corretti :rolleyes:

E' raro che Nvidia prenda dei lisci del genere per colpa dei driver, cio' che pero' andrebbe visto e' se accada con TUTTI gli screensaver 3d o se solo con quelli citati nella notizia... boh :confused:

tremoregolato se ne sbatte di quello che fai e dei driver


arriva a 100° attacca il flow a manetta anche se usi word

sta sui 60 lo spegne anche se giochi.

questo è termoregolato.

se il flow non basta riduco il clock.

come funziona la fx non l'ho capito, anzi se me lo spieghi mi fai un favore.
da quello che ho capito si basa sull'applicazione che va al momento?

e in base a che la riconosce?

-=Krynn=-
17-04-2003, 19:43
Originally posted by "checo"





come funziona la fx non l'ho capito, anzi se me lo spieghi mi fai un favore.
da quello che ho capito si basa sull'applicazione che va al momento?

e in base a che la riconosce?



Forse la riconosce se l'applicazione in questione gli fa sfruttare qualche feature 3d, non so.

V|RuS[X]
17-04-2003, 19:48
Originally posted by "checo"



tremoregolato se ne sbatte di quello che fai e dei driver
arriva a 100° attacca il flow a manetta anche se usi word
sta sui 60 lo spegne anche se giochi.
questo è termoregolato.



esatto

MEDi0MAN
17-04-2003, 21:51
nel video che si vede??
600€ che vanno in fumo o in fiamme? :cry: :D :D

CS25
17-04-2003, 21:58
Originally posted by "checo"



tremoregolato se ne sbatte di quello che fai e dei driver


arriva a 100° attacca il flow a manetta anche se usi word

sta sui 60 lo spegne anche se giochi.

questo è termoregolato.

se il flow non basta riduco il clock.

come funziona la fx non l'ho capito, anzi se me lo spieghi mi fai un favore.
da quello che ho capito si basa sull'applicazione che va al momento?

e in base a che la riconosce?

Forse non ci siamo capiti, la termoregolazione segue dei parametri impostati dai driver : temperatura alla quale deve avvenire lo slowdown, durata post-applicazione della ventola, velocita' di decellerazione...
Poiche' con le due versioni di driver che ho provato ho notato comportamenti tanto differenti, posso confermare che nei driver e' contenuto il "software" del sistema di cooling.
Riguardo COSA permetta al sistema di distinguere le applicazioni, qui sfociamo sulle pure ipotesi, in quanto non esiste documentazione al riguardo.

Gia' il fatto che rispetto ai 42.68 la scheda "turbini" solo quando _effettivamente_ l'applicativo 3d parte, e' una cosa non da poco... e' stupido che frulli col 3dmark aperto ma senza test in esecuzione :eek:
Evidentemente nei 42.68 bastava che un programma facesse il check delle proprieta' video della scheda per avviarsi (il cosidetto check preliminare che fa il 3dmark mentre si carica).

Sistemeranno pure questa, in ogni caso nei giochi non si verifica, il che e' assai rincuorante.

spk
17-04-2003, 22:21
Originally posted by "CS25"

Gia' il fatto che rispetto ai 42.68 la scheda "turbini" solo quando _effettivamente_ l'applicativo 3d parte, e' una cosa non da poco... e' stupido che frulli col 3dmark aperto ma senza test in esecuzione :eek:
Evidentemente nei 42.68 bastava che un programma facesse il check delle proprieta' video della scheda per avviarsi (il cosidetto check preliminare che fa il 3dmark mentre si carica).

Sistemeranno pure questa, in ogni caso nei giochi non si verifica, il che e' assai rincuorante.


Ciò vuol dire che NVidia ha programmato i driver per fare andare la turbina all'avvio di determinati applicativi cha ha in lista (e se qualcuno viene dimenticato? :confused: ) oppure quando inizia delle elaborazioni 3D?

Bha secondo me se ragionava a "temperature" era meglio, come han già detto nel post sopra......come la Volcano 9 insomma........ha il termometro indipendente dal software........

checo
17-04-2003, 22:47
Originally posted by "CS25"





Gia' il fatto che rispetto ai 42.68 la scheda "turbini" solo quando _effettivamente_ l'applicativo 3d parte, e' una cosa non da poco... e' stupido che frulli col 3dmark aperto ma senza test in esecuzione :eek:
Evidentemente nei 42.68 bastava che un programma facesse il check delle proprieta' video della scheda per avviarsi (il cosidetto check preliminare che fa il 3dmark mentre si carica).

Sistemeranno pure questa, in ogni caso nei giochi non si verifica, il che e' assai rincuorante.

si ho capito è termoregolata dal software.
può essere efficiente o forse più ma una termoregolazione della ventola fatta in hw + l'abbasamento del clock( come la protezione del p4) sarebbe più efficiente, sempre.

se io gioco in una cella frigorifera i driver mi attaccno la turbina anche se non server vero?

se si basava sulla temp la lasciava girare al minimo.

CS25
17-04-2003, 23:02
Originally posted by "spk"




Ciò vuol dire che NVidia ha programmato i driver per fare andare la turbina all'avvio di determinati applicativi cha ha in lista (e se qualcuno viene dimenticato? :confused: ) oppure quando inizia delle elaborazioni 3D?


No, nessuna "lista", semplicemente la scheda si clocka e la ventola parte quando viene eseguito codice di un certo tipo, quando vengono invocate le funzioni DX od Opengl. Non chiedermi altri particolari, di piu' non so dirti :)

rera
18-04-2003, 10:39
ci sono delle nuove (tra le quali una risposta di nvidia):

http://www.pcekspert.com/articles/127-1.html

-=Krynn=-
18-04-2003, 11:50
Originally posted by "spk"




Ciò vuol dire che NVidia ha programmato i driver per fare andare la turbina all'avvio di determinati applicativi cha ha in lista (e se qualcuno viene dimenticato? :confused: ) oppure quando inizia delle elaborazioni 3D?

Bha secondo me se ragionava a "temperature" era meglio, come han già detto nel post sopra......come la Volcano 9 insomma........ha il termometro indipendente dal software........

Non penso che esista una lista, anche se perchè se per esempio esce un giocxo domani che fa la Fx, sta con la turbina bassa finchè non esce la nuova release dei driver?

E' + probabile che appena l'applicativo X richieda la funzionalità Y della scheda video, questa faccia partire la turbina...