PDA

View Full Version : Quanto scalda la G70!!


be_inspired79
30-05-2005, 18:59
http://www.hardwarezone.com/articles/view.php?id=1603&cid=3&pg=1

"According to our sources, the card is hot, so hot that we did not managed to even perform a live run. The card is obviously damaged due to heat and upon closer inspection, we saw brown burnt marks around the card, near the PCI Express connector and even at the fan plug. The 10-layer PCB which holds the GPU also suffered heat damage and we saw blistering of the PCB at areas near the GPU.

The card will draw, *drumroll*, a total of 150W. That's even more than any regular desktop CPU we know. 75W will be drawn from the PCI Express interface while another 75W will be supplied through an extra power connector on the card. This will pose as a challenge to graphics card manufacturers as they start designing the appropriate cooling solutions for their card. It doesn't look like it's going to work as a single slot solution, but we'll never know for sure. If NVIDIA is going to deliver the G70 in bulk, they'll need to get their manufacturing partner to further refine their manufacturing process and decrease its heat output. Sources tell us that the G70 is manufactured using 110nm process technology and not 90nm as earlier speculated."

Simon82
30-05-2005, 20:12
http://www.hardwarezone.com/articles/view.php?id=1603&cid=3&pg=1

"According to our sources, the card is hot, so hot that we did not managed to even perform a live run. The card is obviously damaged due to heat and upon closer inspection, we saw brown burnt marks around the card, near the PCI Express connector and even at the fan plug. The 10-layer PCB which holds the GPU also suffered heat damage and we saw blistering of the PCB at areas near the GPU.

The card will draw, *drumroll*, a total of 150W. That's even more than any regular desktop CPU we know. 75W will be drawn from the PCI Express interface while another 75W will be supplied through an extra power connector on the card. This will pose as a challenge to graphics card manufacturers as they start designing the appropriate cooling solutions for their card. It doesn't look like it's going to work as a single slot solution, but we'll never know for sure. If NVIDIA is going to deliver the G70 in bulk, they'll need to get their manufacturing partner to further refine their manufacturing process and decrease its heat output. Sources tell us that the G70 is manufactured using 110nm process technology and not 90nm as earlier speculated."
Dove arriveremo... :rolleyes: :D

zerothehero
30-05-2005, 20:19
e 3..è una balla...avere il connettore pc-e da 75w + il connettore molex da 75 non significa consumare 150watt...dai su :O

Simon82
31-05-2005, 06:38
e 3..è una balla...avere il connettore pc-e da 75w + il connettore molex da 75 non significa consumare 150watt...dai su :O
In ogni caso i commenti scritti sopra a prescindere dall'assorbimento, sembrano avvalere una tesi molto bollente.. ;)

G-DannY
31-05-2005, 07:32
:asd:

Sai che pianti per gli sboroni se appena spesi 600€ per la nuova superschedaspakkabenchmarkcosìsopiùforteio gli sfiammella dentro il case e tocca dritta dritta frullarla fuori dalla finestra...

Pesno che sarebbe davvero uno spasso per me leggere un commento ad un evento simile...

"Nooooooo ho fatto 100000000000000000000 al 3dmark con la mia nuova g70 comprata ieri a 660€ (si costa di più perchè ho la versione XT_ULTRA_PE_SUPER_SPAZIALE) ma poco dopo il risultato la scheda mi si è carbonizzata dentro il case... Mamma... Dammi 1200€ che sono triste e me ne vado a ricomprare 2 così le metto in sli... :cry:"


Che tajo, 2 in sli e devono arrivare i pompieri a salvarti....

DjLode
31-05-2005, 08:24
Tutte le volte che salta fuori una gpu Nvidia salta fuori sta storia del caldo. Finora ci hanno preso solo con la 5800 (che era veramente calda a confronto delle altre), vediamo se ci prendono stavolta o sarà la solita banfa :)
Francamente passi pure che sia una gpu di preserie ma che bruci durante l'uso è solo segno che era difettosa :)

Athlon 64 3000+
31-05-2005, 08:40
:asd:

Sai che pianti per gli sboroni se appena spesi 600€ per la nuova superschedaspakkabenchmarkcosìsopiùforteio gli sfiammella dentro il case e tocca dritta dritta frullarla fuori dalla finestra...

Pesno che sarebbe davvero uno spasso per me leggere un commento ad un evento simile...

"Nooooooo ho fatto 100000000000000000000 al 3dmark con la mia nuova g70 comprata ieri a 660€ (si costa di più perchè ho la versione XT_ULTRA_PE_SUPER_SPAZIALE) ma poco dopo il risultato la scheda mi si è carbonizzata dentro il case... Mamma... Dammi 1200€ che sono triste e me ne vado a ricomprare 2 così le metto in sli... :cry:"


Che tajo, 2 in sli e devono arrivare i pompieri a salvarti....
:rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:

CS25
31-05-2005, 10:20
Tutte le volte che salta fuori una gpu Nvidia salta fuori sta storia del caldo. Finora ci hanno preso solo con la 5800 (che era veramente calda a confronto delle altre), vediamo se ci prendono stavolta o sarà la solita banfa :)
Francamente passi pure che sia una gpu di preserie ma che bruci durante l'uso è solo segno che era difettosa :)

La scheda oggetto di queste considerazioni era un engineering sample che s'e' fatto il giro di sviluppatori e produttori, ha subito ogni tipo di maltrattamento ed alla fine e' morta. Da un engineering sample di una gpu il cui tapeout e' avvenuto successivamente, non e' che ci si potesse aspettare di piu'. Se qualcuno ha notato le "foto" del R520, si "intuiva" ci fosse la scheda video sotto un raffreddamento spaventosamente massiccio, e di sicuro diverso da quello definitivo, proprio per i motivi sopraelencati.

Ma si sa, pur di riempire una paginetta di news un sito qualche cazzata si inventa, e trovi sempre chi ci ricama sopra :ciapet:

Per il resto, il 5800 Ultra era meno "caldo" dell'attuale 6800 Ultra, tant'e' che si clockava a 540-550 mhz senza problemi ;)
La parte che scaldava di piu' era la ram :mbe:

pandyno
31-05-2005, 10:22
come diceva il caro Battisti: "lo scopriremo solo vivendo"

:)

DjLode
31-05-2005, 10:26
Per il resto, il 5800 Ultra era meno "caldo" dell'attuale 6800 Ultra, tant'e' che si clockava a 540-550 mhz senza problemi ;)


Il discorso che ho fatto era poco chiaro, intendevo che la 5800 scaldava sicuramente di più ai tempi della controparte Ati. La 6800 Ultra è sicuramente più calda ma la temperature è nella norma oggi come oggi rispetto alla concorrente.
Quindi dire che G70 scalda e fornire come prova il fatto che si sia cotto... bhè lasciamo perdere, altrimenti sai quanti rma dovrà affrontare Nvidia?

CS25
31-05-2005, 11:07
Quindi dire che G70 scalda e fornire come prova il fatto che si sia cotto... bhè lasciamo perdere, altrimenti sai quanti rma dovrà affrontare Nvidia?

La filosofia di Nvidia e' sempre stata quella di fornire un cooling sufficiente a qualsiasi situazione (deserto del sahara incluso) proprio per evitare problemi. Cio' ha portato anche a sistemi assurdi (dustbuster anyone?), ma a rarissimi casi di gpu cotte.
Posso contare veramente sulle dita di una mano i casi di nv40 ed nv30 morti, dei quali sono venuto a conoscenza ovviamente (e mica so' Iddio)

DjLode
31-05-2005, 11:50
Pure io non ricordo a memoria una mole importante di Nv30/Nv40 morti. Quindi sicuramente non è un problema diffuso :)
Ma d'altronde abbiamo visto che sono uscite sempre le solite notizie: consumo, calore, cooling enorme (in quanto si dice che quello singolo sia insufficiente). Nvidia ha i suoi talloni d'achille :asd:

Simon82
31-05-2005, 12:34
La filosofia di Nvidia e' sempre stata quella di fornire un cooling sufficiente a qualsiasi situazione (deserto del sahara incluso) proprio per evitare problemi. Cio' ha portato anche a sistemi assurdi (dustbuster anyone?), ma a rarissimi casi di gpu cotte.
Posso contare veramente sulle dita di una mano i casi di nv40 ed nv30 morti, dei quali sono venuto a conoscenza ovviamente (e mica so' Iddio)
Si ma nel caso di NV30 la cosa aveva raggiunto dei livelli tanto esagerati che c'era da indignarsi a comprare questa scheda.

dwfgerw
31-05-2005, 14:12
ragazzi ma cosa pretendete ? R520 si dice che avrà un dissi che occupera addirittura tre slot quindi....
E' una cosa ovvia stiamo parladno di gpu da 300mln di transistor, sono i componenti più potenti presenti all'interno di un pc

DjLode
31-05-2005, 14:21
3 slot nel caso di doppia gpu. Altrimenti due.

CS25
31-05-2005, 15:46
Nemo propheta in patria.

Quando all'uscita del NV30 dissi che il dual slot cooling sarebbe diventato presto una realta' consolidata, nessuno ci credeva ;)

Rispondo a simon82 : il dissipatore che vedi su NV40 e' semplicemente una evoluzione di quello di NV30. La scelta infelice di Nvidia fu per la ventola, quella che aveva adottato faceva veramente un rumore infernale. Ma la cura costruttiva del dissipatore di NV30 era a dir poco eccelsa, quindi si', era grossa brutta e rumorosa la scheda, ma era l'unica risposta che aveva Nvidia a fronte di una errata valutazione del mercato e dell'avversario Ati.
In fin dei conti senza NV30 non ci sarebbe stato NV40, e' stato importante quel coso proprio perche' ha dato un bello schiaffo al colosso di Santa Clara, e senza Nvidia Ati si sarebbe seduta ed avrebbe continuato a proporre le stesse gpu (vedi R300, R350, R360...).

W la concorrenza :)

Simon82
31-05-2005, 15:51
Nemo propheta in patria.

Quando all'uscita del NV30 dissi che il dual slot cooling sarebbe diventato presto una realta', nessuno ci credeva ;)

Rispondo a simon82 : il dissipatore che vedi su NV40 e' semplicemente una evoluzione di quello di NV30. La scelta infelice di Nvidia fu per la ventola, quella che aveva adottato faceva veramente un rumore infernale. Ma la cura costruttiva del dissipatore di NV30 era a dir poco eccelsa, quindi si era grossa brutta e rumorosa la scheda, ma era l'unica risposta che aveva Nvidia a fronte di una errata valutazione del mercato e dell'avversario Ati.
In fin dei conti senza NV30 non ci sarebbe stato NV40, e' stato importante quel coso proprio perche' ha dato un bello schiaffo al colosso di Santa Clara, e senza Nvidia Ati si sarebbe seduta ed avrebbe continuato a proporre le stesse gpu (vedi R300, R350, R360...).

W la concorrenza :)

Certo ma mettendosi nei panni di coloro che l'hanno comprata al prezzo iniziale, c'e' da mettersi le mani nei capelli. Immagino poi che divertimento nel vedere che la stessa azienda aveva messo in rete un video che ne prendeva in giro i difetti. ;):p
Sicuramente lode alla concorrenza anche se al giorno d'oggi visto il livello di investimenti a cui siamo arrivati questa non fara' altro che diminuire sempre piu' (basti pensare alle innumerevoli aziende che ci hanno provato).

CS25
31-05-2005, 16:16
Certo ma mettendosi nei panni di coloro che l'hanno comprata al prezzo iniziale, c'e' da mettersi le mani nei capelli. Immagino poi che divertimento nel vedere che la stessa azienda aveva messo in rete un video che ne prendeva in giro i difetti. ;):p
Sicuramente lode alla concorrenza anche se al giorno d'oggi visto il livello di investimenti a cui siamo arrivati questa non fara' altro che diminuire sempre piu' (basti pensare alle innumerevoli aziende che ci hanno provato).

Io l'ho acquistata, e come essa anche 9700 pro, 9800 Pro, 9800 XT e svariate altre schede, per passione, per recensirle (ubi maior... ) e dopo averla usata a lungo posso dire che per i titoli dell'epoca effettivamente "sembrava" concorrenziale con la 9700 pro. Successivamente sono usciti tutti i limiti dell'archiettura, ma questa e' un'altra lunga storia che abbiamo letto e scritto fino alla nausea :)

Sul discorso della concorrenza, e' vero considerare l'impossibile la comparsa dal nulla di un "terzo" incomodo, ma non c'e' del male nel dualismo fintanto che ci porta vantaggi quali schede posizionate in maniera killer (in positivo, vedi 6800 GT di Nvidia o X800XL di Ati). Per loro natura Ati e Nvidia non scenderanno mai piu' di tanto a patti, quindi dovremmo poter evitare dualismi "di facciata".

Siamo scivolati OT, chiedo scusa :)