Una Radeon X1950 PRO particolare da GeCube

Una Radeon X1950 PRO particolare da GeCube

GeCube abbina un sistema di raffreddamento con TEC per la propria scheda Radeon X1950 PRO, capace sulla carta di ottimi margini di overcloccabilità

di pubblicata il , alle 11:08 nel canale Schede Video
RadeonAMD
 

Tra i vari partner taiwanesi di ATI che hanno presentato proprie soluzioni basate su GPU Radeon X1950 PRO in questi giorni, la proposta più originale è indubbiamene quella di GeCube.

gecube_x1950pro.jpg (58137 bytes)

La scheda, dotata di 512 Mbytes di memoria video, utilizza infatti il sistema di raffreddamento FZ Cool, che abbina un TEC (Thermo Electric Chip) a un massiccio dissipatore di calore con due ventole per riuscire a raffreddare al meglio la GPU. Il TEC altro non è che una cella di Peltier, cioè un dispositivo che una volta alimentato trasferisce il calore in modo attivo dal chip video al dissipatore di calore, facilitandone la dispersione lontano dalla scheda.

La scheda è dotata di 4 distinte heatpipe, con ventole da 8 cm di diametro che operano a bassa velocità così da minimizzare il rumore di funzionamento.  In dotazione viene fornito un paeticolare tool per l'overclocking della scheda: il sistema di raffreddamento adottato, infatti, lascia margini teorici ben superiori a quelli della soluzione adottata di default da ATI per le proprie schede video.

Ulteriori informazioni sono disponibili sul sito GeCube a questo indirizzo.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

46 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
spaccabit20 Ottobre 2006, 11:14 #1
scusate l'ot,
ma non resisto alla tentazione ma quando i produttori dei chipset video si decideranno a fare puù termosifoni e a ridurre i consumi e la dissipazione del calore come hanno già fatto amd ed intel.
KiDdolo20 Ottobre 2006, 11:14 #2
tutto quel popo' di dissipatore per una gpu singola?
o almeno è doppia gpu?
Quanti slot occupa, 3?
MiKeLezZ20 Ottobre 2006, 11:17 #3
E' un po' una cazzata perchè vai a dissipare del calore aggiungendone dell'altro.
Alla fine ti ritrovi la scheda video fresca, e tutti i componenti vicini che bollono. Geniale eh
zanardi8420 Ottobre 2006, 11:18 #4
Ma non c'è il rischio che si strappi dal pcb?
Se è silenziosa è una figatona.
cristt20 Ottobre 2006, 11:26 #5
si vabbè...ma occupa quattro slot?!?!?
ridicoli dai...
megawati20 Ottobre 2006, 11:28 #6
Eccazzo... ancora un pò e mi compro direttamente il radiatore dall'autoricambi per raffreddare il PC. No, così non si può andare avanti... bisogna ripensare completamente la struttura dei PC, affrontare il problema in modo radicale: altro che BTX o waterblock, qui serve proprio un modo diverso di concepire il PC meccanicamente. Speriamo che qualcuno ci pensi presto...
JOHNNYMETA20 Ottobre 2006, 11:30 #7
Mikelezz se hai un flusso d'aria giusto che entra ed esce dal tower non è vero quello che dici.

Comunque non capisco quel dissipatore sul RV570 che a 80n scalda pochissimo,semmai dovevano metterlo sulla 1900GT (R580) che fa 20 gradi in più.
Xeus3220 Ottobre 2006, 11:30 #8
Abbassare i consumi nelle gpu la vedo dura! Purtroppo a differenza delle CPU non ci sono cache o macrocode che si possono gestire ed ottimizzare!
Le GPU rappresentano il concetto di "forza brutta" e le potenze di calcolo in gioco sono mediamente di 500 volte maggiori delle CPU!

A questo va aggiunto il fatto che le GPU hanno un numero di transistor elevatissimo paragonati ad un normale CPU! Le frequenze sono più basse (il consumo varia esponenzialmente con l'incremento delle frequenze) e questo inficia ancor più il margine di risparmio di energia!

Probabilmente con le DX10 rappresentano una evoluzione tecnica si avranno " consumi inferiori" a parità di potenza di calcolo, ma come al solito i giochi ne richiederanno sempre di più! Se infatti guardiamo XBOX 360 la su GPU ha solo 48Pipiline unificate mentre la 7900 ne ha di più e oblivion va "peggio".

Purtroppo le GPU hanno 2 difetti! Nei giochi si usano al massimo anche se magari basterebbero 60fps per stare tranquilli e il resto risparmiarlo in energia! E che non possono variare la frequenza di lavoro!

Se infatti guardiamo le GPU mobile sono delle emerite skiappe perchè è necessario togliere roba per farle consumare di meno!

Xeus32
PS :
Amo questo sito
Hoolman20 Ottobre 2006, 11:33 #9
scusate domanda idiota: ma perchè si ostinano a fare le schede video (ma TUTTE) al contrario? cioè perhcè una volta montate tutto quanto sta sotto? se stesse sopra non si dissiperebbe meglio??
stesio5420 Ottobre 2006, 11:36 #10
che bel mostriciattolo
se proprio devo mettere un vga sotto tec...bè....la raffreddo a liquido, non certo ad aria....occupo meno spazio e posso dare anche 12v a una tec(magari da 125w)

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^