Da Galaxy schede video dual-gpu

Da Galaxy schede video dual-gpu

Presentata al Computex due soluzione dual-GPU di Galaxy, realizzate con processori grafici NVIDIa GeForce 7900GT e 7600GT

di pubblicata il , alle 07:14 nel canale Schede Video
NVIDIAGeForceGalaxySamsung
 

Durante l'edizione 2006 del Computex, in corso di svolgimento a Taipei, Galaxy Technology ha mostrato alcune soluzioni video dual-chip equipaggiate con due GPU GeForce 7900 GT oppure con due GeForce 7600GT. Secondo le informazioni disponibili pare inoltre che le GPU funzionino a frequenze operative leggermente superiori rispetto a quelle standard.

Galaxy Masterpice dual-GeForce 7900 GT è caratterizzata da un PCB piuttosto ampio, e di form factor non standard. La scheda infatti risulta essere più larga delle normali schede di espansione, caratteristica che potrebbe causare qualche piccolo problema di installazione. La scheda inoltre non permette configurazioni quad-GPU, dal momento che non sono presenti connettori per poter collegare tale soluzione ad un prodotto "gemello". Di dimensioni e forma più convenzionale è invece la scheda Galaxy Masterpiece dual-GeForce 7600 GT, che dovrebbe assicurare prestazioni maggiori rispetto a quelle fornite da una normale scheda GeForce 7900GT. Il prezzo di due schede GeForce 7600 GT single-GPU è di 300 Dollari, ma il prezzo della soluzione dual-GPU di Galaxy non è ancora stato reso noto.

Galaxy non ha fornito nemmeno informazioni relative alla eventuale disponibilità sul mercato di tali soluzioni.

Fonte: Xbitlabs

16 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Defragg10 Giugno 2006, 08:51 #1
sinceramente le vedo tutte delle cose un po' inutili...
Rubberick10 Giugno 2006, 09:17 #2
ecco questo se permettete e' il futuro + gpu su un'unico pcb e + core su un'unico die... altro che pcb in parallelo -.-'
gi0v310 Giugno 2006, 10:21 #3
non è mica una novità....la gigabyte ha presentato + di un anno fa la scheda video dual 6600gt, con 2 chip 6600gt su un unico pcb..e dopo pochi mesi anche la soluzione con 2 6800gt...ma la dual 6800gt aveva la pecca di avere un dissipatore voluminoso anche sul retro del pcb, andando a occupare praticamente 3 slot complessivi..metre la 7950 gx2 ne occupa solo 2...alla fine cambia poco che siano su 2 pcb o su uno, quello che conta sono ingombro reale e rumorosità di esercizio, oltre alle prestazioni..e se sono uguali per ingombro, rumore e prestazioni a me non interessa molto il discorso un pcb/2 pcb..peraltro questa è + lunga della gx2..e anche + alta..aspetto le prime review x vedere quanti problemi da per montarla..
JohnPetrucci10 Giugno 2006, 10:29 #4
Originariamente inviato da: Rubberick
ecco questo se permettete e' il futuro + gpu su un'unico pcb e + core su un'unico die... altro che pcb in parallelo -.-'

Condivido.
Devo però rilevare che di queste schede dual gpu, sugli scaffali dei negozi anche online, non è che ce ne sia abbondanza......
Cloud7610 Giugno 2006, 11:34 #5
Originariamente inviato da: Rubberick
ecco questo se permettete e' il futuro + gpu su un'unico pcb e + core su un'unico die... altro che pcb in parallelo -.-'


Anche io credo che la vera svolta non sia avere più GPU sullo stesso PCB ma avere una GPU multicore... come si è iniziato a fare ormai con le CPU... certo, con le GPU è più complicato ma prima o poi ci si arriverà anche qui no?
permaloso10 Giugno 2006, 11:38 #6
Originariamente inviato da: gi0v3
non è mica una novità....la gigabyte ha presentato + di un anno fa la scheda video dual 6600gt, con 2 chip 6600gt su un unico pcb..e dopo pochi mesi anche la soluzione con 2 6800gt...ma la dual 6800gt aveva la pecca di avere un dissipatore voluminoso anche sul retro del pcb, andando a occupare praticamente 3 slot complessivi..metre la 7950 gx2 ne occupa solo 2...alla fine cambia poco che siano su 2 pcb o su uno, quello che conta sono ingombro reale e rumorosità di esercizio, oltre alle prestazioni..e se sono uguali per ingombro, rumore e prestazioni a me non interessa molto il discorso un pcb/2 pcb..peraltro questa è + lunga della gx2..e anche + alta..aspetto le prime review x vedere quanti problemi da per montarla..


Ti sei scordato di dire che se nn erro le VGA gigabyte in questione erano vendute in bundle con la MoBo perchè solo con quella MoBo funzionavano
Freisar10 Giugno 2006, 11:54 #7
Diciamo che ci vorrà il suo tempo, anche perchè presumo manchi il software che le possa sfruttare no?
NoLimit10 Giugno 2006, 12:03 #8
Il fatto è che già ora le gpu sono multicore, infatti non si parla di pipelina e n-stadi, ma si parla di n-pipeline, che vuol dire parallelizzazione dei treadh.
A mio avviso soluzioni simili sono ripieghi per ottenere con gpu di classe inferiore (o "vecchie" prestazioni maggiori.
Quindi a mio avviso non è innovazione ma ripiego.
Innovazione è un chip che implementa nuove tecnologie o aumenta la potenza di calcolo, innovazione è concepire magari un architettura video nuova, non buttare insieme due chip economici per inseguire in prestazioni un chip più performante.
gi0v310 Giugno 2006, 12:34 #9
permaloso, non è vero..il bundle esisteva ma le si trovano anche sciolte...peccato che siano state prodotte in edizione limitata...sul fatto che funzionassero in modalità sli solo su poche mobo e comunque gigabyte ti do ragione..ma anche per questa soluzione della galaxy nell'articolo sopra non si parla di compatibilità, quindi è possibile che anche queste non vadano su tutte le schede madri..cmq il punto è un altro, e cioè che non sono di sicuro i primi a farlo, e se la stessa nvidia ha adottato un'altra soluzione, forse un motivo c'è...tanto per dirne una, neanche sul sito xbitlabs parlano dei consumi dichiarati x questa scheda video ( l'articolo originale ha solo una frase in + rispetto a questo, e cioè che si presume che anche galaxy voglia entrare nel mercato delle schede high-end eclusive, come hanno già fatto msi, asus e gigabyte per l'appunto ) quindi per come la vedo io è una notizia che avrà influsso sul mercato futuro delle schede video "particolari" piuttosto che una innovazione tecnologica...
DakmorNoland10 Giugno 2006, 13:14 #10
Secondo me questa è innovazione invece, specie se paragonata a crossfire e sli che sono una vera vergogna!!! Un sacco di spazio occupato, elevatissimo consumo e problemi di dissipazione di calore nel case.
Queste dual GPU invece hanno piccoli dissipatori, perchè scaldano poco, e non consumano poi tanto, un bel passo avanti

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^