Scheda dual GPU top di gamma anche per NVIDIA

Scheda dual GPU top di gamma anche per NVIDIA

Nome attualmente indicato in GeForce GTX 590 per la scheda video che abbinerà due GPU GF110 su singolo PCB

di Paolo Corsini pubblicata il , alle 16:00 nel canale Schede Video
NVIDIAGeForce
 

AMD presenterà nel corso del mese di Dicembre le prime schede della famiglia Radeon HD 6900, modelli dotati di singola GPU nota con il nome in codice di Cayman. Queste schede andranno a posizionarsi a diretta concorrenza della nuova soluzione GeForce GTX 580, che l'americana NVIDIA ha recentemente presentato.

Nel corso del primo trimestre 2011 AMD introdurrà anche una soluzione a 2 GPU, nota con il nome di Radeon HD 6990, basata su architettura indicata come Antilles. Questa scheda abbinerà due GPU Cayman sullo stesso PCB, mettendo a disposizione una potenza elaborativa complessivamente molto elevata.

NVIDIA non sembra intenzionata ad attendere le ben note mosse di AMD senza agire attivamente. Circolano online immagini di una scheda basata su due GPU GF110, modello utilizzato nelle schede GeForce GTX 580, che lascia intendere l'intenzione del produttore americano di commercializzare una soluzione a singola scheda dotata di due GPU collegate tra di loro attraverso tecnologia SLI.

dual_gf110_nvidia.jpg (64272 bytes)
fonte: pcinlife.com

Nell'immagine si notano i due chip GF110, circondati ciascuno dalla propria memoria video con 6 chip memoria GDDR5 visibili per ciascuna GPU. Una disposizione di questo tipo lascia intendere che sulla parte posteriore del PCB siano presenti, per ogni chip GF110, altri 6 moduli memoria, bilanciando quindi con 12 chip lo stesso bus da 384bit di ampiezza utilizzato dalle schede GeForce GTX 580.

Tra i due chip video è presente un terzo componente di colore verde: si tratta del bridge PCI Express sviluppato da NVIDIA, necessario per il corretto interfacciamento delle due GPU con la connessione PCI Express 16x. Nella parte superiore troviamo la predisposizione per due connettori di alimentazione a 8 pin ciascuno, mentre non manca in alto a sinistra un connettore SLI per configurazioni Quad SLI.

Sembra quindi chiaro come grazie al chip GF110 NVIDIA possa, in questo momento, controbattere direttamente alle proposte di AMD anche dal versante dual GPU su singola scheda, cosa che non le era riuscita con le prime generazioni di schede GeForce GTX 400 basate su architettura GF100 a confronto con la scheda ATI Radeon HD 5970.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

101 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
kekko..22 Novembre 2010, 16:05 #1
Finalmente schede video con sistema ad azoto liquido di serie!!!!Brava nvidia
Mparlav22 Novembre 2010, 16:12 #2
SPECULATION ON

2x GF110
2x512 SU a 600-650Mhz
vgpu 0.95-1.00v nel 3D
2x384bit - 2x1532Mb (12 sul fronte + 12 banchi di memoria sul retro, c'è un'altra foto in rete)
Graphics Card Power <300W con controllo di assorbimento

Confrontando tra loro le GTX275 e le GTX295, il progetto è fattibile entro i 300W, poi tanto c'è tutta la discrezionalità di overclock.

SPECULATION OFF

Per quanto mi riguarda ste' "cose" dual gpu possono restare tranquillamente sugli scaffali a prendere la polvere
rusie22 Novembre 2010, 16:21 #3
mhh se 580 ha un TPD di 224W (se non ricordo male ) quindi non credo che la versione dual gpu abbia un TPD < 300 W.
mircocatta22 Novembre 2010, 16:21 #4
e il tdp, cosa sarà? 400watt? mamma mia
contando che la gtx 580 consuma sui 250 watt poi....oh ben ben
Capozz22 Novembre 2010, 16:24 #5
1) Come pensano di alimentarla ?
2) Come pensano di raffreddarla ?
Foglia Morta22 Novembre 2010, 16:25 #6
Originariamente inviato da: rusie
mhh se 580 ha un TPD di 224W (se non ricordo male ) quindi non credo che la versione dual gpu abbia un TPD < 300 W.


TDP dichiarato da nVidia 244W , nVidia aveva specificato che si trattava del massimo dei consumi in game , quindi voleva escludere Furmark ( e fin qui sono d' accordo ). Poi però se si vanno a misurare in consumi in game ( Crysis ) si scopre che:

Link ad immagine (click per visualizzarla)

Iniziate a mettere l' acqua in pentola
f3d38722 Novembre 2010, 16:26 #7
la gtx580 consuma 350 watt immagino questa madooooo
tossy22 Novembre 2010, 16:28 #8
Originariamente inviato da: kekko..
Finalmente schede video con sistema ad azoto liquido di serie!!!!Brava nvidia


Complimenti, al primo meggaggio già un Flame.
Ottimo hai battuto tutti i record del caso.

E non dirmi di no, non vedo perchè mai nvidia non possa uscire con una Dual senza dover ammazzare qualcuno.


!fazz22 Novembre 2010, 16:31 #9
Originariamente inviato da: kekko..
Finalmente schede video con sistema ad azoto liquido di serie!!!!Brava nvidia


Originariamente inviato da: tossy
Complimenti, al primo meggaggio già un Flame.
Ottimo hai battuto tutti i record del caso.

E non dirmi di no, non vedo perchè mai nvidia non possa uscire con una Dual senza dover ammazzare qualcuno.




vediamo di smetterla con i tentativi di flame per favore
rusie22 Novembre 2010, 16:37 #10
Secondo me non uscirà scheda dual GF110 magari dual GF114 (con meno ram, clock, sp etc...) con tdp su 300 W.
Per il dual GF110 ci vorrebbero per TPD mettiamo su i 400W 2 8-pin + 1 6-pin connettori per alimentazione aggiuntiva per un TPD fino a 450W con un ali 700-800W (di queli seri se no di più

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^