Debutto entro fine anno Gemini, la scheda AMD con due GPU Fiji

Debutto entro fine anno Gemini, la scheda AMD con due GPU Fiji

AMD prepara il debutto della nuova propria scheda top di gamma dotata di due GPU sullo stesso PCB: si tratta di Gemini, scheda che utilizzerà due chip Fiji dotati ciascuno di memoria HBM per le massime prestazioni a 4K

di pubblicata il , alle 14:01 nel canale Schede Video
AMDNVIDIACrossfire
 

Al debutto delle prime schede video basate su GPU Fiji di nuova generazione, il modello Radeon R9 Fury X, AMD ha anticipato la futura disponibilità di una scheda video top di gamma dotata di due GPU della famiglia Fiji montate sullo stesso PCB.

Si tratta, per l'azienda americana, di una tradizione ormai consolidata quella di rendere disponibile una scheda dotata di due GPU sullo stesso PCB, capaci di operare assieme grazie alla tecnologia CrossFire e in questo modo di poter essere utilizzata in qualsiasi sistema dotato di uno slot PCI Express 16x e di un alimentatore opportunamente dimensionato.

Stando alle informazioni anticipate dal sito Wccftech a questo indirizzo AMD starebbe definendo le tempistiche di lancio della scheda con due GPU della famiglia Fiji, indicata con il nome in codice di Gemini. In questo prodotto troveranno posto due GPU abbinate a memoria HBM, High Bandwidth Memory, con 4 Gbytes abbinati a ciascun chip video esattamente come accade per le proposte desktop.

Le specifiche tecniche di questa scheda prevedono per le due GPU una frequenza di clock massima di 1.000 MHz, inferiore quindi di 50 MHz rispetto a quella della scheda Radeon R9 Fury X e identica a quanto previsto per il modello Radeon R9 Nano. Per la memoria video i moduli HBM sono impostati per una frequenza di 500 MHz, identica quindi a quella delle altre schede basate su GPU Fiji. Ogni GPU implementa 4.096 stream processors: AMD avrebbe quindi scelto di utilizzate l'implementazione più complessa della GPU Fiji per questa scheda a doppio chip.

La fonte riporta alcune interessanti informazioni, non confermate, su quelle che sono le aspettative di AMD con riferimento a queste soluzioni. Nello specifico l'azienda americana prevede una scalabilità delle prestazioni dell'80% nel passaggio dal modello Radeon R9 Fury X a questa scheda a doppia GPU utilizzando le risoluzioni di 2560x1440 pixel e 3840x2160 pixel. Questi livelli prestazionali sarebbero accompagnati da un livello di variazione tra i frames molto contenuto, limitato entro il 20% secondo gli obiettivi dell'azienda.

Le configurazioni con due GPU su singola scheda, ma più in generale questo discorso vale per tutte le configurazioni con due GPU in parallelo, permettono tipicamente di ottenere un significativo incremento nelle prestazioni velocistiche anche se spesso questo si accompagna ad una accentuata variabilità dei frames sequenziali e a fenomeni di microstuttering che peggiorano l'esperienza di gioco. Per questo motivo tanto AMD come NVIDIA da anni lavorano a ottimizzare i propri driver per configurazioni multi GPU con tecniche di frame pacing, in modo da fornire un'esperienza di gioco maggiormente stabile sacrificando in parte i picchi velocistici massimi a favore di una migliore distribuzione dei frames sequenziali.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

10 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
gd350turbo02 Novembre 2015, 15:33 #1
4 gb per una scheda di questa potenza ?
CrapaDiLegno02 Novembre 2015, 16:00 #2
Tra 10 minuti arriverà sicuramente qualcuno che tenterà di spiegarti (senza alcuna conoscenza tecnica, prove o dimostraziione) che con le DX12 i due pool da 4GB diventeranno uno da 8.
Flying Tiger02 Novembre 2015, 16:23 #3
Finchè non trovano il modo di sistemare questo discorso....

...significativo incremento nelle prestazioni velocistiche anche se spesso questo si accompagna ad una accentuata variabilità dei frames sequenziali e a fenomeni di microstuttering che peggiorano l'esperienza di gioco...


...queste schede "mostri di potenza" continuano a essere solo fuffa per attrarre i soliti giocatori (per non dire bimbiminkia..) danarosi che così possono vantarsi che "ciò la scheda video più potente sul mercato".....

gd350turbo02 Novembre 2015, 16:24 #4
Mah...
Di queste dx12, si è letto di tutto, pare siano qualcosa di magico, raddopiano i frame, la memoria, fanno funzionare schede video diverse ecc.ecc...
Ma come si dice(va): fatti non pugnette !
CrapaDiLegno02 Novembre 2015, 16:40 #5
Io mi chiedo che motivo c'è di fare schede dual GPU quando si possono montare 2 schede uguali che fanno la stessa cosa con minori problemi di dissipazione e relativo stress termico sul PCB, memorie (mai come in questo caso che sono montate affianco al die della GPU) e VRM e sopratutto supporto SW. 2 schede separate, se l'accoppiata non soddisfa si possono separare e rivenderne una per tornare ad una configurazione mono GPU supportata (si spera) al 100% dai driver. Se invece AMD (o nvidia che sia per le sue) si "addormentano" con il supporto, questa scheda è buona come fermacarte (o comunque metà del costo effettuato non serve a nulla).
Mah... però se le fanno e le vendono, qualcuno che trova dei vantaggi ci sarà pure.

Verificheremo quanto difficile è raffreddare 2 Fiji quando avremo i test delle temperature e frequenze. Nella speranza che AMD non faccia la stessa furbata delle 290X mandando ai recensori schede molto migliori di quelle vendute poi sugli scaffali.
Ma di sicuro qualcuno la prova con le schede prese al "supermercato" le farà per dirci se AMD è perseverante nei sui sbagli.
mirkonorroz02 Novembre 2015, 16:48 #6
Ma quello delle config a schede ibride non sono gia' dei fatti? Erano un fake i grafici?

Per la somma della memoria si vedra'... boh... (?) Certo che se non ci si mette d'accordo sulle tempistiche un discorso vale l'altro, sia per gli ottimisti che per i pessimisti.

Il fatto e' che a occhio sono possibili cose meno convenzionali proprio perche' le api vincolano meno.
Semmai il problema e' la voglia degli sviluppatori nello sbattersi ad implementare le cose (oppure di publisher a voler investire risorse maggiori per queste soluzioni).
Non e' detto pero' che se i risultati arrivassero e fossero significativi poi non si troverebbe il modo per rendere replicabile senza troppi oneri la soluzione trovata, almeno per certe finestre temporali (ognuno si fara' le proprie librerie per il proprio motore di gioco o per i propri giochi).
In ogni caso gli sviluppatori dovranno rincorrere piu' assiduamente gli aggiornamenti HW, penso.
Pier220402 Novembre 2015, 19:31 #7
Originariamente inviato da: Flying Tiger
Finchè non trovano il modo di sistemare questo discorso....



...queste schede "mostri di potenza" continuano a essere solo fuffa per attrarre i soliti giocatori (per non dire bimbiminkia..) danarosi che così possono vantarsi che "ciò la scheda video più potente sul mercato".....



C'è chi ha speso 1.200 per la TitanX, che gli vuoi dire?

Sappiamo che queste schede hanno il loro mercato per quanto di nicchia e sappiamo che sono quelle che procurano margini sia a AMD che Nvidia..
Non mi stupisco che le producano...
Bestio02 Novembre 2015, 21:15 #8
Originariamente inviato da: CrapaDiLegno
Io mi chiedo che motivo c'è di fare schede dual GPU quando si possono montare 2 schede uguali che fanno la stessa cosa con minori problemi di dissipazione e relativo stress termico sul PCB, memorie (mai come in questo caso che sono montate affianco al die della GPU) e VRM e sopratutto supporto SW. 2 schede separate, se l'accoppiata non soddisfa si possono separare e rivenderne una per tornare ad una configurazione mono GPU supportata (si spera) al 100% dai driver. Se invece AMD (o nvidia che sia per le sue) si "addormentano" con il supporto, questa scheda è buona come fermacarte (o comunque metà del costo effettuato non serve a nulla).
Mah... però se le fanno e le vendono, qualcuno che trova dei vantaggi ci sarà pure.

Verificheremo quanto difficile è raffreddare 2 Fiji quando avremo i test delle temperature e frequenze. Nella speranza che AMD non faccia la stessa furbata delle 290X mandando ai recensori schede molto migliori di quelle vendute poi sugli scaffali.
Ma di sicuro qualcuno la prova con le schede prese al "supermercato" le farà per dirci se AMD è perseverante nei sui sbagli.


E sopratutto, come ribadisco sempre, le 2 schede uguali saranno infinitamente più semplici da rivendere quando arriverà l'inevitabile momento upgrade!
Chi oggi si comprerebbe una 295x2 (o gtx 690 o Titan Z), sapendo che che ci sono GPU singole che vanno meglio, consumando meno della metà e non necessitando alimentatori da 1kw?
Mentre un paio di 290, 780 o 680 bene o male si riescono a rivedere sempre.

E lo dico per esperienza, dato che la gtx295 è l'unica mia EX GPU che mi è rimasta sul groppone (nemmeno a regalarla sono riuscito! :asd
Baio7303 Novembre 2015, 12:20 #9
Originariamente inviato da: Bestio
E sopratutto, come ribadisco sempre, le 2 schede uguali saranno infinitamente più semplici da rivendere quando arriverà l'inevitabile momento upgrade!
Chi oggi si comprerebbe una 295x2 (o gtx 690 o Titan Z), sapendo che che ci sono GPU singole che vanno meglio, consumando meno della metà e non necessitando alimentatori da 1kw?
Mentre un paio di 290, 780 o 680 bene o male si riescono a rivedere sempre.

E lo dico per esperienza, dato che la gtx295 è l'unica mia EX GPU che mi è rimasta sul groppone (nemmeno a regalarla sono riuscito! :asd


Dipenda dalla scheda... la 4872X2 ha avuto un discreto mercato anche nell'usato, la mia l'ho venduta 10 minuti dopo che l'ho messa in vendita sul mercatino.
Ma quella era una gran scheda.

Baio
Madcrix03 Novembre 2015, 12:21 #10
4Gb VRAM per una scheda del genere

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^