PDA

View Full Version : HBM: le memorie veloci ed efficienti per le GPU del futuro


Redazione di Hardware Upg
19-05-2015, 13:02
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/4365/hbm-le-memorie-veloci-ed-efficienti-per-le-gpu-del-futuro_index.html

AMD anticipa alcune informazioni sulla prossima generazione di memorie ad elevate prestazioni destinate alle schede video di prossima generazione. HBM, High Bandwidth Memory. Bandwidth più elevata per superiori prestazioni, con parallela riduzione delle dimensioni e superiore efficienza energetica: questi i benefici della nuova tecnologia, al debutto con le GPU Fiji nelle prossime settimane

Click sul link per visualizzare l'articolo.

demon77
19-05-2015, 13:16
Sulla carta emergono diversi benefici ma bisogna attendere dei test per vedere se i benefici sono reali.. del resto si tratta di una tecnologia del tutto nuova e quindi non è da escludersi il fatto che possano saltare fuori errori di gioventù..

koni
19-05-2015, 13:47
Sulla carta emergono diversi benefici ma bisogna attendere dei test per vedere se i benefici sono reali.. del resto si tratta di una tecnologia del tutto nuova e quindi non è da escludersi il fatto che possano saltare fuori errori di gioventù..

hai sbagliato termine : sugli slide emergono diversi benefici ....
slide devi usare quando parli di amd ormai sono sinonimi AMD : ditta produttrice di slide e schede video e cpu

pabloski
19-05-2015, 14:45
L'unica fregatura è che avremo memorie non espandibili, almeno non nei modi attuali.

Per una scheda video non frega ovviamente a nessuno, per un intero pc potrebbe fregare a qualcuno. La soluzione è chiaramente banale, creare qualcosa di simile a "Project Christine" di Razer. Così aggiungeremo nuovi moduli di "controllo" ( chiamiamoli così ) invece di nuovi banchi di memoria.

Micene.1
19-05-2015, 17:10
minchia davvero un bel passo in avanti

fraussantin
19-05-2015, 17:25
Brava amd fai qualcosa di buono almeno gli INVidiosi abbassano i prezzi!

Ps ma con cosa si raffredda quel paninozzo?

AleLinuxBSD
19-05-2015, 18:33
Interessante a questo punto pare che resterebbero soltanto due punti critici in sospeso:
- dato che la frequenza di clock è inferiore rispetto alle soluzioni tradizionali mentre la banda passante è maggiore, se la Gpu non risulterà sufficientemente potente, non potrebbe riuscire a smaltire in tempi sufficientemente rapidi i dati da elaborare, non potendosi avvantaggiare della maggiore banda passante, situazione che potrebbe accadere in sistemi professionali per usi scientifici, dove i calcoli hanno una prevalenza sul resto
- il limite dei 4Gb, di fatto, salvo pensare a soluzioni proprietarie per interconnessioni con altri moduli Gpu e/o memoria centrale, non potrebbe risultare accettabile, in molte realtà professionali

Per me, al momento, fatto salvo i costi di ricerca e sviluppo, questa soluzione risulterebbe particolarmente interessante particolarmente per il settore mainstream.
Ma dato che questi costi dovranno essere scaricati è comprensibile che si inventeranno qualcosa per renderla appetibile nel settore top di gamma.

Spero che riuscirà ad essere disponibile a breve dato che presenta molte potenzialità interessanti.

Micene.1
19-05-2015, 19:12
Interessante a questo punto pare che resterebbero soltanto due punti critici in sospeso:
- dato che la frequenza di clock è inferiore rispetto alle soluzioni tradizionali mentre la banda passante è maggiore, se la Gpu non risulterà sufficientemente potente, non potrebbe riuscire a smaltire in tempi sufficientemente rapidi i dati da elaborare, non potendosi avvantaggiare della maggiore banda passante, situazione che potrebbe accadere in sistemi professionali per usi scientifici, dove i calcoli hanno una prevalenza sul resto
- il limite dei 4Gb, di fatto, salvo pensare a soluzioni proprietarie per interconnessioni con altri moduli Gpu e/o memoria centrale, non potrebbe risultare accettabile, in molte realtà professionali

Per me, al momento, fatto salvo i costi di ricerca e sviluppo, questa soluzione risulterebbe particolarmente interessante particolarmente per il settore mainstream.
Ma dato che questi costi dovranno essere scaricati è comprensibile che si inventeranno qualcosa per renderla appetibile nel settore top di gamma.

Spero che riuscirà ad essere disponibile a breve dato che presenta molte potenzialità interessanti.

boh nn vedo problemi se la gpu diventa gpu limited

ma figurati se nn trovano il modo di superare i 4gb...è ovvio che è un limite dettato dall'immaturità della tecnologia

lucusta
19-05-2015, 19:33
4 chips 4 GB, 8 chips 8GB... e poi con 4 layer soltanto a 20nm...
l'hanno prossimo si stara' gia' con 8GB sulle consumer e 16 sulle pro.

invece perche' non mi fanno la APU che voglio?!?
una APU, 4GB HBM, e 512GB SSD all inclusive.
prendi la APU, la metti sulla mobo, accendi il PC e gia' ci trovi l'OS funzionante che ti chiede di mettere il nome dell'user.

osate accidenti!

pabloski
19-05-2015, 20:31
Ma questa memoria ha senso come ram?

Bella domanda. Come memoria di sistema bisognerà vedere, come sostituto delle gddr sicuramente si.

Però c'è da dire che Intel supporta lo standard concorrente e cioè HMC. E la larghezza di banda è 4 volte superiore a quella delle HBM.

Comunque questi signori dichiarano latenze non eccessivamente oscene e ci dovrebbe essere ampio margine per migliorare.

MiKeLezZ
19-05-2015, 22:57
http://www.hwupgrade.it/articoli/skvideo/4365/1.jpg

:what:

amd è così avanti con le slide che è riuscita a mettere in ordinata ben due incognite

mia al lancio!

(la slide)

...

lamp76
20-05-2015, 07:06
Lo stacking dei chip di silicio non è una invenzione di AMD ma è ormai il futuro certo dell'evoluzione per aumentare l'integrazione elettronica.
Metto i chip uno sopra l'altro ed aumento il numero di transistor per mm quadrato, diminuiscono l'area richiesta, riduco le distanze tra i chip che devono comunicare.
Oggi stanno testando la tecnologia sulla ram, domani si passerà a impilabile chip di cpu e gpu, pensate ad un progetto di cpu modulare, dove aumento il numero di core impilando più chip uno sull'altro, un solo progetto di modulo base e N cpu con numero di core diversi multipli di quello base.
Per me il futuro è segnato, staremo a vedere. ;)

fraussantin
20-05-2015, 07:24
Lo stacking dei chip di silicio non è una invenzione di AMD ma è ormai il futuro certo dell'evoluzione per aumentare l'integrazione elettronica.
Metto i chip uno sopra l'altro ed aumento il numero di transistor per mm quadrato, diminuiscono l'area richiesta, riduco le distanze tra i chip che devono comunicare.
Oggi stanno testando la tecnologia sulla ram, domani si passerà a impilabile chip di cpu e gpu, pensate ad un progetto di cpu modulare, dove aumento il numero di core impilando più chip uno sull'altro, un solo progetto di modulo base e N cpu con numero di core diversi multipli di quello base.
Per me il futuro è segnato, staremo a vedere. ;)

Che il futuro sia segnato non lo metto in dubbio , ma quel fantasioso progetto dove la gpu sta un basso e sopra ci si mettono 4 banchi di ram ( magari con del bacon o del formaggio fra di loro) come lo si raffredda a dovere ? Specie se si parla di 300W..?perche ad oggi non basta ( per dire)metterci della crema sopra con un pezzo di metallo collegato al dissi!

Sono curioso !

Che ci mettino degli inserti in metallo ad alta conducibilita tra l'uno e l'altro e poi si colleghino ad un ventilatore?

Perche mi ricorda il mio vecchio note ( acer 5920) dove la gpu era capovolta sopra la cpu col dissipatore unico centrale. 90 gradi fissi!

Micene.1
20-05-2015, 08:52
amd è così avanti con le slide che è riuscita a mettere in ordinata ben due incognite

mia al lancio!

(la slide)

...

è una prassi comune se rappresenti piu di due variabili sul grafico - il problema è che nn ha messo due scale di misura

Max_R
20-05-2015, 10:22
L'unica fregatura è che avremo memorie non espandibili, almeno non nei modi attuali.

Per una scheda video non frega ovviamente a nessuno, per un intero pc potrebbe fregare a qualcuno. La soluzione è chiaramente banale, creare qualcosa di simile a "Project Christine" di Razer. Così aggiungeremo nuovi moduli di "controllo" ( chiamiamoli così ) invece di nuovi banchi di memoria.

Credo che nell'integrazione nell'apu questa venga ad essere utilizzata come memoria video dedicata e non necessariamente di sistema, che rimarrebbe esterna ed espandibile

pabloski
20-05-2015, 16:28
Credo che nell'integrazione nell'apu questa venga ad essere utilizzata come memoria video dedicata e non necessariamente di sistema, che rimarrebbe esterna ed espandibile

Distruggerebbero tutto quanto fatto con hUMA. Hanno fatto tanto per passare alle apu alla memoria unificata e adesso tornerebbero indietro?

Micene.1
20-05-2015, 17:17
Si ma qualcuno capisce cosa vuol dire quel grafico?

secondo me nn ha senso...la pc power eguaglia la ram power???

bobafetthotmail
21-05-2015, 11:26
Ma poi la cpu power scende e la ram power sale, cioè vuol dire che tra un po' le ram consumeranno come la cpu e poi di più?Ho il sospetto che neanche loro potrebbero spiegartela.

Speculazioni rampanti:
-perchè più è lungo il percorso e maggiore è la resistenza elettrica e quindi calore.
-più è lungo il percorso del circuito, più forte devi tenere il segnale elettrico perchè non si degradi, e quindi di nuovo stai fornendo più energia che finisce in calore.
-perchè ci devono aggiungere dei controller/ripetitori ogni tot come le ram registered, che usano energia. Le DDR2 registered avevano sempre tassativamente un heatsink metallico sopra ad esempio.

Intanto ci sono le gpu performance che salgono e poi diminuiranno... perchè? :muro:La mia speculazione è che sia quando anche le GPU sbattono contro ai limiti del silicio.

Micene.1
21-05-2015, 11:28
vabbuo cmq al di là della slide queste delle ram è una novità abbastanza clamorosa

davvero una innovazione al pari dei transistor 3d di intel

secondome costa pure poco montarle e produrle...spero di poterle trovare nel mainstream quanto prima

una cpu con questi cosi invece penso sia difficile...

Max_R
21-05-2015, 11:48
Distruggerebbero tutto quanto fatto con hUMA. Hanno fatto tanto per passare alle apu alla memoria unificata e adesso tornerebbero indietro?

Non necessariamente: oggi puoi montare un apu con controller e grafica integrata, montare una discreta ed adoperarle entrambe. Siamo vicini alla possibilità di sfruttarle entrambe in maniera diversa dalla medesima applicazione in uso e non vedo perchè precludersi questa strada anche con le memorie: memorie veloci unificate ed integrate con la possibilità di montarne di esterne ed avantaggiarsi di entrambe. Si rischia di andare sull'inespandibile altrimenti.

Vash_85
21-05-2015, 12:38
amd è così avanti con le slide che è riuscita a mettere in ordinata ben due incognite

mia al lancio!

(la slide)

...

Al massimo se proprio dovessi obiettare avrei qualcosa da dire sulla scala utilizzata, ma un grafico con indici sui entrambi gli assi ti posso assicurare che è prassi comune in molti ambiti.