View Full Version : Palit GTX 680 Jetstream: una scheda Kepler customizzata
Redazione di Hardware Upg
23-05-2012, 08:41
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/3243/palit-gtx-680-jetstream-una-scheda-kepler-customizzata_index.html
Sistema di raffreddamento a tripla ventola, PCB modificato e frequenze di clock overcloccate per GPU e per memoria video: questa la ricetta di Palit per la scheda GTX 680 Jetstream, proposta top di gamma nel panorama delle schede video basate su architettura NVIDIA Kepler
Click sul link per visualizzare l'articolo.
La Paura
23-05-2012, 09:39
quindi sostanzialmente occata va pari se non peggio di una 7970 liscia..
Va be soluzioni di questo tipo sono da considerare solo se uno è interessato a basse rumorosità.
in ogni caso credo che i dissipatori reference drovebbero iniziare a farli così perché con quegli schifi che montano di base una versione toxic della sceda è d'obbligo e mi riferisco anche ad AMD.
quindi sostanzialmente occata va pari se non peggio di una 7970 liscia..
Và decisamente peggio. In questo test, in tutti i giochi, quando gli FPS sono sotto i 50 (cioè quando veramente serve la potenza di una VGA), la HD7970 liscia è sempre davanti alla GTX680 occata, persino in Metro 2033.
Sembrano anche confermati i dubbi che molti avevano all'uscita della GTX680, circa la possibilità di ottenere particolari vantaggi dall'OC di queste VGA, mi sembra che l'uscita di modelli customizzati di entrambe le aziende, mettano in risalto i diversi comportamenti.
calcolatorez3z2z1
23-05-2012, 15:12
La scheda è altalenante.Vale lo stesso discorso per la 7970.Alla fine sono solo gusti.
Si ma la 7970 è cloccata a 925mhz, praticamente è in idle.....
Ste powa
23-05-2012, 16:24
Si ma la 7970 è cloccata a 925mhz, praticamente è in idle.....
assolutamente vero : senza modificare nulla tutte le 7970 arrivano molto tranquillamente a 1125 .
Poi se si guarda l' aumento di prestazione ci si rende davvero conto che la 7970 è stata messa a frequenze bassisime :muro: .
Sulla gtx680 dell' articolo però si potrebbe trovare solo un lato negativo rispetto alle altre 680 : non si ha la possibilità di togliere le viti senza perdere la garanzia
Più silenziosa questa o la directcu dell' asus ?
Una comparazione fra le 2 sarebbe decisamente interessante.
A me sinceramente in questo articolo stupisce nelle analisi delle prestazioni il risultato della 7970. Coi cat 12.3 e con frequenze "base" se la gioca (se non superiore) con la 680 senza problemi :eek:
Dovessi prendere una nVidia ad oggi nonostante questa proposta Palit resterei tutt'ora senza dubbi su una 670.
Dovessi prendere una nVidia ad oggi nonostante questa proposta Palit resterei tutt'ora senza dubbi su una 670.
In ambito Nvidia d'accordo, ma vista la prova attuale, con una HD7970 liscia che supera la GTX680 occata (lasciando pure perdere il discorso GPU computing), bisogna tenere presente che una HD7970 costa solo 9 euro più di una GTX670 (prezzi più bassi di "TrovaPrezzi"), così personalmente ho serie difficoltà a considerarla competitiva.
Si fra 670 e 7970 non c'è storia.....
In ambito Nvidia d'accordo, ma vista la prova attuale, con una HD7970 liscia che supera la GTX680 occata (lasciando pure perdere il discorso GPU computing), bisogna tenere presente che una HD7970 costa solo 9 euro più di una GTX670 (prezzi più bassi di "TrovaPrezzi"), così personalmente ho serie difficoltà a considerarla competitiva.
Giusto Duke, io dicevo tra 670 e 680. Non ha senso prendere la 680 ad oggi rispetto alla 670 appunto.
E tra 670 e 7970 andrei sulla seconda senza dubbi a questo punto.
Restano comunque ottime schede.
La 7970 delle prime recensioni è una lontana parente dell'attuale, il lavoro sui driver sta pagando tantissimo facendo uscire la vera potenza della GPU ;)
e non è ancora finita... :)
Vorrei ripetere ciò che ho già detto in altri 2 thread: per me la velocità della RAM è il vero collo di bottiglia di queste nuove Kepler.
Come altri utenti hanno già detto la 680 và pressapoco come la 670, quindi di potenza di calcolo ce nè in avanzo.
Analizzando i dati di questa scheda si può chiramante notare: boost medio complessivo del 3-4% (lo scrive la redazione) ma d'altronde se notate abbiamo un 4,8% di clock in più sulle RAM e addirittura un 7,8% in più sulla GPU. Come mai i risultati dei test si avvicinano al boost dato alle RAM?
Già ne ho parlato, riassumo: bus della GPU a 256 bit --> 8 chip che lavorano in parallelo con bus da 32 bit.
Dati del costruttore della RAM: una DDR5 a 6Ghz ha una banda passante di 6Gbit/sec (confermato anche da nVidia - vedere il sito).
Se la GPU attinge da tutte le 8 memorie contemporaneamente si ottiene una banda massima di 6 x 8 = 48Gbit/sec --- ben lontani dall'ipotetico 192.2 Gbit/sec che è la banda massima gestibile dalla GPU (fonte nVidia - sempre il sito).
Quindi a mio avviso la capacità di calcolo della GPU ad oggi è sovradimensionata per la complessità delle scene e dei calcoli vettoriali che deve svolgere, il collo di bottiglia sono le Texture, sempre di più e con definizione più alta, che "tardano" ad arrivare alla GPU.
Ecco perchè una 670 che ha meno shaders (o cuda core) alla fine và come una 680.
Ecco perchè l'incremento di prestazioni è molto più vicino all'incremento in % delle RAM piuttosto che quello della GPU.
Questo il mio pensiero: commenti?
Già ne ho parlato, riassumo: bus della GPU a 256 bit --> 8 chip che lavorano in parallelo con bus da 32 bit.
Dati del costruttore della RAM: una DDR5 a 6Ghz ha una banda passante di 6Gbit/sec (confermato anche da nVidia - vedere il sito).
Se la GPU attinge da tutte le 8 memorie contemporaneamente si ottiene una banda massima di 6 x 8 = 48Gbit/sec --- ben lontani dall'ipotetico 192.2 Gbit/sec che è la banda massima gestibile dalla GPU (fonte nVidia - sempre il sito).
Non direi: un bus da 256 bit a 6GHz puo' spostare 256*6e9 = 1536 Gbit/s, cioe' 192 GByte/s, esattamente come scritto nelle specifiche.
Quella e' ovviamente la banda massima grezza, va moltiplicata per l'efficienza del memory controller (<1) per ottenere la banda effettiva.
Non direi: un bus da 256 bit a 6GHz puo' spostare 256*6e9 = 1536 Gbit/s, cioe' 192 GByte/s, esattamente come scritto nelle specifiche.
Quella e' ovviamente la banda massima grezza, va moltiplicata per l'efficienza del memory controller (<1) per ottenere la banda effettiva.
Mi sa che stai mischiando alcune cose, non capisco il tuo calcolo tra Ghz e bit.
Ma a prescindere: sia il produttore che la stessa nVidia dichiarano RAM da 6 Gbit/sec scritto espressamente.
Controlla sul sito nVidia, io ho anche scaricato il datascheet del produttore delle RAM e c'é scritto esattamente la stessa cosa. :read:
Mi sa che stai mischiando alcune cose, non capisco il tuo calcolo tra Ghz e bit.
Con la frequenza espressa in quel modo (in realta' non sono 6 GHz, sono 1.5 GHz quad-pumped) sposti un bit al secondo per hertz per lane, da cui il calcolo precedente.
Ma a prescindere: sia il produttore che la stessa nVidia dichiarano RAM da 6 Gbit/sec scritto espressamente.
Controlla sul sito nVidia, io ho anche scaricato il datascheet del produttore delle RAM e c'é scritto esattamente la stessa cosa. :read:
Puoi postare il link? O sono sbagliati, o c'e' stata un'incomprensione. 6 Gb/s dev'essere per lane, non per dram chip.
Con la frequenza espressa in quel modo (in realta' non sono 6 GHz, sono 1.5 GHz quad-pumped) sposti un bit al secondo per hertz per lane, da cui il calcolo precedente.
Puoi postare il link? O sono sbagliati, o c'e' stata un'incomprensione. 6 Gb/s dev'essere per lane, non per dram chip.
Eccoli:
nVidia: http://www.nvidia.it/object/geforce-gtx-680-it.html#pdpContent=2
(controlla la sezione "Specifiche della memoria" e se noti lasciando il mouse sulla voce Gbps appare una scritta che spiga meglio che si tratta di Gigabits per second, non Gigabyte), subito sotto trovi invece la dicitura "Max banda passante" che è appunto di 192.2 (penso sempre Gigabits per second anche se non specificato).
Le schede classiche da 2Gbyte montano chip siglati H5GQ2H24MFR della Hynix, questo il link al PDF sul loro sito: http://www.google.it/url?sa=t&rct=j&q=h5gq2h24mfr-r0c&source=web&cd=1&ved=0CFMQFjAA&url=http%3A%2F%2Fwww.hynix.com%2Finc%2FpdfDownload.jsp%3Fpath%3D%2Fdatasheet%2FDatabook%2FQ4%252710_Databook_GraphicsMemory.pdf&ei=NLq-T9b2B8eM4gSNiKTjCQ&usg=AFQjCNEEijWn7MKumigNOX6mtQ6O2Q4sAQ&cad=rja
E' lento a scaricare e si blocca anche, ma da google si puù vedere una copia cache di cui ti allego il link: http://www.google.it/url?sa=t&rct=j&q=h5gq2h24mfr-r0c&source=web&cd=1&ved=0CFYQxQEwAA&url=http%3A%2F%2Fdocs.google.com%2Fviewer%3Fa%3Dv%26q%3Dcache%3Ar0uv_r7PnkMJ%3Awww.hynix.com%2Finc%2FpdfDownload.jsp%253Fpath%253D%2Fdatasheet%2FDatabook%2FQ4%252710_Databook_GraphicsMemory.pdf%2BH5GQ2H24MFR-R0C%26hl%3Dit%26gl%3Dit%26pid%3Dbl%26srcid%3DADGEESiONIrib5cdrElHTnGYeMARD_7DN3s2L-A6kyk1m0BZSPdAhwOKcHtunqatRw5kcVw_wOgkLcP_R5W9KGb-zhEOoYLkVJv5lo9sB61PEw5v5cPQ8-2DU4DD6FKimzuP6v5OCJ19%26sig%3DAHIEtbSIN4uTwj6ResHbXEmTmWIW6yO04A&ei=NLq-T9b2B8eM4gSNiKTjCQ&usg=AFQjCNEjUQY0PVx727c8xxK0iJleIdUZwQ&cad=rja (Pagina 4 prima riga).
Dimmi cosa ne pensi :)
Ciao
Eccoli:
nVidia: http://www.nvidia.it/object/geforce-gtx-680-it.html#pdpContent=2
(controlla la sezione "Specifiche della memoria" e se noti lasciando il mouse sulla voce Gbps appare una scritta che spiga meglio che si tratta di Gigabits per second, non Gigabyte), subito sotto trovi invece la dicitura "Max banda passante" che è appunto di 192.2 (penso sempre Gigabits per second anche se non specificato).
Visto. Mi sa che l'ha tradotta un markettaro, quindi non sa bene di cosa sta parlando :)
I 6 Gb/s sono per lane, senza dubbio. Se guardi la pagina americana:
http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-680/specifications
specifica che la banda e' 192 GB/s. In realta' la frequenza non e' proprio 6 GHz ma qualche MHz di piu' (tipo 6.006 GHz, non mi ricordo esattamente: dipende dal PLL del sottosistema di memoria, puoi ottenere solo alcune frequenze precise, se ricordo bene si riusciva a ottenere 5.994 e 6.006 GHz e si e' scelta quella piu' alta anche se era lievemente fuori specifica, Hynix ci aveva dato l'OK per usare la 6.006) per cui ottieni 192.2.
Le schede classiche da 2Gbyte montano chip siglati H5GQ2H24MFR della Hynix, questo il link al PDF sul loro sito: http://www.google.it/url?sa=t&rct=j&q=h5gq2h24mfr-r0c&source=web&cd=1&ved=0CFMQFjAA&url=http%3A%2F%2Fwww.hynix.com%2Finc%2FpdfDownload.jsp%3Fpath%3D%2Fdatasheet%2FDatabook%2FQ4%252710_Databook_GraphicsMemory.pdf&ei=NLq-T9b2B8eM4gSNiKTjCQ&usg=AFQjCNEEijWn7MKumigNOX6mtQ6O2Q4sAQ&cad=rja
Gia', anche li' non e' chiaro. Cmq qui:
http://www.hynix.com/datasheet/eng/graphics/details/graphics_26_H5GQ2H24MFR.jsp?menu1=01&menu2=04&menu3=05&menuNo=1&m=3&s=4&RK=26
dice "The GDDR5 interface transfers two 32 bit wide data words per WCK clock cycle". Io pensavo che il memory bus fosse 1.5 GHz quad-pumped, forse mi sbaglio ed era 3 GHz dual-pumped. In questo caso tornerebbe anche con quei dati sopra: 8 chip di memoria a 3 GHz, che restituiscono due word a 32 bit per ciclo di clock, danno 8*3*2*32/8=192 GB/s, come sopra.
Cmq e' facile fare un sanity check (che e' la prima cosa che ho fatto, e' per questo che poi sono andato a rivedermi i numeri per risponderti, il sanity check non tornava): nel tuo messaggio #12 hai scritto "48Gbit/s", che farebbe 6 GB/s, che e' veramente bassissimo---addirittura piu' basso di una connessione tra la CPU e la RAM di sistema, mentre e' noto che le GPU hanno una banda passante almeno un ordine di grandezza superiore (e' uno dei punti di forza nei supercomputer che usano GPGPU, le schede hanno meno memoria ma molta molta piu' banda, che aiuta in molti algoritmi).
Damiano Anger
25-05-2012, 12:02
solo a me sembra un fail questa 680? Costa un botto di piu della 7970 e non la supera con decisione :/
°Phenom°
25-05-2012, 15:31
Ecco come inizia ad uscire la vera potenza della 7970, concordo, inutile la 680.
unfaced12
25-05-2012, 17:51
Si a questo punto penso che il mito dei driver nVidia super e AMD cacca possa definirsi sfatato.
Visto. Mi sa che l'ha tradotta un markettaro, quindi non sa bene di cosa sta parlando :)
I 6 Gb/s sono per lane, senza dubbio. Se guardi la pagina americana:
http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-680/specifications
specifica che la banda e' 192 GB/s. In realta' la frequenza non e' proprio 6 GHz ma qualche MHz di piu' (tipo 6.006 GHz, non mi ricordo esattamente: dipende dal PLL del sottosistema di memoria, puoi ottenere solo alcune frequenze precise, se ricordo bene si riusciva a ottenere 5.994 e 6.006 GHz e si e' scelta quella piu' alta anche se era lievemente fuori specifica, Hynix ci aveva dato l'OK per usare la 6.006) per cui ottieni 192.2.
Gia', anche li' non e' chiaro. Cmq qui:
http://www.hynix.com/datasheet/eng/graphics/details/graphics_26_H5GQ2H24MFR.jsp?menu1=01&menu2=04&menu3=05&menuNo=1&m=3&s=4&RK=26
dice "The GDDR5 interface transfers two 32 bit wide data words per WCK clock cycle". Io pensavo che il memory bus fosse 1.5 GHz quad-pumped, forse mi sbaglio ed era 3 GHz dual-pumped. In questo caso tornerebbe anche con quei dati sopra: 8 chip di memoria a 3 GHz, che restituiscono due word a 32 bit per ciclo di clock, danno 8*3*2*32/8=192 GB/s, come sopra.
Cmq e' facile fare un sanity check (che e' la prima cosa che ho fatto, e' per questo che poi sono andato a rivedermi i numeri per risponderti, il sanity check non tornava): nel tuo messaggio #12 hai scritto "48Gbit/s", che farebbe 6 GB/s, che e' veramente bassissimo---addirittura piu' basso di una connessione tra la CPU e la RAM di sistema, mentre e' noto che le GPU hanno una banda passante almeno un ordine di grandezza superiore (e' uno dei punti di forza nei supercomputer che usano GPGPU, le schede hanno meno memoria ma molta molta piu' banda, che aiuta in molti algoritmi).
Ciao, ho seguito il tuo discorso, ma ancora non mi è chiaro bene il calcolo che si deve fare con le DDR5 in rapporto anche alle DDR3 usate dalle CPU.
Avevo letto alcuni approfondimenti rigurado alle DDR2 e DDR3 che spiegavano qualcosa del tipo che la velocità di trasferimento verso la CPU era un'accellerazione del transfer ma che comunque internamente i CHIP RAM lavoravano a frequenze più basse e comunque avevano latenze elevate da dover introdurre wait-states alle richieste della CPU (i famosi valori tipo: 7-7-7-12).
Avevo anche fatto a suo tempo RAM-test del mio PC che misuravano la banda interna della CPU sulla cache di primo livello, su quella di secondo livello ed infine sulle memorie esterne (i banchi DDR2 nel mio caso).
Le differenze erano enormi, nel senso che la reale velocità (voracità) della CPU è di 1 ordine di grandezza di quanto riescono a fornire le DDR2.
Su CPU più spinte, tipo le I7 vale lo stesso discorso con ram DDR3.
Ad oggi non si è in grado di realizzare memorie dinamiche che reggano la capacità delle attuali CPU ne è conferma il fatto che le stesse implementano diversi livelli di cache e raffinati algoritmi di prefech dei dati dalla RAM e/o cache.
L'unica RAM veloce come la CPU è la cache di primo livello, che è di tipo statico, non dinamico, ed è costosissima da realizzare in termini di dimensione/silicio occupato e quindi di prezzo finale.
Tornando alle DDR5 quindi mi sembra difficile che abbiano una tecnologia "interna" 10 volte più veloce di una DDR3 e che poi si avvantaggino del datarate maggiore per rendere in pratica fino a 10 volte ad una DDR3 per CPU.
Le mie sono solo considerazioni che mi piacerebbe approfondire e correggere e mi fà piacere poterne parlare con persone come te che sviluppano il discorso in maniera pacata ed intelligente.
Cercherò altro materiale, la cosa come detto all'inizio non mi convince ancora del tutto (ps. il sito nVdia in inglese riporta comunque "Memory speed 6 Gbps" confermando quello indicato dal produttore del chip ram).
Grazie intanto.
:)
Ciao, ho seguito il tuo discorso, ma ancora non mi è chiaro bene il calcolo che si deve fare con le DDR5 in rapporto anche alle DDR3 usate dalle CPU.
E' fondamentalmente la stessa cosa, se vuoi calcolare la "massima banda teorica" e' sempre la frequenza delle lane per il numero di lane. E' una semplificazione, ovviamente, visto che come dici sotto per calcolare i numeri esatti bisogna tenere conto dei timing delle ram, del modo in cui il controller di memoria vi accede, dallo stesso pattern di accesso (ad es. accedere ai dati sequenzialmente permette di avere una banda molto maggiore che accedere dati a caso). Ma la banda massima teorica (irrangiungibile in pratica) e' quella.
Avevo letto alcuni approfondimenti rigurado alle DDR2 e DDR3 che spiegavano qualcosa del tipo che la velocità di trasferimento verso la CPU era un'accellerazione del transfer ma che comunque internamente i CHIP RAM lavoravano a frequenze più basse e comunque avevano latenze elevate da dover introdurre wait-states alle richieste della CPU (i famosi valori tipo: 7-7-7-12).
Non mi occupo di memorie quindi purtroppo non conosco questi dettagli. Se i chip di memoria lavorano internamente a frequenza piu' bassa, immagino che semplicemente avranno blocchi multipli all'interno che lavorano in parallelo (es. potrei avere 8 blocchi che lavorano ad un ottavo della frequenza, ogni blocco restituisce un ottavo dei dati ad ogni ciclo di clock). Ma sono speculazioni, non lo so.
Avevo anche fatto a suo tempo RAM-test del mio PC che misuravano la banda interna della CPU sulla cache di primo livello, su quella di secondo livello ed infine sulle memorie esterne (i banchi DDR2 nel mio caso).
Le differenze erano enormi, nel senso che la reale velocità (voracità) della CPU è di 1 ordine di grandezza di quanto riescono a fornire le DDR2.
Su CPU più spinte, tipo le I7 vale lo stesso discorso con ram DDR3.
Ad oggi non si è in grado di realizzare memorie dinamiche che reggano la capacità delle attuali CPU ne è conferma il fatto che le stesse implementano diversi livelli di cache e raffinati algoritmi di prefech dei dati dalla RAM e/o cache.
L'unica RAM veloce come la CPU è la cache di primo livello, che è di tipo statico, non dinamico, ed è costosissima da realizzare in termini di dimensione/silicio occupato e quindi di prezzo finale.
Questo e' tutto vero, ma non e' solo un discorso di memorie dinamiche vs statiche, e' soprattutto un discorso di dove stanno queste memorie e di quanto sono grandi. Piu' sono grandi e piu' sono lontane, piu' sono lente, e' una questione elettrica. Quindi i registri sono in grado di rispondere alle richieste di lettura e scrittura ad ogni ciclo di clock, la cache L1 e' un po' piu' grande e lenta e risponde in qualche ciclo di clock, la cache L2 e' ancora piu' grande e lenta (a memoria, direi un 10-20 cicli di clock per rispondere alle richieste), eccetera. Questo perche' piu' e' grande piu' e' grossa, quindi la propagazione dei segnali nei circuiti e' piu' lenta (da un lato perche' ad es. i decoder di riga sono piu' grossi, dall'altro perche' fisicamente il segnale deve attraversare fili piu' lunghi per arrivare a destinazione e ci mette di piu').
Per la RAM c'e' un fattore in piu', e cioe' che e' off-chip: i segnali devono quindi passare dal memory controller, i pad, andare sulla board, arrivare al chip, e indietro. Serve MOLTO piu' tempo, per la CPU credo sia 100-200 cicli di clock, a naso.
Tornando alle DDR5 quindi mi sembra difficile che abbiano una tecnologia "interna" 10 volte più veloce di una DDR3 e che poi si avvantaggino del datarate maggiore per rendere in pratica fino a 10 volte ad una DDR3 per CPU.
Ci sono alcuni fattori da considerare:
* e' comunque la quinta generazione contro la terza :) quindi si', sono piu' veloci; sono anche molto piu' costose (per questo nelle schede grafiche di fascia alta si mette la gddr5 e in quelle di fascia bassa si mette la sddr3)
* hai bus piu' larghi: le schede grafiche arrivano a 256 e 384 bit, molto piu' dei bus che collegano al CPU alle sue RAM
* hai bus piu' veloci: questo perche' nelle schede grafiche tutti quei chip sono saldati sulla scheda e tutte le piste costruite a puntino per quell'esatto numero di chip; questo permette di ottimizzare l'impedenza e spingere le frequenze molto piu' in alto di quanto possibile con le RAM della CPU, che non sono saldate ma devono poter essere messe e tolte a mano (l'accoppiamento impedenziale in questo caso e' molto molto peggiore)
Tutti questi fattori fanno si' che le GPU possono avere bande verso le loro GRAM di quelle che le CPU hanno verso le loro RAM. Questo potrebbe cambiare tra non molto, Intel mi pare abbia annunciato di avere dei chip-stacking in roadmap, in pratica possono impilare due chip (o piu') uno sopra l'altro, sotto ci metti la CPU e sopra ci metti un fetta di RAM dinamica da qualche centinaio di mega, una sorta di super-cache di ultimo livello. I chip comunicano tra loro tramite silicon vias, immagina come dei pad sui due chip che si connettono quando li metti uno sopra l'altro. Questo permette di costruire bus molto piu' larghi e a frequenza molto piu' alta, e allora vedrai anche le CPU godere di bande larghe come quelle delle GPU attuali.
Le mie sono solo considerazioni che mi piacerebbe approfondire e correggere e mi fà piacere poterne parlare con persone come te che sviluppano il discorso in maniera pacata ed intelligente.
Anche a me, grazie. Purtroppo come dicevo sono un ASIC Designer ma non mi occupo di memorie, quindi non so darti molti dettagli. Cmq se ti interessa puoi dare un'occhiata agli articoli che scrivo epr Appunti Digitali, non sono molti ma magari c'e' qualcosa che ti ispira: http://www.appuntidigitali.it/author/davide-signorelli/
Questo potrebbe cambiare tra non molto, Intel mi pare abbia annunciato di avere dei chip-stacking in roadmap, in pratica possono impilare due chip (o piu') uno sopra l'altro, sotto ci metti la CPU e sopra ci metti un fetta di RAM dinamica da qualche centinaio di mega, una sorta di super-cache di ultimo livello. I chip comunicano tra loro tramite silicon vias, immagina come dei pad sui due chip che si connettono quando li metti uno sopra l'altro. Questo permette di costruire bus molto piu' larghi e a frequenza molto piu' alta, e allora vedrai anche le CPU godere di bande larghe come quelle delle GPU attuali.
Non conoscevo questa soluzione, molto interessante. Ma quindi questa RAM diverrebbe una sorta di memoria cache (di grosse dimensioni) di ultimo livello ? Ma in questo modo le cache di livello intermedio sono da ritenersi ancora fondamentali (L2 / L3)? Se hai qualche link interessante passa pure.. Un saluto! :)
Non conoscevo questa soluzione, molto interessante. Ma quindi questa RAM diverrebbe una sorta di memoria cache (di grosse dimensioni) di ultimo livello ? Ma in questo modo le cache di livello intermedio sono da ritenersi ancora fondamentali (L2 / L3)? Se hai qualche link interessante passa pure.. Un saluto! :)
Dipende da come vuoi architettare la CPU e il sistema di memoria, ma mi sembra naturale usarla come ultimo livello di cache. Mi sembra di ricordare che Haswell avra' una cache di quarto livello condivisa tra CPU e GPU, potrebbe venir comodo allo scopo: qualche centinaio di mega di RAM ad alta banda e bassa latenza (confrontata con la RAM di sistema, ovviamente le cache L1, L2 saranno sempre piu' veloci di quella) per passare dati fra CPU e GPU e per la GPU per fare il suo lavoro, tutto sullo stesso chip: allora si' immagino che le GPU integrate faranno il salto di qualita'.
Le cache L1 ed L2 rimarrebbero li', perche' sono comunque piu' veloci (piu' piccole e piu' vicine alla logica, come detto sopra). L'idea e' sempre la stessa, costruire una gerarchia di cache, e' sempre una cosa vantaggiosa. Ma invece di avere un ultimo livello di cache di qualche mega in memoria statica all'interno del chip e poi dover saltare fino alla RAM di sistema sulla scheda madre (molto molto piu' lenta e con latenza molto maggiore di una cache L2/3), avresti una cosa intermedia, molto utile in certi scenari.
Avevo letto qualcosa qualche mese fa ma non riesco a ritrovarlo, pero' se googoli "chip stacking" o "3d chip stacking" trovi un po' di articoli.
Dipende da come vuoi architettare la CPU e il sistema di memoria, ma mi sembra naturale usarla come ultimo livello di cache. Mi sembra di ricordare che Haswell avra' una cache di quarto livello condivisa tra CPU e GPU, potrebbe venir comodo allo scopo: qualche centinaio di mega di RAM ad alta banda e bassa latenza (confrontata con la RAM di sistema, ovviamente le cache L1, L2 saranno sempre piu' veloci di quella) per passare dati fra CPU e GPU e per la GPU per fare il suo lavoro, tutto sullo stesso chip: allora si' immagino che le GPU integrate faranno il salto di qualita'.
Le cache L1 ed L2 rimarrebbero li', perche' sono comunque piu' veloci (piu' piccole e piu' vicine alla logica, come detto sopra). L'idea e' sempre la stessa, costruire una gerarchia di cache, e' sempre una cosa vantaggiosa. Ma invece di avere un ultimo livello di cache di qualche mega in memoria statica all'interno del chip e poi dover saltare fino alla RAM di sistema sulla scheda madre (molto molto piu' lenta e con latenza molto maggiore di una cache L2/3), avresti una cosa intermedia, molto utile in certi scenari.
Avevo letto qualcosa qualche mese fa ma non riesco a ritrovarlo, pero' se googoli "chip stacking" o "3d chip stacking" trovi un po' di articoli.
Lo farò, grazie! Molto interessante !
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.