|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://www.hwupgrade.it/news/skvide...-xe_90351.html
Il boss della divisione grafica di Intel, Raja Koduri, si è recato nei laboratori di Folsom e ha pubblicato alcune foto che mostrano diverse GPU dedicate basate su architettura Xe. Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3556
|
Wow!
Architettura MCM. Intel arriva prima di AMD e Nvidia! Vediamo che tirano fuori, mi incuriosisce molto la questione gestione della memoria in una architettura MCM. |
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: Mar 2005
Città: Mareno di Piave (TV)
Messaggi: 6102
|
"...design MCM (multi-chip module) e perciò ogni GPU consista di diverse unità più piccole (dette tile) interconnesse tra loro"
Chissà se anche Intel ha usato la colla ![]() |
![]() |
![]() |
![]() |
#4 | |
Senior Member
Iscritto dal: Jan 2008
Messaggi: 8406
|
Quote:
Non è che le GPU moderne siano monolitiche. Già sono architetture distribuite, basate su unità discrete interconnesse. Che poi si possano fisicamente produrre GPU gigantesche, incasellando 4-8-16 GPU su un singolo die, può essere interessante per i supercomputer, ma inutile per gli usi home/soho/workstation. |
|
![]() |
![]() |
![]() |
#5 |
Senior Member
Iscritto dal: May 2001
Messaggi: 12814
|
Alla fine della fiera la differenza secondo me la farà anche il software, drivers e librerie. E sinceramente non mi sembra che Intel abbia mai brillato da quel punto di vista.
|
![]() |
![]() |
![]() |
#6 |
Senior Member
Iscritto dal: May 2004
Messaggi: 7470
|
io direi l'opposto software e librerie vedono intel in prima linea da decenni come compilatori ecc gran parte del mercato usa librerie intel quando ha biosgno di prestazioni. Per esempio le librerie di ray tracing piu evolute al mondo ad oggi sono di intel e molti software di rendering le usano compresi i top player. Stessa cosa per codek video per esempio anche li i suoi sono i migliori e uno standard de facto
|
![]() |
![]() |
![]() |
#7 | |
Senior Member
Iscritto dal: Jan 2008
Messaggi: 8406
|
Quote:
Tanto per dire, esiste MKL-DNN, ma tutti usano CUDA. Adesso ci stanno provando con oneAPI, proponendola ocme API multipiattaforma. Ma non è detto che funzionerà. Perchè tanto il cross-platform in quell'ambito esiste già e sono i vari framework che praticamente tutti usano. E che, curiosamente, non supportano nemmeno OpenCL o RadV, ma solo CUDA. |
|
![]() |
![]() |
![]() |
#8 |
Junior Member
Iscritto dal: Oct 2011
Messaggi: 1
|
ammazza che piastrella
![]() |
![]() |
![]() |
![]() |
#9 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3556
|
Quote:
Il problema è tutto lì, come interfacciare le varie parti. Se non ci fosse il problema della banda (e dell'energia necessarie per trasmettere i dati a lunga distanza) saremmo MCM dal giorno 1 della nascita dei chip. Ma lo scoglio è proprio quello: facile fare gruppi interconnessi sullo stesso die, molto ma molto più difficile diventa realizzarli separatamente ma che lavorino efficacemente. La gestione della memoria è uno di questi scogli. Semplificando in un monolitico metti diversi controller collegati ciascuno a uno o due chip di memoria e internamente usi un bello switchone che permette a tutti i gruppi di accedere a qualsiasi chip di memoria necessitino. Memorie cache L2 e L3 a disposizione per tutti in piena libertà. Ma se separi cosa fai? Metti un controller di memoria su ciascuno con conseguente super mega bus di connessione tra chip o fai l'hub super mega intricato che permette di passare i dati ad altissima velocità, sempre tramite bus ad alte prestazioni? E le cache sai quanto perdono di efficacia? O viceversa, quando grandi devono diventare per mascherare la lentezza e la latenza dei bus esterni? L'MCM con le CPU è più semplice appunto perché la banda di cui hanno bisogno è molto inferiore a quella usata dalle GPU. E anche lì comunque abbiamo visto cosa succede quando il sistema è sbilanciato come sui Threadripper v1. Con le GPU ci stanno mettendo di più perché la soluzione non è così facile e le controindicazioni sono molteplici. |
|
![]() |
![]() |
![]() |
#10 |
Senior Member
Iscritto dal: Nov 1999
Messaggi: 31852
|
A me Raja piace ricordarlo così....
![]() ![]()
__________________
Epilogo... Se non ti rispondo... potresti essere tra quelli che ho messo in ignore list! ![]() Thread ufficiale Asus ZenWiFi AX - XT8 |
![]() |
![]() |
![]() |
#11 | ||
Senior Member
Iscritto dal: Jan 2008
Messaggi: 8406
|
Quote:
Ma il punto è che MCM ( usato già da AMD per le sue CPU da millemila core ) è un vantaggio per chi produce, non per chi usa. A te e a me non cambia niente, perchè il chippone in basso a destra e raffreddato a liquido, non finirà mai nel nostro PC. Chiaro che se sei la NASA e hai ordinato il nuovo supercomputer, la cosa t'interessa. E se sei Intel, sai che grazie a MCM puoi riciclare una marea di die difettosi, vendendoli come versioni con meno unità discrete. Quote:
Ci sono SoC ARM per server e HPC che usano memorie locali e vanno a tutto NUMA. Ma sono tutti problemi già studiati per i sistemi distribuiti. E non mi pare si sia trovata la soluzione definitiva. |
||
![]() |
![]() |
![]() |
#12 |
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4353
|
il ragionamento su threadripper non è molto pertinente, visto che stiamo parlando di soluzioni che possono lavorare anche singolarmente..
già ZEN2 progetti pensati per funzionare esclusivamente con chip misti ci dicono che in ambito CPU si possono nascondere le latenze, mediante l'utilizzo di un elevato quantitativo di cache..ma la GPU volendo ha già una memoria cache ENORME.....ed è usata in questo modo dai chip VEGA, parlo delle HBM2. Ma a parte questo, parliamo di soluzioni in cui i dati da un die all'altro devono fare mezzo centimetro, con tutti i problemi di accoppiamenti capacitivi che questo comporta, che rende anche impossibile l'installazione di molte piste...Tutti problemi che EMIB rende molto meno pressanti. La limitazione più grande nel prossimo futuro saranno le rese produttive...finchè si è in grado di produrre chip con un numero di transistor crescenti con rese buone questi artifici del genere, che non sono certo prive di costi, non sono vitali... L'esigenza di AMD è nata per avere rese decenti il prima possibile e ridurre il più possibilmente i costi...certamente una soluzione con interposer e I/O a 7nm avrebbe permesso di ottenere prestazioni e consumi del tutto sovrapponibili ad un prodotto monolitico se non addirittura superiore, proprio in virtù del fatto che vengono prodotti molti più chip di piccole dimensione. La tecnologia alla base del MCM usato da AMD per ZEN2 non è molto diverso da quella che veniva utilizzata 15 anni fa.. |
![]() |
![]() |
![]() |
#13 | |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
Per le CPU è più complicato e meno efficiente perché per nascondere le latenze devi ricorrere a vagonate di cache L3. P.S. Sul software concordo con coschizza.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 21:28.