Intel, Raja Koduri mostra diversi prototipi di GPU dedicate Xe

Intel, Raja Koduri mostra diversi prototipi di GPU dedicate Xe

Il boss della divisione grafica di Intel, Raja Koduri, si è recato nei laboratori di Folsom e ha pubblicato alcune foto che mostrano diverse GPU dedicate basate su architettura Xe.

di pubblicata il , alle 13:21 nel canale Schede Video
IntelXe
 

La nuova architettura grafica Intel Xe si appresta a debuttare nelle CPU mobile Tiger Lake, all'interno di prodotti come il rinnovato Swift 5 di Acer per esempio. Il progetto rappresenterà le fondamenta, con ovvie differenze, di una serie di GPU dedicate che Intel intende portare in ogni segmento di mercato, da quello dei datacenter fino a quello professionale e del gaming.

L'azienda statunitense finora ha rivelato poco o nulla di Xe, se non mostrarne l'incarnazione Xe-HP in una foto e annunciarne la presenza all'interno del supercomputer Aurora tramite l'acceleratore Ponte Vecchio. Sembra che il tempo di grandi annunci non sia ancora arrivato, ma per mantenere alta l'attesa il boss della divisione grafica Raja Koduri ha diffuso alcune foto direttamente dall'Xe Lab di Folsom (California), in cui si vedono tre differenti prodotti Xe.

Il primo prodotto a sinistra è la GPU Xe-HP che avevamo già visto in precedenza, mentre degli altri due chip non ci sono informazioni, se non per il chip in basso a destra che Raja Koduri ha ribattezzato BFP, ossia "Big Fabolous Package", tanto che potrebbe trattarsi di un chip Xe-HPC destinato ad acceleratori per supercomputer e datacenter (forse proprio Ponte Vecchio). Le altre immagini mostrano una piattaforma di test Intel DG1 e uno dei chip raffreddato a liquido.

Per quanto riguarda le caratteristiche delle GPU, si mormora che Intel abbia scelto un design MCM (multi-chip module) e perciò ogni GPU consista di diverse unità più piccole (dette tile) interconnesse tra loro. Il numero di tile e la loro composizione andrà a determinare il profilo prestazionale della GPU e il segmento di mercato occupato. Per il momento però non ci sono informazioni concrete, o meglio un quadro chiaro delle specifiche finali. Attendiamo novità ufficiali da Intel nel corso dei prossimi mesi.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

12 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
CrapaDiLegno25 Giugno 2020, 13:25 #1
Wow!
Architettura MCM.
Intel arriva prima di AMD e Nvidia!

Vediamo che tirano fuori, mi incuriosisce molto la questione gestione della memoria in una architettura MCM.
Spitfire8425 Giugno 2020, 13:57 #2
"...design MCM (multi-chip module) e perciò ogni GPU consista di diverse unità più piccole (dette tile) interconnesse tra loro"

Chissà se anche Intel ha usato la colla
pabloski25 Giugno 2020, 13:59 #3
Originariamente inviato da: CrapaDiLegno
Wow!
Architettura MCM.
Intel arriva prima di AMD e Nvidia!

Vediamo che tirano fuori, mi incuriosisce molto la questione gestione della memoria in una architettura MCM.


Capisco il vantaggio a livello di produzione, ma non ce lo vedo a livello di prestazioni.

Non è che le GPU moderne siano monolitiche. Già sono architetture distribuite, basate su unità discrete interconnesse.

Che poi si possano fisicamente produrre GPU gigantesche, incasellando 4-8-16 GPU su un singolo die, può essere interessante per i supercomputer, ma inutile per gli usi home/soho/workstation.
WarDuck25 Giugno 2020, 14:28 #4
Alla fine della fiera la differenza secondo me la farà anche il software, drivers e librerie. E sinceramente non mi sembra che Intel abbia mai brillato da quel punto di vista.
coschizza25 Giugno 2020, 14:48 #5
Originariamente inviato da: WarDuck
Alla fine della fiera la differenza secondo me la farà anche il software, drivers e librerie. E sinceramente non mi sembra che Intel abbia mai brillato da quel punto di vista.


io direi l'opposto software e librerie vedono intel in prima linea da decenni come compilatori ecc gran parte del mercato usa librerie intel quando ha biosgno di prestazioni. Per esempio le librerie di ray tracing piu evolute al mondo ad oggi sono di intel e molti software di rendering le usano compresi i top player. Stessa cosa per codek video per esempio anche li i suoi sono i migliori e uno standard de facto
pabloski25 Giugno 2020, 15:36 #6
Originariamente inviato da: coschizza
io direi l'opposto software e librerie vedono intel in prima linea da decenni come compilatori ecc gran parte del mercato usa librerie intel quando ha biosgno di prestazioni. Per esempio le librerie di ray tracing piu evolute al mondo ad oggi sono di intel e molti software di rendering le usano compresi i top player. Stessa cosa per codek video per esempio anche li i suoi sono i migliori e uno standard de facto


Ma per l'hardware Intel. Non vedo grande uso di librerie e strumenti Intel, al di fuori del mondo x86.

Tanto per dire, esiste MKL-DNN, ma tutti usano CUDA. Adesso ci stanno provando con oneAPI, proponendola ocme API multipiattaforma. Ma non è detto che funzionerà. Perchè tanto il cross-platform in quell'ambito esiste già e sono i vari framework che praticamente tutti usano. E che, curiosamente, non supportano nemmeno OpenCL o RadV, ma solo CUDA.
redeg625 Giugno 2020, 16:05 #7
ammazza che piastrella
CrapaDiLegno25 Giugno 2020, 16:07 #8
Originariamente inviato da: pabloski
Capisco il vantaggio a livello di produzione, ma non ce lo vedo a livello di prestazioni.

Non è che le GPU moderne siano monolitiche. Già sono architetture distribuite, basate su unità discrete interconnesse.

Che poi si possano fisicamente produrre GPU gigantesche, incasellando 4-8-16 GPU su un singolo die, può essere interessante per i supercomputer, ma inutile per gli usi home/soho/workstation.


Be', come fosse facile separare fisicamente i gruppi oggi interconnessi con bus molto veloci e ampi.

Il problema è tutto lì, come interfacciare le varie parti. Se non ci fosse il problema della banda (e dell'energia necessarie per trasmettere i dati a lunga distanza) saremmo MCM dal giorno 1 della nascita dei chip.
Ma lo scoglio è proprio quello: facile fare gruppi interconnessi sullo stesso die, molto ma molto più difficile diventa realizzarli separatamente ma che lavorino efficacemente.

La gestione della memoria è uno di questi scogli. Semplificando in un monolitico metti diversi controller collegati ciascuno a uno o due chip di memoria e internamente usi un bello switchone che permette a tutti i gruppi di accedere a qualsiasi chip di memoria necessitino. Memorie cache L2 e L3 a disposizione per tutti in piena libertà.

Ma se separi cosa fai? Metti un controller di memoria su ciascuno con conseguente super mega bus di connessione tra chip o fai l'hub super mega intricato che permette di passare i dati ad altissima velocità, sempre tramite bus ad alte prestazioni? E le cache sai quanto perdono di efficacia? O viceversa, quando grandi devono diventare per mascherare la lentezza e la latenza dei bus esterni?

L'MCM con le CPU è più semplice appunto perché la banda di cui hanno bisogno è molto inferiore a quella usata dalle GPU. E anche lì comunque abbiamo visto cosa succede quando il sistema è sbilanciato come sui Threadripper v1.

Con le GPU ci stanno mettendo di più perché la soluzione non è così facile e le controindicazioni sono molteplici.
Raven25 Giugno 2020, 18:32 #9
A me Raja piace ricordarlo così....

Link ad immagine (click per visualizzarla)
pabloski25 Giugno 2020, 19:00 #10
Originariamente inviato da: CrapaDiLegno
Il problema è tutto lì, come interfacciare le varie parti. Se non ci fosse il problema della banda (e dell'energia necessarie per trasmettere i dati a lunga distanza) saremmo MCM dal giorno 1 della nascita dei chip.


Beh ovvio. Del resto tante altre tecnologie non erano possibili, che so, negli anni '70.

Ma il punto è che MCM ( usato già da AMD per le sue CPU da millemila core ) è un vantaggio per chi produce, non per chi usa. A te e a me non cambia niente, perchè il chippone in basso a destra e raffreddato a liquido, non finirà mai nel nostro PC. Chiaro che se sei la NASA e hai ordinato il nuovo supercomputer, la cosa t'interessa. E se sei Intel, sai che grazie a MCM puoi riciclare una marea di die difettosi, vendendoli come versioni con meno unità discrete.


Originariamente inviato da: CrapaDiLegno
La gestione della memoria è uno di questi scogli. Semplificando in un monolitico metti diversi controller collegati ciascuno a uno o due chip di memoria e internamente usi un bello switchone che permette a tutti i gruppi di accedere a qualsiasi chip di memoria necessitino. Memorie cache L2 e L3 a disposizione per tutti in piena libertà.


Su questo punto mi pare ci sia ampia letteratura e tante soluzioni già provato. Intel ha provato con vari tipi di mesh e pare stia tornando indietro. AMD preferisci collegare un controller di memoria ad ognuno dei chiplet

Ci sono SoC ARM per server e HPC che usano memorie locali e vanno a tutto NUMA.

Ma sono tutti problemi già studiati per i sistemi distribuiti. E non mi pare si sia trovata la soluzione definitiva.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^