Heterogeneous Queuing: l'approccio di AMD alla programmazione di CPU e GPU
AMD prosegue l'evoluzione delle proprie architetture APU annunciando hQ, Heterogeneous Queuing, per l'ottimale gestione delle risorse di CPU e GPU in modo parallelo ed efficiente
di Paolo Corsini pubblicata il 22 Ottobre 2013, alle 06:01 nel canale Schede VideoAMD
Da molti anni AMD propone sul mercato architetture APU, Accelerated Processing Unit, con le quali vengono integrati nello stesso componente tanto la CPU come la GPU. La presenza di questi due elementi all'interno di un singolo componente di silicio permette ad AMD di meglio integrare le proprie tecnologie, semplificando l'architettura del PC nel suo complesso, oltre a percorrere una evoluzione tecnologica futura che vada sempre più verso una integrazione di questi due elementi. Tutte le evoluzioni in termini di GPU Computing, cioè dell'approccio che vede le GPU utilizzate anche per alcune tipologie di elaborazioni non grafiche parallele, punta proprio nella direzione di rendere tutte le risorse di elaborazione presenti in un PC sempre più utili a qualsiasi tipo di elaborazione.

Sono numerosi gli esempi pratici di applicazioni che sono state sviluppate negli ultimi anni, in grado di sfruttare in parallelo tanto la potenza di calcolo della CPU come della GPU. E' però evidente come sia necessario un lavoro che vada nella direzione di semplificare l'approccio dei programmatori, così che l'accesso a una o l'altra risorsa di elaborazione non abbia impatti prestazionali e possa avvenire nella forma più semplice per l'utente e per lo sviluppatore software.

Qust'oggi AMD annuncia hQ, Heterogeneous Queuing, la tecnologia che definisce come GPU e CPU interagiscano all'interno di una APU così da gestire tra di loro il carico computazionale che viene richiesto dal sistema, sfruttando al meglio le peculiarità di ciascuno di questi componenti. Le transazioni di task da CPU a GPU sono sino ad oggi state portate avanti attraverso un approccio che prevede un OS service, con un impatto negativo considerevole in termini di latenza. La GPU, inoltre, può unicamente eseguire tasks e non inviarne di specifici alla CPU così che vengano eseguiti da quest'ultima: di fatto è una relazione a singola direzione, con un processo di interazione tra CPU e GPU che è ben lontano dall'efficienza. E' verso il superamento di queste limitazioni che AMD si è mossa con hQ, nell'ottica di giungere ad un sistema che veda i vari processori come tutti uguali tra di loro ai fini del calcolo del deve essere eseguito.

Grazie a Heterogeneous Queuing l'applicazione può inviare task direttamente tanto alla CPU come alla GPU, riducendo in misura significativa la latenza di accesso che affligge quest'ultimo componente; oltre a questo è la GPU stessa che può inviare dei task per l'elaborazione alla CPU, con una relazione simmetrica a quella della CPU verso la GPU. In questo modo l'applicazione può bypassare l'OS service, inviando richieste di elaborazione di task direttamente all'hardware a disposizione a prescindere dal fatto che si tratti di CPU o di GPU, a tutto vantaggio dell'efficienza complessiva e della riduzione delle latenze.

Diretta conseguenza è quindi per le applicazioni, e per i loro sviluppatori, la possibilità di accedere a GPU oppure CPU con la stessa flessibilità, meglio sfruttando in questo modo la massima potenza di elaborazione teorica propria della GPU, rimuovendo l'overhead kernel che è insito con l'approccio attuale nell'utilizzare la GPU quale risorsa di calcolo parallelo. Oltre a questo entrambe le risorse di elaborazione possono avere accesso alla memoria di sistema nella sua interezza, con un accesso che è di tipo uniforme.

Quello HSA, Heterogeneous System Architecture, è un approccio sviluppato da AMD come industry standard e quindi utilizzato non solo dall'azienda americana ma anche dai numerosi partner che hanno scelto di aderire a questo approccio. I benefici saranno pertanto estesi non solo al mondo PC ma a tutte quelle tipologie di prodotti che vengono sviluppati sulla base di HSA, includendo in questo anche sistemi mobile e portatili. La logica di AMD continua a rimanere quella di mettere a disposizione dei programmatori, e degli utenti di dispositivi, due differenti risorse di elaborazione come CPU e GPU, ben differenti tra di loro: la prima specializzata nel calcolo seriale, la seconda in quello parallelo. Tutto questo ha quale fine quello di non dare due entità di elaborazione separate e distinte, ma fornire al mercato prodotti che siano sempre più integrati, per i quali l'approccio alla programmazione tenda ad essere il più uniforme possibile.










OPPO Find X9 Pro: il camera phone con teleobiettivo da 200MP e batteria da 7500 mAh
DJI Romo, il robot aspirapolvere tutto trasparente
DJI Osmo Nano: la piccola fotocamera alla prova sul campo
Le immagini nell'occhio dell'uragano Melissa catturate da una Canon EOS R5 e da un iPhone 16 Pro Max
Anche gli USA inseguono l'indipendenza: una startup americana promette un'alternativa migliore di ASML per la produzione di chip
TikTok: i content creator guadagneranno di più con i nuovi strumenti basati sull'IA
Nothing Phone (3a) Lite disponibile, ma stavolta è solo un rebrand
Emissioni globali per la prima volta in calo secondo l'ONU, ma l'obiettivo è ancora troppo distante
Bancomat lancia Eur-Bank: la stablecoin bancaria italiana conforme a MiCAR
NVIDIA supera i 5.000 miliardi di dollari: è la prima azienda al mondo a farlo
I ransomware fanno meno paura: solo un'azienda su 4 cede al riscatto
Intel Nova Lake-S: i dissipatori delle precedenti generazioni saranno compatibili, stavolta è 'ufficiale'
1X Technologies apre i preordini per NEO, il primo robot umanoide domestico. Un pericolo per la privacy
Tesla Cybercab cambia rotta: nel taxi del futuro anche volante e pedali, senza guida autonoma completa
L'industria dell'auto europea a pochi giorni dalla catastrofe: stop delle linee di assemblaggio imminente
VMware tra cloud privato e nuovi modelli di business: cosa si è detto a Explore on Tour 2025 Parigi









52 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoadesso spiegami quali sono i presunti miracoli che AMD ha promesso negli ultimi 10 anni??? (a parte le prestazioni che doveva avere Bulldozer grazie ad un reparto marketing da prendere a calci in cul*)
...poi lo fanno tutti, lo fece anche ai suoi tempi la cara Intel nel pubblicizzare i suoi P4, lo ha fatto nvidia con fermi e la serie 400... cosa dovevano/devono fare, dirci che fanno schifo i processori o le gpu che fanno?
Quindi chi critica AMD non ha diritto di parlare secondo te, bene lo terremo in considerazione.
Non ci tengo a fare polemica ma dopo quasi 9 anni di delusioni e continue e promesse mai mantenute e dichiarazioni false a scopo di temporeggiare i possibili acquirenti Intel mi pare più che giustificato dare un peso scarsino alle parole di AMD.
A partire dalle proposte Phenom I che AMD ha temporeggiato per oltre un anno dall'uscita di Conroe prendendo in giro tutti e di cui mostrava presunte slide poi rivelatosi un flop, all'uscita di R600, alla rivelazione di Bulldozer con tanto di slide falsificate del Cinebench fino all'eliminazione di Steamroller FX e del socket AM3+ che penso alcuni abbiano anche comprato con la speranza di farsi un update a quest'ultimo.
Nvidia e Intel con Fermi e P4 agli esordi erano superiori, Intel fino a che non è arrivato Athlon64 era superiore agli XP, Nvidia con Fermi era la GPU più potente del mercato, quindi per entrambi la decenza è sempre stata raggiunta, cosa che manca ad AMD da 9 anni.
HSA dipenderà in primis dai programmatori più che da AMD ed ho dei dubbi in merito alla sua diffusione in quanto AMD rappresenta circa il 30% del market share delle cpu desktop. Sono alquanto scettico quando sento parlare per l'ennesima volta di miracolo prestazionale in grado di battere Intel, ma poi in quali applicazioni, in quante e soprattutto in che misura visto che APU rispetto a FX parte già con la metà dei cores e niente L3.
Phenom I avevo proprio un bug corretto con l'ottimo phenomII, R600 è di ATI mica di AMD, Bulldozer a parte le basse prestazioni è una architettura che nasce per questo scopo, per il progetto che verrà, non te lo voglio più ripetere!
...Fermi serie 400 scaldava e consumava uno sproposito in rapporto alle performance, e non parliamo di 60° e 100/150Watt come di Bulldozer, ma di 90° e 300/400watt... ma P4 era peggio del P3, ma cosa dici???
detto questo puoi stare anche qua ad inquinare i post le news i thread di AMD, già che ieri andavi in mezza rete a scrivere le stesse cose 10 volte...
Mi stai dando del troll perchè ho criticato anche in passato AMD o solo per screditare chi non la pensa come te ?
E ammettendo che uno abbia in passato trollato non può più dire nulla perchè ogni cosa che dice è automaticamente un trollaggio ?
P4 era inferiore a P3 a pari clock, ma P4 era famoso appunto per la frequenza molto più alta e fino al 2003 dominava il mercato visto che gli AthlonXP erano inferiori o vuoi negarlo ?
Fermi 300-400W ? Parli per esperienza o per sentito dire ?
Io ho avuto una GTX 470 Gainward prima e la GTX 570 Zotac dopo ( entrambe vendute quì ) entrambe reference Nvidia, e prima una Sapphire HD5870 te invece quale hai avuto per affermare ciò ?
A parte il fatto che una scheda single GPU non può consumare 400W, i loro TDP dichiarati erano relativamente 215 e 250W, e la 470 aveva solo 2 connettori da 6pin mentre la 480 1*6 + 1*8 come oramai quasi tutte le attuali VGA di quella fascia.
Per giunta al tempo avevo tutto montato su un Enermax MODU82+ da 525W.
Sono curioso si vedere come questo di concretizzerà in termini di ambiente di sviluppo e in che modo lavorerà con l'hardware quando l'integrazione che AMD ha in mente sarà stata sviluppata (ossia quando CPU e GPU non saranno più due entità distinte e distinguibili all'interno del chip).
Mi chiedo anche come questo influenzerà lo sviluppo della FPU, se verrà di fatto sostituita dagli elementi della GPU o sarà ancora necessaria per i compiti non molto parallelizzati, i task "seriali" di cui parlano le slide.
@PaulGuru
Credo che il tuo problema sia l'atteggiamento (che trovo francamente incomprensibile, ma del resto il tifo non è raziocinio) da "tifoso" Intel.
E lo dimostri di continuo, cercando nelle discussioni non di apprende e arricchirle con il tuo contributo, ma difendendo continuamente Intel anche di fronte all'evidenza. E ti impunti nelle tue argomentazioni, anche quando altri più competenti di te stanno solo cercando di spiegarti dove e perchè sbagli.
AMD sicuramente non è esente da critiche (anzi), ma tu col tuo primo post non hai scritto una critica, hai fatto una sparata senza argomentazioni.
Non è un problema di cosa dici, ma di atteggiamento.
E ammettendo che uno abbia in passato trollato non può più dire nulla perchè ogni cosa che dice è automaticamente un trollaggio ?
Uno è liberissimo di dire ed esprimersi come vuole, ma se inzia e finisce con un commento del genere....
....come puoi tu pretendere che non lo si traduca come un tentativo di flame?.
Ripeto, sei libero di scrivere ciò che vuoi ma come sei libero tu di farlo lo sono anche altri nel contestare ciò che affermi, che sia per i modi che per i concetti. Nei forum così funziona. Se non ti sta bene evita o per lo meno cerca di esprimerti in un modo migliore.
Questa tecnologia ammesso che funzioni non sarà minimamente ad effetto immediato, ci vorrà un del tempo affinchè venga presa in considerazione e collaudata e se parliamo di anni questo vorrà dire che quando sarà veramente operativa le APU che stan per uscire saranno già vecchie e il suo competitor potrebbe avere anch'egli qualcos'altro da mostrare, quindi attualmente la situazione rimane e rimarrà quella, ovvero che io e tutti gli altri saremo costretti a stare con Haswell fino al 2015.
Per quanto riguarda la possibile sostituzione della FPU della CPU detta da te Calabar sarebbe anche interessante ma devi ammettere che adesso stai azzardando anche te delle ipotesi mooooooolto lontane, visto che non ne è stato fatto minimamente cenno.
cut
forse perche' in ogni news intervieni sempre e fuori luogo
Questa tecnologia ammesso che funzioni
cut
vorse volevi dire completamente sfruttata.
perche' amd si messa in moto perche' sia sfruttata subito, vedi windows 8.1 che tra l'altro girera' (non so se lo stesso) anche nella console di windows, che e' un apu con huma. sta collaborando oltre che nei giochi con adobe ecc.
inoltre c'e' interesse in questa tecnologia anche nel mondo table e smartpphone, dove le future cpu saranno apu 64 bit otto core con huma (non necessariamente amd naturalmente, ma qualcomm collabora al proggetto e anche amd fa apu arm).
vorse volevi dire completamente sfruttata.
perche' amd si messa in moto perche' sia sfruttata subito, vedi windows 8.1 che tra l'altro girera' (non so se lo stesso) anche nella console di windows, che e' un apu con huma. sta collaborando oltre che nei giochi con adobe ecc.
inoltre c'e' interesse in questa tecnologia anche nel mondo table e smartpphone, dove le future cpu saranno apu 64 bit otto core con huma (non necessariamente amd naturalmente, ma qualcomm collabora al proggetto e anche amd fa apu arm).
Bene quindi quando uscirà Kaveri mi aspetto di vedere notevoli incrementi negli applicativi di conversione e rendering nell'ordine del +200-300%.
Che vuol dire Adobe ecc ecc ?
Se sono veramente così tante le SH con cui stanno collaborando non riesci che a trovarmi solo il nome di Adobe ( che fra l'altro usa già l'accelerazione grafica, quindi avrò un netto incremento col Flashplayer e Java ? utilissimo ) ? Tirami giù una bella lista folta visto che sono così tante.
Huma è un altra storia nei giochi, quì si sta parlando dei possibili vantaggi che si avrà nel calcolo eterogeneo e ancora non me li hai saputi elencare e la news a riguardo guardacaso è molto vaga, non dice espressamente in quali ambiti e in quali applicativi ci sarà il vantaggio ed in che ordine sarà.
Sono io ad essere fuori luogo o ti è sfuggito che si sta parlando di HSA e non di Huma ? O per te sono la stessa cosa ?
Forse non da subito, il software di solito è sempre più lento dell'hardware, ma la strada da intraprendere è quella.
E in questo caso non bisogna solo implementare, ma anche affinare.
Sono io ad essere fuori luogo o ti è sfuggito che si sta parlando di HSA e non di Huma ? O per te sono la stessa cosa ?
HUMA sta alla base dell'implementazione AMD di HSA.
Quello che intendeva è che semplicemente l'approccio HSA allo sviluppo software potrebbe essere molto diffuso in futuro, grazie alle APU delle consolle e all'interessamento dei vari membri appartenenti al consorzio, tra cui parecchie realtà del mondo mobile, che oggi hanno una notevole importanza.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".