|
|
|
|
Strumenti |
17-11-2015, 08:01 | #1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75175
|
Link alla notizia: http://www.hwupgrade.it/news/skvideo...gpu_59595.html
Grazie alla Boltzmann Initiative AMD punta a rendere le schede FirePro degli strumenti sempre più nelle mani di chi fa calcolo parallelo ad alte prestazioni. Tutto questo cambiando radicalmente la propria base software Click sul link per visualizzare la notizia. |
17-11-2015, 08:39 | #2 |
Senior Member
Iscritto dal: May 2005
Messaggi: 11683
|
io continuo a vedere HSA per quello che è, OpenlCL con la memoria condivisa della GPU dell'APU e stop, e ora con HSA+ hanno aggiunto il supporto alla memoria condivisa delle GPU discrete con questo nuovo tool, cosa che nVidia ha iniziato a introdurre nel 2013 con CUDA 6.0 e che si concretizzera con il supporto Hardware di Pascal; presumo quindi che anche le nuove GPU AMD avranno il supporto alla memoria condivisa in hardware, direi che sono obbligati a metterla seno sara gia una partita persa.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360 |
17-11-2015, 10:27 | #3 |
Senior Member
Iscritto dal: Mar 2000
Città: BO[h]
Messaggi: 4726
|
non farebbero prima a rellare estensioni per opencl invece di inventarsi un'altra cosa proprietaria che in questo caso non usera veramente nessuno?
|
17-11-2015, 11:24 | #4 | |
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4082
|
Quote:
E' un HSA "finto"..in pratica agevola solo la programmazione al programmatore, ma si capisce bene che un algoritmo HSA+ e HSA ha costi differenti e per tanto è consigliabile, quantomeno una compilazione ad hoc. Serve ad AMD per consentire di sfruttare HSA anche sulle sue APU, anche con codici che non sono espressamente progettate per le APU (ricordo che un'applicazione HSA è incompatibile a livello di codice sorgente). Ultima modifica di tuttodigitale : 17-11-2015 alle 11:38. |
|
17-11-2015, 12:12 | #5 |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3287
|
AMD è sempre stata persa nel mondo del GPGPU. Non ha mai avuto una strategia che potesse essere considerata semi decente.
Dall'uso dell'architettura VLIW che non era adatta al GPGPU al passaggio a GCN lato HW non è corrisposto alcuna evoluzione sul piano del supporto SW né della strategia stessa. E infatti si sono visti i risultati e i tentativi di correzione al volo. AMD è partita con capacità DP stratosferiche sulle proprie GPU. Peccato che lato professionale non offra alcun supporto al loro utilizzo. Quindi alla fine hanno capito che è silicio e corrente sprecati. All'aumento di dimensioni del die, quindi a fascia di appartenenza superiore, ogni revisione di GCN ha rimosso le capacità DP. Si è partiti con Tahiti e 1/4, Hawaii è scesa a 1/8, Tonga a 1/16 e Fiji a 1/24. Per assurdo le GPU destinate al migliore mercato che avrebbe potuto sfruttare le capacità DP sono quelle che sono state maggiormente penalizzate. Rendedndo le GPU di fascia media inutilmente più costose da produrre per il solo scopo di far girare i videogiochi. Questo va in contrasto con la strategia nvidia che è la stessa da sempre: capacità DP nulle sulle schede low end, ovvero tutto quello che è più piccolo della mattonella, mentre unità DP apposite aggiunte su quest'ultima. Quindi GPU da gioco meno costose (per lei) e GPU professionali a costo elevato ma con la sicurezza di poterle vendere con margine altissimo lo stesso. Le due strategie HW vanno in direzioni opposte, e non si capisce davvero dove porti quella di AMD. Si vede che in India si studia economia al rovescio. Se aggiungiamo che AMD non ha mai investito seriamente nel supporto SW delle proprie architetture, la frittata è bella che fatta. Ora se ne esce con un tool di conversione tra le applicazioni CUDA e il suo nuovo OpenCL con nuovi entusiasmanti acronimi, manco che convertire la sintassi equivalesse a poter usare tutte le librerie che nvidia mette a disposizione con CUDA. Diciamo pure che è in alto mare e non sembra capace di portarsi verso riva. E non sembra nemmeno che si stia sforzando poi molto per farlo. Con una frazione di quello che è stato investito per trasformare GCN1.0 in GCN1.2 senza davvero aver migliorato di alcunché la sua situazione (anzi peggiorandola lato professionale), avrebbero benissimo potuto cercare (quantomeno cercare) di dare maggior supporto al proprio HW invece di affidarsi, come ormai le è di abitudine, che siano altri a fare il lavoro per conto suo. Ma con meno del 20% del mercato, ormai sta perdendo anche il supporto degli irriducibili. E recuperarlo quando si è così indietro, diventerà molto ma molto difficile. @tuttodigitale HSA non è programmazione su APU. La APU è una implementazione di HSA. Ma non è HSA. Avere la memoria condivisa o meno non cambia il modo di lavorare. E' un vantaggio che può (e deve ) essere sfruttato, ma un algoritmo può essere scritto benissimo per girare (con diverse prestazioni) indipendentemente dal fatto che la memoria sia condivisa o meno sullo stesso MC. Se il framework n cui si lavora estrae la configurazione della memoria in maniera completa, l'algoritmo è trasparente alla configurazione fisica. Quest'ultima influenza solo le prestazioni. nvidia con Pascal introdurrà l'nvlink, che non sarà come avere la memoria condivisa tramite lo stesso MC come con le APU, ma non sarà neanche come usare il PCI-e per fare i dovuti trasferimenti tra i vari buffer. Mentre AMD è e sarà limitata ad avere alta efficienza solo con le APU, nvidia aumenterà la sua efficienza con le schede discrete destinate al mercato dove l'nvlink farà la differenza. Ancora una volta una bella differenza tra le due strategie. Poi ovviamente, come da prassi da diversi anni, tra qualche mese AMD se ne uscirà su un foglio di carta con la proposta "open" di una specifica nuova per un nuovo bus di interconnessione CPU-GPU ad alte prestazioni, da far realizzare agli altri ovviamente, facendo ancora una volta la figura di quella che crea tecnologia "aperta" e non proprietaria. |
17-11-2015, 12:14 | #6 |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3287
|
...
Doppio |
17-11-2015, 13:16 | #7 |
Senior Member
Iscritto dal: Dec 2004
Città: IV Reich
Messaggi: 18496
|
farà la fine di mantle...
__________________
Wind3 4G CA |
17-11-2015, 15:38 | #8 | ||
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4082
|
Quote:
E comunque un bus ad alte prestazioni per la GPU, AMD già ce l'ha già e si chiama HyperTrasport. Tutto il resto sono sciocchezze, inclusa il fatto che HSA(+) non facilita la programmazione: Quote:
|
||
17-11-2015, 17:49 | #9 |
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4082
|
|
17-11-2015, 18:18 | #10 | ||||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
|
Quote:
Quote:
Comunque il tool di conversione è una buona trovata per agevolare la conversione/porting del codice che già usa CUDA, che non è certo poco (visto che nVidia è stata pioniera). Sarebbe interessante sapere se questo tool sarà open source, o comunque sia in grado di generare codice OpenCL sufficientemente generico da poter essere utilizzato anche su soluzioni diverse dalle sue. Intel è il leader di mercato riguardo alle GPU, e i suoi utenti potrebbe trarne grande beneficio. Quote:
Questo non vuol dire che non si possa scrivere codice generico che giri su qualunque di queste GPU, però i risultati non saranno sicuramente ottimali (a volte decisamente sub-ottimali). Per sfruttare al meglio un dispositivo di massiccio calcolo parallelo, per il programmatore è necessario conoscere anche questi dettagli. Poi se ci si accontenta di una prima bozza di soluzione, perché "tanto va già molto meglio rispetto alla CPU", è un altro paio di maniche. Quote:
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
||||
17-11-2015, 19:11 | #11 |
Senior Member
Iscritto dal: Dec 2004
Città: IV Reich
Messaggi: 18496
|
ancora co sta storia che dx12 è mantle?
__________________
Wind3 4G CA |
17-11-2015, 19:22 | #12 | |
Bannato
Iscritto dal: May 2012
Messaggi: 10789
|
Quote:
E penso che sarà la analoga implementazione di Nvidia e Intel a ingranare, ma più su altri settori. Ultima modifica di PaulGuru : 17-11-2015 alle 19:25. |
|
17-11-2015, 19:26 | #13 | |
Bannato
Iscritto dal: May 2012
Messaggi: 10789
|
Quote:
E soprattutto hai detto bene .... lavorano con le integrate, quindi dà anche un senso di spreco enorme di potenziale avendo le discrete installate, contrariamente invece al settore mobile. |
|
17-11-2015, 19:30 | #14 |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
|
Impossibile non notare l'evidente plagio. Chissà chi dei due ha copiato...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
17-11-2015, 19:41 | #15 | |
Bannato
Iscritto dal: May 2012
Messaggi: 10789
|
Quote:
Velocizzare la parte FPU utilizzando la GPU è ok, ma il dover utilizzare l'integrata quando si ha qualcosa di fascia alza installato fa ridere. E' come avere un ottica tecnologia fisicamente handicappata. Per quanto riguarda la potenza di calcolo non esiste un limite dove qualcuno può dire che la iGPU è in qualche modo tarata rispetto alla CPU secondo l'ottica HSA, perchè non è vero. Ultima modifica di PaulGuru : 17-11-2015 alle 19:43. |
|
17-11-2015, 19:43 | #16 |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
|
Sì, ma qualcuno l'avrà pur scritto il primo documento con quel testo...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
17-11-2015, 19:44 | #17 |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
|
Non si può usare la GPU per velocizzare l'FPU, ma per sostituirla.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
17-11-2015, 20:07 | #18 | |
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4082
|
Quote:
Precisato questo, quoto non solo ogni singola parola, ma anche la punteggiatura. |
|
17-11-2015, 20:17 | #19 |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
|
Allora avevo capito male io. Siamo perfettamente d'accordo.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
17-11-2015, 20:54 | #20 | ||
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4082
|
Quote:
. La differenza te l'ha detta cdimauro. Questo significa che una soluzione integrata può permettersi un dialogo più intenso tra cpu e gpu: laddove in una soluzione discreta, la cpu e la gpu sono costretti, in misura maggiore, a eseguire parte di codice dove un processore è molto peggio dell'altro. Questo è dovuto proprio al passaggio dei dati (poco conta se la copia non è esplicita). In pratica il processore1 potrà eseguire il compito più velocemente (una ditta con numerosi operai), peccato che esiste una certa latenza, MOLTO maggiore nelle soluzioni discrete (la cosiddetta burocrazia), tanto che è più vantaggioso appoggiarsi al lentissimo processore2, (l'amico nel tempo libero): il risultato è che il lavoro può effettivamente terminare prima facendo eseguire una sequenza di istruzioni ad un processore meno adatto. La cpu e la fpu si scambiano il ruolo di processore1 e processore2, dell'esempio precedente, in base al codice che devono eseguire. HSA, o comunque le soluzioni integrate, possono aprire orizzonti nuovi. Ci vuole del tempo. Forse il 2017 HSA sarà sfruttato a dovere, proprio nel mercato HPC. Quote:
A me pare che AMD sia ritornata all'idea originale... Ultima modifica di tuttodigitale : 17-11-2015 alle 21:41. |
||
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 04:58.