View Full Version : In arrivo i primi driver AMD compatibili con Mantle, oltre alla patch per Battlefield 4
tuttodigitale
03-02-2014, 16:09
Maxwell gestira la memoria nello stesso modo e lo fara con le discrete; sono curioso di vedere dove sara il punto oltre il quale la forza bruta vince sulla velocita di accesso; quindi credo che se un software richiedera pochi accessi alla GPU e di piccola entita sara in vantaggio Kaveri, nel restante numero di casi saranno in vantaggio le Maxwell.
appunto...quei 16 core ARM serviranno per il compute, non per i videogiochi.
Ritornando in TOPIC non è la risposta di nvidia a MANTLE, ma la risposta di nvidia ad HSA, o meglio la naturale evoluzione del gpgpu.
Poi non capisco per quale ragione una gpu con core ARM deve necessariamente annullare i vantaggi di kaveri, non è logico, tanto più che saranno tutte soluzioni open cl compatibili. Anzi è probabile che vedremo anche soluzioni grafiche AMD con i core Arm.
PaulGuru
03-02-2014, 16:28
http://cfile10.uf.tistory.com/image/221F424552E0E2BB1AA11B
http://www.extremetech.com/wp-content/uploads/2014/01/HSA-LibreOffice.png
qui hsa permette di aumentare di 6-7x la velocità di esecuzione..
Ti ricordo che stiamo parlando di algoritmi che per loro natura beneficiano del gpgpu con nUMA
Corro subito a comprare Kadaveri allora, se con LibreOffrice mi apre il documento in 1ms anzichè in un decimo allora mi cambierà la vita, poi con Sandra ...... bench di grande utilità e valore.
Skerzi a parte ma test che invece contano qualcosa tipo Cinebench, games e conversioni pesanti ?
CrapaDiLegno
03-02-2014, 21:00
cosa stai dicendo?
come dire su 512 shader dell'igp di kaveri i 4 core x86 strettamente a contatto con il chip servano a poco nel compute, quando in realtà hUMA è stato inventato (si inventato perchè non mi risulta che ci siano state in passato soluzioni custom in cui le gpu avessero un interfaccia coerente con il MC, anzi stando a diverse fonti l'approccio delle attuali console è simile a quella di llano/trinity/kabini) proprio per dare il meglio nei calcoli
Non sono io a dirlo, 512shader+4core x86 con hUMA sono in grado di esprimere in talune condizioni più potenza di 6000stream processor+octa core con nUMA...molti algoritmi oggi non possono sfruttare la gpu proprio perchè hanno l'esigenza di sfruttare ANCHE abbondantemente le risorse della cpu.
Quei 16 core ARM è un semplice scimmiottamento di HSA.
Serve a limitare il dialogo con la cpu principale (di convesso hsa serve per intensificare l'interazione gpu e cpu), proprio a causa delle latenze dovute all'inizializzazione delle variabili di componenti distanti sul piano logico.
infatti poco sotto menzioni i vantaggi dei core indipendenti, ovvero di kaveri...
Vantaggi che si concretizzeranno SOLO riscrivendo il codice.
Sì, beh, adesso, non facciamo come Steve Jobs e la Apple che hanno inventato tutto loro per primi anche là dove hanno palesemente copiato a sbafo da altri.
Il primo computer ad usare un sistema CPU/coprocessore è stato il C64, con la CPU e il processore audio SID. Grezzo e limitato, ma l'idea c'era.
Idea che è stata pienamente sviluppata con l'Amiga dove di coprocessori ce n'erano ben 3 e quello grafico aveva la sua bella memoria condivisa con la CPU senza alcuna latenza di mezzo (nemmeno il controller, dato che faceva un "clock" alla CPU e uno al chip grafico, chiamato Blitter). Banda dimezzata per ciascuno ma niente latenza (ecco perché esisteva anche la fast RAM usata solo per il processore).
hUMA è la copia di quell'idea che vedeva, giustamente, la CPU dialogare in maniera diretta con i propri coprocessori senza controller e lenti bus di mezzo.
hUma ha i suoi vantaggi, che sono indiscutibili. Purtroppo per come è realizzato oggi si scontra con diversi scenari d'uso improbabili: là dove serve veramente la potenza bruta di una GPU e i suoi mille mila core di calcolo si scrivono algoritmi ad hoc per sfruttare la potenza di calcolo al massimo riducendo il più possibile l'overhead e i colli di bottiglia imposti dall'attuale architettura. Il risultato è che, anche con un overhead immenso, si riescono a realizzare sistemi di calcolo distribuito estremamente efficienti che rendono la potenza e l'efficienza di calcolo delle APU una miseria.
Anche volessi realizzare un sistema di calcolo distribuito con le APU, l'efficienza sarebbe minore rispetto a quello ottenibile con le sole GPU, dato che ti rimane il problema della latenza della comunicazione tra i nodi, la minore capacità in assoluto di calcolo e di banda, ma con consumi non certo da "risparmio energetico".
Là dove invece APU si presenta con i suio vantaggi.. aimè c'è ben poco da calcolare. E i fogli Excel o i bench SiSandra (che è una vita che fa bench a favore di AMD, dato che AMD collabora strettamente con, ovvero sovvenziona, i suoi sviluppatori) non sono certo la killer application per spingere queste APU là dove le CPU non possono arrivare.
Le APU andranno ben nei videogiochi, affiancati da una VGA discreta di media potenza, dove la piccola iGPU potrà svolgere parte dei calcoli che oggi per esempio nvidia fa fare alle sue GPU (provocando cali di frame). Avesse AMD oggi una libreria come physix da far girare sulle sue APU potrebbe dire di avere un sistema (oggi, non all'arrivo di Maxwell) deciamente migliore della proposta della concorrenza.
Con le unità di calcolo seriale all'interno delle propri GPU invece si arriverà al punto in cui nvidia offrirà una potenza di calcolo decisamente superiore a quella delle minuscole APU. Con 5W dati a dei core ARM si ottengono molte più performance di quanto sia possibile con 5W dati in pasto ai processori x86 (e con quelli AMD ancora meno).
Sotto il punto dell'efficienza (sulla carta) quindi, AMD non ha alcun vantaggio. Sotto il punto di vista prestazionale (sempre sulla carta) neppure.
Dipendentemente da come nvidia avrà organizzato queste unità di calcolo seriale (che ricordo potrebbero benissimo essere in grado di far girare un OS indipendente sulla GPU con a bordo tutto quello che gli occorre, e volendo pure un connettore di rete) la lotta sarà serrata.
Il problema vero però è semplice: mentre nvidia potrà far scalare la propria architettura ad libitum, AMD non può perché è limitata dal form factor della APU. Là dove nvida può mettere 2800 unità di calcolo AMD ce ne fa stare a malapena 1000. Là dove le unità di calcolo seriale consumano una manciata di W per gestire e ottimizzare il flusso del codice, con le APU si tratta di portarsi appresso un elefante (anzi 4) che mangia energia come un idrovora.
Là dove c'è disponibilità di banda di qualche centinaio di GB/s, sulle APU si ha un collo di bottiglia spaventoso.
Là dove nvidia può crearsi un OS tutto suo per gestire l'interno della GPU, AMD deve affidarsi all'OS di altri. E non ultimo, là dove nvidia può presentare qualsiasi cosa di proprietario, andando a coprire comunque il 90% del mercato professionale, AMD se lo fa (come con questo Mantle) arriva sì e no al 10%.
Insomma, il rischio è che si finirà sempre col parlare della questione "prezzo/prestazioni" perché di valore assoluto aggiunto non ce ne sarà.
AMD avrebbe dovuto imparare da un pezzo che fare grandi proclami per poi partorire topolini ciechi in versione beta là quando serve essere pronti e all'avanguardia, non porta ad alcun beneficio, anzi.
Purtroppo la questione sviluppo SW per AMD è una piaga che dura da quasi un decennio. Forse quando smetterà di affidarsi a compagnie terze per fare del lavoro che funzioni bene sarà troppo tardi.
AceGranger
03-02-2014, 21:05
kaveri come tutte le cpu destinate al mercato consumer è destinate a un sistema a singolo socket.
per avere sistemi con cpu-eterogenee multi-way dobbiamo aspettare l'opteron berlin.
no Berlin non fara un bel niente visto che saranno sistemi entry lvl single socket esattamente come lo è Kaveri ora.
appunto...quei 16 core ARM serviranno per il compute, non per i videogiochi.
questo non lo puoi sapere, bisognera vedere cosa riuscira a fargli fare nVidia, perchè se delle API riescono a scaricare la CPU da alcuni compiti non vedo perchè non possa farlo una CPU direttamente integrata nella GPU.
poi oh, magari non faranno nulla per il gaming, ma non lo escluderei cosi a priori.
Bene Mantle non funzica come dovrebbe, altra mezza delusione by AMD.
Ipse Dixit!
LoooL PaulGuru, non ti smentisci mai, sempre le tue sparate senza senso.
Dei risultati poveri fai il tuo cavallo di battaglia, quelli buoni non li consideri o dubiti come se volessero fregarti... ma provare ad avere una posizione equilibrata no, eh?
E infatti la questione è chi mai compra 400 euro di super VGA per affiancarla ad una CPU scrausa per risparmiare 50 euro.
Premesso che ci sono diversi esempi di configurazioni equilibrate che hanno tratto vantaggio da Mantle (e anche un "piccolo" 10% gratis di certo non fa schifo), il punto è che non sempre si ha una soluzione equilibrata.
Non vederla nell'ottica di acquistare un hardware mal dimensionato perchè tanto con Mantle lo si sfrutta meglio che senza, questo non lo farà nessuno neanche se Mantle funzionasse egregiamente nella metà dei giochi ad alte prestazioni del mercato.
Ci sono persone che non hanno acquistato in modo oculato, e si troveranno prestazioni notevolmente migliorate.
Ci sono persone che ora, anche con una CPU "piccola", possono pensare a fare prima l'upgrade della VGA anziché cambiare tutto il sistema perchè nei titoli in cui ha interesse a giocare, con Mantle, il suo processore regge ancora la botta.
Sono tutte situazioni in cui c'è un certo vantaggio. Magari non sono le situazioni in cui ti trovi tu od altri, ma sono situazioni reali e sono un buon valore aggiunto per le schede che supportano questa tecnologia.
Skerzi a parte ma test che invece contano qualcosa tipo Cinebench, games e conversioni pesanti ?
Perchè cinebench dovrebbe "contare qualcosa"?
Cinebench mette sotto torchio solo una parte della CPU, la FPU.
E la FPU è proprio quella parte del processore che nell'architettura Bulldozer è stata sacrificata (difatti abbiamo una solo FPU in un modulo dual core).
Perchè AMD ha fatto questa scelta? Il motivo è abbastanza ovvio: nell'ottica di utilizzare la GPU per molti calcoli che oggi vengono fatti dalla FPU.
Pensa come la GPU si presterebbe bene per eseguire gli stessi calcoli di cinebench (la GPU è perfettamente adatta a questo tipo di calcoli), se cinebench girasse sulla GPU integrata non ci sarebbe processore Intel con le sue FPU che potrebbe tener testa (e difatti anche Intel si sta dando ben da fare per migliorare le sue GPU... e non lo fa certo per i giochini).
Morale della favola: AMD sta lavorando (troppo lentamente purtroppo) per un progetto a lunga scadenza, per il quale le architettura attuali sono pensate.
Questo ovviamente non è molto consolatorio per chi guarda cosa offre AMD ora, ma per lo meno mostra chiaramente dove si vuole arrivare.
PaulGuru
04-02-2014, 11:58
Perchè cinebench dovrebbe "contare qualcosa"?
Cinebench mette sotto torchio solo una parte della CPU, la FPU.
E la FPU è proprio quella parte del processore che nell'architettura Bulldozer è stata sacrificata (difatti abbiamo una solo FPU in un modulo dual core).
Perchè AMD ha fatto questa scelta? Il motivo è abbastanza ovvio: nell'ottica di utilizzare la GPU per molti calcoli che oggi vengono fatti dalla FPU.
Pensa come la GPU si presterebbe bene per eseguire gli stessi calcoli di cinebench (la GPU è perfettamente adatta a questo tipo di calcoli), se cinebench girasse sulla GPU integrata non ci sarebbe processore Intel con le sue FPU che potrebbe tener testa (e difatti anche Intel si sta dando ben da fare per migliorare le sue GPU... e non lo fa certo per i giochini).
Morale della favola: AMD sta lavorando (troppo lentamente purtroppo) per un progetto a lunga scadenza, per il quale le architettura attuali sono pensate.
Questo ovviamente non è molto consolatorio per chi guarda cosa offre AMD ora, ma per lo meno mostra chiaramente dove si vuole arrivare.
Cinebench è sicuramente il top fra i bench per verificare la potenza in multithread di una cpu, il più diffuso per questo tipo di confronti e il più affidabile, ed è un bench di rendering 3D.
E' da anni che il fronte float rappresenta la tipologia di calcoli più frequente e di certo spostare tutti questi calcoli sulla GPU non è così facile e possibile come si pensa e non penso nemmeno sarà così imminente.
AMD ha puntanto sulla GPU ? Sì ma su quella integrata, mentre le discrete che rappresentano un fronte enormemente più grande sono lasciate in disparte, gran parte dell'utenza esigente possieda una discreta che annienta qualsiasi iGPU, senza contare che Kaveri attualmente fornisce una GPU molto più scarsa di quella fornita con le console, quindi c'è pure la beffa.
Nvidia invece con Maxwell farà debuttare l'Unified Virtual Memory e l'integrerazione di una CPU Denver sul PCB per una migliore gestione del carico GPGPU.
AceGranger
04-02-2014, 12:16
Pensa come la GPU si presterebbe bene per eseguire gli stessi calcoli di cinebench (la GPU è perfettamente adatta a questo tipo di calcoli), se cinebench girasse sulla GPU integrata non ci sarebbe processore Intel con le sue FPU che potrebbe tener testa
ci sono gia da tempo, e di una piccola VGA integrata non se ne fanno nulla.
l'approccio di AMD puo funzionare per piccoli calcoli che possono beneficiare dell'accesso diretto alla VGA attraverso la DDR3, per il resto, tutto cio che gia oggi sfrutta appieno la GPU come appunto i motori di rendering, continuera a funzionare meglio sulle discrete, perchè la VGA dell'APU è e rimane una entry lvl con tutti i limiti del caso.
Non ci rimane che vedere quanti software in futuro potranno trarre vantaggio da quel tipo di accesso alla memoria, rispetto alla potenza di una discreta.
ci sono gia da tempo, e di una piccola VGA integrata non se ne fanno nulla.
Se ci sono da tempo, allora non mostrano assolutamente quello che è possibile già fare con le tecnologie attuali, ne ancora meno con quelle future quando il progetto sarà finalizzato.
Oltretutto bisogna vedere quale livello di ottimizzazione ha raggiunto la versione GPU di cinebench (non basta che giri su GPU, deve farlo in modo adeguato).
I calcoli di cinebench sono palesemente adeguati ad una GPU, non credo che ci possano essere dubbi sulla maggiore efficienza rispetto ad una fpu.
Che poi le discrete possano mettere a disposizione più potenza è vero, ma qui il confronto era con le FPU.
Inoltre bisogna vedere se sarà possibile eseguire lo stesso tipo di calcoli su GPU esterna quando l'integrazione prevista nel progetto hsa sarà completa.
AceGranger
04-02-2014, 13:34
Se ci sono da tempo, allora non mostrano assolutamente quello che è possibile già fare con le tecnologie attuali, ne ancora meno con quelle future quando il progetto sarà finalizzato.
e chi lo dice ? i motori di rendering GPGPU funzionano benissimo e sono molto efficienti; i bench con HSA su Luxrender gia ci sono e non sono nulla di che.
I calcoli di cinebench sono palesemente adeguati ad una GPU, non credo che ci possano essere dubbi sulla maggiore efficienza rispetto ad una fpu.
quello è ovvio, ma il punto è che una entry lvl rimane comuqnue una entry lvl.
HSA permettera di poter usare la GPU in piu scenari, ma dove gia ora viene sfruttata molto non fara la differenza.
Che poi le discrete possano mettere a disposizione più potenza è vero, ma qui il confronto era con le FPU.
Inoltre bisogna vedere se sarà possibile eseguire lo stesso tipo di calcoli su GPU esterna quando l'integrazione prevista nel progetto hsa sarà completa.
prima di tutto bisogna vedere chi si mettera a rifare tutto con HSA, anche perchè puoi fondere la VGA quanto ti pare ma rimane sempre una ENTRY LVL INUTILE in campo professionale dove serve capacita di calcolo; poi si vedra cosa presenteranno Intel ed nVidia che hanno un ecosistema molto piu forte e software gia molto ottimizzati.
PaulGuru
04-02-2014, 13:38
Se ci sono da tempo, allora non mostrano assolutamente quello che è possibile già fare con le tecnologie attuali, ne ancora meno con quelle future quando il progetto sarà finalizzato.
Oltretutto bisogna vedere quale livello di ottimizzazione ha raggiunto la versione GPU di cinebench (non basta che giri su GPU, deve farlo in modo adeguato).
I calcoli di cinebench sono palesemente adeguati ad una GPU, non credo che ci possano essere dubbi sulla maggiore efficienza rispetto ad una fpu.
Che poi le discrete possano mettere a disposizione più potenza è vero, ma qui il confronto era con le FPU.
Inoltre bisogna vedere se sarà possibile eseguire lo stesso tipo di calcoli su GPU esterna quando l'integrazione prevista nel progetto hsa sarà completa.
Unificare una piccola GPU integrata con una CPU castrata ( castrata appunto dallo spazio occupato dall'integrata ) sarà solo un progetto per fasce low end, se e quando arriverà l'era dove il calcolo eterogeneo sarà normalmente supportato continueremo a comprare CPU e GPU dedicate.
Il progetto forse non è finalizzato come dici tu ma ora come ora è un FLOP da una parte e troppo in anticipo dal punto di vista dell'approccio.
TwinDeagle
04-02-2014, 17:20
Se ci sono da tempo, allora non mostrano assolutamente quello che è possibile già fare con le tecnologie attuali, ne ancora meno con quelle future quando il progetto sarà finalizzato.
Oltretutto bisogna vedere quale livello di ottimizzazione ha raggiunto la versione GPU di cinebench (non basta che giri su GPU, deve farlo in modo adeguato).
I calcoli di cinebench sono palesemente adeguati ad una GPU, non credo che ci possano essere dubbi sulla maggiore efficienza rispetto ad una fpu.
Che poi le discrete possano mettere a disposizione più potenza è vero, ma qui il confronto era con le FPU.
Inoltre bisogna vedere se sarà possibile eseguire lo stesso tipo di calcoli su GPU esterna quando l'integrazione prevista nel progetto hsa sarà completa.
Una FPU sarà sempre più potente di qualsiasi gpu, a parità di dimensione e frequenza, e di parecchie volte. Il problema è che le capacità di calcolo in virgola delle cpu è aumentata molto più lentamente rispetto alla potenza offerta dalle gpu. Ci sono campi in cui si preferisce persino configurare delle FPGA come FPU, perché a parità di dimensione, è incredibilmente più efficiente e prestante rispetto ad una gpu, nonostante gli alti costi delle fpga.
e chi lo dice ? i motori di rendering GPGPU funzionano benissimo e sono molto efficienti; i bench con HSA su Luxrender gia ci sono e non sono nulla di che.
Deciditi... sono molto efficienti o non sono nulla di che?
quello è ovvio, ma il punto è che una entry lvl rimane comuqnue una entry lvl.
Ti ricordo ancora che il paragone è tra la FPU e la GPU integrata.
Quanto silicio è occupato dalle fpu di haswell e quanto dalla GPU di una APU kaveri? Guardandola in questo modo quella GPU sembra davvero così entry level?
Stiamo parlando di usare diversamente le risorse contenute nel chip, usare una GPU al posto di una FPU, e qui abbiamo una GPU molto più grossa delle FPU, e quindi potenzialmente capace di tirare fuori molta più forza bruta.
Oggi Cinebench mostra che un i5 haswell è molto più potente di una APU kaveri. Domani se il calcolo passasse sulla GPU lo stesso Cinebench potrebbe mostrare risultati molto differenti.
prima di tutto bisogna vedere chi si mettera a rifare tutto con HSA, anche perchè puoi fondere la VGA quanto ti pare ma rimane sempre una ENTRY LVL INUTILE in campo professionale dove serve capacita di calcolo;
Non sono d'accordo con entrambe le affermazioni:
1) Se HSA mantiene le promesse, scrivere software per la GPU dovrebbe diventare molto più accessibile di quanto lo sia stato finora, consentendo la riscrittura del software senza particolari traumi. Se ci sarà un vantaggio prestazionale evidente, verrà fatto.
2) Una APU è una singola unità di calcolo con una certo bilanciamento delle risorse di calcolo. In ambito professionale se ne affiancheranno un numero adeguato per raggiungere la potenza di calcolo desiderata.
Oggi compri tot CPU e tot GPU, domani comprerai tot APU.
Una FPU sarà sempre più potente di qualsiasi gpu, a parità di dimensione e frequenza, e di parecchie volte.
Io direi l'esatto contrario, ossia che in quei compiti dove la GPU eccelle, per esempio il rendering grafico come nel caso di cinebench, è la GPU a fare la parte del leone.
PaulGuru
04-02-2014, 20:22
Se al posto di occupare tutto quello spazio per colpa della GPU la usassero per la sola CPU avremmo una CPU col doppio dei cores e più frequenza.
Perchè sfruttare la GPU integrata quando il grosso sta nella discreta ? E' un AIO economico.
AceGranger
04-02-2014, 20:33
Deciditi... sono molto efficienti o non sono nulla di che?
il GPGPU attuale in quel campo è gia efficiente, avere o meno HSA non cambiera le cose anzi, Kaveri, date le capacita di calcolo ridotte, sara soltanto limitante.
Ti ricordo ancora che il paragone è tra la FPU e la GPU integrata.
Quanto silicio è occupato dalle fpu di haswell e quanto dalla GPU di una APU kaveri? Guardandola in questo modo quella GPU sembra davvero così entry level?
Stiamo parlando di usare diversamente le risorse contenute nel chip, usare una GPU al posto di una FPU, e qui abbiamo una GPU molto più grossa delle FPU, e quindi potenzialmente capace di tirare fuori molta più forza bruta.
si ma il paragone lo si fa con il mercato e con la concorrenza; se mettendo una discreta con memoria unificata ottengo risultati migliori, a me frega poco se c'è una GPU al posto della FPU o se ho una CPU normale e una discreta... il paragone è fra la soluzione AMD e tutte le altre possibili.
quindi per me non è per nulla detto che il sistema Kaveri sia il futuro... sara il futuro di AMD ma non è per nulla detto che lo sia in generale.
Oggi Cinebench mostra che un i5 haswell è molto più potente di una APU kaveri. Domani se il calcolo passasse sulla GPU lo stesso Cinebench potrebbe mostrare risultati molto differenti.
certo, come mostrerebbe risultati ancora migliori con le GPU discrete, motivo per il quale renderebbe Kaveri fine a se stesso; ( sempre in questo specifico campo )
Non sono d'accordo con entrambe le affermazioni:
1) Se HSA mantiene le promesse, scrivere software per la GPU dovrebbe diventare molto più accessibile di quanto lo sia stato finora, consentendo la riscrittura del software senza particolari traumi. Se ci sarà un vantaggio prestazionale evidente, verrà fatto.
il problema non è mai stata la scrittura del codice, ma l'effettivo guadagno dal passaggio da CPU a GPU; se oggi un software non è GPGPU è solo perchè non era vantaggioso convertirlo non perchè era difficile farlo.
HSA dovrebbe permettere di aumentare il numero di software a trarre beneficio dal GPGPU guadagnando dalla lettura via memoria unificata.
Tutti quei software che oggi sono GPGPU intesivi, come i motori di rendering, gia la sfruttano appieno la GPU e HSA fara poco o nulla.
La riuscita o meno di Kaveri e di HSA la si vedra dai software che usciranno e se uscira vincente dalle soluzioni della concorrenza.
2) Una APU è una singola unità di calcolo con una certo bilanciamento delle risorse di calcolo. In ambito professionale se ne affiancheranno un numero adeguato per raggiungere la potenza di calcolo desiderata.
Oggi compri tot CPU e tot GPU, domani comprerai tot APU.
1 APU corrisponde a 1 sistema operativo e quindi a 1 licenza, con i sistemi della concorrenza, tu con 1 sistema operativo e 1 licenza arrivi a 2-4 CPU e 8 GPU.
Difatti la declinazione di kaveri finira nei sistemi Opteron low-entry mono-socket che NON sono rivolti al calcolo intensivo, e nemmeno a quello medio, ma a piccoli sistemi dal carico ridotto.
non dico certo che è un fail, anzi, i bench preliminari mostrano hce puo portare molti benefici, pero sono realista e non è certo la panacea a 360° che alcuni stanno dipingendo; anceh perchè, ripeto, prima di dire che è buono o meno vorrei vedere le mosse della concorrenza, se poi la memoria unificata di nVidia o le nuove CPU di Intel, o gli Xeon PHI non saranno all'altezza pazienza, sara il momento di AMD e tutti si adegueranno, ma nella situazione attuale non darei tutto cosi per scontato solo perchè la GPU ogni tanto da risultati migliori della FPU della CPU...
PaulGuru
04-02-2014, 20:41
La memoria unificata implementata via HW arriverà con Maxwell, ed è questa la strada da percorrere.
TwinDeagle
04-02-2014, 21:32
Io direi l'esatto contrario, ossia che in quei compiti dove la GPU eccelle, per esempio il rendering grafico come nel caso di cinebench, è la GPU a fare la parte del leone.
pensavo si parlasse di cpu e quindi di calcolo, non avevo capito che si parlava di rendering grafico..in questo caso ok, in nessun modo una fpu può raggiungere le prestazioni di una gpu.
AceGranger
04-02-2014, 22:13
La memoria unificata implementata via HW arriverà con Maxwell, ed è questa la strada da percorrere.
come per Kaveri non credo che la memoria unificata di Maxwell sara la panacea a 360°; la soluzione di AMD credo che si rivelera piu prestante e piu utile in alcune situazioni, come nVidia lo sara in altrettante.
attualmente, non vedo in nessuna delle 2 soluzioni una migliore dell'altra.
PaulGuru
04-02-2014, 22:59
come per Kaveri non credo che la memoria unificata di Maxwell sara la panacea a 360°; la soluzione di AMD credo che si rivelera piu prestante e piu utile in alcune situazioni, come nVidia lo sara in altrettante.
attualmente, non vedo in nessuna delle 2 soluzioni una migliore dell'altra.
Infatti per ora soprattutto su desktop non ne beneficieremo di una mazza ancora per molti anni, ma visto che stiamo fantasticando sul futuro, una si muove verso l'interazione fra CPU e discrete e l'altra con l'integrata.
il GPGPU attuale in quel campo è gia efficiente, avere o meno HSA non cambiera le cose anzi, Kaveri, date le capacita di calcolo ridotte, sara soltanto limitante.
Non avevo colto quel che intendevi dire.
Comunque beh, limitante no, perchè nulla ti vieta di affiancare ad un'APU una GPU discreta. Se hai bisogno di maggiore potenza di calcolo GPU, risolvi in quel modo.
Ma cerchiamo di vedere un'APU come un sistema bilanciato. Un sistema cioè che da solo offre buone prestazioni in tutti i casi.
Se ho bisogno di più potenza, sempre bilanciata, prendo una APU più potente, o perchè no prendo più APU (Si potrebbe optare per i sistemi multiprocessore sui desktop, come ai tempi degli A64).
Se poi dovessero esserci compiti che la APU è in grado di svolgere efficacemente mentre un sistema CPU + GPU no (per motivi di integrazione, accesso alle risorse, latenza, ecc...) ce lo dirà il futuro.
si ma il paragone lo si fa con il mercato e con la concorrenza; [...]
Il fatto è che ora la concorrenza ha processori molto più potenti anche grazie alla FPU molto efficiente.
Se però trasferiamo su GPU ciò che normalmente si fa con la FPU (sempre che sia possibile e conveniente, naturalmente, parlo in via ipotetica), la potenza in più della concorrenza perde di importanza.
Nel migliore dei casi mi trovo ad essere molto più veloce della concorrenza in quelle operazioni.
Nella peggiore delle ipotesi mi trovo alla pari anziché in svantaggio, perchè uso una risorsa esterna (una GPU) che prescinde dal processore che monto sulla macchina.
Insomma, dal trasferimento dei calcoli generici su GPU al momento AMD ha solo da guadagnare.
il problema non è mai stata la scrittura del codice, ma l'effettivo guadagno dal passaggio da CPU a GPU; se oggi un software non è GPGPU è solo perchè non era vantaggioso convertirlo non perchè era difficile farlo.
La scrittura di codice è sempre stato un problema più che rilevante, non solo per la difficoltà di scrittura, ma anche di debugging e di manutenzione, perchè finora molte cose sono precluse.
Rendi la programmazione su GPU "facile" quanto quella su CPU e vedrai che in quei casi dove la convenienza è evidente non esisteranno più programmi che non girino su GPU.
Oggi invece quelli che girano su GPU sono pochi, spesso limitati, anche nei casi in cui il vantaggio delle GPU è palese.
HSA dovrebbe permettere di aumentare il numero di software a trarre beneficio dal GPGPU guadagnando dalla lettura via memoria unificata.
Tutti quei software che oggi sono GPGPU intesivi, come i motori di rendering, gia la sfruttano appieno la GPU e HSA fara poco o nulla.
Il vantaggio di HSA nelle APU credo si concretizzi in due aspetti:
- Sfruttare al meglio le risorse di calcolo delle GPU integrata, che come hai fatto ben notare sono limitate. HSA potrebbe permettere prestazioni superiori ad una GPU discreta di hardware paragonabile.
- Permettere di fare cose che alla GPU discreta sono precluse (magari perchè sconvenienti, magari perchè proprio impossibili), aspetto fondamentale per espandere la portata del GPGPU, cosa necessaria perchè le APU abbiano davvero un senso.
1 APU corrisponde a 1 sistema operativo e quindi a 1 licenza, con i sistemi della concorrenza, tu con 1 sistema operativo e 1 licenza arrivi a 2-4 CPU e 8 GPU.
Non necessariamente. Un sistema multisocket può essere gestito da un solo sistema.
Inoltre non sempre il numero di licenze è un problema, su macchine linux per esempio la licenza in se non costa (costa il supporto, ovviamente).
non dico certo che è un fail, anzi, i bench preliminari mostrano che può portare molti benefici, pero sono realista e non è certo la panacea a 360° che alcuni stanno dipingendo;
Ma no, non mi pare che qui si dipinga le APU come la panacea di tutti i mali. Si tratta solamente di cercare di capire quali siano i punto di forza del progetto e a cosa potrebbe portare. Che poi lo faccia e tutto questo si concretizzi è un altro paio di maniche.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.