View Full Version : AMD delinea ulteriormente il futuro delle proprie GPU
Redazione di Hardware Upg
17-06-2011, 11:27
Link alla notizia: http://www.hwupgrade.it/news/skvideo/amd-delinea-ulteriormente-il-futuro-delle-proprie-gpu_37270.html
Emergono nuovi dettagli sulla futura generazione di architetture di GPU previste da AMD; debutto possibile già per la fine del 2011?
Click sul link per visualizzare la notizia.
Praticamente ce stanno a di che a fine anno ne escono di nuove?
Sembra davvero interessante!
Go Amd Gooooo!!!
manuele.f
17-06-2011, 11:38
stanno rivoltando come un calzino tutto ciò che davamo per scontato 24mesi fa...e soprattutto dopo diversi anni, se lo sviluppo software procederà di pari passo, riassisteremo ad aumento di potenza computazionale vertiginoso! :D
e ciò che mi entusiasma di più è il fatto che queste architetture sono fortemente parallele...in poche parole, non stiamo parlando di un x86 dual - quad - six - octa core :cool:
Un "avvicinamento" ad nVidia? Come cambierà il rapporto prestazioni/consumi?
Più che un avvicinamento sembra abbiano fuso i pro di Cayman con quelli di Fermi facendo una cosetta moooolto più efficiente (almeno così dicono su beyond3d) sia per la grafica che per il computing.
Purtroppo ancora non hanno parlato di prestazioni... ma da quando ho capito sempre su B3D sembra che per clock si possano elaborare anche 128bytes contro i 64 di fermi... poi sono discorsi troppo tecnici che solo yossarian potrebbe delucidare :D
Italia 1
17-06-2011, 11:59
AMD continua la sua strada di vera innovatrice
Spero proprio che sia un bel passo avanti rispetto a Fermi per quanto riguardo i consumi, e penso che anche nVidia abbia imparato molto da quegli "errori"...
Major Clock
17-06-2011, 12:06
la domanda sorge spontanea: conviene aggiornare ora le proprie 5xxx ad una 6950 o meglio aspettare un annetto? in fondo le 5xxx possono reggere abbastanza tranquillamente altri 10-12 mesi imho e il cambio architetturale in corso sembra davvero promettente.
rvrmarco
17-06-2011, 12:12
Praticamente ce stanno a di che a fine anno ne escono di nuove?
no ci stanno dicendo che da questo autunno l'architettura delle schede cambierà come non aveva fatto da 5 anni a questa parte e che in teoria le schede hanno un potenziale enorme
Sarà un cambio "totale" oppure introdurranno generazione dopo generazione tutte le "idee"?
no ci stanno dicendo che da questo autunno l'architettura delle schede cambierà come non aveva fatto da 5 anni a questa parte e che in teoria le schede hanno un potenziale enorme
bene allora aspetto fine anno per pensionare la mia 5830.
Evanghelion001
17-06-2011, 12:40
Ora mancano i tool di sviluppo. Senza i soldi investiti, restano poco sfruttate queste potenze.
nVidia docet, qui!
Tedturb0
17-06-2011, 13:13
"Cambia anche il tipo di supporto alla memoria; nelle nuove GPU verrà implementato l'indirizzamento alla memoria x86-64, di fatto unificando lo spazio di memoria indirizzabile tra CPU e GPU."
FINALMENTEEEE!!!!! Lo invocavo da tempi immemori!
Go amd!
appleroof
17-06-2011, 13:38
Praticamente ce stanno a di che a fine anno ne escono di nuove?
Il debutto delle prime soluzioni basate su questa nuova architettura avverrà nel corso del quarto trimestre 2011, con soluzioni di tipo discreto posizionate teoricamente nel segmento top di gamma del mercato
tu che dici? :stordita:
aggiungo invece una domanda: ma saranno 28nm?
bene allora aspetto fine anno per pensionare la mia 5830.
Secondo me a fine anno se si vedono le prime vga che sfruttano tale architettura saranno sicuramente quelle professionali (Firepro) , mentre per quelle destinate al game usciranno nel 2012
AMD/ATI ha un comparto ricerca e sviluppo che fa paura :D
Questo cambio architetturale ha Fusion stampato in ogni dove... e Fusion si sta dimostrando all'altezza delle aspettative, forse anche al di sopra.
Ora mancano i tool di sviluppo. Senza i soldi investiti, restano poco sfruttate queste potenze.
nVidia docet, qui!
http://www.hwfiles.it/news/c++-amp-il-gpu-computing-secondo-microsoft_37252.html
I tool di sviluppo del futuro saranno gli IDE del passato: C++ AMP e OpenCL integrati in Visual Studio & co. ;)
L'interesse di Microsoft dev'essere notevole se ha presentato C++ AMP all'AMD Fusion Developer Summit :D
BIGGlive360
17-06-2011, 14:09
certo che Microsoft è interessata alle GPU AMD,le mette nella sua xbox!
bluefrog
17-06-2011, 14:19
Meraviglia, non vediamo l'ora di vederle all'opera!
Pier2204
17-06-2011, 14:50
certo che Microsoft è interessata alle GPU AMD,le mette nella sua xbox!
Non solo per quello, credo che sia molto interessata all'ottimizzazione dell'architettura Fusion nei notebook...
Conan_81
17-06-2011, 22:35
E tu credi che metta schede video uscite da poco su una console da 300€? (±)
Non l'ha fatto per due volte (come non lo ha fatto nemmeno la WiiU), figuriamoci se lo farà ora.. :/
Finché non sono pronti i 28nm poco importa 'sto marketing. Anche Cayman l'avevano spacciato per rivoluzionario, è bastato un refresh di Fermi ad Nvidia per tenergli testa.
A meno che AMD non sia impazzita e preveda di rilasciare ancora qualcosa a 40nm, se ne riparlerà nel 2012, come per Kepler.
Finché non sono pronti i 28nm poco importa 'sto marketing.
Marketing? Il tapeout dei nuovi chip a 28nm è roba di maggio!!!
AMD ha fatto il tapeout di ben due differenti chip presso TSMC il mese scorso!
TSMC ha infatti annunciato di aver prodotto ben 89 nuovi chip a 28nm (http://embeddedblog.blogspot.com/2011/05/tsmc-to-tape-out-89-28nm-designs.html).
E siccome i 28nm sono un half-node dei 32nm, AMD che progettava sto chip da quando si pensasse che TSMC facesse anche i 32nm (cayman pure doveva uscire a 32nm), non ci ha messo "niente" a correggerli per darli in mano a TSMC e partire con i tapeout appena i 28nm non fossero pronti.
Anche Cayman l'avevano spacciato per rivoluzionario, è bastato un refresh di Fermi ad Nvidia per tenergli testa.
:confused: ma dove? In che realtà?
Cayman è il top raggiunto nel campo delle performance/watt.
Anche la nuova iterazione di Fermi è ad anni luce dai FLOPS/Watt della gpu con architettura Cayman, ed è il pro più evidente del VLIW4 che hanno usato. :mbe:
Infatti la questione di mollare la VLIW4 che ha raggiunto i risultati che sappiamo ha suscitato dei dubbi: ma dalla sua parte si sa che la nuova architettura sarà pesantemente più efficiente forse a costo di chip probabilmente più grossi (ma sempre parchi di Watt visti i 28nm).
[A meno che AMD non sia impazzita e preveda di rilasciare ancora qualcosa a 40nm, se ne riparlerà nel 2012, come per Kepler.
Ma la notizia l'hai letta o sei quello che penso?
"Il debutto delle prime soluzioni basate su questa nuova architettura avverrà nel corso del quarto trimestre 2011, con soluzioni di tipo discreto posizionate teoricamente nel segmento top di gamma del mercato"
Kepler di nvidia non centra nulla con ste cose qua, a meno che Intel non si decida di comprarla prima che si schianti di testa sulle licenze x86. Kepler è "solo una GPU" evoluzione di Fermi per far raggiungere un rapporto FLOPS/Watt simile alle ultime creazioni AMD.
Questa architettura di AMD ha lo scopo di fare da "ponte" tra le APU appena uscite e lo step finale del progetto Fusion che permetterà l'Heterogeous Computing, argomento così innovativo che pure MS ha preso a cuore grazie ai passi da gigante di AMD in questo campo.
Anche se assomiglia molto a Fermi e alle sue evoluzione ha alcune chicche architetturali che la mettono su un piano ben diverso.
http://www.tgdaily.com/files/images/stories/article_images/amd/fusion_roadmap.jpg
Vedi la parte di GPU della Fase 2? Ecco è lo stato in dovrebbe essere AMD con queste nuove architetture.
AMD continua la sua strada di vera innovatrice
Cioe' fare nel 2013 quello che nvidia ha fatto nel 2010? Vera innovatrice :D
"Moving on, it’s interesting that GCN effectively affirms most of NVIDIA’s architectural changes with Fermi. GCN is all about creating a GPU good for graphics and good for computing purposes; Unified addressing, C++ capabilities, ECC, etc were all features NVIDIA introduced with Fermi more than a year ago to bring about their own compute architecture."
http://www.anandtech.com/show/4455/amds-graphics-core-next-preview-amd-architects-for-compute/7
Scherzi a parte, mi sembra grossomodo la strada che Intel voleva (vuole?) prendere con Larrabee: un unico chip con unita' scalari e vettoriali (SIMD 16, le stesse) capace di eseguire codice "normale" sull'unita' scalare e codice parallelo sulle unita' SIMD. Mi sa che vedremo i chip AMD crescere parecchio di dimensioni, ora che lo scheduler e tutta la logica relativa sono in hardware e non piu' delegati al compilatore. La cosa e' molto interessante.
Uno dei problemi e' che se costruisci un chippone cosi' (CPU e GPU completamente fuse) e poi hai codice scalare da eseguire, potresti non riuscire a spegnere bene le unita' vettoriali e sprechi molta energia in quei casi.
manuele.f
19-06-2011, 01:03
bhè l'implementazione di nvidia ha avuto utilità pari a zero nel 99% dei casi :muro:
amd ora come ora sta cercando di portare delle innovazioni che possano essere sfruttate a differenze del passato, dove era un esercizio di stile
bhè l'implementazione di nvidia ha avuto utilità pari a zero nel 99% dei casi :muro:
Prova a chiederlo ai cinesi, che ci hanno costruito il supercomputer piu' potente del mondo.
O al mercato professionale, dove le Quadro dominano.
O al mercato oil&gas, dove parecchie grosse aziende stanno costruendo grossi centri di calcolo con sistemi Tesla.
Cioe' fare nel 2013 quello che nvidia ha fatto nel 2010? Vera innovatrice :D
"Moving on, it’s interesting that GCN effectively affirms most of NVIDIA’s architectural changes with Fermi. GCN is all about creating a GPU good for graphics and good for computing purposes; Unified addressing, C++ capabilities, ECC, etc were all features NVIDIA introduced with Fermi more than a year ago to bring about their own compute architecture."
http://www.anandtech.com/show/4455/amds-graphics-core-next-preview-amd-architects-for-compute/7
Scherzi a parte, mi sembra grossomodo la strada che Intel voleva (vuole?) prendere con Larrabee: un unico chip con unita' scalari e vettoriali (SIMD 16, le stesse) capace di eseguire codice "normale" sull'unita' scalare e codice parallelo sulle unita' SIMD. Mi sa che vedremo i chip AMD crescere parecchio di dimensioni, ora che lo scheduler e tutta la logica relativa sono in hardware e non piu' delegati al compilatore. La cosa e' molto interessante.
Uno dei problemi e' che se costruisci un chippone cosi' (CPU e GPU completamente fuse) e poi hai codice scalare da eseguire, potresti non riuscire a spegnere bene le unita' vettoriali e sprechi molta energia in quei casi.
Bla bla bla.
Un conto è creare una cosa fatta male e poco performante in tutti i casi.
E' normale che la tecnologia porti sempre a soluzioni "uguali" se la strada è quella buona o se gli scopi sono gli stessi.
Solo che qua mentre l'obiettivo di Nvidia è come sempre dire "ce l'ho più grosso" (e finto, vedi Fermi), qua si parla (come ti ho detto su ichv3d) di una GPU che sarà fusa entro il 2013 con una cpu, e non in fatto di die unico, ma proprio una architettura che mastichi entrambe le tipologie di dati.
Nvidia tra l'altro semplicemente NON PUO' per gli x86-64 e per le licenze sull'uso di sse/avx et simili. :rolleyes:
O viene comprata da Intel oppure in questa "sfida" Nvidia non centra proprio un bel nulla!
:read:
Prova a chiederlo ai cinesi, che ci hanno costruito il supercomputer piu' potente del mondo.
O al mercato professionale, dove le Quadro dominano.
O al mercato oil&gas, dove parecchie grosse aziende stanno costruendo grossi centri di calcolo con sistemi Tesla.
Il progetto Tianhe e i suoi "finanziatori" hanno fondi illimitati tanto che di anno in anno utilizzato quanto di meglio trovano sul mercato.
L'anno scorso sono passati dalle GPU amd a quelle nvidia (7.168 GPU Nvidia Tesla M2050) proprio perchè in quel momento andavano a competere con le architetture "rv7xx" di amd. Se ora adocchiassero l'architettura di Cayman.... :rolleyes
manuele.f
19-06-2011, 13:51
Prova a chiederlo ai cinesi, che ci hanno costruito il supercomputer piu' potente del mondo.
O al mercato professionale, dove le Quadro dominano.
O al mercato oil&gas, dove parecchie grosse aziende stanno costruendo grossi centri di calcolo con sistemi Tesla.
esattamente...il 99% dei sistemi venduti non sfrutta queste tecnologie!
Solo che qua mentre l'obiettivo di Nvidia è come sempre dire "ce l'ho più grosso" (e finto, vedi Fermi), qua si parla (come ti ho detto su ichv3d) :read:
Quindi quando general compute, ECC, supporto C++, merkenl ricorsivi, indirizzamento unificato, ecc. lo introduce nvidia e' "finto" mentre quando lo introduce AMD e' la "strada del futuro"? Interessante :)
Nvidia tra l'altro semplicemente NON PUO' per gli x86-64 e per le licenze sull'uso di sse/avx et simili.
Dal momento che ha deciso di andare con ARM, non vedo cosa le possa interessare, NVidia mettera' le sue GPU insieme ai core del progetto Denver.
esattamente...il 99% dei sistemi venduti non sfrutta queste tecnologie!
Vero, ma chiamarlo "esercizio di stile" mi sembra eccessivo :) visto che appunto parecchi, in ambito di ricerca/industriale, costruiscono supercomputer con questa roba.
L'anno scorso sono passati dalle GPU amd a quelle nvidia (7.168 GPU Nvidia Tesla M2050) proprio perchè in quel momento andavano a competere con le architetture "rv7xx" di amd. Se ora adocchiassero l'architettura di Cayman.... :rolleyes
L'hanno adocchiata talmente bene che il prossimo supercomputer del DOE, 20 petaflop nel 2012 (non mi ricordo se installato al Livermore o a Oak Ridge) verra' costruito con schede Tesla e GPU della famiglia Kepler :)
Il numero di ALU on-board e' solo meta' del gioco -- l'altra meta' e' quanto riesci a usarle e il supporto software. Per questo AMD abbandona VLIW per andare verso questa nuova architettura, sacrifichi il primo per guadagnare negli altri due.
giovannifg
19-06-2011, 22:01
C'è mica qualche buon'anima che voglia perdere due minuti a spiegarmi più precisamente in che cosa consista questa rivoluzione architetturale?
Premetto di essere completamente ignorante in materia. L'unica innovazione che sono riuscito a capire bene è la possibilità per queste nuove GPU di indirizzare la memoria x86 (e x64). Ma in cosa si differenzieranno le nuove architetture rispetto alle attuali? Praticamente, queste Compute Unit vanno a prendere il posto di quelli che adesso sono gli Shader unificati?
Mi scuso per l'evidente ignoranza in materia: se qualcuno potesse illuminarmi... :help:
C'è mica qualche buon'anima che voglia perdere due minuti a spiegarmi più precisamente in che cosa consista questa rivoluzione architetturale?
Qui c'e' un buon articolo:
http://www.anandtech.com/show/4455/amds-graphics-core-next-preview-amd-architects-for-compute
In soldoni, AMD sta abbandonando la vecchia architettura basata su VLIW per una nuova architettura basata su unita' SIMD. La vecchia era estremamente efficiente per la grafica ma non per il resto, nel senso che alcuni task venivano molto bene (es: hashing) e altri male. Dato che AMD vuole spingere le sue GPU anche per il calcolo generico (come ha fatto NVidia quando e' passata a Fermi) ha bisogno di un'architettura che possa essere sempre sfruttata bene da tutti i tipi di carichi di lavoro e non solo da alcuni. La nuova architettura puo', da qui il cambio.
Inoltre, a differenza di NVidia, AMD sembra voler fondere insieme CPU e GPU, mettendo insieme unita' scalari e vettoriali all'interno dei CU (qui pero' i dettagli sono molto vaghi, vedremo cosa vogliono fare esattamente). NVidia no, per almeno un paio di motivi: il primo e' che ancora non ha una sua CPU :) e il secondo e' che, credo, non sia convinta sia la strada giusta da percorrere e preferisce tenere CPU e GPU ben separate, ottimizzate per diversi carichi di lavoro, e al piu' metterle sullo stesso die per farle comunicare in modo rapido ed efficiente (qui pero' sto speculando un po', non e' del tutto chiaro cosa intenda fare NVidia nei prossimi 2-3 anni).
Foglia Morta
20-06-2011, 07:26
Qui c'e' un buon articolo:
http://www.anandtech.com/show/4455/amds-graphics-core-next-preview-amd-architects-for-compute
In soldoni, AMD sta abbandonando la vecchia architettura basata su VLIW per una nuova architettura basata su unita' SIMD. La vecchia era estremamente efficiente per la grafica ma non per il resto, nel senso che alcuni task venivano molto bene (es: hashing) e altri male. Dato che AMD vuole spingere le sue GPU anche per il calcolo generico (come ha fatto NVidia quando e' passata a Fermi) ha bisogno di un'architettura che possa essere sempre sfruttata bene da tutti i tipi di carichi di lavoro e non solo da alcuni. La nuova architettura puo', da qui il cambio.
Inoltre, a differenza di NVidia, AMD sembra voler fondere insieme CPU e GPU, mettendo insieme unita' scalari e vettoriali all'interno dei CU (qui pero' i dettagli sono molto vaghi, vedremo cosa vogliono fare esattamente). NVidia no, per almeno un paio di motivi: il primo e' che ancora non ha una sua CPU :) e il secondo e' che, credo, non sia convinta sia la strada giusta da percorrere e preferisce tenere CPU e GPU ben separate, ottimizzate per diversi carichi di lavoro, e al piu' metterle sullo stesso die per farle comunicare in modo rapido ed efficiente (qui pero' sto speculando un po', non e' del tutto chiaro cosa intenda fare NVidia nei prossimi 2-3 anni).
Ciao , ma cosa bisogna leggerci nel fatto che il GTC sarà a Maggio 2012 ( l' evento principale ) ?
A) Kepler non porta novità in ambito gpu computing tali da giustificare un GTC
B) Kepler arriverà in ritardo
L' altra volta ( Settembre 2009 ) il GTC è stato fatto per far conoscere l' architettura agli sviluppatori con un buon anticipo e quindi mettersi avanti.
Ciao , ma cosa bisogna leggerci nel fatto che il GTC sarà a Maggio 2012 ( l' evento principale ) ?
A) Kepler non porta novità in ambito gpu computing tali da giustificare un GTC
B) Kepler arriverà in ritardo
L' altra volta ( Settembre 2009 ) il GTC è stato fatto per far conoscere l' architettura agli sviluppatori con un buon anticipo e quindi mettersi avanti.
Non credo sia uan questione strettamente legata a Kepler, perche' il GTC e' stato spostato a maggio *d'ora in avanti*, non solo per quest'anno. Credo che sia piu' una questione organizzativa: in autunno c'e' gia' la Supercomputing Conference
http://sc11.supercomputing.org/
ed nVidia usera' quella per promuovere le sue tecnologie in ambito HPC, quindi immagino che abbiano voluto spostare il GTC a maggio per scaglionarli meglio e non sovrapporre le due cose. In piu' sono stati aggiunti "piccoli GTC regionali" in Asia e Israele:
http://insidehpc.com/2011/04/29/nvidia-to-launch-regional-gpu-technology-conferences-moves-u-s-event-to-spring-2012/
quindi credo sia proprio una questione organizzativa.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.