Redazione di Hardware Upg
26-11-2010, 11:38
Link alla notizia: http://www.businessmagazine.it/news/intel-e-l-importanza-dell-hpc_34563.html
Nel corso della Supercomputing Conference 2010 Intel evidenzia alcuni elementi fondamentali circa il mondo dell'high performance computing e delle sue future evoluzioni
Click sul link per visualizzare la notizia.
Foglia Morta
26-11-2010, 12:02
ll prototipo di soluzione Knights Ferry mostrato da Intel si caratterizza per la presenza di 32 core x86 sviluppati a 22nm, e dotati di tecnologia HyperThreading.
Knights Ferry = 32nm e serve solo per come piattaforma di sviluppo, a 22nm fanno Knights Corner ma saranno oltre 50 core : http://www.intel.com/pressroom/archive/releases/20100531comp.htm
unnilennium
27-11-2010, 00:37
saranno anche difficili da programmare, ma le vga sono più avanti nello sviluppo rispetto ad intel... non c'è niente da fare. e anche come costi, non credo che un sistema cuda ready costi poco, ma sempre meno di un sistema con 22 core intel.. vedremo chi la spunta nel lungo periodo.. già le cpu-gpu di ati sono alle porte, e sicuramente avranno qualcosa da dire.
saranno anche difficili da programmare, ma le vga sono più avanti nello sviluppo rispetto ad intel... non c'è niente da fare. e anche come costi, non credo che un sistema cuda ready costi poco, ma sempre meno di un sistema con 22 core intel.. vedremo chi la spunta nel lungo periodo.. già le cpu-gpu di ati sono alle porte, e sicuramente avranno qualcosa da dire.
Più che "difficili da programmare" le GPU sono ottimizzate per una classe di applicazioni e solo quelle, se invece si usano delle cpu il modello di programmazione è più flessibile e con molto più software gia pronto (quello già sviluppato per sistemi NUMA e cluster di pc da prima ancora che si cominciasse a parlare di GPU).
Piuttosto, a decidere chi vince mi sa che saranno i tool di sviluppo.
Parte della scommessa di Intel è che ci sia sufficiente software già sviluppato per sistemi NUMA, cluster ecc. ecc. (magari pure basati su cpu e core x86) ben testato ed ottimizzato che sarà facile da portare verso i suoi chip per HPC.
Questo perchè è vero che esistono tool di parallelizzazione, ecc. ecc. ma non c'e' niente di meglio di software già sviluppato e che non deve essere riscritto, ritestato e riottimizzato.
Semmai anche in questo caso il vero pericolo viene da qualcuno che segua lo stesso approccio di Intel ma usando una cpu "di base" più semplice ed efficiente.
In particolare mi viene da pensare ai futuri core ARM a 64bit, se verranno progettati con lo stesso approccio di quelli a 32bit ne potrebbe venir fuori un mostriciattolo temibile anche per applicazioni HPC "many integrated core"
(a patto che sia obbligatorio il supporto FP in hardware).
Più che "difficili da programmare" le GPU sono ottimizzate per una classe di applicazioni e solo quelle, se invece si usano delle cpu il modello di programmazione è più flessibile e con molto più software gia pronto (quello già sviluppato per sistemi NUMA e cluster di pc da prima ancora che si cominciasse a parlare di GPU).
Si' pero' quelle CPU immagino saranno un Larrabee rivisto e aggiornato, dove il grosso della potenza di calcolo viene dalle sue unita' vettoriali. Anche in questo caso quindi funzioneranno bene per quelle applicazioni facilmente vettorizzabili, e male per applicazioni con un parallelismo piu' irregolare.
Vero e' che la compatibilita' con x86, lo shared memory (assumendo che sia la stessa architettura di Larrabee) e il fatto che Intel abbia compilatori autovettorizzanti sono un grosso punto di vantaggio di Intel rispetto ai competitor.
Semmai anche in questo caso il vero pericolo viene da qualcuno che segua lo stesso approccio di Intel ma usando una cpu "di base" più semplice ed efficiente.
In particolare mi viene da pensare ai futuri core ARM a 64bit, se verranno progettati con lo stesso approccio di quelli a 32bit ne potrebbe venir fuori un mostriciattolo temibile anche per applicazioni HPC "many integrated core"
(a patto che sia obbligatorio il supporto FP in hardware).
Come lo vedresti un approccio "fusion" di un multicore ARM64 con una GPU CUDA-enabled?
Gustoso? ;)
Come lo vedresti un approccio "fusion" di un multicore ARM64 con una GPU CUDA-enabled?
Gustoso? ;)
Dipende da cosa ci si vuole fare, ma sopratutto da come sarà l'ARM64.
Sino ad ora quelli di ARM Ldt. hanno avuto buone idee sul come far evolvere la loro architettura, tenendo le dita incrociate spero che continuino sulla stessa strada.
coschizza
29-11-2010, 10:32
saranno anche difficili da programmare, ma le vga sono più avanti nello sviluppo rispetto ad intel... non c'è niente da fare. e anche come costi, non credo che un sistema cuda ready costi poco, ma sempre meno di un sistema con 22 core intel.. vedremo chi la spunta nel lungo periodo.. già le cpu-gpu di ati sono alle porte, e sicuramente avranno qualcosa da dire.
in realta saranno piu facili da programmare per vari motivi che vanno dalla compatibilità con il set di istruzioni x86 alla comptibilità con i programmi di svilippo standard e soprattutto l'hardware non ha i limiti e i problemi di sviluppo che ci sono ancora oggi quando si utilizza il GPGPU.
Questi core sono core completi è possono fare molte piu cose che con le gpu non si possono nemmneo pernsare questo li rende molto piu versatili rispetto ai concorrenti.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.