Il nuovo Firestream 9250 di AMD supera la barriera del teraflop

In occasione dell'International Supercomputing Conference di Dresda, AMD ha presentato al pubblico il nuovo stream processor Firestream 9250
di Fabio Gozzo pubblicata il 16 Giugno 2008, alle 16:57 nel canale PerifericheAMD
27 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info-perche usare connessione pci?(a parte i costi) usa cosi poca banda?
-150W di consumo!?!? non sono un po tanti? anche se efficiente per gigaflop è comunque utilizzabile solo per aplicazioni specifiche.
cmq interessante come idea se migliorassero su questi due punti.
Cerca NVIDIA Gelato, NVIDIA Sorbetto e NVIDIA Amaretto...
Dove l'hai letto che AMD abilita i calcoli in precisione doppia solo per le firestream
Comunque anche AMD si sta muovendo. Oltre a tutto quello che già c'è (brook - AMD s'è comprata mezzo folding@home, rapidmind, CAL e parenti) in questa stessa news è annunciato il supporto all'OpenCL (!!), annunciato dalla Apple per il nuovo MacOS.
Inoltre ho letto che OpenCL è uno standard del Khronos Group (la stessa organizzazione di OpenGL e parenti). Devo verificare la cosa, ma sarebbe una gran cosa avere un linguaggio standard per il GPGPU.
Come openGL
-perche usare connessione pci?(a parte i costi) usa cosi poca banda?
-150W di consumo!?!? non sono un po tanti? anche se efficiente per gigaflop è comunque utilizzabile solo per aplicazioni specifiche.
cmq interessante come idea se migliorassero su questi due punti.
E che ci deve fare con la banda?
Carichi i tuoi dati e il programma sulla memoria onboard e metti la scheda al lavoro.
Per caricare i 1024 Megabyte della scheda con il bus PCI (che fa 133 Mb/s) impiegheresti al massimo 8 secondi scarsi.
Per paragone, se fosse pci-ex 16x ci metterebbe circa 1/4 di secondo.
ciao bjt2, ci si vede anche qui
vero, ma gelato è stato appena segato (tutta la linea) e non si sa ancora niente (purtroppo) di una ipotetica versione di mental ray per cuda (anzi le voci che circolano è che non sia proprio possibile a breve)
Come openGL
Mai fidarsi del nome, che l'abito non fa il monaco.
Su wikipedia dicono che l'OpenCL è stato definito da Apple, ma messo sotto il controllo del Khronos Group (il consorzio che cura anche l'OpenGL, di cui fanno parte anche AMD e nVidia).
Dalle prime info direi che questa volta Apple si merita un ringraziamento
quindi ci vorra' un porta alimentazione aggiuntiva------
Comunque anche AMD si sta muovendo. Oltre a tutto quello che già c'è (brook - AMD s'è comprata mezzo folding@home, rapidmind, CAL e parenti) in questa stessa news è annunciato il supporto all'OpenCL (!!), annunciato dalla Apple per il nuovo MacOS.
Inoltre ho letto che OpenCL è uno standard del Khronos Group (la stessa organizzazione di OpenGL e parenti). Devo verificare la cosa, ma sarebbe una gran cosa avere un linguaggio standard per il GPGPU.
Beh, se non è così tanto meglio...
vero, ma gelato è stato appena segato (tutta la linea) e non si sa ancora niente (purtroppo) di una ipotetica versione di mental ray per cuda (anzi le voci che circolano è che non sia proprio possibile a breve)
Io ho scaricato la versione 2.0 di CUDA. Ho Vista ultimate 64 bit e 8 core. Con Matlab 7.6 si ha già la parallelizzazione automatica dei calcoli matriciali (sono riuscito a sfruttare tutti i core con un solo processo... E senza modificare nulla del codice vecchio... Una goduria!). Il CUDA 2.0 che ho scaricato ha una Linpack (o lapack???) per Matlab per far calcolare la FFT (solo la 2D) e alcune funzioni di algebra lineare, dalla scheda video. Attualmente sembra solo per il floating point single precision... Non so perchè... Comunque ancora non ho provato, ma spero di farlo appena mi libero un po'...
Io ho scaricato la versione 2.0 di CUDA. Ho Vista ultimate 64 bit e 8 core. Con Matlab 7.6 si ha già la parallelizzazione automatica dei calcoli matriciali (sono riuscito a sfruttare tutti i core con un solo processo... E senza modificare nulla del codice vecchio... Una goduria!). Il CUDA 2.0 che ho scaricato ha una Linpack (o lapack???) per Matlab per far calcolare la FFT (solo la 2D) e alcune funzioni di algebra lineare, dalla scheda video. Attualmente sembra solo per il floating point single precision... Non so perchè... Comunque ancora non ho provato, ma spero di farlo appena mi libero un po'...
ti riporto quello che ho letto a riguardo di CUDA e mental ray
So, to make things work on cuda you need to have a lot of *coherent* computations to perform: the problem of mental ray is that it is casting one ray then calling a native C shader to shade the intersection then maybe the shader casts another batch of rays and so on. Very non coherent.
This is just not suited for gpu computation unless if a massive rewrite/refactoring of the pipeline is done by mental images, which will not happen soon enough (I am speaking about years).
Some specific task like fast AO could be definitely done though (and also this won't happen soon).
Also another problem of mental ray is that the codebase is 15 years old (and it's not a Whiskey), native C for the CPU, full of pointers mem alloc and other shit, so to use an euphemism is a fcking mess.
p
da notare che jupiterjazz, alias paolo berto, è un ex sviluppatore di mental ray, quindi ha una certa esperienza a riguardo
magari dammi anche un tuo parere, so che sei appassionato di ste cose quindi sicuramente saprai trarre considerazioni più ragionate rispetto alle mie
qui invece c'è l'annuncio di gelato 2.2pro (rilasciato gratuitamente) e della chiusura del progetto, si ipotizzava che nvidia girasse tutto il team di Larry Gritz per o sviluppo di mental ray per cuda, ma a quanto pare così non sarà e il team dovrebbe proprio sciogliersi...
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".