Il nuovo Firestream 9250 di AMD supera la barriera del teraflop

Il nuovo Firestream 9250 di AMD supera la barriera del teraflop

In occasione dell'International Supercomputing Conference di Dresda, AMD ha presentato al pubblico il nuovo stream processor Firestream 9250

di pubblicata il , alle 16:57 nel canale Periferiche
AMD
 
27 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
freeeak16 Giugno 2008, 19:35 #11
hmmm ci sono due cose che non mi convincono...
-perche usare connessione pci?(a parte i costi) usa cosi poca banda?
-150W di consumo!?!? non sono un po tanti? anche se efficiente per gigaflop è comunque utilizzabile solo per aplicazioni specifiche.

cmq interessante come idea se migliorassero su questi due punti.
bjt216 Giugno 2008, 20:06 #12
Originariamente inviato da: filosofo24
Scusate la vergognosa ignoranza, ma sarà possibile almeno in parte sfruttare questa potenza per rendering (maxwell, wvray, 3ds)?


Cerca NVIDIA Gelato, NVIDIA Sorbetto e NVIDIA Amaretto... (non è uno scherzo...)
Mercuri016 Giugno 2008, 20:35 #13
Originariamente inviato da: bjt2
La nuova NVIDIA 280 ha meno di un teraflop in single e 90 in double... Questa più di un tera in single e 200 in double... Se la 4800 ha le stesse caratteristiche, promette bene... L'unica cosa negativa è che AMD abilita i calcoli GPGPU in doppia precisione solo per queste costosissime schede... Ma tanto per Matlab è già disponibile il CUDA anche per Vista e Matlab a 64 bit, mentre ad AMD sono ancora al palo...

Dove l'hai letto che AMD abilita i calcoli in precisione doppia solo per le firestream

Comunque anche AMD si sta muovendo. Oltre a tutto quello che già c'è (brook - AMD s'è comprata mezzo folding@home, rapidmind, CAL e parenti) in questa stessa news è annunciato il supporto all'OpenCL (!!), annunciato dalla Apple per il nuovo MacOS.

Inoltre ho letto che OpenCL è uno standard del Khronos Group (la stessa organizzazione di OpenGL e parenti). Devo verificare la cosa, ma sarebbe una gran cosa avere un linguaggio standard per il GPGPU.
frankie16 Giugno 2008, 22:33 #14
Oltretutto openCL come il nome stesso dice è open, multipiattaforma e sarebbe bene che venbga utilizzato da tutti i so e i produttori di schede.

Come openGL
blackshard16 Giugno 2008, 23:07 #15
Originariamente inviato da: freeeak
hmmm ci sono due cose che non mi convincono...
-perche usare connessione pci?(a parte i costi) usa cosi poca banda?
-150W di consumo!?!? non sono un po tanti? anche se efficiente per gigaflop è comunque utilizzabile solo per aplicazioni specifiche.

cmq interessante come idea se migliorassero su questi due punti.


E che ci deve fare con la banda?
Carichi i tuoi dati e il programma sulla memoria onboard e metti la scheda al lavoro.
Per caricare i 1024 Megabyte della scheda con il bus PCI (che fa 133 Mb/s) impiegheresti al massimo 8 secondi scarsi.
Per paragone, se fosse pci-ex 16x ci metterebbe circa 1/4 di secondo.
dagon197817 Giugno 2008, 00:31 #16
Originariamente inviato da: bjt2
Cerca NVIDIA Gelato, NVIDIA Sorbetto e NVIDIA Amaretto... (non è uno scherzo...)


ciao bjt2, ci si vede anche qui
vero, ma gelato è stato appena segato (tutta la linea) e non si sa ancora niente (purtroppo) di una ipotetica versione di mental ray per cuda (anzi le voci che circolano è che non sia proprio possibile a breve)
Mercuri017 Giugno 2008, 10:46 #17
Originariamente inviato da: frankie
Oltretutto openCL come il nome stesso dice è open, multipiattaforma e sarebbe bene che venbga utilizzato da tutti i so e i produttori di schede.

Come openGL

Mai fidarsi del nome, che l'abito non fa il monaco.

Su wikipedia dicono che l'OpenCL è stato definito da Apple, ma messo sotto il controllo del Khronos Group (il consorzio che cura anche l'OpenGL, di cui fanno parte anche AMD e nVidia).

Dalle prime info direi che questa volta Apple si merita un ringraziamento
bongo7417 Giugno 2008, 13:33 #18
una cosa non mi sbuzza. ma la porta pci tira 150w?
quindi ci vorra' un porta alimentazione aggiuntiva------
bjt217 Giugno 2008, 13:50 #19
Originariamente inviato da: Mercuri0
Dove l'hai letto che AMD abilita i calcoli in precisione doppia solo per le firestream

Comunque anche AMD si sta muovendo. Oltre a tutto quello che già c'è (brook - AMD s'è comprata mezzo folding@home, rapidmind, CAL e parenti) in questa stessa news è annunciato il supporto all'OpenCL (!!), annunciato dalla Apple per il nuovo MacOS.

Inoltre ho letto che OpenCL è uno standard del Khronos Group (la stessa organizzazione di OpenGL e parenti). Devo verificare la cosa, ma sarebbe una gran cosa avere un linguaggio standard per il GPGPU.


Beh, se non è così tanto meglio... Mi ricordo che inizialmente era così...

Originariamente inviato da: dagon1978
ciao bjt2, ci si vede anche qui
vero, ma gelato è stato appena segato (tutta la linea) e non si sa ancora niente (purtroppo) di una ipotetica versione di mental ray per cuda (anzi le voci che circolano è che non sia proprio possibile a breve)


Io ho scaricato la versione 2.0 di CUDA. Ho Vista ultimate 64 bit e 8 core. Con Matlab 7.6 si ha già la parallelizzazione automatica dei calcoli matriciali (sono riuscito a sfruttare tutti i core con un solo processo... E senza modificare nulla del codice vecchio... Una goduria!). Il CUDA 2.0 che ho scaricato ha una Linpack (o lapack???) per Matlab per far calcolare la FFT (solo la 2D) e alcune funzioni di algebra lineare, dalla scheda video. Attualmente sembra solo per il floating point single precision... Non so perchè... Comunque ancora non ho provato, ma spero di farlo appena mi libero un po'...
dagon197817 Giugno 2008, 16:18 #20
Originariamente inviato da: bjt2
Beh, se non è così tanto meglio... Mi ricordo che inizialmente era così...



Io ho scaricato la versione 2.0 di CUDA. Ho Vista ultimate 64 bit e 8 core. Con Matlab 7.6 si ha già la parallelizzazione automatica dei calcoli matriciali (sono riuscito a sfruttare tutti i core con un solo processo... E senza modificare nulla del codice vecchio... Una goduria!). Il CUDA 2.0 che ho scaricato ha una Linpack (o lapack???) per Matlab per far calcolare la FFT (solo la 2D) e alcune funzioni di algebra lineare, dalla scheda video. Attualmente sembra solo per il floating point single precision... Non so perchè... Comunque ancora non ho provato, ma spero di farlo appena mi libero un po'...



ti riporto quello che ho letto a riguardo di CUDA e mental ray

Originariamente inviato da: jupiterjazz
Here you go.

So, to make things work on cuda you need to have a lot of *coherent* computations to perform: the problem of mental ray is that it is casting one ray then calling a native C shader to shade the intersection then maybe the shader casts another batch of rays and so on. Very non coherent.
This is just not suited for gpu computation unless if a massive rewrite/refactoring of the pipeline is done by mental images, which will not happen soon enough (I am speaking about years).
Some specific task like fast AO could be definitely done though (and also this won't happen soon).

Also another problem of mental ray is that the codebase is 15 years old (and it's not a Whiskey), native C for the CPU, full of pointers mem alloc and other shit, so to use an euphemism is a fcking mess.


p


da notare che jupiterjazz, alias paolo berto, è un ex sviluppatore di mental ray, quindi ha una certa esperienza a riguardo

magari dammi anche un tuo parere, so che sei appassionato di ste cose quindi sicuramente saprai trarre considerazioni più ragionate rispetto alle mie

qui invece c'è l'annuncio di gelato 2.2pro (rilasciato gratuitamente) e della chiusura del progetto, si ipotizzava che nvidia girasse tutto il team di Larry Gritz per o sviluppo di mental ray per cuda, ma a quanto pare così non sarà e il team dovrebbe proprio sciogliersi...

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^