NVIDIA investe nelle elaborazioni GP-GPU

NVIDIA investe nelle elaborazioni GP-GPU

Un investimento di 3 milioni di dollari in Acceleware, azienda specializzata nell'uso di GPU per calcoli non video: questo uno dei primi passaggi per la diffusione di CUDA

di pubblicata il , alle 15:02 nel canale Schede Video
NVIDIACUDA
 

NVIDIA sembra sempre più interessata nello sviluppo di soluzioni che possano permettere di utilizzare le proprie GPU come sistemi di elaborazione general purpose. Da tempo si parla di GP-GPU, General Purpose GPU, e l'architettura unificata ed altamente programmabile delle GPU G80 sembra aver posto le premesse ideali, in casa NVIDIA, per questo genere di iniziative.

Il produttore americano ha annunciato di aver investito poco meno di 3 milioni di dollari USA in Acceleware, start-up canadese che commercializza soluzioni hardware e software proprietari che utilizzano i chip video per particolari elaborazioni di calcolo. In particolare, Acceleware si è specializzata in elaborazioni negli ambiti del design hardware, data processing e delle simulazioni.

In occasione del debutto delle proprie GPU GeForce 8800 GTS e GTX, come abbiamo segnalato in questo articolo, NVIDIA ha dato ampio spazio a CUDA; acronimo di Compute Unified Device Architecture, è il nome scelto da NVIDIA per evidenziare come l'architettura G80 rappresenti, in abbinamento al corretto software, una soluzione hardware che possa essere utilizzata per elaborazioni intense di calcolo parallelo. Detto in altri termini, quindi, parliamo di GP-GPU, quindi della possibilità di sfruttare l'innata natura parallela della GPU in abbinamento alla CPU per elaborazioni che per l'appunto siano parallele per natura.

Gli stream processor possono essere dinamicamente allocati dalla GPU per operare su oggetti legati alla riproduzione 3D a video, oppure per gestire elaborazioni parallele; un thread execution manager schedula l'esecuzione dei thread in modo tale che siano pienamente sfruttate tutte le risorse di elaborazione presenti all'interno della GPU.

CUDA introduce anche una componente software, indispensabile per poter sfruttare al meglio le potenzialità di elaborazione dell'architettura G80; NVIDIA infatti introdurrà un compilatore in linguaggio C specifico per le GPU, che dovrebbe facilitare la vita agli sviluppatori che intendano eseguire elaborazioni parallele servendosi per l'appunto di schede video GeForce 8800. E' questo un elemento fondamentale per la diffusione di applicazoni che sfruttano la GPU per l'elaborazione di dati: le GPU sono intrinsecamente molto più veloci e parallele delle CPU, ma rispetto a queste ultime meno flessibili in termini del tipo di elaborazioni non grafiche che possono eseguire. La disponibilità di nuove architetture di GPU permette di avere accesso a superiori funzionalità, rendendo progressivamente più adatte ad elaborazioni general purpose queste architetture, ma si rende indispensabile avere a disposizione un'interfaccia software che sia all'altezza e permetta di sfruttare al meglio le GPU.

Rispetto agli attuali approcci di GP-GPU, CUDA può beneficiare di due elementi architetturali che migliorano la velocità di elaborazione: da una parte la presenza di cache locali all'interno della GPU, per ogni blocco di stream processors; dall'altra il thread execution manager, che governa al meglio lo sfruttamento degli stream processors in funzione del tipo di elaborazione eseguita.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

47 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
giulioballio26 Gennaio 2007, 15:13 #1
voglio vedere se il mio dipartimento fra qualche anno assemblerà un cluster di G80..
zanardi8426 Gennaio 2007, 15:19 #2
Era ora!
Deve essere necessariamente questo il trend!
A livello elaborativo non c'è assolutamente paragone tra un dual core attuale e una vga di fascia alta, forse addirittura di fascia media.

Se non ricordo male, si diceva che già le GeForce FX potessero lavorare in un ambito diverso da quello grafico. Si era vociferato di un possibile utilizzo nell'elaborazione del suono nel progetto bionicFX.

Oggi mi sembra che l'applicazione migliore di gp gpu sia il progetto folding@home della Stanford university. Migliore perchè è a scopo benefico che riguarda tutti. La ricerca per sconfiggere le malattie. Sfruttando la capacità delle Radeon X1800 e X1900 è possibile ridurre sensibilmente i tempi di elaborazione delle simulazioni.
Dexther26 Gennaio 2007, 15:22 #3
azz, news interessantissima
VitOne26 Gennaio 2007, 15:57 #4
Da parecchio tempo si parla di sfruttare le VGA anche per calcoli diversi da quelli strettamente grafici, e nelle schede madri più recenti è a volte presente un tezo connettore PCIE full che consentirebbe di usare una terza VGA (si vociferava per i calcoli relativi alla fisica nei giochi).
L'hardware c'è. Il software manca, ed in modo clamoroso. I dual (e i quad core ancora di più possono essere sfruttati al 100% molto difficilmente e solo con qualche applicazione specifica.
Dal punto di vista grafico si assiste ad una contiuna conversione, molti titoli escono poco ottmizzati, alcuni titoli promettono di sfruttare quad core e GPU avanzate, speriamo bene...
HexDEF626 Gennaio 2007, 15:58 #5
Originariamente inviato da: giulioballio
voglio vedere se il mio dipartimento fra qualche anno assemblerà un cluster di G80..


visto che sono il responsabile del cluster del mio dipartimento, devo assolutamente far sborsare i soldi per qualche sample... ovviamente per provare a farci conti
e gia che ci siamo anche un paio di playstation 3 per provare le potenzialita' del cell!
eta_beta26 Gennaio 2007, 16:24 #6
mesi fa ho provato ad contattare nvidia per sdk di Compute Unified Device Architecture (cuda )
ho inserito tutti i miei dati, ma poi nessuna risposta
inutile presentare un sdk se poi non permetti di scaricarlo
demon7726 Gennaio 2007, 16:24 #7

EVVAI!!

Notizia OTTIMA!!
Finalmente si va nella giusta direzione: un pc in grado di sfruttare tutte le sue risorse per tutti i calcoli!
I processori grafici hanno una potenza mostruosa che oggi va sprecata!

Sotto quest'ottica la presenza di due sk video comincia ad avere senso!

Adesso è necessario STANDARDIZZARE! Non deve esserci differenza tra AMD ed Nvidia!

Mi sa che ci vorrà ancora parecchio tempo..
essereumano26 Gennaio 2007, 16:39 #8
Buona l'idea di utilizzare una gpu per l'audio ma c'è anche da ricordare che molte schede audio di fascia professionale hanno dei dsp che se ne occupano...
MCMXC26 Gennaio 2007, 16:42 #9
Dico io ERA ORA! (Il mio interesse va al rendering 3D, spero facciano quindi un motore che sfrutti la GPU come avevano gia' fatto tempo fa con Gelato)
PsyCloud26 Gennaio 2007, 17:01 #10
non occorre comprare la ps3 per provare il cel nel cluster del tuo dipartimento. basta che compri un plug-in ibm basato su cell per cluster server su un pcb pci a 64 bit (9800 euro).
qualcuno mi aveva postato il link a questa skeda da attaccare ma non ricordo dove e quando.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^