NVIDIA Parallel Nsight 1.5 e CUDA Toolkit 3.2

NVIDIA Parallel Nsight 1.5 e CUDA Toolkit 3.2

NVIDIA presenta le versione aggiornate di Parallel Nsight e Cuda toolkit, la serie di applicazioni con cui intende spingere la diffusione di CUDA

di pubblicata il , alle 15:55 nel canale Programmi
NVIDIACUDA
 
23 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
homero14 Settembre 2010, 21:25 #11
"Uso CUDA per lavoro (settore appunto militare)"
giusto perchè i militari hanno soldi da buttare e tempo da perdere...

l'ho già scritto su questo forum ma come si dice è meglio ripeterlo se qualcuno non ha capito...
CUDA E' un incubo da programmare...
in pratica è come scrivere codice in assembler caricarlo sulla scheda e sperare che funzioni.....
se qualcosa si blocca non esiste modo di avere un debug non funziona e basta...
la cosa sarebbe aggirabile semplicemente se NVIDIA proponesse un simulatore di CUDA che funziona ovviamente a velocità ridotta su CPU...ma questo non lo fa per tutelare il suo KNOW HOW....
allora i poveri programmatori continuano a sbattere il muso con questa tecnologia che di fatto è come programmare un computer senza monitor...
ti devi basare su beep del buzzer....
la cosa è analoga per ATI con l'aggravente che le librerie openCL hanno i loro bei bugs...quindi la situazione si complica ulteriormente....
oggi quelli che sviluppano applicazioni in cuda nelle università a progetti di calcolo hanno il supporto di nvidia che consiste essenzialmente in un simulatore debugger che permette di far girare l'applicazione cuda su CPU in fase di sviluppo e solo alla fine dello sviluppo caricarla sulla scheda tesla...
è inutile dire che non basta avere una scheda nvidia per usare cuda in piena sicurezza....
bisogna avere un intero sistema certificato nvidia generalmente 1 scheda video 1 scheda per i calcoli e OS linux oppurtanamente configurato....
il famoso plugin per visual studio ha potenzialità alquanto limitate....rispetto a quanto sbandierato da nvidia e quanto possibile dalla tecnologia CUDA...
forse le prossime generazione di gpu intergrate nella cpu permetteranno lo sviluppo di programmi a codice misto allora le potenzialità del gpgpu saranno sfruttabili....
in calce volevo dire che itanium non è un aborto....
Pleg15 Settembre 2010, 00:04 #12
Originariamente inviato da: ronzino
così come GPU nvidia si trovano nelle macchine che guidiamo, come fiat lancia volvo ecc
http://www.nvidia.com/object/tegra_automotive.html.


Grazie della testimonianza, e' bello sapere che qualcuno usa CUDA con profitto

Solo un appunto: Tegra non e' una GPU, am al CPU basata ARM di nvidia.
Pleg15 Settembre 2010, 00:06 #13
Originariamente inviato da: homero
In pratica è come scrivere codice in assembler caricarlo sulla scheda e sperare che funzioni.....
se qualcosa si blocca non esiste modo di avere un debug non funziona e basta...
la cosa sarebbe aggirabile semplicemente se NVIDIA proponesse un simulatore di CUDA che funziona ovviamente a velocità ridotta su CPU...ma questo non lo fa per tutelare il suo KNOW HOW....
allora i poveri programmatori continuano a sbattere il muso con questa tecnologia che di fatto è come programmare un computer senza monitor...
ti devi basare su beep del buzzer....


Di versione in versione il CUDA debugger sta migliorando, semplificando molto la programmazione.
Pleg15 Settembre 2010, 00:14 #14
Originariamente inviato da: AceGranger
la maggiorparte delle persone conosce nVidia solo per le gaming e crede che sia quello il suo campo principale.... invece il campo user game è da un pezzo che per nVidia è in secondo piano


C'e' pero' una cosa da considerare: che il mercato consumer e' quello che fa i volumi, che servono a NVidia per "spalmare" i costi di progettazione.

Voglio dire: I costi di progettazione di chip cosi' complicati si calcolano in miliardi di dollari, a quel punto devi vendere centinaia di milioni di pezzi per riuscire a "spalmarli" e fare utili. Se invece vendi solo pochi pezzi per il mercato professionale, non ce la fai.

E' un problema che *potrebbe* avere Intel col Larrabee (la futura versione, cioe'): per il mercato High performance Computing potrebbe essere una bomba, ma se non riesce a sfondare come GPU potrebbe avere una tiratura cosi' limitata (mlioni di pezzi invece che centinaia di milioni) da renderlo troppo costoso, e intaccare drasticamente i margini di Intel.
PhoEniX-VooDoo15 Settembre 2010, 08:59 #15
Originariamente inviato da: Pleg
C'e' pero' una cosa da considerare: che il mercato consumer e' quello che fa i volumi, che servono a NVidia per "spalmare" i costi di progettazione.

Voglio dire: I costi di progettazione di chip cosi' complicati si calcolano in miliardi di dollari, a quel punto devi vendere centinaia di milioni di pezzi per riuscire a "spalmarli" e fare utili. Se invece vendi solo pochi pezzi per il mercato professionale, non ce la fai.

E' un problema che *potrebbe* avere Intel col Larrabee (la futura versione, cioe'): per il mercato High performance Computing potrebbe essere una bomba, ma se non riesce a sfondare come GPU potrebbe avere una tiratura cosi' limitata (mlioni di pezzi invece che centinaia di milioni) da renderlo troppo costoso, e intaccare drasticamente i margini di Intel.


intel ha abbandonato il progetto Larrabee

ora non ricordo con precisione se ha ri-allocato tutte le forze impiegate nel progetto o se era rimasta una piccola sezione che ne stia portando avanti la sperimentazione; ad ogni modo per come lo aveva presentato, Larrabee è morto.
Foglia Morta15 Settembre 2010, 09:16 #16
Originariamente inviato da: Pleg
C'e' pero' una cosa da considerare: che il mercato consumer e' quello che fa i volumi, che servono a NVidia per "spalmare" i costi di progettazione.

Voglio dire: I costi di progettazione di chip cosi' complicati si calcolano in miliardi di dollari, a quel punto devi vendere centinaia di milioni di pezzi per riuscire a "spalmarli" e fare utili. Se invece vendi solo pochi pezzi per il mercato professionale, non ce la fai.

E' un problema che *potrebbe* avere Intel col Larrabee (la futura versione, cioe'): per il mercato High performance Computing potrebbe essere una bomba, ma se non riesce a sfondare come GPU potrebbe avere una tiratura cosi' limitata (mlioni di pezzi invece che centinaia di milioni) da renderlo troppo costoso, e intaccare drasticamente i margini di Intel.


Ma centinaia ( plurale ) di milioni di pezzi secondo me non le venderà nemmeno l' intera serie HD5000 che è stata quella più di successo con la prima ondata di schede DX11 ( IMO entro la fine del 2010 resteranno al di sotto dei 50 milioni , e tra poco inizierà ad essere gradualmente sostituita dalla serie HD6000 ). Forse intendevi migliaia e centinaia di migliaia ? Intel ha pur sempre il vantaggio di prodursi il silicio in casa, mettiamo che una fonderia esterna rincari il 30% sul proprio costo di produzione , potenzialmente sarebbe un bel risparmio per Intel
calabar15 Settembre 2010, 14:53 #17
Dubito che la fonderia interna porti a risparmio.
Altrimenti AMD non si sarebbe scissa dando vita a GlobalFoundries.

Evidentemente la possibilità di lavorare come fonderia per conto di terzi permette di mantenere una capacità produttiva più adeguata a coprire i costi di gestione.
Inoltre permette di riciclare con facilità i vecchi macchinari, dato che non tutti necessitano sempre dei processi produttivi più evoluti, a differenza di un'azienda con un business più circoscritto.

@AceGranger
Tornando a CUDA, il problema legato ad esso è che crea un "sottomercato" in cui nvidia può fare i prezzi che vuole.
É quindi suo interesse mantenere cuda ad un livello superiore agli standard aperti, ma non per questo è interesse dei suoi clienti, che si trovano ad acquistare in un mercato meno competitivo.
AceGranger15 Settembre 2010, 15:01 #18
Originariamente inviato da: calabar
Tornando a CUDA, il problema legato ad esso è che crea un "sottomercato" in cui nvidia può fare i prezzi che vuole.
É quindi suo interesse mantenere cuda ad un livello superiore agli standard aperti, ma non per questo è interesse dei suoi clienti, che si trovano ad acquistare in un mercato meno competitivo.


bè, fino ad ora l'alternativa è stato il nulla cosmico... quindi io personalmente preferisco spendere qualcosa in piu del dovuto ma avere un prodotto supportato e funzionante.

In ambito PC non mi pare che le FirePro costino tanto di meno, ed il divario con i prodotti Quadro è abissale...
Foglia Morta15 Settembre 2010, 16:21 #19
Originariamente inviato da: calabar
Dubito che la fonderia interna porti a risparmio.
Altrimenti AMD non si sarebbe scissa dando vita a GlobalFoundries.

Evidentemente la possibilità di lavorare come fonderia per conto di terzi permette di mantenere una capacità produttiva più adeguata a coprire i costi di gestione.
Inoltre permette di riciclare con facilità i vecchi macchinari, dato che non tutti necessitano sempre dei processi produttivi più evoluti, a differenza di un'azienda con un business più circoscritto.


Dipende da quanto si produce e se si hanno prodotti da produrre con i processi produttivi "vecchi"... a Intel conviene fare come sta facendo mentre a AMD no. Basti pensare che in futuro le fonderie potranno costare anche 6 miliardi di dollari per farsi un un' idea. Nel Q2 2010 AMD ha occupato "solo" il 75% della capacità di Global Foundries ( ovviamente escludendo i processi produttivi che non le servono ) , quindi nel caso di AMD può essere più efficiente appoggiarsi a GloFo e pagare un gross margin fissato al 20% ( come effettivamente stanno facendo ) mentre a Intel conviene di più costruirsi le proprie fonderie dato che ha livelli produttivi nettamente più alti ( anche considerando il portafogli prodotti molto ampio ).
Pleg15 Settembre 2010, 17:35 #20
Originariamente inviato da: PhoEniX-VooDoo
intel ha abbandonato il progetto Larrabee

ora non ricordo con precisione se ha ri-allocato tutte le forze impiegate nel progetto o se era rimasta una piccola sezione che ne stia portando avanti la sperimentazione; ad ogni modo per come lo aveva presentato, Larrabee è morto.


No non e' cosi'. Intel ha deciso di non far uscire la prima versione (come grafica discreta) perche' prestazionalmente non poteva competere con le GPU ATI e NVidia. Sta usando quei chip come sample tecnologici con cui chi e' interessato a HPC puo' sperimentare e cominciare a scrivere i propri programmi. Il progetto Larrabee continua, e ci si aspetta una nuova versione nei prossimi 1--2 anni.

D'altro canto, Intel non puo' permettersi di lasciare a NVidia mano libera nel campo HPC col GPGPU. Larrabee combattera' come CPU proprio in quell'arena, non e' una CPU da desktop.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^