|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: http://www.hwfiles.it/news/nvidia-pa...-32_33733.html
NVIDIA presenta le versione aggiornate di Parallel Nsight e Cuda toolkit, la serie di applicazioni con cui intende spingere la diffusione di CUDA Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Dec 2007
Città: Palermo
Messaggi: 4585
|
non riesco a capire perchè il gpgpu stia avendo questa difficoltà ad espandersi
|
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: Jul 2010
Messaggi: 6081
|
Perchè non è pensabile non avere uno standard che rendi la programmazione delle GPU identica a prescindere dalla marca. Le CPU x86 x64 le programmi indipendentemente dal fatto che siano intel o AMD. Finchè non si supererà tale ostacolo rimarrà un qualcosa di nicchia, scarsamente utilizzato ed implementato.
|
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: May 2007
Messaggi: 825
|
Perché i benefici son di nicchia e la difficoltà nello sviluppo è alta ...
|
![]() |
![]() |
![]() |
#5 | |
Senior Member
Iscritto dal: Sep 2001
Città: Saronno (VA)
Messaggi: 21641
|
Quote:
__________________
DEMON77 La mia galleria su Deviant Art: http://aby77.deviantart.com/gallery/?catpath=/ |
|
![]() |
![]() |
![]() |
#6 | |
Senior Member
Iscritto dal: May 2005
Messaggi: 12083
|
Quote:
professionalmente il GPGPU e CUDA sono molto piu diffusi, a differenza dell'ambito home dove nella maggiorparte dei casi lo sforzo di trasportare il codice su GPU non vale il risultato.... Professionalmente, non si pone nemmeno il problema, visto che l'80-90% del mercato è in mano a nVidia e difatti è praticamente quasi tutto CUDA. |
|
![]() |
![]() |
![]() |
#7 | |
Senior Member
Iscritto dal: May 2002
Città: Roma
Messaggi: 688
|
Quote:
se stai pensando al settore consumer PC, resta vero il fatto che non è cosa buona e giusta dover scrivere software per Nvidia e per Ati in linguaggi differenti. OpenCL da una mano, ma ancora non è maturo. se parliamo del settore professionale e militare, non è assolutamente come dici. Sul mercato ci sono migliaia di CPU con set istruzioni non x86 e non frega niente a nessuno di questo. Un autoradio, non ha una CPU x86, cosi come non ce l'ha un iPod o un Tomtom e si può andare avanti all'infinito. Nel settore professionali e militare, hai un problema e ti serve una soluzione e deve essere quella: quasi mai è richiesta la compatibilità x86. CUDA nel mondo militare e scientifico è mooolto usato, se ne parla poco per ovvie ragioni, ma nvidia attualmente investe 4 volte tanto in termini di soldi e di risorse umane allocate su CUDA e i suoi driver, piuttosto che nello sviluppo di GPU. Uso CUDA per lavoro (settore appunto militare) e quello che permette di fare ha dell'incredibile, i clienti restano a bocca aperta xkè gli viene data la possibilità di rimpizzare vecchi sistemi basati su FPGA e DSP dal costo di migliaia di euro per pezzo, con un sistema enormemente più performante e drasticamente più economico.
__________________
Sul mercatino ho concluso con: gup133, Dr.Xavier (3 volte), giovonni, Allure, Solojuve, gor, Corrente Elettrica, TH4N4TOS, Flying Tiger |
|
![]() |
![]() |
![]() |
#8 | |
Bannato
Iscritto dal: Nov 2000
Messaggi: 15499
|
Quote:
ho capito che il discorso si basa sul rapporto esigenza ---> soluzione passando per i benefici economici (=> miglior rapporto costo/risultato) e questo porta a sviluppare su CUDA. OK.. ..però quello che io mi chiedo, nella mia niubbiaggine in merito è: una cosa come l'architettura X86 non ha praticamente possibilità di sparire nel breve-medio termine, quindi da quel punto di vista è sicura. Stesso discorso per altri standard/architetture radicate nel mercato e adottabili da più aziende (con volontà e risorse economiche adeguate) e quindi portate avanti. Una cosa come CUDA invece è strettamente legata ad un'unica azienda che non è poi così solida o perlomeno nn lo è come un'architettura tipo x86. nVidia potrebbe floppare l'architettura delle sue VGA ed accumulare ritardi indebolendosi notevolmente (è già capitato..) ed esponendosi ad eventuali acquisti da parte di terzi ecc. Se domani nVidia fallisce o se la compra la Pinco Pallino Inc., le soluzioni CUDA (sw+hw) che fine fanno? La fatica dello sviluppo che fine fa? Ripeto è solo una domanda da ignorante, se hai voglia illuminami ![]() Ciao |
|
![]() |
![]() |
![]() |
#9 |
Senior Member
Iscritto dal: May 2002
Città: Roma
Messaggi: 688
|
ma sostanzialmente il discorso che fai è sensato, e rientra in quelli che si chiamano rischi. anche intel ha fatto il suo flop con Itanium, cosi come microsoft l'ha fatto con Vista e Apple con iPhone 4g.
anche i grandi sbagliano. Sul discorso longevità del prodotto, non è esattamente come dici e mi spiego. mentre sul mercato una GPU come la 8800gts non la trovi a comprare, se hai un prodotto business professionale, nvidia ti garantisce la reperibilità per 10 anni. Un altro problema non di poco conto rientra in ciò che una GPU può fare: se con una CPU x86 che probabilmente ti da più sicurezza, te ne servono 20-30 per fare una certa operazione, quando invece di GPU ti basta una GTX 480, e il tuo sistema va montato su un aereo da guerra vero, capisci che non me ne frega nulla del discorso x86, sia perchè non posso montare 20-30 server in una aereo supersonico, sia perchè il sistema che ho realizzato è specifico e non general purpose per milioni di utenti. ne progetto 1 ne vendo 200, a milioni di dollari a singolo pezzo. Quello che tu dici, è successo con CELL di Ibm. Quando usi la PS3, se ti ricordi, ci fu molto interessa in NASA e nel settore militare per questa CPU multicore. IBM però non si è mossa bene, ha fatto mille difficoltà, prima fra tutte quella che le CPU CELL le potevi trovare solo su server Blade con un kernel linux appositamente compilato. L'azienda Mercury era l'unica al mondo che stava cercando di sviluppare un mini-pc atto al volo supersonico con CPU-CELL, ma hanno incontrato talmente tante difficoltà (nonostante il giro di soldi immenso che avrebbero mosso) che hanno abbandonato il progetto. Di architettura CELL ne è esistita solo una, IBM non ha fornito supporto necessario, ha avuto problemi societari e il progetto CELL è morto. E' probabile che dietro la mossa di Sony di togliare il supporto ad altri OS sulla PS3 ci sia anche la morte di CELL e la fine degli accordi con IBM. Chi aveva provato a fare sperimentazioni di software militari e professionali con la PS3 e i server Blade in attesa che le CPU CELL si trovassero in versioni custom integrabili su i propri sistemi, ha perso tempo e soldi e ha dovuto buttare tutto. Con Nvidia e con CUDA lo scenario non è certo quello di IBM, è dalla serie 8000 (e non dalla gt200 come dice l'articolo ![]() http://www.defensemarket.com/?p=193 così come GPU nvidia si trovano nelle macchine che guidiamo, come fiat lancia volvo ecc http://www.nvidia.com/object/tegra_automotive.html le GPU nvidia vengono anche usate e vendute in sistemi per l'acquisizione immagini. Ad una conferenza Nvidia ho visto questo spettacolare software di realtime image filtering usato in ambito militare prodotto da IKENA. Guardate cosa riesce a fare una GPU anche se montata su un elicottero :-) http://www.motiondsp.com/products/isr/ Lungi da me l'affermare che una GPU soppiante le CPU, così come ne Nvidia ne Intel affermano questo.
__________________
Sul mercatino ho concluso con: gup133, Dr.Xavier (3 volte), giovonni, Allure, Solojuve, gor, Corrente Elettrica, TH4N4TOS, Flying Tiger |
![]() |
![]() |
![]() |
#10 |
Senior Member
Iscritto dal: Aug 2009
Città: Legnano
Messaggi: 6037
|
Commento molto professionale, io lavoro nel campo automobilistico come autoriparatore e quelle cose lì non le sapevo.
Ecco perchè Nvidia spinge tanto su CUDA e ha progettato Fermi per questo. Il campo gamer-user passa in secondo piano rispetto a quegli usi da te elencati.
__________________
i7 4790k @4.7ghz, MSI z87G43Gaming, G.SKILL Sniper16gb DDR3@2.66ghz, Zotac GTX1070 mini @+165core/450mem mhz, Samsung EVO960 512gb + Samsung QVO970 1tb, Corsair TX650, Win10 pro |
![]() |
![]() |
![]() |
#11 | |
Senior Member
Iscritto dal: May 2005
Messaggi: 12083
|
Quote:
utili stimati 2010 180 milioni di dollari Professional 29 milioni discrete desktop 12 milioni discrete notebook 37 milioni integrated desktop 45 milioni integrated notebook 123 milioni tot dal comparto pc consumer nVidia ha un utile di 180 milioni di dollari solo con il professionale, tutta la divisione ATI ha un utile stimato 2010 di 110 milioni di dollari... nVidia è stata molto saggia a investire molto su CUDA visto che gia deteneva una quota altissima del mercato professionale PC ( senza contare il resto dei settori extra PC ) preferisco di gran lunga uno standard chiuso ma supportato come dio comanda come CUDA piuttosto che uno standard aperto lasciato solo. Fino ad ora non se ne è sentito il bisogno di uno standard "aperto", visto che ATI nel professionale ha delle schede inferiori; |
|
![]() |
![]() |
![]() |
#12 |
Senior Member
Iscritto dal: Dec 2000
Città: BARI
Messaggi: 1983
|
"Uso CUDA per lavoro (settore appunto militare)"
giusto perchè i militari hanno soldi da buttare e tempo da perdere... l'ho già scritto su questo forum ma come si dice è meglio ripeterlo se qualcuno non ha capito... CUDA E' un incubo da programmare... in pratica è come scrivere codice in assembler caricarlo sulla scheda e sperare che funzioni..... se qualcosa si blocca non esiste modo di avere un debug non funziona e basta... la cosa sarebbe aggirabile semplicemente se NVIDIA proponesse un simulatore di CUDA che funziona ovviamente a velocità ridotta su CPU...ma questo non lo fa per tutelare il suo KNOW HOW.... allora i poveri programmatori continuano a sbattere il muso con questa tecnologia che di fatto è come programmare un computer senza monitor... ti devi basare su beep del buzzer.... la cosa è analoga per ATI con l'aggravente che le librerie openCL hanno i loro bei bugs...quindi la situazione si complica ulteriormente.... oggi quelli che sviluppano applicazioni in cuda nelle università a progetti di calcolo hanno il supporto di nvidia che consiste essenzialmente in un simulatore debugger che permette di far girare l'applicazione cuda su CPU in fase di sviluppo e solo alla fine dello sviluppo caricarla sulla scheda tesla... è inutile dire che non basta avere una scheda nvidia per usare cuda in piena sicurezza.... bisogna avere un intero sistema certificato nvidia generalmente 1 scheda video 1 scheda per i calcoli e OS linux oppurtanamente configurato.... il famoso plugin per visual studio ha potenzialità alquanto limitate....rispetto a quanto sbandierato da nvidia e quanto possibile dalla tecnologia CUDA... forse le prossime generazione di gpu intergrate nella cpu permetteranno lo sviluppo di programmi a codice misto allora le potenzialità del gpgpu saranno sfruttabili.... in calce volevo dire che itanium non è un aborto.... |
![]() |
![]() |
![]() |
#13 | |
Member
Iscritto dal: Sep 2007
Messaggi: 265
|
Quote:
![]() Solo un appunto: Tegra non e' una GPU, am al CPU basata ARM di nvidia. |
|
![]() |
![]() |
![]() |
#14 | |
Member
Iscritto dal: Sep 2007
Messaggi: 265
|
Quote:
|
|
![]() |
![]() |
![]() |
#15 | |
Member
Iscritto dal: Sep 2007
Messaggi: 265
|
Quote:
Voglio dire: I costi di progettazione di chip cosi' complicati si calcolano in miliardi di dollari, a quel punto devi vendere centinaia di milioni di pezzi per riuscire a "spalmarli" e fare utili. Se invece vendi solo pochi pezzi per il mercato professionale, non ce la fai. E' un problema che *potrebbe* avere Intel col Larrabee (la futura versione, cioe'): per il mercato High performance Computing potrebbe essere una bomba, ma se non riesce a sfondare come GPU potrebbe avere una tiratura cosi' limitata (mlioni di pezzi invece che centinaia di milioni) da renderlo troppo costoso, e intaccare drasticamente i margini di Intel. |
|
![]() |
![]() |
![]() |
#16 | |
Bannato
Iscritto dal: Nov 2000
Messaggi: 15499
|
Quote:
![]() ora non ricordo con precisione se ha ri-allocato tutte le forze impiegate nel progetto o se era rimasta una piccola sezione che ne stia portando avanti la sperimentazione; ad ogni modo per come lo aveva presentato, Larrabee è morto. |
|
![]() |
![]() |
![]() |
#17 | |
Senior Member
Iscritto dal: Jul 2005
Messaggi: 7819
|
Quote:
__________________
Sample is selezionated !
|
|
![]() |
![]() |
![]() |
#18 |
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14734
|
Dubito che la fonderia interna porti a risparmio.
Altrimenti AMD non si sarebbe scissa dando vita a GlobalFoundries. Evidentemente la possibilità di lavorare come fonderia per conto di terzi permette di mantenere una capacità produttiva più adeguata a coprire i costi di gestione. Inoltre permette di riciclare con facilità i vecchi macchinari, dato che non tutti necessitano sempre dei processi produttivi più evoluti, a differenza di un'azienda con un business più circoscritto. @AceGranger Tornando a CUDA, il problema legato ad esso è che crea un "sottomercato" in cui nvidia può fare i prezzi che vuole. É quindi suo interesse mantenere cuda ad un livello superiore agli standard aperti, ma non per questo è interesse dei suoi clienti, che si trovano ad acquistare in un mercato meno competitivo. |
![]() |
![]() |
![]() |
#19 | |
Senior Member
Iscritto dal: May 2005
Messaggi: 12083
|
Quote:
In ambito PC non mi pare che le FirePro costino tanto di meno, ed il divario con i prodotti Quadro è abissale... |
|
![]() |
![]() |
![]() |
#20 | |
Senior Member
Iscritto dal: Jul 2005
Messaggi: 7819
|
Quote:
__________________
Sample is selezionated !
|
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 12:35.