|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: http://www.hwupgrade.it/news/busines...ela_28128.html
E4 Engineering e NVIDIA mettono a disposizione un cluster Tesla con 8 GPU a titolo gratuito, per sperimentare i vantaggi del GPU Computing Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Sep 2001
Città: Saronno (VA)
Messaggi: 21703
|
Io comincio ad essere un po' deluso.. cuda è fuori da parecchio ormai ma i programmi li si vede col contagocce.. soprattutto in ambito free dove non c'è veramente un tubazzo di straniente!!!
Io come minimo mi aspettavo tempo zero un sano codec X264 scritto per GPU da usare con virtualdub!! E invece ciccia! Nè questo nè altro!! ![]() ![]() |
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: Sep 2005
Messaggi: 2223
|
scrivilo tu demon...
|
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: Jun 2001
Città: Pavia
Messaggi: 24864
|
Credo che la maggior parte dei programmatori stia aspettando una unificazione, qualcosa che vada su ogni singola gpu programmabile sul mercato, che sia ati, nvidia, intel o addirittura sis. Comunque ati avendo pure lei buona parte del mercato rende un pò inutile gran parte dei discorsi.
|
![]() |
![]() |
![]() |
#5 | |
Senior Member
Iscritto dal: Oct 2008
Messaggi: 1048
|
Quote:
![]() |
|
![]() |
![]() |
![]() |
#6 |
Senior Member
Iscritto dal: Sep 2001
Città: Saronno (VA)
Messaggi: 21703
|
Eh vabbeh simpaticoni!!!
![]() Se ero programmatore magari mi ci mettevo!!! |
![]() |
![]() |
![]() |
#7 |
Senior Member
Iscritto dal: Oct 2000
Città: Reggio Emilia
Messaggi: 17229
|
Guarda un pò E4 dove mi è finita
![]()
__________________
Twinkle, twinkle, little star how I wonder what you are. |
![]() |
![]() |
![]() |
#8 |
Senior Member
Iscritto dal: Feb 2000
Città: crema (cr) EH SI!! SONO TUTTI FINOCCHI CON IL CULO DEGLI ALTRI
Messaggi: 1892
|
effettyivamente anche io mi aspettavo qualcosa da usare cn vdub basato su x264 e sinceramente sono un po' deluso... pero' magari anno nuovo....
|
![]() |
![]() |
![]() |
#9 |
Senior Member
Iscritto dal: Dec 2000
Città: BARI
Messaggi: 1983
|
demon77 ha pienamente ragione!!!
e quelli che hanno scritto "datti da fare" avrebbero fatto meglio a tenere le proprie dita lontano dalla tastiera. L'intero gruppo della Wolfram Research ha provato a sviluppare software parallelo da integrare in Mathematica ed analogamente il gruppo di matlab, purtroppo l'ambito di utilizzo delle funzioni parallelle messe a disposizione da CUDA è altamente limitante e di difficilissimo debugging. Anche adesempio le schede Tesla CX sviluppate per accellerare premiere e adobe photoshop sono di gran lunga acerbe per permettere un reale vantaggio dal punto di vista prestazionale in quanto le schede purtroppo sono vincolate dall'architettura attuale dei PC pertanto richiedono un continuo sincronismo tra CPU-RAM-PCIE ed è questa terribile gestione degli interrupt che limita lo sviluppo delle applicazioni CUDA specie in ambito multitrend. sapete quante volte nel debugging gli algoritmi di calcolo di impallavano senza alcuna possibilità di verificare quello che stava accadendo sulla scheda Tesla? e purtrppo non c'e' alcun sistema se non un arcaica librarie in C++ che permetta di valutare le ragioni di questi blocchi che sono continui e spesso causati non dall'accoppiata CUDA+TESLA ma dall'hardware su cui questa gira e dall'OS su cui gira. Pertanto la Strada intrapresa da GPGPU è ben lontana dall'essere risolta in quanto finche' si è costretti a passare attraverso il bus PCIE non è in alcun modo possibile ottenere un ambiente di sviluppo efficente, a meno di non integrare funzioni apposite nei kernel dei sistemi operativi. ma al momento niente di tutto questo pare in sviluppo. quando avremmo GPGPU e CPU sullo stesso socket allora le cose saranno diverse e lo sviluppo sarà di gran lunga piu' facile ed attuabile. per il momento vi lasciano sognare prestazioni da sogno.... |
![]() |
![]() |
![]() |
#10 | ||
Bannato
Iscritto dal: Jul 2004
Messaggi: 8507
|
Quote:
![]() Quote:
http://macosrumors.com/2009/02/11/wi...upport-opencl/ Unito a Grand Central (sfruttamento multi-core) e transizione completa ai 64bit faranno di SL un gran OS secondo me.... Ultima modifica di gianly1985 : 23-02-2009 alle 10:16. |
||
![]() |
![]() |
![]() |
#11 |
Member
Iscritto dal: Jan 2007
Messaggi: 277
|
@homero: hai qualche link sul fatto che CUDA su Mathematica sia difficile nel debugging?
Non dubito il fatto, sono solo interessato ![]() |
![]() |
![]() |
![]() |
#12 |
Senior Member
Iscritto dal: Feb 2009
Città: Forlì
Messaggi: 3688
|
"E4 Computer Engineering, azienda impegnata impegnata nella produzione di sistemi server[...]"
se è impegnata impegnata allora sarà impegnatissima! Correzioni a parte, è da apprezzare quest'azione della nVidia, il futuro dei PC sta nel GPU Computing! |
![]() |
![]() |
![]() |
#13 | |
Senior Member
Iscritto dal: Nov 2003
Messaggi: 1825
|
Quote:
|
|
![]() |
![]() |
![]() |
#14 |
Senior Member
Iscritto dal: Mar 2002
Città: Firenze
Messaggi: 560
|
Io non capisco invece un'altra cosa riguardo gli ambiti di utilizzo di Cuda; tempo fa mi era venuto in mente di mettere su una RenderFarm e, oltre ai veri server dedicati, mi era sembrato che l'implementazione di CUDA all'interno della catena potesse offrirmi notevoi benefici.
Contattando, invece, l'azienda che avrebbe dovuto fornirmi le macchine mi sento rispondere che la piattaforma CUDA non prevede come ambito di utilizzo il calcolo per il rendering; scusate ma non si tratta sempre di calcolo? Non dico dovesse elaborarmi l'anteprima, ma quantomeno il render finale... Invece no... Mi sembra un grosso buco nelle possibilità dell'architettura. Ciauz! |
![]() |
![]() |
![]() |
#15 |
Senior Member
Iscritto dal: Oct 2008
Messaggi: 1845
|
software rendering è 32 bit
unità di calcolo nvidia sono 16 bit c'è un overhead per trasformare i dati da 32 a 16 che limita la competitività di cuda. |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 18:13.