PDA

View Full Version : NVIDIA Tesla: GPU G80 per elaborazioni GPGPU


Redazione di Hardware Upg
20-06-2007, 22:36
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1750/index.html

Tesla è la nuova famiglia di prodotti NVIDIA specificamente sviluppati per elaborazioni GPGPU, dove il chip video viene utilizzato per eseguire calcoli tipicamente di competenza della CPU, ma molto più velocemente di quest'ultima. Scopriamo quali siano le caratteristiche di questi prodotti, e come una GPU possa essere utilizzata per calcoli paralleli

Click sul link per visualizzare l'articolo.

UIQ
20-06-2007, 22:57
Articolo molto interessante, aggiungo che esistono imprese che sviluppano tool in grado di convertire in modo più o meno automatico codice dall'uso esclusivo della CPU a quello della GPU, in ogni caso il settore è molto promettente e le possibili applicazioni molto numerose...

DVD2005
20-06-2007, 23:06
Articolo molto interessante su di un argomento che non conoscevo.

Matteo2600+
20-06-2007, 23:10
estremamente interessante direi ed ottimamente recensito, fa pensare al futuro, probabilmente non esisteranno piu i potentissimi multicore CPU ma delle gpu che prenderanno il posto predominante nel calcolo di un pc. La tecnologia in quanto a PC cambia idea continuamente ;) !

sna696
20-06-2007, 23:18
molto interessante.... il futuro alle porte...

Dox
20-06-2007, 23:30
Notevole complimenti a Nvidia , il rack da 4 gpgpu è davvero spaziale

akumafu
21-06-2007, 00:00
Il lavoro in parallelo di più componenti è sempre stata un'ottima scelta in ogni settore... La teoria del "2 fanno meglio di 1, o se non meglio, più veloce sicuramente" :D :D

Twisted87
21-06-2007, 00:54
bell'articolo davvero :D

c'è un piccolo errorino :p
su Perché usare le GPU per calcoli general purpose? arcitetture

akfhalfhadsòkadjasdasd
21-06-2007, 00:55
in accademia di queste cose si sta parlando già da tempo... ora che l'industria ha visto la possibilià di aprire nuovi mercati si inizia a progettare seriamente :D

in questo caso queste architetture come elencato nell'articolo serviranno per computare dati inerenti alla ricerca, alla sanità.. insomma roba seria per il progresso!


EDIT:
quello che mi preoccupa che le tre soluzioni non hanno una compatibiltà comune a livello delle istruzioni. come le console per i giochi, sarà guerra :D

ATI ora ha quello più complesso ma potenzialmente più efficiente close-to-metal (nome fico), nvidia punta più sulla semplicità e sulla compatibilità tra generazioni differenti di gp-cpu nvidia e intel punta a garantire istruzioni x86 cosa comoda poichè il software in questione che gira sui nostri sistemi intel/amd dovrebbe ottimisticamente essere solo ricompilato...

akfhalfhadsòkadjasdasd
21-06-2007, 01:14
estremamente interessante direi ed ottimamente recensito, fa pensare al futuro, probabilmente non esisteranno piu i potentissimi multicore CPU ma delle gpu che prenderanno il posto predominante nel calcolo di un pc. La tecnologia in quanto a PC cambia idea continuamente ;) !
Non penso proprio. E' complicato far fare a una gpu ciò per cui non è stato pensato, è una architettura assai specializzata. le gp-gpu allargano gli orizzonti delle possibilità... ma non credo che riuscirebbero ora a risolvere velocemente un complesso problema di Planning ad esempio. Se lo saprebbe fare sarebbe cpu e gpu assieme e non solo una gp-gpu.

un altro paradigma di calcolo molto interessante e novello è il Reconfigurable Computing una architettura di calcolo che si dovrebbe poter configurare/specializzare per le applicazioni volta per volta, anche a runtime.

Mercuri0
21-06-2007, 01:23
E queste possibilità dovrebbero arrivare sui desktop con i derivati di Fusion di AMD.

Ammesso che AMD non fallisca prima, si intende O_o

_Menno_
21-06-2007, 01:31
ottimo articolo e argomento veramente interessante...

il futuro si prospetta ricco di novità :)

Gunny35
21-06-2007, 03:07
Oltre al nome non mi sembra ci sia molto di nuovo rispetto a QuadroPlex.
In teoria Torrenza di AMD dovrebbe essere un approccio migliore, usando hypertransport invece di PCI Express vedremo quando uscirà.

Wee-Max
21-06-2007, 08:04
bell'articolo, veramente interessante...complimenti alla redazione!:mano: :mano:

joe4th
21-06-2007, 08:24
Il problema è però il solito. Possono fare solo calcoli in singola
precisione e alle volte nemmeno quella...

Sig. Stroboscopico
21-06-2007, 08:46
Quello che è importante è la relazione prestazioni/costo.

Non il mio campo... ma i costi non mi paiono assolutamente proibitivi...
Chissà quanti ne hanno venduti ad oggi!

Comunque per noi user normali, di sicuro è molto più interessante la versione AMD integrata... questa di Nvidia è facile che resti relegata solo a usi mirati e altamente specializzati.

Ciao!

raptus
21-06-2007, 09:06
Penso che AMD ha acquistato ATI (anche) per la convergenza di questo settore.
Torrenza ed Hypertransport è senz'altro all'avanguardia. Forse non specializzata come la soluzione qui illustrata, ma per soluzioni più "domestiche" e meno specializzate di quelle proposte. Insomma io ci vedo delle applicazioni per ll'HD (alle porte .. anzi già qui!) quando per comprimere filmati in alta risoluzione le cpu attuali faranno fatica, e moduli TESLA esterni non sono applicabili (.., arrivano anche le videocamere ad alta definizione!).

NeoLeo19
21-06-2007, 09:11
ERA ORA...io ho sempre pensato che le gpu fossero destinate a surclassare le cpu...ma nn pensavo che succedesse così presto!...il presente diventerà passato in men che nn si dica...commercio a parte ovviamente...speriamo solo che nn siano obbligatorie le rate per una bomba di quelle:rolleyes: :rolleyes: :rolleyes:

mDsk
21-06-2007, 09:40
ERA ORA...io ho sempre pensato che le gpu fossero destinate a surclassare le cpu...ma nn pensavo che succedesse così presto!...il presente diventerà passato in men che nn si dica...commercio a parte ovviamente...speriamo solo che nn siano obbligatorie le rate per una bomba di quelle:rolleyes: :rolleyes: :rolleyes:

se per surclassare intendi rimpiazzare io penso proprio di no... come detto nell'articolo alcuni calcoli le gpu sono incapaci difarli, gpu e cpu lavoreranno insieme sempre magari meglio con una soluzione tipo fusion di amd dove gpu e cpu saranno integrate nello stesso pacage... figo...

tipo in un pacage 4 core cpu e 8 gpu collegate fra loro via ht mamma mia... :eek: il futuro non richiederà schede video separate...

.Kougaiji.
21-06-2007, 09:41
Interessante.Sicuramente sarà il futuro la GPGPU.

Rubberick
21-06-2007, 09:46
Ottimo articolo, molto interessante... io all'inzio quando ho visto quei rack ho detto: mado' ma che devono renderizzare opengl su un 2000pollici? :D

Dix 3
21-06-2007, 09:46
comunque interessante anche la ps3 che da sola fa registrare più della meta dei tflop totali..
Non male

NeoLeo19
21-06-2007, 09:55
se per surclassare intendi rimpiazzare io penso proprio di no... come detto nell'articolo alcuni calcoli le gpu sono incapaci difarli, gpu e cpu lavoreranno insieme sempre magari meglio con una soluzione tipo fusion di amd dove gpu e cpu saranno integrate nello stesso pacage... figo...

tipo in un pacage 4 core cpu e 8 gpu collegate fra loro via ht mamma mia... :eek: il futuro non richiederà schede video separate...

ovvio...volevo intendere che ormai una gpu (secondo la mia ignoranza) è tecnicamente molto avanti...e non credo che intel fallirà:D...forse un giorno ci saranno chip supermulticore multiTUTTO:mbe: ...:cool: ...:D

mDsk
21-06-2007, 10:03
ovvio...volevo intendere che ormai una gpu (secondo la mia ignoranza) è tecnicamente molto avanti...e non credo che intel fallirà:D...forse un giorno ci saranno chip supermulticore multiTUTTO:mbe: ...:cool: ...:D

io penso un altra cosa ma prima o poi si fermeranno?
ci sarà un limite a tutta sta tcnologia?
voglio dire ad un certo punto si fermano o si stufano e ricominciano ad utilizzare il pallottoliere carta e penna per poi ricominciare da capo o no?

la cosa del fotorealismo mica mi garba tanto.!. lasciando a parte il fattore scientifico di cui parla l'articolo i giochi fotorealistici intendo... saranno divertenti? mi sa che a quei tempi mi guarderò un film no?

scusate... una parentesi forse demenziale!!!

massidifi
21-06-2007, 10:35
Secondo me molte persone fanno ancora un po di confusione:
Le CPU di intel e AMD non sono tecnologicamente inferiori alle GPU di ATI e nVidia... sono semplicemte differenti create per eseguire calcoli completamente differenti...
... e come paragonare un motore a benzina e uno diesel... siccome il motore benzina eroga piu cavalli questo non significa che il motore diesel sia inferiore a livello tecnologico...

E cmq come detto anche nell'articolo le gpu non sostituiranno mai le cpu perche incapaci di eseguire detrminati calcoli che invece le cpu eseguono egregiamente...

akfhalfhadsòkadjasdasd
21-06-2007, 11:13
ovvio...volevo intendere che ormai una gpu (secondo la mia ignoranza) è tecnicamente molto avanti...e non credo che intel fallirà:D...forse un giorno ci saranno chip supermulticore multiTUTTO:mbe: ...:cool: ...:Dgpu e cpu sono ambedue processori, la gpu è progettata per fare velocemente un certo tipo di calcolo. Il concetto progettuale di una cpu (i nostri amd e intel) è fare da elaboratore centrale, ed per l'appunto la "central processing unit", normalmente la troviamo general purpose, perchè è vantaggioso che sappia fare tutto abbastanza velocemente.

Una gp-gpu o gpu di oggi non sarebbe più da chiamarsi tale se saprebbe anche fare meglio tutto ciò che oggi fa bene una cpu.

in folding at home la ps3 se la sta cavando bene per la sua cpu: CELL (s non erro...) che è una cpu costituita da un controllo a processore general purpose e sotto componenti DSP che sono processori non general purpose, ma assai più veloci ad esempio nel rendering.
attualmente io vedo con favore una arichitettura alla CELL nelle nostre cpu di casa: un misto tra general purpose e processori specializzati

Mercuri0
21-06-2007, 11:28
comunque interessante anche la ps3 che da sola fa registrare più della meta dei tflop totali..
Per forza, per cos'altro vuoi che la usino quelli che la comprano? :sofico:

Invece, "normalizzando" i valori a sistema:

Playstation3: 0,018073585 TFLOPS
ATI Radeon: 0,059178744 TFLOPS

La Radeon ha prestazioni circa di 3x rispetto al Cell, con folding.
(il Cell forse è più general purpose?)

L'idea di AMD è quella di integrare "core" da GPU nella CPU in maniera progressiva, in modo da favorire la transizione per i programmatori: all'inizio Fusion sarà per gli ultraportatili con poche pretese grafiche, poi, il suo core "GPU" verrà usato per far conti, fino ad arrivare a pensare a una CPUGPU come un'architettura x86... + shader ^^

Cell è una idea elegante... ma non è x86. Forse all'epoca del suo concepimento non si pensava che si sarebbe andati sul "multicore spinto"

Forse si profilerà un Cell vs Fusion anche nei settori fuori dal PC, per cui il Cell era stato pensato.
Il guaio è che li produrrà entrambi IBM.

Spero che AMD non fallisca prima.

akfhalfhadsòkadjasdasd
21-06-2007, 12:05
Per forza, per cos'altro vuoi che la usino quelli che la comprano? :sofico:

Invece, "normalizzando" i valori a sistema:

Playstation3: 0,018073585 TFLOPS
ATI Radeon: 0,059178744 TFLOPS

La Radeon ha prestazioni circa di 3x rispetto al Cell, con folding.
(il Cell forse è più general purpose?)

io non sono ne consolaro ne sonaro... ma un CELL a 599 euro... beh yummmmy!! :p

cmq un CELL è ovviamente più general purpose di una gpu °___°


L'idea di AMD è quella di integrare "core" da GPU nella CPU in maniera progressiva, in modo da favorire la transizione per i programmatori: all'inizio Fusion sarà per gli ultraportatili con poche pretese grafiche, poi, il suo core "GPU" verrà usato per far conti, fino ad arrivare a pensare a una CPUGPU come un'architettura x86... + shader ^^

Cell è una idea elegante... ma non è x86. Forse all'epoca del suo concepimento non si pensava che si sarebbe andati sul "multicore spinto"

Forse si profilerà un Cell vs Fusion anche nei settori fuori dal PC, per cui il Cell era stato pensato.
Il guaio è che li produrrà entrambi IBM.

Spero che AMD non fallisca prima.intanto su Cell c'è linux :O
cosa buona e giusta poi per poter usufruire di vecchio software basato su x86 penso che sarà sufficiente una macchina virtuale se l'hw di sotto sarà sufficientemente potente, altrimenti riscriviamo tutto... più lavoro per noi :Prrr:

fusion o cell? il primo come dici tu lo vedo bene all'insegna di una maggiore efficienza sia di calcolo che di consumi per ambito home... il secondo lo vedo molto più un lavoratore da blade server... come effettivamente sta facendo ibm. ora come ora non saprei se entrano in combutta.

piùttosto chi pensi che la spunta in relazione al supporto per lo sviluppo di applicazioni gp-gpu tra ati nvidia e intel? a livello di set istruzioni dovrebbero essere tutti incompatibili tra di loro

Cottonbit
21-06-2007, 12:33
Splendido articolo. Per le simulazioni complesse risparmio del 1500% sugli ETA e risparmione galattico sui costi di laboratorio. Senza parlare della multiscalarità delle soluzioni, che permetterà alle università di comprare a moduli, risparmiando ancora di più.
Era ora.

biffuz
21-06-2007, 12:37
Ma non pensate solo all'ambito scientifico: ricordatevi che grafica e video in generale usano lo stesso tipo di calcoli (infatti di schede video stiamo parlando).
OSX ad esempio ha le librerie Core Image che sfruttano la GPU per queste elaborazioni.

blackshard
21-06-2007, 13:53
A parte che mi meraviglio che nessun abbia notato prima che il primo e il terzo capoverso delle conclusioni sono abbastanza uguali :D

E comunque fa cadere le braccia leggere sempre gli stessi commenti di chi non ha capito proprio niente di questo approccio e continua a dire che le GPU sono più potenti delle CPU, e bla bla bla. A tutti questi consiglio di andare a rileggersi (o magari a leggersi per la prima volta...) l'articolo perché nella prima pagina vengono spiegate le differenze fra CPU e GPU, anche corredate da un bell'esempio avionico a prova di utonto.

Ad ogni modo mi sono sorti alcuni dubbi: se G80 ha tutta questa potenza, come mai non esiste il client per Folding@Home per nVidia? Io ricordo che ai tempi la motivazione ufficiale riguardava le prestazioni non all'altezza delle GPU ATi. E questo è il primo dubbio.
Il secondo dubbio, più che altro una considerazione, riguarda le prestazioni. Nel primo paragrafo di pagina 2 si parla delle soluzione con due schede Tesla C870 che raggiungono 1 GigaFLOP, mentre a pagina 5 G80 è posizionato da nVidia a livello di 300 GigaFLOP... e son tantini!

El Bombastico
21-06-2007, 13:54
ve lo immaginate un supercomputer tipo BlueGene con a posto dei processori IBM questi mostri qui? consumi enormi ma Petaflops a volontà! (e magari la notte i ricercatori ci giocano a Crysis :-D )

demon77
21-06-2007, 14:07
La potenza delle gpu è ben nota.. il problema è che la sfruttano solo alcuni specifici programmi progettati per un determinato tipo di GPU.

Questo è davvero uno spreco pazzesco.. potentissime gpu gia saldamente alloggiate nei nostri pc che non fanno NULLA tranne quando si gioca..

La ver svolta è una sola: il supporto nativo della gpu a livello di sistema operativo!
Un insieme di librerie standard comuni a tutti sulle quali basarsi per sfruttare attivamente la GPU in qualsiasi applicazione!

Potremmo chiamarle DIRECTX 11 !! :D

Poi sai che svolta di prestazioni? Ogni volta che scattano i calcoli "pesanti" la GPU fa il lavoro e la cpu coordina e si occupa del resto.. anche un pc entry level potrebbe gestire adeguatamente pesanti conversioni video!

songoge
21-06-2007, 14:12
Bell'articolo. Strano che si stia iniziando solo adesso ad utilizzare le GPU per calcoli scientifici. Comunque per il futuro io vedo meglio la soluzione Fusion di AMD. La GPGPU ha sempre bisogno di una CPU per fare le sue elaborazioni, quindi si perde un casino di tempo per far arrivare i dati tramite PCI-ex2 alle GPGPU. In Fusion il problema non si pone, perchè i due saranno uniti insieme nello stesso zoccolo.
Inoltre per previsioni ancora più future si parla di Unità specializzate. Magari avremo CPU, GPU, Physic e IA tutto insieme. Un mostro!

Paolo Corsini
21-06-2007, 14:12
A parte che mi meraviglio che nessun abbia notato prima che il primo e il terzo capoverso delle conclusioni sono abbastanza uguali :D

Sistemato adesso, mi è rimasta una parte in un copia e incolla ieri sera in fase di rilettura

Mercuri0
21-06-2007, 14:28
io non sono ne consolaro ne sonaro... ma un CELL a 599 euro... beh yummmmy!! :p
intanto su Cell c'è linux :O

Anche per x86. :D E le applicazioni di calcolo intensivo non ce le fai girare su un'altra architettura virtualizzata

più lavoro per noi :Prrr:

Ah, informatico (brutta razza*) ;) lavoro ne avrete comunque a parallelizzare per più core. In bocca al lupo. :D
Forse anzi le GPGPU vi vengono incontro, ho il sospetto che sia più facile programmare uno stream processor che 20 CPU in parallelo...

fusion o cell? il primo come dici tu lo vedo bene all'insegna di una maggiore efficienza sia di calcolo che di consumi per ambito home...

Quoto, ma questo era anche lo scopo di Cell. In effetti mi riferivo sopratutto a questo.

il secondo lo vedo molto più un lavoratore da blade server... come effettivamente sta facendo ibm. ora come ora non saprei se entrano in combutta.

Però alcuni degli ultimi supercomputer di IBM usano un pòpò di Opteron in tantem con un pòpò di Cell. Non fa venire il sospetto che un pòpò di Opteron più un pòpò di "GPU" sia più efficiente? (anche se a quel livello magari contano anche tanto le "connessioni")

Insomma, secondo me il Cell vs Fusion è leggittimo
(anche se per "fusion" intendo l'idea più che il primo Fusion vero)


piùttosto chi pensi che la spunta in relazione al supporto per lo sviluppo di applicazioni gp-gpu tra ati nvidia e intel? a livello di set istruzioni dovrebbero essere tutti incompatibili tra di loro
Di set di istruzioni GPU non ne capisco un tubo. Comunque il fatto che i giochi (e i loro shader) girino su varie schede grafiche è incoraggiante.

Inoltre (da quel che so) AMD rende disponibile una libreria di funzioni ad alto livello per i calcoli su GPGPU. Trovo molto possibile che più che sulle "istruzioni" ci si baserà su librerie di questo tipo, e in questo senso va letta la recente apertura all'OpenSource di AMD.
Tutti hanno pensato: driver OpenSource! Invece mi sa che è: "Ehi raga ci giocate un pò con gli stream processor così poi noi ci troviamo librerie superottimizzate per il calcolo e voi know-how sui nostri prodotti?".

E' ovvio che Linux da questo punto di vista è una piattaforma importante, quindi immagino che Intel e nVidia seguiranno presto.

Solo che nVidia non ha anche una CPU nel portfolio...


p.s. su arstechnica c'era un bell'articolo sulla radeon 2900 anche in questa prospettiva.

*più avanti si va, più gli elettronici si fanno il :ciapet: e gli informatici godono e sprecano :cry:

Paolo Corsini
21-06-2007, 14:29
Bell'articolo. Strano che si stia iniziando solo adesso ad utilizzare le GPU per calcoli scientifici. Comunque per il futuro io vedo meglio la soluzione Fusion di AMD. La GPGPU ha sempre bisogno di una CPU per fare le sue elaborazioni, quindi si perde un casino di tempo per far arrivare i dati tramite PCI-ex2 alle GPGPU. In Fusion il problema non si pone, perchè i due saranno uniti insieme nello stesso zoccolo.
Fusion è chiaramente orientato a sistemi integrati di basso costo; unire CPU di fascia alta e GPU di fascia alta in un unico Die, a prescindere da problemi di rese produttivi, sarebbe tecnologicamente troppo. AMD in più occasioni ha rimarcato come Fusion sia orientato a quel genere di mercato, e continuerà a sviluppare GPU discrete.

blackshard
21-06-2007, 15:49
Fusion è chiaramente orientato a sistemi integrati di basso costo; unire CPU di fascia alta e GPU di fascia alta in un unico Die, a prescindere da problemi di rese produttivi, sarebbe tecnologicamente troppo. AMD in più occasioni ha rimarcato come Fusion sia orientato a quel genere di mercato, e continuerà a sviluppare GPU discrete.

Già. Forse sarebbe più corretto pensare a torrenza dove queste soluzioni potrebbero essere rappresentate da coprocessori.

GiacoXp
21-06-2007, 16:29
una cosa non riesco a capire ... come fa il sistema di elaborazione a collegarsi alla pci express ?

gabi.2437
21-06-2007, 17:16
Bell'articolo

Le schede video dispongono di una potenza incredibile, va sfruttata, per ora ben poche cose lo fanno, vedi [email protected] 1 sola scheda video tira come 50 processori o 3 PS3...

akfhalfhadsòkadjasdasd
21-06-2007, 17:26
Anche per x86. guasta feste!!!!


E le applicazioni di calcolo intensivo non ce le fai girare su un'altra architettura virtualizzata
come dici tu operazioni di calcolo intensivo ovviamente non sono tanto gestibili, meglio soluzioni ad hoc, ma il parco di applicativi che è capace di girare bene su una macchina virtuale è enorme. Se poi uno vuole far girare Crysis su una macchina emulata... :sofico:


Ah, informatico (brutta razza*) ;) lavoro ne avrete comunque a parallelizzare per più core. In bocca al lupo. :D
Forse anzi le GPGPU vi vengono incontro, ho il sospetto che sia più facile programmare uno stream processor che 20 CPU in parallelo...
infatti non tutte le problematiche, per come sono formulate, si prestano ad essere parallellizzata come se fosse una cosa naturale. Ci sono società attive a ricerca pattern di progettazione per sfruttare processori multicore. io ancora ne so poco e nulla -___-


Però alcuni degli ultimi supercomputer di IBM usano un pòpò di Opteron in tantem con un pòpò di Cell. Non fa venire il sospetto che un pòpò di Opteron più un pòpò di "GPU" sia più efficiente? (anche se a quel livello magari contano anche tanto le "connessioni")
avranno fatto i loro benchmark teorici, fatti due conti con i costi e le proprie possibilità produttive e hanno configurato la loro macchina all'insegna del miglior profitto... e in ultimo alla IBM ora hanno CELL da impiegare e non gpu o gpgpu :Prrr: . in futuro le cose possono sempre cambiare.



p.s. su arstechnica c'era un bell'articolo sulla radeon 2900 anche in questa prospettiva.

*più avanti si va, più gli elettronici si fanno il :ciapet: e gli informatici godono e sprecano :cry:
Limitandoci in ambito videogiochi la 2900xt ha 700 milioni di transistor all'attivo... posso capire il disappunto dovuto al fatto che i giochi attuali non li facciano lavorare al 100% delle loro possibilità. Il problema più grande, imho, è questo: sviluppare giochi è diventato man mano sempre più costoso. I giochi di oggi sono ricchissimi di contenuti e hanno tanto lavoro di design grafico, scripting e programmazione. In più ottimizzare e testare bene costa risorse: tempo e denaro in più.

D'altra parte però ci sono anche esempi molto positivi: emblematico l'esempio della ps2 con God of War 2: un team di sviluppo software e design grafico perfettamente consci come sfruttare al meglio le risorse della console in questione. consiglio a tutti che mi stanno leggendo di vedere il trailer di suddetto gioco... c'è solo da inginocchiarsi. poi vedetevi le carattristiche tecniche della ps2 su wikipedia e non ci crederete quanto "poco" basta ;)

gabi.2437
21-06-2007, 17:37
la 2900xt su folding@home SBAAAAAAAAAAAAAAAAAAAAAAAAV

blackshard
21-06-2007, 17:46
D'altra parte però ci sono anche esempi molto positivi: emblematico l'esempio della ps2 con God of War 2: un team di sviluppo software e design grafico perfettamente consci come sfruttare al meglio le risorse della console in questione. consiglio a tutti che mi stanno leggendo di vedere il trailer di suddetto gioco... c'è solo da inginocchiarsi. poi vedetevi le carattristiche tecniche della ps2 su wikipedia e non ci crederete quanto "poco" basta ;)

Al termine del loro ciclo di vita le console danno i risultati migliori. Probabilmente perché si sono affinate le tecniche di programmazione su quella particolare architettura e si riesce a trarre quasi tutto dall'hardware disponibile.

djbill
21-06-2007, 18:01
Non ho capito se queste schede si assorbono automaticamente tutti i calcoli a virgola mobile oppure servono applicazioni a posta per questo? Esempio concreto boinc e render con 3ds studio max 9 in vray vanno più veloci o questi software necessitano di modifiche particolari?

RunAway
21-06-2007, 19:29
Articolo molto interessante, mi chiedo se in futuro nvidia e intel potrebbero decidere di fare una sorta di joint venture per integrare cpu e gpu in un unico chip, migliorando così consumi, prestazioni ed eliminando la necessità di affiancare un pc di controllo ogni due gpu, con risparmio anche nei costi.

firestormrudy
21-06-2007, 21:00
fikkooo cmq mi comlimento per la novità e per l'approfondimento dell'articolo.. non è una solita recensione ma qualcosa di huovo! compliments!

*Pegasus-DVD*
21-06-2007, 21:24
non è che qualcuno mi puo fare un riassunto ? :stordita:

gabi.2437
21-06-2007, 23:22
Non ho capito se queste schede si assorbono automaticamente tutti i calcoli a virgola mobile oppure servono applicazioni a posta per questo? Esempio concreto boinc e render con 3ds studio max 9 in vray vanno più veloci o questi software necessitano di modifiche particolari?

Nulla di automatico al momento

Per ora va tutto su CPU e bon, certi progetti inoltre hanno client speciali per sfruttare le GPU, come Folding@Home, oltre al client normale che usa la CPU, puoi scaricare quello GPU (solo se hai una scheda video compatibile però)

E' consigliato far andar sia quello CPU che quello GPU (quest'ultimo usa una frazione piccola della CPU, sul 6-7% con Vista (grazie DirectX 10), su XP invece, causa DX 9, ne usa di più) quindi conviene usarli entrambi oppure come faccio io client GPU e BOINC per partecipar ad altri progetti.

Su BOINC al momento 0 progetti che supportano la GPU in futuro chissà...

homero
22-06-2007, 10:30
sfatiamo il mito di questo GPU i calcoli sono a singola precisione ed inoltre gli error check sono molto molto molto meno affidabili....

3dmax e vray lavorano in doppia precisione a 80bit... quindi niente da fare...
esistono dei render engine di nvidia dal nome di GELATO che accellare le produzioni di fascia bassa in 3d ma penso che sia molto poco sfruttato....

penso che nessuno ad oggi possa improntare un motore di calcolo con questi sistemi, se non casi molto particolari.....e spesso progettati piu' per impatto pubblicitario che per altro....

djbill
22-06-2007, 10:37
sfatiamo il mito di questo GPU i calcoli sono a singola precisione ed inoltre gli error check sono molto molto molto meno affidabili....

3dmax e vray lavorano in doppia precisione a 80bit... quindi niente da fare...
esistono dei render engine di nvidia dal nome di GELATO che accellare le produzioni di fascia bassa in 3d ma penso che sia molto poco sfruttato...

Azz... Solo calcoli in SGL? Ma questa scheda ha 518 GFlops che se non erro sono Floating Point Operations Per Second che indicano il numero di operazioni in virgola mobile eseguite in un secondo...

E non esiste una shceda in grado di velocizzare rendering e calcolo scentifico in modo automatico?

gabi.2437
22-06-2007, 13:49
E non esiste una shceda in grado di velocizzare rendering e calcolo scentifico in modo automatico?
Si, si chiama CPU :asd:

pierluigi86
27-06-2007, 21:14
ve lo immaginate un supercomputer tipo BlueGene con a posto dei processori IBM questi mostri qui? consumi enormi ma Petaflops a volontà! (e magari la notte i ricercatori ci giocano a Crysis :-D )

non hanno le uscite video

djbill
27-06-2007, 21:17
Si, si chiama CPU :asd:

si ma una CPU ti fa al massimo 5 Gigaflops...

Fede87
26-10-2007, 14:30
ragazzi ho un problema.Ho finito una wus da 1500 o non so come si chiami in Folding Home ma terminata mi da uno strano errore(core download error(1-2-3-4-5 e via di seguito), waiting for retry.Poi il programma riprova ma non cambia niente.Cosa devo fare?

non so se e questa la sezione giusta pero

Nessuno '85
26-06-2008, 21:51
bello cuda, bello ciò che dovrebbe fare, bene alla sostanza quali programmi sfruttano CUDA? non so 3d studio per farlo renderizzare usando i driver cuda e una 8800 come si fa? A me servirebbe proprio