View Full Version : 680 GPU NVIDIA Tesla in un supercomputer giapponese
Redazione di Hardware Upg
19-11-2008, 11:00
Link alla notizia: http://www.hwupgrade.it/news/business/680-gpu-nvidia-tesla-in-un-supercomputer-giapponese_27220.html
NVIDIA annuncia una partnership con il Tokyo Institute of Technology (Tokyo Tech): 170 sistemi Rack Tesla operano ora nel supercomputer TSUBAME
Click sul link per visualizzare la notizia.
Evangelion01
19-11-2008, 11:04
Ecco, con questa configurazione forse crysis ce la fa a girare a palla.... :asd:
amagriva
19-11-2008, 11:14
Inesorabile è arrivato il commento su Crysis...
Pazzesco! Chissà se è sempre la stessa persona?
Magari c'ha un alert e un motore di ricerca impostato ad hoc!
daboss87
19-11-2008, 11:19
E allora lo scrivo anche io "magari forse crysis ora non va a scatti"
TIE', così impari!! XD
Pazzesco, sembra ieri che la nVidia ha detto "Mammamia, che bestie 'ste nostre scheduccie. Proviamo a tirar fuori il GPGPU".
Ecco qua, senza neanche accorgersene, Tesla a destra e a manca, con estensioni per il GPGPU in arrivo anche sulle prossime DX, e tutti a parlare dei teraflop di geForce e Radeon.
E tuuto questo soltanto perche' una decina di anni fa qualcuno voleva giochetti piu' carini (ah, che nostalgia al pensiero delle prime 3dfx e matrox che si facevano la guerra con 4 o 8 megabytes e alcune migliaia di poligoni gridando 'io c'ho lo z-buffer e il multitexturing!!').
Insomma, e' strano pensare che construiscono supercomputer con l'hardware pensato per i videogiochi degli smanettoni. Anche il Cell rientra in un certo senso nella categoria...
allora forse ci gira anche fsx con i dettagli al massimo. :asd: ma sinceramente ne dubito anche perchè è molto più pesante di crysis...
sarebbe carino se si potessero avere un po' di info in più su come vengono usati questi supercomputer, cosa gli viene fatto calcolare. anche solo indicativamente..
Wilfrick
19-11-2008, 11:41
Qualche conto non mi torna:
riferendomi ad una notizia di ieri, si diceva che un sistema tesla formato da 4 schede arriva fino ad un massimo teorico di 4 tflop.
I sistemi montati qui sono 170 (680 gpu, 4 in ogni sistema, quindi 170), ma i tflop "aumentati" in questo computer sono "solo" 170... c'è qualcosa che non va. Se i teorici di ogni sistema sono 4, ogni scheda quindi ne dovrebbe fare 1, pertanto 680 in più. Perchè solo 170? Mi sfugge qualcosa?
Manuel333
19-11-2008, 11:41
gli viene fatto calcolare il Pgreco :sofico:
L'utilizzo delle moderne GPU incrementera notevolmente le capacità di calcolo dei normali pc comprese la codifica-decodifica di tutti i flussi audio-video.
gli viene fatto calcolare il Pgreco :sofico:
Tutto 'sto casino per tirare fuori 3,14??? :ciapet:
Un sistema del genere è molto adatto alla simulazione di grossi sistemi dinamici, magari per le simulazioni di fisica ed ingegneria.... Come ad esempio lo studio dei terremoti e dei loro effetti sulle case, oppure lo studio dei materiali e delle loro reazioni in situazioni critiche...
Stargazer
19-11-2008, 12:06
E tuuto questo soltanto perche' una decina di anni fa qualcuno voleva giochetti piu' carini (ah, che nostalgia al pensiero delle prime 3dfx e matrox che si facevano la guerra con 4 o 8 megabytes e alcune migliaia di poligoni gridando 'io c'ho lo z-buffer e il multitexturing!!').
e che funzionavano benone, però non ci si accontenta e si vuole la grafica che supera la realtà talmente perfetta che è squisitamente falso :D
Insomma, e' strano pensare che construiscono supercomputer con l'hardware pensato per i videogiochi degli smanettoni. Anche il Cell rientra in un certo senso nella categoria...
Non più di tanto; quando un qualcosa del mondo professionale militare o meglio scientifico raggiunge la sua obsolescenza è il momento che sfocia pian piano alla massa.
Poi come tutti i prodotti che si parli bene o che si parli male l'importante è parlarne
http://www.gsic.titech.ac.jp/
fanno pure visiste guidate apposta per racimolare qualcosa evidentemente :D
GLaMacchina
19-11-2008, 12:26
Tutto 'sto casino per tirare fuori 3,14???
Il 3.14 non è solo un 3.14 sono infiniti numeriXD
METATHRON
19-11-2008, 12:32
mentre noi sonnecchiamo , piano piano.........
:-)
Tanto a salvarci c'e' John Titor... volevo dire Connor...
se le schede video della nvidia acquistano l'autocoscienza vivremo nel paese dei balocchi...
Vorrei sapere la cabina elettrica che c'e' a disposizione per quell'instituto su che grandezza di misura si basa.
Paganetor
19-11-2008, 13:34
mi piacerebbe un approfondimento sui centri di calcolo di questo tipo... più che altro dal lato di "preparazione" del materiale che questi mostri devono elaborare (possibilmente senza troppi tecnicismi, restate sul divulgativo :D ) e sull'output che generano...
perchè sapere che tot GPU elaborano tot Tflops è interessante, ma non rende bene l'idea del lavoro che c'è dietro... la preparazione del programma (o della simulazione) da dare in pasto a queste macchine, quello che ne esce, le implicazioni che hanno ecc.
Immagino non sia semplice avere accesso a questo tipo di informazioni e dettagli, però come articolo "di colore" sarebbe interessante! ;)
Vorrei sapere la cabina elettrica che c'e' a disposizione per quell'instituto su che grandezza di misura si basa.
diciamo che il consumo di questie bestiole si misura in megawatt
Tutto 'sto casino per tirare fuori 3,14???
Il 3.14 non è solo un 3.14 sono infiniti numeriXD
Vabbè che ho fatto il classico, ma era una battuta dai... :muro:
Che vuol dire XD? :mbe:
Ciauz!
sniperspa
19-11-2008, 13:40
Inesorabile è arrivato il commento su Crysis...
Pazzesco! Chissà se è sempre la stessa persona?
Magari c'ha un alert e un motore di ricerca impostato ad hoc!
Oltretutto sono sempre stra i primi commenti e molto spesso proprio il primo!
Sarà che presi dall'ansia di scrivere il primo post scrivono la prima cosa che gli viene in mente!:sofico:
... siamo giunti nell'era del "Deus ex nVidia". :sofico:
mi piacerebbe un approfondimento sui centri di calcolo di questo tipo... più che altro dal lato di "preparazione" del materiale che questi mostri devono elaborare (possibilmente senza troppi tecnicismi, restate sul divulgativo :D ) e sull'output che generano...
perchè sapere che tot GPU elaborano tot Tflops è interessante, ma non rende bene l'idea del lavoro che c'è dietro... la preparazione del programma (o della simulazione) da dare in pasto a queste macchine, quello che ne esce, le implicazioni che hanno ecc.
Immagino non sia semplice avere accesso a questo tipo di informazioni e dettagli, però come articolo "di colore" sarebbe interessante! ;)
guarda il 99% delle macchine di questo tipo lavora on demand:
Esiste un nodo principale a cui tutte le persone autorizzate possono accedere, su questo nodo carichi il sorgente che hai scritto, lo compili (per ottimizzarlo sulla macchina) ed infine ti prenoti un tot di nodi, e fai girare la tua applicazione sugli N nodi...
Questo perchè cosi tutti i professori e gli studenti vogliono usare la macchina, la potenza in realtà non serve per far girare programmi giganti, ma per far girare tanti programmi pesanti.
E per pesante intendo applicazioni che vanno dalle decine di minuti sul singolo nodo, ad applicazioni che richiedono giorni su 32.000 processori...
Qualche conto non mi torna:
riferendomi ad una notizia di ieri, si diceva che un sistema tesla formato da 4 schede arriva fino ad un massimo teorico di 4 tflop.
I sistemi montati qui sono 170 (680 gpu, 4 in ogni sistema, quindi 170), ma i tflop "aumentati" in questo computer sono "solo" 170... c'è qualcosa che non va. Se i teorici di ogni sistema sono 4, ogni scheda quindi ne dovrebbe fare 1, pertanto 680 in più. Perchè solo 170? Mi sfugge qualcosa?
precisazione: la potenza non è aumentata di 170...quella è quella teorica totale.
L'aumentato è stato di arrivare a 168 partendo da quasi 110 del giugno 2008, quingi 58 TFlops teorici.
Mentre secondo il benchmark si è passati da 67.7 a 77.5...poco meno di 10TFlops di guadagno.
Il resto della potenza viene speso in gestione e comunicazione del sistema.
Beh, so cha alcuni supercomputer vengono (o venivano) utilizzati per simulare esplosioni nucleari, e li credo che di calcoli da fare ce ne siano parecchi. Di recente ho letto un articolo riguardo alla enorme mole di dati da elaborare che ci si aspetta dai nuovi esperimenti del CERN.
In altri contesti meno seriosi, potenti cluster vengono usati per il rendering dei film della pixar o gli effetti speciali dei film.
Ancora le case farmaceutiche per l'analisi, o i centri di ricerca per i dati astonomici. L'elenco e' potenzialmente infinito.
SwatMaster
19-11-2008, 15:42
Chissà quanti dindini s'è portata a casa, nVidia, per questo "giocattolino"... Senza contare la pubblicità.:rolleyes:
yossarian
19-11-2008, 16:12
Qualche conto non mi torna:
riferendomi ad una notizia di ieri, si diceva che un sistema tesla formato da 4 schede arriva fino ad un massimo teorico di 4 tflop.
I sistemi montati qui sono 170 (680 gpu, 4 in ogni sistema, quindi 170), ma i tflop "aumentati" in questo computer sono "solo" 170... c'è qualcosa che non va. Se i teorici di ogni sistema sono 4, ogni scheda quindi ne dovrebbe fare 1, pertanto 680 in più. Perchè solo 170? Mi sfugge qualcosa?
precisazione: la potenza non è aumentata di 170...quella è quella teorica totale.
L'aumentato è stato di arrivare a 168 partendo da quasi 110 del giugno 2008, quingi 58 TFlops teorici.
Mentre secondo il benchmark si è passati da 67.7 a 77.5...poco meno di 10TFlops di guadagno.
Il resto della potenza viene speso in gestione e comunicazione del sistema.
si tratta di fp64, quindi sono poco più di 54 Tflops teoriche (quindi le circa 58, approssimate per eccesso, di cui parla lepre84). Questi bench si fanno sulla potenza di calcolo in fp64, motivo per cui, le soluzioni proposte sono quelle che fanno uso di GT200 e non di G8x/G9x
si tratta di fp64, quindi sono poco più di 54 Tflops teoriche (quindi le circa 58, approssimate per eccesso, di cui parla lepre84). Questi bench si fanno sulla potenza di calcolo in fp64, motivo per cui, le soluzioni proposte sono quelle che fanno uso di GT200 e non di G8x/G9x
Più precisamente, dato che S1070 opera in un range compreso tra 1.296 e 1.44 GHz a seconda di come sono configurate, in fp64 si ha una potenza di calcolo teorica tra 52.87 e 58.65 TFlops
Pier2204
19-11-2008, 19:52
SKYNET SI AVVICINA mentre noi sonnecchiamo , piano piano.........
:-)
Non abbiamo ancora SKYNET ma abbiamo SKY, Rubert Murdoch s'è comprato
e sta comprando i media di mezzo mondo, NON SO CHI E' PEGGIO :help:
Pier2204
19-11-2008, 19:56
[QUOTE=cignox1;25082539]Beh, so cha alcuni supercomputer vengono (o venivano) utilizzati per simulare esplosioni nucleari, e li credo che di calcoli da fare ce ne siano parecchi. QUOTE]
Beh.. una Bomba H da 100 Megatoni da sempre lo stesso risultato...
nel raggio di 30 KM tutto viene Polverizzato ed evaporato..
Calcolo a spanne.. :D
Chiancheri
19-11-2008, 20:42
mi chiedo se utilizzare GPGPU è conveniente anche in termini di consumi elettrici. Ma quali sono i tipi di calcolo che una GPGPU fa "meglio" (o più in fretta) di una cpu?
mi chiedo se utilizzare GPGPU è conveniente anche in termini di consumi elettrici. Ma quali sono i tipi di calcolo che una GPGPU fa "meglio" (o più in fretta) di una cpu?
Conviene, e TANTO, per tempo, consumo, costo.
Le GPU sono la soluzione per tutte quelle applicazioni particolarmente esose in termini di capacità di calcolo.
Qui sotto una lista di applicazioni che si avvantaggiano dell'esecuzione via GPU
Lista (http://www.nvidia.it/object/cuda_home_it.html#state=detailsOpen;aid=e4ad4db9-af51-4c58-a3aa-b20ea097ae3e)
x.vegeth.x
20-11-2008, 20:57
lo vogliooooooooo sarbbe incredibile vedere crysis che gira coi filtri a palla a 60 fps fissi :D
ma tanto non ci riesce lostesso :rolleyes:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.