PDA

View Full Version : Ancora Apple per un nuovo supercomputer


Redazione di Hardware Upg
22-06-2004, 17:09
Link alla notizia: http://news.hwupgrade.it/12664.html

Le Forze Armate statunitensi avviano il progetto di costruzione di un nuovo supercomupter costituito da 1566 sistemi Xserve G5

Click sul link per visualizzare la notizia.

Cemb
22-06-2004, 17:15
"elevato rapporto prezzo prestazioni" nel senso che costano un macello per quanto vanno? ;) Sicuramente è una svista, a me i mac piacciono molto benchè per ora non possa permettermeli.. Ma davvero MacOSX verrà usato come sistema operativo principale? Come fa a gestire il supercomputer? Credevo ci volesse qualche sistema operativo particolare, ottimizzato per bilanciare il carcio tra le varie macchine.. (non so, pensavo alle macchine Beowulf ecc ecc). Byez!

sinadex
22-06-2004, 17:18
:sbav:

Xadhoomx
22-06-2004, 17:24
No la apple da direttamente un programma che ora mi sfugge, che da la possibilità di intefacciarli direttamente per un calcolo unito tra le macchine

atomo37
22-06-2004, 17:24
non sapeve che apple fosse attiva anche in queste nicchie di mercato e soprattutto non avrei mai sospettato che fosse pure così stimata :)

Opteranium
22-06-2004, 17:25
come l' Earth Simulator ??

O non era il Cray X1 da 50 TFlop il più veloce ???

boh

melomanu
22-06-2004, 17:32
già immagino certi post tipo:

" mah..kissà con una X800XT, quanti FPS si faranno a Far Cry..o Doom III "...

:asd: :asd: :fagiano: :ciapet: :sofico: :nono:

Marco71
22-06-2004, 17:40
Appunto il CRAY X1 nella sua configurazione max. può "erogare" oltre 50 Tera-f.l.o.p.s al secondo...
Certe volte mi chiedo se prima di divulgare tali news, vengano o meno verificate nella loro rispondenza alla "realtà"...

Marco.

vincino
22-06-2004, 17:44
con 2 X800XT!

Predator85
22-06-2004, 17:48
http://www.top500.org/list/2004/06/

vale56
22-06-2004, 17:56
Originariamente inviato da Marco71
Appunto il CRAY X1 nella sua configurazione max. può "erogare" oltre 50 Tera-f.l.o.p.s al secondo...
Marco.


Veramente sul sito Ufficiale dei top 500 computer più veloci del mondo (http://www.top500.org/list/2004/06/) è proprio Earth-Simulator con 35 TFlops il più veloce, ma dice anche che "Fra i grandi assenti della nuova TOP500 c'è il "Big Mac" di Virginia Tech, un supercomputer basato sui Power Mac G5 di Apple che, nella scorsa edizione della classifica, si era posizionato terzo con 10,3 Tflop/s. Il motivo dell'assenza, secondo TOP500.org, è dovuto al fatto che la celebre università americana ha temporaneamente spento il sistema per un eseguire un grosso aggiornamento hardware"

:mc:

ShadowX84
22-06-2004, 17:57
Il Cary X1 non è attualmente considerato il più potente super-computer del mondo in quanto ancora "nessuno" lo ha richiesto nella sua forma più completa che, come qualcuno ha già riportato, può raggiungere i 50 TFLOP/Sec.

Quindi fino ad allora non può essere conteggiato nella popolare "Top500".

Qualcuno sa delle richieste energetiche di questo nuovo Super-computer? e anche dell'Earth-Simulator??

Per l'X1 si parla (nella versione completa) di 4 MegaWatt e di un costo di circa 300 milioni di dollari!! notevole eh..;)

Bye bye!! ;)

blackxunah
22-06-2004, 18:13
Scusate ma un pc normale tipo P4 3.2 Giga che potenza ha? quanti ce ne vogliono per fare una potenza di un teraflop?

edivad82
22-06-2004, 18:15
Originariamente inviato da Marco71
Appunto il CRAY X1 nella sua configurazione max. può "erogare" oltre 50 Tera-f.l.o.p.s al secondo...
Certe volte mi chiedo se prima di divulgare tali news, vengano o meno verificate nella loro rispondenza alla "realtà"...

Marco.

Appunto, come hanno già detto, un conto è la possiblità di avere quella configurazione ed un altro è la configurazione esistente, funzionante ed operativa

Certe volte mi chiedo se prima di sparare certe affermazioni vengano o meno verificate nella realtà ;) :D

Facile sparare a zero, no?! :D :D

edivad82
22-06-2004, 18:19
Originariamente inviato da blackxunah
Scusate ma un pc normale tipo P4 3.2 Giga che potenza ha? quanti ce ne vogliono per fare una potenza di un teraflop?
1Teraflops= 10^12 flops (in base 2 sarebbe 2^40, la solita diatriba per gli arrotondamenti in base 10)

flops= floating point operation per seconds, ovvero operazione in virgola mobile al secondo

1Teraflops= 10^12 operazioni in virgola mobile al secondo

ShadowX84
22-06-2004, 18:37
Come ti ha già evidenziato edivad82, un TFLOP sono mille miliardi di operazioni in virgola mobile al secondo.
I "nostri" processori hanno potenze che si attestano intorno ai GFLOP (non ricordo il numero preciso...sorry), quindi un ordine di grandezza in meno!

Berno
22-06-2004, 18:50
Se le previsioni sulla potenza di calcolo fossero esatte significherebbe una potenza di calcolo di ben 4800/8000MFlops per ogni processore...

Il mio xp a 2200Mhz ne fa solo 3500, su cosa sono basate quelle stime?

Lud von Pipper
22-06-2004, 18:57
Originariamente inviato da Marco71
Appunto il CRAY X1 nella sua configurazione max. può "erogare" oltre 50 Tera-f.l.o.p.s al secondo...
Certe volte mi chiedo se prima di divulgare tali news, vengano o meno verificate nella loro rispondenza alla "realtà"...

Marco.

Dovresti chiederti piuttosto se X1 è paragonabile a questo super XServe... :rolleyes:
Earth simulator è invece un computer parallelo analogo, nella progettazione, a questo MACH5, composto cioè da numerosi computer che lavorano in parallelo.

Se il Cray X1 fosse stata la scelta migliore non credo che le forze armate USA si sarebbero fatte troppi problemi di budget.

I teraflop non sono tutto, e quello che può essere molto efficiente in un campo (massima economia della memoria disponibile) potrebbe non essere la scelta migliore in un altro ambito di applicazione, dove magari una serie mastodontica di operazioni ridondanti è l'obbiettivo che ci si pone (fluidodinamica) .

LvP

guyver
22-06-2004, 19:06
a quanto pare il g5 sui calcoli scientifici rulla di brutto
poi che sui giochi sia sotto nessuno lo nega :)

edivad82
22-06-2004, 19:09
Originariamente inviato da Berno
Se le previsioni sulla potenza di calcolo fossero esatte significherebbe una potenza di calcolo di ben 4800/8000MFlops per ogni processore...

Il mio xp a 2200Mhz ne fa solo 3500, su cosa sono basate quelle stime?
dall'architettura del core dipendono ;)

http://www.apple.com/g5processor/executioncore.html

http://www.apple.com/xserve/performance.html

http://www.apple.com/xserve/

guyver
22-06-2004, 19:36
il più potente sc con xeon:
Posizione: 5
Instituto:NCSA
2560 P4 Xeon 3.06Ghz
Rmax 9819
Rpicco 15300

il più potente sc con itanium2:
Posizione: 2
Instituto:Lawrence Livermore National Laboratory
4996 itanium2 1.4Ghz
Rmax 19940
Rpicco 22938

il più potente sc con opteron:
Posizione: 10
Instituto:Shanghai Supercomputer Center
2560 opteron 2.2 Ghz
Rmax 8061
Rpicco 11264

il vecchio bigmac
Instituto:Virginia Tech
2200 core g5 2.0 Ghz
Rmax 10280
Rpicco 17600
cioè il 5 posto

avvelenato
22-06-2004, 20:52
sarebbe importante sapere le interconnessioni fra i vari clusters.
i problemi infatti che questi mostri saranno tenuti a svolgere dovranno essere divisibili in maniera sufficientemente efficiente, e se fra i vari thread è richiesto un qualche tipo di interazione la velocità di interconnessione potrebbe esser determinante nelle prestazioni generali tanto quanto la potenza delle cpu.

edivad82
22-06-2004, 21:30
Originariamente inviato da avvelenato
sarebbe importante sapere le interconnessioni fra i vari clusters.
i problemi infatti che questi mostri saranno tenuti a svolgere dovranno essere divisibili in maniera sufficientemente efficiente, e se fra i vari thread è richiesto un qualche tipo di interazione la velocità di interconnessione potrebbe esser determinante nelle prestazioni generali tanto quanto la potenza delle cpu.
earth simulator

http://www.es.jamstec.go.jp/esc/eng/Hardware/in.html
struttura della rete
http://www.es.jamstec.go.jp/esc/eng/Hardware/images/simu-net_b.gif

nodo di interconnessione
http://www.es.jamstec.go.jp/esc/eng/Hardware/images/inc.gif

nodo di elaborazione
http://www.es.jamstec.go.jp/esc/eng/Hardware/images/pnc.gif

strubi99
22-06-2004, 21:48
non sapeve che apple fosse attiva anche in queste nicchie di mercato e soprattutto non avrei mai sospettato che fosse pure così stimata

Apple è molto attiva nel settore militare statunitense. Tutti i nuovi F-18E SuperHornet della Marina montano una "piastra madre" con cinque processori G4 o G5 (adesso non ricordo quale esattamente) e tutta la parte computazionale degli incrociatori Ticonderoga si basa su workstation realizzate da Apple

Berno
22-06-2004, 22:31
Originariamente inviato da strubi99
Apple è molto attiva nel settore militare statunitense. Tutti i nuovi F-18E SuperHornet della Marina montano una "piastra madre" con cinque processori G4 o G5

Non pensavo servisse così tanta potenza su di un aereo, forse la piastra è fatta in modo che siano rindondanti per evitare in caso di problemi caschi l'aereo :sofico:...

e tutta la parte computazionale degli incrociatori Ticonderoga si basa su workstation realizzate da Apple

Fino a qualche anno fa avevano su windows NT che gli ha combinato tanti di quei casini :p...

krokus
23-06-2004, 00:35
Originariamente inviato da Lud von Pipper

Se il Cray X1 fosse stata la scelta migliore non credo che le forze armate USA si sarebbero fatte troppi problemi di budget.

LvP

Forse, molto più semplicemente, le forze armate hanno un contratto con Apple e lo devono rispettare, anche se i Cray sarebbero migliori....

Bedo
23-06-2004, 07:16
Originariamente inviato da Berno
Non pensavo servisse così tanta potenza su di un aereo, forse la piastra è fatta in modo che siano rindondanti per evitare in caso di problemi caschi l'aereo :sofico:...


Sicuramente la ridondanza è importante per avere una fault tollerance bassa...però considera che un areo militare di ultima generazione deve fare miliardi di calcoli al secondo rigurdanti parametri della quota, condizioni di volo, radar, conversione di coordinate da Geografiche a piane, gestione dei sistemi di volo...ecc

ciottano
23-06-2004, 07:31
Cmq la differenza che c'è tra il supercompueter della Apple e l'X1 è che il primo utitlizza processori commerciali multifunzione mentre il secondo dei processori vettoriali. In questi ultimi anni si è passati ad utilizzare supercomputer fatti in tal modo per motivi di costi anche se sono molto piu performanti processori dedicati solo a quell'utilizzo. Ricorade il progetto APE che nn so se ancora prosegue?

flisi71
23-06-2004, 08:01
Originariamente inviato da atomo37
non sapeve che apple fosse attiva anche in queste nicchie di mercato e soprattutto non avrei mai sospettato che fosse pure così stimata :)

Questa è una notizia pubblicitaria, se ti prendi la briga di scorrere l'elenco di top500 vedrai che oltre il 50% (287 su 500 per la precisione)dei sistemi sono basati su CPU Intel, al cui conteggio si dovrebbero aggiungere anche i 34 basati su CPU AMD per un totale di 321 sistemi su 500 basati su architettura x86. Chiamarla predominanza schiacciante è dir poco.

Altra nota significativa, i sistemi variamente classificati come cluster sono ormai 291 su 500.

Di Apple in realtà c'era solo quello dell'Uni della Virginia che è off-line da un pò, ufficialmente per upgrade.

Nota patriottica: ce ne sono 18 in Italia :)

Ciao

Federico

flisi71
23-06-2004, 08:03
Originariamente inviato da strubi99
Apple è molto attiva nel settore militare statunitense. Tutti i nuovi F-18E SuperHornet della Marina montano una "piastra madre" con cinque processori G4 o G5 (adesso non ricordo quale esattamente) e tutta la parte computazionale degli incrociatori Ticonderoga si basa su workstation realizzate da Apple

Forse ti stai confondendo con macchine IBM basate su architettura POWER......

Ciao

Federico

Marco71
23-06-2004, 09:38
Mi ricordo che il progetto A.P.E nei primi anni '90 aveva prodotto una "potenza" di calcolo di picco di 100GF.l.o.p.s...
Mi sembra che successivamente sia stato "reso commerciale" con supercomputer "Quadrics"...
Su un "bellissimo" numero di M.C Microcomputer c'era un servizio su A.P.E, sulla sua storia all'I.N.F.N ecc.
Riguardo all'X1 Cray sono ben consapevole che ad oggi non sia ancora installata una configurazione in grado di esprimere gli oltre 50GF.l.o.p.s...
Tra l'altro il sito Top500 è molto ben fatto...a ieri riportava l'Earth Simulator al primo posto in classifica...

Marco.

piottanacifra
23-06-2004, 10:15
Prezzo/prestazioni?
Ma che e' un pesce d'aprile. :D

Salutt & Bazz

Cacicia
23-06-2004, 11:06
Originariamente inviato da piottanacifra
Prezzo/prestazioni?
Ma che e' un pesce d'aprile. :D

Assolutamente no.
A conti fatti in Virginia hanno usato 1100 PowerMac dual G5 2.0GHz .
Per un totale di 2200 CPU.

Il primo supercomputer (Earth Simulator Center) usa 5120 CPU da 500 MHz della NEC.
http://www.top500.org/lists/2004/06/1/

Il secondo (Lawrence Livermore National Laboratory) usa 4096 CPU Intel Itanium2 Tiger4 da 1.4GHz.
http://www.top500.org/lists/2004/06/2/

Il terzo (Los Alamos National Laboratory) usa 8192 CPU da 1.25 GHz AlphaServer SC45 HP.
http://www.top500.org/lists/2004/06/3/

Il quarto (IBM - Thomas Watson Research Center) usa 8192 prototipi di CPU BlueGene/L DD1 da 500MHz PowerPC.
http://www.top500.org/lists/2004/06/4/

Di G5 invece ne hanno usati "solo" (per così dire.... visto che sono sempre tanti per la gente comune) 2200 CPU. Meno della meta dell'Erth Simulation Center :D

Pesi sul serio ce quei bestioni sono costani meno dei 1100 G5?
non stiamo parlando mica di bruscolini :D

Qui trovate la lista dei TOP 5:
http://www.top500.org/lists/2004/06/top5.php

Come già qualcuno ha ricordato il BigMac della Virginia attualmente è in manutenzione.... quindi credo che non rientri in lista.... potete cercarlo tra le pagine della cache di Google... magari viene fuori :D
Secondo le ultime indiscrezioni stanno sostituendo i 1100 PowerMac G5 con dei più adatti (per un cluster) xServe.... vedremo!

guyver
23-06-2004, 12:07
non sò xche criticate
2200 core g5 stanno al 5 posto
sicuramente costa meno che comprare una soluzione proprietaria tipo nec o cray a parita di prestazioni e,
va di piu (vedi sunto mio post precedente) di 2560 opteron 2.2 ghz e di 2560 xeon 3.06 ghz
dov'è il problema?
p.s. per trovare il big mac sul sito top500 basta andare sul database e alla data mettere novembre 2003... li è al terzo posto ora sarebbe al 5 perche superato da 2 nuove entrate

leonino_c
23-06-2004, 13:54
Originariamente inviato da Cemb
"elevato rapporto prezzo prestazioni" nel senso che costano un macello per quanto vanno?


Guarda che Apple è poco competitiva sul fronte prezzi solo sulle macchine desktop.
Già i portatili se la giocano alla pari con le controparti Wintel (e sono anche più convenienti a volte, vedi iBook).
Nella fascia server poi Apple vende uno dei server con il più alto rapporto prezzo/prestazioni in commercio ! Un XServe dual G5 in configurazione cluster (ovvero il singolo nodo) costa circa 3600 euro compreso il sistema operativo in versione server.


permettermeli.. Ma davvero MacOSX verrà usato come sistema operativo principale? Come fa a gestire il supercomputer?


La apple distribuisce un suo software per il calcolo distribuito di nome XGrid. Altrimenti esistono sempre le soluzioni proprietarie. Il SO credo c'entri poco in questo frangente, dopotutto non stiamo parlando di un supercomputer, ma di un cluster, ovvero di un insieme di macchine coordinate ma strutturalmente indipendenti.

DioBrando
23-06-2004, 14:32
Originariamente inviato da piottanacifra
Prezzo/prestazioni?
Ma che e' un pesce d'aprile. :D

Salutt & Bazz

quando non si sà cosa scrivere eh...:tapiro: già che ci sei menziona il tuo A64 che mi sembra il thread adatto :ahahah:




a parte l'Earth Simulator che è jappo tutti gli altri + grossi sn statunitensi.

E sbaglio o c'era in progetto un cluster da 50 milioni di teraflops, basato sempre su macchine Apple?

pikkoz
23-06-2004, 18:27
Ma prendere che so' 5000 o 10000 playstation 2 su cui gira linux non sarebbe poi un idea cosi' brutta, oltretutto costano molto di meno rispetto ad un pc.
Cmq sapete qualcusa si piccoli super computer basati su console?

Criceto
23-06-2004, 21:56
Per l'X1 si parla (nella versione completa) di 4 MegaWatt e di un costo di circa 300 milioni di dollari!! notevole eh..;)

Bye bye!! ;)

Il Super-cluster Apple costerebbe 5,8 milioni di dollari, per una potenza pare ad un 1/2 o 1/3 (più o meno) del fantomatico X1. Un affare, no? :-)
Oltretutto i G5 sono anche i processori che consumano meno W a quei livelli di potenza (Power IBM, Itanium, Opteron e Xeon).

cdimauro
23-06-2004, 21:58
Originariamente inviato da DioBrando
E sbaglio o c'era in progetto un cluster da 50 milioni di teraflops,
:eek: LO VOGLIOOOOOO!!!! ;)
basato sempre su macchine Apple?
Dovrebbe essere quello di Cray (50 Tflops), basato su Opteron, se non ricordo male...

Criceto
23-06-2004, 22:17
Originariamente inviato da avvelenato
sarebbe importante sapere le interconnessioni fra i vari clusters.
i problemi infatti che questi mostri saranno tenuti a svolgere dovranno essere divisibili in maniera sufficientemente efficiente, e se fra i vari thread è richiesto un qualche tipo di interazione la velocità di interconnessione potrebbe esser determinante nelle prestazioni generali tanto quanto la potenza delle cpu.

Il "Big Mac" del Virginia Tech utilizza delle schede Infiniband installate slot PCI-X dei PowerMac (costano poco meno di 1000$ l'una solo loro, se non ricordo male). Non so che prestazioni abbiano, ma suppongo siano il meglio sul mercato.

Il nuovo supercluster per MACH5, invece, utilizza le gigabit ethernet di serie degli Xserve (ce ne sono due per macchina su bus indipendente), ritenute sufficienti visto che la macchina in questione verrà utilizzata con un unico software si simulazione che non richiede particolare velocità del network.

ShadowX84
23-06-2004, 22:34
Infatti il vantaggio di questi "Super-Cluster" stà nell'elevata potenza globale ottenuta con costi totali molto bassi!

Anche se come ha già spiegato qualcuno il Cray, l'Earth Simulator e company appartengono ad una certa categoria di Super-Computer, i Super-Cluster, come quest'ultimo della Apple, appartengono ad un'altra!

Inviato da: cdimauro
LO VOGLIOOOOOO!!!!

Tranquillo ti presto il mio cervellino, grazie all'elevato parallelismo dei miei neuroni raggiungo dei picchi massimi di addirittura 1 PETA-FLOP/Sec:eek: , come ad esempio in questo caso, che sto scrivendo una cazzata assurda...:D

Inviato da: cdimauro
Dovrebbe essere quello di Cray (50 Tflops), basato su Opteron, se non ricordo male...

Per l'esattezza il computer Cray (sempre il famoso X1 da 50 TFLOP/Sec) monta dei processori sviluppati dalla stessa Cray, mi pare che li chiami MSP e che sia un derivato MIPS almeno in parte, questi sono processori vettoriali dotati di parti interne che viaggiano a velocità misata, alcune a 400Mhz ed altre a 800Mhz; questi processori hanno un potenza di calcolo strepitosa, e naturalmente per fare un alto concentrato di potenza vengono racchiusi più processori in un MCM stile Power5.

Non c'è che dire alla Cray sanno quello che fanno!;)

cdimauro
24-06-2004, 05:32
Se sanno quello che fanno, perché hanno optato per l'Opteron ;) per costruire il più potente supercomputer? :)

P.S. Il mio cervello fa molto meno in questo periodo: sarà lo stress post-esami... :D

flisi71
24-06-2004, 07:03
Originariamente inviato da cdimauro
Se sanno quello che fanno, perché hanno optato per l'Opteron ;) per costruire il più potente supercomputer? :)

P.S. Il mio cervello fa molto meno in questo periodo: sarà lo stress post-esami... :D

Ciao Cesare, perchè loro hanno una vasta panoplia di supercomputer, adatti a tutte le esigenze, dai supervettoriali ai massicciamente paralleli ai cluster .

Mi ripeto ancora: qui si parla di Apple coem di un attore importante nella nicchia del supercalcolo, quando nella realtà si ha conoscenza di un unica installazione in Virginia, al momento ferma.
Se si da tanto risalto a questa notizia, cosa si dovrebbe dire allora dei 321 sistemi su 500 basati su architettura x86 che di volta in volta conquistano nuovi spazi? Ad un osservatore attento, cioè non quello che si fa la ricerchina con google e poi pretende di pontificare, non sarà sfuggito il fatto che pochi anni or sono NON esistevano macchine x86 in classifica.
Questo la dice lunga sulla evoluzione delle CPU x86.


Ciao

Federico

Criceto
24-06-2004, 09:04
Originariamente inviato da flisi71
Ciao Cesare, perchè loro hanno una vasta panoplia di supercomputer, adatti a tutte le esigenze, dai supervettoriali ai massicciamente paralleli ai cluster .

Mi ripeto ancora: qui si parla di Apple coem di un attore importante nella nicchia del supercalcolo, quando nella realtà si ha conoscenza di un unica installazione in Virginia, al momento ferma.
Se si da tanto risalto a questa notizia, cosa si dovrebbe dire allora dei 321 sistemi su 500 basati su architettura x86 che di volta in volta conquistano nuovi spazi? Ad un osservatore attento, cioè non quello che si fa la ricerchina con google e poi pretende di pontificare, non sarà sfuggito il fatto che pochi anni or sono NON esistevano macchine x86 in classifica.
Questo la dice lunga sulla evoluzione delle CPU x86.
Federico

Il fatto macchine Apple abbiano raggiunto il num. 3 della classifica dei supercomputer, pur non essendo state pensate per quell'utilizzo (il Big-Mac del Virginia Tech è stato fatto con PowerMac, macchine DESKTOP e pure grandicelle, all'insaputa di Apple), ma scelte perchè in quel momento rappresentavano il miglior rapporto prezzo/prestazioni, la dicono lunga anche sull'evoluzione di Apple, dei suoi processori e della qualità del suo sistema operativo (non mi risulta ci siano supercomputer basati su Windows, sono tutti SO custom o derivati Unix, come OS X).

Mai Apple è stata competitiva in quell'ambito. Anzi, è sempre stata guardata con diffidenza in ambito IT.

I PPC 970 si sono rilevati processori superiori agli Intel (Itanic e Xeon) e AMD (Opteron) e perfino ai fratelli maggiori Power 4 nel rapporto consumo/prestazioni e costo/prestazioni, decisivo per installazioni cluster. E l'eleganza e la potenza del nuovo SO Apple (basato su Unix BSD) hanno reso possibile l'uso in questo tipo di configurazioni senza che fossero state progettate per quell'utilizzo.

Ora con gli Xserve, macchine estremamente compatte pensate per essere installate in rack e vendute anche in configurazioni all'osso per realizzare cluster, l'equivalente del Big-Mac di neanche un anno fà può occupare 1/3 o meno dello spazio e avere consumi ulteriormente ridotti (grazie ai PPC 970fx da 90nm) con evidenti vantaggi per installazioni così massicce. Inoltre ora Apple fornisce anche un suo software (Xgrid, in beta) per questo utilizzo, rendendola sempre più competitiva in questo ambito.

E quindi non è un caso che il "Big-Mac" abbia avuto dei successori come il MACH5 e secondo me ne seguiranno altri...

flisi71
24-06-2004, 09:33
Originariamente inviato da Criceto
I PPC 970 si sono rilevati processori superiori agli Intel (Itanic e Xeon) e AMD (Opteron) e perfino ai fratelli maggiori Power 4 nel rapporto consumo/prestazioni e costo/prestazioni, decisivo per installazioni cluster.

A me sembrava che cercassero le maggiori prestazioni possibili, e di certo il PPC970 non è il candidato ideale: è metà POWER4 con aggiunta l'unità Artivec.
E il POWER4, dovresti saperlo, è meno potente in fp di Itanium.


E l'eleganza e la potenza del nuovo SO Apple (basato su Unix BSD) hanno reso possibile l'uso in questo tipo di configurazioni
senza che fossero state progettate per quell'utilizzo.


Questo non c'entra niente.


Ora con gli Xserve, macchine estremamente compatte pensate per essere installate in rack e vendute anche in configurazioni all'osso per realizzare cluster, l'equivalente del Big-Mac di neanche un anno fà può occupare 1/3 o meno dello spazio e avere consumi ulteriormente ridotti (grazie ai PPC 970fx da 90nm) con evidenti vantaggi per installazioni così massicce. Inoltre ora Apple fornisce anche un suo software (Xgrid, in beta) per questo utilizzo, rendendola sempre più competitiva in questo ambito.


Guarda che i case rack esistono da parecchio tempo, e non li ha inventati Apple per l'occasione. Inoltre per fare serie ricerche in ambito di supercalcolo ci vuole ben più di uno schedulatore di job, se hai una qualche esperienza di cluster su linux/x86 dovresti saperlo.

Ciao

Federico

Criceto
24-06-2004, 10:13
Originariamente inviato da flisi71
A me sembrava che cercassero le maggiori prestazioni posibili, e di certo il PPC970 non è il candidato ideale.


Quello che conta alla fine è il miglior rapporto prezzo/prestazioni, e in questo rapporto ci va a finire anche il consumo, perchè maggior consumo significa maggior ingombro (per dissipare il calore) e maggiori costi di gestione. Vedi anche Google che preferisce processori di classe media (che consumano e costano meno) rispetto agli Itanium di cui non si è detta interessata.

Loro avevano un target di 25 Teraflops di picco, e pensano di raggiungerlo con 1556 Apple Xserve biprocessore e 5,8 Milioni di $. Evidentemente nessuna macchina con processore x86 poteva fare altrettanto a quel costo e/o con quell'ingombro.

Inoltre se vedi gli altri super-cluster in classifica, hanno sempre un un numero di processori per TeraFlops maggiore del BigMac (prescindendo dal costo). Questo la dice lunga anche sull'efficienza in assoluto del PPC 970.

Quindi quale sarebbe un processore migliore del PPC 970 al momento? Sicuramente un Power5 è in assoluto più veloce, un Itanium o un Opteron stanno lì, ma non sono certo più economici dei 970, anzi... e consumano molto di più!


Guarda che i case rack esistono da parecchio tempo, e non li ha inventati Apple per l'occasione.


No certo. Volevo dire che Virgina Tech aveva scelto macchine Apple BENCHE' non fossero certamente le più consone a quel tipo di installazione (non c'erano ancora gli Xserve G5, ma solo PowerMac DESKTOP con G5). Ora che ci sono gli Xserve in configurazione rack, fare quel tipo di installazioni risulta decisamente più pratica.


Inoltre per fare serie ricerche in ambito di supercalcolo ci vuole ben più di uno schedulatore di job, se hai una qualche esperienza di cluster su linux/x86 dovresti saperlo.


Non ho esperienze del genere. Immagino però che il software vada scritto in un certo modo per poter essere utilizzato in modo efficiente con tanti processori. Inoltre non tutti gli algoritmi si prestano ad essere pesantemente parallelizzati, quindi i cluster sono sicuramente macchine "specialistiche", adatte a specifiche problematiche. Mentre per algoritmi non parallelizzabili sono sicuramente preferibili processori in assoluto e singolarmente più veloci (tipo Power5). Comunque essendo il Mac OS X basato su Unix, i software per il calcolo parallelo svilkuppati per Linux sono facilmente portabili sugli Xserve, prescindendo dall'xGrid di Apple e dal fatto che Linux può comunque essere installato su quelle macchine (strada però che non sembra al momento la preferita).

flisi71
24-06-2004, 10:30
Originariamente inviato da Criceto
...
Inoltre se vedi gli altri super-cluster in classifica, hanno sempre un un numero di processori per TeraFlops maggiore del BigMac (prescindendo dal costo). Questo la dice lunga anche sull'efficienza in assoluto del PPC 970.


Dice solo che con programmi che possono essere compilati con ArtiVEC si arriva a tanto, e non è la norma



Quindi quale sarebbe un processore migliore del PPC 970 al momento? Sicuramente un Power5 è in assoluto più veloce, un Itanium o un Opteron stanno lì, ma non sono certo più economici dei 970, anzi... e consumano molto di più!

Itanium è MOLTO più potente e non di poco. In FP è più potente di un POWER4 (ad ogni frequenza possibile) e il PPC970 è metà core di un POWER4.



Non ho esperienze del genere. Immagino però che il software vada scritto in un certo modo per poter essere utilizzato in modo efficiente con tanti processori. Inoltre non tutti gli algoritmi si prestano ad essere pesantemente parallelizzati, quindi i cluster sono sicuramente macchine "specialistiche", adatte a specifiche problematiche.

Hai perfettamente ragione e la legge di Amdhal permette di calcolare quale è il numero di processori per ogni singola applicazione, numero oltre il quale non vi è più nessun aumento di prestazioni.


Mentre per algoritmi non parallelizzabili sono sicuramente preferibili processori in assoluto e singolarmente più veloci (tipo Power5).

No, in quei casi usano le macchine vettoriali.



Comunque essendo il Mac OS X basato su Unix, i software per il calcolo parallelo svilkuppati per Linux sono facilmente portabili sugli Xserve, prescindendo dall'xGrid di Apple e dal fatto che Linux può comunque essere installato su quelle macchine (strada però che non sembra al momento la preferita).

Però nella notizia riportata si suggerisce che potrebbe essere
sostituito l'OS X con una distribuzione Linux perchè gli strumenti per il calcolo parallelo lì sono rodati da tempo (librerie LAM/MPI, PVM, tool OSCAR ecc.).

Ciao

Federico

Criceto
24-06-2004, 10:58
Originariamente inviato da flisi71
Dice solo che con programmi che possono essere compilati con ArtiVEC si arriva a tanto, e non è la norma


Beh, ma AltiVec è proprio la trasposizione su chip della classica tecnica vettoriale nata proprio sui supercomputer Cray!
Quindi a maggior ragione il PPC970 è il processore più adatto in questo ambito.


Itanium è MOLTO più potente e non di poco. In FP è più potente di un POWER4 (ad ogni frequenza possibile) e il PPC970 è metà core di un POWER4.


Hmmm e come mai ne servono di più dei 970 per avere gli stessi Teraflops? Sarà perchè girano solo a max 1,5 Ghz? E inoltre...

>.... uno dei fattori chiave dei due nuovi modelli di
>Itanium 2 è il prezzo: per ordini di 1.000 unità, il chip LW costa
>744 dollari mentre il chip a 1,4 GHz costa 1.172 dollari. L'Itanium
>2 attualmente più veloce, il modello a 1,5 GHz con 6 MB di cache,
>costa oltre 4.200 dollari.

Che prezzi!!!

flisi71
24-06-2004, 11:09
Originariamente inviato da Criceto
Beh, ma AltiVec è proprio la trasposizione su chip della classica tecnica vettoriale nata proprio sui supercomputer Cray!
Quindi a maggior ragione il PPC970 è il processore più adatto in questo ambito.


L'unità ArtiVEC è una unità SIMD, così come quella che gestisce le istruzioni SSE2 nei P4 e negli A64. Il precursore di queste unità aggiunte fu il VIS di Sun sui primi UltraSPARC. Da qui però a dire che siano processori vettoriali ce ne corre parecchio!!!!!!!


Hmmm e come mai ne servono di più dei 970 per avere gli stessi Teraflops? Sarà perchè girano solo a max 1,5 Ghz? E inoltre...


Questo va visto nei vari benchmark

>.... uno dei fattori chiave dei due nuovi modelli di
>Itanium 2 è il prezzo: per ordini di 1.000 unità, il chip LW costa
>744 dollari mentre il chip a 1,4 GHz costa 1.172 dollari. L'Itanium
>2 attualmente più veloce, il modello a 1,5 GHz con 6 MB di cache,
>costa oltre 4.200 dollari.

Che prezzi!!!

Ma credo che siano allineati alla concorrenza.

Ciao

Federico

guyver
24-06-2004, 12:33
Originariamente inviato da flisi71
Ciao Cesare, perchè loro hanno una vasta panoplia di supercomputer, adatti a tutte le esigenze, dai supervettoriali ai massicciamente paralleli ai cluster .

Mi ripeto ancora: qui si parla di Apple coem di un attore importante nella nicchia del supercalcolo, quando nella realtà si ha conoscenza di un unica installazione in Virginia, al momento ferma.
Se si da tanto risalto a questa notizia, cosa si dovrebbe dire allora dei 321 sistemi su 500 basati su architettura x86 che di volta in volta conquistano nuovi spazi? Ad un osservatore attento, cioè non quello che si fa la ricerchina con google e poi pretende di pontificare, non sarà sfuggito il fatto che pochi anni or sono NON esistevano macchine x86 in classifica.
Questo la dice lunga sulla evoluzione delle CPU x86.


Ciao

Federico
fattosta che big mac è sopra ogni S.C. x86

guyver
24-06-2004, 12:37
Per l'X1 si parla (nella versione completa) di 4 MegaWatt e di un costo di circa 300 milioni di dollari!! notevole eh..

Bye bye!!


Originariamente inviato da Criceto
Il Super-cluster Apple costerebbe 5,8 milioni di dollari, per una potenza pare ad un 1/2 o 1/3 (più o meno) del fantomatico X1. Un affare, no? :-)
Oltretutto i G5 sono anche i processori che consumano meno W a quei livelli di potenza (Power IBM, Itanium, Opteron e Xeon).

Quoto x flisi71

guyver
24-06-2004, 12:44
cmq ripeto... perche criticare quando il sito che si occupa di fare la classifica dei S.C. dice che big mac è al 5 posto?
cioè è un dato di fatto non c'è niente da discutere...
2200 core g5 2.0 ghz vanno di più di 2560 opteron 2.2 ghz e di 2560 xeon 3.06 ghz punto.
il resto è fuffa...
non voglio difendere apple ma carta canta...

guyver
24-06-2004, 12:51
Originariamente inviato da pikkoz
Ma prendere che so' 5000 o 10000 playstation 2 su cui gira linux non sarebbe poi un idea cosi' brutta, oltretutto costano molto di meno rispetto ad un pc.
Cmq sapete qualcusa si piccoli super computer basati su console?

qualche anno fa hanno fatto un cluster sperimentale con 70 play2 proprio al ncsa (quello del big mac) se non ricordo male entrò in classifica top500 anche se non ve n'è traccia...:(

flisi71
24-06-2004, 13:27
Originariamente inviato da guyver
cmq ripeto... perche criticare quando il sito che si occupa di fare la classifica dei S.C. dice che big mac è al 5 posto?
cioè è un dato di fatto non c'è niente da discutere...
2200 core g5 2.0 ghz vanno di più di 2560 opteron 2.2 ghz e di 2560 xeon 3.06 ghz punto.
il resto è fuffa...
non voglio difendere apple ma carta canta...

Alt!
La 23a classifica dei top500 attuale non allinea nessuna macchina Apple.
Quelle sono ipotesi, tra l'altro, pur non essendo un grande esperto di HPC almeno so che le prestazioni massime di un supercomputer sono funzione dell'applicazione specifica (e del compilatore) e che c'è forte discrepanza fra prestazioni teoriche massime e quelle ottenibili in pratica.
Una macchina può "volare" con una determinata applicazione ed essere una "lumaca" con un'altra.

Comunque restando ai numeri, che pare ti piacciano tanto: se la fu-macchina del Virginia Tech raggiungeva i 10280 MFlops misurati con 2200 CPU cloccate a 2GHz, una macchina con 1566*2 CPU alla stessa velocità difficilmente raggiungerà i 15000 MFlops (ipotizzando la scalabilità 100% e che per la legge di Amdhal non si sia già raggiunto l'asintoto orizzontale).

Ultima considerazione: usando le connessioni GigaE voglio vedere in quante applicazioni di calcolo riescono a superare i 10 GFlops.

Ciao

Federico

flisi71
24-06-2004, 13:32
Originariamente inviato da guyver
qualche anno fa hanno fatto un cluster sperimentale con 70 play2 proprio al ncsa (quello del big mac) se non ricordo male entrò in classifica top500 anche se non ve n'è traccia...:(

Non fare confusione: il NCSA è ad Urbana, Illinois.
E loro non hanno cluster Apple.

Ciao

Federico

DioBrando
24-06-2004, 13:41
Originariamente inviato da cdimauro
:eek: LO VOGLIOOOOOO!!!! ;)

Dovrebbe essere quello di Cray (50 Tflops), basato su Opteron, se non ricordo male...

l'ho letto qlc settimana fà sull'inserto della Repubblica :D

Affari&Finanza rulez :sofico:


cmq onestamente non ricordo se fosse Opteron o Mac...sicuramente non Intel, poi dopo provo a recuperare l'articolo...

guyver
24-06-2004, 13:45
Originariamente inviato da flisi71
Alt!
La 23a classifica dei top500 attuale non allinea nessuna macchina Apple.
Quelle sono ipotesi, tra l'altro, pur non essendo un grande esperto di HPC almeno so che le prestazioni massime di un supercomputer sono funzione dell'applicazione specifica (e del compilatore) e che c'è forte discrepanza fra prestazioni teoriche massime e quelle ottenibili in pratica.
Una macchina può "volare" con una determinata applicazione ed essere una "lumaca" con un'altra.

Comunque restando ai numeri, che pare ti piacciano tanto: se la fu-macchina del Virginia Tech raggiungeva i 10280 MFlops misurati con 2200 CPU cloccate a 2GHz, una macchina con 1566*2 CPU alla stessa velocità difficilmente raggiungerà i 15000 MFlops (ipotizzando la scalabilità 100% e che per la legge di Amdhal non si sia già raggiunto l'asintoto orizzontale).

Ultima considerazione: usando le connessioni GigaE voglio vedere in quante applicazioni di calcolo riescono a superare i 10 GFlops.

Ciao

Federico
questo è certo
non è mai vero che due processori vadano il doppio di uno

Criceto
24-06-2004, 13:46
Originariamente inviato da flisi71
Alt!
La 23a classifica dei top500 attuale non allinea nessuna macchina Apple.


Stanno sostituendo i PowerMac con gli Xserve (per i vantaggi espressi in precedenza). Sono un po' in ritardo perchè la IBM ha avuto problemi con la produzione dei 970fx con processo a 90nm, ma ora dovrebbero essere risolti.


Comunque restando ai numeri, che pare ti piacciano tanto: se la fu-macchina del Virginia Tech raggiungeva i 10280 MFlops misurati con 2200 CPU cloccate a 2GHz, una macchina con 1566*2 CPU alla stessa velocità difficilmente raggiungerà i 15000 MFlops (ipotizzando la scalabilità 100% e che per la legge di Amdhal non si sia già raggiunto l'asintoto orizzontale).


Gli Xserve G5 (utilizzati nel MACH5) montano 970fx da 90nm, i PowerMac G5 (utilizzati dal Virginia Tech) i più vecchi 970 da 130nm. Con la riduzione dei circuiti dovrebbero aver ottimizzato alcune cose (mi pare più cache) e si SUPPONE che i nuovi chip siano più veloci a parità di mhz. Anche il Virginia Tech ipotizza un aumento di prestazioni passando da PowerMac a Xserve, sempre a 2Ghz. Non ho ancora visto benchmark, però.

ShadowX84
24-06-2004, 13:46
Inviato da: flisi71
Ultima considerazione: usando le connessioni GigaE voglio vedere in quante applicazioni di calcolo riescono a superare i 10 GFlops.


In effetti (e non tutti forse lo sanno) quello che incide in maniera marcata tra costo, prestazioni di punta e prestazioni medie, è proprio il tico di connessione utilizzata tra i vari nodi, i cluster spesso e volentieri in questo compartimento sono abbastanza deficitarie, infatti credo che la connessione più "lussuosa" utilizzata sia di tipo InfiniBand, che certo non è l'ultima ruota del carro, ne come prezzo ne come prestazioni, però non ha nulla a che vedere con le connessioni utilizzate dai S.C. Cray, NEC ecc...

Aggiungo che non sempre (soprattutto nei S.C. formati da Cluster) la tecnologia di interconnessione viene considerata fondamentale, in quanto interessa più la potenza dei singoli che non l'elevata capacità di banda.
Questa è anche una della maggiori diversità tra S.C. tradizionali (passatemi il termine) e S.C. "formato Cluster"



Per flisi71
Ho notato che anche tu sei della provincia di Arezzo, sei il primo che scopro, oltre a me naturalmente!!;)



Bye bye!!;)

ShadowX84
24-06-2004, 13:53
[B]Inviato da: DioBrando[B]
quote:
--------------------------------------------------------------------------------
Originariamente inviato da cdimauro
LO VOGLIOOOOOO!!!!

Dovrebbe essere quello di Cray (50 Tflops), basato su Opteron, se non ricordo male...
--------------------------------------------------------------------------------



l'ho letto qlc settimana fà sull'inserto della Repubblica

Affari&Finanza rulez


cmq onestamente non ricordo se fosse Opteron o Mac...sicuramente non Intel, poi dopo provo a recuperare l'articolo...

Mmm...:confused: mi sa che stò facendo confusione, ma il computer da 50 TFLOP/Sec della Cray non era l'X1??

Ne hanno annunciato un altro con potenza uguale e processori differenti?

Se puoi fammi sapere qualcosa!;)

flisi71
24-06-2004, 13:55
Originariamente inviato da ShadowX84
In effetti (e non tutti forse lo sanno) quello che incide in maniera marcata tra costo, prestazioni di punta e prestazioni medie, è proprio il tico di connessione utilizzata tra i vari nodi, i cluster spesso e volentieri in questo compartimento sono abbastanza deficitarie, infatti credo che la connessione più "lussuosa" utilizzata sia di tipo InfiniBand, che certo non è l'ultima ruota del carro, ne come prezzo ne come prestazioni, però non ha nulla a che vedere con le connessioni utilizzate dai S.C. Cray, NEC ecc...

Aggiungo che non sempre (soprattutto nei S.C. formati da Cluster) la tecnologia di interconnessione viene considerata fondamentale, in quanto interessa più la potenza dei singoli che non l'elevata capacità di banda.
Questa è anche una della maggiori diversità tra S.C. tradizionali (passatemi il termine) e S.C. "formato Cluster"



Per flisi71
Ho notato che anche tu sei della provincia di Arezzo, sei il primo che scopro, oltre a me naturalmente!!;)



Bye bye!!;)

Ciao coprovinciale!!
Mi sembra che ci siano altri di Arezzo, ad esempio Fabbro76 e un ragazzo di Montevarchi.

Tornando in tema, i cluster stanno prendendo sempre più piede perchè sono molto più economici dei supervettoriali e dei massivamente paralleli, ma non tutti i problemi computazionali permettono un algoritmo di risoluzione parallelizzabile (quello che poi sarebbe più digeribile per i commodity-cluster) e comunque la già citata legge di Amdhal permette di calcolare anche il numero massimo di nodi utilizzabili oltre il quale quell'applicazione non avrà più alcun beneficio di prestazione.

Ciao

Federico

flisi71
24-06-2004, 13:59
Originariamente inviato da ShadowX84
Mmm...:confused: mi sa che stò facendo confusione, ma il computer da 50 TFLOP/Sec della Cray non era l'X1??

Ne hanno annunciato un altro con potenza uguale e processori differenti?

Se puoi fammi sapere qualcosa!;)

No, gli X1 montano un processore vettoriale proprietario, le macchine Cray XD1 usano gli Opteron.
:)

Ciao

Federico

ShadowX84
24-06-2004, 14:06
Si infatti...ho appena dato un'occhiata al sito della Cray...!!

Comunque per la precisione come avrai già potuto vedere sono di soci, quindi un casentinese puro sangue! ;)

flisi71
24-06-2004, 14:07
Originariamente inviato da Criceto
Gli Xserve G5 (utilizzati nel MACH5) montano 970fx da 90nm, i PowerMac G5 (utilizzati dal Virginia Tech) i più vecchi 970 da 130nm. Con la riduzione dei circuiti dovrebbero aver ottimizzato alcune cose (mi pare più cache) e si SUPPONE che i nuovi chip siano più veloci a parità di mhz. Anche il Virginia Tech ipotizza un aumento di prestazioni passando da PowerMac a Xserve, sempre a 2Ghz. Non ho ancora visto benchmark, però.

Secondo questo articolo
http://www.cpuplanet.com/features/article.php/3321251
non vi dovrebbero essere differenze di architettura, ma un nuovo processo produttivo che dovrebbe permettere di salire di frequenza e di dissipare minor calore.

Ciao

Federico

flisi71
24-06-2004, 14:08
Originariamente inviato da ShadowX84
Si infatti...ho appena dato un'occhiata al sito della Cray...!!

Comunque per la precisione come avrai già potuto vedere sono di soci, quindi un casentinese puro sangue! ;)

Beato te, che ti trovi in codesto posto incantato. Ti invidio.
:)

Ciao

Federico

ShadowX84
24-06-2004, 14:16
Inviato da: flisi71
Secondo questo articolo
http://www.cpuplanet.com/features/article.php/3321251
non vi dovrebbero essere differenze di architettura, ma un nuovo processo produttivo che dovrebbe permettere di salire di frequenza e di dissipare minor calore.

Ciao

Federico

Per adesso però, così come accaduto alla Intel, il processo a 90nm (per lo meno per quanto riguarda le CPU 970fx) ha solo portato ad una riduzione delle dimenzioni del core, il taanto auspicato calo di potenza e di calore generato non c'è stato, mi sa che anche loro devono affinare il loro processo produttivo,

Anche se onestamente mi pare strano che anche alla IBM abbiano avuto questi problemi, loro hanno solo effettuato un die shrink a differenza di Intel che ha quasi stravolto la vecchia architettura, raddoppiando inoltre il numero dei transistor; mha...!!



Inviato da: flisi71
Beato te, che ti trovi in codesto posto incantato. Ti invidio.


Ciao

Federico

Non ti credere chissà che, si i posti sono belli e tranquilli, ma se cerchi un pò di fresco devi salire ancora più su, almeno fino a Camaldoli!:(

Criceto
24-06-2004, 15:02
Originariamente inviato da ShadowX84
Per adesso però, così come accaduto alla Intel, il processo a 90nm (per lo meno per quanto riguarda le CPU 970fx) ha solo portato ad una riduzione delle dimenzioni del core, il taanto auspicato calo di potenza e di calore generato non c'è stato, mi sa che anche loro devono affinare il loro processo produttivo,
[/OT]

Beh no, la riduzione di potenza assorbita c'è stata e come!
il 970 consuma 51W@1.8ghz
il 970fx consuma 24.5W@2.0ghz!

C'è da dire che non è solo merito della riduzione del core, ma soprattutto della nuova tecnica costruttiva che combina SOI (Silicon on Insulator) e Strained Silicon.

Poi ci sono 6 milioni di transistor in più, ma non so come sono stati utilizzati :-)

marcowave
24-06-2004, 16:59
scusate, ma se 5 teraflops sono 5000 Miliardi di operazioni al secondo, vuol dire che 1 teraflops fa 1000 miliardi di operazioni al secondo.

ma se tera = 1024 giga, allora si può dire che i nostri processori vanno a 1,2,3 Gigaflops al secondo, perchè generano 1 2 3 miliardi di operazioni al secondo.

ma xchè usare il termine FLOPS? Perchè non HERZ?

qualcuno mi spiega??:D :D

DioBrando
24-06-2004, 17:28
Originariamente inviato da marcowave
scusate, ma se 5 teraflops sono 5000 Miliardi di operazioni al secondo, vuol dire che 1 teraflops fa 1000 miliardi di operazioni al secondo.

ma se tera = 1024 giga, allora si può dire che i nostri processori vanno a 1,2,3 Gigaflops al secondo, perchè generano 1 2 3 miliardi di operazioni al secondo.

ma xchè usare il termine FLOPS? Perchè non HERZ?

qualcuno mi spiega??:D :D

:confused:

flop è il termine utilizzato per operazione ( anche se deriva dal concetto di circuito flip-flop), gli hertz indicano la frequenza del ciclo di clock da cui DOPO si può calcolare il numero massimo di operazioni consentite ( facendo patti saldi che n conta solo quello ma com'è progettata l'intera architettura).

Dovrei non aver detto vaccate :D

marcowave
24-06-2004, 17:31
ah grazie..

ma io pensavo che 1 MHz = 1 Milione di operazioni al secondo

evidentemente mi confondevo con 1 Mflops... :p

ciao

Criceto
24-06-2004, 21:56
Originariamente inviato da marcowave
ma xchè usare il termine FLOPS? Perchè non HERZ?

qualcuno mi spiega??:D :D

I "flops" sono operazioni in virgola mobile (numeri con la virgola, non interi) al secondo. Sono il tipo di operazioni più utilizzate nei calcoli scientifici.

Il PPC 970 ha due unità floating point a 64 bit indipendenti, ed essendo un processore a 64 bit riesce ad eseguire un'operazione fp per ciclo di clock per unità, quindi 2 operazioni fp per ciclo di clock. I processori a 32 bit hanno sempre la possibilità di eseguire operazioni fp a 64bit, ma con almeno 2 cicli di clock (32 bit alla volta) per unità.

Poi ci sarebbe l'unità AltiVec (vettoriale o SIMD) che ha registri a 128 bit e può effettuare fino 8 operazioni intere o fp a 16 bit, oppure 4 a 32 bit oppure 2 a 64 bit per ciclo di clock, ma devono essere operazioni uguali su dati diversi essendo una unità vettoriale.

Insomma per i calcoli fp non è messo affatto male...

ShadowX84
24-06-2004, 23:47
Inviato da: marcowave
scusate, ma se 5 teraflops sono 5000 Miliardi di operazioni al secondo, vuol dire che 1 teraflops fa 1000 miliardi di operazioni al secondo.

ma se tera = 1024 giga, allora si può dire che i nostri processori vanno a 1,2,3 Gigaflops al secondo, perchè generano 1 2 3 miliardi di operazioni al secondo.

ma xchè usare il termine FLOPS? Perchè non HERZ?

qualcuno mi spiega??

E poi...

Inviato da: marcowave
ah grazie..

ma io pensavo che 1 MHz = 1 Milione di operazioni al secondo

evidentemente mi confondevo con 1 Mflops...

ciao

Provo a spiegarti io (ovviamente nei limiti delle mia capacità ;))

Allora...
Gli Herz servono per misurare la frequenza, cioè il numero di volte che un circuito è in grado di commutare il suo stato da 0 a 1 (o da 1 a 0).
Quindi quando senti parlare di un processore che viaggia a X/Mhz vuol dire che i transistor di quel processore si possono "accendere o spegnere" X volte al secondo.

Fino a qualche tempo fa, all'innalzamento della frequenza bene o male era legato anche l'incremento di performance, e infatti si creò il mito frequenza maggiore = prestazioni superiori; oggi in linea generale si cerca di sfatare questo mito cercando di far capire alla gente che prestazioni e frequenza non sono più strettamente legati.

FLOP è il termine che indica le operazioni in virgola mobile (FLOATING POINT), operazioni gestite dalle FPU o dalle unità SIMD, i FLOP/Sec è il numero che indica quante operazioni in virgola mobile è in grado di eseguire un determinato processore in un secondo, più questo valore è elevato, più le prestazioni del processore (per lo meno il reparto FPU) saranno alte.

I processori che escono ultimamente (parlo di quelli alla portata di tutti) hanno potenze che variano dai 10 ai 15 GigaFLOP/Sec.

Spero di esserti stato di aiuto!

marcowave
24-06-2004, 23:54
Originariamente inviato da ShadowX84

Provo a spiegarti io (ovviamente nei limiti delle mia capacità ;))

Allora...
Gli Herz servono per misurare la frequenza, cioè il numero di volte che un circuito è in grado di commutare il suo stato da 0 a 1 (o da 1 a 0).
Quindi quando senti parlare di un processore che viaggia a X/Mhz vuol dire che i transistor di quel processore si possono "accendere o spegnere" X volte al secondo.

Fino a qualche tempo fa, all'innalzamento della frequenza bene o male era legato anche l'incremento di performance, e infatti si creò il mito frequenza maggiore = prestazioni superiori; oggi in linea generale si cerca di sfatare questo mito cercando di far capire alla gente che prestazioni e frequenza non sono più strettamente legati.

FLOP è il termine che indica le operazioni in virgola mobile (FLOATING POINT), operazioni gestite dalle FPU o dalle unità SIMD, i FLOP/Sec è il numero che indica quante operazioni in virgola mobile è in grado di eseguire un determinato processore in un secondo, più questo valore è elevato, più le prestazioni del processore (per lo meno il reparto FPU) saranno alte.

I processori che escono ultimamente (parlo di quelli alla portata di tutti) hanno potenze che variano dai 10 ai 15 GigaFLOP/Sec.

Spero di esserti stato di aiuto!

grazie, sei stato davvero chiarissimo ;) :D:D almeno adesso so qualcosa in + :p

c'è un modo x calcolare i flops del processore? tipo un bench??

ShadowX84
25-06-2004, 00:10
Onestamente in quanto a bench non sono molto informato, comunque credo che sia possibile ottenerlo, ma credo che al riguardo in questo forum ci sia gente molto più informata di te!!

Cesare...a te la linea :D

cdimauro
25-06-2004, 06:43
Originariamente inviato da Criceto
Beh no, la riduzione di potenza assorbita c'è stata e come!
il 970 consuma 51W@1.8ghz
il 970fx consuma 24.5W@2.0ghz!

Con questi numeri i G5 a 2,5Ghz avrebbero consumato meno dei predecessori a 2Ghz: non si capisce, quindi, il motivo dell'adozione del raffreddamento a liquido da parte di Apple. Secondo me c'è qualcosa che "non quadra"...
C'è da dire che non è solo merito della riduzione del core, ma soprattutto della nuova tecnica costruttiva che combina SOI (Silicon on Insulator) e Strained Silicon.
Non vorrei che ci fossero dei problemi, visto che comunque si tratta del primo tentivo di unificare le due tecnologie costruttive.
Poi ci sono 6 milioni di transistor in più, ma non so come sono stati utilizzati :-)
Francamente non ne avevo mai sentito parlare: hai qualche link in merito?

cdimauro
25-06-2004, 06:45
Originariamente inviato da DioBrando
:confused:

flop è il termine utilizzato per operazione ( anche se deriva dal concetto di circuito flip-flop), gli hertz indicano la frequenza del ciclo di clock da cui DOPO si può calcolare il numero massimo di operazioni consentite ( facendo patti saldi che n conta solo quello ma com'è progettata l'intera architettura).

Dovrei non aver detto vaccate :D
FLOPS deriva da FLoating point OPerations per Second. ;)

cdimauro
25-06-2004, 06:52
Originariamente inviato da Criceto
Il PPC 970 ha due unità floating point a 64 bit indipendenti, ed essendo un processore a 64 bit riesce ad eseguire un'operazione fp per ciclo di clock per unità, quindi 2 operazioni fp per ciclo di clock. I processori a 32 bit hanno sempre la possibilità di eseguire operazioni fp a 64bit, ma con almeno 2 cicli di clock (32 bit alla volta) per unità.
Il numero di bit di un processore non c'entra NULLA con l'implementazione dell'FPU.
Poi ci sarebbe l'unità AltiVec (vettoriale o SIMD) che ha registri a 128 bit e può effettuare fino 8 operazioni intere o fp a 16 bit, oppure 4 a 32 bit oppure 2 a 64 bit per ciclo di clock, ma devono essere operazioni uguali su dati diversi essendo una unità vettoriale.
Ci sono anche le SSE 1 & 2 per gli x86 che sono a 128 bit e che possono eseguire 16, 8, 4, 2 e 1 (perché permette anche di eseguire operazioni su interi a 128 bit ;)) operazioni per volta. Tra parentesi: l'unità Altivec dei PPC970 (e probabilmente anchde gli FX) non supporta il calcolo a precisione doppia.
Insomma per i calcoli fp non è messo affatto male...
Neanche gli altri. Poi bisogna vedere quanto si discostano le prestazioni reali dai valori teorici: non è un caso se i sistemi dual G5 a 2Ghz vengano spesso battuti da singoli processori x86. E' chiaro che ci sono applicazioni in cui ci si avvicina ai limiti teorici, ma certamente non è questa la norma.
Questo per rispondere anche alla questione dei benchmark per calcolare i FLOPS: non servono a nulla, perché nella pratica la situazione è ben diversa. Molto meglio testare le singole applicazioni che interessano, e vedere quanto riesce a rendere l'INTERO SISTEMA; perché ci sono anche le memorie, l'FSB, il chipset, ecc. che fanno da collo di bottiglia, e di cui non si può non tenere conto.

flisi71
25-06-2004, 07:09
Originariamente inviato da Criceto
I "flops" sono operazioni in virgola mobile (numeri con la virgola, non interi) al secondo. Sono il tipo di operazioni più utilizzate nei calcoli scientifici.

Il PPC 970 ha due unità floating point a 64 bit indipendenti, ed essendo un processore a 64 bit riesce ad eseguire un'operazione fp per ciclo di clock per unità, quindi 2 operazioni fp per ciclo di clock.

Attento a non far confusione: è si dotato di 2 unità FP che riescono ad IMPOSTARE ciascuna 1 operazione FP per ogni ciclo di clock, ottenendo il riultato al minimo dopo 6 cicli (considerando l'operazione più semplice FMADD)


I processori a 32 bit hanno sempre la possibilità di eseguire operazioni fp a 64bit, ma con almeno 2 cicli di clock (32 bit alla volta) per unità.


I processori x86 ormai da parecchio tempo sono conformi allo standard x87 che utilizza registri da 80 bit per aumentare la precisione.


Poi ci sarebbe l'unità AltiVec (vettoriale o SIMD) che ha registri a 128 bit e può effettuare fino 8 operazioni intere o fp a 16 bit, oppure 4 a 32 bit oppure 2 a 64 bit per ciclo di clock, ma devono essere operazioni uguali su dati diversi essendo una unità vettoriale.


Così come le simili unità SSE/SSE2 3Dnow! ecc., ormai comuni.


Ciao

Federico

Criceto
25-06-2004, 09:36
Originariamente inviato da cdimauro
Con questi numeri i G5 a 2,5Ghz avrebbero consumato meno dei predecessori a 2Ghz: non si capisce, quindi, il motivo dell'adozione del raffreddamento a liquido da parte di Apple. Secondo me c'è qualcosa che "non quadra"...


Qualcosa di strano c'è. Quelli comunque sono i numeri dichiarati da IBM. C'è da dire che il calore generato si concentra in un'area minore, e quella potrebbe essere la causa della difficoltà del raffreddamento.


Francamente non ne avevo mai sentito parlare: hai qualche link in merito?

In effetti ci sono informazioni contrastanti, qui: http://pagead2.googlesyndication.com/pagead/ads?client=ca-tribalfusion_4_336x280&ca&format=336x280_new&random=1088152249560&hl=en&url=http%3A//www.geek.com/procspec/ibm/power4desktop.htm
Viene riportato che il 970 ha 52 milioni di transistor e il 970fx 58 milioni, ma da altre parti risulta che anche il 970 abbia 58 milioni di transistor... Il sito IBM non dice molto in proposito. Mah...

Criceto
25-06-2004, 09:52
Originariamente inviato da cdimauro
Questo per rispondere anche alla questione dei benchmark per calcolare i FLOPS: non servono a nulla, perché nella pratica la situazione è ben diversa. Molto meglio testare le singole applicazioni che interessano, e vedere quanto riesce a rendere l'INTERO SISTEMA; perché ci sono anche le memorie, l'FSB, il chipset, ecc. che fanno da collo di bottiglia, e di cui non si può non tenere conto.

Questo è vero.
Anche confrontare processori non è più così lineare come una volta. Tra pipeline, registri che vengono rinominati (su x86), brach prediction, unità di calcolo multiple e cose varie è praticamente impossibile capire sulla carta quale processore di ultima generazione sia più veloce...

Resta da dire che l'implementazione PowerPC è più lineare di quella x86, se non altro perchè è partita "bene" con una architettura moderna, con molti registri, RISC (più o meno) e che prevedeva i 64 bit fin dall'inizio... tutte cose che poi sono riusciti a mettere anche sugli x86, complicando però in modo esagerato l'implementazione... Capire come funziona un P4 è veramente difficile!

Arstechnica, comunque ha degli ottimi articoli molto tecnici in proposito dove spiega pro e contro delle varie implementazioni.

http://arstechnica.com/cpu/03q1/ppc970/ppc970-0.html
http://arstechnica.com/cpu/02q2/ppc970/ppc970-1.html
http://arstechnica.com/cpu/01q2/p4andg4e/p4andg4e-1.html

cdimauro
25-06-2004, 20:47
Originariamente inviato da Criceto
Qualcosa di strano c'è. Quelli comunque sono i numeri dichiarati da IBM. C'è da dire che il calore generato si concentra in un'area minore, e quella potrebbe essere la causa della difficoltà del raffreddamento.
Indubbiamente. Anche se, consumando molto meno (almeno dai dati di IBM), non credo che la concentrazione sia tale da generare problemi di questo tipo.
Comunque, sapranno loro qual è la verita: io posso soltanto ipotizzare da questi dettagli...
In effetti ci sono informazioni contrastanti, qui: http://pagead2.googlesyndication.com/pagead/ads?client=ca-tribalfusion_4_336x280&ca&format=336x280_new&random=1088152249560&hl=en&url=http%3A//www.geek.com/procspec/ibm/power4desktop.htm
Viene riportato che il 970 ha 52 milioni di transistor e il 970fx 58 milioni, ma da altre parti risulta che anche il 970 abbia 58 milioni di transistor... Il sito IBM non dice molto in proposito. Mah...
Che io sappia, l'FX altri non è che un "banale" shrink del core del 970: non mi risulta proprio che sia stato modificato qualcosa, anche perché i 970 derivano dai Power4; l'FX sarebbe potuto cambiare, e molto, se fosse derivato dal Power5, ma sappiamo non essere così.
Tra l'altro le informazioni di quel sito penso siano errate: già il 970 dovrebbe includere 64KB di cache L1...

cdimauro
25-06-2004, 20:53
Originariamente inviato da Criceto
Resta da dire che l'implementazione PowerPC è più lineare di quella x86, se non altro perchè è partita "bene" con una architettura moderna, con molti registri, RISC (più o meno) e che prevedeva i 64 bit fin dall'inizio..
Beh, se si parte da zero, è chiaro che gli ingegneri hanno molta più esperienza e conoscenze per tirare fuori qualcosa di meglio rispetto al passato. :)
. tutte cose che poi sono riusciti a mettere anche sugli x86, complicando però in modo esagerato l'implementazione...
Se ti riferisci all'implementazione dei 64 bit, mi sembra che in questa modalità l'ISA risulti notevolmente semplificata, oltre che potenziata...
Capire come funziona un P4 è veramente difficile!
Mah L'ISA non la trovo eccessivamente complicata, anche se analizzando gli opcode c'è da perderci la testa. Certamente un qualunque RISC presenta nativamente un'ISA semplice e una ripartizione delle informazioni negli opcode più "razionale". ;)
Arstechnica, comunque ha degli ottimi articoli molto tecnici in proposito dove spiega pro e contro delle varie implementazioni.
Letti già da parecchio tempo... ;)

Criceto
25-06-2004, 22:54
Originariamente inviato da cdimauro
Se ti riferisci all'implementazione dei 64 bit, mi sembra che in questa modalità l'ISA risulti notevolmente semplificata, oltre che potenziata...

Mah L'ISA non la trovo eccessivamente complicata, anche se analizzando gli opcode c'è da perderci la testa. Certamente un qualunque RISC presenta nativamente un'ISA semplice e una ripartizione delle informazioni negli opcode più "razionale". ;)

Letti già da parecchio tempo... ;)

No mi riferisco ai limiti storici dei registri (pochi e asimmetrici come funzionalità) e di indirizzamento (memorie paginate e simili) e anche delle stesse istruzioni un po' del cavolo... Un incubo quando all'università ho studiato il linguaggio macchina dell'8086. Soprattutto perchè prima avevo imparato un po' di assembler dello Z80 e del 68000, molto più coerenti come ISA, soprattutto il 68000, elegantissimo come implementazione.

Non ho mai studiato, in effetti, il PowerPC, ma i RISC in generale sono ancora più semplici e razionali come ISA e non ho dubbi che lo sia anche quest'ultimo, molto più recente come progettazione. In effetti è mezzo miracolo che con i limiti di architettura (meglio dire il pastrocchio più assoluto) degli 80x86, senz'altro uno dei processori peggio progettati di tutti i tempi, si sia arrivati a tanto. Potenza dei $$.

Beh, dagli incubi di allora nulla mi allontana dall'opinione che, a parità di sforzo progettuale e tecnologia, QUALSIASI processore sia meglio degli x86, per quanto facciano Intel e AMD per migliorarli! :-)

cdimauro
26-06-2004, 06:41
Originariamente inviato da Criceto
No mi riferisco ai limiti storici dei registri (pochi e asimmetrici come funzionalità)
Sono stati parzialmente superati: AMD64 offre 16 registri GPR e 16 SIMD. Inoltre il set di istruzioni è più ortogonale, perché sono spariti i famosi registri "alti" (AH, BH, CH, DH) associati esclusivamente ai primi 4 registri, mentre finalmente per TUTTI i registri si potrà accedere a livello di singolo byte (prima non era possibile per SI, DI, BP e SP).
Solamente questi rappresentano già delle notevoli migliorie: i programmatori, ma specialmente i compilatori, ci andranno a nozze... ;)
e di indirizzamento (memorie paginate e simili)
Come gestione della memoria, a partire dai 386 gli x86 hanno offerto forse uno dei migliori modelli: era possibile sfruttare la segmentazione, la pagina, o entrambi. Quanto alle modalità d'indirizzamento vere e proprie, dal 386 in poi ne sono state introdotte alcune particolarmente utili (base + indice * scala + offset), mentre gli AMD64 hanno (finalmente!) aggiunto un utilissimo indirizzamento relativo al PC.
e anche delle stesse istruzioni un po' del cavolo... Un incubo quando all'università ho studiato il linguaggio macchina dell'8086. Soprattutto perchè prima avevo imparato un po' di assembler dello Z80 e del 68000, molto più coerenti come ISA, soprattutto il 68000, elegantissimo come implementazione.
D'accordissimo per il 68000, che ritengo uno dei migliori processori in assoluto a livello di ISA, ma guarda che lo Z80 era già abbastanza "incasinato" (l'ISA era parecchio complesso), e i suoi successori (Z8000 & co) hanno fatto anche di peggio, estendendo l'architettura a 16 bit... :eek:
Non ho mai studiato, in effetti, il PowerPC, ma i RISC in generale sono ancora più semplici e razionali come ISA e non ho dubbi che lo sia anche quest'ultimo, molto più recente come progettazione.
OK, però guarda che i RISC moderni sono dotati di PARECCHIE istruzioni, e pure complesse: insomma, "Reduced Instruction Set" non è più un termine appropriato. ;) Anche i PPC hanno qualche centinaio di istruzioni... :)
In effetti è mezzo miracolo che con i limiti di architettura (meglio dire il pastrocchio più assoluto) degli 80x86, senz'altro uno dei processori peggio progettati di tutti i tempi, si sia arrivati a tanto. Potenza dei $$.
Indubbiamente, ma fortunamente sono arrivati degli "aggiustamenti" durante tutti questi anni, e l'architettura s'è un po' "ripresa". Certamente se fosse stata particolarmente "castrante", sarebbe stata abbandonata già da tempo: processori famosi come i PDP che erano montati sui VAX oggi non ne vediamo più, se non in qualche ritaglio di giornale o museo.
Beh, dagli incubi di allora nulla mi allontana dall'opinione che, a parità di sforzo progettuale e tecnologia, QUALSIASI processore sia meglio degli x86, per quanto facciano Intel e AMD per migliorarli! :-)
Io non so cosa tu voglia dire con "qualsiasi processore è meglio": se parliamo di studio di un'ISA, certamente non sono delle "belle" architetture. Se parliamo, invece, di quello che sono riuscite e ancora riescono a dare in termini prestazionali e di compattezza del codice, il discorso cambia radicalmente. D'altra parte considera che si può sviluppare un'architettura bella quanto si vuole, ma se poi praticamente non riesce a rendere bene e/o a scalare col passare degli anni, di fatto diventa inutilizzabile.

Molti RISC ormai sono "morti" proprio per questo motivo. Invece gli x86 continuano imperterriti sulla loro strada, e grazie anche ad evoluzioni come AMD64 si possono permettere di guardare al futuro con tranquillità. D'altra parte, come diceva flisi71, nella TOP500 dei supercomputer fino a qualche anno fa non esisteva NESSUNA soluzione x86, mentre adesso rappresentano la maggior parte: qualcosa dovrà pur significare, no?

Concludendo, se dai un'occhiata all'ISA degli AMD64 vedrai che è veramente più semplice e meglio studiato rispetto ai suoi predecessori: per certi versi assomiglia più a un RISC che a un CISC (sono state fatte fuori decine e decine di istruzioni "legacy", molto complesse e che veniva eseguite ancora tramite microcodice; oltre ai miglioramenti di cui sopra, e all'eliminazione della segmentazione). Nuova linfa vitale, insomma.

Criceto
26-06-2004, 13:15
Originariamente inviato da cdimauro
Sono stati parzialmente superati: AMD64 offre 16 registri GPR e 16 SIMD. Inoltre il set di istruzioni è più ortogonale, perché sono spariti i famosi registri "alti" (AH, BH, CH, DH) associati esclusivamente ai primi 4 registri, mentre finalmente per TUTTI i registri si potrà accedere a livello di singolo byte (prima non era possibile per SI, DI, BP e SP).
Solamente questi rappresentano già delle notevoli migliorie: i programmatori, ma specialmente i compilatori, ci andranno a nozze... ;)

Se l'AMD è bello come dici tu, e non lo metto in dubbio, allora non è più un 80x86!
Che si fa, si compilano programmi per AMD 64 e per Intel P4? Oppure, come al solito si prende il minimo comune denominatore ... l'80386?

E tutto il vantaggio della retrocompatibilità, per cui ancora oggi si usa l'ISA x86 dove va a finire? Tanto valeva l'approccio di Intel con Itanium: si parte BENE (?!) da zero e si fa un emulatore hardware per le istruzioni "legacy". A parte il fallimento commerciale senza precedenti di Itanium (anche ribattezzato ITANIC)...

Comunque se gli x86 sono arrivati fino ad oggi, e sono anche competitivi come prestazioni, non è certo mertito della loro "scalabilità" presunta. Il capostipide da cui tutto discende faceva veramente SCHIFO e su questo non si può discutere. Purtroppo e piuttosto casualmente è diventato uno "standard", raccogliendo il 90%+ del mercato con conseguenti vagonate di $$ per il suo sviluppo. Se la Motorola avesse avuto i soldi di Intel e AMD il 680x0 non sarebbe stato abbandonato, e il PowerPC anni luce superiore agli x86 come si pensava quanto è stata fatta l'alleanza Motorola-IBM-Apple.

A parità (quasi) di soldi, cioè nei processori di categoria server, il Power5 straccia qualsiasi Xeon e Opteron, e perfino il più "moderno" Itanium...

DioBrando
26-06-2004, 14:17
Originariamente inviato da DioBrando
E sbaglio o c'era in progetto un cluster da 50 milioni di teraflops, basato sempre su macchine Apple?

ora n riesco a trovare la notizia...per ora il progetto + grosso ( che mira inizialmente ai 50 teraflops e poi a salire nei prox anni) è quello dell'Oak Ridge National Laboratory Center for Computational Science che si avvarrà di una schiera di Cray ( prima X1 poi si vedrà)...

http://www.weekit.it/weekit/unico/art006004039440.jsp
http://www.itutilitypipeline.com/gridcomputing/20300992

mi sà che il num dove ho letto del cluster è stato cestinato :muro:
eppure il nome del laboratorio me lo ricordavo ed era proprio l'Oak...:wtf: mah



cmq questo è quanto...:)

DioBrando
26-06-2004, 15:07
mi correggo, dovrei averlo trovato.

Effettivamente il progetto è basato sì su un cluster ( di Opteron) ma la direzione del lavoro verrà data da Cray che ha acquisito OctigaBay qlc tempo fà proprio per le sue conoscenze nel campo dei supercomputer basati su piattaforme commerciali.

http://www.linuxhelp.it/modules.php?name=News&file=article&sid=1869
http://news.hwupgrade.it/11901.html

Il cluster sarà un Cray Redstorm ( basato su Opteron appunto) ed è lo stesso preventivato dall'Oak Ridge National Laboratory Center...ecco perchè mi ricordavo il nome di questo istituto associato ad una casa produttrice non esclusivamente dedita a servers/workstation ( AMD o Apple che fosse)...solo mi era sfuggita la partnership con Cray :fiufiu::D

cdimauro
26-06-2004, 21:28
Originariamente inviato da Criceto
Se l'AMD è bello come dici tu, e non lo metto in dubbio, allora non è più un 80x86!
Veramente lo è, come lo sono l'80186, l'80286, l'80386, l'80486, ecc. ecc. ecc., che sono evoluzioni dell'8086...
Che si fa, si compilano programmi per AMD 64 e per Intel P4? Oppure, come al solito si prende il minimo comune denominatore ... l'80386?
Già da tempo nell'ambito dei PC esistono eseguibili specifici per alcune architetture, oppure un unico eseguibile che contiene al suo interno parti che vengono selettivamente eseguite a seconda del sistema in cui gira.
Cosa comune anche in ambito Mac, no? Photoshop 7 supporta i sistemi 32 bit senza Altivec, quelli a 32 bit con Altivec, e anche i 64 bit di G5.
E tutto il vantaggio della retrocompatibilità, per cui ancora oggi si usa l'ISA x86 dove va a finire?
Quella c'è sempre: sul mio sistema posso ancora eseguire codice 8086 senza alcun problema... Unica differenza: va a velocità stellare... ;)
Tanto valeva l'approccio di Intel con Itanium: si parte BENE (?!) da zero e si fa un emulatore hardware per le istruzioni "legacy".
Ci sono delle differenze sostanziali:
1) gli AMD64 posso far girare codice "vecchio" in maniera del tutto trasparente.
2) non è presente nessuna "emulazione", al contrario di Itanium, e la velocità quindi è elevatissima.
A parte il fallimento commerciale senza precedenti di Itanium (anche ribattezzato ITANIC)...
Per me l'unica cosa che ha di buono questo sistema è data dalle prestazioni sui FP.
Comunque se gli x86 sono arrivati fino ad oggi, e sono anche competitivi come prestazioni, non è certo mertito della loro "scalabilità" presunta.
Veramente non è presunta: lo constatiamo ogni giorno.
Il capostipide da cui tutto discende faceva veramente SCHIFO e su questo non si può discutere.
Indubbiamente.
Purtroppo e piuttosto casualmente è diventato uno "standard", raccogliendo il 90%+ del mercato con conseguenti vagonate di $$ per il suo sviluppo. Se la Motorola avesse avuto i soldi di Intel e AMD il 680x0
Motorola è SEMPRE stata davanti ad AMD, ma dietro a Intel.
non sarebbe stato abbandonato,
Mah, è da vedere: il 680x0 aveva una bellissima architettura, ma era "molto CISC"; è difficile riuscire a far scalare in velocità un'ISA che si può permettere il lusso di avere istruzioni lunghe fino a 22 byte (!!!) e che ti fanno anche il caffé (tanto per citare un paio di esempi: gli indirizzamenti indiretti e le istruzioni per i campi di bit). Purtroppo. :cry:
e il PowerPC anni luce superiore agli x86 come si pensava quanto è stata fatta l'alleanza Motorola-IBM-Apple.
Guarda che quest'alleanza ha fatto benissimo: certamente solo Motorola e IBM avevano e hanno singolarmente molte, ma molte più risorse paragonate a una società come AMD. Però quest'ultima è riuscita a uscire dall'anonimato dei produttori di cloni x86, e adesso è la maggiore concorrente del colosso che è Intel. Ma ancora oggi AMD non è che sia una società enorme. Certamente si sta sapendo muovere molto bene, diversificando l'offerta e comprendo tanti mercati.
Insomma, la "triplice alleanza" quel che poteva l'ha fatto, ma non è bastato per contrastare il dominio di Intel.
A parità (quasi) di soldi, cioè nei processori di categoria server, il Power5 straccia qualsiasi Xeon e Opteron, e perfino il più "moderno" Itanium...
Vedremo quanto riuscirà a erogare a livello prestazionale sugli interi e i floating point. Certamente in termini di soldi è un'architettura MOLTO costosa, e secondo me a parità di costi ci si potrebbero fare dei cluster con Xeon e Opteron, e con prestazioni più elevate... ;)

cdimauro
26-06-2004, 21:29
x DioBrando: è interessante analizzare anche i costi di questo cluster di Opteron. 60Tflops per circa 2 milioni di dollari di costo è veramente poco... :eek:

DioBrando
27-06-2004, 06:32
Originariamente inviato da cdimauro
x DioBrando: è interessante analizzare anche i costi di questo cluster di Opteron. 60Tflops per circa 2 milioni di dollari di costo è veramente poco... :eek:

infatti...

e credo che Cray al di là di questa acquisizione volesse puntare proprio a questo, cioè diversificare maggiormente la propria linea di prodotti, mantenendo l'X1 e altri modelli molto costosi nella "fascia alta", ma allo stesso tempo migliorare le prestazioni dei supercalcolatori basati su cluster di parecchie macchine per la "fascia bassa"; anche perchè gli AMD così come i Mac dovrebbero salire di frequenza in futuro con il cambio di processo produttivo...

avendo lo spazio dove metterli :D, diventa una soluzione + che abbordabile per il budget di strutture istituzionali o di ricerca ( che già spendono qlc miliardo per apparecchiature mediche ad es)...

cdimauro
27-06-2004, 12:46
Tra l'altro tra qualche mese vedremo delle soluzioni dual core, per cui le prestazioni dovrebbero subire un netto boost già soltanto utilizzandoli. E per il futuro ci sono i multicore. ;)
Secondo me questa delle CPU desktop è la soluzione migliore per Cray e altri costruttori di supercomputer: notevole potenza di calcolo, ma a costi molto ridotti...

FaveDiFuca
27-06-2004, 22:49
Originariamente inviato da cdimauro
...

Che io sappia, l'FX altri non è che un "banale" shrink del core del 970: non mi risulta proprio che sia stato modificato qualcosa, anche perché i 970 derivano dai Power4; l'FX sarebbe potuto cambiare, e molto, se fosse derivato dal Power5, ma sappiamo non essere così.
Tra l'altro le informazioni di quel sito penso siano errate: già il 970 dovrebbe includere 64KB di cache L1...

Per la cache e i transistor

http://www.apple.com/g5processor/executioncore.html
http://www.apple.com/g5processor/ibmprocess.html

cdimauro
28-06-2004, 06:01
Appunto. Non ha nulla di diverso rispetto al PPC970, a parte l'adozione del processo a 0,09u.

flisi71
28-06-2004, 08:34
Originariamente inviato da Criceto
Se l'AMD è bello come dici tu, e non lo metto in dubbio, allora non è più un 80x86!
Che si fa, si compilano programmi per AMD 64 e per Intel P4? Oppure, come al solito si prende il minimo comune denominatore ... l'80386?


Opteron esegue un qualunque codice x86, in più ha un nuovo ISA denominato commercialmente x86-64 che incorpora alcune novità e anche molte istruzioni già x86.
Intel supporterà anche la nuova modalità (sviluppata originariamente da AMD) e la denominerà EM64T (o qualcosa del genere).


E tutto il vantaggio della retrocompatibilità, per cui ancora oggi si usa l'ISA x86 dove va a finire? Tanto valeva l'approccio di Intel con Itanium: si parte BENE (?!) da zero e si fa un emulatore hardware per le istruzioni "legacy". A parte il fallimento commerciale senza precedenti di Itanium (anche ribattezzato ITANIC)...


Hai poca cognizione di causa: nel segmento dove combatte Itanium i concorrenti non si chiamano Opteron o Xeon, ma UltraSPARC, MIPS, PA-RISC e POWER.
Vediamoli in ordine:
la prima è agonizzante, ha abbandonato i piani di sviluppo futuri per US5 e si dedica ai processori di nicchia Niagara, adatti solo come web-server e poco più.
La seconda e la terza sono architetture morte: è già stata deciso il passaggio ad Itanium e sono attivi programmi di migrazione di piattaforma
La quarta è l'unica che regge, ma è utilizzata solo dalla casa madre IBM.



....
A parità (quasi) di soldi, cioè nei processori di categoria server, il Power5 straccia qualsiasi Xeon e Opteron, e perfino il più "moderno" Itanium...

In quale bench/applicativo?
:confused:

Ciao

Federico

flisi71
28-06-2004, 08:39
Qui c'è un articolo sui presunti problemi di IBM nel passaggio al nuovo processo produttivo

http://www.eweek.com/article2/0,1759,1617538,00.asp

Ciao

Federico

Criceto
28-06-2004, 09:35
Originariamente inviato da flisi71
Hai poca cognizione di causa: nel segmento dove combatte Itanium i concorrenti non si chiamano Opteron o Xeon, ma UltraSPARC, MIPS, PA-RISC e POWER.


Beh, non è esattamente così.

Se quando è stato pensato Itanium il suo target potevano essere quei processori (allora utilizzati sulle principale workstation dell'epoca), perchè l'architettura x86 era vista dalla stessa Intel come decisamente inferiore per competere in quell'ambito, nel frattempo le cose sono un po' cambiate.

L'architettura x86 ha fatto passi da gigante superando le più rosee previsioni di tutti, in realtà con un approccio alla fine simile allo stesso Itanium: un "compilatore" hardware del codice x86 per una architettura RISC moderna (quello che sono in realtà gli ultimi processori P4 e AMD da Athlon in poi).

I $$ ottenuti con il monopolio quasi assoluto del mercato desktop hanno permesso uno sviluppo tale di questi processori che SUN (UltraSparc) e Silicon Graphics (MIPS) non sono riusciti a stargli dietro, pur disponendo di architetture di base superiori. Ci aggiungerei anche Alpha, il migliore del lotto, ma terminato più per ragioni commerciali (la Digital, sua creatrice, è stata acquisita prima da Compaq poi da HP che ha sviluppato insieme a Intel l'Itanium) che di competitività. I PA-RISC essendo di HP, hanno subito sempre la stessa sorte a favore di Itanium.

L'unica rimasta sul mercato, in grado di competere sia dal punto tecnico che soprattutto FINANZIARIO è l'IBM.

Questa sorte però l'ha quasi subita anche lo stesso Itanium! Che si è visto scavalcare come prestazioni alla sua nascita (dopo lunghissima e difficile gestazione) dagli stessi x86 a cui era stato destinato a succedere nella fascia alta di mercato.

Quindi Intel in realtà si è trovata in una situazione un po' strana, disponendo di un processore (x86) ormai, e quasi involontariamente, competitivo anche con i mostri sacri delle workstation e dei server, e un'altro processore, Itanium, in cui ha investito FANTASTILIARDI per il suo sviluppo e nato proprio per quel mercato, che non era poi così superiore al presunto fratello "minore" ormai assunto a standard!

Ora con l'Itanium 2 il problema prestazionale l'hanno IN PARTE superato, ma gli x86 (sia della stessa Intel che gli Opteron di AMD) rimangono i suoi concorrenti più temibili, soprattutto per un discorso di costo/prestazioni (dove Itanium non eccelle) e di compatibilità con il codice x86, ben più dei realmente competitivi (prestazionalmente) IBM Power e PowerPC.

Criceto
28-06-2004, 09:57
Originariamente inviato da flisi71
In quale bench/applicativo?


Pur con un solo "core" utilizzato dai benchmarc SPEC (i Power4 e 5 ne hanno due, l'Itanium 1), il Power4+ non è lontano dall'ultimo Itanium Madison e il Power5 sembrebbe assai superiore.

Qui ci sono un po' di bench:
http://www.bayarea.net/~kins/AboutMe/CPUs.html

flisi71
28-06-2004, 09:59
Originariamente inviato da Criceto
Beh, non è esattamente così.

.....
I $$ ottenuti con il monopolio quasi assoluto del mercato desktop hanno permesso uno sviluppo tale di questi processori che SUN (UltraSparc) e Silicon Graphics (MIPS) non sono riusciti a stargli dietro, pur disponendo di architetture di base superiori. Ci aggiungerei anche Alpha, il migliore del lotto, ma terminato più per ragioni commerciali (la Digital, sua creatrice, è stata acquisita prima da Compaq poi da HP che ha sviluppato insieme a Intel l'Itanium) che di competitività. I PA-RISC essendo di HP, hanno subito sempre la stessa sorte a favore di Itanium.


US un processore valido?
MIPS processori validi?
Assolutamente no. Hanno sempre avuto costi iperbolici (superiori a quelli correnti di Itanium) con prestazioni scarse.
Lasciamo perdere la favola di Alpha, architettura che si basava solo sui MHz per aver prestazioni e che è morta al momento in cui non è più riuscita a scalare in frequenza.



L'unica rimasta sul mercato, in grado di competere sia dal punto tecnico che soprattutto FINANZIARIO è l'IBM.


Senz'altro, ha una quota di mercato che gli permette ancora di creare questo tipo di processori.



Quindi Intel in realtà si è trovata in una situazione un po' strana, disponendo di un processore (x86) ormai, e quasi involontariamente, competitivo anche con i mostri sacri delle workstation e dei server, e un'altro processore, Itanium, in cui ha investito FANTASTILIARDI per il suo sviluppo e nato proprio per quel mercato, che non era poi così superiore al presunto fratello "minore" ormai assunto a standard!


Veramente è parecchio tempo che Itanium è stato riposizionato nel mercato dei server ad alte/altissime prestazioni e nei cluster HPC, lasciando sguarnito il settore workstation/server di fascia medio/bassa, dove oggettivamente i processori x86 hanno prestazioni più che adeguate.



Ora con l'Itanium 2 il problema prestazionale l'hanno IN PARTE superato, ma gli x86 (sia della stessa Intel che gli Opteron di AMD) rimangono i suoi concorrenti più temibili, soprattutto per un discorso di costo/prestazioni (dove Itanium non eccelle) e di compatibilità con il codice x86, ben più dei realmente competitivi (prestazionalmente) IBM Power e PowerPC.

Assolutamente no: hai mai visto un server PowerPC con più di 2 processori? O un analogo Opteron con più di 4?
Hai mai visto una di queste realizzazioni con protezione della memoria o inserimento a caldo di CPU e/o ram?
Queste CPU non sono concorrenti diretti di Itanium, lo è solo POWER (creato da IBM per sole macchine IBM)

Ciao

Federico

Criceto
28-06-2004, 10:05
Originariamente inviato da flisi71
Assolutamente no: hai mai visto un server PowerPC con più di 2 processori? O un analogo Opteron con più di 4?
Hai mai visto una di queste realizzazioni con protezione della memoria o inserimento a caldo di CPU e/o ram?
Queste CPU non sono concorrenti diretti di Itanium, lo è solo POWER (creato da IBM per sole macchine IBM)


A me sembra che Itanium, dovunque venga posizionato, prende gli schiaffi.
Nei cluster viene battuto senza pietà nel rapporto prezzo prestazioni dagli Opteron e dai PowerPC.
Nei super-server multiprocessore dai Power4 (prima) e Power5 ora di IBM...

flisi71
28-06-2004, 10:08
Originariamente inviato da Criceto
Pur con un solo "core" utilizzato dai benchmarc SPEC (i Power4 e 5 ne hanno due, l'Itanium 1), il Power4+ non è lontano dall'ultimo Itanium Madison e il Power5 sembrebbe assai superiore.

Qui ci sono un po' di bench:
http://www.bayarea.net/~kins/AboutMe/CPUs.html

E la prima cosa che riportano del G5 è che i risultati sono sovrastimati (oppure dovremmo credere a Jobs che un processore ottenuto come semplificazione del POWER4 risulti più veloce di esso:rolleyes: )

Ciao

Federico

Criceto
28-06-2004, 10:10
Originariamente inviato da flisi71
US un processore valido?
MIPS processori validi?
Assolutamente no. Hanno sempre avuto costi iperbolici (superiori a quelli correnti di Itanium) con prestazioni scarse.

Come dicevo in un messaggio precedente... TUTTE le architetture sono migliori di quella x86, senza eccezioni!! ;-)

Poi le cose sono andate come sono andate...

Il MIPS, che io sappia, era un ottimo e puro RISC, utilizzato alla fine dei suoi giorni (e forse ancora) in applicazioni più economiche e modeste, per esempio una consolle Nintendo di pochi anni fa aveva un processore da 100mhz basato sul MIPS progettato dalla SGI...

flisi71
28-06-2004, 10:33
Originariamente inviato da Criceto
A me sembra che Itanium, dovunque venga posizionato, prende gli schiaffi.
Nei cluster viene battuto senza pietà nel rapporto prezzo prestazioni dagli Opteron e dai PowerPC.
Nei super-server multiprocessore dai Power4 (prima) e Power5 ora di IBM...

Ancora sbagliato: la classifica top500 ti da un metro di valutazione di diverse macchine secondo il test LINNPACK, ma chi costruisce queste macchine non è detto che ci faccia girare solo applicazioni che si comportano linearmente come tal test.
Cercati qualche altro bench e vedrai classifiche un tantinello diverse.

Passando all'ambito server: hai mai sentito parlare di TPC?
Prima di farti una ricerchina con google, scommetti chi troverai ai primi posti in classifica sul numero di transazioni al minuto? (ancora non ci ho guardato ma me lo immagino)

Ciao

Federico

flisi71
28-06-2004, 10:39
Originariamente inviato da Criceto
Come dicevo in un messaggio precedente... TUTTE le architetture sono migliori di quella x86, senza eccezioni!! ;-)

Poi le cose sono andate come sono andate...

Il MIPS, che io sappia, era un ottimo e puro RISC, utilizzato alla fine dei suoi giorni (e forse ancora) in applicazioni più economiche e modeste, per esempio una consolle Nintendo di pochi anni fa aveva un processore da 100mhz basato sul MIPS progettato dalla SGI...
Cioè secondo te R4400 era una buona CPU?
(andava poco più del 486 con costi almeno tripli)
R5000 valeva qualcosa?
(assolutamente no, andava meno di un Pentium pur costando qualcosa di più)
R10000 era valido?
(avesse avuto qualche MHz quando gli altri gli mangiavano al pappa in capo)

Erano CPU idolatrate perchè installate su macchine SGI, che erano l'unica opzione possibile per fare grafica 3D fino a 10 anni fa.

Ciao

Federico

Criceto
28-06-2004, 10:46
Originariamente inviato da flisi71
Ancora sbagliato: la classifica top500 ti da un metro di valutazione di diverse macchine secondo il test LINNPACK, ma chi costruisce queste macchine non è detto che ci faccia girare solo applicazioni che si comportano linearmente come tal test.


Bah... i cluster con Itanium costano troppo per quello che offrono.
Meglio un BigMac! (non quello di MacDonald! :-)
Esistono solo perchè ci sono Intel e HP dietro...


Passando all'ambito server: hai mai sentito parlare di TPC?


Si, transazioni per minuto. O qualcosa del genere... Roba da mainframe, non esattemente quello che mi diverte e interessa di più. Ma dove IBM è sempre stata al top.


Prima di farti una ricerchina con google, scommetti chi troverai ai primi posti in classifica sul numero di transazioni al minuto? (ancora non ci ho guardato ma me lo immagino)


Falla tu la ricerchina. Ma dubito che IBM perda nel suo parco giochi...

flisi71
28-06-2004, 11:00
Originariamente inviato da Criceto
Bah... i cluster con Itanium costano troppo per quello che offrono.
Meglio un BigMac! (non quello di MacDonald! :-)
Esistono solo perchè ci sono Intel e HP dietro...


Non è vero: già LINPACK ti fa vedere la paurosa differenza fra GFlops teorici e reali, dove Itanium mantiene circa l'87% di ciò che promette, mentre il "big Mac" non andava oltre il 58%.
Scusa se è poco.


Si, transazioni per minuto. O qualcosa del genere... Roba da mainframe, non esattemente quello che mi diverte e interessa di più. Ma dove IBM è sempre stata al top.
Falla tu la ricerchina. Ma dubito che IBM perda nel suo parco giochi...

L'ho fatta, www.tpc.org
Nel primo bench TPC-C vedo 4 macchine IBM ai posti 2-5-6-8 e 4 macchine HP ai posti 1-3-4-7

L'unica macchina IBM nei primi 3 posti è quella con i nuovi POWER4+ a 1,9GHz, le macchine HP sono Integrity in versione cluster o SuperDome con processori Itanium2 a 1,5 GHz.

Comunque mi ero azzardato nella scommessa perchè me lo immaginavo, HP non fa altro che riempirci di msg promozionali sui livelli transazionali raggiunti dalle proprie macchine.
Ora delle due l'una: o è come l'Apple dove basta sparare i numeri oppure ha dietro le prestazioni che confermano tali numeri.

Criceto
28-06-2004, 11:13
Originariamente inviato da flisi71
Non è vero: già LINPACK ti fa vedere la paurosa differenza fra GFlops teorici e reali, dove Itanium mantiene circa l'87% di ciò che promette, mentre il "big Mac" non andava oltre il 58%.
Scusa se è poco.


Ma non ci volevano più processori Itanium che PowePC per avere gli stessi Teraflops? Così risultava dalle prime macchine in classifica...
(senza contare il costo)


L'ho fatta, www.tpc.org
Nel primo bench TPC-C vedo 4 macchine IBM ai posti 2-5-6-8 e 4 macchine HP ai posti 1-3-4-7

L'unica macchina IBM nei primi 3 posti è quella con i nuovi POWER4+ a 1,9GHz, le macchine HP sono Integrity in versione cluster o SuperDome con processori Itanium2 a 1,5 GHz.

Comunque mi ero azzardato nella scommessa perchè me lo immaginavo, HP non fa altro che riempirci di msg promozionali sui livelli transazionali raggiunti dalle proprie macchine.
Ora delle due l'una: o è come l'Apple dove basta sparare i numeri oppure ha dietro le prestazioni che confermano tali numeri.

Sicuramente come Apple pubblicizza i benchmark con Photoshop (dove sa di essere superiore, però ultimamente ci ha messo anche gli SPEC, dove prima non si era mai azzardata) così HP farà con le sue macchine, magari costruite senza badare a spese, solo per arrivare prime in quello specifico benchmark.
Tutta fatica inutile considerando che ormai i Power4 sono ROBBA VECCHIA, sono usciti i Power5!!

flisi71
28-06-2004, 11:43
Originariamente inviato da Criceto
Ma non ci volevano più processori Itanium che PowePC per avere gli stessi Teraflops? Così risultava dalle prime macchine in classifica...
(senza contare il costo)


Sui numeri pubblicati

il fu "big mac" era accreditato di:


10280 GFlops max
17600 GFlpos teorici
2200 CPU

che fanno una efficenza max del 58% circa ovvero 4,67 GFlops max per CPU (almeno per questo test)

la macchina Thunder dei LLNL è accreditato nel medesimo bench di:

19940 GFlops max
22938 GFlops teorici
4096 CPU

che fanno una efficenza max dell' 86,9% circa ovvero 4,86 GFlops max per CPU (almeno per questo test)



Sicuramente come Apple pubblicizza i benchmark con Photoshop (dove sa di essere superiore, però ultimamente ci ha messo anche gli SPEC, dove prima non si era mai azzardata) così HP farà con le sue macchine, magari costruite senza badare a spese, solo per arrivare prime in quello specifico benchmark.
Tutta fatica inutile considerando che ormai i Power4 sono ROBBA VECCHIA, sono usciti i Power5!!

Sei sicuro che siano realmente disponibili?

Ciao

Federico

Criceto
28-06-2004, 11:56
Originariamente inviato da flisi71
il fu "big mac" era accreditato di:

10280 GFlops max
17600 GFlpos teorici
2200 CPU

che fanno una efficenza max del 58% circa ovvero 4,67 GFlops max per CPU (almeno per questo test)

la macchina Thunder dei LLNL è accreditato nel medesimo bench di:

19940 GFlops max
22938 GFlops teorici
4096 CPU

che fanno una efficenza max dell' 86,9% circa ovvero 4,86 GFlops max per CPU (almeno per questo test)


Ma che significa "efficienza", dove li hai tirati fuori i Gflops teorici?
Io vedo che gli Itanium (nei cluster) fanno 4.5 GFlops/processore, mentre i PowerPC del BigMac 4.67 GFlops/processore!!
E questo senza contare il costo di 4 VOLTE superiore per CPU rispetto BigMac!!


Sei sicuro che siano realmente disponibili?


Beh credo di sì, queste "bestiole" qui: http://www-1.ibm.com/servers/eserver/iseries/

Le hanno presentate poche settimane fà...

Criceto
28-06-2004, 12:00
Originariamente inviato da Criceto
Io vedo che gli Itanium (nei cluster) fanno 4.5 GFlops/processore, mentre i PowerPC del BigMac 4.67 GFlops/processore!!


Scusa, ho sbagliato i conti (sono giusti i tuoi). Però il succo del rapporto prezzo/prestazioni e della NON superiorità in assoluto degli Itanium rispetto ai PowerPC rimane...

flisi71
28-06-2004, 12:07
Originariamente inviato da Criceto
Ma che significa "efficienza", dove li hai tirati fuori i Gflops teorici?
Io vedo che gli Itanium (nei cluster) fanno 4.5 GFlops/processore, mentre i PowerPC del BigMac 4.67 GFlops/processore!!
E questo senza contare il costo di 4 VOLTE superiore per CPU rispetto BigMac!!


parlo di efficenza per indicare la discrepanza tra i valori

Rmax = Maximal LINPACK performance achieved
Rpeak = Theoretical peak performance

Dove il secondo dato non è significato se non per valutare quanta parte di prestazione si riesce davvero a ricavare dal processore


Beh credo di sì, queste "bestiole" qui: http://www-1.ibm.com/servers/eserver/iseries/

Le hanno presentate poche settimane fà...

Ora ci guardo.

Ciao

Federico

flisi71
28-06-2004, 12:08
Originariamente inviato da Criceto
Scusa, ho sbagliato i conti (sono giusti i tuoi). Però il succo del rapporto prezzo/prestazioni e della NON superiorità in assoluto degli Itanium rispetto ai PowerPC rimane...
E ci credo, hai un bug nei tuoi circuiti della divisione!!!!!

:eek:
:D

Ciao

Federico

DioBrando
28-06-2004, 12:43
potete scrivere di meno per favore? :D

Non è una chat e io che sn arrivato qlc ora dopo mi trovo già a n seguire + il discorso ( che è complesso di per sè) http://d1obrando.altervista.org/Faccine/cornuto.gif

flisi71
28-06-2004, 12:46
Non è colpa mia.
:mc:

E' esclusiva colpa del roditore!!!


Ciao

Federico
:D

FaveDiFuca
28-06-2004, 13:08
Originariamente inviato da cdimauro
Appunto. Non ha nulla di diverso rispetto al PPC970, a parte l'adozione del processo a 0,09u.

6.000.000 di transistor in più

cdimauro
28-06-2004, 20:57
Dove li hanno messi, visto che la cache L1 per il codice era già di 64KB? Secondo me le cifre sono sbagliate. Comunque sarei curioso di sapere qualche informazione ufficiale in merito: se hanno modificato qualcosa, si dovrà pur sapere dove sono state fatte...

cdimauro
28-06-2004, 21:03
Originariamente inviato da Criceto
L'architettura x86 ha fatto passi da gigante superando le più rosee previsioni di tutti, in realtà con un approccio alla fine simile allo stesso Itanium: un "compilatore" hardware del codice x86 per una architettura RISC moderna (quello che sono in realtà gli ultimi processori P4 e AMD da Athlon in poi).
A parte il fatto che il traduttore RISC86 esiste dai tempi del K5 di AMD (se non ricordo male), e quindi ben prima della nascita del progetto Itanium, l'unica somiglianza rimane questa, perché per il resto non hanno nulla in comune...
I $$ ottenuti con il monopolio quasi assoluto del mercato desktop hanno permesso uno sviluppo tale di questi processori che SUN (UltraSparc) e Silicon Graphics (MIPS) non sono riusciti a stargli dietro, pur disponendo di architetture di base superiori.
Dove l'hai visto questo, scusa? Me lo spieghi?
Poi ti ricordo che AMD non nessun monopolio, il suo bilancio in confronto a quello di Intel è una briciola, eppure è riuscita, con pochi soldi (rispetto a quelli del monopolio di Intel), a tirare fuori architetture eccezionali. A questo punto c'è qualcosa che non quadra nel tuo discorso...
Ora con l'Itanium 2 il problema prestazionale l'hanno IN PARTE superato, ma gli x86 (sia della stessa Intel che gli Opteron di AMD) rimangono i suoi concorrenti più temibili, soprattutto per un discorso di costo/prestazioni (dove Itanium non eccelle) e di compatibilità con il codice x86, ben più dei realmente competitivi (prestazionalmente) IBM Power e PowerPC.
Opteron lo puoi confrontare con Itanium soltanto per soluzioni fino a 8 CPU: per adesso non c'è altro.

cdimauro
28-06-2004, 21:14
Originariamente inviato da Criceto
Come dicevo in un messaggio precedente... TUTTE le architetture sono migliori di quella x86, senza eccezioni!! ;-)
Bisogna vedere cosa intendi per "migliori". E poi molte sono "defunte"... :D
Poi le cose sono andate come sono andate...
Vuol dire che gli x86 hanno saputo offrire il miglior rapporto prezzo/prestazioni...
Il MIPS, che io sappia, era un ottimo e puro RISC, utilizzato alla fine dei suoi giorni (e forse ancora) in applicazioni più economiche e modeste, per esempio una consolle Nintendo di pochi anni fa aveva un processore da 100mhz basato sul MIPS progettato dalla SGI...
T'ha già risposto flisi71, ma ti chiedo: cosa sai dei MIPS? Conosci la loro architettura? Puoi ben dire che sono degli "ottimi" e "puri" RISC, proprio perché il numero di istruzioni che hanno li puoi contare sulle dita di una mano monca: sono pochissime, e semplicissime. E le prestazioni sono veramente scarse.
Tanto per fare un esempio: sai qual è la differenza fra 1 MIPS sviluppati da un core MIPS (!) e 1 da un core x86 dal PentiumPro/K6 in poi? Che con questi ultimi ti puoi permettere il lusso di generarli con istruzioni come
LEA EAX,[EBX + ECX * 4 + 12345678]
mentre la cosa più "pesante" che riesce a fare un core MIPS è
lw $1, 65535[$2]

Immagina quante istruzioni deve utilizzare un core semplice come quello di un MIPS per realizzare degli algoritmi, e quanto tempo di esecuzione risulta necessario, quando invece con dei CISC x86 il codice non solo è più compatto, ma anche più veloce... :rolleyes:

cdimauro
28-06-2004, 21:18
Originariamente inviato da Criceto
Sicuramente come Apple pubblicizza i benchmark con Photoshop (dove sa di essere superiore, però ultimamente ci ha messo anche gli SPEC, dove prima non si era mai azzardata)
Bisogna anche vedere come li ha fatti questi benchmark, perché anche con Photoshop 7 i dual G5 a 2Ghz erano sotto gli Athlon FX51 (vedi i famosi test di PCWorld), e non è che le cose cambino radicalmente dal giorno alla notte...

Criceto
28-06-2004, 22:51
Originariamente inviato da cdimauro
Bisogna vedere cosa intendi per "migliori". E poi molte sono "defunte"... :D


Architettura. Eleganza. Se ancora significa qualcosa...
Poi, Intel Docet, si può far correre anche un cancello, avendo i $$...


Vuol dire che gli x86 hanno saputo offrire il miglior rapporto prezzo/prestazioni...


Sicuramente. Grazie alle economie di scala derivanti dal monopolio del mercato desktop.


T'ha già risposto flisi71, ma ti chiedo: cosa sai dei MIPS? Conosci la loro architettura? Puoi ben dire che sono degli "ottimi" e "puri" RISC, proprio perché il numero di istruzioni che hanno li puoi contare sulle dita di una mano monca: sono pochissime, e semplicissime. E le prestazioni sono veramente scarse.


Non so molto. Erano RISC puri, tra i primi, tra i più semplici (forse), ma tra i più veloci al loro auge. Erano i processori dei Silicon Graphics. Il top, i computer più fichi dell'universo.

Quando il MIPS faceva la sua bella istruzione lw $1, 65535[$2] (di cui ignoro il significato, ma posso azzardare che sia l'assegnamento al registro $1 del contenuto della memoria all'indirizzo 65535 con offset del registro $2), in un ciclo di clock, sicuramente l'Intel dell'epoca (386-486?) non faceva quella bestia di LEA EAX,[EBX + ECX * 4 + 12345678] (di cui ignoro lo stesso la funzione e non mi azzardo ad azzardare niente, tanto è incomprensibile) nello stesso ciclo di clock e sicuremente non faceva neanche l'istruzione del MIPS senza il suo bel microcodice (e svariati cicli).

Poi certo, gli x86 sono cresciuti, la bestia di istruzione hanno imparato a spezzettarla in varie istruzioni RISC-Like dandola in pasto in parallelo alle varie ALU che i loro 100 milioni di transistor gli consentono, magari riuscendola a finire (cache e pipeline permettendo) perfino in un ciclo di clock... mentre il MIPS che non è stato più sviluppato è restato al palo.

Però questo non significa che non sarebbe stato più efficace evolvere il più semplice core RISC, riempendolo ugualmente di ALU, aumentando il path con la memoria per ciucciuarsi 2-4 istruzioni a botta e fare lo stesso o più, in modo più elegante e lineare, quello che fà faticosamente il core di un x86 moderno.


Immagina quante istruzioni deve utilizzare un core semplice come quello di un MIPS per realizzare degli algoritmi, e quanto tempo di esecuzione risulta necessario, quando invece con dei CISC x86 il codice non solo è più compatto, ma anche più veloce...

Infatti il PowerPC, come tu o flisi71 avete ricordato, ha un approccio meno "puro" al concetto RISC, comprendento molte istruzioni, alcune anche relativamente complesse, ma sempre lineari per una codifica diretta senza le decodifiche "creative" degli x86.

Criceto
28-06-2004, 23:24
Originariamente inviato da cdimauro
A parte il fatto che il traduttore RISC86 esiste dai tempi del K5 di AMD (se non ricordo male), e quindi ben prima della nascita del progetto Itanium, l'unica somiglianza rimane questa, perché per il resto non hanno nulla in comune...


Io mi ricordo l'Athlon, ma mi potrei sbagliare. L'Athlon comunque mi impressionò per le sue caratteristiche, quando uscì. Davvero una bestia. I PowerPC all'epoca erano indietro... soprattutto di transistor!
Il progetto Itanium è nato invece MOLTO prima, non ti saprei dire precisamente l'anno, ma più o meno all'epoca dei primi Pentium o prima. Anche se poi effettivamente i processori sono arrivati mooooooolto dopo.


Poi ti ricordo che AMD non nessun monopolio, il suo bilancio in confronto a quello di Intel è una briciola, eppure è riuscita, con pochi soldi (rispetto a quelli del monopolio di Intel), a tirare fuori architetture eccezionali.


E' vero, AMD ha fatto un lavoro encomiabile con non troppi soldi. Ma fino a quando non è uscito Athlon, realizzato sull'onda del successo del K5, era indietro a Intel (e a PowerPC).

Però la piattaforma PowerPC è sempre stata messa peggio in quanto a $$, tranne che all'inizio quando si pensava di farne una piattaforma alternativa agli x86.

Su PowerPC ci doveva essere Microsoft con Windows NT (e per un po' effettivamente c'è stata), Motorola con la sua piattaforma hardware di riferimento, IBM con il suo OS/2 e i suoi server... e infine Apple che sembrava la più sfigata.

Invece di queste è rimasta solo Apple mentre tutte le altre hanno fallito, lasciando il mercato dei processori PowerPC ad esclusivo beneficio di Apple che ha volumi certo non paragonabili al mondo x86, perdipiù dividendo la produzione tra due costruttori (Motorola, IBM). Quindi, pur con un'architettura superiore non sempre (direi quasi mai) i PowerPC sono riusciti ad essere all'altezza degli x86 quanto a prestazioni...

Ora però (e per fortuna!) c'è un rinnovato interesse di IBM per i PowerPC, che li vuole utilizzare per i suoi server di fascia medio-bassa basati su Linux, e i risultati di una architettura superiore si stanno finalmente vedendo!

cdimauro
29-06-2004, 07:23
Originariamente inviato da Criceto
Architettura. Eleganza. Se ancora significa qualcosa...
Poi, Intel Docet, si può far correre anche un cancello, avendo i $$...
Quale eleganza può avere un processore con un set d'istruzioni ridotto all'osso? Soltanto la semplicità ESTREMA. Ma alla fine un po' di lavoro glielo dobbiamo dare a questi processori? E quanto pensi che siano veloci ad eseguire il compito per cui sono stati progettati (ossia eseguire programmi)?
Sicuramente. Grazie alle economie di scala derivanti dal monopolio del mercato desktop.
Il monopolio sai benissimo che non c'è mai stato, proprio nel mercato dei computer, e quindi dei processori: sono sempre esistite una quantità variegata di sistemi diversi, che se lo sono contesi.
Se alla fine s'è imposta l'architettura x86, è soltanto perché, a un certo punto, è divenuta la più conveniente. Finché la Commodore vendeva gli Amiga a basso prezzo, era questo il sistema che vedevi per la maggiore nelle case delle famiglie: computer a bassi prezzi e ottime prestazioni. E vendevano, vendevano tanto. Poi è fallita (anzi, l'hanno fatta fallire. :rolleyes: :muro:), e nessun altro ha preso il suo posto.
Da un po' di anni quel posto l'hanno preso i PC che ti vendono nei supermercati.
Quindi, non vedo tutto questo monopolio: quello dei PC è sempre stato simile al mercato delle auto; libera concorrenza.
Non so molto. Erano RISC puri, tra i primi, tra i più semplici (forse), ma tra i più veloci al loro auge. Erano i processori dei Silicon Graphics. Il top, i computer più fichi dell'universo.
E solo per questo lo erano: perché SGI è sempre stata il mito del non plus-ultra, ma tu lo sai quale hardware GRAFICO utilizzava SGI? Cose impressionanti per l'epoca: ci credo che venivano considerati dei mostri.
Ma i processori lasciali perdere: erano molto economico da produrre, ed era questa la loro convenienza, certamente non la velocità di esecuzione, visto che dovevano ricorrere a più istruzioni rispetto ad altre architetture per fare lo stesso lavoro.
Considera che i RISC ARM sono fra i più semplici (il primo della famiglia aveva soltanto 25 mila transistor), ma paragonato a un RISC MIPS praticamente è un CISC. E t'ho detto già tutto con questo.. ;)
Quando il MIPS faceva la sua bella istruzione lw $1, 65535[$2] (di cui ignoro il significato, ma posso azzardare che sia l'assegnamento al registro $1 del contenuto della memoria all'indirizzo 65535 con offset del registro $2),
Esatto.
in un ciclo di clock, sicuramente l'Intel dell'epoca (386-486?) non faceva quella bestia di LEA EAX,[EBX + ECX * 4 + 12345678] (di cui ignoro lo stesso la funzione e non mi azzardo ad azzardare niente, tanto è incomprensibile) nello stesso ciclo di clock e sicuremente non faceva neanche l'istruzione del MIPS senza il suo bel microcodice (e svariati cicli).
Hai azzardato un'ipotesi, ma la storia non va così. Il 486 (che aveva citato anche flisi71, tra l'altro), alla sua introduzione generava 15 MIPS a 25Mhz, e quell'istruzione (che esegue EAX = EBX + ECX * 4 + 12345678) la portava a termine in UN SOLO ciclo di clock, come del resto una buona parte delle altre.
All'epoca c'era pure il 68040, appena introdotto e che era il suo primo concorrente, che generava 20MIPS a 25Mhz, e aveva delle istruzioni anche più complesse di quelle del 486 (lunghe fino a 22 byte), ma che eseguiva per lo più in un ciclo di clock!
Insomma, i MIPS erano delle lumache in confronto... ;)
Poi certo, gli x86 sono cresciuti, la bestia di istruzione hanno imparato a spezzettarla in varie istruzioni RISC-Like dandola in pasto in parallelo alle varie ALU che i loro 100 milioni di transistor gli consentono, magari riuscendola a finire (cache e pipeline permettendo) perfino in un ciclo di clock...mentre il MIPS che non è stato più sviluppato è restato al palo.
A parte che MIPS è una delle architetture che è stata fra le più sviluppate (vedi la caterva di evoluzioni che ha avuto, per non parlare poi delle innumerevoli soluzioni custom basate su di esse), ti ricordo che gli x86 spezzettano le istruzioni in RISC86 dai tempi del K5: 100 milioni di transistor erano un miraggio, ai tempi. ;)
Però questo non significa che non sarebbe stato più efficace evolvere il più semplice core RISC, riempendolo ugualmente di ALU, aumentando il path con la memoria per ciucciuarsi 2-4 istruzioni a botta e fare lo stesso o più, in modo più elegante e lineare, quello che fà faticosamente il core di un x86 moderno.
Tutta questa fatica non la vedo, viste la continua scalata alle prestazioni, e i costi sempre più ridotti.
Comunque la soluzione per MIPS (o altri RISC) non era certo nell'aggiungere più ALU o altre cosucce: il codice è una brutta bestia, e per sua natura non è facilmente "parallelizzabile" come esecuzione, altrimenti già da tempo avremmo visto processori con decine o anche centinaia di ALU a macinare fantastiliardi di istruzioni ad ogni ciclo di clock.
Infatti il PowerPC, come tu o flisi71 avete ricordato, ha un approccio meno "puro" al concetto RISC, comprendento molte istruzioni, alcune anche relativamente complesse, ma sempre lineari per una codifica diretta senza le decodifiche "creative" degli x86.
Anche il PPC970 "spezzetta" le istruzioni del suo ISA nativo in altre ancora più semplici da eseguire.

cdimauro
29-06-2004, 07:24
Originariamente inviato da Criceto
Io mi ricordo l'Athlon, ma mi potrei sbagliare. L'Athlon comunque mi impressionò per le sue caratteristiche, quando uscì. Davvero una bestia. I PowerPC all'epoca erano indietro... soprattutto di transistor!
Ricordi male: ha iniziato AMD col K5 (subito dopo l'introduzione del Pentium), e poi anche Intel ha seguito lo stesso approccio col PentiumPro. E il K5 aveva relativamente pochi transistor.
Il progetto Itanium è nato invece MOLTO prima, non ti saprei dire precisamente l'anno, ma più o meno all'epoca dei primi Pentium o prima. Anche se poi effettivamente i processori sono arrivati mooooooolto dopo.
Da quando è partito il progetto EPIC, sono passati 8 anni, se non ricordo male.
E' vero, AMD ha fatto un lavoro encomiabile con non troppi soldi. Ma fino a quando non è uscito Athlon, realizzato sull'onda del successo del K5, era indietro a Intel (e a PowerPC).
Già il K5 dava del filo da torcere agli equivalenti Intel quanto a prestazioni sugli interi (sugli FP era scarso), e coi K6 AMD ha sempre avuto le maggiori prestazioni in questo campo (sugli FP soltanto con 3DNow! è riuscita a colmare il divario). Il K7 è arrivato dopo, a mettere a frutto tutto questo lavoro.
Però la piattaforma PowerPC è sempre stata messa peggio in quanto a $$, tranne che all'inizio quando si pensava di farne una piattaforma alternativa agli x86.
Motorola e IBM non mi sembrano dei morti di fame, anzi!
Invece di queste è rimasta solo Apple mentre tutte le altre hanno fallito, lasciando il mercato dei processori PowerPC ad esclusivo beneficio di Apple che ha volumi certo non paragonabili al mondo x86,
Forse perché costano anche di più, e questo da sempre, fin dai primi Mac: la differenza fra il più scarso dei Mac e un Amiga che aveva più o meno lo stesso processore, era una cifra in più sul prezzo... :rolleyes:
perdipiù dividendo la produzione tra due costruttori (Motorola, IBM). Quindi, pur con un'architettura superiore non sempre (direi quasi mai) i PowerPC sono riusciti ad essere all'altezza degli x86 quanto a prestazioni...
Comunque Motorola e IBM, ripeto, sono delle società MOLTO grosse. Motorola è stata la principale concorrente di Intel, nel mercato dei processori. Adesso il suo posto l'ha preso AMD, che è una società che, tutt'oggi, non ha certo il volume di affari di Motorola...
Comunque i PPC hanno perso da tempo lo scettro dei campioni di prestazioni.
Ora però (e per fortuna!) c'è un rinnovato interesse di IBM per i PowerPC, che li vuole utilizzare per i suoi server di fascia medio-bassa basati su Linux, e i risultati di una architettura superiore si stanno finalmente vedendo!
Dimentichi gli AMD64... ;)

flisi71
29-06-2004, 08:18
Ahi ahi ahi criceto, hai richiamato Cesare e lui ti ha castigato su tutta la linea!!!!
:Perfido:

:)

A parte gli scherzi, non posso che concordare con Cesare, che dimostra ogni volta conoscenze tecniche sempre maggiori.
Vorrei modestamente introdurre solo alcune puntualizzazioni.

Sui processori MIPS: ha già detto tutto cdimauro; nati come progetto di studio universitario, poi crearono una azienda per venderli commercialmente. Sono diventati "mitici" solo perchè erano i processori delle "mitiche" (per quel tempo) macchine SGI, le uniche con cui potevi fare grafica (in quegli anni).
Hanno sempre avuto prestazioni basse.

Come ben puntualizza il buon cdimauro è stato il K5 per AMD il primo processore con core RISC86, mentre NexGen proponeva il 5x86 che non andava male (questa azienda se non ricordo male fu acquisita da AMD e il suo processore successivo divenne il K6 AMD). Per Intel il primo processore con un core RISC-like fu il Pentium Pro, alias P6.

Sui processori PowerPC: con il capostipite PPC601 sembrava che si stesse aprendo un nuovo mondo, fu usato sia da Apple che da IBM per le macchine RS6000, così come il successivo PPC604, che era all'epoca davvero potente. Qui nacquero le divergenze fra i soci del team: a Motorola interessavano i bassi consumi e il disegno semplice, ad IBM le prestazioni prima di tutto, anche a scapito dei costi.
D'altra parte il giro di affari di Apple è sempre stato molto limitato, per cui nessuno dei due costruttori di cui sopra si era adeguato alle richieste avanzate dalla casa di Cupertino, questo almeno fino all'avvento del PPC970, economica versione del POWER4.
Motorola mi pare che sia ancor oggi leader nel mercato delle CPU a basso consumo necessarie per milioni di appliance.


Ciao

Federico

Criceto
29-06-2004, 09:25
Originariamente inviato da flisi71
Hanno sempre avuto prestazioni basse.


Basse?!
Gli SGI fino a pochi anni fa erano le workstation più prestazionali sul mercato... e anche i le loro macchine Oxigen multiprocessore erano il top. Che faceva tutto il chip grafico?!


Come ben puntualizza il buon cdimauro è stato il K5 per AMD il primo processore con core RISC86, mentre NexGen proponeva il 5x86 che non andava male (questa azienda se non ricordo male fu acquisita da AMD e il suo processore successivo divenne il K6 AMD). Per Intel il primo processore con un core RISC-like fu il Pentium Pro, alias P6.


Ok, ok, forse mi sono perso qualche passaggio sugli AMD... :-D
Comunque l'idea dell'emulatore hardware per le istruzioni x86 credo sia originiaria proprio del progetto EPIC (Itanium), almeno loro ne hanno parlato per primi...


Sui processori PowerPC: con il capostipite PPC601 sembrava che si stesse aprendo un nuovo mondo, fu usato sia da Apple che da IBM per le macchine RS6000, così come il successivo PPC604, che era all'epoca davvero potente.


Infatti quando è nato il progetto PowerPC doveva avere ampio respiro, ed era posto come alternativa agli x86, quindi gli investimenti i primi tempi c'erano (e anche le prestazioni). Poi, come detto, è rimasta solo Apple. Motorola ha riposizionato i PowerPC come microcontroller per stampanti, router e simili, IBM anche ad un livello più basso e le prestazioni dei processori desktop (ormai costruiti solo per Apple) ne hanno risentito.

Ora, grazie a Linux (e sì, credo sia merito suo) che è processore-agnostico, IBM punta di nuovo a sganciarsi dal duopolio Wintel forte dei suoi prodotti hardware superiori.
E il 970 è il primo e promettente frutto di questo nuovo corso.
Il prossimo sarà quello derivato dal Power5!

Criceto
29-06-2004, 09:33
Originariamente inviato da cdimauro
Anche il PPC970 "spezzetta" le istruzioni del suo ISA nativo in altre ancora più semplici da eseguire.

Non so, ma sicuramente non si "inventano" registri che nell'ISA non ci sono, e altre amenità simili per farli somigliare ai RISC che non sono mai stati...

flisi71
29-06-2004, 09:43
Originariamente inviato da Criceto
Basse?!
Gli SGI fino a pochi anni fa erano le workstation più prestazionali sul mercato... e anche i le loro macchine Oxigen multiprocessore erano il top. Che faceva tutto il chip grafico?!


Ti correggo: erano le UNICHE adatte allo scopo di fare grafica 3D, DCC mentre per quanto riguarda il CAD/CAE erano le macchine Sparc a farla da padrone.
Meno di 10 anni fa i bench ViewPerf erano esclusivo appannaggio di costose macchine RISC; adesso ci sono solo macchine x86 semplicemente perchè le altre non hanno più nulla da dire.

Non mi ricordo di macchine Oxigen di SGI, mi sembra che avevano le linee: Indy, Indigo, Challenge.



Ora, grazie a Linux (e sì, credo sia merito suo) che è processore-agnostico, IBM punta di nuovo a sganciarsi dal duopolio Wintel forte dei suoi prodotti hardware superiori.
E il 970 è il primo e promettente frutto di questo nuovo corso.
Il prossimo sarà quello derivato dal Power5!

Una compagnia globale come IBM si può permettere di mantenere un catalogo prodotti sterminato: dai mainframe ai mini, dai server/workstation x86 puri a quelli x86-64, a quelli con architettura POWER.
La sua non è una scelta di campo, è volontà strategica di coprire tutti i segmenti del mercato.

Ciao

Federico

flisi71
29-06-2004, 09:49
Ho ritrovato questa tabella, dovrebbe essere del settembre 2001 circa, spiega meglio di mille parole la perdita di appeal delle macchine SGI. Nota che nel render è primariamente stressato il processore/i.

http://www.maya-testcenter.de/renderresults.html

Ciao

Federico

flisi71
29-06-2004, 10:00
Ancora un vecchio test, stavolta con Shake. Confronta i risultati processore (la prima colonna in secondi, minore è meglio)

http://www.highend2d.com/tests/shake/

e questo ancora in Maya

http://www.highend2d.com/tests/maya/

Ciao

Federico

cdimauro
29-06-2004, 21:22
Originariamente inviato da Criceto
Basse?!
Gli SGI fino a pochi anni fa erano le workstation più prestazionali sul mercato... e anche i le loro macchine Oxigen multiprocessore erano il top. Che faceva tutto il chip grafico?!
Tutto no, chiaramente, ma parecchio lavoro sì. SGI ha introdotto nel campo del video delle soluzioni che soltanto anni dopo sono cominciate a spuntare nel mercato consumer.
Comunque l'idea dell'emulatore hardware per le istruzioni x86 credo sia originiaria proprio del progetto EPIC (Itanium), almeno loro ne hanno parlato per primi...
Non ne sono così sicuro, visto che il K5 è un processore parecchio vecchio, e almeno un paio d'anni di ricerca & sviluppo per la sua realizzazione saranno passati...
Ora, grazie a Linux (e sì, credo sia merito suo) che è processore-agnostico, IBM punta di nuovo a sganciarsi dal duopolio Wintel forte dei suoi prodotti hardware superiori.
Ancora con questo discorso? Ma quante volte dobbiamo tornarci? :rolleyes:
E il 970 è il primo e promettente frutto di questo nuovo corso.
Il prossimo sarà quello derivato dal Power5!
Quando arriverà, ne riparleremo, e non credo che sarà così presto...

cdimauro
29-06-2004, 21:36
Originariamente inviato da Criceto
Non so, ma sicuramente non si "inventano" registri che nell'ISA non ci sono, e altre amenità simili per farli somigliare ai RISC che non sono mai stati...
E che c'entra questo, scusa? L'obiettivo è quello di migliorare le performance: poi come ci si riesce, è un dettaglio subordinato ai risultati ottenuti, e nel caso degli x86 direi che ne sono stati ottimi.

Non credo, inoltre, che ci sia stato tutto questo gran desiderio di somigliare ai RISC: la loro idea è stata presa e rielaborata esclusivamente in funzione del miglioramento delle prestazioni dell'ISA CISC. Tant'è che è praticamente impossibile pensare di realizzare un processore adottando il core RISC presente negli x86 (o anche simile). In parole molto povere: dei RISC si sono prese soltanto le buone idee, e scartato il resto... :D

Comunque, tanto per smontare la tua affermazione, guarda che già i G4 hanno dei registri in più che nell'ISA non sono presenti: vengono utilizzati per implementare la tecnica del renaming dei registri, per cercare di minimizzare la dipendenza dai risultati. Il G5 ne anche di più rispetto al G4. Adesso cos'hai da dire ancora? :rolleyes:

Ora voglio chiederti una cosa: vuoi ancora continuare a lottare contro i mulini a vento? Mi sembra evidente che ti mancano PARECCHIE cognizioni in materia, anche soltanto storiche: vedi quella dei 486 e 68040, tanto per fare un esempio, che ai tempi venivano denominati "gli anti-RISC" (in numero di MC Microcomputer datato 1990), proprio per il fatto che in un ciclo di clock potevano eseguire istruzioni MOLTO più complesse dei RISC fino ad allora prodotti.
L'informatica è fatta di aggiornamenti continui, per acquisire un certo know-how...

x flisi71: grazie per i complimenti. :)

DioBrando
30-06-2004, 01:32
Originariamente inviato da cdimauro
Ricordi male: ha iniziato AMD col K5 (subito dopo l'introduzione del Pentium), e poi anche Intel ha seguito lo stesso approccio col PentiumPro. E il K5 aveva relativamente pochi transistor.

4,3 milioni per la precisione.

Il K5 è stato ufficializzato nel 95 (75Mhz) e commercializzato nei primi mesi del 96 mentre il suo ultimo modello è stato il 166Mhz nel 97


Da quando è partito il progetto EPIC, sono passati 8 anni, se non ricordo male.

Le idee di ottimizzazione e di una maggiore efficienza computazionale ottenibile con tecniche derivanti dal calcolo parallelo risalgono in realtà agli anni 80 quando appunto venne coniato il termine Epic che stà per Explicitly Parallel Instruction set Computing.

Questi concetti furono poi ripresi ( e ovviamente adattati alla diversa architettura) verso la fine del 97 a proposito dell'Itanium


Già il K5 dava del filo da torcere agli equivalenti Intel quanto a prestazioni sugli interi (sugli FP era scarso), e coi K6 AMD ha sempre avuto le maggiori prestazioni in questo campo (sugli FP soltanto con 3DNow! è riuscita a colmare il divario). Il K7 è arrivato dopo, a mettere a frutto tutto questo lavoro.

in realtà nel calcolo in virgola mobile AMD è sempre stata dietro anche con i K6, vuoi perchè l'aggiunta delle istruzioni 3DNow erano in realtà un rimedio fittizio per aggirare l'ostacolo, vuoi perchè vi erano altre limitazioni come il bus esterno su socket7 e la mancanza di un'unità interamente pipelined dedicata a quel tipo di operazioni....e stesse debolezze che AMD mostrava in definitiva per quanto riguarda il trattamento dei flussi multimediali ( anche se con le DSP in qlc modo si è tentato di rimediare).

Con il K7 sia in versione desk ( Xp Palomino) sia in versione mobile ( athlon4), le 3 unità dedicate agli FPU e l'FSB ora DDR finalmente su un socket all'altezza hanno fatto la differenza ;)


Motorola e IBM non mi sembrano dei morti di fame, anzi!

direi proprio di no :D


Forse perché costano anche di più, e questo da sempre, fin dai primi Mac: la differenza fra il più scarso dei Mac e un Amiga che aveva più o meno lo stesso processore, era una cifra in più sul prezzo... :rolleyes:

però l'Amiga è praticamente defunto mentre la mela s'è ritagliato un suo spazio nel panorama IT...i casi della vita :D:D:D


Comunque Motorola e IBM, ripeto, sono delle società MOLTO grosse. Motorola è stata la principale concorrente di Intel, nel mercato dei processori. Adesso il suo posto l'ha preso AMD, che è una società che, tutt'oggi, non ha certo il volume di affari di Motorola...


Motorola ha abbandonato il segmento desktop ( e consolle perchè vorrei ricordare che le + gloriose consolle degli anni 80 e primi anni90 montavano tutte nessuna escluse un processore Motorola...sic!) perchè la concorrenza stava diventando troppo spietata e l'ascesa di nuovi competitors hanno portato la dirigenza ad optare per un mercato molto florido e altrettanto ( forse anche di +) veloce nell'evolversi, cioè quello dei dispositivi portatili, cellulari e PDA su tutti, oltre ad un'ottima presenza per quello che riguarda macchinari a basso costo ma che richiedono cmq la presenza di una cpu, come ricordava giustamente flisi prima.

cdimauro
30-06-2004, 05:47
Originariamente inviato da DioBrando
Le idee di ottimizzazione e di una maggiore efficienza computazionale ottenibile con tecniche derivanti dal calcolo parallelo risalgono in realtà agli anni 80 quando appunto venne coniato il termine Epic che stà per Explicitly Parallel Instruction set Computing.
Qui però stavamo parlando di adozione di emulazione/traslazione dell'istruzioni di un'ISA in quelle di un'altro. :)
Questi concetti furono poi ripresi ( e ovviamente adattati alla diversa architettura) verso la fine del 97 a proposito dell'Itanium
Mumble, mumble: ricordo il '96 come data per l'inizio del progetto EPIC di Intel e HP...
in realtà nel calcolo in virgola mobile AMD è sempre stata dietro anche con i K6, vuoi perchè l'aggiunta delle istruzioni 3DNow erano in realtà un rimedio fittizio per aggirare l'ostacolo, vuoi perchè vi erano altre limitazioni come il bus esterno su socket7 e la mancanza di un'unità interamente pipelined dedicata a quel tipo di operazioni....e stesse debolezze che AMD mostrava in definitiva per quanto riguarda il trattamento dei flussi multimediali ( anche se con le DSP in qlc modo si è tentato di rimediare).
Infatti, dicevo che i K6 hanno colmato il divario col le 3DNow!: è chiaro che l'FPU x87 rimaneva sempre il punto debole di questi processori... :)
però l'Amiga è praticamente defunto mentre la mela s'è ritagliato un suo spazio nel panorama IT...i casi della vita :D:D:D
Che ci vuoi fare: i due presidenti della Commodore si stancarono del loro giocattolo, e lo buttarono. :rolleyes: :muro:
Motorola ha abbandonato il segmento desktop ( e consolle perchè vorrei ricordare che le + gloriose consolle degli anni 80 e primi anni90 montavano tutte nessuna escluse un processore Motorola...sic!) perchè la concorrenza stava diventando troppo spietata e l'ascesa di nuovi competitors hanno portato la dirigenza ad optare per un mercato molto florido e altrettanto ( forse anche di +) veloce nell'evolversi, cioè quello dei dispositivi portatili, cellulari e PDA su tutti, oltre ad un'ottima presenza per quello che riguarda macchinari a basso costo ma che richiedono cmq la presenza di una cpu, come ricordava giustamente flisi prima.
Dragonball rulez. ;) Alla Motorola doveva esserci qualche fanatico di questo fumetto/cartone. KAME-HAME-HA! :D

Comunque adesso si sono spostati quasi tutti sui core ARM: addio alla famiglia 680x0. :cry:

Criceto
30-06-2004, 07:22
Originariamente inviato da cdimauro
Mumble, mumble: ricordo il '96 come data per l'inizio del progetto EPIC di Intel e HP...


Qui dice che il progetto è nato in HP nel 1994... 10 anni fa!
http://www.dqindia.com/content/top_stories/102041601.asp

DioBrando
30-06-2004, 12:29
Originariamente inviato da cdimauro
Qui però stavamo parlando di adozione di emulazione/traslazione dell'istruzioni di un'ISA in quelle di un'altro. :)

sìsì avevo capito ma ho snocciolato qlc conoscenza spicciola giusto per sboroneggiare un pò :sofico:


Mumble, mumble: ricordo il '96 come data per l'inizio del progetto EPIC di Intel e HP...

ricordi male :Prrr::D
La joint venture tra HP e Intel per lo sviluppo dell'IA-64 nasce nel 94, ma è nel 97 che il termine Epic acquista un nuovo significato all'interno del progetto Itanium.
A parte qlc discordanza di mesi questi links "tornano" grossomodo

http://www.cs.clemson.edu/~mark/epic.html
http://altair.snu.ac.kr/newhome/en/project/project.htm


Infatti, dicevo che i K6 hanno colmato il divario col le 3DNow!: è chiaro che l'FPU x87 rimaneva sempre il punto debole di questi processori... :)

ma in che senso hanno colmato il divario?
io volevo dire in realtà il contrario che finchè n è stata cambiata l'architettura del processore il divario restava 3DNow o meno perchè tutto sommato il vantaggio che fino ad allora avevano dato era stato risicato, vuoi per i problemi sopracitati ( cache e socket), vuoi perchè chi sviluppava sw all'epoca vi aveva dato poca importanza...ed in effetti programmi che sfruttassero queste istruzioni seriamente n me ne ricordo...


Che ci vuoi fare: i due presidenti della Commodore si stancarono del loro giocattolo, e lo buttarono. :rolleyes: :muro:

succede...si sn tenuti la borsa coi soldi e hanno chiuso baracca e burattini; ma questa è una dimostrazione che le idee buone da sole n valgono ma ci vuole una società solida e coesa dietro...e la Apple nel bene e nel male ( a parte qlc momeno fisiologico di crisi) lo è sempre stata :)


Dragonball rulez. ;) Alla Motorola doveva esserci qualche fanatico di questo fumetto/cartone. KAME-HAME-HA! :D

DB era il meno; io col MegaDrive mi ricordo la saga di Streets of Rage di ThunderForce 4, gli shoot'em up sul Saturn, lo SNES con i suoi picchiaduro e platform....tutti Motorola-based :cry:

cmq vedo che DragonBall ti è rimasto impresso dato che lo citi ogni tanto...e scommetto soprattutto le prime tavole raffiguranti il Maestro Muten e le bocce di Bulma :oink:




:D


Comunque adesso si sono spostati quasi tutti sui core ARM: addio alla famiglia 680x0. :cry:

che nostalgia :(...pensare che quella famiglia è stato il cuore di un decennio di videogiochi e di pc della mia infanzia :muro:

DioBrando
30-06-2004, 12:43
Originariamente inviato da Criceto
Qui dice che il progetto è nato in HP nel 1994... 10 anni fa!
http://www.dqindia.com/content/top_stories/102041601.asp

io e credo Cesare n stavamo parlando dell'inizio del progetto HP su Itanium ma della concretizzazione dei concetti dell'Epic NELL'Itanium

Criceto
30-06-2004, 13:05
Originariamente inviato da DioBrando
io e credo Cesare n stavamo parlando dell'inizio del progetto HP su Itanium ma della concretizzazione dei concetti dell'Epic NELL'Itanium

Concretizzazione... non hai capito che ci hanno messo 10 anni per farlo quel processore?!!!!

DioBrando
30-06-2004, 13:11
Originariamente inviato da Criceto
Concretizzazione... non hai capito che ci hanno messo 10 anni per farlo quel processore?!!!!

:rolleyes:

per curiosità tu da che anno fai partire l'inizio di questo progetto?

Criceto
30-06-2004, 14:09
Originariamente inviato da DioBrando
:rolleyes:
per curiosità tu da che anno fai partire l'inizio di questo progetto?

Io mi ricordo solo che se ne parla da una vita di EPIC e Itanium, quella data l'ho trovata con una ricerchina con google. Mi sembra ragionevole non ho motivo di dubitare che sia così.

L'Itanium è notoriamente il microprocessore che ha avuto lo sviluppo più sofferto di tutti i tempi. E anche il debutto più disastroso di tutti i tempi... Nel primo anno di uscita le vendite si contavano a CENTINAIA... E anche adesso con la versione 2 (benchè sia significativamente migliorato) non mi pare che ci sia tutta questa corsa all'accaparramento...

DioBrando
30-06-2004, 15:33
Originariamente inviato da Criceto
Io mi ricordo solo che se ne parla da una vita di EPIC e Itanium, quella data l'ho trovata con una ricerchina con google. Mi sembra ragionevole non ho motivo di dubitare che sia così.

L'Itanium è notoriamente il microprocessore che ha avuto lo sviluppo più sofferto di tutti i tempi. E anche il debutto più disastroso di tutti i tempi... Nel primo anno di uscita le vendite si contavano a CENTINAIA... E anche adesso con la versione 2 (benchè sia significativamente migliorato) non mi pare che ci sia tutta questa corsa all'accaparramento...

sì ma tu fai confusione tra le date di inizio/fine del progetto Itanium con quelle dello sviluppo concettuale dell'Epic...e la joint venture Hp risale ad un'altra data ancora.

io ho detto una cosa diversa.

A parte il fatto che se vogliamo parlare delle basi di Itanium, anche se n consapevolmente, vengono gettate nei primi anni 80 quando la teoria del parallellismo prende piede grazie all'evoluzione tecnologica di quegli anni ( primi Personal Computer, approccio RISC e così via)

Nel 91 inizia lo sviluppo da parte di Intel di un'architettura a 64 bit, nel 94 HP stringe l'accordo con Intel per una sua partecipazione a questo progetto ( e sua la mano si vede perchè come base di riferimento per l'IA64 è stato preso il PA-RISC ) ma solo nel 97 ( ed è a questa data che io ho fatto riferimento in precedenza) l'EPIC ha avuto sua precisa formulazione in documenti da parte di HP/Intel; prima, per anni, è stato un acronimo che indicava un agglomerato di idee e teorie non sempre bene amalgamate tra loro.
Nel 2001 Merced cioè Itanium 1 inizia ad essere commercializzato; ecco dove stanno i 10 anni 91-2001 ma è opinabile che questo lasso di tempo costituisca la vera durata del progetto IA-64 dagli inizi al suo compimento ;)

Riguardo alle prestazioni e al travaglio io n ho detto niente finora, facevo solo un ragionamento sulle date...che sia stato sofferto è sicuro, d'altro canto se si cercano delle strade nuove da intraprendere n si può pensare che il cammino sarà tutto in discesa.
Sugli interi resta una gran macchina e sia la predication sia il set di istruzioni LOAD-speculative sn state tecniche all'avanguardia che miglioravano di parecchio le prestazioni del suo "corrispettivo" Intel desktop cioè il Pentium II.
Il problema è che estremizzando così tanto il parallellismo e affidando la maggiorparte del carico al compilatore, nel caso in cui l'applicativo si sviluppi per la maggiorparte in modo sequenziale, i vantaggi dell'utilizzo dell'architettura IA-64 cessano perlo+ e con essi le prestazioni decadono sensibilmente.


Il progetto Itanium è nato invece MOLTO prima, non ti saprei dire precisamente l'anno, ma più o meno all'epoca dei primi Pentium o prima. Anche se poi effettivamente i processori sono arrivati mooooooolto dopo.

che n avessi molto ben chiare le date si era capito :D

cdimauro
30-06-2004, 21:57
Originariamente inviato da DioBrando
ricordi male :Prrr::D
La joint venture tra HP e Intel per lo sviluppo dell'IA-64 nasce nel 94, ma è nel 97 che il termine Epic acquista un nuovo significato all'interno del progetto Itanium.
A parte qlc discordanza di mesi questi links "tornano" grossomodo

http://www.cs.clemson.edu/~mark/epic.html
http://altair.snu.ac.kr/newhome/en/project/project.htm
Era esattamente quello che intendevo: il progetto EPIC che ha portato al primo processoere (Itanium) è nato nel '97 (quindi un anno dopo quello che ricordavo io). Prima erano soltanto teorie.
ma in che senso hanno colmato il divario?
io volevo dire in realtà il contrario che finchè n è stata cambiata l'architettura del processore il divario restava 3DNow o meno perchè tutto sommato il vantaggio che fino ad allora avevano dato era stato risicato, vuoi per i problemi sopracitati ( cache e socket), vuoi perchè chi sviluppava sw all'epoca vi aveva dato poca importanza...
Veramente le differenze prestazionali con l'utilizzo delle 3DNow! era notevole. :)
ed in effetti programmi che sfruttassero queste istruzioni seriamente n me ne ricordo...
E chi se le ricorda, dopo tutto questo tempo? ;)
succede...si sn tenuti la borsa coi soldi e hanno chiuso baracca e burattini; ma questa è una dimostrazione che le idee buone da sole n valgono ma ci vuole una società solida e coesa dietro...e la Apple nel bene e nel male ( a parte qlc momeno fisiologico di crisi) lo è sempre stata :)
Di questo indubbiamente dobbiamo dargliene merito... Probabilmente perché Apple è sta in mano ai suoi fondatori, mentre Commodore no.
cmq vedo che DragonBall ti è rimasto impresso dato che lo citi ogni tanto...e scommetto soprattutto le prime tavole raffiguranti il Maestro Muten e le bocce di Bulma :oink:
Veramente la scena che mi è rimasta impressa a fuoco nel cervello è quella in cui Bulma si alza la gonna per far vedere le mutande al vecchio porco, ma in realtà non le aveva!!! :oink: :oink: :oink:
E' proprio vero: Dragonball incita alla pedofilia... :D
che nostalgia :(...pensare che quella famiglia è stato il cuore di un decennio di videogiochi e di pc della mia infanzia :muro:
A chi lo dici: io c'ho pure sviluppato (di tutto) per parecchio tempo... :cry:

Cacicia
05-07-2004, 17:18
Questo tread non avrà mai pace se continuano così :)

Leggete qua:
http://www.thinksecret.com/news/ucla.html

Stanno costruendo un altro ("piccolo") cluster da 512 CPU (256 Xserve dual G5). E' l'UCLA Plasma Physics.

E così dopo l'annuncio del colosso COLSA "Mach 5" (da 1566 Xserve dual G5) eccone un altro in arrivo...

Si sono ammattiti tutti quanti.... lo vogliono tutti più grosso degli altri :) eheheh

cdimauro
05-07-2004, 21:35
Diventerà una notizia quella che riporterà che il 50% dei supercomputer è basata su processori PowerX o PPCXYZ di IBM... :asd:

Cacicia
05-07-2004, 22:47
Originariamente inviato da cdimauro
Diventerà una notizia quella che riporterà che il 50% dei supercomputer è basata su processori PowerX o PPCXYZ di IBM... :asd:

Bah...

cdimauro
06-07-2004, 06:24
Non sei riuscito a cogliere la sottile ironia...:rolleyes: