Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto
HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto
Pensato per il professionista sempre in movimento, HP Elitebook Ultra G1i 14 abbina una piattaforma Intel Core Ultra 7 ad una costruzione robusta, riuscendo a mantenere un peso contenuto e una facile trasportabilità. Ottime prestazioni per gli ambiti di produttività personale con un'autonomia lontano dalla presa di corrente che permette di lavorare per tutta la giornata
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Basato su piattaforma Qualcomm Snapdragon X Plus a 8 core, il nuovo Microsoft Surface Pro 12 è un notebook 2 in 1 molto compatto che punta sulla facilità di trasporto, sulla flessibilità d'uso nelle differenti configurazioni, sul funzionamento senza ventola e sull'ampia autonomia lontano dalla presa di corrente
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Il REDMAGIC Astra Gaming Tablet rappresenta una rivoluzione nel gaming portatile, combinando un display OLED da 9,06 pollici a 165Hz con il potente Snapdragon 8 Elite e un innovativo sistema di raffreddamento Liquid Metal 2.0 in un form factor compatto da 370 grammi. Si posiziona come il tablet gaming più completo della categoria, offrendo un'esperienza di gioco senza compromessi in mobilità.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 18-11-2011, 10:29   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75173
Link alla notizia: http://www.businessmagazine.it/news/...e-q_39506.html

Big Blue presenta il nuovo supersistema della famiglia Blue Gene, attualmente il supersistema più efficiente con un rapporto di 2 gigaflop per watt

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2011, 11:56   #2
piererentolo
Senior Member
 
L'Avatar di piererentolo
 
Iscritto dal: Sep 2007
Città: Laives
Messaggi: 1545
Mi sono sempre chiesto in quanto tempo questi super elaboratori vengono raggiunti dai normali desktop, ad esempio un core i7 con HD6990 arriva ad eguagliare la potenza di calcolo di un supercomputer dell'anno 2000? Tra 10 anno avremo pc da 100 Petaflop in casa?
Attualmente a quanto arrivano?

EDIT:
Mi rispondo da solo, ero curioso ed ho trovato questa :P

__________________
Vi metto i miei gusti, almeno non ci sono fraintendimenti.
AMD VS NVIDIA: Fanboy AMD - AMD VS INTEL: Simpatizzo AMD ma compro INTEL - ANDROID VS WP VS IOS: Fanboy ANDROID - XBOX VS PLAYSTATION VS NINTENDO: Fanboy NINTENDO ma ho l'XBOX - APPLE VS SAMSUNG: Fanboy SAMSUNG - BIONDE VS MORE VS ROSSE: Fanboy Rosse, ho sposato una mora ma l'obbligo a tingersi

Ultima modifica di piererentolo : 18-11-2011 alle 12:16.
piererentolo è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2011, 12:10   #3
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 7489
Quote:
Originariamente inviato da piererentolo Guarda i messaggi
Mi sono sempre chiesto in quanto tempo questi super elaboratori vengono raggiunti dai normali desktop, ad esempio un core i7 con HD6990 arriva ad eguagliare la potenza di calcolo di un supercomputer dell'anno 2000? Tra 10 anno avremo pc da 100 Petaflop in casa?
Attualmente a quanto arrivano?
Difficile rispondere perche spesso si citano valori di Gflops o altro ma poi bisogna vedere a sosa si riferiscono. In particolare bisogna vedere che tipo di calcoli consideri perche ci sono quelli a precisione singola e quelli a doppia.

Quindi puoi avere una cpu che ha magari solo 100Gflops di potenza ma sia in singola che doppia e una gpu con magari 1Tflops di potenza dove pero la potenza in caso di calcoli "double precision" è persino inferiore a quella della cpu presa come riferimento.

In generale pero è come dici tu in 10 anni quella che era una farm di server (magari non quella enormi) è probbabilmente contenuta in un pc domestico di ultima generazione, ovviamente generalizzando perche poi bisogna vedere quanta ram avevano i server dischi rete ecc ecc ecc.

Fa ridere pero pensare che ti scrivo questo post da un pc che una volta come potenza sarebbe bastato per controllava la rete di un intero stato o un continente. Questo per dire di che spreco di potenza assistiamo oggi.
coschizza è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2011, 14:06   #4
Floris
Senior Member
 
L'Avatar di Floris
 
Iscritto dal: Jan 2007
Messaggi: 2267
Quote:
Originariamente inviato da piererentolo Guarda i messaggi
Mi sono sempre chiesto in quanto tempo questi super elaboratori vengono raggiunti dai normali desktop, ad esempio un core i7 con HD6990 arriva ad eguagliare la potenza di calcolo di un supercomputer dell'anno 2000? Tra 10 anno avremo pc da 100 Petaflop in casa?
Attualmente a quanto arrivano?
E tra 20....smartphone da 100 Petaflop.
__________________
Concluso con:...
Floris è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2011, 14:49   #5
vampirodolce1
Senior Member
 
L'Avatar di vampirodolce1
 
Iscritto dal: Jul 2006
Messaggi: 1175
Quote:
Originariamente inviato da coschizza Guarda i messaggi
In generale pero è come dici tu in 10 anni quella che era una farm di server (magari non quella enormi) è probbabilmente contenuta in un pc domestico di ultima generazione, ovviamente generalizzando perche poi bisogna vedere quanta ram avevano i server dischi rete ecc ecc ecc.

Fa ridere pero pensare che ti scrivo questo post da un pc che una volta come potenza sarebbe bastato per controllava la rete di un intero stato o un continente. Questo per dire di che spreco di potenza assistiamo oggi.
Beh tu considera che meta' risorse dei Windows se ne vanno solo per visualizzare il desktop e se (come credo) sara' cosi' in futuro lo spreco sara' ancora maggiore.

Una volta, gia' ai tempi del DOS, si lavorava lo stesso, con programmini di pochi KB e senza musica o film, ma in una manciata di MB ci stava tutto DOS, tutto Windows, tutto Word, tutto Excel e avanzava spazio; il modo di lavorare era bruttino ma funzionava tutto con un hardware centinaia di volte meno potente di quello di oggi.
Se vado ancora piu' indietro, ricordo i primi computer su cui ho lavorato con programmi di videoscrittura (Wordstar), erano dei 286 senza hard disk, con solo floppy da 5,25", squallidissimi ma facevano il loro lavoro.

Quindi le vostre osservazioni sono senz'altro corrette.
__________________
Enermax Staray CS-046 ECA3170-BL, Cooler Master RS-700-AMBA-D3, ASUS P6X58D-E, Core i7 950, Kingston 6GB DDR3 1600 HyperX, Gainward GTX 460 1GB GS, LG BH10LS30, 1TB WD1002FAEX, 2TB WD20EARS, 3TB WD30EZRX, 4TB WD40EFRX, 2x2TB WDBAAU0020HBK, Samsung SCX-3200, Netgear DGN2200
[Debian 7.0 Wheezy] Installazione, consigli e trucchi

Ultima modifica di vampirodolce1 : 19-11-2011 alle 14:01.
vampirodolce1 è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2011, 14:55   #6
Phantom II
Senior Member
 
L'Avatar di Phantom II
 
Iscritto dal: Jan 2002
Messaggi: 6027
Prodotto affascinante questo nuovo Blue Gene, i suoi ambiti d'impiego, invece, mi fanno cadere le braccia.
Phantom II è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2011, 15:03   #7
Pier2204
Bannato
 
Iscritto dal: Sep 2008
Messaggi: 8946
Quote:
IBM installerà 96 rack di Blue Gene/Q all'inizio di dicembre. Il sistema sarà utilizzato per mantenere i deterrenti nucleari degli USA senza il bisogno di test reali
La prima applicazione di questi mostri è sempre in ambito Militare, che poi mi chiedo a cosa serve effettivamente, l'intero arsenale nucleare è sufficente per distruggere la terra 1000 volte, ...basta una volta sola..

In ambito scientifico invece, mi chiedo se una tale potenza di calcolo sia sufficente per fare esperimenti di intelligenza artificiale...
Pier2204 è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2011, 16:53   #8
shodan
Senior Member
 
L'Avatar di shodan
 
Iscritto dal: Sep 2001
Città: Pescara
Messaggi: 3695
Interessanti i core PowerPC A2 che, a quanto pare, è un processore in-order. Qui c'è qualche info in più:
- http://www.hotchips.org/uploads/arch...28July2010.pdf
- https://www.power.org/events/2010_IS...5_-_Final4.pdf

Volendo fare qualche calcolo:
- 20 PFLOPS / 96 Rack = ~208.33 TFLOP/rack
- 208.33 TFLOP / 1024 CPU = ~208.33 GFLOP/CPU
- 208.33 GFLOP / 16 core = ~ 13.021 GFLOP/core

IBM cita velocità di clock di circa 1.6 GHz; quindi, per mantenere i livelli di performance sopra indicati, ogni core dovrebbe avere la capacità di processare 8 valori floating-point in doppia precisione per clock. Immagino che questo venga fatto tramite unità vettoriali.

Curiosità: anche Sandy Bridge e Bulldozer possono processare 8 valori floating point in doppia precisione per clock (il primo ha 4 FPU con 2 unità AVX-256 ciascuna, il secondo 4 FPU con 4 unità AVX-128 con FMAC). Pagano però uno scotto sul numero di core totali (il processore IBM ne ha 16). Ovviamente la comparazione è solo per curiosità: i PowerPC A2 sono costruiti con finalità e compromessi ben differenti rispetto a quelli dei processori desktop.

Ciao.
shodan è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2011, 18:24   #9
trademark
Senior Member
 
L'Avatar di trademark
 
Iscritto dal: Apr 2006
Messaggi: 541
salve a tutti,
si evolve tutto in maniera sempre più veloce, basta solo guardare cosa sa fare un telefono cellulare di oggi e pensare solo a pochi anni fa come erano i cellulari (e cosa sapevano fare)...

per vampirodolce1, non per fare il vecchio della situazione ma hai mai usato gli olivetti m24 o gli olivetti 8086?

"con solo floppy da 3,25" " penso ti riferissi a floppy da 5,25" anche se nei 286 erano già presenti quelli da 3,5"

saluti
trademark è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2011, 19:30   #10
PATOP
Member
 
Iscritto dal: Mar 2002
Messaggi: 221
xshodan
ma presumo che l'efficenza sia un attimino diversa.....sandy bridge e buldozer ( che nellla versione opteron 6200 ha anche esso 16 core) sono x86...........i processori power di IBM sono risc puri............credo che questo non sia proprio indifferente.........
PATOP è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2011, 20:55   #11
shodan
Senior Member
 
L'Avatar di shodan
 
Iscritto dal: Sep 2001
Città: Pescara
Messaggi: 3695
Quote:
Originariamente inviato da PATOP Guarda i messaggi
xshodan
ma presumo che l'efficenza sia un attimino diversa.....sandy bridge e buldozer ( che nellla versione opteron 6200 ha anche esso 16 core) sono x86...........i processori power di IBM sono risc puri............credo che questo non sia proprio indifferente.........
Ciao,
premesso che il confronto con Sandy Bridge e Bulldozzer era, appunto, solo una curiosità, bisogna capire cosa si intende per "efficienza".

Se parliamo di efficienza come prestazioni per watt, il nuovo core PowerPC A2 è ottimo: supera di gran lunga quanto offerto da una CPU più "general-purpose". D'altro canto, in compiti particolarmente specifici, un processore vettoriale (come PowerXCell 8i o, addirittura, una scheda video tipo AMD 5/6000 e Nvidia Fermi) danno risultati ancora migliori. Dipende tutto dall'ambito di utilizzo...

Se parliamo di efficienza in codice con molti branch (come quello di un kernel e/o di tanti programmi normali) un processore X86 offre un rapporto prezzo/consumo/prestazioni davvero niente male, ma ovviamente questo non è questo il tipico ambito di utilizzo di un supercomputer...

Riguardo al RISC vs CISC, è difficile parlarne in poche righe. Se mi permetti una personale lettura, reputo che molte delle più affermate architetture, al giorno d'oggi, non siano né RISC né CISC pure, ma una via di mezzo. Processori RISC "puri e duri" praticamente non ne esistono in commercio, in quanto anche quelli attualmente marchiati RISC forniscono un set di istruzioni esteso (es: istruzioni vettoriali). Allo stesso modo, i CISC odierni non sono altro che nuclei POST-RISC con un decoder che trasla le istruzioni X86 in micro-operazioni RISC-like.

Comunque su quest'argomento siamo abbondantemente OT...

Ciao.
shodan è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2011, 22:16   #12
PATOP
Member
 
Iscritto dal: Mar 2002
Messaggi: 221
xshodan
per efficenza si intende rapporto performance/watt......i power di ibm , come gli ARM, a core RISC ottongono rapporti a valori talmente favorevoli da non poter essere confrontati con cpu x86.
Per quanto concerne il codice molto dipende anche dai compilatori utilizzati naturalmente........ma anche qui per un x86 la vedo parecchi dura.......l'architettura di questi processori Cisc x86 ( e' vero in realta' oramai ibridi) trova molta piu' difficolta a scalare ed all' aumentare del numero dei procesori in un sistema di grandi dimensione si ottiene via via sempre piu' core ma sempre piu' con minore efficenza in tutti i termini.
Se non ricordo male l'implementazione ibrida delle cpu x86 e' stata per prima implementata nell'architettura Kx di AMD , seguita poi anche da intel, proprio per cercare di ovviare a queste problematiche che le soluzioni a base CISC cominciavano a denotare e sarebbero state difficili da superare.
PATOP è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2011, 23:31   #13
Pleg
Member
 
Iscritto dal: Sep 2007
Messaggi: 265
Quote:
Originariamente inviato da PATOP Guarda i messaggi
l'architettura di questi processori Cisc x86 ( e' vero in realta' oramai ibridi) trova molta piu' difficolta a scalare ed all' aumentare del numero dei procesori in un sistema di grandi dimensione si ottiene via via sempre piu' core ma sempre piu' con minore efficenza in tutti i termini.
Mica tanto, tanto e' vero che gli Xeon (e gli x86 in generale) sono i processori di gran lunga piu' usati nei supercomputer, vedi qui:
http://i.top500.org/stats
scegli "stats: processor generation"


Quote:
Originariamente inviato da PATOP Guarda i messaggi
Se non ricordo male l'implementazione ibrida delle cpu x86 e' stata per prima implementata nell'architettura Kx di AMD , seguita poi anche da intel, proprio per cercare di ovviare a queste problematiche che le soluzioni a base CISC cominciavano a denotare e sarebbero state difficili da superare.
La conversione CISC->RISC facilita la costruzione di processori superscalari e con pipeline profonde, ma non ha niente a che vedere con lo scalare del numero di core. Per quello contano l'architettura delle cache e della memoria, i protocolli di cache coherence eccetera.
Pleg è offline   Rispondi citando il messaggio o parte di esso
Old 19-11-2011, 00:06   #14
Pleg
Member
 
Iscritto dal: Sep 2007
Messaggi: 265
Quote:
Originariamente inviato da M47AMP Guarda i messaggi
Il parallelismo con il quale il sistema nervoso opera non si basa sul calcolo deterministico ma su quello analogico.
Non proprio, e' possibile simularlo con un computer standard ("deterministico") ma e' molto inefficiente a causa del diverso tipo di "architettura".

Cmq, se ti interessa l'argomento puoi dare un'occhiata qui:
http://www.stanford.edu/group/brainsinsilicon/
Stanno costruendo delle macchine dedicate, progettate ad-hoc, per fare simulazioni molto piu' veloci ed accurate.
Pleg è offline   Rispondi citando il messaggio o parte di esso
Old 19-11-2011, 07:24   #15
PATOP
Member
 
Iscritto dal: Mar 2002
Messaggi: 221
xpleg
che i processori a base x86 siano i piu' utilizzati e duffusi credo oramai non ci sia ombra di dubbio e sia un dato inconfutabile.......ma questo non fa che rafforzare quanto menzionavo circa l'efficenza......se guardi la classifica in termini di potenza la stessa dovrebbe quindi essere maggirmente detenuta da x86 ma mi sembra invece che nonostante l'enorme utilizzo di questi processori non sia cosi' ( vedi appunto i problemi di scalabilita').
Per quanto concerne la conversioneCISC vs RISC da parte mia non ho detto che la cosa e' correlata alla scalabilita' ma a "molteplici problematiche che le soluzioni a base CISC cominciavano a denotare" sono quindi in sintonia anche con quanto riporti da parte tua.
PATOP è offline   Rispondi citando il messaggio o parte di esso
Old 19-11-2011, 13:56   #16
vampirodolce1
Senior Member
 
L'Avatar di vampirodolce1
 
Iscritto dal: Jul 2006
Messaggi: 1175
Quote:
Originariamente inviato da trademark Guarda i messaggi
per vampirodolce1, non per fare il vecchio della situazione ma hai mai usato gli olivetti m24 o gli olivetti 8086?

"con solo floppy da 3,25" " penso ti riferissi a floppy da 5,25" anche se nei 286 erano già presenti quelli da 3,5"

saluti
Si', i floppy ovviamente erano da 5.25, ho corretto la svista.
Non ho mai usato gli olivetti m24 o 8086, come si lavorava su quei pc? La cosa mi incuriosisce parecchio.
__________________
Enermax Staray CS-046 ECA3170-BL, Cooler Master RS-700-AMBA-D3, ASUS P6X58D-E, Core i7 950, Kingston 6GB DDR3 1600 HyperX, Gainward GTX 460 1GB GS, LG BH10LS30, 1TB WD1002FAEX, 2TB WD20EARS, 3TB WD30EZRX, 4TB WD40EFRX, 2x2TB WDBAAU0020HBK, Samsung SCX-3200, Netgear DGN2200
[Debian 7.0 Wheezy] Installazione, consigli e trucchi
vampirodolce1 è offline   Rispondi citando il messaggio o parte di esso
Old 19-11-2011, 14:20   #17
shodan
Senior Member
 
L'Avatar di shodan
 
Iscritto dal: Sep 2001
Città: Pescara
Messaggi: 3695
Quote:
Originariamente inviato da PATOP Guarda i messaggi
xshodan
per efficenza si intende rapporto performance/watt......i power di ibm , come gli ARM, a core RISC ottongono rapporti a valori talmente favorevoli da non poter essere confrontati con cpu x86.
Per quanto concerne il codice molto dipende anche dai compilatori utilizzati naturalmente........ma anche qui per un x86 la vedo parecchi dura.......l'architettura di questi processori Cisc x86 ( e' vero in realta' oramai ibridi) trova molta piu' difficolta a scalare ed all' aumentare del numero dei procesori in un sistema di grandi dimensione si ottiene via via sempre piu' core ma sempre piu' con minore efficenza in tutti i termini.
Se non ricordo male l'implementazione ibrida delle cpu x86 e' stata per prima implementata nell'architettura Kx di AMD , seguita poi anche da intel, proprio per cercare di ovviare a queste problematiche che le soluzioni a base CISC cominciavano a denotare e sarebbero state difficili da superare.
Ciao,
il punto e' che, parlando di efficienza, dipende tutto dalla tipologia di applicazione utilizzata. Per esempio, in ambito HPC conta soprattutto il livello di prestazioni in virgola mobile e molto meno le prestazioni general purpose. Non a caso i core PowerPC A2 sono in-order.

Comunque le CPU x86 non sono affatto male né come efficienza né come potenza pura. Dai un'occhiata ai seguenti link:
- http://www.realworldtech.com/page.cf...0909050230&p=2
- http://www.realworldtech.com/page.cf...0511235825&p=2

A proposito, la prima CPU x86 a decodificare le istruzioni CISC in microistruzioni RISC e' stata l'AMD K5

Ciao.

Ultima modifica di shodan : 19-11-2011 alle 14:25.
shodan è offline   Rispondi citando il messaggio o parte di esso
Old 19-11-2011, 17:23   #18
PATOP
Member
 
Iscritto dal: Mar 2002
Messaggi: 221
xshodan
ho visto i links.......ma a mio avviso sono parecchio lacunosi o si voglia confrntare pere con mele...in un link viene riportato un confronto tra una serie di cpu e gpu tra l'altro non proprio recenti mentre nell'altro vi sono processori di classe enterprise con processori desktop....di tutto un po'.
Comunque al di la di questo i supercomputer nella top500 hanno come principale riferimento linpack.......e prendendo per buono quanto riportato nel link ove appare sandy bridge 2600 a confronto per esempiocon power7 di IBM credo non possa esser trascurata la data di costruzione del processore e la tecnologia in nanometri utilizzata per la sua costruzione. Quando si parla di efficenza in termini performace/watt direi che questi ultimi due fattori sono da tenere presenti......POWER7 nello specifico e' realizzato a 45 nm mentre sandy e' a 32 nm........comunque non vi e' dubbio alcuno che in questi ultimi anni intel ha finalmente fatto un ottimo lavoro di evoluzione in termini di efficenza x86 anche perche' se prendessimo in esame l'architettura netburst risalente ad alcuni anni fa il paragone non sarebbe nemmeno fattibile. Vedremo cosa ci riserva il futuro con l'agguerrito avanzamento di ARM e con le nuove versioni di processori RISC (non solo Power7+ e power8 che saranno a 32 e 28 nm, ma anche ultrasparc che sembrano avere una nuova possibilita di sviluppo con oracle) .
PATOP è offline   Rispondi citando il messaggio o parte di esso
Old 19-11-2011, 18:16   #19
shodan
Senior Member
 
L'Avatar di shodan
 
Iscritto dal: Sep 2001
Città: Pescara
Messaggi: 3695
Quote:
Originariamente inviato da PATOP Guarda i messaggi
xshodan
ho visto i links.......ma a mio avviso sono parecchio lacunosi o si voglia confrntare pere con mele...in un link viene riportato un confronto tra una serie di cpu e gpu tra l'altro non proprio recenti mentre nell'altro vi sono processori di classe enterprise con processori desktop....di tutto un po'.
Ciao,
i grafici non sono lacunosi: sono stati fatti col preciso intento di mettere a confronto la capacità DP delle (allora) più moderne microarchitetture.

Quote:
Comunque al di la di questo i supercomputer nella top500 hanno come principale riferimento linpack.......e prendendo per buono quanto riportato nel link ove appare sandy bridge 2600 a confronto per esempiocon power7 di IBM credo non possa esser trascurata la data di costruzione del processore e la tecnologia in nanometri utilizzata per la sua costruzione. Quando si parla di efficenza in termini performace/watt direi che questi ultimi due fattori sono da tenere presenti......POWER7 nello specifico e' realizzato a 45 nm mentre sandy e' a 32 nm........comunque non vi e' dubbio alcuno che in questi ultimi anni intel ha finalmente fatto un ottimo lavoro di evoluzione in termini di efficenza x86 anche perche' se prendessimo in esame l'architettura netburst risalente ad alcuni anni fa il paragone non sarebbe nemmeno fattibile. Vedremo cosa ci riserva il futuro con l'agguerrito avanzamento di ARM e con le nuove versioni di processori RISC (non solo Power7+ e power8 che saranno a 32 e 28 nm, ma anche ultrasparc che sembrano avere una nuova possibilita di sviluppo con oracle) .
Riguardo al confronto Sandy Bridge - Power7: direi che i risultati della CPU x86 sono estremamente positivi. Devi considerare infatti che i Power7 dispongono di 4 controller DRAM, una notevolissima cache eDRAM e un back-end di esecuzione di prim'ordine, coadiuvato da SMT a 4 vie. Il tutto ha un costo in termini di die space: ben 567 mm2.

In confronto, una modesta CPU Core i3 (2 core con 2 controller DRAM) fornisce valori di SpecInt/SpecFp per MHz praticamente identici, il tutto con uno spazio su die decisamente minore.

Ovviamente quello non vuole e non può essere un confronto diretto, in quanto ci sono troppe variabili da considerare (una su tutti, i diversi compilatori utilizzati), ma quei valori mostrano chiaramente l'enorme lavoro fatto sulle CPU x86. A proposito, i valori degli Opteron sono un po' bassi: se non ricordo male, il submit fu fatto da Intel, quindi non c'è da aspettarsi un'ottimizzazione stellare!

A favore del Power7 giocano altri fattori, come la notevolissima banda verso l'I/O (che occupa parecchio spazio sul die), decisamente superiore rispetto a quella garantita dal bus QPI di Intel. E qui torniamo al discorso di prima: sono CPU pensate per compiti diversi. In un supercomputer, la banda verso le DRAM e l'I/O ha un ruolo di prim'ordine, mentre su un desktop la loro importanza è notevolmente ridimensionata.

Ciao.
shodan è offline   Rispondi citando il messaggio o parte di esso
Old 20-11-2011, 17:02   #20
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 7489
Quote:
Originariamente inviato da PATOP Guarda i messaggi
xshodan
per efficenza si intende rapporto performance/watt......i power di ibm , come gli ARM, a core RISC ottongono rapporti a valori talmente favorevoli da non poter essere confrontati con cpu x86.
eppure apple è passata dalle cpu power di ibm a quelle intel perche il rapporto performance/watt era nettamente a favore della soluzione x86 rispetto a quella risk di ibm

power e arm sono risc solo teoricamente perche poi hanno un implementazione nettamente differente che porta ad avere risumtati diametralmente opposti nel rapporto performance/watt, questo perche una è nata per performance l'altra per puntare sui consumi.
coschizza è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto HP Elitebook Ultra G1i 14 è il notebook c...
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso Microsoft Surface Pro 12 è il 2 in 1 pi&u...
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet! Recensione REDMAGIC Astra Gaming Tablet: che spe...
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2 Dopo un mese, e 50 foto, cosa abbiamo capito del...
Gigabyte Aero X16 Copilot+ PC: tanta potenza non solo per l'IA Gigabyte Aero X16 Copilot+ PC: tanta potenza non...
LEFANT M2 o M2 Pro? I due robot aspirapo...
Brave Browser blocca Recall: niente pi&u...
Lumma Stealer riparte dopo il maxi-blitz...
Il CEO di OpenAI avverte le banche di un...
Un computer quantistico da 133 qubit ha ...
SMAU Milano 2025: a novembre 180 startup...
Dreame domina il mercato italiano dei ro...
Microsoft aggiorna Windows 10 con KB5062...
Razer Cobra Hyperspeed: la soluzione pi&...
Synology annuncia il nuovo DS225+ con la...
L'UE orientata a ritirare la maxi multa ...
L'elettrico con differenziale Torsen arr...
PosteMobile cambia rete: dal 2026 si app...
ESA finanzia il programma INVICTUS per s...
Una password ha distrutto e costretto a ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 13:13.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1