PDA

View Full Version : Importanti cambiamenti nella roadmap cpu di Intel


Redazione di Hardware Upg
10-05-2004, 11:50
Link alla notizia: http://news.hwupgrade.it/12391.html

Cancellati alcuni processori desktop attesi per il 2005 e forte focus per le soluzioni Dual Core. Intel anticipa i piani originari, presumibilmente per sfruttare l'architettura Pentium M

Click sul link per visualizzare la notizia.

atomo37
10-05-2004, 12:01
insomma in pratica siamo arrivati al vero limite delle cpu ad un core o sbaglio?!?!
Sia Intel che AMD sembrano ormai puntare al raddoppio del core.

theBlooder
10-05-2004, 12:08
Allora a quando gli M?

Duncan
10-05-2004, 12:10
Originariamente inviato da atomo37
insomma in pratica siamo arrivati al vero limite delle cpu ad un core o sbaglio?!?!
Sia Intel che AMD sembrano ormai puntare al raddoppio del core.

Non credo... penso che si siano accorti che è più facile sviluppare un'architettura come quella Pentim-M che NetBurst... (finalemente)

KAISERWOOD
10-05-2004, 12:11
Originariamente inviato da atomo37
insomma in pratica siamo arrivati al vero limite delle cpu ad un core o sbaglio?!?!
Sia Intel che AMD sembrano ormai puntare al raddoppio del core.
io la penos così 2 core pentium attuali con bus 800 e voltaggio lggermente + alto renderebbe uguale m acon conusmi accettabili epoichè intel oltre al Penium-M non ha qualcos adi concreto a disposizione gli convien anicipare i tmepi. AMd con l'athlon 64 non ha preblemi e il dual core gli convieni adottarlo quando è necessario. Un Pentium-M non puo' competere con l'ahtlon 64 di punta ma 2 penso di sì e poiché non c'è tempo per sviluppare una cpu migliore del prescott gli conviene fa uscire subito il dual core che con successive step consemerà di meno.

plunderstorm
10-05-2004, 12:39
meno male che nell 2000 si diceva che entro il 2005 si sarebbe arrivati a 20 Ghz LUUUL
cmq la strada dual core mi sembra ottima, anche qui vedremo come va a finire, le roadmap cambiano in fretta ^_^

lasa
10-05-2004, 12:40
Per ora nulla di concreto....cmq sono scettico sulla compatibilità con Alderwood e Grantsdale....col Prescott si è visto come è andata a finire....

MALEFX
10-05-2004, 13:00
mah...sarà che sia più facile fare i dual core invece di alzare ancora la frequenza...ma...a me sembra..che intel stia rincorrendo AMD

+Benito+
10-05-2004, 13:27
dual core? non ci credo. Troppo costoso fare un chip di 350-400 mmq. Forse piu' avanti, con processi produttivi che consentano un contegno nelle dimensioni.

atomo37
10-05-2004, 13:29
Che Intel stia rincorredo AMD in questo momento mi sembra piuttosto evidente. Con tecnologie quali Opteron, hyper tansport e 64bit AMD non ha sbagliato una mossa, e il mercato ovviamente ha premitato tutto ciò.

HyperOverclock
10-05-2004, 13:41
Solita domanda:
e nehalem?

barabba73
10-05-2004, 13:46
Adesso comincio a capire la scelta di Intel di introdurre il MN. Intel vuole percorrere la strada del P-M e accelerare il dual core, e come fare dal punto di vista mktg a presentare cpu con 'bassi' ghz, visto che sul mercato esistono già i prescott con ben 3,4ghz ?...introducendo il MN. Sembra proprio che intel abbia deciso un cambio di rotta, basta netburst, sotto con l'efficienza dei P-M e acceleriamo l'introduzione dual core. La news sui requisiti del sistema longhorn diceva infatti cpu dual core per il 2006...(lasciamo stare i 4-6 ghz...)

Athlon 64 3000+
10-05-2004, 13:49
Spero che la Amd ne approfitti di questa situazione per guadagnare fette di mercato con il suo gioiello che è l'Athlon 64 così costringerà Intel a fare processori migliori sotto il punto di vista dell'architettura(cosa che ha già intenzione di fare)

msquarci
10-05-2004, 13:59
Microsoft non fa in tempo a dichiarare i requisiti di Longhorn (processore dual-core) che subito dopo Intel aggiusta il tiro cercando di anticipare l'introduzione delle nuove CPU...

Deuced
10-05-2004, 14:05
quelle di longhorn sono stime,cpu da 4 a 6 ghz dual core o no.E comunuqe in ogni caso microsoft ha leggermente alzato il tiro stavolta...forse di troppo,fra un anno non credo che tutti avranno 1 terabyte di spazio su disco e penso pochi upgraderanno il proprio pc per far girare longhorn


E' solo una mossa commerciale per far tornare a vendere hardware...

homero
10-05-2004, 14:30
i sistemi dual core sono eccezionalmente dispendiosi dal punto di vista produttivo e non penso che verranno introdotti per il settore desktop. a meno di una "pronta" migrazione verso i 0.65nm alquanto improbabile.
in definitiva la sospensione del progetto prescott e' ovviamente da imputarsi a problemi la cui risoluzione e' incompatibile nei tempi allo sviluppo di nuove soluzioni desktop piu' potenti.
pertanto su 2 piedi si tira fuori il sistema dual core che alle men peggio richiede periodi di sviluppo di gran lunga inferiori a quelli di un core ex novo.
resta nell'ombra il progetto itanium che se supportato dal sistema longhorn permetterebbe un burst di prestazioni tale da essere scalabile fino al 2010, in questo caso la soluzione del core sarebbe il canto del cigno per il microcode x86.
pertanto avverra' che i sistemi dual core copriranno i 2 anni di test on road del nuovo sistema operativo microsoft per poi tragrettare le architetture verso nuove architetture itanium per intel e x86-64 per amd.
in questo caso intel sarà avvantaggiata dalla potenza della sua cpu.

KAISERWOOD
10-05-2004, 15:51
Originariamente inviato da homero
i sistemi dual core sono eccezionalmente dispendiosi dal punto di vista produttivo e non penso che verranno introdotti per il settore desktop. a meno di una "pronta" migrazione verso i 0.65nm alquanto improbabile.
in definitiva la sospensione del progetto prescott e' ovviamente da imputarsi a problemi la cui risoluzione e' incompatibile nei tempi allo sviluppo di nuove soluzioni desktop piu' potenti.
pertanto su 2 piedi si tira fuori il sistema dual core che alle men peggio richiede periodi di sviluppo di gran lunga inferiori a quelli di un core ex novo.
resta nell'ombra il progetto itanium che se supportato dal sistema longhorn permetterebbe un burst di prestazioni tale da essere scalabile fino al 2010, in questo caso la soluzione del core sarebbe il canto del cigno per il microcode x86.
pertanto avverra' che i sistemi dual core copriranno i 2 anni di test on road del nuovo sistema operativo microsoft per poi tragrettare le architetture verso nuove architetture itanium per intel e x86-64 per amd.
in questo caso intel sarà avvantaggiata dalla potenza della sua cpu.


è un po' contorto quello che dici:
1°- Intel ha pronti gli Xeon con Ct cioè 64bit like AMD
2°- Il K9 che in fase di sviluppo è dual core!
3°- L'Itanium ha difficoltà a penentrare nel monodo server per il prezzo elevato e le prestazioni scarse nei 32, perciò come fa intel ad adottarlo nel Desktop?
4°- Microzoz non puo' sviluppare sistemi operativi nuovi ogni volta che intel cambia idea.
5°- il prescott è già nei negozi è il tejas che hanno sospeso
:D

PROBLEMA:
Intel ha il 95% del mercato server amd il 5 % con gli opteron se per ongi 10 opteron venduti viene venduto un itanium quant'è la quota dell'Itanium? Lo Xeon la fa da padrona nel mercato server.

Non è detto che i migliori occupano la quota + grossa!!

homero
10-05-2004, 16:24
mi sono stancato di spiegare la differenza tra microcode e architettura di calcolo!!!!!!
eppure l'avro' ripetuto decine di volte!!!!!
i processori possono pure avere istruzioni a 128bit!!!!!
visto che con l'ht si simulano 2 processori!!! e quindi in teoria si potrebbero eseguire 2 operazioni FP a 64bit alla volta!!!!
ma questo non vuol certo dire che le operazioni vengono eseguite al doppio della velocità visto che le strutture di calcolo restano invariate!!!!
mentre l'itanium ha una struttura priva di microcode!!!!
ossia quello che si processa equivale alla struttura nativa delle unità di calcolo del processore!!!!
il P4 ha avuto gia' tre evoluzioni, tutte si basano sulla stessa struttura a microcode ossia le unità di calcolo vengono foraggiate in tempo reale della lunghissima pipeline, come questo avvenga e' sotto stretto segreto da parte di INTEL, quello che e' sicuro e' che le instruzioni x86 vengono letteralmente scomposte in istruzioni elementari parallelizzate e instradate nel varie unità di colcolo del P4.
ora le unità di calcolo del primo P4-del P4N e del P4 prescott sono del tutto invariate...cambia invece il modo con cui queste vengono instradate....ossia il microcode!!!!
piu' efficentemente questo processo avviene piu' le prestazioni aumentano....

il problema e' che queste operazioni richiedono che la parte del microcode sia sotto stress per ogni instruzione viene passata visto che la ricompilazione dinamica viene effettuata su tutte le istruzioni processate.
in soldoni e' come se una parte del processore non scenda durante il funzionamento sotto l'80% di time work...pertanto e' qui che tutti i watt del prescott vengono consumati....
aumentando la frequenza ossia il numero di istruzioni processabili ogni secondo aumenta il time work del microcode che risulta vicino al 100% di busy....ossia la struttura ha un collo di bottiglia proprio alla base dell'instradamento delle istruzioni alle unità di calcolo. quindi molti watt da dissipare senza possibilità di soluzione se non riprogettando il core.

l'itanium funziona in modo diverso visto che non ha microcode e le istruzioni a 32bit funzionane in emulazione...
quindi l'itanium consuma in proporzione al numero di transistor molto meno proprio perche' non deve instradare o ricompilare le istruzioni prima di processarle, addirittura non deve neppure tradurle per le unità di calcolo visto che sono tutte native.

la ragione per cui l'itanium e' poco diffuso e' proprio la difficoltà dei sistemisti ad adeguarsi ad architetture differenti a quelle x86...
a livello di prestazioni pure l'itanium2 1,2ghz e' circa 4 volte il P4 3ghz di picco e non meno del doppio in ogni condizione di calcolo nativo...quello a 32bit non si conta visto che e' in emulazione.

KAISERWOOD
10-05-2004, 16:45
Quello che contesto del tuo discorso è l'itanium per desktop. Trovo molto improbabile che l'itanium da server di fascia estremamente alta passi per il desktop forse tra 10-20 anni quando saremo arrivati alla frutta del x86 che ha ancora molto da dire. Il multi core non è una novità IBM è da un pezzo che li fa. Adesso ad intel conviene o adottare il dual core pentiu-m per desktop e introdure il pr anche lei oppure uscirsene con un noorthwood con 1mega di cache e bus 1ghz a 0,09 e continuare a cavacare l'onda delle mhz che come marketing è + che consolidato.

Sincermente Se fosse stato nella diregenza di intel avrei continuato la strada delle mhz mantenendo i 20 stadi che sono + che sufficienti e continuare a fare i guadagni che fa adesso. Adesso la gente vedrà un athlon 64 con +mhz e un pentium come mhz e a livello di quote di mercato non è positivo.
Inoltre avrei adottato il soi x aumentare la scallabilità. Volendo intel non avendo un core già pronto per sostituire e il prescott potrebbe fare un bell'ordine di wafer soi da ibm e sfornare northwood con frequenza + alta.

Lo ZiO NightFall
10-05-2004, 20:15
[B]
PROBLEMA:
Intel ha il 95% del mercato server amd il 5 % con gli opteron se per ongi 10 opteron venduti viene venduto un itanium quant'è la quota dell'Itanium? Lo Xeon la fa da padrona nel mercato server.

Non è detto che i migliori occupano la quota + grossa!!

Ehm... veramente opteron, xeon e itanium occupano fasce di mercato nettamente diverse, non è proponibile il discorso! Esistonno talmente tante tipologie di server!

xaviers2002
10-05-2004, 21:23
"Le motivazioni alla base della cancellazione di Tejas non sono state rese note direttamente".
Ve lo dico Io quali sono state le motivazioni: Intel non si sarebbe mai aspettata che una "piccola" compagnia come AMD sarebbe stata in grado di sfornare un processore come l'amd64!!! Adesso gli brucia il .... perche' il pentium 4 non va da nessuna parte!!! Altro che L2 cache 2mb-4mb!!! Il problema sta nella pipeline!!! 39 stages sono veramente un'esagerazione ed una vergogna anche per un bambino che ha appena iniziato a capirne di computer!!! Addio Intel, e' stato bello!!! Benvenuta Amd!!!

"Tra i progetti attualmente disponibili l'attenzione verso l'architettura Pentium M è molto forte, in quanto capace di bilanciare ottime prestazioni velocistiche con un consumo molto ridotto.. Proprio quest'oggi Intel ha annunciato le nuove cpu Pentium M basate su Core Dothan, costruite con processo produttivo a 0.09 micron."

Il tempo di riprendere il buon vecchio pentim 3 (praticamente il pentium-m non e' altro che il pentium 3 fatto "mobile"), ed amd sara' al di sopra dei 3GHZ!!! E vallo a fermare un athlon64 3ghz con supporto totale 64bit possibilmente con 2mb l2 cache!!!
Invece di fregare soldi alla gente, alla Intel dovrebbero iniziare a rimboccarsi le maniche prendendo esempio da compagnie come Sun, Ibm e AMD!!!
Gli idioti alla fine hanno realizzato di essere arrivati ad un vicolo cieco!!! Anche se non sono tifoso Intel spero che si rimettano al piu' presto, perche' se cosi' non fosse fra due anni nessuno comprera' piu' computer con processori Intel! Non sarebbe molto bello vedere Amd da sola come Microsoft.

lucusta
11-05-2004, 10:06
bhe'.. il dual core non e' che costi poi cosi' tanto, o e' piu' difficile da costruire, soprattutto a 0.09; se hanno fatto il P4EE non vedo cosa gli impedisca di mettere anche 4 core su quella superficie; e poi per aumentare le prestzioni in modo facile e' l'unica soluzione percorribile da intel in tempi brevi, in quanto una giusta implementazione dell ACPI li mette in grado di consumare in rapporto alle prestazioni rischieste, ed oggi il 90% dei PC e' sotto utilizzato, sia desk che notebook, allora perche' consumare (e creare calore) per il 50% della potenza massima erogabile, quando a pari prestazioni finali con 2 core si puo' consumare il 50% da un solo core attivo, che avra' la meta' delle prestazioni odierne, ossia quelle richieste dalla maggior parte degli utenti?
Credo che intel si sia accorta che la netburst non l'avrebbe portata a 5Ghz tanto facilmente, tanto vale cercare le stesse prestazioni con una cpu piu' efficente, che promette molto di piu' della configurazione attuale.
E poi credo che piu' si scenda nella creazione dei transistor, piu' i parametri operativi diventino restrittivi, sia per l'alimentazione che per l'evacuazione del calore; non credo che sia semplice per intel fare una netburst a 5ghz con disegno 0.09 che eroghi 120-130W e debba essere raffreddata ad aria, ed implementare un raffreddamento a liquido mi sembrerebbe esagerato, anche perche' intel guadagna se si vendono CPU, non dissipatori.
E poi potrebbe estendere l'offerta:
una CPU con 2 core con uno solo funzionante, e meta' caches, una con un solo core funzionante e tutta la caches una con 2 core funzionanti e meta' caches a core, ed una con 2 core a piena caches, in modo da riuscire a sfruttare da subito tutte le cpu e non avere rese basse per il processo produttivo ancora non affinato..
comunque stiamo qua' a vedere che succede.

TrusterDesa
11-05-2004, 12:37
bhe allora le specifiche di longhorn non sono poi cosi fuori dal normale visto che gia adesso si parla di dualcore..... :)

juggler3
11-05-2004, 13:49
:D :D :D quando leggo questo nome mi vien da ridere. 1TB di hd?? mah secondo me hanno fatto un nuovo tipo di drova che hanno sviluppato quelli stessi della microsoft e nel testarla qualche bug ha causato effetti collaterali nel loro cervello ed ancora deve uscire una patch che li faccia rinsavire...cmq OT a parte credo che nell'allungare la pipeline x salire di clock intel abbia fatto una cazzata è stata meglio la pensata commerciale del model number di AMD tanto gli utonti guardano il nome chi ne capisce guarda i bench ormai la frequenza nn la guarda nessuno. Credo che l'itanium sia +vicino al full risc e che di conseguenza sia la migliore soluzione in termini di performace...quasi quasi passo ad apple...aspetto che linux arrivi anke li e poi...ciao win, ciao x86

KAISERWOOD
11-05-2004, 13:57
Originariamente inviato da xaviers2002
"Le motivazioni alla base della cancellazione di Tejas non sono state rese note direttamente".
Ve lo dico Io quali sono state le motivazioni: Intel non si sarebbe mai aspettata che una "piccola" compagnia come AMD sarebbe stata in grado di sfornare un processore come l'amd64!!! Adesso gli brucia il .... perche' il pentium 4 non va da nessuna parte!!! Altro che L2 cache 2mb-4mb!!! Il problema sta nella pipeline!!! 39 stages sono veramente un'esagerazione ed una vergogna anche per un bambino che ha appena iniziato a capirne di computer!!! Addio Intel, e' stato bello!!! Benvenuta Amd!!!

"Tra i progetti attualmente disponibili l'attenzione verso l'architettura Pentium M è molto forte, in quanto capace di bilanciare ottime prestazioni velocistiche con un consumo molto ridotto.. Proprio quest'oggi Intel ha annunciato le nuove cpu Pentium M basate su Core Dothan, costruite con processo produttivo a 0.09 micron."

Il tempo di riprendere il buon vecchio pentim 3 (praticamente il pentium-m non e' altro che il pentium 3 fatto "mobile"), ed amd sara' al di sopra dei 3GHZ!!! E vallo a fermare un athlon64 3ghz con supporto totale 64bit possibilmente con 2mb l2 cache!!!
Invece di fregare soldi alla gente, alla Intel dovrebbero iniziare a rimboccarsi le maniche prendendo esempio da compagnie come Sun, Ibm e AMD!!!
Gli idioti alla fine hanno realizzato di essere arrivati ad un vicolo cieco!!! Anche se non sono tifoso Intel spero che si rimettano al piu' presto, perche' se cosi' non fosse fra due anni nessuno comprera' piu' computer con processori Intel! Non sarebbe molto bello vedere Amd da sola come Microsoft.

xavier sull'altro post discutevo dell'aumento esagerato delle pipe, ma mi sembra che intel è infallibile per altre persone.

cdimauro
11-05-2004, 20:23
Originariamente inviato da homero
i sistemi dual core sono eccezionalmente dispendiosi dal punto di vista produttivo e non penso che verranno introdotti per il settore desktop. a meno di una "pronta" migrazione verso i 0.65nm alquanto improbabile.
Tale migrazione, invece, è prevista da Intel già con i 0,09u, a quanto pare.
in definitiva la sospensione del progetto prescott e' ovviamente da imputarsi a problemi la cui risoluzione e' incompatibile nei tempi allo sviluppo di nuove soluzioni desktop piu' potenti.
L'unico problema è l'eccessivo consumo: non è conveniente per Intel tirare fuori un processore che, pur funzionante con adeguati sistemi di raffreddamento, dissipi troppo calore (e consumi troppa corrente).
pertanto su 2 piedi si tira fuori il sistema dual core che alle men peggio richiede periodi di sviluppo di gran lunga inferiori a quelli di un core ex novo.
Non è affatto una soluzione "su due piedi": hanno soltanto anticipato un po' i tempi di ciò che era già previsto.
resta nell'ombra il progetto itanium che se supportato dal sistema longhorn permetterebbe un burst di prestazioni tale da essere scalabile fino al 2010, in questo caso la soluzione del core sarebbe il canto del cigno per il microcode x86.
Queste sono sempre le tue solite supposizioni suffragata da ZERO fatti. :rolleyes:
Proprio il cambio di rotta di Intel verso la soluzione x86-64 potrebbe, invece, mettere in serio pericolo l'esistenza di Itanium, visti di costi e le corrispondenti prestazioni di quest'architettura...
pertanto avverra' che i sistemi dual core copriranno i 2 anni di test on road del nuovo sistema operativo microsoft per poi tragrettare le architetture verso nuove architetture itanium per intel e x86-64 per amd.
Guarda che anche Intel sta puntando massicciamente su x86-64: ormai per lei è una scelta obbligata, se non vuole rimanere fuori dal mercato desktop.
in questo caso intel sarà avvantaggiata dalla potenza della sua cpu.
Quale? :asd:

mi sono stancato di spiegare la differenza tra microcode e architettura di calcolo!!!!!!
eppure l'avro' ripetuto decine di volte!!!!!
Quando? ;)
i processori possono pure avere istruzioni a 128bit!!!!!
visto che con l'ht si simulano 2 processori!!! e quindi in teoria si potrebbero eseguire 2 operazioni FP a 64bit alla volta!!!!
E questa dove l'hai presa? Il numero di operazioni che può eseguire una CPU dipende esclusivamente da com'è costruita l'FPU, non dal fatto che ci sia l'HyperThreading! :rolleyes:
ma questo non vuol certo dire che le operazioni vengono eseguite al doppio della velocità visto che le strutture di calcolo restano invariate!!!!
mentre l'itanium ha una struttura priva di microcode!!!!
Non so come fai a collegare logicamente queste due cose.
ossia quello che si processa equivale alla struttura nativa delle unità di calcolo del processore!!!!
il P4 ha avuto gia' tre evoluzioni, tutte si basano sulla stessa struttura a microcode ossia le unità di calcolo vengono foraggiate in tempo reale della lunghissima pipeline, come questo avvenga e' sotto stretto segreto da parte di INTEL,
Veramente c'è materiale in abbondanza in rete e nello stesso sito di Intel. ;)
quello che e' sicuro e' che le instruzioni x86 vengono letteralmente scomposte in istruzioni elementari parallelizzate e instradate nel varie unità di colcolo del P4.
ora le unità di calcolo del primo P4-del P4N e del P4 prescott sono del tutto invariate...
Veramente sono cambiate: è ben noto il fatto che Prescott abbia un'FPU migliorata, ad esempio.
cambia invece il modo con cui queste vengono instradate....ossia il microcode!!!!
Il microcode fra le varie versioni del P4 è molto simile, invece.
piu' efficentemente questo processo avviene piu' le prestazioni aumentano....
Ti riferisci all'unità di decoding delle istruzioni in micro-op? Se è così, guarda che il P4, grazie alla trace cache, effettua il caricamento delle microistruzioni al momento della loro esecuzione: la fase di decodifica viene saltata, perché è già stata fatta in precedenza. La trace cache, infatti, "instrada" direttamente le microop alla pipeline senza operare alcuna decodifica.
il problema e' che queste operazioni richiedono che la parte del microcode sia sotto stress per ogni instruzione viene passata visto che la ricompilazione dinamica viene effettuata su tutte le istruzioni processate.
Vedi sopra: se ti riferisci al P4 sei completamente fuori strada. La "ricompilazione", come la chiami tu, è già avvenuta nel momento in cui la trace ha richiesto dalla cache L2 una linea di dati da processore, ma ciò non vuol dire che queste istruzioni siano necessarie, perché ciò può anche avvenire per effetto della circuiteria di prefetch.
in soldoni e' come se una parte del processore non scenda durante il funzionamento sotto l'80% di time work...pertanto e' qui che tutti i watt del prescott vengono consumati....
Balle. Prescott consuma troppo a causa dei problemi di leakage della corrente, non per la sezione di decodifica delle istruzioni, che è una piccola parte di tutto il die.
aumentando la frequenza ossia il numero di istruzioni processabili ogni secondo aumenta il time work del microcode che risulta vicino al 100% di busy....ossia la struttura ha un collo di bottiglia proprio alla base dell'instradamento delle istruzioni alle unità di calcolo. quindi molti watt da dissipare senza possibilità di soluzione se non riprogettando il core.
Come t'ho già detto, non è affatto così. Il collo di bottiglia sta da tutt'altra parte (le pipeline troppo lunghe).
l'itanium funziona in modo diverso visto che non ha microcode e le istruzioni a 32bit funzionane in emulazione...
Vorrei sapere dove starebbe la novità: l'assenza di microcodice e l'esecuzione diretta delle istruzioni è una caratteristica comune della maggior parte delle architetture RISC già esistenti ben prima della sua introduzione...
quindi l'itanium consuma in proporzione al numero di transistor molto meno proprio perche' non deve instradare o ricompilare le istruzioni prima di processarle, addirittura non deve neppure tradurle per le unità di calcolo visto che sono tutte native.
Vedi sopra: dove sta la novità? E comunque, checché tu ne dica, Itanium consuma parecchio: se non ricordo male si parla di 150W circa per la versione a 1,5Ghz e 3MB di cache L3. Ben più del Prescott a 3,2Ghz, quindi.
la ragione per cui l'itanium e' poco diffuso e' proprio la difficoltà dei sistemisti ad adeguarsi ad architetture differenti a quelle x86...[QUOTE]
Quale difficoltà, scusa? L'installazione e la manutenzione dell'hardware richiede la stesse capacità per qualunque server comparabile. Per il software, TUTTO il lavoro lo fanno i compilatori.
[QUOTE]a livello di prestazioni pure l'itanium2 1,2ghz e' circa 4 volte il P4 3ghz di picco e non meno del doppio in ogni condizione di calcolo nativo...
Questi dati dove li hai presi? Sono semplicemente assurdi! Per smentirti basta eseguire un banale programmino:
loop:
nop
nop
nop
nop
nop
nop
nop
nop
nop
nop
nop
nop
nop
nop
jmp short loop

Questo programma su un P4 occupa 16 byte (una linea di cache). Un qualunque P4 (anche un Willamette) esegue un massimo di 3 istruzioni per ciclo di clock, ed è guarda caso proprio ciò che riesce a fare in questo caso. Quindi il programmino impiega 5 cicli di clock ad ogni esecuzione del loop.
Un Itanium riesce anch'esso ad eseguire un massimo di 3 istruzioni per ciclo di clock, e anche per lui occorrono 5 cicli di clock per ogni loop per un programma equivalente (a parte la dimensione del codice, che occupa 5 volte di più rispetto al P4 ;)).
Conti alla mano, è fin troppo chiaro che perfino un P4 Willamette a 1,5Ghz rispetto a un Itanium a 1,2Ghz (di qualunque generazione e qualunque dimensione di cache L3) risulta più veloce del 25%.
Questo, ripeto, per smentire banalmente quel "non meno del doppio in ogni condizione di calcolo nativo", che hai pomposamente riportato, e che è ben lontano dalla realtà, anche con programmi non banali come quello che ho scritto.
Quanto al "4 volte più veloce", aspetto dei dati concreti e chiari in merito.
quello a 32bit non si conta visto che e' in emulazione.
Bisogna essere poco sani di mente per usare l'emulazione x86 di Itanium... ;)

Concludendo, come ho già scritto qualche mese addietro, è seccante vedere che continui a scrivere sempre le stesse cose (anche palesemente false, come ho dimostrato), senza riportare dei dati reali. :rolleyes:

Quando la smetterai, una volta per tutte? :mc: :muro:

cdimauro
11-05-2004, 20:48
Originariamente inviato da juggler3
Credo che l'itanium sia +vicino al full risc
:confused: Cosa intendi con ciò?
e che di conseguenza sia la migliore soluzione in termini di performace...
Su questo avrei parecchi dubbi. :D
quasi quasi passo ad apple...
Guarda che anche i G5 eseguono la decodifica delle istruzioni in micro-op ancora più elementari... ;)
aspetto che linux arrivi anke li e poi...ciao win, ciao x86
C'è già: che aspetti? :)

CarloR.
11-05-2004, 21:38
Originariamente inviato da cdimauro
Guarda che anche Intel sta puntando massicciamente su x86-64: ormai per lei è una scelta obbligata, se non vuole rimanere fuori dal mercato desktop.


questa previsione mi sembra veramente azzardata
tenendo conto che Intel ha l'85% del mercato e che tale percentuale AMD non sarà in grado di scalfire più di tanto, nei prossimi anni, non foss'altro per incapacità produttiva, Intel non riuscirebbe a rimanerne fuori neanche se fallisse :D :rolleyes:

DioBrando
12-05-2004, 01:47
fermate Cesareeeeeee :D

anf che fatica leggere tutto...

Dual core che mania...

Al di là ti tutto, mettendo in chiaro che noi stiamo dibattendo senza sapere gli ordini di scuderia ( perchè in fondo alla stampa si dà sempre qlc in pasto, può essere che le strade siano decise ma ci sia bisogno di temporeggiare, di stare a guardare il competitor), effettivamente Intel è in una situazione un pò di empasse, perchè deve riformulare tutta la sua strategia commerciale con il Modelling Number, perchè ha un progetto che funziona bene ma che è stato finora "castrato" perchè non rispondeva alla filosofia di vendita degli ultimi anni ( parlo dell'archi Netburst ovviamente).

Senza contare poi il problema dei 64bit, i Prescott attuali sn peggio dei Northwood e Intel cerca ovviamente di fare di tutto per pagare le royalties ad AMD sviluppando una propria soluzione.

Se questa in confusione, AMD riuscirà a mangiare qlc quota di mercato, ben venga...ne guadagneremo noi utenti finali

homero
12-05-2004, 02:08
http://www.spec.org/cpu2000/results/cpu2000.html

Hewlett-Packard Company HP Integrity Server rx4640 (1300 MHz, Itanium 2) n. cpu 1 rate 1891 1891

Hewlett-Packard Company ProLiant BL20p G2 (3.06GHz/1MB L3 cache, Intel Xeon) n. cpu 1 rate 1160 1193

dati ufficiali HP

Dell PowerEdge 3250 (1.5GHz/6MB, Itanium2) n. cpu 1 rate 21.7 21.7

Dell PowerEdge 1750 (3.06 GHz Xeon) n. cpu 1 rate 13.2 13.4

dati ufficiali Dell

ho scelto hp invece che altri sistemi perche' hp e' l'unica azienda che fornisce soluzioni itanium full speed avendo partecipato alla sua progettazione dal 1997 insieme ad intel.

osservo che questo bench e' cpu2000

il range di differenza aumenta nel caso di test piu' recenti come cpu2004 che prevedono l'utilizzo di dati molto ampi e sistemi multitask.


il piccolo list code che tu hai presentato ha poco significato dal punto di vista prestazionale.

voglio osservare che se si presentano test su una base di dati molto piccola le differenze tra i processori vengono direttamente legati alla latenza della cache ed alla frequenza di clock piuttosto che all'architettura.

le prestazioni diventano marcatamente a favore dell'itanium se si usa codice ottimizzato con il cache transfert programming che ricordo su itanium puo' essere gestito da codice.

l'itanium e' progettato per gestire sistemi con un quantitativo di ram dell'ordine dei gigabyte in cui i normali processori desktop segnano il passo.

spero di aver dato al mio discorso un aura meno delirante di quanto e' apparso.

cdimauro
12-05-2004, 06:42
Originariamente inviato da CarloR.
questa previsione mi sembra veramente azzardata
tenendo conto che Intel ha l'85% del mercato e che tale percentuale AMD non sarà in grado di scalfire più di tanto, nei prossimi anni, non foss'altro per incapacità produttiva, Intel non riuscirebbe a rimanerne fuori neanche se fallisse :D :rolleyes:
Se così fosse, Intel avrebbe continuato con i 32 bit con gli x86 e i 64 bit con Itanium. Lo stravolgimento delle sue roadmap con l'introduzione dei 64 bit prima con l'architettura NetBurst, e adesso anche con quella Pentium-M, vorrei sapere come la giustifichi... :rolleyes:

dragunov
12-05-2004, 14:10
siamo davvero arrivati al limite del netburst?
io sapevo che il core potmac sarebe stato il primo dual core!devono aver cambiato molte cose!

KAISERWOOD
12-05-2004, 14:36
Originariamente inviato da DioBrando
fermate Cesareeeeeee :D

anf che fatica leggere tutto...

Dual core che mania...

Al di là ti tutto, mettendo in chiaro che noi stiamo dibattendo senza sapere gli ordini di scuderia ( perchè in fondo alla stampa si dà sempre qlc in pasto, può essere che le strade siano decise ma ci sia bisogno di temporeggiare, di stare a guardare il competitor), effettivamente Intel è in una situazione un pò di empasse, perchè deve riformulare tutta la sua strategia commerciale con il Modelling Number, perchè ha un progetto che funziona bene ma che è stato finora "castrato" perchè non rispondeva alla filosofia di vendita degli ultimi anni ( parlo dell'archi Netburst ovviamente).

Senza contare poi il problema dei 64bit, i Prescott attuali sn peggio dei Northwood e Intel cerca ovviamente di fare di tutto per pagare le royalties ad AMD sviluppando una propria soluzione.

Se questa in confusione, AMD riuscirà a mangiare qlc quota di mercato, ben venga...ne guadagneremo noi utenti finali

meno amle che c'è Cesare, xkè contestare punto punto quel post ci vuole una bella pazienza.

cdimauro
12-05-2004, 21:17
Originariamente inviato da homero
Non ti ho potuto rispondere prima, perché non avevo molto tempo per darti una risposta chiara e precisa, per cui ho preferito rimandare a ora. ;)

http://www.spec.org/cpu2000/results/cpu2000.html

Hewlett-Packard Company HP Integrity Server rx4640 (1300 MHz, Itanium 2) n. cpu 1 rate 1891 1891

Hewlett-Packard Company ProLiant BL20p G2 (3.06GHz/1MB L3 cache, Intel Xeon) n. cpu 1 rate 1160 1193

dati ufficiali HP

Dell PowerEdge 3250 (1.5GHz/6MB, Itanium2) n. cpu 1 rate 21.7 21.7

Dell PowerEdge 1750 (3.06 GHz Xeon) n. cpu 1 rate 13.2 13.4

dati ufficiali Dell

ho scelto hp invece che altri sistemi perche' hp e' l'unica azienda che fornisce soluzioni itanium full speed avendo partecipato alla sua progettazione dal 1997 insieme ad intel.
Bene, ma hai preso qualche test SPEC, e non tutti. Ad esempio ti sei ben guardato d'inserire i risultati CINT, tanto per dirne uno. ;)
Comunque, anche considerando soltanto questi, siamo lontani dalle cifre che hai riportato sopra... E poi per entrambi i test hai anche cambiato il sistema.

Per completezza, mettiamoli tutti i test. ;)

CINT2000
Advanced Micro Devices
ASUS A7N8X Motherboard rev. 2.0, AMD Athlon (TM) XP 3200+
1044 1080

Advanced Micro Devices
ASUS SK8N Motherboard, AMD Athlon (TM) FX-51
1376 1447

Advanced Micro Devices
ASUS SK8N Motherboard, AMD Opteron (TM) 148
1405 1477

Advanced Micro Devices
MSI K8 Neo (MS-6702) Motherboard, AMD Athlon (TM) 64 3200+
1266 1335

Dell
Precision Workstation 360 (3.2 GHz Pentium 4 Extreme Edition
1570 1601

Dell
Precision Workstation 650 (3.20 GHz Xeon, 2MB L3 Cache)
1532 1563

Hewlett-Packard Company
HP Integrity Server rx4640 (1500 MHz, Itanium 2)
1380 1404

Intel Corporation
Intel D875PBZ motherboard (AA-206)(3.4 GHz, Pentium 4 Proces
1666 1705

Intel Corporation
Intel D875PBZ motherboard (AA-301) (3.4E GHz, Pentium 4 Proc
1 core, 1 chip, 1 core/chip (HT Technology enabled)
1432 1491

CFP2000

Advanced Micro Devices
ASUS A7N8X Motherboard rev. 2.0, AMD Athlon (TM) XP 3200+
873 982

Advanced Micro Devices
ASUS SK8N Motherboard, AMD Athlon (TM) FX-51
1371 1378

Advanced Micro Devices
ASUS SK8N Motherboard, AMD Opteron (TM) 148
1505 1514

Advanced Micro Devices
MSI K8 Neo (MS-6702) Motherboard, AMD Athlon (TM) 64 3200+
1180 1250

Dell
Precision Workstation 360 (3.2 GHz Pentium 4 Extreme Edition
1497 1516

Dell
Precision Workstation 650 (3.20 GHz Xeon, 2MB L3 Cache)
1338 1346

Hewlett-Packard Company
HP Integrity Server rx4640 (1500 MHz, Itanium 2)
2161 2161

Intel Corporation
Intel D875PBZ motherboard (AA-206) (3.4 GHz, Pentium 4 Proce
1544 1556

Intel Corporation
Intel D875PBZ motherboard (AA-301) (3.4E GHz, Pentium 4 Proc
1 core, 1 chip, 1 core/chip (HT Technology enabled)
1481 1485

CINT2000 Rates

Advanced Micro Devices
ASUS A7N8X (REV 1.02) Motherboard, AMD Athlon (TM) XP 2800+
10.4 10.8

Advanced Micro Devices
ASUS SK8N Motherboard, AMD Opteron (TM) 148
16.3 17.1

Dell
Precision Workstation 650 (3.20 GHz Xeon, 2MB L3 Cache)
17.8 18.1

Hewlett-Packard Company
HP Integrity Server rx4640 (1500 MHz, Itanium 2)
16.0 16.3

CFP2000 Rates

Advanced Micro Devices
ASUS A7N8X (REV 1.02) Motherboard, AMD Athlon (TM) XP 2800+
9.07 9.78

Advanced Micro Devices
ASUS SK8N Motherboard, AMD Opteron (TM) 148
17.5 17.6

Dell
Precision Workstation 650 (3.20 GHz Xeon, 2MB L3 Cache)
15.5 15.6

Hewlett-Packard Company
HP Integrity Server rx4640 (1500 MHz, Itanium 2)
25.1 25.1

Ho preferito prendere un po' di sistemi diversi per avere un quadro più chiaro della situazione. Inoltre per ogni sistema ho preso il modello di punta e che offriva le maggiori prestazioni. Nei test "rate" non erano presenti le stesse macchine, per cui ho preferito non ripiegare su altre soluzioni.

Com'è possibile vedere, Itanium perde il confronto per quanto riguarda il calcolo intero, e lo vince sui floating point, com'era anche giusto aspettarsi. Ma è pure chiaro che non siamo di fronte a quell'abisso che prospettavi nei tuoi precedenti messaggi: nella migliore delle ipotesi non riesce comunque a doppiare la miglior soluzione x86 (+40% in CFP2000 e +44% in CFP2000 Rates).

Questo per quanto riguarda le prestazioni pure. Considerato anche il costo (e il consumo di corrente) delle soluzioni Itanium, penso che la situazione peggiori decisamente.
osservo che questo bench e' cpu2000

il range di differenza aumenta nel caso di test piu' recenti come cpu2004 che prevedono l'utilizzo di dati molto ampi e sistemi multitask.
Per questi allora è meglio vedere come si comportano gli Opteron, visto che si tratta di soluzioni multiprocessore a 64 bit, e quindi possono gestire qualche terabyte di dati... ;)
il piccolo list code che tu hai presentato ha poco significato dal punto di vista prestazionale.

voglio osservare che se si presentano test su una base di dati molto piccola le differenze tra i processori vengono direttamente legati alla latenza della cache ed alla frequenza di clock piuttosto che all'architettura.
A me è servito per dimostrare che non era vero ciò che dicevi. Poi lo so benissimo, e l'ho anche scritto, che non serve a null'altro.
le prestazioni diventano marcatamente a favore dell'itanium se si usa codice ottimizzato con il cache transfert programming che ricordo su itanium puo' essere gestito da codice.
Torno a ripeterti che anche gli x86, a partire dal K6 per Amd e dal P3 per Intel, hanno istruzioni che regolano il prefetch dei dati. Quelle per la gestione della cache, invece, sono presenti a partire dal 486.
Dal canto suo, c'è da dire che Intel è da parecchio tempo impegnata nello sviluppo di compilatori per Itanium, per cui non si può neppure invocare la mancanza di codice ottimizzato per quest'architettura, anzi! Nonostante ciò, i risultati di Itanium sono abbastanza eloquenti.
l'itanium e' progettato per gestire sistemi con un quantitativo di ram dell'ordine dei gigabyte in cui i normali processori desktop segnano il passo.
Che ne pensi degli AMD64, allora? A mio avviso reggono benissimo il passo... ;)
spero di aver dato al mio discorso un aura meno delirante di quanto e' apparso.
Dell'aura non m'importa, quanto invece del fatto che finalmente si è intavolata una discussione... :)

x DioBrando: lo sai che quando comincio non mi fermo... :D

x KAISERWOOD: è il mio sport preferito... ;)

darkwings
17-05-2004, 00:07
Premetto che non sono ferrato in elettronica come chi ha scritto sopra,pero' mi permetto una domanda che potra' sembrare stupida, se intel ha ideato l'itanium e l'itanium viene impiegato nei super computer,beh ci sara' un motivo,altrimenti avrebbe utilizzato i P4 o un core derivato,non vi pare?
Da quello che so' e' che l'itanium e' nato per smaltire grossi carichi di lavoro in breve tempo,cosa che si puo' facilmente intuire dallo spot che fa' la stessa intel sul suo stesso sito,che poi sia piu' veloce del p4, beh per me il paragone e' insensato visto che sono cpu nate per esigenze differenti.
Che l'itanium sostituira' il p4 mi pare veramente poco probabile visto che le necessita' delle applicazioni desktop attuali vengono soddisfatte egreggiamente dalle architetture delle cpu attuali.

cdimauro
17-05-2004, 05:48
Originariamente inviato da darkwings
Premetto che non sono ferrato in elettronica come chi ha scritto sopra,pero' mi permetto una domanda che potra' sembrare stupida, se intel ha ideato l'itanium e l'itanium viene impiegato nei super computer,beh ci sara' un motivo,altrimenti avrebbe utilizzato i P4 o un core derivato,non vi pare?
Da quello che so' e' che l'itanium e' nato per smaltire grossi carichi di lavoro in breve tempo,cosa che si puo' facilmente intuire dallo spot che fa' la stessa intel sul suo stesso sito,che poi sia piu' veloce del p4, beh per me il paragone e' insensato visto che sono cpu nate per esigenze differenti.
E' indubbio che Itanium sia destinato a fasce molto elevate di mercato (CPU con ben più degli 8 processori a cui arrivano generalmente le soluzioni x86), ma ciò non toglie che un progetto possa nascere con qualche errore di previsione. Non è un mistero che Itanium sia dotato di un'ottima sezione floating point, ma non è neppure un mistero che la sezione intera non sia un granché: segno, questo, di (grossi) errori di valutazione nella definizione della sua architettura, pur con tutti gli accorgimenti e le tecnologie impiegate (molti registri, rotazione dei registri in caso di chiamate a procedure, registri di predicazione, esecuzione simultanea di due "flussi", esecuzione di istruzioni in bundle, ecc.).
Tutto ciò potrebbe far pensare, quindi, a una netta distinzione fra i due mercati, ma c'è una cosa che arriva a rompere le uova nel paniere: l'adozione di processori x86 per la costruzione di super computer. Questo rimette, sostanzialmente, le carte in gioco. A questo punto è chiaro che il mercato non lo fanno le architetture, ma le prestazioni e il costo per realizzarle.
Che l'itanium sostituira' il p4 mi pare veramente poco probabile visto che le necessita' delle applicazioni desktop attuali vengono soddisfatte egreggiamente dalle architetture delle cpu attuali.
Per il desktop penso che MOLTO DIFFICILMENTE Itanium andrà a sostituire l'architettura x86, proprio per i motivi sopra elencati: ha uno scarso rapporto prezzo/prestazioni, e questo continuerà ad esser vero anche per il futuro (non è che si evolve soltanto Itanium: anche gli x86 lo fanno... :))

KAISERWOOD
17-05-2004, 07:45
La cos ache mi da fastidio, è quando dicono che l'x86 è arrivata alal frutta ed è tempo di itanium. Il dothan e L'athlon 64 e i prossimi dual core non mi sembrano che sono arrivati al limite. Il dual core non è un ripego, ma arrivati ad un certo livello di mignaturizzazione la superficie è troppo piccola per raffreddare la cpu tanto valel aggiungere un core in + che cache che in cpu Come l'athlon portano pochi benefici.

+Benito+
17-05-2004, 19:52
continuo a sostenere che cpu dual core siano troppo costose per il mercato attuale.
AMD gia' vende in perdita buona parte dei prodotti e questa politica gli ha permesso di guadagnare discrete quote di mercato, nonostante l'imbecillita' dell'80% dei venditori la consideri ancora come una sottomarca, ma non puo' estendersi tanto. Fare cpu con superficie del 50% in piu' o anche oltre rispetto a quelle attuali (presumo che se ne farebbero due, ma singolarmente piu' semplici) potrebbe probabilmente essere troppo costoso anche perche' die grandi implicano diminuzioni di resa non lineari, non so con che legge statistica vari ma presumo che si discosti largamente dalla linearita'.
Se su un wafer ci stanno 100 core e 10 sono inutilizzabili, se ne fai solo 50 probabilmente piu' di 5 sono malfunzionanti perche' le impurita' hanno maggior "peso". Questo per me con i prezzi attuali non se lo puo' permettere nessuno, nemmeno Intel che ha buttato alle ortiche un sacco di soldi per il fallimentare prescott, e il mercato non puo'certo accogliere un aumento dei prezzi dell'ordine del 10-20%. 256 MB di ram li puoi montare al posto di 512 (adesso stanno regredendo tutti gli assemblatori, dato i costi esorbitanti), ma il processore lo devi montare, non ne puoi mettere mezzo.

cdimauro
18-05-2004, 06:25
Il "troppo costose" dipende strettamente dallo spazio occupato, e utilizzando tecnologie come 0,09u o inferiori non credo che questo continui a rimanere un problema, per quanto riguarda le soluzioni desktop.
Quanto al discorso delle CPU non funzionanti in un sistema dual-core, penso che sia abbastanza semplice disabilitare il core che non va e vendere il rimanente come soluzione economica. :)

+Benito+
18-05-2004, 20:07
a questo aspetto non avevo pensato. 0,09 contiene ancora dei dubbi sull'effettiva applicabilità, a questo punto.

cdimauro
18-05-2004, 21:30
Beh, considera che quasi nello stesso spazio occupato da un AMD64 con 1MB di cache L2 a 0,13, possono coesistere due core dello stesso tipo. :)

KAISERWOOD
19-05-2004, 06:59
Originariamente inviato da +Benito+
a questo aspetto non avevo pensato. 0,09 contiene ancora dei dubbi sull'effettiva applicabilità, a questo punto.
un athlon 0,09 è quasi la metà di uno 0,13 quindi a 0,065 verrebbe leggermente + grande di uno o,o9 ma molto + economico.

+Benito+
19-05-2004, 07:43
mi riferivo alla tecnologia attuale. Ovvio che se verra' applicata con buone rese prima di tutto lo 0,09 e poi anche oltre il problema scompare da sè.
Sono un po' scettico su questo punto, non penso che sia semplice come in passato ridurre ancora le dimensioni dei transistor, mi pare che allo 0,09 ci si sia arrivati con un'ottimizzazione dei macchinari attuali e variando la lunghezza d'onda del laser, per scendere mi sembra che i metodi ottici attuali non abbiano la necessaria risoluzione.

cdimauro
20-05-2004, 05:53
Fino a 0,065u non credo dovrebbero esserci particolari problemi per quanto riguarda l'attrezzatura. Oltre, è difficile pensare di continuare senza pensare a qualcosa di nuovo...