View Full Version : Finisce l'era dei processori Intel Itanium, l'alternativa a x86 che non ebbe successo
Redazione di Hardware Upg
02-08-2021, 16:51
Link alla notizia: https://www.hwupgrade.it/news/cpu/finisce-l-era-dei-processori-intel-itanium-l-alternativa-a-x86-che-non-ebbe-successo_99605.html
Intel ha completato a fine luglio le consegne delle ultime CPU della famiglia Itanium ordinate dai clienti; giunge alla fine il progetto dell'architettura alternativa a quella x86
Click sul link per visualizzare la notizia.
supertigrotto
02-08-2021, 16:57
A quel tempo era abbastanza rivoluzionario .....
Poi hanno perso la T per strada hehehehe
In effetti è stato così,i clienti chiedevano x86 per la facilità di approccio.
Ricordo molto bene il clamore per la nuova gamma di CPU super high level.
Pur essendo destinate in primis al danaroso mondo dei datacenter il loro grosso limite era appunto l'essere totalmente incompatibili col resto del mondo allora esistente. Un ostacolo non da poco che nemmeno la cordata intel HP ebbe la forza di scavalcare.
Un gran peccato devo dire, perchè erano delle meraviglie costruttivamente
Su youtube si trovano parecchi video che fanno vedere da vicino questi mostri del passato.
https://www.youtube.com/watch?v=NTxXTbOHG7Q&t=897s
Il coinvolgimento di HP è stato spinto sino al punto di sviluppare una speciale versione di sistema operativo, indicata con il nome di HP-UX, appositamente pensata per l'utilizzo con i processori Itanium.
HP-UX è lo UNIX della HP, esiste dagli anni Ottanta, non è che è stato "appositamente pensato per l'utilizzo con i processori Itanium". Ne è stato fatto un porting per Itanium.
Ricordo molto bene il clamore per la nuova gamma di CPU super high level.
Pur essendo destinate in primis al danaroso mondo dei datacenter il loro grosso limite era appunto l'essere totalmente incompatibili col resto del mondo allora esistente. Un ostacolo non da poco che nemmeno la cordata intel HP ebbe la forza di scavalcare.
Un gran peccato devo dire, perchè erano delle meraviglie costruttivamente
Su youtube si trovano parecchi video che fanno vedere da vicino questi mostri del passato.
https://www.youtube.com/watch?v=NTxXTbOHG7Q&t=897s
Grazie finalmente dopo 20 anni scopro com'è fatta quella cartuccia :stordita:
Grazie finalmente dopo 20 anni scopro com'è fatta quella cartuccia :stordita:
Ah beh l'hanno vista live davvero pochissime persone. :D
Il titolo è sbagliato: Itanium quando fu sviluppato non voleva essere un'alternativa a x86 ma alle architetture usate su workstation o server come PA-RISC, SPARC, MIPS, Alpha, POWER.
Un gran peccato devo dire, perchè erano delle meraviglie costruttivamenteSe intendi che avevano un package molto complesso ok, ma dal punto di vista tecnologico non sono mai stati competitivi con nulla, anche perché arrivarono sul mercato con un mucchio di anni di ritardo (oltre 10 anni di sviluppo) e con un rapporto costi/prestazioni improponibile rispetto alle alternative in qualsiasi fascia di mercato. L'architettura Itanium originale (Merced) arrivò sul mercato con un ritardo imbarazzante solo nel 2001, ma si può dire che non è praticamente mai stata venduta perché a quel punto come prestazioni non stava al passo con la concorrenza e costava troppo; ne hanno prodotti ben pochi. Nel 2002 poi arrivò Itanium 2 che se non altro risolveva i più gravi problemi di prestazioni, dovuti alla gestione della memoria, ma ormai era tardi e la pietra tombale la piazzò nel 2003 AMD che uscì con delle CPU da server e workstation (Opteron) con un'architettura x86 estesa a 64 bit, cosa che rendeva immensamente più facile la transizione ai 64 bit mantenendo piena compatibilità con tutto l'ecosistema software a 32 bit esistente (Itanium offriva una modalità di emulazione x86 dalle prestazioni penose). Il seguito lo dovrebbero conoscere tutti: Intel dovette turarsi forte il naso e allinearsi all'architettura AMD64 (o x86-64 che dir si voglia).
Tecnicamente, Itanium era basato sul paradigma "EPIC" (explicitly parallel instruction computing) concepito in HP, una roba che sulla carta sarebbe anche il modo migliore di fare le cose, o perlomeno quello che dovrebbe permettere la massima efficienza nell'uso del silicio e nel consumo energetico: in pratica la parallelizzazione delle istruzioni per tenere occupate il più possibile le unità di esecuzione della CPU viene fatta una volta per tutte a tempo di compilazione e non a tempo di esecuzione dalla CPU stessa, che in questo modo risulta potenzialmente più semplice ed efficiente. Il concetto non è molto diverso da quello delle CPU x86 superscalari con esecuzione in-order (come Intel Pentium e Pentium II, AMD K6, ecc.), anche in quel caso il compilatore ha il compito di analizzare il codice e schedulare le istruzioni in modo da alimentare al meglio le pipeline di esecuzione; però nel caso di Itanium il parallelismo era superiore (per l'epoca) perciò la criticità e complessità del compilatore molto più importante. Le architetture x86 sono invece andate praticamente tutte verso l'esecuzione out-of-order spostando il problema all'interno della CPU, cosa che rende le stesse più complesse ma solleva gli sviluppatori dalla necessità di ottimizzare il codice per ogni possibile diversa CPU su cui potrebbe girare, e in più rende potenzialmente possibile il simultaneous multi-threading.
Il titolo è sbagliato: Itanium quando fu sviluppato non voleva essere un'alternativa a x86 ma alle architetture usate su workstation o server come PA-RISC, SPARC, MIPS, Alpha, POWER.
Se intendi che avevano un package molto complesso ok, ma dal punto di vista tecnologico non sono mai stati competitivi con nulla, anche perché arrivarono sul mercato con un mucchio di anni di ritardo (oltre 10 anni di sviluppo) e con un rapporto costi/prestazioni improponibile rispetto alle alternative in qualsiasi fascia di mercato. L'architettura Itanium originale (Merced) arrivò sul mercato con un ritardo imbarazzante solo nel 2001, ma si può dire che non è praticamente mai stata venduta perché a quel punto come prestazioni non stava al passo con la concorrenza e costava troppo; ne hanno prodotti ben pochi. Nel 2002 poi arrivò Itanium 2 che se non altro risolveva i più gravi problemi di prestazioni, dovuti alla gestione della memoria, ma ormai era tardi e la pietra tombale la piazzò nel 2003 AMD che uscì con delle CPU da server e workstation (Opteron) con un'architettura x86 estesa a 64 bit, cosa che rendeva immensamente più facile la transizione ai 64 bit mantenendo piena compatibilità con tutto l'ecosistema software a 32 bit esistente (Itanium offriva una modalità di emulazione x86 dalle prestazioni penose). Il seguito lo dovrebbero conoscere tutti: Intel dovette turarsi forte il naso e allinearsi all'architettura AMD64 (o x86-64 che dir si voglia).
Tecnicamente, Itanium era basato sul paradigma "EPIC" (explicitly parallel instruction computing) concepito in HP, una roba che sulla carta sarebbe anche il modo migliore di fare le cose, o perlomeno quello che dovrebbe permettere la massima efficienza nell'uso del silicio e nel consumo energetico: in pratica la parallelizzazione delle istruzioni per tenere occupate il più possibile le unità di esecuzione della CPU viene fatta una volta per tutte a tempo di compilazione e non a tempo di esecuzione dalla CPU stessa, che in questo modo risulta potenzialmente più semplice ed efficiente. Il concetto non è molto diverso da quello delle CPU x86 superscalari con esecuzione in-order (come Intel Pentium e Pentium II, AMD K6, ecc.), anche in quel caso il compilatore ha il compito di analizzare il codice e schedulare le istruzioni in modo da alimentare al meglio le pipeline di esecuzione; però nel caso di Itanium il parallelismo era superiore (per l'epoca) perciò la criticità e complessità del compilatore molto più importante. Le architetture x86 sono invece andate praticamente tutte verso l'esecuzione out-of-order spostando il problema all'interno della CPU, cosa che rende le stesse più complesse ma solleva gli sviluppatori dalla necessità di ottimizzare il codice per ogni possibile diversa CPU su cui potrebbe girare, e in più rende potenzialmente possibile il simultaneous multi-threading.
Ma assolutamente si.
Ricordi la storia nei dettagli molto bene, io molte cose non le ricordavo.
Il fallimento di Itanium stava sicuramente nella mancanza di supporto ma c'era in effetti da aggiungere ciò che hai detto tu: uno sviluppo lunghissimo e costosissimo che lo fecero arrivare sul mercato imperfetto, caro e con prestazioni non a livello di una concorrenza che in quel settore già ci navigava da una vita.
Lo ha ucciso il mercato, ma il progetto in sè era tantissima roba.. tenedo ovvimante ben presente che Intel con Itanium partì praticmante dal foglio bianco.
Il titolo è sbagliato: Itanium quando fu sviluppato non voleva essere un'alternativa a x86 ma alle architetture usate su workstation o server come PA-RISC, SPARC, MIPS, Alpha, POWER.
Dipende se si prendono in considerazioni le successive dichiarazioni ufficiali di Intel o se si vanno a vedere altre fonti, mi ricordo che persino quando nel 1995..1996 uscirono i primi articoli sull'edizione americana della rivista Byte, dicevano chiaramente che EPIC (poi Itanium) avrebbe attaccato il mercato dall'alto per poi dilagare in tutti i settori man mano che i 64bit avrebbero preso piede in essi.
Non a caso inizialmente Intel indicava il set d'istruzioni dell'Itanium come IA-64 mentre nello stesso periodo per il set d'istruzioni degli x86 a 32bit usava la denominazione IA-32.
Nel senso di "architettura Intel a 32bit" ed "architettura Intel a 64bit" e per Intel la cosa era molto importante visto che la concorrenza in possesso di licenze per gli x86 non avrebbe potuto realizzare cloni degli Itanium (neanche AMD).
Se non ci fosse stata AMD con gli Athlon che alzò l'asticella delle prestazioni degli x86 sul mercato e poi rese concreta la minaccia (per i piani di Intel) dell'arrivo di x86-64 con prestazioni anche a 32bit superiori agli Athlon, molto probabilmente Intel non avrebbe spinto troppo sulle prestazioni dei suoi x86 a 32bit per non far sfigurare Itanium e piano piano avrebbe finito di eliminare la concorrenza in fascia alta per poi introdurre IA64 nelle fascie di mercato inferiori.
Non è un caso se i primi x86 a 64bit di Intel uscirono nel febbraio 2004 mentre i primi Opteron a 64bit di AMD uscirono nell'aprile del 2003.
In pratica entro il 2004...2005 Itanium era da considerarsi spacciato ed Intel lo avrebbe abbandonato subito se non fosse che aveva firmato con HP un contratto ferreo che la obbligava a continuare a produrre gli Itanium ancora per molto tempo (ma negli anni successivi ne rallentò lo sviluppo e lo relegò a processi più vecchi di quelli usati per gli x86-64).
Piedone1113
03-08-2021, 19:28
Dipende se si prendono in considerazioni le successive dichiarazioni ufficiali di Intel o se si vanno a vedere altre fonti, mi ricordo che persino quando nel 1995..1996 uscirono i primi articoli sull'edizione americana della rivista Byte, dicevano chiaramente che EPIC (poi Itanium) avrebbe attaccato il mercato dall'alto per poi dilagare in tutti i settori man mano che i 64bit avrebbero preso piede in essi.
Non a caso inizialmente Intel indicava il set d'istruzioni dell'Itanium come IA-64 mentre nello stesso periodo per il set d'istruzioni degli x86 a 32bit usava la denominazione IA-32.
Nel senso di "architettura Intel a 32bit" ed "architettura Intel a 64bit" e per Intel la cosa era molto importante visto che la concorrenza in possesso di licenze per gli x86 non avrebbe potuto realizzare cloni degli Itanium (neanche AMD).
Se non ci fosse stata AMD con gli Athlon che alzò l'asticella delle prestazioni degli x86 sul mercato e poi rese concreta la minaccia (per i piani di Intel) dell'arrivo di x86-64 con prestazioni anche a 32bit superiori agli Athlon, molto probabilmente Intel non avrebbe spinto troppo sulle prestazioni dei suoi x86 a 32bit per non far sfigurare Itanium e piano piano avrebbe finito di eliminare la concorrenza in fascia alta per poi introdurre IA64 nelle fascie di mercato inferiori.
Non è un caso se i primi x86 a 64bit di Intel uscirono nel febbraio 2004 mentre i primi Opteron a 64bit di AMD uscirono nell'aprile del 2003.
In pratica entro il 2004...2005 Itanium era da considerarsi spacciato ed Intel lo avrebbe abbandonato subito se non fosse che aveva firmato con HP un contratto ferreo che la obbligava a continuare a produrre gli Itanium ancora per molto tempo (ma negli anni successivi ne rallentò lo sviluppo e lo relegò a processi più vecchi di quelli usati per gli x86-64).
Era gia spacciato alla nascita:
Itanium nella fascia alta avrebbe dovuto scontrarsi con i DEC Alpha, che fino al 2002 offrivano prestazioni ottime e sopratutto ottimi consumi.
Ma sappiamo tutti come i problemi di Dec portarono prima alla concessione di licenze interne a terzi ( il bus ev6 degli athlon era dec) e poi a farsi acquisire da compaq.
Compaq che trovo un accordo con intel per chiudere un contenzioso legale su brevetti usati nei pentium e poi farsi assorbire da hp.
Hp che era in società con intel per lo sviluppo di itanium dal lontano 1995 per entrare nel settore mainframe e scalzare CRAY.
I ritardi di Itanium furono dovuti sopratutto alle scarse prestazioni nei confronti di ALPHA la cui morte avrebbe potuto risollevare i sistemi Itanium, senza dimenticare di dire però che i sistemi windows server ( fino alla 3.51 se non erro) oltre a girare su x86 girava anche su alpha e mips.
edit fino a windows 2000 sp2
Non posso dire dove e chi per contratto, ma vi assicuro che ancora oggi in Italia ci sono siti industriali e di sicurezza che girano ininterrottamente dagli anni 90 (fine) con Itanium e Open VMS. Solo adesso cambiano perché finito il supporto... arrivano sempre solo quando sono obbligati. E in fondo li capisco anche, questi Itanium non hanno mai perso un colpo.
Edit: fine 90? Oddio forse primi 2000... Forse prima avevano Alpha e poi Itanium... Boh, cmq sono sempre tanti anni di lavoro perfetto :) Ah sì, prima ancora avevano i Motorola 68000, fantastiche CPU. Sto diventando vecchio. I PDP della Digital... Tutto in C puro.
Non posso dire dove e chi per contratto, ma vi assicuro che ancora oggi in Italia ci sono siti industriali e di sicurezza che girano ininterrottamente dagli anni 90 (fine) con Itanium e Open VMS. Solo adesso cambiano perché finito il supporto... arrivano sempre solo quando sono obbligati. E in fondo li capisco anche, questi Itanium non hanno mai perso un colpo.
Edit: fine 90? Oddio forse primi 2000... Forse prima avevano Alpha e poi Itanium... Boh, cmq sono sempre tanti anni di lavoro perfetto :) Ah sì, prima ancora avevano i Motorola 68000, fantastiche CPU. Sto diventando vecchio. I PDP della Digital... Tutto in C puro.
Lì avranno pagati due reni e un polmone.. ci credo che se li sono tenuti fino ad oggi! :D
Comunque immagino che in quei particolari settori, visto anche i costi, una volta messo in piedi un sistema lo si tiene invariato fin che fa bene il lavoro..
massi47911
03-08-2021, 23:16
Ma sì, spesso si ha un'ansia esagerata riguardo il concetto di sistema obsoleto.
Faccio due esempi contrastanti: un conto è quando, 5 anni fa, avevo visto un'impiegata dell'agenzia delle entrate usare un PC vecchissimo, su cui doveva far girare un applicativo Java tramite IE (unico compatibile) e doveva svuotare la cache ogni ora per recuperare reattività. Qui si parla di perdite di efficienza (in lentezza) e rischi di sicurezza pazzeschi.
Altro discorso è una macchina industriale della mia azienda, con un sistema molto datato e software dedicato. Certo, un banale snapdragon avrà 10 volte minimo la sua potenza...ma a che pro sostituire il sistema? Funziona perfettamente ed è scollegato dalla rete, quindi zero rischi. Sarebbero letteralmente soldi buttati. Sostituire il sistema (il che significa anche riscrivere il sw) servirebbe solamente a soddisfare le manie di grandezza di qualche professionista IT senza alcun vantaggio pratico. (Preciso: no, a differenza degli altri macchinari, per la tipologia di processo è perfettamente inutile integrarlo nel sistema informatico aziendale). Finché il supporto esiste...
Ma sì, spesso si ha un'ansia esagerata riguardo il concetto di sistema obsoleto.
Faccio due esempi contrastanti: un conto è quando, 5 anni fa, avevo visto un'impiegata dell'agenzia delle entrate usare un PC vecchissimo, su cui doveva far girare un applicativo Java tramite IE (unico compatibile) e doveva svuotare la cache ogni ora per recuperare reattività. Qui si parla di perdite di efficienza (in lentezza) e rischi di sicurezza pazzeschi.
Altro discorso è una macchina industriale della mia azienda, con un sistema molto datato e software dedicato. Certo, un banale snapdragon avrà 10 volte minimo la sua potenza...ma a che pro sostituire il sistema? Funziona perfettamente ed è scollegato dalla rete, quindi zero rischi. Sarebbero letteralmente soldi buttati. Sostituire il sistema (il che significa anche riscrivere il sw) servirebbe solamente a soddisfare le manie di grandezza di qualche professionista IT senza alcun vantaggio pratico. (Preciso: no, a differenza degli altri macchinari, per la tipologia di processo è perfettamente inutile integrarlo nel sistema informatico aziendale). Finché il supporto esiste...
Va benissimo.
Ma tieni conto che un datacenter basato su Itanium avrà ovviamente ben altri compiti e sarà connesso alla rete sicuramente.
Quinndo fa il suo lavoro ma al contempo viene pure aggiornato lato software.
Ma sì, spesso si ha un'ansia esagerata riguardo il concetto di sistema obsoleto.
Faccio due esempi contrastanti: un conto è quando, 5 anni fa, avevo visto un'impiegata dell'agenzia delle entrate usare un PC vecchissimo, su cui doveva far girare un applicativo Java tramite IE (unico compatibile) e doveva svuotare la cache ogni ora per recuperare reattività. Qui si parla di perdite di efficienza (in lentezza) e rischi di sicurezza pazzeschi.
Altro discorso è una macchina industriale della mia azienda, con un sistema molto datato e software dedicato. Certo, un banale snapdragon avrà 10 volte minimo la sua potenza...ma a che pro sostituire il sistema? Funziona perfettamente ed è scollegato dalla rete, quindi zero rischi. Sarebbero letteralmente soldi buttati. Sostituire il sistema (il che significa anche riscrivere il sw) servirebbe solamente a soddisfare le manie di grandezza di qualche professionista IT senza alcun vantaggio pratico. (Preciso: no, a differenza degli altri macchinari, per la tipologia di processo è perfettamente inutile integrarlo nel sistema informatico aziendale). Finché il supporto esiste...
se parli di macchinari un mio cliente usa ancora una macchina critica per il suo processo i cui programmi sono su nastro magnetico e non sto parlando di lto o cartucce varie ma nastro libero anni 60:D
se parli di macchinari un mio cliente usa ancora una macchina critica per il suo processo i cui programmi sono su nastro magnetico e non sto parlando di lto o cartucce varie ma nastro libero anni 60:D
:D :D
ecco questo magari è un tantino eccessivo..
cioè.. se la macchina critica antidiluviana decide di morire domani (ne ne avrebbe un diritto sacrosanto) cosa succede?
Non esiste rimpiazzo possibile nè in tempi brevi nè in tempi lunghi..
Farebbe bene a pensare fin da subito a produrre una alternativa con qualcosa di aggiornato.
:D :D
ecco questo magari è un tantino eccessivo..
cioè.. se la macchina critica antidiluviana decide di morire domani (ne ne avrebbe un diritto sacrosanto) cosa succede?
Non esiste rimpiazzo possibile nè in tempi brevi nè in tempi lunghi..
Farebbe bene a pensare fin da subito a produrre una alternativa con qualcosa di aggiornato.
perde capacità produttiva (ha comunque una macchina più moderna ma che non garantisce la stessa qualità e rese di quella vecchia costruita anni fà custom su sue specifiche ma fino a che non muore del tutto viene costantemente manutenuta e coccolata )
perde capacità produttiva (ha comunque una macchina più moderna ma che non garantisce la stessa qualità e rese di quella vecchia costruita anni fà custom su sue specifiche ma fino a che non muore del tutto viene costantemente manutenuta e coccolata )
Perde capacità produttiva? :mbe: :mbe:
Non riesco a capire la situazione.. è un computer che si occupa di far andare dei macchinari o fa qualcosa di particolare?
Perde capacità produttiva? :mbe: :mbe:
Non riesco a capire la situazione.. è un computer che si occupa di far andare dei macchinari o fa qualcosa di particolare?
si è il pc di controllo di una macchina e non lo fa mediante fieldbus e roba baria ma tramite schede isa con decine e decine di i/o digitali ed analogici, un catafalco allucinante ma funziona come un orologio svizzero :D (non ti posso dire troppo se no si capisce troppo bene il cliente)
sicuramente sarebbe possibile fare un revamping di tutta la parte di automazione ma costerebbe troppo (i produttori hanno migrato su macchine general purpose meno specifiche e molto più flessibili ma per il loro business la vecchia macchina rigida ma customizzata fino al bullone è quella che garantisce la migliore resa, non fa 2000 prodotti, ne fa uno in un solo formato con una serie di vincoli importanti ma copre un buon 80% degli ordini, per il rimanente 20% e per scaricarla hanno macchine general purpose moderne ma la flessibilità la si paga con la riduzione delle velocità di produzione
Piedone1113
04-08-2021, 15:19
si è il pc di controllo di una macchina e non lo fa mediante fieldbus e roba baria ma tramite schede isa con decine e decine di i/o digitali ed analogici, un catafalco allucinante ma funziona come un orologio svizzero :D (non ti posso dire troppo se no si capisce troppo bene il cliente)
sicuramente sarebbe possibile fare un revamping di tutta la parte di automazione ma costerebbe troppo (i produttori hanno migrato su macchine general purpose meno specifiche e molto più flessibili ma per il loro business la vecchia macchina rigida ma customizzata fino al bullone è quella che garantisce la migliore resa, non fa 2000 prodotti, ne fa uno in un solo formato con una serie di vincoli importanti ma copre un buon 80% degli ordini, per il rimanente 20% e per scaricarla hanno macchine general purpose moderne ma la flessibilità la si paga con la riduzione delle velocità di produzione
Praticamente una macchina per un decimo software e il resto programmata in Hardware?
si è il pc di controllo di una macchina e non lo fa mediante fieldbus e roba baria ma tramite schede isa con decine e decine di i/o digitali ed analogici, un catafalco allucinante ma funziona come un orologio svizzero :D (non ti posso dire troppo se no si capisce troppo bene il cliente)
sicuramente sarebbe possibile fare un revamping di tutta la parte di automazione ma costerebbe troppo (i produttori hanno migrato su macchine general purpose meno specifiche e molto più flessibili ma per il loro business la vecchia macchina rigida ma customizzata fino al bullone è quella che garantisce la migliore resa, non fa 2000 prodotti, ne fa uno in un solo formato con una serie di vincoli importanti ma copre un buon 80% degli ordini, per il rimanente 20% e per scaricarla hanno macchine general purpose moderne ma la flessibilità la si paga con la riduzione delle velocità di produzione
Ah ma quindi parliamo di una sorta di "PEZZO UNICO".. non è che è un PC, è di fatto una macchinario custom che per un pezzo è un pc tradizionale..
Che dire.. non so cme facciano a dormire la notte sapendo che la produzione è legata ad un macchinario vecchissimo e non replicabile.. :stordita: :stordita:
Praticamente una macchina per un decimo software e il resto programmata in Hardware?
se per hw principalmente registri meccanici e finecorsa si
Ah ma quindi parliamo di una sorta di "PEZZO UNICO".. non è che è un PC, è di fatto una macchinario custom che per un pezzo è un pc tradizionale..
Che dire.. non so cme facciano a dormire la notte sapendo che la produzione è legata ad un macchinario vecchissimo e non replicabile.. :stordita: :stordita:
non ci dormono tranquilli ma visto i costi dei macchinari fanno di tutto per tirarlo avanti il più possibile ( e hanno comunque pronte le offerte per le macchine sostituive ma servono 4 macchine nuove per sostituire il catafalco ) e con la contrazione di mercato attuale sono un pò restii a fare un investimento a 7 zeri, un pò si può capirli, io l'avrei sostituita 20 anni fà quando il mercato tirava di brutto ma con il senno di poi sono tutti maestri
Piedone1113
04-08-2021, 15:40
se per hw principalmente registri meccanici e finecorsa si
si.
Se non hanno bisogno di velocità delle modifiche dei pezzi ( misure, sequenza di lavorazione ecc) li capisco benissimo.
Coi tempi che corrono avere un'alternativa possibile è gia prevenzione, ma investire 7 zero senza un tangibile aumento del fatturato è masochismo ( a meno tu non accedi ad un contributo del 110% )
il concetto fondamentale è che stiamo parlando di macchinari mission critical, ma soprattutto OFFLINE, sono tutti macchinari che non hanno alcun tipo di accesso a internet o altro. Anche a livello fisico l'accesso è molto difficoltso e protetto da svariate procedure. Questo è da tenere conto e anche per questo molte aziende non hanno mai messo priorità al cambio. :)
Era gia spacciato alla nascita:
Itanium nella fascia alta avrebbe dovuto scontrarsi con i DEC Alpha, che fino al 2002 offrivano prestazioni ottime e sopratutto ottimi consumi.
Ma sappiamo tutti come i problemi di Dec portarono prima alla concessione di licenze interne a terzi ( il bus ev6 degli athlon era dec) e poi a farsi acquisire da compaq.
Compaq che trovo un accordo con intel per chiudere un contenzioso legale su brevetti usati nei pentium e poi farsi assorbire da hp.
Hp che era in società con intel per lo sviluppo di itanium dal lontano 1995 per entrare nel settore mainframe e scalzare CRAY.
I ritardi di Itanium furono dovuti sopratutto alle scarse prestazioni nei confronti di ALPHA la cui morte avrebbe potuto risollevare i sistemi Itanium, senza dimenticare di dire però che i sistemi windows server ( fino alla 3.51 se non erro) oltre a girare su x86 girava anche su alpha e mips.
edit fino a windows 2000 sp2
Paradossalmente Intel "uccise" gli Alpha con l'accordo stretto con HP (gli Itanium erano nati come progetto HP per avere un successore del loro PA-Risc) e con HP che acquisendo Compaq pose fine ad ulteriori sviluppi di Alpha, ma Alpha ed il suo team di sviluppo ricambiarono uccidendo Itanium.
L'ultimo shrink della generazione precedente di cpu Alpha risultò lo stesso più veloce della prima generazione di Itanium (e non potevano bloccarlo, causa precedenti contratti ferrei con clienti importanti) e nel frattempo parecchi progettisti ex-DEC passarono ad AMD e travasarono li il loro know-how.
Riguardo Windows ... la versione per le cpu Alpha era a 32bit (un accrocchio orrendo) e la maggior parte delle applicazioni per Windows erano codificate per x86 giravano in emulazione, in pratica sprecava la maggiore capacità di indirizzamento e non permetteva di sfruttare a pieno la potenza di calcolo degli Alpha, lo stesso con la versione per i MIPS ed i PowerPC.
Per questo quando AMD uscì con Opteron basato su x86-64 il grosso dei potenziali clienti preferì passare ad architetture x86-64 ed Intel fu costretta ad adottare x86-64 invece della "sua" versione a 64bit degli x86 (che aveva tenuto da parte per dare spazio ad Itanium).
Paradossalmente il progetto iniziale EPIC aveva un grosso potenziale se lo avessero tenuto semplice e snello, lo sbaglio più grande fu introdurre un sacco di feature che lo resero più complesso da programmare ed al tempo stesso sottovalutarono l'importanza delle prestazioni nell'elaborare interi concentrandosi troppo sul floating point e sull'elaborazione di segnali (gli Itanium avevano già la fused multiply-add che arrivò solo molto più tardi sugli x86 Intel).
Quando lo lanciarono dissero che serviva per forza un compilatore super-ottimizzante perchè era troppo complesso per uno sviluppatore programmarlo in assembly ... senza considerare che se è complesso per un essere umano lo è anche per il compilatore.
Per lavoro ho avuto (ed ho ancora) a che fare con architetture e set d'istruzioni "particolari" e guardacaso tutte le cpu con set di istruzioni "asimmetrico", con troppi casi particolari, ecc. mettono in difficoltà pure i compilatori al punto che per avere davvero le massime prestazioni bisogna riscrivere in assembly le parti più critiche (e non parliamo delle bug nei compilatori stessi legate alle eccessive particolarità architetturali ).
Giusto per essere chiari, x86-64 ha le sue peculiarità, ma è bello simmetrico e regolare rispetto a certe cpu/dsp/dsc che sono ancora in uso.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.