Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Hyundai Ioniq elettrica: ansia da batteria e pareri ragionati di un utilizzatore curioso
Hyundai Ioniq elettrica: ansia da batteria e pareri ragionati di un utilizzatore curioso
Due settimane con una delle auto elettriche più apprezzate e, a modo suo, nemmeno molto cara. Ecco diverse considerazioni fuori dai denti, molto personali, da parte di chi l'ha guidata con curiosità e quel filo di diffidenza che porta a farsi domande. Trovando anche delle risposte, probabilmente solo temporanee, su un tema di cui si parlerà sempre di più.
Canon svela EOS R5 e R6, due nuove mirrorless 35mm avanzate e performanti
Canon svela EOS R5 e R6, due nuove mirrorless 35mm avanzate e performanti
La EOS R5 è una "big megapixel" ad alte performance, che si pone in concorrenza con Sony A7R e Nikon D850 - in casa Canon, può essere considerata la versione mirrorless della 5Ds. La EOS R6, dal canto suo, può essere considerata l'erede spirituale della 7D Mark II, con assonanze che arrivano a scomodare nientemeno che la EOS-1D X Mark III.
Aorus 17G XB, l'approccio di Gigabyte al mondo dei notebook gaming
Aorus 17G XB, l'approccio di Gigabyte al mondo dei notebook gaming
Abbiamo avuto l'opportunità di provare l'Aorus 17G XB di Gigabyte, un prodotto che non arriverà in Italia ma che incarna l'approccio dell'azienda taiwanese al settore dei portatili da gioco. Si tratta di un notebook interessante, forte di una CPU Core i7-10875H, una GPU RTX 2070 Super Max-Q e 16 GB di RAM. Non esente da pecche, è comunque un prodotto indubbiamente in grado di soddisfare il gamer più esigente.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 01-07-2020, 00:39   #41
AlexSwitch
Senior Member
 
L'Avatar di AlexSwitch
 
Iscritto dal: Aug 2008
Città: Firenze
Messaggi: 7753
Quote:
Originariamente inviato da pabloski Guarda i messaggi
Tutto questo si vedrà poi. Noi non sappiamo che processore sta sviluppando Apple. Si sta ragionando completamente alla cieca.

I 4 core "little" Tempest come sono fatti? Che c'è dentro? Perchè Rosetta non li usa? Non li può usare? Ci sono altre ragioni? Boh!
Rosetta non li usa, almeno nel far girare Geekbench 5, semplicemente perchè non soddisfano il carico di lavoro richiesto. I core Tempest, rispetto ai Vortex, non hanno unità per le istruzioni vettoriali e la loro architettura è derivata da quella del SoC A6 aggiornata ai 64 bit.
In questo articolo una analisi del core Tempest del SoC A12:
https://www.anandtech.com/show/13392...icon-secrets/5
__________________
iMac 21,5" ( late 2013 ) - ;iPod Touch 1st Gen. 8 Gb; iPhone Xs; iPad Air2 Lte 64 Gb, Apple Watch 2...flickr
AlexSwitch è offline   Rispondi citando il messaggio o parte di esso
Old 01-07-2020, 06:29   #42
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 24388
Quote:
Originariamente inviato da dwfgerw Guarda i messaggi
Forse in molti ancora non si rendono conto della portata dell'annuncio e dei risvolti nei prossimi anni. La resilienza e la strategia portata avanti negli anni da Apple ha veramente dell'invidiabile.. Sono partiti oltre 10 anni fa, ed ora sono in grado di realizzarsi tantissimi sistemi e sottosistemi in casa completamente custom fino ad approdare nel mac. Non a caso il primo chip mobile a 64bit è arrivato prima degli altri in iPhone, e gia anni fa la stessa azienda parlava di "Desktop class architecture".
Questo mac mini monta un chip da oltre 10 miliardi di transistor (A12X è stato presentato con questi numeri), vedremo i primi chip a 5nm pensati per Mac. Intel ha perso molto in termini di immagine..E' ferma al palo da anni..
Intel è rimasta bloccata dai problemi col suo nuovo processo produttivo.

Apple non ha fonderie, e si rivolge a terzi. E se un processo va male per una fonderia, si può rivolgere a un'altra.
Quote:
Originariamente inviato da Alfhw Guarda i messaggi
Va bene che l'A12 è un gran bel chip e che Geekbench girava in emulazione però confrontarlo con un misero Intel Core i3-1000NG4 dual core non ha molto senso. Un top di gamma Arm va confrontato con un top di gamma x86 altrimenti non si capisce niente di quale sia la piattaforma migliore.
A parte questo, Geekbench è un benchmark sintetico ed è pura spazzatura, come amo ripetere da anni.

I test andrebbero fatto con un bouquet di applicazioni, e nelle stesse condizioni (senza usare appositi acceleratori hardware: il codice dovrebbe girare soltanto nei core del processore).
Quote:
Originariamente inviato da pabloski Guarda i messaggi
Poi, non per idolatrarli, ma Apple ha mai fatto cazzate?
Parecchie. Ti dice nulla l'Apple III? Ed è soltanto un esempio.
Quote:
Li si può accusare di tutto, tranne che essere degli incompetenti.
Lo sono anche stati. MacOS era ottimizzato da cani, ad esempio, e ci sono vecchi articoli di ArsTechnica dove hanno anche misurato le prestazioni delle API grafiche, che a un certo punto Apple decise finalmente a ottimizzare, e la differenza con la versione precedente del s.o. erano scandalose.

Anche qui, è un esempio.
Quote:
Penso sappiano benissimo di non potersi permettere il lusso di vendere computer ARM che abbiano una frazione della potenza di quelli x86.
A loro interessa avere tutto fatto in casa in primis, controllando ogni singolo dettaglio, e risparmiando sui costi.

Le prestazioni sono e saranno buone (hanno il miglior core ARM, e gli altri possono soltanto imparare da loro), ed eccellenti in rapporto ai consumi (e siccome vendono dispositivi mobile...).
Quote:
Originariamente inviato da pabloski Guarda i messaggi
Non è strettamente così. Cdimauro tempo fa pubblicò un'analisi dell'ISA x86, con tutti il suo bagaglio legacy, e la conclusione era che non solo quel bagaglio non pesava sul chip e relativi consumi, ma che nemmeno rendeva più complicato o inefficienti il design di questi chip.
Il discorso è un po' più complicato, perché ho scritto un articolo (il più vecchio) su prestazioni e consumi, e ben 9 riguardo al legacy, per cui sintetizzare qui i risultati è difficile (e poi devo correre a lavoro).

Diciamo che più i core sono piccoli, e più il legacy di x86 si fa sentire. Più transistor si usano, e meno il legacy si fa sentire.
Questo perché la parte legacy rimane sostanzialmente costante da tanti anni, per cui ha un costo fisso sia sui transistor impiegati sia su prestazioni e consumi.
Quote:
Ci sono pure fattori commerciali, giochini al limite della legge, ecc... Sappiamo come vanno queste cose.
Niente giochi: Intel è sorvegliata speciale dalle autorità antitrust.
Quote:
I Power ( non i PowerPC ) ancora oggi hanno un'architettura mostruosa, che riesce a competere senza sforzo con x86.
Assolutamente no, e i test di Phoronix sono impietosi.
Quote:
I processori sono complessi, ovvio che ci siamo migliaia di variabili in gioco. Ma il punto rimane, ovvero che ARM non è sinonimo di processore per lavatrici o orologi da polso. ARM è anche sinonimo di server, hpc, ecc... Il fatto che l'azienda abbia, per ragioni commerciali, operato per quasi 40 anni nei soli settori "di nicchia", non vuol dire che i suoi design non scalano. Anzi, si è dimostrato che scalano eccome.
Assolutamente vero.
Quote:
Certo, problemi dovuti a carenti procedure di QA. Quello che sta succedendo a tutti ormai. Sembra che i prodotti nemmeno li testino.
Non è affatto un problema di QA, ma di cattiva progettazione.
Quote:
Parlo di benchmark. In genere Linux > macOS > Windows in molti benchmark. Con l'eccezione dei giochi ovviamente.
MacOS X dovrebbe essere quello messo peggio. Ha sempre avuto prestazioni inferiori, in media, a causa dell'impiego del micro kernel + kernel classico.

Difatti a livello server è durato un po' di anni, e poi è sparito.
Quote:
In realtà il supporto di terze parti è migliori su macOS. Le schermate blu di Windows non sono rare. Molto più rari i panic su macOS.
Windows deve girare su miliardi di configurazioni...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 01-07-2020, 17:04   #43
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 3943
Quote:
Originariamente inviato da pabloski Guarda i messaggi
Quelli in commercio sono prodotti per consumare di meno. Ma in quanto ad istruzioni/watt non c'è chissà che differenza https://en.wikipedia.org/wiki/Performance_per_watt
Aehm! Se fai attenzione ai dati performance/watt del 2019 nel link che hai fornito, si vede che IL PROTOTIPO di Fugaku (basato solo su CPU A64FX e non ancora nella versione definitiva)
sta "leggermente avanti" ad altri supercomputer basati su architetture ibride con CPU Xeon oppure Power insieme a GPU Nvidia oppure con acceleratori many-core PEZY-SC.

In altre parole se il confronto fosse CPU contro CPU sia Xeon che PowerPC ne uscirebbero con le ossa rotte (le GPU sono estremamente efficienti in termini di performance/watt ).
Gli A64FX sono dei veri mostri e sono solo le prime CPU di fascia alta basate su Aarch64+SVE.
LMCH è offline   Rispondi citando il messaggio o parte di esso
Old 01-07-2020, 18:04   #44
pabloski
Senior Member
 
Iscritto dal: Jan 2008
Messaggi: 7692
Quote:
Originariamente inviato da LMCH Guarda i messaggi
Gli A64FX sono dei veri mostri e sono solo le prime CPU di fascia alta basate su Aarch64+SVE.
Non avendo dati precisi su quel computer, ho estrapolato da qui https://www.cray.com/sites/default/f...0-Brochure.pdf

Come si nota, il CS500 esiste anche con CPU Intel e AMD e può montare vari acceleratori di Nvidia.

Praticamente ho supposto che pure quel supercomputer sia equipaggiato con un certo numero di GPU Nvidia.

Chiaro che senza sapere esattamente che c'è dentro, si può solo supporre grossolanamente.

Poi ci sono vari benchmark che sono stati fatti da quando ARM ha fatto il boot con gli smartphone e il vantaggio in termini di performance/watt non è tanto superiore ad x86.

L'incognita è sempre il numero e la tipologia dei coprocessori che possono finire in un SoC ARM. Flessibilità che nè Intel nè AMD ti danno.

E sappiamo che non c'è niente al mondo che batta hardware specializzato sia come prestazioni brute che performance/watt.
pabloski è offline   Rispondi citando il messaggio o parte di esso
Old 01-07-2020, 18:29   #45
the_joe
Senior Member
 
L'Avatar di the_joe
 
Iscritto dal: May 2003
Città: Lucca
Messaggi: 10008
Quote:
Originariamente inviato da pabloski Guarda i messaggi
Non avendo dati precisi su quel computer, ho estrapolato da qui https://www.cray.com/sites/default/f...0-Brochure.pdf

Come si nota, il CS500 esiste anche con CPU Intel e AMD e può montare vari acceleratori di Nvidia.

Praticamente ho supposto che pure quel supercomputer sia equipaggiato con un certo numero di GPU Nvidia.

Chiaro che senza sapere esattamente che c'è dentro, si può solo supporre grossolanamente.

Poi ci sono vari benchmark che sono stati fatti da quando ARM ha fatto il boot con gli smartphone e il vantaggio in termini di performance/watt non è tanto superiore ad x86.

L'incognita è sempre il numero e la tipologia dei coprocessori che possono finire in un SoC ARM. Flessibilità che nè Intel nè AMD ti danno.

E sappiamo che non c'è niente al mondo che batta hardware specializzato sia come prestazioni brute che performance/watt.
Nel tempo anche nei processori x86 sono state implementate in hardware molte istruzioni per velocizzare diversi tipi di calcoli...
È tutto ancora da vedere ed è bene che qualcosa di nuovo si muova, che poi a noi consumatori cosa ci importa se nel PC del 2030 ci sarà un arm o un x86 o se ci sarà Windows o Linux, quello che conta è che vadano bene per quello che dobbiamo fare...
the_joe è offline   Rispondi citando il messaggio o parte di esso
Old 01-07-2020, 18:31   #46
GTKM
Senior Member
 
L'Avatar di GTKM
 
Iscritto dal: Jan 2014
Messaggi: 3791
Quote:
Originariamente inviato da pabloski Guarda i messaggi
Non avendo dati precisi su quel computer, ho estrapolato da qui https://www.cray.com/sites/default/f...0-Brochure.pdf

Come si nota, il CS500 esiste anche con CPU Intel e AMD e può montare vari acceleratori di Nvidia.

Praticamente ho supposto che pure quel supercomputer sia equipaggiato con un certo numero di GPU Nvidia.

Chiaro che senza sapere esattamente che c'è dentro, si può solo supporre grossolanamente.

Poi ci sono vari benchmark che sono stati fatti da quando ARM ha fatto il boot con gli smartphone e il vantaggio in termini di performance/watt non è tanto superiore ad x86.

L'incognita è sempre il numero e la tipologia dei coprocessori che possono finire in un SoC ARM. Flessibilità che nè Intel nè AMD ti danno.

E sappiamo che non c'è niente al mondo che batta hardware specializzato sia come prestazioni brute che performance/watt.
D'altronde, il motivo per cui Apple ha deciso di percorrere questa strada è questo. Ha i soldi e il know-how per realizzare SoC ARM per farci ciò che vuole. Noi qui stiamo ancora a pensare a fare il confronto tra quale core sia più potente, cosa del tutto irrilevante.

Ricordiamo anche che x86 è come Windows: deve mantenere la retrocompatibilità per far girare software scritto magari 30 anni fa. Quindi si va di estensioni e reingegnerizzazioni della micro-architettura. Ricordiamo che gli stessi 64 bit sono un'estensione introdotta da AMD. E che Itanium fu affossato anche perché l'emulazione di x86 faceva pena.

Insomma, la veritá è che finché Apple non presenterá qualcosa di concreto, nessuno potrá davvero sapere fin dove si possa arrivare.
GTKM è offline   Rispondi citando il messaggio o parte di esso
Old 01-07-2020, 18:32   #47
GTKM
Senior Member
 
L'Avatar di GTKM
 
Iscritto dal: Jan 2014
Messaggi: 3791
Quote:
Originariamente inviato da the_joe Guarda i messaggi
Nel tempo anche nei processori x86 sono state implementate in hardware molte istruzioni per velocizzare diversi tipi di calcoli...
È tutto ancora da vedere ed è bene che qualcosa di nuovo si muova, che poi a noi consumatori cosa ci importa se nel PC del 2030 ci sarà un arm o un x86 o se ci sarà Windows o Linux, quello che conta è che vadano bene per quello che dobbiamo fare...
Le AVX sono state introdotte un casino di tempo fa, eppure per anni i software non le hanno sfruttate. Che poi è il secondo dei problemi: puoi estendere e aggiungere istruzioni, ma poi i software vanno ricompilati (quando basta) con le opzioni per sfruttarle.
GTKM è offline   Rispondi citando il messaggio o parte di esso
Old 01-07-2020, 18:45   #48
the_joe
Senior Member
 
L'Avatar di the_joe
 
Iscritto dal: May 2003
Città: Lucca
Messaggi: 10008
Quote:
Originariamente inviato da GTKM Guarda i messaggi
Le AVX sono state introdotte un casino di tempo fa, eppure per anni i software non le hanno sfruttate. Che poi è il secondo dei problemi: puoi estendere e aggiungere istruzioni, ma poi i software vanno ricompilati (quando basta) con le opzioni per sfruttarle.
Certo e passare a processori completamente diversi è ancora più complicato.
the_joe è offline   Rispondi citando il messaggio o parte di esso
Old 01-07-2020, 18:52   #49
GTKM
Senior Member
 
L'Avatar di GTKM
 
Iscritto dal: Jan 2014
Messaggi: 3791
Quote:
Originariamente inviato da the_joe Guarda i messaggi
Certo e passare a processori completamente diversi è ancora più complicato.
Dipende da cosa devi portare. Diciamoci la veritá. Oggi la maggior parte dei nuovi software è un accrocchio scritto in JavaScript che gira su Chrome. Mentre il software professionale verrá portato senza problemi perché le risorse non mancano.

Ad Apple, inoltre, nessuno chiede la compatibilitá con il gestionale del supermercato scritto in BASIC 40 anni fa.
GTKM è offline   Rispondi citando il messaggio o parte di esso
Old 01-07-2020, 19:12   #50
pabloski
Senior Member
 
Iscritto dal: Jan 2008
Messaggi: 7692
Quote:
Originariamente inviato da GTKM Guarda i messaggi
D'altronde, il motivo per cui Apple ha deciso di percorrere questa strada è questo. Ha i soldi e il know-how per realizzare SoC ARM per farci ciò che vuole.
E visto l'andazzo, le prime cose che vedremo nei SoC Apple, saranno unità neurali e fpga.

Quote:
Originariamente inviato da GTKM Guarda i messaggi
E che Itanium fu affossato anche perché l'emulazione di x86 faceva pena.
E' simpatico quando un'azienda distrugge un suo prodotto. Itanium era uno di quei progetti, che avrebbero potuto cambiare il futuro del computing. Ma furono affossati da quello che è stato il fulcro della strategia Intel, ovvero la retrocompatibilità. Unita ad un lavoro moscio sui compilatori. Che saranno più complicati per le architetture VLIW, ma non sono impossibili da realizzare.
pabloski è offline   Rispondi citando il messaggio o parte di esso
Old 01-07-2020, 19:20   #51
GTKM
Senior Member
 
L'Avatar di GTKM
 
Iscritto dal: Jan 2014
Messaggi: 3791
Quote:
Originariamente inviato da pabloski Guarda i messaggi
E visto l'andazzo, le prime cose che vedremo nei SoC Apple, saranno unità neurali e fpga.
Esattamente.

Quote:
Originariamente inviato da pabloski Guarda i messaggi
E' simpatico quando un'azienda distrugge un suo prodotto. Itanium era uno di quei progetti, che avrebbero potuto cambiare il futuro del computing. Ma furono affossati da quello che è stato il fulcro della strategia Intel, ovvero la retrocompatibilità. Unita ad un lavoro moscio sui compilatori. Che saranno più complicati per le architetture VLIW, ma non sono impossibili da realizzare.
È così anche per Microsoft con Windows. Infatti ancora si vuole Win32 perché, altrimenti, apriti cielo.

I compilatori sono il meno. Se la tua CPU deve comunque far girare software scritto per x86 e non riadattabile (per n motivi) anche se ti chiami Intel non puoi far molto. Infatti aggiunsero una sorta di emulazione in hardware ma, ripeto, non è che fosse una scheggia...
GTKM è offline   Rispondi citando il messaggio o parte di esso
Old 02-07-2020, 06:09   #52
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 24388
Quote:
Originariamente inviato da LMCH Guarda i messaggi
Aehm! Se fai attenzione ai dati performance/watt del 2019 nel link che hai fornito, si vede che IL PROTOTIPO di Fugaku (basato solo su CPU A64FX e non ancora nella versione definitiva)
sta "leggermente avanti" ad altri supercomputer basati su architetture ibride con CPU Xeon oppure Power insieme a GPU Nvidia oppure con acceleratori many-core PEZY-SC.

In altre parole se il confronto fosse CPU contro CPU sia Xeon che PowerPC ne uscirebbero con le ossa rotte (le GPU sono estremamente efficienti in termini di performance/watt ).
Gli A64FX sono dei veri mostri e sono solo le prime CPU di fascia alta basate su Aarch64+SVE.
Mancano i risultati di benchmark "standard" su applicazioni comuni e di vario genere...
Quote:
Originariamente inviato da pabloski Guarda i messaggi
L'incognita è sempre il numero e la tipologia dei coprocessori che possono finire in un SoC ARM. Flessibilità che nè Intel nè AMD ti danno.
Non è corretto: possono farlo anche loro.

Intel ha pure sviluppato un core x86 sintetico per Rockchip...
Quote:
E sappiamo che non c'è niente al mondo che batta hardware specializzato sia come prestazioni brute che performance/watt.
Esattamente.
Quote:
Originariamente inviato da pabloski Guarda i messaggi
E visto l'andazzo, le prime cose che vedremo nei SoC Apple, saranno unità neurali e fpga.
Che Intel ha già introdotto da tempo (in particolare le FPGA, che erano presenti in alcuni Xeon già da prima che acquisisse Altera).
Quote:
E' simpatico quando un'azienda distrugge un suo prodotto. Itanium era uno di quei progetti, che avrebbero potuto cambiare il futuro del computing. Ma furono affossati da quello che è stato il fulcro della strategia Intel, ovvero la retrocompatibilità.
Quindi non è Intel che l'ha affossato, ma il mercato che ha deciso di rimanere sul vecchio legacy.

Intel ha provato almeno 3 volte (iAPX, 80860, Itanium) a togliere di mezzo x86, ma non c'è riuscita a causa dell'enorme base di software che è stato scritto per quest'ultimo.
Quote:
Unita ad un lavoro moscio sui compilatori.
Qui l'hai veramente sparata grossa. E' da anni che Intel sviluppa fra i migliori compilatori C/C++ e Fortran al mondo, per cui le conoscenze per realizzarne uno in grado di ottimizzare al meglio possibile per Itanium le aveva tutte, e le ha usate. Tant'è che Itanium è arrivato ad avere le migliori prestazioni floating point al mondo, che erano importanti in ambito server/HPC; il problema erano le prestazioni "intere", e qui non puoi farci proprio niente con un'architettura VLIW.

Il mio primo manager che ho avuto alla Intel è stato un ingegnere che ha lavorato per anni al compilatore Intel e proprio per Itanium, e nelle nostre lunghe discussioni (è l'unico manager con un mostruoso background tecnico col quale potevo parlare di certi argomenti) abbiamo toccato anche il tema, ovviamente. Intel non si è affatto risparmiata sul compilatore (cosa confermata da qualche altro collega che c'ha lavorato anche lui), com'era lecito aspettarsi. Punto.

Tra l'altro il mio manager era convinto che Itanium fosse una buona soluzione, ma lì le nostre opinioni erano divergenti (non ho mai amato le architetture VLIW perché non sono general-purpose e hanno problemi con tanto codice che non può girarci bene).
Quote:
Che saranno più complicati per le architetture VLIW, ma non sono impossibili da realizzare.
Spiegami allora come mai i VLIW non hanno mai preso piede in tutti questi anni, anche soltanto a livello interno (micro-architetturale)...
Quote:
Originariamente inviato da GTKM Guarda i messaggi
I compilatori sono il meno. Se la tua CPU deve comunque far girare software scritto per x86 e non riadattabile (per n motivi) anche se ti chiami Intel non puoi far molto. Infatti aggiunsero una sorta di emulazione in hardware ma, ripeto, non è che fosse una scheggia...
L'emulazione x86 implementata in hardware su Itanium faceva pena, tanto che successivamente fu sostituita da una software che funzionava molto meglio.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 03-07-2020, 20:49   #53
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 3943
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Mancano i risultati di benchmark "standard" su applicazioni comuni e di vario genere...
Tipo quelli descritti qui ?

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Intel ha pure sviluppato un core x86 sintetico per Rockchip...
Quello degli Atom X3, ma poi è andato in produzione ? Mi ricordo che era stato annunciato per degli smartphone ma poi non so che fine abbia fatto.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Intel ha provato almeno 3 volte (iAPX, 80860, Itanium) a togliere di mezzo x86, ma non c'è riuscita a causa dell'enorme base di software che è stato scritto per quest'ultimo.
A causa dell'enorme base di software DIFFICILE DA PORTARE SU ALTRE ARCHITETTURE (ora le cose sono un tantino cambiate) e sopratutto per errori madornali fatti da Intel (nel caso di iAPX32 ed i80860) e per la concorrenza di AMD (nel caso di Itanium).

Mi ricordo benissimo come nel 1995 quando iniziarono ad uscire le prime notizie ufficiali su Itanium (inizialmente "architettura EPIC") sembrava che avrebbe spaccato il mondo.
Poi quando uscì la prima generazione nel 2001 (Merced) emersero tutte le magagne su cui Intel "aveva posto poca enfasi".

Nonostante questo, Itanium ce l'avrebbe potuta fare se Intel avesse limitato gli x86 ai 32bit e se la fosse presa con calma nello spingerli a livello di prestazioni (e c'era pure riuscita ampiamente con i Pentium 4 di prima generazione).

Invece proprio in quegli anni AMD infilo una doppietta con il K7 (Athlon, Duron) a 32bit che la riportò in competizione a livello di prestazioni, seguito dal K8 (Opteron, Athlon64, Phenom, ecc.) che introdusse pure un set d'istruzioni a 64bit "decente" (aumento del numero di registri interi, ecc. ecc.).

Intel negli anni ha cambiato versione, ma mi ricordo benissimo che inizialmente veniva spinta l'idea che la cpu a 64bit di Intel era solo l'Itanium mentre gli x86 non sarebbero andati oltre i 32bit.

Non a caso quando Intel se ne uscì con i suoi "x86 a 64bit" (set d'istruzioni EMT64) inizialmente era intenzionata ad uscire con qualcosa compatibile con gli x86 a 32bit ma "molto diverso da x86-64", poi circolarono voci che fu pressata da Microsoft nel non fare caXXate e restare compatibile con lo "standard x86-64" fissato da AMD, in ogni caso si nota che nella prima implementazione di EMT64 varie cose erano "limitate a 32bit" (tipo il dover usare i bounce buffers perchè sugli Intel si potevano eseguire trasferimenti in DMA solo nei primi 4GB di spazio di indirizzamento, alcune istruzioni non supportate in modalità a 64bit ecc.).

C'e' comunque da dire che Itanium ha aiutato Intel a far fuori un sacco di concorrenti nella fascia alta (HP PA-RISC, DEC/Compaq Alpha, MIPS "da server" di Silicon Graphics), Itanium in origine era "il successore di PA-RISC" che HP traghetto' ad Intel quando si rese conto che da sola non aveva le risorse per svilupparlo, Alpha fu di fatto "rimosso dal mercato" quando Compaq (che aveva acquisito quel che restava di DEC) fu assorbita da HP , Silicon Graphics a quel punto decise di puntare su Itanium perchè a sua volta non aveva le risorse per fronteggiare HP+Intel e decise di unirsi a loro .
LMCH è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Hyundai Ioniq elettrica: ansia da batteria e pareri ragionati di un utilizzatore curioso Hyundai Ioniq elettrica: ansia da batteria e par...
Canon svela EOS R5 e R6, due nuove mirrorless 35mm avanzate e performanti Canon svela EOS R5 e R6, due nuove mirrorless 35...
Aorus 17G XB, l'approccio di Gigabyte al mondo dei notebook gaming Aorus 17G XB, l'approccio di Gigabyte al mondo d...
Ryzen 9 3900XT, Ryzen 7 3800XT e Ryzen 5 3600XT: aspettando Zen 3 Ryzen 9 3900XT, Ryzen 7 3800XT e Ryzen 5 3600XT:...
Hasselblad X1D II 50C, medio formato agile ed elegante – la recensione Hasselblad X1D II 50C, medio formato agile ed el...
Fujifilm X Webcam: la versione per macOS...
Lenovo realizzerà il nuovo superc...
Facebook valuta il ban degli annunci pol...
Exadrive di Nimbus Data: un SSD da 100TB...
Apple e ARM, MacBook Pro 13 potrebbe ess...
DooM di nuova generazione in sviluppo pe...
Elon Musk: "La Model Y prodotta in ...
Far Cry 6, trapelano locandina e informa...
Offerte super Amazon weekend (fino a -73...
NASA Perseverance: il rover è fis...
Integrated Endpoint Security, la nuova s...
Pirateria audiovisiva in Italia, un prob...
Il mercato PC ha registrato una forte cr...
Deepcool Castle 280EX, un nuovo dissipat...
iPhone 12, nuovi modelli più cost...
Firefox Portable
IObit Uninstaller
Firefox 78.0.2
Radeon Software Adrenalin 2020 20.7.1
K-Lite Codec Pack Update
K-Lite Mega Codec Pack
Driver NVIDIA GeForce 451.67 WHQL
K-Lite Codec Pack Full
K-Lite Codec Pack Standard
K-Lite Codec Pack Basic
Opera Portable
Opera 69
Process Lasso
Dropbox
NOD32
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 04:41.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2020, Jelsoft Enterprises Ltd.
Served by www2v
1