View Full Version : Apple M1 Ultra visto da vicino: tre volte più grande delle CPU di Intel e AMD
Redazione di Hardware Upg
21-03-2022, 07:31
Link alla notizia: https://www.hwupgrade.it/news/cpu/apple-m1-ultra-visto-da-vicino-tre-volte-piu-grande-delle-cpu-di-intel-e-amd_105743.html
Un primo teardown di Mac Studio ci mostra l'interno di questo sistema dedicato ai content creatori. Al suo interno spicca il processore M1 Ultra, ottenuto unendo due chip M1 Max: le dimensioni sono enormi se raffrontato alle proposte di AMD e Intel, anche se c'è una spiegazione.
Click sul link per visualizzare la notizia.
La parte che conta è quella con la pasta termoconduttiva...
Sp3cialFx
21-03-2022, 08:14
La parte che conta è quella con la pasta termoconduttiva...
beh se vogliamo far un paragone... apple to apple :D quello che conta è il numero di transistor e un m1 ultra è 6 volte un ryzen 5950x (114 miliardi vs meno di 20). La dimensione del die (sommando i tre chiplet che compongono il Ryzen) è circa 3,3 volte tanto, nonostante il processo produttivo più avanzato. Comunque è ENORME. Che peraltro, lo scrivevo altrove, reputo sia una buona parte della spiegazione dei vantaggi che ha (in breve: inefficiente dal punto di vista performance / transistor, ma efficiente dal punto di vista performance / watt)
cmq è incredibile come si sia ribaltato il paradigma, per lo meno per quanto mi riguarda ho sempre pensato agli ARM come a processorini mentre gli x86 come processori grossi, ora siamo esattamente all'opposto
devil_mcry
21-03-2022, 08:17
beh se vogliamo far un paragone... apple to apple :D quello che conta è il numero di transistor e un m1 ultra è 6 volte un ryzen 5950x (114 miliardi vs meno di 20). La dimensione del die (sommando i tre chiplet che compongono il Ryzen) è circa 3,3 volte tanto, nonostante il processo produttivo più avanzato. Comunque è ENORME. Che peraltro, lo scrivevo altrove, reputo sia una buona parte della spiegazione dei vantaggi che ha (in breve: inefficiente dal punto di vista performance / transistor, ma efficiente dal punto di vista performance / watt)
cmq è incredibile come si sia ribaltato il paradigma, per lo meno per quanto mi riguarda ho sempre pensato agli ARM come a processorini mentre gli x86 come processori grossi, ora siamo esattamente all'opposto
Ma non vengono conteggiati anche i transistor della gpu? perché il 5950x non la ha
(chiedo, non lo so)
F1r3st0rm
21-03-2022, 08:22
su wccftech scrivono che i benchmark apple sono un pelino sovrastimati...ma va chi lo avrebbe mai detto.
AlexSwitch
21-03-2022, 08:31
Ma non vengono conteggiati anche i transistor della gpu? perché il 5950x non la ha
(chiedo, non lo so)
Infatti... bisognerebbe paragonare il numero di transistor dei core e delle rispettive cache della CPU e dividere il valore per 2, visto che Ultra sono due die fisici accoppiati sullo stesso package ( come i Core2 Quad di Intel ).
Personaggio
21-03-2022, 08:51
Ma non vengono conteggiati anche i transistor della gpu? perché il 5950x non la ha
(chiedo, non lo so)
Infatti... bisognerebbe paragonare il numero di transistor dei core e delle rispettive cache della CPU e dividere il valore per 2, visto che Ultra sono due die fisici accoppiati sullo stesso package ( come i Core2 Quad di Intel ).
beh se vogliamo far un paragone... apple to apple :D quello che conta è il numero di transistor e un m1 ultra è 6 volte un ryzen 5950x (114 miliardi vs meno di 20). La dimensione del die (sommando i tre chiplet che compongono il Ryzen) è circa 3,3 volte tanto, nonostante il processo produttivo più avanzato. Comunque è ENORME. Che peraltro, lo scrivevo altrove, reputo sia una buona parte della spiegazione dei vantaggi che ha (in breve: inefficiente dal punto di vista performance / transistor, ma efficiente dal punto di vista performance / watt)
cmq è incredibile come si sia ribaltato il paradigma, per lo meno per quanto mi riguarda ho sempre pensato agli ARM come a processorini mentre gli x86 come processori grossi, ora siamo esattamente all'opposto
Nel soc c'è anche la RAM che essendo integrata ha velocità da cache, praticamente è una enorme cache di 3o livello. Ed 'è proprio questo che gli permette di avere questi incredibili risultati. Praticamente non esistono latenze. Una cosa del genere in ogni caso non la vedo adatta alle CPU x64, per una questione di scalabilità, ma sarebbe ottima lato GPU. Una GPU con la RAM integrata, certo non ti permetterebbe di avere tagli diversi di RAM, perché sarebbe troppo costoso farlo, ma sarebbe perfetto per eliminare le latenze. Unito con Direct storage, potrebbe caricare i dati da un SSD direttamente nella VRAM integrata nella GPU. Adottato all'attuale architettura delle RTX30XX potrebbe raddoppiarne le prestazioni diminuendone i consumi.
Nel soc c'è anche la RAM che essendo integrata ha velocità da cache, praticamente è una enorme cache di 3o livello.
Mah non ne sarei così sicuro eh? Un conto è integrare i chip DRAM nel package, un conto integrare 128GB di cache L3: la prima si compra off-the-shelf e si aggancia al bus di sistema (le cpu ARM da cui Apple prende sonno fatte così), la seconda va fabbricata apposta assieme al die e non può concorrere alla memoria di sistema, quindi le applicazioni e la GPU non vi avrebbero accesso.
A MENO CHE... Apple non abbia ridisegnato l'architettura shared memory per intero e non si sia presa la briga di inserire GB di cache L3. Cosa che però ha due ripercussioni dirette: il prezzo (transistor usati per la memoria invece che per la CPU o GPU) e resa (ti si bruciano i transistor della memoria, quindi devi ridurre la memoria disponibile)
Sp3cialFx
21-03-2022, 09:17
rispondo:
1) i 114 miliardi di transistor NON considerano la RAM
2) i 114 miliardi di transistor CONSIDERANO la GPU. Ok il Ryzen non ce l'ha, ma anche se aggiungiamo i 28,3 miliardi di transistor di una 3080 comunque i 114 miliardi dell'M1 rimangono TANTI. Se prendiamo poi un i9-11900K sembra abbia 6 miliardi di transistor, GPU (scarsa) inclusa
3) il leit motiv è che le performance sono dovute alla banda sulla RAM ma la banda sulla RAM serve solamente in alcuni ambiti. Non è quello
un altro dettaglio che viene omesso è che l'M1 (sia CPU che GPU) ha molte meno funzionalità avanzate della controparte x86 + GPU dedicata. Ad es. sul training di reti neurali o sul ray tracing nei giochi una scheda video Nvidia va molto meglio; così come vanno meglio le CPU x86 moderne sulla virtualizzazione.
Naturalmente sono ambiti che interessano a pochi; Apple ha tenuto l'approccio 80/20 (80% del risultato con il 20% dello sforzo) e concentrandosi sulle performance per watt, il che ripeto va benissimo per i più.
Quando si fanno paragoni diretti bisogna però ricordarsi che:
a) l'M1 ha un budget di transistor molto più ampio perché Apple se lo può permettere avendo un potere contrattuale molto forte con TSMC (più di metà della produzione di TSMC è per Apple)
b) per l'appunto l'M1 non integra un botto di funzionalità avanzate che gli x86 / le GPU discrete hanno (compito per casa: prendete le specifiche delle DirectX 12 Ultimate e vedete quante sono effettivamente supportate da un M1)
Non mi concentrerei tanto su paragoni difficili da fare o su spiegazioni semplicistiche (tipo "la banda sulla ram"), ma sul fatto che oggettivamente è campione di performance per watt e che va benissimo per un ampia gamma di utilizzi. E' invece interessante rilevare che è GROSSO, come dicevo prima, perché per me è inaspettato
demonsmaycry84
21-03-2022, 09:18
che dire...che splendida sintesi di tecnologia...che ingegneri...
le scelte che hanno e stanno facendo pagano e si fanno pagare di brutto...ma i numeri sono numeri difficili smentirli
CrapaDiLegno
21-03-2022, 09:20
Ma non vengono conteggiati anche i transistor della gpu? perché il 5950x non la ha
(chiedo, non lo so)
Sì, c'è una GPU enorme e anche delle altre unità che gli x86 non hanno (NPU, media engine) più tanta cache.
Nel soc c'è anche la RAM che essendo integrata ha velocità da cache, praticamente è una enorme cache di 3o livello. Ed 'è proprio questo che gli permette di avere questi incredibili risultati. Praticamente non esistono latenze. Una cosa del genere in ogni caso non la vedo adatta alle CPU x64, per una questione di scalabilità, ma sarebbe ottima lato GPU. Una GPU con la RAM integrata, certo non ti permetterebbe di avere tagli diversi di RAM, perché sarebbe troppo costoso farlo, ma sarebbe perfetto per eliminare le latenze. Unito con Direct storage, potrebbe caricare i dati da un SSD direttamente nella VRAM integrata nella GPU. Adottato all'attuale architettura delle RTX30XX potrebbe raddoppiarne le prestazioni diminuendone i consumi.
Solo per fare chiarezza, le RAM non rientrano nel conteggio dei transistor perché non sono sul die, ma solo "incollate" insieme ad esso sullo stesso substrato.
Le latenze sono un problema per la CPU, le grandi cache e il fatto che le GPU lavorino su dati spazialmente coerenti non sono invece un problema per le GPU: conta di più la banda passante e la RAM così montata ne ha davvero una sacco.
beh se vogliamo far un paragone... apple to apple :D quello che conta è il numero di transistor e un m1 ultra è 6 volte un ryzen 5950x (114 miliardi vs meno di 20). La dimensione del die (sommando i tre chiplet che compongono il Ryzen) è circa 3,3 volte tanto, nonostante il processo produttivo più avanzato. Comunque è ENORME. Che peraltro, lo scrivevo altrove, reputo sia una buona parte della spiegazione dei vantaggi che ha (in breve: inefficiente dal punto di vista performance / transistor, ma efficiente dal punto di vista performance / watt)
cmq è incredibile come si sia ribaltato il paradigma, per lo meno per quanto mi riguarda ho sempre pensato agli ARM come a processorini mentre gli x86 come processori grossi, ora siamo esattamente all'opposto
Una delle caratteristiche che rende questo SoC così performante è indubbiamente il numero di transistor che lo compongono.
114 miliardi vuol dire essere grande il doppio di un GA102, quello montato sulla 3090 GA100, quello in uso HPC. Quindi in teoria, visto che un processore da 2 die, se uno fosse tutta GPU e uno tutto CPU, allora le prestazioni dovrebbero essere molto superiori a una 3090 (senza RT core, visto che né la GPU dell'M1 nel il GA100 le hanno) mentre lato CPU dovrebbe asfaltare senza alcun se, ma, forse qualsiasi CPU desktop oggi sul mercato.
Ovviamente non è così, perché questo SoC non va alle frequenze dei componenti discreti sopra elencati e può quindi permettersi di consumare 1/3.
Prestazioni ed efficienza sono il risultato di un uso massiccio di transistor. Roba che solo Apple può permettersi, visto che nessun altro troverebbe modo di vendere un SoC del genere nei numeri necessari per ammortizzare i suoi costi di sviluppo.
Detto questo, è una ottima dimostrazione che spaventa la concorrenza finora sicura sul proprio piedistallo pensando che nessuno avrebbe potuto progettare qualcosa di più complesso di un SoC per mobile o per embedded, come quelli carrozzati di Nvidia che però non arrivano a questi livelli.
Ed è una ottima dimostrazione del fatto che ISA ultra complesse e monolitiche (core "faso-tuto-mi") che richiedono il raddoppio dei transistor ogni generazione per aumentare le prestazioni del 20% quando va bene, sono obsolete.
Ed è anche una dimostrazione che ARM avrebbe potuto fare di più, molto di più, ma che finora nessuno ha avuto interesse perché lo facesse. Basta pagare poco le licenze, e che tutti abbiano lo stesso livello base di tecnologia.
...originari delle ISA RISC era quello (ad esempio in epoca Pentium, Alpha) proprio il relativamente "ridotto" numero di transistor impiegati.
Ricordo benissimo però in una trasmissione antica a tema calcolatori elettronici ooopss computer mi sembra trasmessa da quel di Milanto, a tema presentazione cpu Pentium...ricordo come venne emesso una sorta di messaggio oracolare sul fatto che nel "futuro" per quell'epoca, avremmo assistito ad una convergenza in aumento del numero di transistor tra le cpu con ISA CISC (poi anche a partire da Pentium Pro, CRISC) ed ISA RISC.
Ho un opuscolo edito proprio da Intel Italia acquistato nei primi anni 1990 presso CDC di Lucca dove si cita proprio questa "futura convergenza".
Marco71
demonsmaycry84
21-03-2022, 09:36
Nel soc c'è anche la RAM che essendo integrata ha velocità da cache, praticamente è una enorme cache di 3o livello. Ed 'è proprio questo che gli permette di avere questi incredibili risultati. Praticamente non esistono latenze. Una cosa del genere in ogni caso non la vedo adatta alle CPU x64, per una questione di scalabilità, ma sarebbe ottima lato GPU. Una GPU con la RAM integrata, certo non ti permetterebbe di avere tagli diversi di RAM, perché sarebbe troppo costoso farlo, ma sarebbe perfetto per eliminare le latenze. Unito con Direct storage, potrebbe caricare i dati da un SSD direttamente nella VRAM integrata nella GPU. Adottato all'attuale architettura delle RTX30XX potrebbe raddoppiarne le prestazioni diminuendone i consumi.
credo che quelli che comprano apple cercano una macchina fortemente ottimizzata per l uso che fanno con hw dedicato e soluzioni custom...ogni approccio ha i suoi pro e contro...per esempio ci si può lamentare che non si virtualizza con M1 ...non cè più bootcamp...ma chiaramente non ne frena la vendita ..per il resto è banalizzare come lo scrivi....tutte le condizioni di contesto che si sono creati lo hanno fatto con il lavoro...TMSC non ti dà mezza produzione se non la paghi e te la sei guadagnata....apple è importante per TMSC quanto TMSC per apple ...si spingono a vincenda sempre verso il top prodotto dopo prodotto è un rapporto di partner importante....e così per tutto il resto...i soc non apple possiamo vedere a che divario stanno dal punto di vista prestazionale..
tutto sembra facile quando cè....ma riguardo a quel 20% di sforzi..non sò penso che si trovino anche loro ad affrontare i loro problemi e vincano le loro sfide visto quello che realizzano
Sinceramente io non so quanto davvero possa “spaventare” la concorrenza.
Apple fa questi “mostri” per lei, per i suoi prodotti, non é che c é la possibilitá di scegliere se farsi un pc con cpu Amd Intel o Apple.
E dubito anche che adesso tutti sostituiscano i pc con dei Mac.
Sia per questioni software che per i costi.
Quindi sia Intel che Amd possono stare più che tranquille.
É vero che M1 é basato su ARM, ma è altamente customizzato, ripeto, non lo puoi ordinare da mettere sulla tua mainboard arm.
Sinceramente io non so quanto davvero possa “spaventare” la concorrenza.
Apple fa questi “mostri” per lei, per i suoi prodotti, non é che c é la possibilitá di scegliere se farsi un pc con cpu Amd Intel o Apple.
E dubito anche che adesso tutti sostituiscano i pc con dei Mac.
Sia per questioni software che per i costi.
Quindi sia Intel che Amd possono stare più che tranquille.
É vero che M1 é basato su ARM, ma è altamente customizzato, ripeto, non lo puoi ordinare da mettere sulla tua mainboard arm.
il punto è proprio questo e secondo me è la strategia giusta
Apple in passato era con Intel, l'unica differenziazione era macOS ma le CPU erano quelle, c'era poco da fare poteva puntare anche su qualità costruttiva (lasciando perdere quel disastro delle tastiere...) ma per il resto era "solo" sistema operativo
oggi invece può proporre uno stack tecnologico che controlla interamente per cui può mettere nei suoi SoC accelerazione hw che serve a determinati use case e il professionista che una suite di applicativi che li sfrutta ha il massimo a disposizione, paga un premium ma è in un certo senso più giustificabile di prima
Intel e AMD sono più "general purpose" e non sono in concorrenza diretta con Apple
semmai è il binomio Windows+Intel/AMD ad esserlo, ma Apple è su una nicchia di mercato e punta più sul margine alto che sui numeri, per cui se le va bene aumenterà un pochino la quota di mercato ma niente di che, però sul mercato che ha può sparare alto e fare soldi sugli upgrade di RAM e step di CPU/GPU
prima faceva la cresta su Intel, oggi si becca tutto il profitto mica scemi
AlexSwitch
21-03-2022, 10:31
Nel soc c'è anche la RAM che essendo integrata ha velocità da cache, praticamente è una enorme cache di 3o livello. Ed 'è proprio questo che gli permette di avere questi incredibili risultati. Praticamente non esistono latenze. Una cosa del genere in ogni caso non la vedo adatta alle CPU x64, per una questione di scalabilità, ma sarebbe ottima lato GPU. Una GPU con la RAM integrata, certo non ti permetterebbe di avere tagli diversi di RAM, perché sarebbe troppo costoso farlo, ma sarebbe perfetto per eliminare le latenze. Unito con Direct storage, potrebbe caricare i dati da un SSD direttamente nella VRAM integrata nella GPU. Adottato all'attuale architettura delle RTX30XX potrebbe raddoppiarne le prestazioni diminuendone i consumi.
No.. la Ram su M1 è esterna al die del SoC sebbene sia saldata sullo stesso chiplet ed interconnessa con un bus punto-punto.
CrapaDiLegno
21-03-2022, 10:39
Sinceramente io non so quanto davvero possa “spaventare” la concorrenza.
Apple fa questi “mostri” per lei, per i suoi prodotti, non é che c é la possibilitá di scegliere se farsi un pc con cpu Amd Intel o Apple.
E dubito anche che adesso tutti sostituiscano i pc con dei Mac.
Sia per questioni software che per i costi.
Quindi sia Intel che Amd possono stare più che tranquille.
É vero che M1 é basato su ARM, ma è altamente customizzato, ripeto, non lo puoi ordinare da mettere sulla tua mainboard arm.
Spaventano perché dimostrano che si può arrivare alle prestazioni degli x86 e poter produrre soluzioni alternative (Chromebook, per esempio, ma anche nuovi 2in1 basati su Windows4ARM) se si vuole fare SoC più grandi di quelli mobile.
Spaventano perché dimostrano che è possibile creare CPU con prestazioni decenti e efficienza enorme (3x!) nel mercato server.
Non è necessario che Apple venda i propri SoC oggi. Quello che ha mostrato oggi sarà tecnologia a disposizione degli altri tra 2 o 3 anni.
Intel ha già visto questa cosa tempo fa e ha ideato la sua architettura ibrida.
AMD seguirà con prodotti già annunciati su core più semplici.
La concorrenza è ora allargata al di fuori dei 2 attori monopolisti x86 e non è così sicuro per quanto tempo x86 riuscirà a difendersi.
prima faceva la cresta su Intel, oggi si becca tutto il profitto mica scemi
Non confondiamoci, non è che progettarsi sti mostri da centinaia di miliardi di transistor costi nulla e quindi ora il profitto è alle stelle mentre prima era tutto di Intel.
Il vantaggio rispetto alla soluzione Intel è che Apple se lo fa come vuole con le componenti che vuole aggiungendoci e dimensionandole come vuole.
Per esempio mai con Intel avrebbe potuto avere una NPU affiancata ai core general-purpose.
La filosofia di Intel è "il core x86 può fare e fa tutto, se non lo fa, basta aggiungerci altre istruzioni".
Roba che non va d'accordo con chi cerca efficienza e flessibilità.
Spaventano perché dimostrano che si può arrivare alle prestazioni degli x86 e poter produrre soluzioni alternative (Chromebook, per esempio, ma anche nuovi 2in1 basati su Windows4ARM) se si vuole fare SoC più grandi di quelli mobile.
Spaventano perché dimostrano che è possibile creare CPU con prestazioni decenti e efficienza enorme (3x!) nel mercato server.
Non è necessario che Apple venda i propri SoC oggi. Quello che ha mostrato oggi sarà tecnologia a disposizione degli altri tra 2 o 3 anni.
Intel ha già visto questa cosa tempo fa e ha ideato la sua architettura ibrida.
AMD seguirà con prodotti già annunciati su core più semplici.
La concorrenza è ora allargata al di fuori dei 2 attori monopolisti x86 e non è così sicuro per quanto tempo x86 riuscirà a difendersi.
Ma questo era già abbastanza chiaro fin da quando c é ARM.
Si é visto che si é in grado di fare girare sistemi operativi desktop e server su ARM.
Il problema é quanto rendono.
Apple ha solo reso il “suo” ARM più potente, ma sempre per il suo ecosistema sia hardware che software.
E non credo che fará sapere agli altri cosa e come si fa, nemmeno tra 2-3 anni.
Continuo a non vedere Intel e Amd spaventate da Apple, che, ripeto, quello che fa se lo fa in casa per se stessa.
"Apple afferma che le unità non sono aggiornabili dall'utente: non è chiaro se in futuro consentirà ai partner autorizzati di offrire servizi di aggiornamento degli SSD oppure se permetterà ad altre aziende di produrre unità con un form factor appropriato."
State bene così...
Non confondiamoci, non è che progettarsi sti mostri da centinaia di miliardi di transistor costi nulla e quindi ora il profitto è alle stelle mentre prima era tutto di Intel.
molto del lavoro è comunque necessario per i chip di iPhone che facevano già prima, per cui il costo di R&D che non è sicuramente trascurabile lo spalmano sull'intera gamma di prodotti di cui il Mac è una componente non trascurabile ma minoritaria, sicuramente ci sono stati investimenti per scalare da un A14 a un M1 ultra ma il core di base è quello per tutti
quello che volevo dire è che prima pagavi caro l'upgrade alla CPU/GPU migliore, cosa che succede anche oggi con la differenza che l'intero profitto va a loro, decidono che costa 200 euro in più la versione con 10 core al posto di 8 e si intascano i 200, prima intascavano 200 - profitto Intel e nel caso di core aggiuntivi è più un problema di resa che altro
acad_web
21-03-2022, 14:44
Lei dove va con quel pennello gigante in giro... Per mettere la pasta su una cpu grande devo usare un pennello grande! Ma vadi fantocci! Per spalmaare la pasta termoconduttiva su una mobo grande ci vuole una grande mobo non una mobo nabba! :P
Qui c'e' un interessante Benchmark sul campo di Blender tra AlderLake 12900K con la RTX3090 e l'Ultra M1:
https://www.youtube.com/watch?v=HF_rMjjPoPs
con i consumi misurati e i tempi di rendering. Consideriamo che l'ultimo Blender 3.1 ha il supporto della GPU Metal, che potremmo considerare l'equivalente di CUDA (o CUDA+Optix) di Win/Linux in ambito OSX.
Personaggio
21-03-2022, 15:55
Non sapevo che la RAM non fosse sullo stesso die, mea culpa...
il punto è proprio questo e secondo me è la strategia giusta
Apple in passato era con Intel, l'unica differenziazione era macOS ma le CPU erano quelle, c'era poco da fare poteva puntare anche su qualità costruttiva (lasciando perdere quel disastro delle tastiere...) ma per il resto era "solo" sistema operativo
oggi invece può proporre uno stack tecnologico che controlla interamente per cui può mettere nei suoi SoC accelerazione hw che serve a determinati use case e il professionista che una suite di applicativi che li sfrutta ha il massimo a disposizione, paga un premium ma è in un certo senso più giustificabile di prima
Intel e AMD sono più "general purpose" e non sono in concorrenza diretta con Apple
semmai è il binomio Windows+Intel/AMD ad esserlo, ma Apple è su una nicchia di mercato e punta più sul margine alto che sui numeri, per cui se le va bene aumenterà un pochino la quota di mercato ma niente di che, però sul mercato che ha può sparare alto e fare soldi sugli upgrade di RAM e step di CPU/GPU
prima faceva la cresta su Intel, oggi si becca tutto il profitto mica scemi
Pienamente d'accordo. E aggiungo che chi oggi chi si configura un PC pezzo per pezzo, continuerà a farlo. Non per una questione di scelta, ma perché non ti puoi assemblare un mac, prima c'erano gli hackintosh, ora con i soc Apple non più
prima c'erano gli hackintosh, ora con i soc Apple non più
Non così veloce però
macOS “dovrà” essere compatibile con i Mac Intel ancora supportati (2015 in su), quindi ancora per un po’ di anni
Sp3cialFx
21-03-2022, 16:25
Spaventano perché dimostrano che è possibile creare CPU con prestazioni decenti e efficienza enorme (3x!) nel mercato server.
il mercato server ha esigenze molto diverse. L'M1 non entrerà mai in un datacenter del 2022. Per farlo serve:
a) un serio supporto alla virtualizzazione
b) un serio supporto alla costellazione di feature hardware / software che servono sui server (ram ECC, RAID hardware, eccetera)
c) modularità (no ram saldata, no dischi saldati, hot swap, eccetera)
d) un serio supporto lato OS (se non ci girano le distro LTS Linux / Windows non è particolarmente appetibile lato server)
e) capacità di mantenere il vantaggio. Apple non è mai stata brava. Si è trovata tante volte in posizione di netto vantaggio, e tante volte si è trovata a farsi raggiungere e anche superare dagli altri. Mentre gli altri hanno il ritmo da maratoneta, Apple va a scatti da centometrista. Vedrai quando uscirà M2 se sarà così avanti rispetto a M1 oppure le performance (in particolar modo quelle single core) non saranno così diverse
ma soprattutto serve la volontà di farlo; Apple ERA nel segmento server e l'ha abbandonato. Non vedo alcun presupposto di un suo rientro
oltre al fatto che:
1) sia così più efficiente rispetto a un'alternativa x86 è congetturale. Prendi un Epyc a 64 core, che consuma 200 watt ma ha 64 core "performance". Bisogna vedere come va su carichi specifici
2) l'efficienza conta di meno della densità. Se consumi di meno ma ti serve 3 volte lo spazio in datacenter non è un gran valore, o meglio, può capitare che lo sia ma in condizioni specifiche
cmq è sempre la solita storia:
il legittimo entusiasmo fa vedere tutto roseo;
è da decenni che sento che l'anno prox sarà l'anno di (Linux / Os X / RISC / eccetera) e che ormai (gli x86 / Windows / l'ISA CISC) sono morti;
e dopo decenni consiglierei di andarci cauti :D
La concorrenza è ora allargata al di fuori dei 2 attori monopolisti x86 e non è così sicuro per quanto tempo x86 riuscirà a difendersi.
appunto :D
La filosofia di Intel è "il core x86 può fare e fa tutto, se non lo fa, basta aggiungerci altre istruzioni".
Roba che non va d'accordo con chi cerca efficienza e flessibilità.
il discorso è più complesso di così
F1r3st0rm
21-03-2022, 17:42
poi vai a vedere i benchmark veri non fatti da apple e la efficienza 3x si sgretola come calcare nell'aceto.
facile mettere mattonelle di 114 mld quando vendi un processore ad un prezzo di un PC completo...e senza la possibilità di cambiare nessun pezzo.
Apple è l'antitesi dell'informatica interoperabile e aperta, sarà divertente quando i suoi formati chiusi si potranno aprire solo con i suoi programmi e magari verranno abbandonati perchè sì oppure dovrai pagare per aprire un file di 15 anni fa.
Sp3cialFx
21-03-2022, 17:49
poi vai a vedere i benchmark veri non fatti da apple e la efficienza 3x si sgretola come calcare nell'aceto.
non è vero nemmeno questo, non sono per eccedere con l'entusiasmo alla "APPLE CONQUISTERA' IL MONDO" ma non vanno bene nemmeno affermazioni da hater;
dipende dal tipo di applicazione, per tantissime cose il vantaggio in termini di efficienza c'è ed è indiscusso, e per di più con performance di alto livello.
poi se prendi virtualizzazione, training di reti neurali, giochi con ray tracing è zoppo ma perché sono cose per le quali non è proprio progettato (e se qualcuno piglia un M1 per fare queste cose... sta facendo l'acquisto sbagliato). Ma sono applicazioni di nicchia per quello che è il target Apple. Quindi senza dubbio l'ha azzeccata, anche se ripeto non scommetterei sulla capacità di Apple di mantenere il vantaggio che ora ha.
Sp3cialFx
21-03-2022, 17:50
(per inciso i core performance di M1 si chiamano Firestorm. Per fare l'hater hai scelto il nick sbagliato :D )
F1r3st0rm
21-03-2022, 18:48
io parlavo dell'efficienza 3x che scompare...chideerò i danni alla apple uso questo Nick dal 2003
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.