PDA

View Full Version : ARM fa tremare Intel e AMD: boom clamoroso nei datacenter, crescita vertiginosa dal 2021


Redazione di Hardware Upg
10-07-2025, 11:31
Link alla notizia: https://www.hwupgrade.it/news/cpu/arm-fa-tremare-intel-e-amd-boom-clamoroso-nei-datacenter-crescita-vertiginosa-dal-2021_140881.html

ARM ha registrato una crescita esplosiva nel mercato dei datacenter, con un aumento dei clienti di 14 volte dal 2021, spinta dall'adozione da parte dei colossi del cloud e dal boom dell'IA. Intel e AMD sono avvisate.



Click sul link per visualizzare la notizia.

hackaro75
10-07-2025, 11:36
va beh... se è dal 2021 ... Intel ne sarà ben consapevole! dove sta la notizia!?

AlexSwitch
10-07-2025, 11:44
va beh... se è dal 2021 ... Intel ne sarà ben consapevole! dove sta la notizia!?

Fino a qualche mese fa, riguardo ad Intel, non sembrava proprio...

ZeroSievert
10-07-2025, 12:55
Da quando AMD e Intel hanno perso il monopolio dei processi produttivi di punta era solo questione di tempo.

Alla fine, a parita' di PP, e' dura battere processori ottimizzati per certi tipi di carichi con processori general purpose. E questo anche senza entrare nei meriti tecnici di x86 vs ARM.

AMD e Intel continuano probabilmente ad avere un parco IP invidiabile rispetto alla concorrenza. Ma anche questo e' un vantaggio che probabilmente si assottigliera' nel tempo.

An.tani
10-07-2025, 13:56
Da quando AMD e Intel hanno perso il monopolio dei processi produttivi di punta era solo questione di tempo.

AMD non ha mai avuto un processo produttivo di punta...


Il mistero è come ha fatto Intel a passare dall'avere un nodo di vantaggio sui migliori dopo di lei allo stato attuale

ZeroSievert
10-07-2025, 14:07
AMD non ha mai avuto un processo produttivo di punta...


Il mistero è come ha fatto Intel a passare dall'avere un nodo di vantaggio sui migliori dopo di lei allo stato attuale

Beh, oddio. Bisogna andare (molto) piu' indietro nel tempo. Ma negli anni 2000, prima dello scorporamento di GlobalFoundries, non mi sembra che ci fossero molte realta' capaci di competere con il PP di AMD in termini di prestazioni e volumi (ad eccezione di Intel). Ma magari mi ricordo male io.

asdf
10-07-2025, 15:46
Sarebbe interessante sapere il numero di nuovi datacenter che, dal 2021, hanno adottato processori Intel ed Arm.
Purtroppo anche nell'articolo originale si parla solo dei 70.000 datacenter con processori arm (di cui un quattordicesimo precedenti al 2021).

supertigrotto
10-07-2025, 17:46
Che poi,a livello di forza bruta,più potenza chiedi ad Arm e meno la differenza fra X86 e Arm si fa sentire,sia Keller che Gerard William 3 (che non c'entra con il Daitarn) dicevano che è del 3% e inferiore quando si vogliono prestazioni importanti.
William diceva pure che togliendo le Legacy a x86, quest' ultima architettura potrebbe risultare pure in vantaggio.

LMCH
10-07-2025, 21:35
Che poi,a livello di forza bruta,più potenza chiedi ad Arm e meno la differenza fra X86 e Arm si fa sentire,sia Keller che Gerard William 3 (che non c'entra con il Daitarn) dicevano che è del 3% e inferiore quando si vogliono prestazioni importanti.
William diceva pure che togliendo le Legacy a x86, quest' ultima architettura potrebbe risultare pure in vantaggio.

La differenza è che il punto di forza degli x86-64 è il supporto del codice legacy x86.

Per questo quando le cpu Alpha di DEC erano già a 64bit mentre gli x86 erano a 32bit (ed avevano meno della metà delle prestazioni degli Alpha) alla fine il grosso dei clienti preferiva gli x86.

Ora uno degli elementi decisionali è diventato:
perchè pagare un premium ad Intel quando posso usare un ARM64 per fare lo stesso lavoro e tenere per me più soldi?

È lo stesso motivo per cui ora Risc-V sta minacciando il dominio di ARM nel settore embedded.

noppy1
11-07-2025, 09:49
Tutto bello tutto fanstatico , ma se in un datacenter che ha adottato ARM ci sono 10000 Server e solo 100 e 9900 sono x86 la penetrazione di ARM è dell 1%, come mai il dato più importante è stato omesso ?

pachainti
11-07-2025, 11:43
Gli ARM sono migliorati molto, ma sia lato mobile-desktop sia server hanno ancora prestazioni inferiori e perdono anche in efficienza (anche su GNU/linux dove è possibile ricompilare il codice e utilizzare gli ultimi compilatori).

https://www.phoronix.com/review/snapdragon-x-elite-linux-benchmarks/15

https://www.phoronix.com/review/ampereone-a192-32x/12

AlexSwitch
11-07-2025, 12:22
Gli ARM sono migliorati molto, ma sia lato mobile-desktop sia server hanno ancora prestazioni inferiori e perdono anche in efficienza (anche su GNU/linux dove è possibile ricompilare il codice e utilizzare gli ultimi compilatori).

https://www.phoronix.com/review/snapdragon-x-elite-linux-benchmarks/15

https://www.phoronix.com/review/ampereone-a192-32x/12

Lato mobile - desktop sono gli Snapdragon X Elite che fanno pietà! Ma questi SoC non rappresentano tutto il mondo ARM... Ho provato ad eseguire qualche benchmark di quelli riportati nel primo articolo linkato e il mio Apple M2 Pro ha staccato di parecchio gli Snapdragon e, in due test su tre, sono andati in cima alla classifica riportata da Phoronix ( browser Safari ). M2/M2 Pro-Max è un SoC che ha quasi 3 anni sul groppone...

ZeroSievert
11-07-2025, 12:25
Gli ARM sono migliorati molto, ma sia lato mobile-desktop sia server hanno ancora prestazioni inferiori e perdono anche in efficienza (anche su GNU/linux dove è possibile ricompilare il codice e utilizzare gli ultimi compilatori).

https://www.phoronix.com/review/snapdragon-x-elite-linux-benchmarks/15

https://www.phoronix.com/review/ampereone-a192-32x/12


Lato server, come CPU general purpose sicuramente. Ma dai link che hai postato, per specifici carichi AmpereOne e' primo o e' alla pari con AMD/Intel

Es.

https://www.phoronix.com/review/ampereone-a192-32x/6
https://www.phoronix.com/review/ampereone-a192-32x/9
https://www.phoronix.com/review/ampereone-a192-32x/11

pachainti
11-07-2025, 13:38
Lato mobile - desktop sono gli Snapdragon X Elite che fanno pietà! Ma questi SoC non rappresentano tutto il mondo ARM... Ho provato ad eseguire qualche benchmark di quelli riportati nel primo articolo linkato e il mio Apple M2 Pro ha staccato di parecchio gli Snapdragon e, in due test su tre, sono andati in cima alla classifica riportata da Phoronix ( browser Safari ). M2/M2 Pro-Max è un SoC che ha quasi 3 anni sul groppone...

Vedremo, al momento ARM su PC, escluso Apple, è molto indietro. Per fare un test paragonabile su Apple ci vorrebbe un sistema operativo alternativo su cui poter fare confronti. Per ora il supporto dei SoC su GNU/linux è indietro.

Lato server, come CPU general purpouse sicuramente. Ma dai link che hai postato, per specifici carichi AmpereOne e' primo o e' alla pari con AMD/Intel

Es.

https://www.phoronix.com/review/ampereone-a192-32x/6
https://www.phoronix.com/review/ampereone-a192-32x/9
https://www.phoronix.com/review/ampereone-a192-32x/11

Quello che conta è la media geometrica, non il singolo test che può avere N variabili.

In total 70 benchmarks were run for this initial performance testing of the AmpereOne A192-32X processor. When taking the geometric mean of all the processors that each successfully ran all of the benchmarks, above is the geometric mean of all those raw performance results. The AmpereOne A192-32X performed admirably in matching the performance of a dual Intel Xeon 6766E Sierra Forest configuration overall but behind the Xeon 6780E 2P configuration. The AmpereOne A192-32X in a single socket configuration was also behind the single EPYC 9654 Genoa / 9754 Bergamo / 9684X Genoa-X processors.

Going from the Ampere Altra Max M128-30 to AmpereOne A192-32X was 1.56x the performance overall. That's with 1.5x the core count in going from Ampere Altra Max 128 cores to 192 cores with the current top-end AmpereOne SKUs. As shown in the few single-threaded and lightly threaded workloads, there wasn't too much IPC uplift going to AmpereOne from Ampere Altra cores. With AmpereOne is also the move to DDR5 memory from DDR4 and other improvements.

The AMD EPYC 9754 128-core Zen 4 processor was running at 1.11x the performance of the AmpereOne A192-32X overall even with the lower core count.

ZeroSievert
11-07-2025, 13:48
Quello che conta è la media geometrica, non il singolo test che può avere N variabili.

In total 70 benchmarks were run for this initial performance testing of the AmpereOne A192-32X processor. When taking the geometric mean of all the processors that each successfully ran all of the benchmarks, above is the geometric mean of all those raw performance results. The AmpereOne A192-32X performed admirably in matching the performance of a dual Intel Xeon 6766E Sierra Forest configuration overall but behind the Xeon 6780E 2P configuration. The AmpereOne A192-32X in a single socket configuration was also behind the single EPYC 9654 Genoa / 9754 Bergamo / 9684X Genoa-X processors.

Going from the Ampere Altra Max M128-30 to AmpereOne A192-32X was 1.56x the performance overall. That's with 1.5x the core count in going from Ampere Altra Max 128 cores to 192 cores with the current top-end AmpereOne SKUs. As shown in the few single-threaded and lightly threaded workloads, there wasn't too much IPC uplift going to AmpereOne from Ampere Altra cores. With AmpereOne is also the move to DDR5 memory from DDR4 and other improvements.

The AMD EPYC 9754 128-core Zen 4 processor was running at 1.11x the performance of the AmpereOne A192-32X overall even with the lower core count.

Conta se vuoi usare il processore in uno scenario general purpose. Ma se assemblo un server destinato a compiti specializzati perche' dovrei scegliere x86 se AmpereOne va meglio e costa di meno in quello specifico ambito?

pachainti
11-07-2025, 13:51
Conta se vuoi usare il processore in uno scenario general purpouse. Ma se assemblo un server destinato a compiti specializzati perche' dovrei scegliere x86 se AmpereOne va meglio in quello specifico ambito?

Le CPU sono calcolatori generali, non specifici. Per ambiti specifici ci sono gli FPGA e gli ASIC, volendo anche le GPU.

ZeroSievert
11-07-2025, 14:02
Le CPU sono calcolatori generali, non specifici. Per ambiti specifici ci sono gli FPGA e gli ASIC, volendo anche le GPU.

Vabbe'. Ovvio che una CPU ha un utilizzo piu' generale di FPGA, ASIC e GPU. Ma non vuol dire che un server basato su CPU non possa nascere per determinati utilizzi. Anche perche' le limitazioni nello svilippo su FPGA/ASIC/GPU sono molto maggiori rispetto a scrivere un programma.

Es. anche se so che alcuni server saranno utilizzati solo come webserver non e' che progetto un ASIC per tale compito. Ma magari sono interessato a una CPU 'specializzata' che riesce a rispondere ad un gran numero di richieste in parallelo (e quindi con un numero di core elevato) anche se in altri ambiti (es. floating point) sono mediocri.

Al contrario, se faccio un server per calcolo scientifico che non beneficia di alto grado di parallelismo (quindi no GPU o FPGA), magari sono interessato alle massime performance FPU single core e meno al core count.

pachainti
11-07-2025, 14:44
Vabbe'. Ovvio che una CPU ha un utilizzo piu' generale di FPGA, ASIC e GPU. Ma non vuol dire che un server basato su CPU non possa nascere per determinati utilizzi. Anche perche' le limitazioni nello svilippo su FPGA/ASIC/GPU sono molto maggiori rispetto a scrivere un programma.

Es. anche se so che alcuni server saranno utilizzati solo come webserver non e' che progetto un ASIC per tale compito. Ma magari sono interessato a una CPU 'specializzata' che riesce a rispondere ad un gran numero di richieste in parallelo (e quindi con un numero di core elevato) anche se in altri ambiti (es. floating point) sono mediocri.

Al contrario, se faccio un server per calcolo scientifico che non beneficia di alto grado di parallelismo (quindi no GPU o FPGA), magari sono interessato alle massime performance FPU single core e meno al core count.

Le CPU sono calcolatori generali. Vorrei vedere chi preferisce una CPU rispetto a un'altra perché va meglio con 2-3 software e perde con 30-40...

ZeroSievert
11-07-2025, 14:46
Le CPU sono calcolatori generali. Vorrei vedere chi preferisce una CPU rispetto a un'altra perché va meglio con 2-3 software e perde con 30-40...

Se usi solo quei 2-3 software nel tuo datacenter perche' ti dovrebbero interessare gli altri 30-40?

pachainti
11-07-2025, 15:33
Se usi solo quei 2-3 software nel tuo datacenter perche' ti dovrebbero interessare gli altri 30-40?

Quindi faccio una datacenter per 2-3 software? Oppure un supercomputer ad hoc :D

Gli ampere hanno prestazioni per watt migliori in alcuni ambiti specifici, mai prestazioni assolute (eccetto GraphicMagick). Tuttavia, l'utilità è estremamente limitata:
Xmrig 6.21 (https://www.phoronix.com/review/ampereone-a192-32x/11) (miner di monero, solo prestazioni per watt)
GraphicMagick 1.3.43 (https://www.phoronix.com/review/ampereone-a192-32x/9) (software di elaborazione di immagini, prestazioni assolute e per watt)
LULESH 2.0.3 (https://www.phoronix.com/review/ampereone-a192-32x/6) (simulatore idrodinamica, solo prestazioni per watt)
LAMMPS (https://www.phoronix.com/review/ampereone-a192-32x/6) (simulatore dinamica molecolare, solo prestazioni per watt)
Coremark 1.0 (https://www.phoronix.com/review/ampereone-a192-32x/5) (benchmark, solo consumo energetico)
QuantLib 1.32 (https://www.phoronix.com/review/ampereone-a192-32x/7) (analisi quantitativa nella finanza, solo prestazioni per watt)

Se tra 1-3-5 anni i benchmark saranno al contrario, cambierò idea. Tuttavia, la vedo dura perché su GNU/linux il kernel e i compilatori LLVM e GCC sono già molto ottimizzati per ARM.

ZeroSievert
11-07-2025, 16:26
Quindi faccio una datacenter per 2-3 software? Oppure un supercomputer ad hoc :D

CUT


Si? :stordita:


Se tra 1-3-5 anni i benchmark saranno al contrario, cambierò idea. Tuttavia, la vedo dura perché su GNU/linux il kernel e i compilatori LLVM e GCC sono già molto ottimizzati per ARM.

Per me puoi pensarla come ti pare. Ma CPU ARM di tipo piu' svariato sono utilizzate da datacenter e supercomputer anche di grosse dimensioni (si trovano in datacenter di Google, Amazon e Microsoft, in supercomputer TOP500 come Fugaku, Alps, Wisteria/BDEC‑01 e TOKI‑SORA) .

Quindi i casi sono due: o gli piace buttare i soldi oppure in contesti specifici e' piu' conveniente usare CPU ARM rispetto ai X86 AMD/Intel :rolleyes:

pachainti
11-07-2025, 16:29
Si? :stordita:



Per me puoi pensarla come ti pare. Ma queste CPU ARM di tipo piu' svariato sono utilizzate da datacenter anche di grosse dimensioni.

Quindi i casi sono due: o gli piace buttare i soldi oppure in contesti specifici e' piu' conveniente usare CPU ARM :rolleyes:

Qualche fonte? Statistiche di impiego?
Altrimenti facciamo come con l'IA, se uno ascolta chi cerca di venderla fa miracoli. Se uno guarda le prestazioni reali non serve praticamente a nulla.
Per me possono diventare anche tutti i datacenter basati su ARM, fino a quando i benchmark saranno quelli che vedo in giro, diciamo che sono scarsi rispetto ad AMD, ma anche Intel.

ZeroSievert
11-07-2025, 16:31
Qualche fonte? Statistiche di impiego?
Altrimenti facciamo come con l'IA, se uno ascolta chi cerca di venderla fa miracoli. Se uno guarda le prestazioni reali non serve a nulla.
Per me possono diventare anche tutti i datacenter basati su ARM, fino a quando i benchmark saranno quelli che vedo in giro, diciamo che sono scarsi rispetto ad AMD, ma anche Intel.

Vedi sopra. Ho editato il mio messaggio

EDIT: e comunque il tema della news e' proprio l'incremento della diffusione di CPU ARM nel mondo datacenter. Ergo non e' roba che mi sto inventando io.


Secondo quanto dichiarato dall'azienda a Reuters, il numero di datacenter che utilizzano chip basati su architettura Arm è cresciuto di 14 volte rispetto al 2021, arrivando a quota 70.000. Un incremento che riflette la crescente adozione delle soluzioni Arm da parte di grandi realtà del cloud computing come Amazon, Google, Microsoft e NVIDIA.

pachainti
11-07-2025, 16:35
Vedi sopra. Ho editato il mio messaggio

EDIT: e comunque il tema della news e' proprio l'incremento della diffusione di CPU ARM nel mondo datacenter. Ergo non e' roba che mi sto inventando io.

Quindi stime cosi a occhio :D . Purtroppo ormai le notizie servono per influenzare il mercato, non per informare.

ZeroSievert
11-07-2025, 16:37
Quindi stime cosi a occhio :D . Purtroppo ormai le notizie servono per influenzare il mercato, non per informare.

https://www.tomshardware.com/pc-components/cpus/arm-aims-to-capture-50-percent-of-data-center-cpu-market-in-2025

pachainti
11-07-2025, 16:41
https://www.tomshardware.com/pc-components/cpus/arm-aims-to-capture-50-percent-of-data-center-cpu-market-in-2025

Arm Holdings hopes to increase its share of the global data center CPU market from 15% to 50% by the end of 2025

:D

P.S. il vero vantaggio di ARM è potersi fare le CPU in casa e non dover dipendere da terzi (AMD, Intel). A livello di prestazioni, per ora campa cavallo.

ZeroSievert
11-07-2025, 16:43
Arm Holdings hopes to increase its share of the global data center CPU market from 15% to 50% by the end of 2025

:D

Si. Il che vuol dire che a inizio 2025 il mercato datacenter era gia' per il 15% in mano ad ARM.

Ripeto: questo 15% (in crescita) e' fatto da gente che non sa come spendere miliardi? :rolleyes:

pachainti
11-07-2025, 16:52
Si. Il che vuol dire che a inizio 2025 il mercato datacenter era gia' per il 15% in mano ad ARM.

Ripeto: questo 15% (in crescita) e' fatto da gente che non sa come spendere miliardi? :rolleyes:

La risposta te l'ho scritta sopra. Il vantaggio degli ARM è poter farsi tutto in casa e quindi controllare e personalizzare la CPU a proprio piacere, senza dover dipendere da terzi.
Il 15% è ancora poco per fare certe affermazioni.

Il punto focale del discorso rimane lo stesso, al momento a livello di prestazioni non valgono la candela (https://www.hwupgrade.it/forum/showpost.php?p=48824224&postcount=14) e nemmeno a livello di efficienza, salvo qualche software particolare (https://www.hwupgrade.it/forum/showpost.php?p=48824346&postcount=20).

ZeroSievert
11-07-2025, 16:59
La risposta te l'ho scritta sopra. [B]Il vantaggio degli ARM è poter farsi tutto in casa e quindi controllare e personalizzare la CPU a proprio piacere, senza dover dipendere da terzi.
Il 15% è ancora poco per fare certe affermazioni.

...

Sorvolando che 15% non e' poco in un mercato da parecchi miliardi di euro/dollari, tu ti stai contraddicendo:

- Prima dici che una CPU e' solo ad utilizzo generale e che quindi non ha senso che abbia prestazioni piu' elevate in alcuni ambiti e mediocri in altri.
- Adesso dici che il vantaggio di ARM e' che puoi personalizzare la CPU. Personalizzazione che evidentemente ha senso se vuoi ottimizzare il tuo chip per determinati tipi di workload/ambiti (almeno in ambito datacenter/HPC). Che e' esattamente il punto dei miei post.

Per il resto capisco che questa discussione non ha molto senso che continui. Tu mi hai chiesto dei dati e io te li ho forniti.

pachainti
12-07-2025, 06:31
Sorvolando che 15% non e' poco in un mercato da parecchi miliardi di euro/dollari, tu ti stai contraddicendo:

- Prima dici che una CPU e' solo ad utilizzo generale e che quindi non ha senso che abbia prestazioni piu' elevate in alcuni ambiti e mediocri in altri.
- Adesso dici che il vantaggio di ARM e' che puoi personalizzare la CPU. Personalizzazione che evidentemente ha senso se vuoi ottimizzare il tuo chip per determinati tipi di workload/ambiti (almeno in ambito datacenter/HPC). Che e' esattamente il punto dei miei post.

Per il resto capisco che questa discussione non ha molto senso che continui. Tu mi hai chiesto dei dati e io te li ho forniti.

15% rispetto a 85% è poco, ma sai ai tempi di chatGPT, le supercazzole regnano.

Certo, la CPU è un calcolatore universale. Confermo, puoi personalizzare la CPU, ma non come intendi tu. A livello di frequenze, consumi, modificando l'efficienza, etc. non specializzando il calcolo per 2-3 software. Per quello ci sono FPGA e ASIC.

Hai fornito dati? Un link a un giornale (https://www.hwupgrade.it/forum/showpost.php?p=48824396&postcount=26) che fa propaganda? :D

P.S. guarda io sono uno a favore dell'innovazione, le CPU RISC come ARM, ma soprattutto RISC-V sono benvenuti in un settore con un duopolio. Tuttavia, la superiorità va confermata con i fatti, non con le parole negli annunci.
In passato ho provato Snapdragon 8cx gen 1, 2, 3, specialmente gli ultimi due andavo molto bene su windows 11 grazie a arm64ec (https://learn.microsoft.com/en-us/windows/arm/arm64ec). Per questo c'erano molte aspettative sulla versione 4, elite x, ma è stato praticamente un flop. Le prestazioni sono scarse rispetto ad AMD, l'efficienza lo stesso, molto meglio la versione 3 che almeno aveva una grande durata della batteria, pur essendo più lento.
Se la versione 5, sarà superiore ad AMD, benissimo, ma voglio vedere i fatti...

ZeroSievert
12-07-2025, 06:55
A proposito di supercazzole..



Certo, la CPU è un calcolatore universale. Confermo, puoi personalizzare la CPU, ma non come intendi tu. A livello di frequenze, consumi, modificando l'efficienza, etc. non specializzando il calcolo per 2-3 software. Per quello ci sono FPGA e ASIC.

.

Ceeerto. Scrivimi un intero webserver moderno (con tanto di interpreti, servizi a corredo e compagnia bella) in systemverilog o VHDL. Ammesso che tu sappia cosa sia un linguaggio HDL.

Poi produci ASICs o sintetizza su FPGA.

Poi dopo mi dici quanto tempo ci vuole, quanto costa e quanto il sistema finale é aggiornabile/mantenibile rispetto ad acquistare CPU ottimizzate per questo tipo di servizi.

EDIT: e magari poi vendi questa idea geniale al resto del mondo visto che, a tuo dire, il 15% di un mercato multimiliardario usa CPU 'sbagliate' secondo la tua modestissima opinione.

pachainti
12-07-2025, 07:11
A proposito di supercazzole..



Ceeerto. Scrivimi un intero webserver moderno (con tanto di interpreti, servizi a corredo e compagnia bella) in systemverilog o VHDL. Ammesso che tu sappia cosa sia un linguaggio HDL. :muro:

Poi produci ASICs o sintetizza su FPGA.

Poi dopo mi dici quanto tempo ci vuole, quanto costa e quanto il sistema finale é aggiornabile/mantenibile rispetto ad acquistare CPU ottimizzate per questo tipo di servizi.

Scusa, ma chi farebbe una cosa del genere? Hai capito il nocciolo della questione? Stiamo (sto) parlando di altro. Quali sarebbero le CPU ottimizzate per questo ambito? Non ne vedo.
Rimaniamo ai fatti (https://www.hwupgrade.it/forum/showpost.php?p=48824346&postcount=20) ovvero questi arm ampere in nessun ambito tra quelli analizzati, eccetto graphicMagick sono superiori ad AMD-intel, in alcuni ambito lo sono a livello di efficienza (prestazioni per watt).
Dove dovrei utilizzarli?

Gli ASIC servono per ambiti specifici (DSP, ISP, mining), sono circuiti ad hoc e non adatti per calcolo generale come una CPU. Non confondiamo CPU con GPU, calcolatori vettoriali o NPU (un particolare calcolatore specializzato per la presunta IA, deep learning e i calcoli matriciali con precisione ridotta).

ZeroSievert
12-07-2025, 07:33
Scusa, ma chi farebbe una cosa del genere? Hai capito il nocciolo della questione? Stiamo (sto) parlando di altro. Quali sarebbero le CPU ottimizzate per questo ambito? Non ne vedo.
Rimaniamo ai fatti (https://www.hwupgrade.it/forum/showpost.php?p=48824346&postcount=20) ovvero questi arm ampere in nessun ambito tra quelli analizzati, eccetto graphicMagick sono superiori ad AMD-intel, in alcuni ambito lo sono a livello di efficienza (prestazioni per watt).
Dove dovrei utilizzarli?


Visto che sono CPU con core count elevato (anche 192 core/chip) ed ad alta efficienza, li puoi usare (e Microsoft, Google e Oracle li usano) per microservizi/applicazioni cloud.

Oppure, guardando a Phoronix, se vuoi costruire un server che si occupa di certi tipi di simulazioni idrodinamiche/simulazioni di dinamica molecolare/analisi di finanza quantitativa se vedi che i costi energetici sono la voce piú importante.

E questa é un esigenza che istituti di ricerca o grandi imprese che si occupano di temi ingegneristici o finanziari potrebbero avere.

pachainti
12-07-2025, 07:58
Visto che sono CPU con core count elevato (anche 192 core/chip) ed ad alta efficienza, li puoi usare (e Microsoft, Google e Oracle li usano) per microservizi/applicazioni cloud.

Oppure se vuoi costruire un server che si occupa di certi tipi di simulazioni idrodinamiche/simulazioni di dinamica molecolare/analisi di finanza quantitative se vedi che i costi energetici sono la voce piú importante.

Si, ma non questi arm ampere che sono peggiori della concorrenza. Se hai altri benchmark, dati, li guardo volentieri. Loro utilizzano versioni arm perché sono indipendenti da terzi e possono personalizzarli, non per le prestazioni. Molto probabilmente in futuro passeranno a risc-v per via delle licenze arm.

ZeroSievert
12-07-2025, 08:06
Si, ma non questi arm ampere che sono peggiori della concorrenza. Se hai altri benchmark, dati, li guardo volentieri. Loro utilizzano versioni arm perché sono indipendenti da terzi e possono personalizzarli, non per le prestazioni. Molto probabilmente in futuro passeranno a risc-v per via delle licenze arm.

Ripeto: sono peggiori sotto alcune metriche ma non in senso assoluto. Altrimenti Microsoft, Google, Oracle e compagnia bella non li userebbero nei loro data center.

https://www.oracle.com/europe/cloud/compute/arm/
https://www.servethehome.com/ampereone-lands-first-in-google-cloud-c3a-arm-instances/
https://azure.microsoft.com/en-us/blog/azure-virtual-machines-with-ampere-altra-arm-based-processors-generally-available/

E questi sopra sono solo ARM Ampere

pachainti
12-07-2025, 08:20
Ripeto: sono peggiori sotto alcune metriche ma non in senso assoluto. Altrimenti Microsoft, Google, Oracle e compagnia bella non li userebbero nei loro data center.

https://www.oracle.com/europe/cloud/compute/arm/
https://www.servethehome.com/ampereone-lands-first-in-google-cloud-c3a-arm-instances/
https://azure.microsoft.com/en-us/blog/azure-virtual-machines-with-ampere-altra-arm-based-processors-generally-available/

E questi sopra sono solo ARM Ampere

Grazie, non è quello che ho chiesto. Ti ho già spiegato il motivo dell'utilizzo di soluzioni personalizzate. A livello prestazioni, ma anche efficienza sono peggiori, eccetto alcuni benchmark. Se ne hai altri, possiamo parlarne e posso cambiare idea.

ZeroSievert
12-07-2025, 08:27
Grazie, non è quello che ho chiesto. Ti ho già spiegato il motivo dell'utilizzo di soluzioni personalizzate. A livello prestazioni, ma anche efficienza sono peggiori, eccetto alcuni benchmark. Se ne hai altri, possiamo parlarne e posso cambiare idea.

Tu hai detto che non ha senso usare CPU Ampere in data center perché "peggiori"(ancora, sotto quali metriche, per quali tipi di workload?) della controparte AMD/Intel.

A me sembra di aver dimostrato ampiamente il contrario.

Ripeto: sono peggiori sotto alcune metriche ma non in senso assoluto. Altrimenti Microsoft, Google, Oracle e compagnia bella non li userebbero nei loro data center.

https://www.oracle.com/europe/cloud/compute/arm/
https://www.servethehome.com/ampereone-lands-first-in-google-cloud-c3a-arm-instances/
https://azure.microsoft.com/en-us/blog/azure-virtual-machines-with-ampere-altra-arm-based-processors-generally-available/

E questi sopra sono solo ARM Ampere

pachainti
12-07-2025, 08:31
Tu hai detto che non ha senso usare CPU in data center perché "peggiori"(ancora, sotto quali metriche?) della controparte AMD/Intel.

A me sembra di aver dimostrato ampiamente il contrario.

Non l'ho detto io, lo dicono i benchmark. Gli arm ampere sono al momento non solo più lenti, ma consumano anche di più per lo stesso carico. Allora perché li utilizzano? Perché hanno il controllo diretto sulla progettazione e non dipendono da terzi (eccetto dalle licenze arm).
Altri benchmark più recenti:

AMD EPYC 9965 "Turin Dense" Delivers Better Performance/Power Efficiency vs. AmpereOne 192-Core ARM CPU (https://www.phoronix.com/review/amd-epyc-9965-ampereone/5)

On a geo mean basis across all the benchmarks, the 192-core EPYC 9965 was delivering 1.6x the performance of the AmpereOne A192-32X flagship processor in the benchmarks conducted. So while the average power use of the EPYC 9965 was around 1.2x that of the AmpereOne A192-32X, it more than makes up for it in power efficiency with 1.6x the performance.

As seen with this EPYC 9965 to AmpereOne A192-32X comparison, AMD EPYC Turin Dense CPUs can easily compete with and typically outperform AmpereOne AArch64 cores. And ultimately delivering better performance-per-Watt. The one area where Ampere Computing may have the advantage is on performance-per-dollar if the list pricing for both AMD EPYC Turin and AmpereOne are accurate and there becomes robust availability. That's for CPU pricing at least with not yet having any public AmpereOne server platform pricing for getting an idea of the overall TCO.

Direi asfaltati...

Tu hai dimostrato di voler avere per forza ragione, prendila. :D

ZeroSievert
12-07-2025, 08:37
...

Direi asfaltati...

Tu hai dimostrato di voler avere per forza ragione, prendila. :D

Pensa, penso lo stesso di una persona che chiude cosí. Ciao.

EDIT
Non l'ho detto io, lo dicono i benchmark. Gli arm ampere sono al momento non solo più lenti, ma consumano anche di più per lo stesso carico. Allora perché li utilizzano? Perché hanno il controllo diretto sulla progettazione e non dipendono da terzi (eccetto dalle licenze arm).

Dalle informazioni che ho, Google, Oracle, Microsoft etc. etc. comprano CPU da Ampere senza possibilità di customizzazione o influenzare la progettazione esattamente come farebbero da AMD/Intel. Fonti di questa affermazione?