PDA

View Full Version : Apple M1, 'segnale molto positivo' per il futuro dei PC: a dirlo è il Presidente di Qualcomm


Redazione di Hardware Upg
14-12-2020, 17:31
Link alla notizia: https://www.hwupgrade.it/news/apple/apple-m1-segnale-molto-positivo-per-il-futuro-dei-pc-a-dirlo-e-il-presidente-di-qualcomm_94152.html

Anche il Presidente di Qualcomm si è mostrato estremamente compiaciuto dell'arrivo di un chip ARM potente ed efficiente in ambito PC. Secondo Amon rappresenteranno il prossimo step evolutivo dell'esperienza PC

Click sul link per visualizzare la notizia.

MaxVIXI
14-12-2020, 17:38
si vabbè agli altri manca solo

-un os che funzioni bene
-un soc altrettanto performante
-un parco app compatibile
-un programma portentoso come Rosetta2
-una base di adepti disposti ad accettare rischi e scomodità varie ed eventuali

altro?

386DX40
14-12-2020, 17:48
Comprendo che le architetture basate su ARM abbiano fatto passi da gigante in velocità elevate rispetto alla evoluzione forse piu' calma delle architetture x86/x64 ma quello che non comprendo e' come sia possibile che un decennio fa l' architettura simil-Atom (ad es.) non sia evoluta con velocità maggiore al posto che avrebbe potuto avere e installabile praticamente su qualsiasi dispositivo e con prezzi equiparabili (anche in perdita se fosse stato necessario) e già un parco di applicazione e supporto praticamente infinito su Win o Linux.
Non dico sia meglio uno o l'altro, ma per il bene che l'utente possa trarne da una moltitudine di players in competizione, gli Atom per esempio avrebbero potuto imho mettersi tranquillamente in competizione con i processori da smartphone quando quest'ultimi ancora erano ben lontani dal potersi anche solo confrontare.

Opteranium
14-12-2020, 17:51
da questo punto di vista l'open source sarebbe molto avvantaggiato, con diverse distribuzioni linux già compilate su arm, architetture aperte come risc v, e compagnia.. speriamo che ne approfittino

Opteranium
14-12-2020, 17:52
Comprendo che le architetture basate su ARM abbiano fatto passi da gigante in velocità elevate rispetto alla evoluzione forse piu' calma delle architetture x86/x64 ma quello che non comprendo e' come sia possibile che un decennio fa l' architettura simil-Atom (ad es.) non sia evoluta con velocità maggiore al posto che avrebbe potuto avere e installabile praticamente su qualsiasi dispositivo e con prezzi equiparabili (anche in perdita se fosse stato necessario) e già un parco di applicazione e supporto praticamente infinito su Win o Linux.
Non dico sia meglio uno o l'altro, ma per il bene che l'utente possa trarne da una moltitudine di players in competizione, gli Atom per esempio avrebbero potuto imho mettersi tranquillamente in competizione con i processori da smartphone quando quest'ultimi ancora erano ben lontani dal potersi anche solo confrontare.
perché gli atom consumavano molto di più, impossibile metterli in uno smarpthone

nyo90
14-12-2020, 17:55
si vabbè agli altri manca solo

-una base di adepti disposti ad accettare rischi e scomodità varie ed eventuali


Questi non mancano mai!

Basta andare sotto ogni news riguardante Apple per trovare kamikaze pronti a immolarsi pur di difendere a spada tratta il loro prodotto concorrente per dire quanto sia bello, valido e superiore, anche nel caso in cui faccia andare a scatti pure il giochino del dinosauro di google.

Anzi, quelli che non accettano rischi e scomodità di solito sono proprio i clienti Apple, disposti a lamentarsi per ogni singola virgola fuori posto, dal momento in cui pretendono perfezione dai dispositivi che acquistano.
Da non confondere ovviamente con l'accettare dispositivi da funzionalità limitate o aggiornamenti hardware impossibili.

L'ultimo che mi ha detto un qualsiasi Xiaomi da 200€ è superiore all'iPhone in tutto e per tutto, nel momento in cui ha scoperto che il Note 9S di Xiaomi da 200€ non ha l'NFC, si è comportato come il peggior fanboy, screditando e sminuendo tutto ciò che il suo smartphone non fa. Facendo un confronto basato sul "Il mio telefono è perfetto, tutto ciò che va oltre non serve, quindi se il tuo va oltre non importa: è come il mio ma costa di più".

La convinzione che gli idioti siano monobrand è quantomeno limitante. Gli idioti sono ovunque, così come gli utenti competenti, così come quelli che acquistano con le fette di salame sugli occhi pensando di prendere il meglio del meglio del meglio.

Ci sono gli Adepti Microsoft Windows(!), Xiaomi, Oppo, Samsung... Di qualsiasi produttore tu voglia, anche dei più sconosciuti. Il problema è che se di base non c'è un prodotto fortemente valido, con le altre caratteristiche che hai elencato, manca la base di utenti soddisfatta dell'esperienza utente: la vera forza di Apple.

Gringo [ITF]
14-12-2020, 17:56
Sarebbe ora di un bel AmigaOS giusto giusto con ARM e abbandonare il Ramo Secco del PowerPC che è MORTO! (ma tanto amiga è....MORTO!).

386DX40
14-12-2020, 19:12
perché gli atom consumavano molto di più, impossibile metterli in uno smarpthone

Gli Atom consumavano di piu' relativamente se prendiamo come riferimento i moderni processori ARM high end, ma rispetto ai processori "di allora" (es. nella fascia 2010-2013) a 32nm di processo produttivo o anche solo i piu' avanzati quad core a 14nm i watts scendevano rispettivamente per la sola cpu a 5W e 2W in uno scenario standard che cosi' come le moderne soluzioni puo' vedere scenari "estremi" ove quel valore ovviamente saliva tra chipset, gpu, periferiche usb, etc..
Ma erano anche MOLTO piu' potenti di qualsiasi processore ARM11 (armv6) di allora. Quando c'era l' Atom N270 o l' N450 in giro c'erano processori da smartphone ARM11 senza nemmeno cache di secondo livello single core a frequenze tra 600 e 800Mhz che erano si e no paragonabili ad un Pentium II a 400Mhz in ambienti o.s. reali (sebbene con GPU gia' piuttosto avanzate ma poco utilizzate) mentre invece gia' solo i primissimi Atom suddetti tanto criticati erano gia' piu' avanzati di un Athlon XP consumando una frazione minima del loro wattaggio.
Ancora oggi mi capita usare un Atom dual core a 32nm e 1,9Ghz di frequenza che ha SSE2/3 e SSSE3, x64 e 4GB di ram DDR3 e sebbene nei bench sintetici un moderno quad core Cortex A53/A72 sia piu' veloce, l'espandibilita' possibile ne compensa di molto il risultato tra SSD SATAIII e ram DDR3 e il tutto per un massimo di watt che si aggira (senza dvd drive e solo tastiera e mouse) in full (2D/3D/suono) tra i 16 e i 18 watts totali (misurati alla presa della corrente 220V) a cui togliere i watt dell' SSD e della mainboard e del PSU tra perdite varie di efficienza.

sierrodc
14-12-2020, 19:23
beh, windows ci sta già lavorando da tempo. Linux c'è già (per sparare a caso, il raspberry 4 con varie distro... per chi naviga e usa word va benissimo, avesse un ssd...). Anche perchè diciamocelo. Il telefono è il nuovo PersonalComputer per chi non usa il computer (mail, apps, internet...). E i telefoni sono arm.
Ora, che mi facciano un arm con le prestazioni di un intel 11th gen, o un intel 11th gen che consuma quanto un arm, a me poco cambia.

pengfei
14-12-2020, 19:36
Comprendo che le architetture basate su ARM abbiano fatto passi da gigante in velocità elevate rispetto alla evoluzione forse piu' calma delle architetture x86/x64 ma quello che non comprendo e' come sia possibile che un decennio fa l' architettura simil-Atom (ad es.) non sia evoluta con velocità maggiore al posto che avrebbe potuto avere e installabile praticamente su qualsiasi dispositivo e con prezzi equiparabili (anche in perdita se fosse stato necessario) e già un parco di applicazione e supporto praticamente infinito su Win o Linux.
Non dico sia meglio uno o l'altro, ma per il bene che l'utente possa trarne da una moltitudine di players in competizione, gli Atom per esempio avrebbero potuto imho mettersi tranquillamente in competizione con i processori da smartphone quando quest'ultimi ancora erano ben lontani dal potersi anche solo confrontare.

Avevano lanciato gli Atom per smartphone ma sono stati un fallimento commerciale, mi pare di ricordare fossero complessivamente peggiori della concorrenza, poi hanno fatto errori strategici tipo puntare su meego e sono arrivati tardi su Android, tra il 2.3 e il 4.0, a quel punto il potenziale supporto alle applicazioni windows o linux su un cellulare sarebbe stato inutile, il mercato delle app mobile iniziava ad essere maturo.
Pare che abbiano tentato di vendere a prezzi aggressivi gli Atom per tablet ma hanno solo perso soldi senza sfondare quindi non hanno ripetuto la strategia coi telefoni.
Senza contare la vendita della divisione ARM del 2006, a giocarsela meglio avrebbero potuto diventare fornitori di Apple e la storia sarebbe potuta andare diversamente

386DX40
14-12-2020, 19:43
Come dicevo non dico che sia meglio uno o l'altro o preferisca una o l'altra architettura. Riflettevo sul fatto che potenzialmente il passo grande che fu fatto con il primissimo Atom (e si potrebbe anche ricordare ancora prima il dimenticato della controparte AMD Geode LX nella classica versione 800 @ 500Mhz @ 3,8 watts gia' con MMX e 3DNow! piu' particolari istruzione proprietarie mi pare ricordare, che faceva girare Windows XP gia' prima, bei tempi) e l'integrazione single chip che venne fatta con l' N450, c'erano tutti i presupposti per spingere quel ramo al massimo riducendo watts e costi e incrementando prestazioni gia' soddisfacenti per quei tempi.
Poi che ora siano altri a seguire questa strada non fa differenza nemmeno a me, ma seguivo allora queste soluzioni mobile e ALLORA rimanevo entusiasta di cosa avessero gia' potuto fare allora con architetture considerate "pesanti" come le x86 e x64. Oggigiorno meno.

unsapiens
14-12-2020, 19:55
Anzi, quelli che non accettano rischi e scomodità di solito sono proprio i clienti Apple, disposti a lamentarsi per ogni singola virgola fuori posto, dal momento in cui pretendono perfezione dai dispositivi che acquistano.
Da non confondere ovviamente con l'accettare dispositivi da funzionalità limitate o aggiornamenti hardware impossibili.




Si e da quando è che i prodotti Apple sono perfetti e non hanno nessuna limitazione imposta dal costruttore? :rotfl:
Gli utenti apple accettano di tutto, è li il bello per la Apple, qualsiasi cosa faccia, anche se è senza senso viene accettata e glorificata.
E se glielo fai notare si arrabbiano pure. Poi la Apple fa anche cose belle e funzionali ci mancherebbe, ma non solo.

MaxVIXI
14-12-2020, 20:17
Si e da quando è che i prodotti Apple sono perfetti e non hanno nessuna limitazione imposta dal costruttore? :rotfl:
Gli utenti apple accettano di tutto, è li il bello per la Apple, qualsiasi cosa faccia, anche se è senza senso viene accettata e glorificata.
E se glielo fai notare si arrabbiano pure. Poi la Apple fa anche cose belle e funzionali ci mancherebbe, ma non solo.

basta guardare che porcata hanno fatto con l air di quest'anno. per far vedere come il loro M1 fosse ultra super stra migliorissimo hanno fatto un air intel senza sistema di dissipazione, e una ventola che serve solo a far casino. povera crista lei tenta di dissipare ma non ci sono non dico vapor chamber, ma nemmeno heatpipe a spostare calore da quel povero processore che non può fare altro che andare in thermal throttle estremo (disabilitando il turbo) mentre la ventola continua ad urlare di dolore inutilmente. l unica cosa a dissipare è una piastrina del piffero che manco aderisce bene e una lacrima di formica di pasta termica. gia solo per questo sarebbero da giustiziare in piazza. vabbe non fatemi dire niente va.

Ago72
14-12-2020, 20:20
Io ho un sogno, vedere un processore x86 e un Windows che tagliano nettamente con il passato. Eliminando tutte le retrocompatibilità HW & SW. Lasciando alla virtualizzazione (dove possibile) la compatibilità con il passato.
E vedere le performance di questo sistema con applicazioni native.
Che per quello che ho capito io, è la strada seguita da Apple.

piefab
14-12-2020, 21:37
"E una volta che rendi le app compatibili nativamente con ARM le prestazioni aumentano perché hai piena compatibilità"

Veramente? Non l'avrei mai detto...

demon77
14-12-2020, 22:34
si vabbè agli altri manca solo

-un os che funzioni bene
-un soc altrettanto performante
-un parco app compatibile
-un programma portentoso come Rosetta2
-una base di adepti disposti ad accettare rischi e scomodità varie ed eventuali

altro?

Decisamente poco lungimirante.
Le difficoltà tecniche si superano, quello che davvero serve è che le case software comincino a produrre su ARM.
Questo fino ad ora non accadeva perchè non c'era convenienza ma ora grazie alla svolta di Apple la cosa si è resa necessaria, il che apre la partita a tutto il resto.

Solo questione di tempo adesso, la CPU arm arriveranno anche nel mondo PC e con esse le app ed il sistema operativo sempre più ottimizzato.

demon77
14-12-2020, 22:38
Io ho un sogno, vedere un processore x86 e un Windows che tagliano nettamente con il passato. Eliminando tutte le retrocompatibilità HW & SW.

Questo è un aspetto che in effetti sarebbe da considerare.
Gli arm non è che sono magici, il fatto è che le CPU X86 si devono anche trascinare una marea di vincoli col passato che certamente non giocano a favore delle prestazioni e dei consumi.

Si potrebbe però a questo punto obiettare che non ha neanche senso chiamarle X86.. sarebbero di fatto CPU differenti con una nuova architettura e set di istruzioni..

frankie
14-12-2020, 22:49
Si e da quando è che i prodotti Apple sono perfetti e non hanno nessuna limitazione imposta dal costruttore? :rotfl:
Gli utenti apple accettano di tutto, è li il bello per la Apple, qualsiasi cosa faccia, anche se è senza senso viene accettata e glorificata.
E se glielo fai notare si arrabbiano pure. Poi la Apple fa anche cose belle e funzionali ci mancherebbe, ma non solo.

Non è una mancanza, è una feature :stordita:

cdimauro
15-12-2020, 05:42
perché gli atom consumavano molto di più, impossibile metterli in uno smarpthone
Ma anche no: The final ISA showdown: Is ARM, x86, or MIPS intrinsically more power efficient? (http://www.extremetech.com/extreme/188396-the-final-isa-showdown-is-arm-x86-or-mips-intrinsically-more-power-efficient)
Io ho un sogno, vedere un processore x86 e un Windows che tagliano nettamente con il passato. Eliminando tutte le retrocompatibilità HW & SW. Lasciando alla virtualizzazione (dove possibile) la compatibilità con il passato.
Se togli la retrocompatibilità hardware e software di fatto hai eliminato x86. :D

Ma casualmente (!) avrei un'architettura che farebbe proprio al caso tuo. :fagiano:
E vedere le performance di questo sistema con applicazioni native.
Servirebbe ricompilarle, per l'appunto. Non un grosso problema con la mia ISA, visto che potresti compilare praticamente tutto (tranne roba che ha del linguaggio macchina embedded, ovviamente) senza problemi.
Che per quello che ho capito io, è la strada seguita da Apple.
No, Apple non ha una sua ISA, ma si affida ad AArch64 di ARM, e questa si porta dietro un po' di legacy, sebbene sia una completa revisione della precedente ARM/ARM32.
Questo è un aspetto che in effetti sarebbe da considerare.
Gli arm non è che sono magici, il fatto è che le CPU X86 si devono anche trascinare una marea di vincoli col passato che certamente non giocano a favore delle prestazioni e dei consumi.

Si potrebbe però a questo punto obiettare che non ha neanche senso chiamarle X86.. sarebbero di fatto CPU differenti con una nuova architettura e set di istruzioni..
Esattamente.

supertigrotto
15-12-2020, 08:32
Piccolo appunto,se non sbaglio arm se ne frega della retrocompatibilità,i vecchi chip arm sempre se non sbaglio,non riescono a fare girare in modo nativo il codice nuovo,appunto perché vengono tolte istruzioni relativamente vecchie e sostituituite con quelle nuove

pabloski
15-12-2020, 09:31
Piccolo appunto,se non sbaglio arm se ne frega della retrocompatibilità,i vecchi chip arm sempre se non sbaglio,non riescono a fare girare in modo nativo il codice nuovo,appunto perché vengono tolte istruzioni relativamente vecchie e sostituituite con quelle nuove

No, anzi, ARM è ancora più maniacale di Intel e sorelle riguardo la retrocompatibilità. Ancora oggi ci sono SoC ARM che supportano cose assurde tipo...ThumbEE!! Eh, e che è? Una modalità, nonchè estensione dell'ISA Thumb-2, per l'esecuzione di bytecode Java!

E, se non sbaglio, l'implementazione è obbligatorio nei SoC ARMv7. Per fortuna rimossa del tutto con ARMv8.

Ogni tanto danno una sforbiciata, ma ci vogliono decenni.

Se si cerca qualcosa senza un bagaglio legacy ingombrante, bisogna guardare altrove.

Ma il nocciolo della questione, quello che fa la differenza, è sempre lo stesso...PERSONALIZZAZIONE!! Prendi i pezzi che ti servono e crei il tuo SoC. Puoi metterci dentro tutto e solo quello che realmente ti serve ( vedi Apple M1 ).

Che poi i successoni del passato come Amiga, a cosa dovevano le loro potenzialità? Ad un chipset composto da tante componenti per accelerare carichi di lavoro specifici. Apple non ha inventato niente di nuovo, ha semplicemente imparato le lezioni passate.

MaxVIXI
15-12-2020, 09:37
Decisamente poco lungimirante.
Le difficoltà tecniche si superano, quello che davvero serve è che le case software comincino a produrre su ARM.
Questo fino ad ora non accadeva perchè non c'era convenienza ma ora grazie alla svolta di Apple la cosa si è resa necessaria, il che apre la partita a tutto il resto.

Solo questione di tempo adesso, la CPU arm arriveranno anche nel mondo PC e con esse le app ed il sistema operativo sempre più ottimizzato.

Ni. Dire che M1 sia Arm è come dire che MacOs sia linux... Non mi sembra che i successi di MacOs abbiano spinto i produttori rilasciare programmi per Linux così come il successo di M1 e futuri, non spingerà i produttori a rilasciare versioni per arm. Windows per arm fa schifo, e servizi Google sono pietosi e Chromebook lo darei in mano giusto agli studenti per la didattica a distanza, soc arm che competano con m1 non ne vedo (neanche all' orizzonte). In Apple hanno fatto un ottimo lavoro, ma io la vedo come una cosa che si fermerà nell' ecosistema Apple (almeno nel breve medio termine)

pabloski
15-12-2020, 09:43
Ma anche no: The final ISA showdown: Is ARM, x86, or MIPS intrinsically more power efficient? (http://www.extremetech.com/extreme/188396-the-final-isa-showdown-is-arm-x86-or-mips-intrinsically-more-power-efficient)

Non dice molto.

Sostanzialmente si dice che le ISA non hanno un grosso impatto prestazionale...ma per quali ragioni?

Un utente, nei commenti, lo spiega

"There's no question, for example, that if Haswell didn't have all the complex decoding necessary that it would be both faster and use less power. In fact, it has a mini-trace cache just so it doesn't have to waste energy decoding all the time."

Voglio dire, un genio pazzo inventa un processore quantistico-spintronico-al-grafene-nanotubolante :D

Facciamo i nostri bench e notiamo che riesce ad emulare qualsiasi ISA con complessità O(1). Il merito sarà della microarchitettura o delle ISA? Le ISA sono totalmente irrilevanti in un caso simile. Le differenze si misureranno in femtosecondi, pochi per essere valutabili.

Ma non è merito delle ISA o dovuto al fatto che le ISA siano "tutte uguali" dal punto di vista prestazionale.

Intel ha fatto dei giri incredibili nell'hardware. Cose interessanti, ma estremamente complesse. E che mangiano transistor e corrente per poter fare le loro cose.

E tutto per raggiungere il risultato mostrato in quell'articolo. Un costo per colmare un handicap. Ma se non ci fosse l'handicap? Quanto si potrebbe fare meglio? Forse Apple ci ha dato la risposta.

p.s. un confronto con ARM e MIPS è alquanto pointless...parliamo di ISA che hanno il loro bagaglio legacy, il loro handicap! E' la corsa dei mutilati?

nyo90
15-12-2020, 09:57
Si e da quando è che i prodotti Apple sono perfetti e non hanno nessuna limitazione imposta dal costruttore? :rotfl:

Riprova a leggere quello che ho scritto, è una banale comprensione del testo.

cdimauro
16-12-2020, 06:10
Non dice molto.

Sostanzialmente si dice che le ISA non hanno un grosso impatto prestazionale...ma per quali ragioni?

Un utente, nei commenti, lo spiega

"There's no question, for example, that if Haswell didn't have all the complex decoding necessary that it would be both faster and use less power. In fact, it has a mini-trace cache just so it doesn't have to waste energy decoding all the time."
Sei completamente fuori strada, e dovresti analizzare cosa dice il pezzo e non i commenti.

Per farla breve, prendi l'Atom N450 e il Cortex A9.
Stesso processo produttivo (45nm), dimensioni dei core simili (ma è un po' più piccolo l'Atom), ma l'Atom disintegra l'A9 a livello prestazionale. Sì, gira con un clock più elevato (1,66Ghz vs 1Ghz), ma se normalizzi rimane mediamente avanti, e questo pur avendo 24KB di cache L1 dati vs 32KB, e la metà di cache L2 (512KB vs 1MB).
A livello di consumi l'A9 è nettamente migliore, ma se consideri l'efficienza (ossia combinando i consumi e le prestazioni / AKA il tempo impiegato per finire i task), l'Atom non ne esce affatto male. L'A9 è mediamente meglio, sia chiaro, ma non ci sono differenze abissali (anzi in un test è molto meglio l'Atom).

La cosa diventa ancora più interessante se prendi l'Atom e l'A15, che a confronto è un mostro, visto che è OoO a 3 vie (vs in-order a 2 vie), stessa frequenza, ma usando un processo produttivo nettamente migliore (32 vs 45nm).
L'Atom riesce a fare leggermente peggio a livello prestazionale (in media. Ma si discosta veramente di poco), ma enormemente meglio a livello di consumi (assoluti), e quindi anche di gran lunga meglio in termini di efficienza.

Questi confronti sono molto interessanti, perché stiamo parlando core molto piccoli, e quindi dove la "x86 tax" si fa sentire decisamente di più.
Voglio dire, un genio pazzo inventa un processore quantistico-spintronico-al-grafene-nanotubolante :D

Facciamo i nostri bench e notiamo che riesce ad emulare qualsiasi ISA con complessità O(1). Il merito sarà della microarchitettura o delle ISA? Le ISA sono totalmente irrilevanti in un caso simile. Le differenze si misureranno in femtosecondi, pochi per essere valutabili.

Ma non è merito delle ISA o dovuto al fatto che le ISA siano "tutte uguali" dal punto di vista prestazionale.
Checché se ne dica, l'ISA conta, eccome.

Poi ovviamente ci sono le microarchitetture che fanno le prestazioni reali.

E' un peccato che non si possano fare confronti mantenendo la stessa micro-architettura (ossia le stesse, identiche, scelte micro-architetturali) e cambiando solo l'ISA, perché ci saremmo tolti dalle scatole una volta per tutte queste discussioni, potendo misurare sia le prestazioni sia le "tasse" che si devono pagare per l'ISA.
Intel ha fatto dei giri incredibili nell'hardware. Cose interessanti, ma estremamente complesse. E che mangiano transistor e corrente per poter fare le loro cose.

E tutto per raggiungere il risultato mostrato in quell'articolo. Un costo per colmare un handicap.
Stai semplificando troppo: oltre agli handicap ci sono anche i vantaggi dovuti proprio all'ISA.
Ma se non ci fosse l'handicap? Quanto si potrebbe fare meglio?
Io penso che si potrebbe fare molto meglio, ma sono di parte, visto che sono un concorrente sia di Intel sia di altre aziende che progettano ISA. :fagiano:
Forse Apple ci ha dato la risposta.
In parte sì, ma Apple è andata ben oltre gli "handicap": ha tolto di mezzo tantissima roba, che su altre piattaforme richiede silicio, corrente, e genera consumi.

E quindi fare confronti diventa molto di più difficile.
p.s. un confronto con ARM e MIPS è alquanto pointless...parliamo di ISA che hanno il loro bagaglio legacy, il loro handicap! E' la corsa dei mutilati?
Non so a cosa ti riferisca qui. :stordita:

pabloski
16-12-2020, 11:01
E comunque, per la gioia di quelli che "ARM è buona solo per le calcolatrici", eccone un altro https://www.phoronix.com/scan.php?page=article&item=ampere-altra-q80&num=1

Siore e siori, mi sa che il mio prossimo PC avrà un cervello ARM.

LMCH
16-12-2020, 13:21
Per farla breve, prendi l'Atom N450 e il Cortex A9.
Stesso processo produttivo (45nm), dimensioni dei core simili (ma è un po' più piccolo l'Atom), ma l'Atom disintegra l'A9 a livello prestazionale. Sì, gira con un clock più elevato (1,66Ghz vs 1Ghz), ma se normalizzi rimane mediamente avanti, e questo pur avendo 24KB di cache L1 dati vs 32KB, e la metà di cache L2 (512KB vs 1MB).
A livello di consumi l'A9 è nettamente migliore, ma se consideri l'efficienza (ossia combinando i consumi e le prestazioni / AKA il tempo impiegato per finire i task), l'Atom non ne esce affatto male. L'A9 è mediamente meglio, sia chiaro, ma non ci sono differenze abissali (anzi in un test è molto meglio l'Atom).

La cosa diventa ancora più interessante se prendi l'Atom e l'A15, che a confronto è un mostro, visto che è OoO a 3 vie (vs in-order a 2 vie), stessa frequenza, ma usando un processo produttivo nettamente migliore (32 vs 45nm).
L'Atom riesce a fare leggermente peggio a livello prestazionale (in media. Ma si discosta veramente di poco), ma enormemente meglio a livello di consumi (assoluti), e quindi anche di gran lunga meglio in termini di efficienza.

Questi confronti sono molto interessanti, perché stiamo parlando core molto piccoli, e quindi dove la "x86 tax" si fa sentire decisamente di più.


Un momento, se non sbaglio nell'articolo a cui fai riferimento (http://www.extremetech.com/extreme/188396-the-final-isa-showdown-is-arm-x86-or-mips-intrinsically-more-power-efficient) non si parla di "un core A9" ma di un SoC completo che ha dentro anche due core A9, ovvero del SoC OMAP 4430 (https://www.ti.com/lit/ug/swpu231ap/swpu231ap.pdf).
OMAP4430 al suo interno ha due core A9 "per le applicazioni ed il S.O." con 32Kb+32kB di L1 per ogni core ed 1MB di L2 condivisa tra i due core, due core M3 "di servizio" (per roba realtime e "di servizio" che non è accessibile direttamente alle applicazioni) con 32kB di cache L1 e 64kB di cache L2, una gpu PowerVR SGX540 (anche l'Atom ha la gpu integrata, non ricordo se è più o meno dello stesso livello di prestazioni), un DSP TMS320C64x (con 32kB di cache L1 e cache L2 da 128kB), un encoder/decoder IVA-HD per la codifica e decodifica in hardware di flussi video 1080p FullHD in vari formati (l'Atom ha bisogno di un chip esterno per fare la stessa cosa), un audio engine ABE con 96kB di memoria integrata e già che c'erano controller dual channel DDR2 (Atom 450 se non sbaglio è single channel), interfacce eMMC, SDMMC, interfacce per due fotocamere, un bel po di interfaccenSPI,UART ed I2C poi aggiungi tre controller USB integrati. :read:

Insomma l'OMAP4430 integra dentro un fottio di roba che l'Atom N450 "delega" ad un chipset esterno (tipicamente era l'NM10) e eventualmente ad altri chip di supporto eppure finisce con usare un area leggermente inferiore rispetto all' N450.

Quindi mentre l'OMAP4430 era progettato per stare dentro un budget energetico molto più basso, l'N450 è stato progettato con circuiteria che consuma di più per andare a frequenze più alte e poter dare prestazioni più elevate a livello di cpu.

Infine se non sbaglio il TDP dell'OMAP4430 (tutto il SoC) è 0.6Watt (con picchi fino a circa 1.2Watt quando va a massima frequenza, ma quando la temperatura supera una certa soglia la frequenza dei core viene automaticamente ridotta per rientrare nei 0.6Watt) contro i 5.5Watt dell'N450 (che non integra tutta la roba dell'OMAP4430).

Questo spiega come mai mentre l'OMAP4430 è stato usato come SoC per smartphone, tablet e roba embedded mentre l'N450 principalmente su netbook e roba embedded con requisiti di alimentazione più elevati (almeno 5 volte più elevati, non so se mi spiego).

pabloski
16-12-2020, 15:12
Un momento, se non sbaglio nell'articolo a cui fai riferimento (http://www.extremetech.com/extreme/188396-the-final-isa-showdown-is-arm-x86-or-mips-intrinsically-more-power-efficient) non si parla di "un core A9" ma di un SoC completo...

Il punto di quell'articolo è che ormai non sono più le ISA a determinare le prestazioni di un processore. E grazie tante mi verrebbe da dire, visti i passi in avanti fatti in ambito hardware. Oggi una CPU è un mostro che implementa ogni trucco possibile ed immaginabile pur di colmare le eventuali lacune dell'ISA.

Ma la questione è che quella circuiteria mangia transistor e corrente. Dunque la domanda diventa: "e se a parità di processo produttivo, ecc... adottassi pure un'ISA pensata per essere performante?". Ed è la scommessa su cui sta puntando RISC-V.

cdimauro
17-12-2020, 06:28
Un momento, se non sbaglio nell'articolo a cui fai riferimento (http://www.extremetech.com/extreme/188396-the-final-isa-showdown-is-arm-x86-or-mips-intrinsically-more-power-efficient) non si parla di "un core A9" ma di un SoC completo che ha dentro anche due core A9, ovvero del SoC OMAP 4430 (https://www.ti.com/lit/ug/swpu231ap/swpu231ap.pdf).
OMAP4430 al suo interno ha due core A9 "per le applicazioni ed il S.O." con 32Kb+32kB di L1 per ogni core ed 1MB di L2 condivisa tra i due core, due core M3 "di servizio" (per roba realtime e "di servizio" che non è accessibile direttamente alle applicazioni) con 32kB di cache L1 e 64kB di cache L2, una gpu PowerVR SGX540 (anche l'Atom ha la gpu integrata, non ricordo se è più o meno dello stesso livello di prestazioni), un DSP TMS320C64x (con 32kB di cache L1 e cache L2 da 128kB), un encoder/decoder IVA-HD per la codifica e decodifica in hardware di flussi video 1080p FullHD in vari formati (l'Atom ha bisogno di un chip esterno per fare la stessa cosa), un audio engine ABE con 96kB di memoria integrata e già che c'erano controller dual channel DDR2 (Atom 450 se non sbaglio è single channel), interfacce eMMC, SDMMC, interfacce per due fotocamere, un bel po di interfaccenSPI,UART ed I2C poi aggiungi tre controller USB integrati. :read:

Insomma l'OMAP4430 integra dentro un fottio di roba che l'Atom N450 "delega" ad un chipset esterno (tipicamente era l'NM10) e eventualmente ad altri chip di supporto eppure finisce con usare un area leggermente inferiore rispetto all' N450.

Quindi mentre l'OMAP4430 era progettato per stare dentro un budget energetico molto più basso, l'N450 è stato progettato con circuiteria che consuma di più per andare a frequenze più alte e poter dare prestazioni più elevate a livello di cpu.

Infine se non sbaglio il TDP dell'OMAP4430 (tutto il SoC) è 0.6Watt (con picchi fino a circa 1.2Watt quando va a massima frequenza, ma quando la temperatura supera una certa soglia la frequenza dei core viene automaticamente ridotta per rientrare nei 0.6Watt) contro i 5.5Watt dell'N450 (che non integra tutta la roba dell'OMAP4430).

Questo spiega come mai mentre l'OMAP4430 è stato usato come SoC per smartphone, tablet e roba embedded mentre l'N450 principalmente su netbook e roba embedded con requisiti di alimentazione più elevati (almeno 5 volte più elevati, non so se mi spiego).
Anche l'Atom N450 integra parecchia altra roba all'interno.

Purtroppo non ho trovato un'analisi dell'N450, ma del predecessore Bonnell (https://en.wikichip.org/wiki/intel/microarchitectures/bonnell), che dovrebbe essere abbastanza simile.
Se guardi l'intero SoC, puoi vedere tu stesso che ci sia una montagna di roba integrata e che occupi di gran lunga più spazio del core della CPU vera e propria (che è propria piccola. Specialmente se ci si ferma ai soli blocchi dell'FPU e dell'ALU).

Sì, è vero che dell'OMAP4430 ha due core A9, ma l'N450 ha HyperThreading, è a 64 bit, con parecchie istruzioni (specialmente SIMD), cache L2 dimezzata. Se guardi la foto del die dell'N450 puoi vedere tu stesso, ed è pure riportato, che la sola cache L2 occupa il 22% dell'area, a fronte del 28% del core vero e proprio. Immagina quanto potrebbe occupare la cache da 1MB dell'OMAP4430.

Io direi che sono confrontabili (e se pensi che l'Atom è pure single channel...).
Il punto di quell'articolo è che ormai non sono più le ISA a determinare le prestazioni di un processore. E grazie tante mi verrebbe da dire, visti i passi in avanti fatti in ambito hardware. Oggi una CPU è un mostro che implementa ogni trucco possibile ed immaginabile pur di colmare le eventuali lacune dell'ISA.
Vale per qualunque ISA. ;)
Ma la questione è che quella circuiteria mangia transistor e corrente. Dunque la domanda diventa: "e se a parità di processo produttivo, ecc... adottassi pure un'ISA pensata per essere performante?".
Ti stai contraddicendo. Se l'ISA non è determinante per le prestazioni, allora non si può più parlare di ISA pensata per essere performante. :read: :O
Ed è la scommessa su cui sta puntando RISC-V.
Peccato che RISC-V NON sia stata pensata per essere performante.

L'ISA base è molto semplice, e per forza di cose non può garantire buone prestazioni, perché è stata pensata per essere ridotta all'osso.
Se hai poche istruzioni mi pare scontato che ne serviranno molte per emulare ciò che altre estensioni o architetture mettono a disposizione con singole nonché veloci istruzioni. Non si scappa.

Il vantaggio di RISC-V sta nel fatto di essere aperta e senza licenze. E' per questo motivo che è nata (tolto il fatto che inizialmente sia nata in realtà come esercizio universitario).

386DX40
17-12-2020, 10:07
Tra l'altro l' N450 integrava nello stesso package (non ricordo se nello stesso core o in due core separati) anche tutta la parte revisionata del chipset che in effetti concettualmente non era proprio ottimale nella soluzione N270 (basta vedere i PCB di allora, il chipset era enorme rispetto alla sola cpu e probabilmente consumava non poco). Nel package integrava anche la GPU anch'essa revisionata che aveva almeno l'accelerazione MPEG2 (il fatto che non avesse l'HD non era imho per un problema di consumi piu' che altro presumo di tempo/costi di una nuova gpu) e quindi tutta la parte che anche in molte soluzioni SOC e' spesso parzialmente esterna ad esso come ICs per la rete o le porte USB (alcune SBC ad esempio).
Poi probabilmente il confronto andrebbe si fatto a parità di frequenza ma l' Atom era anche una delle prime soluzioni a confrontarsi davvero con un uso "desktop/notebook" a basso consumo e molto migliorato nelle versioni successive a 32nm. Versioni che tra l'altro adottavano (sebbene anche qui il chipset esterno c'e' ma senza dissipatore e senza scaldarsi nemmeno) quella "famosa" gpu PowerVR SGX545 sopra citata che sulla carta era avanzatissima nella realtà la storia fu piuttosto complessa. Ma si partiva da frequenze 2 x 1,87Ghz fino a 2 x 2,13Ghz + HT.

cdimauro
18-12-2020, 05:32
Nel caso di Pineview (e quindi dell'Atom N450) il link che ho postato riporta le seguenti informazioni (https://en.wikichip.org/wiki/intel/microarchitectures/bonnell#Second_Generation):
First generation of Bonnell-based microprocessors while being low power had to work with the older 90 nm process 945GSE chipset and 82801GBM I/O controller with a TDP of almost 9.5 watts - almost 4 times that of the processor itself. Second generation Bonnell-based microprocessors aimed to address this issue by integrating a memory controller and GPU on-chip. This drastically reduced power consumption and cost.

Lincroft is the codename for Bonnell-based Silverthorne's successor. Lincroft integrates on-die the graphics and memory controller. Lincroft effectively replaces the original Silverthorne offering 2x reduction in average circuit board size and up to 50x standby power reduction vs Menlow equivalent. Lincroft also introduces a 2x reduction in the overall active power consumption of the system.

Pineview was the codename for second generate Bonnell-based processors which integrated a memory controller, Direct Media Interface (DMI) link, and the GMA 3150 GPU.
Il die di Pineview/N450 è certamente molto più grande di quello di Bonnell, e quindi la componente strettamente CPU (il singolo core x86/x64) diventa ancora più piccolo rispetto all'intero SoC.

Riguardo le GPU, PowerVR SGX540: https://www.notebookcheck.net/PowerVR-SGX540.115806.0.html
Intel GMA 3150[/URL]: https://www.notebookcheck.net/Intel-Graphics-Media-Accelerator-3150.23264.0.html
Non c'è storia: quella di Intel è di gran lunga superiore.

386DX40
18-12-2020, 13:10
Nel caso di Pineview (e quindi dell'Atom N450) il link che ho postato riporta le seguenti informazioni (https://en.wikichip.org/wiki/intel/microarchitectures/bonnell#Second_Generation):
First generation of Bonnell-based microprocessors while being low power had to work with the older 90 nm process 945GSE chipset and 82801GBM I/O controller with a TDP of almost 9.5 watts - almost 4 times that of the processor itself. Second generation Bonnell-based microprocessors aimed to address this issue by integrating a memory controller and GPU on-chip. This drastically reduced power consumption and cost.

Lincroft is the codename for Bonnell-based Silverthorne's successor. Lincroft integrates on-die the graphics and memory controller. Lincroft effectively replaces the original Silverthorne offering 2x reduction in average circuit board size and up to 50x standby power reduction vs Menlow equivalent. Lincroft also introduces a 2x reduction in the overall active power consumption of the system.

Pineview was the codename for second generate Bonnell-based processors which integrated a memory controller, Direct Media Interface (DMI) link, and the GMA 3150 GPU.
Il die di Pineview/N450 è certamente molto più grande di quello di Bonnell, e quindi la componente strettamente CPU (il singolo core x86/x64) diventa ancora più piccolo rispetto all'intero SoC.

Riguardo le GPU, PowerVR SGX540: https://www.notebookcheck.net/PowerVR-SGX540.115806.0.html
Intel GMA 3150[/URL]: https://www.notebookcheck.net/Intel-Graphics-Media-Accelerator-3150.23264.0.html
Non c'è storia: quella di Intel è di gran lunga superiore.
Mi sembra sia proprio come lo ricordo, ai tempi al primo netbook uscito con l' N450 mi ero catapultato a comprarlo, uno dei miglior netbook mai usati.
Ma lato GPU purtroppo imho non furono fatte le scelte migliori. L' SGX540 non molto diverso credo dall' SGX545 montato sul -successivo- Cedarview a 32nm che abbandonava la soluzione GMA precedente (che effettivamente aveva i suoi limiti ma almeno era basata probabilmente su un background da PC e non da smartphone) e venne usato nel GMA3600 e GMA3650 con la sola differenza del core clock da 400 a 600Mhz.
Tecnicamente era molto piu' capace con teorica compatibilita' fino a Dx10.x, OpenGL 3.x, decoding 1080p H264 60fps e bassissimi consumi.. in realtà la storia della GPU sia linux che su win non fu proprio "da ricordare". Ancora uso questa config per cui conosco piuttosto bene le fatiche lato GPU a sfruttarla in qualche modo. Guarda caso la scelta di optare per questo core di terze parti fu poi cambiata con gli Atom a 14nm X5 Z8xxx vari..
Ma chi conosce questa gpu e basta leggere le discussioni su linux, apriti cielo... imho si pensò forse di optare per una scelta a basso consumo concettualmente nata per gli smartphone (cpu Cortex A9 avevano talvolta l'SGX535) ma alla fine la vita di quella generazione fu piu' breve che mai.. drivers solo a 32bit e solo per Win 7 e purtroppo lenta e poco compatibile se non alcuni giochi. Unico lato positivo con l'ultima release dei drivers una ottima decodifica FullHD almeno quello.
Utenti che ovunque chiedevano drivers aggiornati per x64 sia su Win almeno che su linux eventualmente ma alla fine quello che resta e' la latest release su x86 a 32bit che migliorava la compatibilita' ma le performance forse anche lato o.s. non proprio retrocompatibile con i giochi vecchi Dx6 per esempio e lato gpu non proprio orientata al gaming desktop tantomeno Directx9 (figuriamoci Directx10), erano ormai un miraggio per una GPU usata piu' nel 2D che altro a parte la GUI nel caso di o.s. quali Win 8.x ad esempio. Poi esisteva un driver beta fantomatico x64 che subito sparì forse un ultimo tentativo ma non si e' mai capito chi doveva scriverli questi drivers...
Credo abbiano fatto prima a girare pagina e sviluppare le soluzioni successive quad core.

cdimauro
18-12-2020, 16:17
Immagino che la scelta di Intel fosse dovuta al fatto che quelle GPU PowerVR fossero molto più economiche ed efficienti energeticamente di GMA 3150 et similia. E siccome doveva andare a competere nel mobile, non era nemmeno sbagliato. Però, certo, ne ha fatto le spese il supporto...

386DX40
18-12-2020, 18:38
Credo anche io sebbene tutte teorie ma qualcosa non e' andato in quell' abbinamento chissà e' un mistero. Certo la cpu restava non proprio un mostro di potenza ma avendo fatto molteplici test, purtroppo solo su Win 8.1 forzando gli ultimi drivers comunque compatibili, ne paga certamente la retrocompatibilità (imho questi o.s. o la gpu o i drivers o tutti insieme hanno problemi con i giochi Directx6/7 che non sfruttavano features piu' avanzate quali pixel o vertex shaders o T&L o forse la gpu e' strettamente ottimizzata per le Dx9/10.. da qualche parte ho letto che anche Win 10 aveva fino a qualche tempo fa problemi con i giochi vecchi DirectDraw per es.).
Ma come dicevi, costi e consumi del core erano probabilmente ottimi e infatti da test effettuati con pesanti bench come 3DMark05 che gira incredibilmente senza errori ma purtroppo con uno score di 750 punti (per un SoC del 2011/2013), sembrerebbe che i consumi della GPU aumentino di un paio di watts e piu o meno presumibile che la stessa non consumi piu' di 3-4 watts in tutto nello scenario peggiore.
Un peccato perche' ho sempre avuto l'impressione che forse la GPU avrebbe potuto fare di piu' e infatti il frame rate e' piuttosto variabile.. 3DMark2000 rende un misero 1400 punti e 3DMark2001 ne rende 3900 per assurdo. Certo c'erano appunto il bench pixel shaders e features piu' avanzate da tenere conto ma anche i valori di fill rate sono diversi.
Ancora oggi cerco di trovare un modo per farla girare bene.. Doom3 ci gira e giocabile sebbene sotto i 20fps su High a 800x600 o giu' di li. Far Cry e GTA IV anche ci girano sebbene piuttosto pesanti ugualmente. Chissà se c'era qualche modo di spingere l'acceleratore se i driver fossero stati pesantemente ottimizzati.

cdimauro
19-12-2020, 05:05
Non avendo giocato e avendo un modello diverso (ho proprio l'N450) non saprei giudicare la situazione.

Faccio soltanto un appunto sulla CPU. Come hai detto, non era certo un mostro di potenza, e immagino che ti riferisca alle altre CPU x86/x64. Se il confronto è questo è senz'altro verso, visto che all'epoca persino i Celeron facevano di molto meglio.
Ma i test che ho postato prima dimostrano che, confrontata con altre (micro-)architetture in condizioni simili (anzi, pure un po' castrate: con mezza cache L2 e single channel), era invece un mostro di CPU. ;)

386DX40
19-12-2020, 10:33
Non avendo giocato e avendo un modello diverso (ho proprio l'N450) non saprei giudicare la situazione.

Faccio soltanto un appunto sulla CPU. Come hai detto, non era certo un mostro di potenza, e immagino che ti riferisca alle altre CPU x86/x64. Se il confronto è questo è senz'altro verso, visto che all'epoca persino i Celeron facevano di molto meglio.
Ma i test che ho postato prima dimostrano che, confrontata con altre (micro-)architetture in condizioni simili (anzi, pure un po' castrate: con mezza cache L2 e single channel), era invece un mostro di CPU. ;)

Si il confronto anche allora era automatico venisse fatto con le cpu anche low-end ma da desktop/notebook. Alla fine ho sempre apprezzato la loro potenza ma consapevolmente quando ci furono gli N270 era come avere un Athlon XP pero' catapultato nel 2010 in termini di capacità "reale".. pero' avevano almeno qualche features in piu', SSE3 (!), DDR2, Execute Disable Bit, peccato appunto fino all' N450 con un chipset enorme... ricordo poi quello precedente messo nei primi netbook il Celeron M a 630 MHz.. le si provarono tutte ma l' N450 era di sicuro il vero inizio "giusto".
Lato GPU ricordo che almeno nel retrogaming era ok.. il problema del GMA3600 e' che proprio nel retrogaming i problemi sembrano comparire e nel gaming "di quell' epoca" non aveva abbastanza potenza per poter giocare. In piu' imho il sistema operativo unico davvero necessario fu Win 7 Starter. Gia' Win 8.1 imho introduce una GUI che (imho) e' compatibile ma ne paga la retrocompatibilita' 3D e la velocita' dei giochi su questa specifica gpu. Solo una teoria, ma ho notato come alcuni video youtube che mostrano questa gpu hanno diversi risultati in titoli vecchi come appunto 3DMark2000 che pare girare molto piu' veloce su Win 7. Purtroppo non ho quell' o.s. da provare, tra l'altro lo Starter era preinstallato sui netbook e imho non "senza motivi validi".

Si poi se contestualizziamo storicamente, allora si trovavano in giro i primi processori Cortex A8 ma principalmente erano tutti ARM11 figurarsi a confrontarli.

AlexSwitch
19-12-2020, 12:53
Intanto mentre si discute di architetture, ISA e comparazioni, Microsoft sta pensando di dare il ben servito ad Intel per le CPU server e per Surface ( per il momento ).
Dalle dichiarazioni rilasciate pare proprio che a Redmond voglia seguire la strategia e il cammino intrapresi da Apple, ovvero di integrare soluzioni hardware custom disegnate in casa con il proprio software, assumendo un controllo verticale delle soluzioni proposte sul mercato.
" Because silicon is a foundational building block for technology, we’re continuing to invest in our own capabilities in areas like design, manufacturing and tools, while also fostering and strengthening partnerships with a wide range of chip providers... ", Frank Shaw, portavoce Microsoft.
Probabilmente siamo davvero agli inizi di una vera e propria rivoluzione nel mercato IT.

La notizia lanciata da Bloomberg:

https://www.bloomberg.com/news/articles/2020-12-18/microsoft-is-designing-its-own-chips-for-servers-surface-pcs?sref=aGTrSb9U

LMCH
19-12-2020, 17:52
Anche l'Atom N450 integra parecchia altra roba all'interno.

Purtroppo non ho trovato un'analisi dell'N450, ma del predecessore Bonnell (https://en.wikichip.org/wiki/intel/microarchitectures/bonnell), che dovrebbe essere abbastanza simile.
Se guardi l'intero SoC, puoi vedere tu stesso che ci sia una montagna di roba integrata e che occupi di gran lunga più spazio del core della CPU vera e propria (che è propria piccola. Specialmente se ci si ferma ai soli blocchi dell'FPU e dell'ALU).

Sì, è vero che dell'OMAP4430 ha due core A9, ma l'N450 ha HyperThreading, è a 64 bit, con parecchie istruzioni (specialmente SIMD), cache L2 dimezzata. Se guardi la foto del die dell'N450 puoi vedere tu stesso, ed è pure riportato, che la sola cache L2 occupa il 22% dell'area, a fronte del 28% del core vero e proprio. Immagina quanto potrebbe occupare la cache da 1MB dell'OMAP4430.

Io direi che sono confrontabili (e se pensi che l'Atom è pure single channel...).

A me sembrano decisamente differenti. ;)
L'OMAP include anche TUTTA la circuiteria che l'altro ha su un chipset separato eppure complessivamente consuma MOLTO DI MENO.
Non parliamo poi di tutto il resto che rende la cosa come un confronto tra mele ed arance.

cdimauro
20-12-2020, 05:47
Anche l'Atom integra parecchia roba. Se ti vai a vedere il link che ho postato sul predecessore (Bonnell) la componente CPU è decisamente minuscola rispetto a tutto il resto.
Poi nell'N450 di cui abbiamo parlato hanno aggiunto anche il memory controller, il DMI, e soprattutto una GPU che è di gran lunga più potente di quella dell'OMAP, ed è tutta roba che richiede parecchio spazio, oltre a consumare di più.
Per il resto i confronti sono stati fatti esclusivamente sulla CPU, quindi tutto il resto è stato ignorato (anche se ovviamente ci sono sempre parti attive dell'uncore. Sarebbe stato interessante conoscere anche il consumo in idle).

cdimauro
20-12-2020, 07:08
Intanto mentre si discute di architetture, ISA e comparazioni, Microsoft sta pensando di dare il ben servito ad Intel per le CPU server e per Surface ( per il momento ).
Dalle dichiarazioni rilasciate pare proprio che a Redmond voglia seguire la strategia e il cammino intrapresi da Apple, ovvero di integrare soluzioni hardware custom disegnate in casa con il proprio software, assumendo un controllo verticale delle soluzioni proposte sul mercato.
" Because silicon is a foundational building block for technology, we’re continuing to invest in our own capabilities in areas like design, manufacturing and tools, while also fostering and strengthening partnerships with a wide range of chip providers... ", Frank Shaw, portavoce Microsoft.
Probabilmente siamo davvero agli inizi di una vera e propria rivoluzione nel mercato IT.

La notizia lanciata da Bloomberg:

https://www.bloomberg.com/news/articles/2020-12-18/microsoft-is-designing-its-own-chips-for-servers-surface-pcs?sref=aGTrSb9U
Questo commento m'era sfuggito, ma ho già risposto nell'apposito thread. :fagiano:

LMCH
22-12-2020, 10:00
Anche l'Atom integra parecchia roba. Se ti vai a vedere il link che ho postato sul predecessore (Bonnell) la componente CPU è decisamente minuscola rispetto a tutto il resto.
Poi nell'N450 di cui abbiamo parlato hanno aggiunto anche il memory controller, il DMI, e soprattutto una GPU che è di gran lunga più potente di quella dell'OMAP, ed è tutta roba che richiede parecchio spazio, oltre a consumare di più.
Per il resto i confronti sono stati fatti esclusivamente sulla CPU, quindi tutto il resto è stato ignorato (anche se ovviamente ci sono sempre parti attive dell'uncore. Sarebbe stato interessante conoscere anche il consumo in idle).

Il punto è che tra un chip per smartphone/embedded low power che consuma 1.2 Watt di picco con 0.6Watt di TDP ed un altro per roba più grossa che a parità di processo produttivo ha un TDP di 5Watt c'e' una bella differenza e decisamente non sono comparabili, tipo confrontare una Panda 4x4 con un Porche Cayenne, target di mercato decisamente differenti.

cdimauro
23-12-2020, 04:35
Ripeto che non si stavano paragonando i SoC (che integrano pure loro un sacco di roba), ma esclusivamente i core (singoli) dei processori (e infatti sono stati fatti test esclusivamente per testare la componente CPU).

Ho recuperato l'articolo originale (http://www.iuma.ulpgc.es/~nunez/clases-micros-para-com/clases-mpc-slides-links/ISA%20Wars%20RISC%20CISC%20ACM-Blemetal-March2015.pdf), che è molto più interessante perché valuta parecchie altre cose, e riporta pure la dimensione dei soli core.

Piccola correzione da parte mia: l'A9 non è in-order, ma OoO (sempre a due vie).