PDA

View Full Version : I Mac con processori ARM forse in arrivo già dal prossimo anno


Redazione di Hardware Upg
23-02-2019, 12:31
Link alla notizia: https://www.hwupgrade.it/news/apple/i-mac-con-processori-arm-forse-in-arrivo-gia-dal-prossimo-anno_80899.html

Apple starebbe lavorando a un cambiamento notevole che prevede l'arrivo di Mac con processori ARM, con la stessa architettura di quelli presenti in iPhone e iPad. Il lancio dovrebbe avvenire il prossimo anno

Click sul link per visualizzare la notizia.

silviop
23-02-2019, 13:25
..bsd gia' esiste per ARM e tutti i programmi ormai girano a livelli cosi elevati e lontani dall' hardware che se scritti un minimo bene non devono avere problemi.
Considerando anche che apple l'hardware lo fa in casa quindi puo' garantire una esperienza utente ottimale, addio hackintosh!!

the_joe
23-02-2019, 13:51
..bsd gia' esiste per ARM e tutti i programmi ormai girano a livelli cosi elevati e lontani dall' hardware che se scritti un minimo bene non devono avere problemi.
Considerando anche che apple l'hardware lo fa in casa quindi puo' garantire una esperienza utente ottimale, addio hackintosh!!

In effetti davanti a una notizia così, trovare solo da dire "addio hackintosh" è da persone mature e tecnicamente preparate.


Poi lo voglio vedere i Mac Pro con gli arm

dwfgerw
23-02-2019, 14:06
In effetti davanti a una notizia così, trovare solo da dire "addio hackintosh" è da persone mature e tecnicamente preparate.


Poi lo voglio vedere i Mac Pro con gli arm

Il progetto software denominato “Marzipan” gia accennato alla wwdc 2018 e che verrá esteso a tutti gli sviluppatori nella wwdc 2019, punta a far un singolo binario per ogni piattaforma.. questo potrebbe anche lasciar spazio ad arm dove puo esser realmente un vantaggio, senza convertire l’intera gamma mac. Quindi il futuro mac pro modulare atteso per quest’anno, sará molto probabilmente equipaggiato con gli Xeon, come gli attuali imac pro/mac pro.

Gnubbolo
23-02-2019, 14:47
sapendo a cosa server il mac pro direi che non è un problema, quel tipo di software sfrutta molto il multithreading.
potrebbe soffrire chi fa musica, lì ci vuole un clock molto elevato. cpu, bus, memoria tutto deve essere spinto al limite per ridurre il lag.

pabloski
23-02-2019, 17:52
Poi lo voglio vedere i Mac Pro con gli arm

Senza conoscere che tipo di SoC ha intenzione di metterci Apple, è pura speculazione. Non è che ARM è condannata, per qualche legge divina, ad avere un IPC inferiore rispetto a x86.

Gli stessi SoC A di Apple stanno dimostrando questo fatto. Ma ripeto, dipende da come saranno fatti quei SoC. Magari avranno 32-64 core. Le pipeline già sono diventate molto profonde. Le frequenze di clock sono aumentate. La bandwidth della memoria è cresciuta ( il mio smartphone ha una banda di memoria di 29.8 GB/s, di poco inferiore a quella del mio portatile Core i7 6700HQ ). E infatti Android si avvia in meno di un minuto, contro i 3-4 minuti del precedente smartphone che avevo.

Piedone1113
23-02-2019, 18:21
Senza conoscere che tipo di SoC ha intenzione di metterci Apple, è pura speculazione. Non è che ARM è condannata, per qualche legge divina, ad avere un IPC inferiore rispetto a x86.

Gli stessi SoC A di Apple stanno dimostrando questo fatto. Ma ripeto, dipende da come saranno fatti quei SoC. Magari avranno 32-64 core. Le pipeline già sono diventate molto profonde. Le frequenze di clock sono aumentate. La bandwidth della memoria è cresciuta ( il mio smartphone ha una banda di memoria di 29.8 GB/s, di poco inferiore a quella del mio portatile Core i7 6700HQ ). E infatti Android si avvia in meno di un minuto, contro i 3-4 minuti del precedente smartphone che avevo.

Ho appena cronometrato un samsung s4: riavvio del dispositivo in 58 sec ( quindi spegnimento e riavvio).
Ps ho fermato il cronometro quando si è agganciato al wifi ed ho lanciato un game ( partendo il caricamento e non caricandolo tutto). Credo che tu pieghi il tempo alle tue impressioni.

s-y
23-02-2019, 19:29
non chiarissimo (a me per lo meno, dato che non seguo assiduamente) come diventerà questo os unico tra desktop e mobile, specie quando all'inizio sarà misto anche come architettura da supportare

scrivo come speculazione, pur realistica, ma mica cotiche

Bluknigth
23-02-2019, 22:27
C’è da dire che a fronte della rinuncia di qualche applicazione pro, modificando le interfacce grafiche perché siano gestibili con mouse e tastiera, il Mac si apre al parco applicazioni di iOS che è abbastanza sconfinato.

Office per ARM esiste già, Adobe sta pubblicando o dovrebbe pubblicare la sua suite su IPad.

In un uso tipo Mac book, come dispositivo personale e consumer,
credo ci sia tutto quello che serve.

Poi secondo me tante cose si faranno in Cloud, appoggiandosi a piattaforme con architetture dedicate.

E lato autonomia Arm potrebbe segnare una svolta importante.

Bluknigth
24-02-2019, 07:52
@emiliano84

Divertente vedere che non si riescano a cogliere le differenze.
Come spesso le accade Microsoft ha grandi idee ma sbaglia tempi e modi.

Il Surface di 5 anni fa era una macchina che performava molto poco e aveva un parco applicazioni molto ridotto.
Oltretutto uscito nel perfiodo di massimo splendore dei tablet.

Dopo 5 anni in cui i processori ARM hanno visto crescere le loro performance del 50% l’anno, questi sono talmente validi che farebbero rimpiangere i processori Intel sono in ambiti specifici. Questi ultimi hanno aumentato le loro performance di pochi punti percentuali.

Inoltre in questi ultimi anni pullulano servizi cloud in streaming anche per i videogiochi (ps now, Xbox game pass, Nvidia Shield, ecc).

A questo aggiungi che come dicevo iOS ha un parco applicazioni spropositato e che le stesse potrebbero subire un porting davvero semplice cambiando sostanzialmente solo l’interfaccia.

Apple alla fine non ha quasi inventato nulla, ha solo preso idee che già qualcuno aveva realizzato, ha scelto il momento giusto e le ha rese fruibili alle masse.
A volte innovare non è solo inventare qualcosa, ma prendere quello che già esiste e sfruttarlo meglio.

Guccia
24-02-2019, 07:57
..bsd gia' esiste per ARM e tutti i programmi ormai girano a livelli cosi elevati e lontani dall' hardware che se scritti un minimo bene non devono avere problemi.
Considerando anche che apple l'hardware lo fa in casa quindi puo' garantire una esperienza utente ottimale, addio hackintosh!!

Sono perfettamente d'accordo, non potrei spiegarlo meglio.
divertente leggere come cambiano i commenti da windows on arm a mac os on arm :asd:
Per forza sono più ottimistici su MacOS on ARM. Con Apple abbiamo esperienze di grande ottimizzazione, con altri non mi risulta altrettanta armonia hardware/software.

mariacion
24-02-2019, 10:13
Uscì il Macintosh 128k basato sul 68000 con solo il floppy da 3.5 e poco dopo usci Amiga e Atari ST. Che la storia si ripeta con cpu Arm ? MAGARI ! :)

pabloski
24-02-2019, 10:28
Ho appena cronometrato un samsung s4: riavvio del dispositivo in 58 sec ( quindi spegnimento e riavvio).
Ps ho fermato il cronometro quando si è agganciato al wifi ed ho lanciato un game ( partendo il caricamento e non caricandolo tutto). Credo che tu pieghi il tempo alle tue impressioni.

Francamente non ho capito. A parte che stiamo parlando di terminali con rom completamente diverse. Nel mio caso è un Mi 8 Lite.

Detto questo, mi pare di aver parlato chiaro, ovvero ho messo in evidenza il fatto che la banda di memoria è alla pari ( poco di meno ) di quella di una cpu desktop.

Questo per dire che ARM si evolve, non resta ferma. E chi crede ancora all'equazione ARM=calcolatrice, è pesantemente disinformato.

In conclusione, Apple porta la bandiera da tempo in fatto di evoluzione delle architetture ARM. E ci sono fior fiori di articoli sulle testate di settore, che incensano le prestazioni degli ultimi SoC Axx.

pabloski
24-02-2019, 10:32
potrebbero subire un porting davvero semplice

Puoi togliere il condizionale http://gamasutra.com/view/news/337223/Report_Apple_is_working_on_a_new_SDK_for_painless_porting_from_iOS_to_Mac.php

E' evidente che l'obiettivo è la convergenza tra OS mobile e desktop e che ARM comparirà presto sui Mac.

floc
24-02-2019, 15:17
beh in apple hanno ottime chances di riuscire bene nella transizione, sono padroni di hw e sw e la maggior parte dei suoi utenti usa non più di 10 applicazioni e tutti le stesse, tradotte quelle hanno fatto il 90% del lavoro. Del resto già una volta hanno cambiato architettura e non se ne è accorto nessuno. Per ms la musica è molto più complicata, del resto un conto è agire su un 10% di mercato composto da clientela altamente fidelizzata, un altro agire sul 90% con in mezzo sw legacy da quale più meno dipende la civiltà umana :)

aqua84
24-02-2019, 16:06
Per ms la musica è molto più complicata, del resto un conto è agire su un 10% di mercato composto da clientela altamente fidelizzata, un altro agire sul 90% con in mezzo sw legacy da quale più meno dipende la civiltà umana :)
vero... milioni e milioni di computer negli enti pubblici con sopra Word 2003 ad esempio... insostituibile!!

ingframin
24-02-2019, 17:00
UMP = Universal MacOS Platform is coming :p
Vai a vedere che Microsoft ci aveva azzeccato!

floc
24-02-2019, 22:30
vero... milioni e milioni di computer negli enti pubblici con sopra Word 2003 ad esempio... insostituibile!!

o magari milioni e milioni di pc che fanno girare vecchi applicativi aziendali custom, dal gestionale del cavolo a sw aziendali complessi che magari tengono su le linee di produzione. O pensi che girino su mac?

Bluknigth
25-02-2019, 05:39
@emiliano84

Guarda, giusto mi hai fatto venire il dubbio di ricordare male e sono andato a vedere:

‘Windows RT, noto durante lo sviluppo come Windows on ARM o WOA, è un'edizione del sistema operativo Windows 8 di Microsoft, progettata per dispositivi portatili che usano l'architettura ARM.’

Preso da Wikipedia che non è certezza, ma è il primo risultato che ho trovato.

nickname88
25-02-2019, 14:08
Poi lo voglio vedere i Mac Pro con gli arm
L'utenza di riferimento per i loro prodotti generalmente è ignorante sull'intero piano tecnico, se gli scrivi ARM o X86 per loro cambia poco, basta che abbia la mela sul retro e sono apposto.

cdimauro
25-02-2019, 18:59
Senza conoscere che tipo di SoC ha intenzione di metterci Apple, è pura speculazione. Non è che ARM è condannata, per qualche legge divina, ad avere un IPC inferiore rispetto a x86.
Concettualmente no, ma a livello pratico (implementazione) l'architettura ha il suo peso e può rendere difficile arrivare a livelli prestazionali similari.

Per maggiori informazioni vedi sotto, il link che ho fornito.
Gli stessi SoC A di Apple stanno dimostrando questo fatto. Ma ripeto, dipende da come saranno fatti quei SoC. Magari avranno 32-64 core. Le pipeline già sono diventate molto profonde. Le frequenze di clock sono aumentate. La bandwidth della memoria è cresciuta ( il mio smartphone ha una banda di memoria di 29.8 GB/s, di poco inferiore a quella del mio portatile Core i7 6700HQ ). E infatti Android si avvia in meno di un minuto, contro i 3-4 minuti del precedente smartphone che avevo.
Sono discorsi che sono stati affrontati qui parecchie volte dove si è parlato di ARM su Mac in altri thread/notizie, e non mi va di ripetermi nuovamente.

Se ne parla da un po' anche nel forum amighista più famoso, ed ecco un interessante post (http://https://amigaworld.net/modules/newbb/viewtopic.php?mode=viewtopic&topic_id=43101&forum=2&start=220&viewmode=flat&order=0#821887) che è stato scritto giusto stanotte (matthey è un esperto di architetture. Ma ciò che conta, ovviamente, è il contenuto e i fatti che porta).

s-y
25-02-2019, 19:17
sarebbe anche da capire se è confermato che vogliano migrare tutto
fatto salvo che ormai di roba 'veramente' ad alte prestazioni non ce ne sia moltissima

inoltre (ma correggi se sbaglio) gli ambiti dove realmente conviene un alto ipc sono relegati ad una nicchia. e non mi pare che apple sia ultimamente famosa per puntare alle esigenze specifiche

cdimauro
25-02-2019, 21:11
Per Apple è sufficiente una CPU abbastanza generalista da farci girare la stragrande maggioranza delle applicazioni, e facendosi già tutto in casa è scontato che i frutti di tutto questo lavoro arriveranno anche sul versante desktop.

Però senza prestazioni elevate (e qui non parlo soltanto di IPC, ma anche di processare parecchi dati, con unità SIMD "cazzute", giusto per essere chiari) potrebbe perdere mercati importanti, come quello dei professionisti (quello dei server l'ha già perso anni fa, perché MacOS X ha sempre mostrato prestazioni ridicole paragonate a Linux e perfino a Windows).

Perderebbe anche l'utenza che ha bisogno o vuole poter far girare anche Windows per i giochi e/o le applicazioni più importanti che mancano, e qui potrebbe ricevere una bella botta effettivamente, visto che, esattamente al contrario, passando da PowerPC a Intel ha guadagnato quote di mercato grazie a BootCamp.

cdimauro
25-02-2019, 21:26
Un altro interessante post di matthey (https://amigaworld.net/modules/newbb/viewtopic.php?mode=viewtopic&topic_id=43101&forum=2&start=220&viewmode=flat&order=0#821908) su x86 vs ARM (vs POWER/PowerPC vs Alpha). Enjoy. ;)

nickname88
26-02-2019, 09:26
Per Apple è sufficiente una CPU abbastanza generalista da farci girare la stragrande maggioranza delle applicazioni, e facendosi già tutto in casa è scontato che i frutti di tutto questo lavoro arriveranno anche sul versante desktop.

Però senza prestazioni elevate (e qui non parlo soltanto di IPC, ma anche di processare parecchi dati, con unità SIMD "cazzute", giusto per essere chiari) potrebbe perdere mercati importanti, come quello dei professionisti (quello dei server l'ha già perso anni fa, perché MacOS X ha sempre mostrato prestazioni ridicole paragonate a Linux e perfino a Windows).

Perderebbe anche l'utenza che ha bisogno o vuole poter far girare anche Windows per i giochi e/o le applicazioni più importanti che mancano, e qui potrebbe ricevere una bella botta effettivamente, visto che, esattamente al contrario, passando da PowerPC a Intel ha guadagnato quote di mercato grazie a BootCamp.Perchè secondo te un professionista che necessita di una workstation si affida a quel portaombrelli throttling queen del Mac Pro ? O all'iMac Pro che per giunta è limitato negli upgrades ? :rolleyes:
E chi gioca poi in genere non si compera un Apple per farci girare sù Windows.

Ci sono utenze che fan l'una e l'altra cosa sia chiaro, però la domanda di questi ultimi non è di certo così marcata rispetto al resto. La questione del bootcamp ha avuto successo in un epoca differente.

recoil
26-02-2019, 09:56
Per Apple è sufficiente una CPU abbastanza generalista da farci girare la stragrande maggioranza delle applicazioni, e facendosi già tutto in casa è scontato che i frutti di tutto questo lavoro arriveranno anche sul versante desktop.

Però senza prestazioni elevate (e qui non parlo soltanto di IPC, ma anche di processare parecchi dati, con unità SIMD "cazzute", giusto per essere chiari) potrebbe perdere mercati importanti, come quello dei professionisti (quello dei server l'ha già perso anni fa, perché MacOS X ha sempre mostrato prestazioni ridicole paragonate a Linux e perfino a Windows).

Perderebbe anche l'utenza che ha bisogno o vuole poter far girare anche Windows per i giochi e/o le applicazioni più importanti che mancano, e qui potrebbe ricevere una bella botta effettivamente, visto che, esattamente al contrario, passando da PowerPC a Intel ha guadagnato quote di mercato grazie a BootCamp.

secondo te quanto è come percentuale di mercato quella di cui parli?
io non ho assolutamente numeri alla mano ma se devo tirare a indovinare penso piuttosto bassa e già il Mac è una percentuale non significativa del loro fatturato

penso che sia evidente la loro spinta verso il mercato consumer, è vero che faranno uscire un Mac Pro e ci sono gli iPad pro, ma i grossi numeri li fanno con iPhone e anche a livello di iPad vendono molto di più il modello entry level

a parole dicono di tenere molto ai professionisti, ma intanto hanno fatto un bel flop con l'ultimo Mac Pro e il nuovo uscirà quest'anno non si sa quando, con tutta calma... non penso quindi che perdano il sonno pensando a chi li abbandonerà perché ha bisogno del dual boot con Windows, inoltre la transizione durerà qualche anno, il nuovo Pro sarà quasi sicuramente Intel e quindi quel tipo di utenza non è detto che la perdano subito

io è da anni che sono convinto del passaggio a ARM ma non perché mi sta sulle balle Intel, semplicemente credo di aver capito come ragiona Apple e non penso che la mossa sia così sbagliata, proprio perché è cambiato il mercato a cui si rivolgono

cdimauro
26-02-2019, 17:08
Perchè secondo te un professionista che necessita di una workstation si affida a quel portaombrelli throttling queen del Mac Pro ? O all'iMac Pro che per giunta è limitato negli upgrades ? :rolleyes:
Direi proprio di sì, altrimenti non venderebbero.
E chi gioca poi in genere non si compera un Apple per farci girare sù Windows.
Lo compra per farci girare ANCHE Windows.
Ci sono utenze che fan l'una e l'altra cosa sia chiaro, però la domanda di questi ultimi non è di certo così marcata rispetto al resto. La questione del bootcamp ha avuto successo in un epoca differente.
Ha avuto successo, ed è stato il successo dei Mac x86 che li hanno portati ad occupare le attuali quote di mercato.
secondo te quanto è come percentuale di mercato quella di cui parli?
io non ho assolutamente numeri alla mano ma se devo tirare a indovinare penso piuttosto bassa e già il Mac è una percentuale non significativa del loro fatturato
E' comunque una percentuale importante, che consente a Apple di diversificare.

Quanto alle quote di mercato, Apple viaggiava sul 2% prima di approdare a Intel, che nel giro di pochi anni sono triplicati.
penso che sia evidente la loro spinta verso il mercato consumer, è vero che faranno uscire un Mac Pro e ci sono gli iPad pro, ma i grossi numeri li fanno con iPhone e anche a livello di iPad vendono molto di più il modello entry level
Senz'altro.
a parole dicono di tenere molto ai professionisti, ma intanto hanno fatto un bel flop con l'ultimo Mac Pro e il nuovo uscirà quest'anno non si sa quando, con tutta calma...
Ciò non toglie che tanti professionisti che lavorano nel campo della grafica usino Mac.
non penso quindi che perdano il sonno pensando a chi li abbandonerà perché ha bisogno del dual boot con Windows,
Al momento potrebbero anche fregarsene, visto che i soldi li prendono da iOS, per l'appunto. Ma legarsi mani e piedi soltanto a questo tipo di prodotti potrebbe risultare letale se il mercato cambiasse repentinamente.

I Mac comunque vendono lo stesso, e non hanno grossi scossoni, per cui sono una solida fetta di mercato su cui Apple può contare anche in caso di crisi.
inoltre la transizione durerà qualche anno, il nuovo Pro sarà quasi sicuramente Intel e quindi quel tipo di utenza non è detto che la perdano subito
Sicuramente. Anch'io penso che la transizione comincerà dai modelli entry-level, per poi estendersi man mano a tutti i modelli, quando Apple sfornerà chip A con prestazioni più elevate.
io è da anni che sono convinto del passaggio a ARM ma non perché mi sta sulle balle Intel, semplicemente credo di aver capito come ragiona Apple e non penso che la mossa sia così sbagliata, proprio perché è cambiato il mercato a cui si rivolgono
Più che altro ormai Apple si sta facendo tutto in casa e ha tirato fuori degli ottimi processori. Considerato che Apple produce pochi prodotti e li ottimizza per bene con suo software, in un bel "walled garden" da fornire agli utenti, una mossa del genere ha perfettamente senso.

recoil
27-02-2019, 08:36
Più che altro ormai Apple si sta facendo tutto in casa e ha tirato fuori degli ottimi processori. Considerato che Apple produce pochi prodotti e li ottimizza per bene con suo software, in un bel "walled garden" da fornire agli utenti, una mossa del genere ha perfettamente senso.

la prossima mossa penso proprio sarà sulla componente 5g, dato che il grosso dei loro prodotti è cellular tra iPhone, Watch e iPad ci sta che vogliano prendere in carico anche una delle parti più delicate e importanti, solo che ci vorranno anni per una cosa del genere e non so a che punto siano

nickname88
27-02-2019, 12:08
Direi proprio di sì, altrimenti non venderebbero.

infatti questi prodotti non rappresentano il core business di Apple e chi lo compra di certo non lo fa per esigenze professionali quanto invece di immagine o quando necessità di sviluppare qualcosa destinato allo stesso ambiente.

Lo compra per farci girare ANCHE Windows.Buona parte di questi ultimi ci mette Windows e basta, altrimenti non si spiega come mai nonostante il boom di vendite dei PC Apple, MacOS è sempre ancorato al 10%, quindi immagine a parte queste utenze non necessitano di avere il Mac pro.

Ha avuto successo, ed è stato il successo dei Mac x86 che li hanno portati ad occupare le attuali quote di mercato.Successo perchè si è ampliato il parco software, il passaggio ad ARM non necessariamente implicherà una contrazione di quest'ultimo, senza contare che ancora non si conoscono i dettagli, molti applicativi potrebbero girare sotto ARM tramite emulazione come è per Windows per ARM.

Ciò non toglie che tanti professionisti che lavorano nel campo della grafica usino Mac.La grafica necessità di un display fedele, non di un HW marchiato Apple nè che il display debba essere altrettanto.
E di software di grafica su Windows non mancano.

cdimauro
27-02-2019, 17:48
la prossima mossa penso proprio sarà sulla componente 5g, dato che il grosso dei loro prodotti è cellular tra iPhone, Watch e iPad ci sta che vogliano prendere in carico anche una delle parti più delicate e importanti, solo che ci vorranno anni per una cosa del genere e non so a che punto siano
Non è un mistero che Apple stia già lavorando a un proprio modem LTE/5G, visto che ha assunto ingegneri in quest'area. Ci vorrà un po' di tempo, perché questi modem sono molto complessi (occupano un'area di gran lunga più grande rispetto a quella processore, se vai a vedere alcuni screenshot di chip Qualcomm).
infatti questi prodotti non rappresentano il core business di Apple e chi lo compra di certo non lo fa per esigenze professionali quanto invece di immagine o quando necessità di sviluppare qualcosa destinato allo stesso ambiente.
Il core business di Apple ormai è altro, e mi pare che qui siamo tutti d'accordo.
Buona parte di questi ultimi ci mette Windows e basta, altrimenti non si spiega come mai nonostante il boom di vendite dei PC Apple, MacOS è sempre ancorato al 10%, quindi immagine a parte queste utenze non necessitano di avere il Mac pro.
MacOS era al 2% (in totale) quando i Mac montavano i PowerPC, come già detto. Ha triplicato (ma non mi pare che sia al 10%) i numeri soltanto dopo il passaggio a Intel.

I MacPro chiaramente rappresentano una fetta più piccola. Prima, come adesso.
Successo perchè si è ampliato il parco software,
Il parco software si è ampliato anche perché gli sviluppatori hanno potuto riciclare codice x86, mentre prima dovevano scriverlo appositamente per PowerPC (e Altivec per l'elaborazione SIMD, che è abbastanza diversa dalle estensioni SSE di Intel).
il passaggio ad ARM non necessariamente implicherà una contrazione di quest'ultimo, senza contare che ancora non si conoscono i dettagli, molti applicativi potrebbero girare sotto ARM tramite emulazione come è per Windows per ARM.
L'emulazione sarà sempre ben lenta. La puoi utilizzare proficuamente per software che non richieda prestazioni elevate e/o tempi di risposta più rapidi.

Quindi i giochi sono già esclusi in partenza.
La grafica necessità di un display fedele, non di un HW marchiato Apple nè che il display debba essere altrettanto.
E di software di grafica su Windows non mancano.
Certamente, ma se tanti grafici usano lo stesso dei Mac ci sarà qualche motivo.

nickname88
28-02-2019, 10:58
MacOS era al 2% (in totale) quando i Mac montavano i PowerPC, come già detto. Ha triplicato (ma non mi pare che sia al 10%) i numeri soltanto dopo il passaggio a Intel.

I MacPro chiaramente rappresentano una fetta più piccola. Prima, come adesso.
Apple anche in passato aveva una fetta maggiore delle distro Linux, 2% mi pare estremamente esiguo, ma a parte ciò, il passaggio ad x86 non è recente.

Una volta arrivati al 10% poi ci sono rimasti fissi nonostante Apple arrivasse ad essere con gli anni il 3° produttore di "PC". Non sono quindi più progrediti nonostante il continuo aumento delle vendite.

Anche ogni volta che tira fuori un nuovo macbook, un nuovo imac o mac pro non salgono mai in modo significativo ed anzi sale Windows, quindi è difficile pensare che non ci sia una buona fetta che compra i loro prodotti solo per estetica ed immagine e ci installa Windows come unico sistema o assieme ma tenendolo come sistema principale.

Questi ultimi potrebbero far tranquillamente a meno di un HW Apple.
Gli altri invece non sò a quanto ammontino, ma a quanto pare numeri trascurabili.

L'emulazione sarà sempre ben lenta. La puoi utilizzare proficuamente per software che non richieda prestazioni elevate e/o tempi di risposta più rapidi.

Quindi i giochi sono già esclusi in partenza.Lenta ?
Avere un ARM è già di per sè sinonimo di scarse performance.
La verità è che ad un utenza cui poco interessa dell'HW che monta l'Apple di turno, poco gli importa questo aspetto.

Giochi esclusi ? Perchè fino ad ora erano inclusi ?
A parte qualche titolo in croce c'è ben poco su piattaforma Apple ora, e se ci sarà ancora meno in futuro poco importerà.

Certamente, ma se tanti grafici usano lo stesso dei Mac ci sarà qualche motivo.Usano l'Apple in generale o usano l'iMac ?

NewEconomy
28-02-2019, 20:15
Apple anche in passato aveva una fetta maggiore delle distro Linux, 2% mi pare estremamente esiguo, ma a parte ciò, il passaggio ad x86 non è recente.

Una volta arrivati al 10% poi ci sono rimasti fissi nonostante Apple arrivasse ad essere con gli anni il 3° produttore di "PC". Non sono quindi più progrediti nonostante il continuo aumento delle vendite.

Anche ogni volta che tira fuori un nuovo macbook, un nuovo imac o mac pro non salgono mai in modo significativo ed anzi sale Windows, quindi è difficile pensare che non ci sia una buona fetta che compra i loro prodotti solo per estetica ed immagine e ci installa Windows come unico sistema o assieme ma tenendolo come sistema principale.

Questi ultimi potrebbero far tranquillamente a meno di un HW Apple.
Gli altri invece non sò a quanto ammontino, ma a quanto pare numeri trascurabili.

Lenta ?
Avere un ARM è già di per sè sinonimo di scarse performance.
La verità è che ad un utenza cui poco interessa dell'HW che monta l'Apple di turno, poco gli importa questo aspetto.

Giochi esclusi ? Perchè fino ad ora erano inclusi ?
A parte qualche titolo in croce c'è ben poco su piattaforma Apple ora, e se ci sarà ancora meno in futuro poco importerà.

Usano l'Apple in generale o usano l'iMac ?


Sicuramente in quanto a quote di mercato, Apple è “poco diffusa” e vende sicuramente meno dei competitor...Però in quanto a ricavi com’è messa? Io credo decisamente bene



Windows è più diffuso perchè la maggior parte dell’hardware venduti è comprato al supermercato o in grandi catene di distribuzione, prodotti di scarsissima qualità e fascia bassa e bassissima.


Bisognerebbe sapere i dati di vendita dei portatili da 1500€ in su, sarebbe curioso vedere il reale market share di Apple


Per quanto riguarda ARM, si è chiaramente visto come su iPad Pro e con A12X in alcuni specificissimi ambiti riesce a dare prestazioni uguali se non superiori alla grandissima parte di x86

cdimauro
28-02-2019, 21:57
Apple anche in passato aveva una fetta maggiore delle distro Linux, 2% mi pare estremamente esiguo, ma a parte ciò, il passaggio ad x86 non è recente.

Una volta arrivati al 10% poi ci sono rimasti fissi nonostante Apple arrivasse ad essere con gli anni il 3° produttore di "PC". Non sono quindi più progrediti nonostante il continuo aumento delle vendite.
Ecco qui: https://en.wikipedia.org/wiki/Macintosh#Market_share_and_user_demographics
Anche ogni volta che tira fuori un nuovo macbook, un nuovo imac o mac pro non salgono mai in modo significativo ed anzi sale Windows, quindi è difficile pensare che non ci sia una buona fetta che compra i loro prodotti solo per estetica ed immagine e ci installa Windows come unico sistema o assieme ma tenendolo come sistema principale.

Questi ultimi potrebbero far tranquillamente a meno di un HW Apple.
Gli altri invece non sò a quanto ammontino, ma a quanto pare numeri trascurabili.
Non so perché la gente compri Macintosh e cosa ci faccia, e francamente non m'interessa nemmeno.
Lenta ?
Avere un ARM è già di per sè sinonimo di scarse performance.
La verità è che ad un utenza cui poco interessa dell'HW che monta l'Apple di turno, poco gli importa questo aspetto.
Sarebbe vero, ma allora a che pro sviluppare SoC sempre più potenti?
Giochi esclusi ? Perchè fino ad ora erano inclusi ?
A parte qualche titolo in croce c'è ben poco su piattaforma Apple ora, e se ci sarà ancora meno in futuro poco importerà.
Parlavo del fatto che installando Windows hanno accesso a tutto il suo parco software, giochi (specialmente) inclusi.
Usano l'Apple in generale o usano l'iMac ?
Non ne ho idea.
Sicuramente in quanto a quote di mercato, Apple è “poco diffusa” e vende sicuramente meno dei competitor...Però in quanto a ricavi com’è messa? Io credo decisamente bene
Probabilmente sta in cima.
Bisognerebbe sapere i dati di vendita dei portatili da 1500€ in su, sarebbe curioso vedere il reale market share di Apple
Se non ricordo male, Apple dovrebbe dominare.
Per quanto riguarda ARM, si è chiaramente visto come su iPad Pro e con A12X in alcuni specificissimi ambiti riesce a dare prestazioni uguali se non superiori alla grandissima parte di x86
Ne abbiamo già parlato qui in passato, quando sono state pubblicate notizie in merito: sono test che lasciano il tempo che trovano.

NewEconomy
28-02-2019, 22:01
Ecco qui: https://en.wikipedia.org/wiki/Macintosh#Market_share_and_user_demographics

Non so perché la gente compri Macintosh e cosa ci faccia, e francamente non m'interessa nemmeno.

Sarebbe vero, ma allora a che pro sviluppare SoC sempre più potenti?

Parlavo del fatto che installando Windows hanno accesso a tutto il suo parco software, giochi (specialmente) inclusi.

Non ne ho idea.

Probabilmente sta in cima.

Se non ricordo male, Apple dovrebbe dominare.

Ne abbiamo già parlato qui in passato, quando sono state pubblicate notizie in merito: sono test che lasciano il tempo che trovano.

Beh dalle notizie hanno fatto capire che questo A12X fosse più potente dei Notebook...

Ovviamente non è affatto così, ma se analizzati attentamente fanno capire come in specifici lavori grafici hanno la meglio su i5/i7 vari. Lavori ultra specifici chiaramente!

cdimauro
01-03-2019, 06:00
Quei test grafici di cui parli sono completamente sballati perché sui chip Apple viene usata l'accelerazione hardware (anche la GPU, se non ricordo male), mentre su quelli Intel soltanto la CPU.

Come dicevo prima, ne abbiamo parlato anche qui tempo fa, quando fu riportata la notizia.

E come amo ripetere da tanto tempo ormai, è meglio effettuare dei test su delle applicazioni reali, disponibili per entrambe le piattaforme da testare. E ovviamente messe nelle stesse condizioni (niente accelerazione da una parte e zero dall'altra).

NewEconomy
01-03-2019, 06:49
vedremo quando uscira' photoshop "full" su ipad, quanto tempo ci mette ad applicare un corposo numero di filtri su una grossa immagine rispetto ad un pc

Questo sarà estremamente interessante...Voglio vedere come ottimizzano i 4/6 GB di RAM di iPad Pro. Su Windows a volte 8 GB sono risicati

insane74
01-03-2019, 07:01
Domanda stupida: per quanto “potenti” i chip montati su iPhone/iPad, sono sempre “castrati” dal consumo energetico che possono richiedere, dalla dissipazione del calore che possono generare. Una CPU ARM “made by Apple” da mettere in un desktop che ha tutt’altre possibilità energetiche/di smaltimento de calore, non potrebbe essere performante “il giusto” con applicazioni compilate x ARM?
Nel senso che potrebbero non esserci differenze significative/percepibili con cpu x86 nel daily use (non prendo in considerazione programmi emulati perché ovviamente il calo di performance è scontato).:fagiano:

omerook
01-03-2019, 07:51
Domanda stupida: per quanto “potenti” i chip montati su iPhone/iPad, sono sempre “castrati” dal consumo energetico che possono richiedere, dalla dissipazione del calore che possono generare. Una CPU ARM “made by Apple” da mettere in un desktop che ha tutt’altre possibilità energetiche/di smaltimento de calore, non potrebbe essere performante “il giusto” con applicazioni compilate x ARM?
Nel senso che potrebbero non esserci differenze significative/percepibili con cpu x86 nel daily use (non prendo in considerazione programmi emulati perché ovviamente il calo di performance è scontato).:fagiano:
il daily
use si è già spostato sui device mobili quindi nessuno si accorgerebbe della differenza. anzi molti che usano tablet e smartphone di ultima generazione dicono di non usare più i vecchi PC per alcune cose perché sono più lenti.

nickname88
01-03-2019, 09:04
Sicuramente in quanto a quote di mercato, Apple è “poco diffusa” e vende sicuramente meno dei competitor...Però in quanto a ricavi com’è messa? Io credo decisamente bene



Windows è più diffuso perchè la maggior parte dell’hardware venduti è comprato al supermercato o in grandi catene di distribuzione, prodotti di scarsissima qualità e fascia bassa e bassissima.


Bisognerebbe sapere i dati di vendita dei portatili da 1500€ in su, sarebbe curioso vedere il reale market share di Apple


Per quanto riguarda ARM, si è chiaramente visto come su iPad Pro e con A12X in alcuni specificissimi ambiti riesce a dare prestazioni uguali se non superiori alla grandissima parte di x86
Ciao Adapter :rolleyes:

Beh dalle notizie hanno fatto capire che questo A12X fosse più potente dei Notebook...

Ovviamente non è affatto così, ma se analizzati attentamente fanno capire come in specifici lavori grafici hanno la meglio su i5/i7 vari. Account nuovo ... cavolate vecchie.
Sei sempre il solito.

NewEconomy
01-03-2019, 10:14
Ciao Adapter :rolleyes:

Account nuovo ... cavolate vecchie.
Sei sempre il solito.

Ancora con sta roba? Ma basta spero che i mod prendano provvedimenti

pabloski
01-03-2019, 10:53
per quanto “potenti” i chip montati su iPhone/iPad, sono sempre “castrati” dal consumo energetico che possono richiedere, dalla dissipazione del calore che possono generare. Una CPU ARM “made by Apple” da mettere in un desktop che ha tutt’altre possibilità energetiche/di smaltimento de calore, non potrebbe essere performante “il giusto” con applicazioni compilate x ARM?


Ma infatti. E' quello che dico da tempo. Non è le architetture ARM sono per volontà divina rinchiuse nella nicchia delle calcolatrice. Purtroppo molta gente questo non lo capisce e francamente sempre non sapere nemmeno cos'è ARM e come lavora ( molti pensano che sia una ditta che produce e vende chip ).

ARMv8 è stata creata apposta. Si sono pure arrischiati a realizzare architetture out of order. Apple ha dimostrato che SoC ARM potenti si possono creare. Penso non ci sia bisogno di altro per concludere che ARM ha le carte in regola per raggiungere le prestazioni tipiche dei PC.

nickname88
01-03-2019, 10:56
Ancora con sta roba? Ma basta spero che i mod prendano provvedimenti
Segnala pure, segnala.
Noi intanto aggiorniamo la lista dei tuoi fake account : https://www.hwupgrade.it/forum/showpost.php?p=45102467&postcount=302 :read:

domthewizard
01-03-2019, 11:04
probabilmente è una cosa che fregherà 0 al 99% degli utenti macos, ma... bootcamp che fine farà? :stordita:

NewEconomy
01-03-2019, 11:15
Ma infatti. E' quello che dico da tempo. Non è le architetture ARM sono per volontà divina rinchiuse nella nicchia delle calcolatrice. Purtroppo molta gente questo non lo capisce e francamente sempre non sapere nemmeno cos'è ARM e come lavora ( molti pensano che sia una ditta che produce e vende chip ).

ARMv8 è stata creata apposta. Si sono pure arrischiati a realizzare architetture out of order. Apple ha dimostrato che SoC ARM potenti si possono creare. Penso non ci sia bisogno di altro per concludere che ARM ha le carte in regola per raggiungere le prestazioni tipiche dei PC.

Bravo, è quello il punto centrale!


Vedremo con Windows e Qualcomm cosa saranno in grado di fare con una dissipazione attiva

TheDarkAngel
01-03-2019, 13:31
p.s.
magari ci faranno girare Windows on ARM :D

Alla fine diventa inception dato che le app x86 su woa sono già wrappate/emulate :eek:
Si fa largamente prima a comprare una macchina normale.

domthewizard
01-03-2019, 15:31
non ti credere, molto piu' dell 1% hanno il mac con windows installato con o senza bootcamp ... non ti e' mai capitato di vedere un bel mac con windows? piu' che altro la domanda e' cosa faranno i possessori di mac abituati ad usare (anche) windows?

p.s.
magari ci faranno girare Windows on ARM :D

dei vari mac mini che ho avuto solo il primo anno circa ho usato mac os, poi windows :fagiano:

oatmeal
01-03-2019, 15:51
dei vari mac mini che ho avuto solo il primo anno circa ho usato mac os, poi windows :fagiano:

Questa è una cosa che non capirò mai, prendere un Mac per usare Windows. Premetto che non ho mai visto nessuno farlo ma di certo non faccio statistica ma che senso ha? Se ti serve Windows non prendi Mac e se ti pace il Mac, a me piace l’os, che te ne fai di Windows?

NewEconomy
01-03-2019, 16:00
Questa è una cosa che non capirò mai, prendere un Mac per usare Windows. Premetto che non ho mai visto nessuno farlo ma di certo non faccio statistica ma che senso ha? Se ti serve Windows non prendi Mac e se ti pace il Mac, a me piace l’os, che te ne fai di Windows?

Infatti, è una scelta ILLOGICA E completamente insensata...

Si acquista un Mac con il principale vantaggio di avere Mac OS (e Windows se si vuole)...Comprare HW comunque sovraprezzato, pagando vantaggi che non si useranno mai...Non ha il minimo senso logico


Io non dico di installare anche Windows, ma usare SOLO Windows proprio non ha nessun senso..Non comprare un Mac

gioloi
01-03-2019, 16:11
Beh, gli iMac AIO hanno una linea spettacolare.
Per motivi di immagine, potrei pensare che realtà professionali che usano applicativi sotto Windows, ma vogliono far colpo sulla clientela, possano anche fare questa scelta.
Si tratterebbe comunque di una minoranza della minoranza, ma non lo vedo poi così assurdo.

biometallo
01-03-2019, 16:21
Domanda stupida: per quanto “potenti” i chip montati su iPhone/iPad, sono sempre “castrati” dal consumo energetico che possono richiedere, dalla dissipazione del calore che possono generare. Una CPU ARM “made by Apple” da mettere in un desktop che ha tutt’altre possibilità energetiche/di smaltimento de calore, non potrebbe essere performante “il giusto” con applicazioni compilate x ARM?
Nel senso che potrebbero non esserci differenze significative/percepibili con cpu x86 nel daily use (non prendo in considerazione programmi emulati perché ovviamente il calo di performance è scontato).:fagiano:

Da ignorante in materia di cpu (a dire il vero sono un vero ignorantolo e la mia ignoranza spazia a 360 gradi, chiedimi pure un qualunque argomento che tanto io non lo so :D )
trovo il tuo discorso corretto sul mobile, d'altronde neanche gli Atom per tablet o 2in1 sono processori che per forza di cose NON possono competere con un i9 otto core magari raffreddato a liquido o comunque da un imponente dissipatore ad aria...
Ma per i server?
Anni or sono si fece un gran parlare di server basati su ARM il tizio di ARM mi pare che oso perfino dire che avrebbero spazzato via Intel dal mercato entro il 2015... siamo nel 2019 di server basati su ARM si parla pochissimo e da quel che so i vari processori da 32 o 64 core ARM non hanno mai potuto avvicinarsi all'IPC degli Xeon e il fatturato di Intel non è mai stato così roseo.

Vedremo cosa succederà in futuro e quali processori Apple tirerà fuori, ma per ora credo sia oggettivo dire che le cpu ARM siano competitivi solo sui bassi consumi.

NewEconomy
01-03-2019, 16:28
Beh, gli iMac AIO hanno una linea spettacolare.
Per motivi di immagine, potrei pensare che realtà professionali che usano applicativi sotto Windows, ma vogliono far colpo sulla clientela, possano anche fare questa scelta.
Si tratterebbe comunque di una minoranza della minoranza, ma non lo vedo poi così assurdo.

Più o meno eh...

Metti che il cliente si accorge che usi Windows costantemente, ti prende per idiota o crede che il Mac sia “tarocco”...


Comunque, come AiO ci sono anche Windows che hanno una linea a dir poco spettacolare...Ad esempio HP Élite One G1, HP Envy 34 Curve o direttamente il fantastico Surface Studio 2

domthewizard
01-03-2019, 16:37
Questa è una cosa che non capirò mai, prendere un Mac per usare Windows. Premetto che non ho mai visto nessuno farlo ma di certo non faccio statistica ma che senso ha? Se ti serve Windows non prendi Mac e se ti pace il Mac, a me piace l’os, che te ne fai di Windows?
avevo bisogno dei mac mini perchè non avendo spazio per un pc normale quelli potevo metterli sotto al monitor. poi quando sono usciti i vari minipc tipo i vivopc della asus ho cambiato :D

insane74
01-03-2019, 16:38
Da ignorante in materia di cpu (a dire il vero sono un vero ignorantolo e la mia ignoranza spazia a 360 gradi, chiedimi pure un qualunque argomento che tanto io non lo so :D )
trovo il tuo discorso corretto sul mobile, d'altronde neanche gli Atom per tablet o 2in1 sono processori che per forza di cose NON possono competere con un i9 otto core magari raffreddato a liquido o comunque da un imponente dissipatore ad aria...
Ma per i server?
Anni or sono si fece un gran parlare di server basati su ARM il tizio di ARM mi pare che oso perfino dire che avrebbero spazzato via Intel dal mercato entro il 2015... siamo nel 2019 di server basati su ARM si parla pochissimo e da quel che so i vari processori da 32 o 64 core ARM non hanno mai potuto avvicinarsi all'IPC degli Xeon e il fatturato di Intel non è mai stato così roseo.

Vedremo cosa succederà in futuro e quali processori Apple tirerà fuori, ma per ora credo sia oggettivo dire che le cpu ARM siano competitivi solo sui bassi consumi.

vero, di server ARM non se ne vedono.
ma qui sorge altra domanda ignorante: per ARM si intendono tutte le CPU con questa architettura o si sta parlando di quelle "specifiche" di Apple? tipo A11XFUSIONNUCLEARBLASTER? :D

perché per esempio i Qualcomm sono basati su ARM (i vari Snapdragon degli smartphone Android), ma anche gli A1x di Apple...
dai bench di confronto tra le due "implementazioni" si notano notevoli differenze dove spesso si vede la versione Qualcomm prendere batoste dalla versione Apple (soprattutto sul multicore, mi pare di ricordare).
ora, perché queste differenze (considerando anche che di norma le CPU Apple girano a clock inferiori)?
implementazioni "migliori" della stessa architettura?
è quindi ipotizzabile che un'eventuale CPU desktop basata su ARM ma "made by Apple" abbia prestazioni "migliori" prendendo come spunto quanto avviene nel mobile?

quanto sopra è detto sempre e comunque col totale beneficio dell'ignoranza. :D

domthewizard
01-03-2019, 16:40
vero, di server ARM non se ne vedono.
ma qui sorge altra domanda ignorante: per ARM si intendono tutte le CPU con questa architettura o si sta parlando di quelle "specifiche" di Apple? tipo A11XFUSIONNUCLEARBLASTER? :D

perché per esempio i Qualcomm sono basati su ARM (i vari Snapdragon degli smartphone Android), ma anche gli A1x di Apple...
dai bench di confronto tra le due "implementazioni" si notano notevoli differenze dove spesso si vede la versione Qualcomm prendere batoste dalla versione Apple (soprattutto sul multicore, mi pare di ricordare).
ora, perché queste differenze (considerando anche che di norma le CPU Apple girano a clock inferiori)?
implementazioni "migliori" della stessa architettura?
è quindi ipotizzabile che un'eventuale CPU desktop basata su ARM ma "made by Apple" abbia prestazioni "migliori" prendendo come spunto quanto avviene nel mobile?

quanto sopra è detto sempre e comunque col totale beneficio dell'ignoranza. :D
ho letto di recente che ms sta spingendo per dei tablet con soc qualcomm, quindi potrebbe essere che mac os è ottimizzato per gli arm proprietari

NewEconomy
01-03-2019, 16:43
Beh, gli iMac AIO hanno una linea spettacolare.
Per motivi di immagine, potrei pensare che realtà professionali che usano applicativi sotto Windows, ma vogliono far colpo sulla clientela, possano anche fare questa scelta.
Si tratterebbe comunque di una minoranza della minoranza, ma non lo vedo poi così assurdo.

vero, di server ARM non se ne vedono.
ma qui sorge altra domanda ignorante: per ARM si intendono tutte le CPU con questa architettura o si sta parlando di quelle "specifiche" di Apple? tipo A11XFUSIONNUCLEARBLASTER? :D

perché per esempio i Qualcomm sono basati su ARM (i vari Snapdragon degli smartphone Android), ma anche gli A1x di Apple...
dai bench di confronto tra le due "implementazioni" si notano notevoli differenze dove spesso si vede la versione Qualcomm prendere batoste dalla versione Apple (soprattutto sul multicore, mi pare di ricordare).
ora, perché queste differenze (considerando anche che di norma le CPU Apple girano a clock inferiori)?
implementazioni "migliori" della stessa architettura?
è quindi ipotizzabile che un'eventuale CPU desktop basata su ARM ma "made by Apple" abbia prestazioni "migliori" prendendo come spunto quanto avviene nel mobile?

quanto sopra è detto sempre e comunque col totale beneficio dell'ignoranza. :D

In realtà Qualcomm ha sempre preso batoste dai SOC ARM Made in Apple, fin dall’A4 o A5 mi sembra di ricordare...


I SOC Apple innegabilmente sono migliori, più performanti e con consumi inferiori...

Apple come azienda è sempre stata avanti su questo specifico e agguerrito settore, ricordo la prima CPU di Smartphone a 64bit l’ha sfornata Apple, se non erro anche il primo Dual-Core etc etc etc

Quello che invece manca è la parte modem dove per ora Qualcomm ha un vantaggio su Apple, ma credo che quest’ultima stia investendo molte risorse per rendersi “indipendente” anche sulla parte modem


Sarebbe veramente curioso vedere come andranno i processori ARM raffreddati ad aria, come le attuali CPU x86. Credo che arriverà prima Qualcomm stavolta, vedremo come andrà, quali saranno i pro e i contro


Certamente credo che un SOC ARM Apple messo ad esempio su un MacBook al posto degli Intel Core M possa andare veramente bene

cdimauro
02-03-2019, 06:38
Domanda stupida: per quanto “potenti” i chip montati su iPhone/iPad, sono sempre “castrati” dal consumo energetico che possono richiedere, dalla dissipazione del calore che possono generare. Una CPU ARM “made by Apple” da mettere in un desktop che ha tutt’altre possibilità energetiche/di smaltimento de calore, non potrebbe essere performante “il giusto” con applicazioni compilate x ARM?
Nel senso che potrebbero non esserci differenze significative/percepibili con cpu x86 nel daily use (non prendo in considerazione programmi emulati perché ovviamente il calo di performance è scontato).:fagiano:
Sì, in generale è un discorso che regge, perché i processori Apple hanno ottime prestazioni in single core/thread (sono il meglio che c'è in ambito ARM), per cui per il daily use (parliamo sempre in generale, eh!) non vedo problemi.

Le differenze si noterebbero in ambiti specifici, come i giochi e in generale software che usano le estensioni AVX a 256 bit (adesso ci sono pure le AVX-512).

ARM ha presentato qualche anno fa le sue estensioni vettoriali ("length-agnostic") che sulla carta dovrebbero consentire di competere anche in questo campo. Ma di test ancora non se ne sono visti, per cui è tutto un "vedremo".

Ci saranno altre differenze dovute proprio alle diverse ISA e/o micro-architetture, ma qui non è affatto facile esempi (bisogna eseguire test e vedere i risultati. Amen).
Ma infatti. E' quello che dico da tempo. Non è le architetture ARM sono per volontà divina rinchiuse nella nicchia delle calcolatrice. Purtroppo molta gente questo non lo capisce e francamente sempre non sapere nemmeno cos'è ARM e come lavora ( molti pensano che sia una ditta che produce e vende chip ).

ARMv8 è stata creata apposta. Si sono pure arrischiati a realizzare architetture out of order. Apple ha dimostrato che SoC ARM potenti si possono creare. Penso non ci sia bisogno di altro per concludere che ARM ha le carte in regola per raggiungere le prestazioni tipiche dei PC.
E purtroppo chi non sa come funzionano le architetture non capisce che affermazioni come quest'ultima frase non hanno alcun fondamento: in base a cosa arrivi a quelle conclusioni?

Checché tu ne dica, le architetture FANNO LA DIFFERENZA. Ci sono centinaia di architetture, alcune realizzate da prima ancora che apparisse il primo microprocessore, e la cosa che è assolutamente certa è che le prestazioni mostrate da ognuna siano diverse a seconda della tipologia di codice eseguito.

Per cui, che ti piaccia o no, anche se Apple dovesse aggiungere pacchi di transistor e aumentare il clock dei suoi processori, non sta scritto da nessuna parte che arriverà a offrire prestazioni simili a quelle dei PC desktop.

Potrebbe farlo, ma... non è detto. Mentre, a quanto pare, tu hai granitiche certezze, che però non sono supportate da alcun dato / fatto oggettivo.
Da ignorante in materia di cpu (a dire il vero sono un vero ignorantolo e la mia ignoranza spazia a 360 gradi, chiedimi pure un qualunque argomento che tanto io non lo so :D )
trovo il tuo discorso corretto sul mobile, d'altronde neanche gli Atom per tablet o 2in1 sono processori che per forza di cose NON possono competere con un i9 otto core magari raffreddato a liquido o comunque da un imponente dissipatore ad aria...
Ma per i server?
Anni or sono si fece un gran parlare di server basati su ARM il tizio di ARM mi pare che oso perfino dire che avrebbero spazzato via Intel dal mercato entro il 2015... siamo nel 2019 di server basati su ARM si parla pochissimo e da quel che so i vari processori da 32 o 64 core ARM non hanno mai potuto avvicinarsi all'IPC degli Xeon e il fatturato di Intel non è mai stato così roseo.

Vedremo cosa succederà in futuro e quali processori Apple tirerà fuori, ma per ora credo sia oggettivo dire che le cpu ARM siano competitivi solo sui bassi consumi.
This.
vero, di server ARM non se ne vedono.
ma qui sorge altra domanda ignorante: per ARM si intendono tutte le CPU con questa architettura o si sta parlando di quelle "specifiche" di Apple? tipo A11XFUSIONNUCLEARBLASTER? :D

perché per esempio i Qualcomm sono basati su ARM (i vari Snapdragon degli smartphone Android), ma anche gli A1x di Apple...
dai bench di confronto tra le due "implementazioni" si notano notevoli differenze dove spesso si vede la versione Qualcomm prendere batoste dalla versione Apple (soprattutto sul multicore, mi pare di ricordare).
ora, perché queste differenze (considerando anche che di norma le CPU Apple girano a clock inferiori)?
implementazioni "migliori" della stessa architettura?
è quindi ipotizzabile che un'eventuale CPU desktop basata su ARM ma "made by Apple" abbia prestazioni "migliori" prendendo come spunto quanto avviene nel mobile?

quanto sopra è detto sempre e comunque col totale beneficio dell'ignoranza. :D
Vedi sopra la mia risposta a pabloski: può essere, ma non è affatto detto.

Ci sono architetture che si prestano meglio ad alcune tipologie di codice. Altri che fanno meglio in altre tipologie. Per cui è difficile poter fare previsioni, anche alla luce della storia recente.

Se dovessimo prendere proprio tale storia, come già detto da biometallo ARM ha provato a sfondare in ambito server e ha miseramente fallito con tutte le soluzioni che finora sono state proposte. Eppure, sulla carta, avrebbe dovuto fare faville. Ma impaccare decine e decine di core quando la concorrenza (non solo Intel: anche AMD propone soluzioni che tanti core di recente) ne offre decisamente di meno NON implica, di per sé, che si possa vincere a mani basse in un mercato. Com'è, appunto successo.

E' innegabile che ARM con meno risorse consenta di un miglior bilanciamento di prestazioni e consumi (difatti domina nel mercato dei microcontroller / embedded). Ma microarchitetture da desktop e server hanno esigenze completamente diverse, per cui è tutt'altro che scontato che possano ripetere lo stesso successo.

Difatti per ottenere quelle prestazioni Apple ha messo sul campo una microarchitettura ARM che è un autentico mostro non soltanto se confrontata con gli altri ARM, ma anche con gli stessi x86/x64 di Intel e AMD. Basti vedere quante istruzioni riesce a decodificare ed eseguire per ciclo di clock, quanta cache L1, L2, e L3 monta (e le loro latenze), quante porte d'esecuzione ha, ecc. ecc. ecc. E' già adesso una microarchitettura pompatissima sul versante prestazionale (e si vede). Difficile pensare che possa continuare a offrire incrementi consistenti di IPC in futuro, considerato quanto già messo insieme (mentre per le frequenze di clock ovviamente c'è ancora parecchio spazio per salire).
In realtà Qualcomm ha sempre preso batoste dai SOC ARM Made in Apple, fin dall’A4 o A5 mi sembra di ricordare...

I SOC Apple innegabilmente sono migliori, più performanti e con consumi inferiori...

Apple come azienda è sempre stata avanti su questo specifico e agguerrito settore, ricordo la prima CPU di Smartphone a 64bit l’ha sfornata Apple, se non erro anche il primo Dual-Core etc etc etc

Quello che invece manca è la parte modem dove per ora Qualcomm ha un vantaggio su Apple, ma credo che quest’ultima stia investendo molte risorse per rendersi “indipendente” anche sulla parte modem


Sarebbe veramente curioso vedere come andranno i processori ARM raffreddati ad aria, come le attuali CPU x86. Credo che arriverà prima Qualcomm stavolta, vedremo come andrà, quali saranno i pro e i contro


Certamente credo che un SOC ARM Apple messo ad esempio su un MacBook al posto degli Intel Core M possa andare veramente bene
Senz'altro, e credo che nessuno possa negarlo.

Sono altre le affermazioni che non stanno proprio in piedi.

insane74
02-03-2019, 08:07
Sì, in generale è un discorso che regge, perché i processori Apple hanno ottime prestazioni in single core/thread (sono il meglio che c'è in ambito ARM), per cui per il daily use (parliamo sempre in generale, eh!) non vedo problemi.

Le differenze si noterebbero in ambiti specifici, come i giochi e in generale software che usano le estensioni AVX a 256 bit (adesso ci sono pure le AVX-512).

ARM ha presentato qualche anno fa le sue estensioni vettoriali ("length-agnostic") che sulla carta dovrebbero consentire di competere anche in questo campo. Ma di test ancora non se ne sono visti, per cui è tutto un "vedremo".

Ci saranno altre differenze dovute proprio alle diverse ISA e/o micro-architetture, ma qui non è affatto facile esempi (bisogna eseguire test e vedere i risultati. Amen).

E purtroppo chi non sa come funzionano le architetture non capisce che affermazioni come quest'ultima frase non hanno alcun fondamento: in base a cosa arrivi a quelle conclusioni?

Checché tu ne dica, le architetture FANNO LA DIFFERENZA. Ci sono centinaia di architetture, alcune realizzate da prima ancora che apparisse il primo microprocessore, e la cosa che è assolutamente certa è che le prestazioni mostrate da ognuna siano diverse a seconda della tipologia di codice eseguito.

Per cui, che ti piaccia o no, anche se Apple dovesse aggiungere pacchi di transistor e aumentare il clock dei suoi processori, non sta scritto da nessuna parte che arriverà a offrire prestazioni simili a quelle dei PC desktop.

Potrebbe farlo, ma... non è detto. Mentre, a quanto pare, tu hai granitiche certezze, che però non sono supportate da alcun dato / fatto oggettivo.

This.

Vedi sopra la mia risposta a pabloski: può essere, ma non è affatto detto.

Ci sono architetture che si prestano meglio ad alcune tipologie di codice. Altri che fanno meglio in altre tipologie. Per cui è difficile poter fare previsioni, anche alla luce della storia recente.

Se dovessimo prendere proprio tale storia, come già detto da biometallo ARM ha provato a sfondare in ambito server e ha miseramente fallito con tutte le soluzioni che finora sono state proposte. Eppure, sulla carta, avrebbe dovuto fare faville. Ma impaccare decine e decine di core quando la concorrenza (non solo Intel: anche AMD propone soluzioni che tanti core di recente) ne offre decisamente di meno NON implica, di per sé, che si possa vincere a mani basse in un mercato. Com'è, appunto successo.

E' innegabile che ARM con meno risorse consenta di un miglior bilanciamento di prestazioni e consumi (difatti domina nel mercato dei microcontroller / embedded). Ma microarchitetture da desktop e server hanno esigenze completamente diverse, per cui è tutt'altro che scontato che possano ripetere lo stesso successo.

Difatti per ottenere quelle prestazioni Apple ha messo sul campo una microarchitettura ARM che è un autentico mostro non soltanto se confrontata con gli altri ARM, ma anche con gli stessi x86/x64 di Intel e AMD. Basti vedere quante istruzioni riesce a decodificare ed eseguire per ciclo di clock, quanta cache L1, L2, e L3 monta (e le loro latenze), quante porte d'esecuzione ha, ecc. ecc. ecc. E' già adesso una microarchitettura pompatissima sul versante prestazionale (e si vede). Difficile pensare che possa continuare a offrire incrementi consistenti di IPC in futuro, considerato quanto già messo insieme (mentre per le frequenze di clock ovviamente c'è ancora parecchio spazio per salire).

Senz'altro, e credo che nessuno possa negarlo.

Sono altre le affermazioni che non stanno proprio in piedi.

grazie dei chiarimenti. :)
quindi non resta che sederci comodamente, prendere in mano i popcorn e aspettare per vedere come si evolveranno (se si evolveranno) le cose. :D

NewEconomy
02-03-2019, 09:43
grazie dei chiarimenti. :)
quindi non resta che sederci comodamente, prendere in mano i popcorn e aspettare per vedere come si evolveranno (se si evolveranno) le cose. :D

Sicuramente si evolveranno!

Quantomeno Apple non starà con le mani in mano, vedrai

pabloski
02-03-2019, 09:52
Per cui, che ti piaccia o no, anche se Apple dovesse aggiungere pacchi di transistor e aumentare il clock dei suoi processori, non sta scritto da nessuna parte che arriverà a offrire prestazioni simili a quelle dei PC desktop.


Ma nel mondo ARM non si aggiungono solo pacchi di transistor e aumenta il clock ( questa era Intel fino a Nehalem ).

I SoC ARM sono la cosa più variegata che esista. Quando faccio quelle previsioni, penso al vantaggio che ARM ha in termini di consumi e al fatto che per loro è più facile impacchettare core multipli mantenendo un TDP "umano".

Voglio dire "ARM CPUs are usually good at area (fewer transistors)". Fanno le stesse cose con meno transistor. Hanno quindi possibilità di scalare in termini di core. E hanno possibilità di farlo mantenendosi entro un certo TDP.

E capisco il tuo punto di vista "le prestazioni mostrate da ognuna siano diverse a seconda della tipologia di codice eseguito".

Non capisco la fissazione con le prestazioni single thread. I carichi di lavoro moderni sono prevalentemente concorrenti. Quanti processi sono attivi in questo momento sul tuo pc? Probabilmente almeno una cinquantina.

Ma lascia che ARM si faccia spazio nel settore PC/workstation e poi vedremo se il software ( le tipologie di codice eseguito ) possono essere ottimizzate per queste nuove architetture che nasceranno.

Questa diatriba mi ricorda gli attacchi lanciati ( da altra gente ) a HSA di AMD. Era ovvio che non brillasse con software non realizzati per sfruttarla. Ma i signori di Openoffice dimostrano che è possibile accelerare enormemente certe tipologie di codice.

cdimauro
02-03-2019, 10:11
Ma nel mondo ARM non si aggiungono solo pacchi di transistor e aumenta il clock ( questa era Intel fino a Nehalem ).
No, Intel ha innovato anche ben prima di Nehalem. Storia alla mano.
I SoC ARM sono la cosa più variegata che esista. Quando faccio quelle previsioni, penso al vantaggio che ARM ha in termini di consumi e al fatto che per loro è più facile impacchettare core multipli mantenendo un TDP "umano".
1) perché parli di SoC? Si stava confrontando soltanto il core. :fagiano:

2) impacchettare miriadi di core con un TDP "umano" a quanto pare non è servito per sfondare nel mondo dei server: chissà perché... :stordita:
Voglio dire "ARM CPUs are usually good at area (fewer transistors)". Fanno le stesse cose con meno transistor. Hanno quindi possibilità di scalare in termini di core. E hanno possibilità di farlo mantenendosi entro un certo TDP.
Vedi, l'errore di fondo sta proprio qui: "fanno le stesse cose". Sì, ma bisogna vedere COME le fanno! :read:

Qualunque processore è in grado di "fare le stesse cose". Poi, però, ci si mettono l'architettura e la microarchitettura, che... fanno la differenza.

Se fosse semplicemente come dici tu, i processori VLIW avrebbero dovuto stradominare ovunque, visto che consentono di impacchettare più core e mantenere consumi più bassi anche rispetto ad ARM, e in generale rispetto a qualunque RISC, CISC, CRISC che siano non-VLIW. Invece sono relegati a delle micro nicchie, e l'Itanium di Intel (rappresentante di questa macro-famiglia) è miseramente fallito... :banned:
E capisco il tuo punto di vista "le prestazioni mostrate da ognuna siano diverse a seconda della tipologia di codice eseguito".

Non capisco la fissazione con le prestazioni single thread.
Perché sono quelle che in genere si applicano meglio alla maggior parte dei compiti / algoritmi.
I carichi di lavoro moderni sono prevalentemente concorrenti.
Direi proprio di no.
Quanti processi sono attivi in questo momento sul tuo pc? Probabilmente almeno una cinquantina.
Che dormono per la maggior parte del tempo.
Ma lascia che ARM si faccia spazio nel settore PC/workstation e poi vedremo se il software ( le tipologie di codice eseguito ) possono essere ottimizzate per queste nuove architetture che nasceranno.
Non mi pare d'aver detto il contrario, mi pare. ;)
Questa diatriba mi ricorda gli attacchi lanciati ( da altra gente ) a HSA di AMD. Era ovvio che non brillasse con software non realizzati per sfruttarla. Ma i signori di Openoffice dimostrano che è possibile accelerare enormemente certe tipologie di codice.
Ben poche. E dietro quanti sforzi richiesti per farlo?

Adesso prova a immaginare lo sforzo necessario per usare HSA in altre applicazioni.

Che poi è lo stesso motivo per cui, sostanzialmente, si prova a sfruttare più thread/core. Solo che, SE POSSIBILE (perché non è affatto detto che lo sia. Tutt'altro), bisogna vedere quanto costi riscrivere (quella parte de) il codice, e quindi se ne valga realmente la pena. Cosa tutt'altro che scontata.

pabloski
02-03-2019, 10:35
1) perché parli di SoC? Si stava confrontando soltanto il core. :fagiano:


Allora ti piace vincere facile :D


2) impacchettare miriadi di core con un TDP "umano" a quanto pare non è servito per sfondare nel mondo dei server: chissà perché... :stordita:


Perchè c'è gente che si ostina ad usare Node.js per il server-side.


Vedi, l'errore di fondo sta proprio qui: "fanno le stesse cose". Sì, ma bisogna vedere COME le fanno! :read:

Intanto lo fanno consumando meno e con meno transistor. Ovviamente il prezzo da pagare è un IPC inferiore.


Se fosse semplicemente come dici tu, i processori VLIW avrebbero dovuto stradominare ovunque


E infatti il mese scorso leggevo un pò di cose su Itanium e sono rimasto a dir poco entusiasta. E l'autore concludeva che il problema grosso erano stati i signori del software, più precisamente i progettisti di compilatori.

Ma non sarà che alla fin fine il problema siamo noi che scriviamo software ancora utilizzando metodi e pattern degli anni '80?


Adesso prova a immaginare lo sforzo necessario per usare HSA in altre applicazioni.


Si ok, ma così siamo condannati a restare fermi per sempre.


quindi se ne valga realmente la pena. Cosa tutt'altro che scontata.

So che la questione è sempre il soldo. La stessa ragione per cui l'altra volta sminuivo l'ABI x32.

Però di legacy in legacy, la tecnologia ristagna. Comunque siamo d'accordo che il problema principale resta il software. Nel qual caso parlare di ARM su PC diventa inutile, visto che comunque ( anche se ARM dovesse sfornare l'uber architettura del 21° secolo ) questi SoC si ritroverebbero ad emulare x86 per poter eseguire software x86.

Piedone1113
02-03-2019, 14:05
Allora ti piace vincere facile :D





Intanto lo fanno consumando meno e con meno transistor. Ovviamente il prezzo da pagare è un IPC inferiore.



cut


Ognuno secondo le proprie convinzioni osanna una particolare architettura.
Se apple riuscisse a fare un 4x o 8x su arm con prestazioni simili a un 4x o 8x 386 bisogna guardare in ordine a :
Superfice.
Costo.
Consumo.

pabloski
02-03-2019, 14:20
Ognuno secondo le proprie convinzioni osanna una particolare architettura.
Se apple riuscisse a fare un 4x o 8x su arm con prestazioni simili a un 4x o 8x 386 bisogna guardare in ordine a :
Superfice.
Costo.
Consumo.

Il punto è questo. Si cerca di capire se può essere o meno. Per ora non esistono ARM intenzionalmente pensati per competere con gli x86 in quanto ad IPC. ARM è sinonimo di bassi consumi, nel senso che chi progetta quei SoC, pensa prima ai consumi e poi al resto.

Pure Apple, nonostante abbia fatto salti mortali per aumentare le prestazioni, ha posto come paletto consumi e calore prodotto. Ma pure per i laptop ARM si parla della stessa cosa. Infatti la prima caratteristica che viene pubblicizzata è l'autonomia.

In questo io vedo l'impossibilità di sostituire x86 in tutti gli ambiti. Perchè se Intel e AMD accettano di sforare i 100W, ARM e i suoi soci non l'accetteranno mai.

La questione è che per uso generalista, basta pure uno smartphone. Con la diffusione del cloud si sentirà sempre meno la necessità di terminali potenti. Ed in quest'ottica che s'introduce la possibilità adozione di ARM per i PC Apple.

Piedone1113
02-03-2019, 14:37
Il punto è questo. Si cerca di capire se può essere o meno. Per ora non esistono ARM intenzionalmente pensati per competere con gli x86 in quanto ad IPC. ARM è sinonimo di bassi consumi, nel senso che chi progetta quei SoC, pensa prima ai consumi e poi al resto.

Pure Apple, nonostante abbia fatto salti mortali per aumentare le prestazioni, ha posto come paletto consumi e calore prodotto. Ma pure per i laptop ARM si parla della stessa cosa. Infatti la prima caratteristica che viene pubblicizzata è l'autonomia.

In questo io vedo l'impossibilità di sostituire x86 in tutti gli ambiti. Perchè se Intel e AMD accettano di sforare i 100W, ARM e i suoi soci non l'accetteranno mai.

La questione è che per uso generalista, basta pure uno smartphone. Con la diffusione del cloud si sentirà sempre meno la necessità di terminali potenti. Ed in quest'ottica che s'introduce la possibilità adozione di ARM per i PC Apple.

Se per usarlo con programmi che lavorano in cloud basterebbe anche un Pentium 75 ( o un arm/mips di un router economico)

cdimauro
03-03-2019, 09:19
Allora ti piace vincere facile :D
Sono le vittorie più difficili e complicate che mi stimolano: con quelle facili non c'è gusto. :cool:
Perchè c'è gente che si ostina ad usare Node.js per il server-side.
Sai bene che server-side non esiste solo Node.js, che peraltro è una tecnologia piuttosto recente. E lo stesso Node.js mi pare sia ben ottimizzato anche per ARM.

Ci sono tantissime tipologie di codice che vengono eseguite server side, e se la soluzione fosse quella di scaricarle su piattaforme hardware che semplicemente consumino di meno, non staremmo nemmeno qui a parlare: processori come ARM vincerebbero a mani basse, e oggi dominerebbero il mercato.

Ovviamente non è affatto così perché anche la latenza è un parametro molto importante di cui tenere conto: non puoi sempre aspettare parecchio prima di ricevere il risultato di un'operazione. E qui entrano in gioco le famigerate prestazioni single core/thread.
Intanto lo fanno consumando meno e con meno transistor.
Non è affatto detto che si consumi meno: se riesci a portare a termine un'operazione in meno tempo, puoi anche consumare di meno.

C'è un interessante post del solito matthey sull'argomento (http://https://amigaworld.net/modules/newbb/viewtopic.php?mode=viewtopic&topic_id=43101&forum=2&start=140&viewmode=flat&order=0#821408) che consiglio di studiare.

In particolare c'è uno studio/presentazione nel secondo link che ha fornito, e che riguarda un processore (il BA22 di CAST) che fa concorrenza ad ARM in ambito embedded.

Considerazioni similari si possono ovviamente fare anche a x86/x64. Ma leggiti per bene sia il post di matthey sia la presentazioni, e poi fai le tue valutazioni. ;)
Ovviamente il prezzo da pagare è un IPC inferiore.
Beh, qui rientriamo sempre sul discorso ISA/Architetture e relativa micro-architettura, e ovviamente dipende dalla tipologia di codice eseguito.

Ci sono troppe variabili in gioco di cui tenere conto, e non si può arrivare a delle conclusioni sull'argomento.
E infatti il mese scorso leggevo un pò di cose su Itanium e sono rimasto a dir poco entusiasta. E l'autore concludeva che il problema grosso erano stati i signori del software, più precisamente i progettisti di compilatori.

Ma non sarà che alla fin fine il problema siamo noi che scriviamo software ancora utilizzando metodi e pattern degli anni '80?
No, l'errore di Intel e HP con Itanium è stato proprio quello di confidare troppo sulla bontà e sul miglioramento dei compilatori. Peraltro la qualità dei compilatori Intel è ben nota. Intel, quindi, aveva tutto l'interesse a progettare ottimi compilatori anche per Itanium.

Per tali ragioni quella tesi non è certo condivisibile.

Mentre la reale causa è dovuta al fatto che è impossibile per un compilatore generare codice che possa tenere conto delle esigenze che un processore ha istantaneamente, ciclo di clock per ciclo di clock. Mentre è proprio ciò che cercare di fare al meglio (che può) l'unità di esecuzione out-of-order, che in base all'occupazione delle risorse in quel preciso momento cerca di schedulare le istruzioni da inviare alle unità d'esecuzione libere (o alle loro code).

D'altra parte c'è da dire che le scelte di Intel e HP sono frutto delle conoscenze e delle previsioni dell'epoca. Erano convinti che sarebbe andata in un certo modo e hanno lavorato in tal senso. Purtroppo per loro, quelle assunzioni si sono rivelate sbagliate, e i processori OoO hanno fatto le scarpe a VLIW et similia, relegandoli a nicchie di mercato.

Per questo è ridicolo fare battute sull'argomento (non ce l'ho con te, sia chiaro: è un discorso generale): son tutti bravi ad aprire bocca col senno di poi.
Si ok, ma così siamo condannati a restare fermi per sempre.
Mai detto questo, mi pare, ma la questione è sempre la solita: i cambiamenti richiedono sforzi/sacrifici/risorse. Che possono non valere la pena.

Poi se uno ha tempo da buttare e sperimentare... che si accomodi pure.
So che la questione è sempre il soldo. La stessa ragione per cui l'altra volta sminuivo l'ABI x32.
Hum. x32 richiede(va) ben poche risorse SE le toolchain e le applicazioni fossero state scritte decentemente.

Una volta che l'ABI risulta ben definita, in linea teorica sarebbe sufficiente un parametro di compilazione per generare binari per essa.

Se così non è, vuol dire che ci sono ALTRI problemi. Che non attengono all'ABI, ovviamente.
Però di legacy in legacy, la tecnologia ristagna. Comunque siamo d'accordo che il problema principale resta il software. Nel qual caso parlare di ARM su PC diventa inutile, visto che comunque ( anche se ARM dovesse sfornare l'uber architettura del 21° secolo ) questi SoC si ritroverebbero ad emulare x86 per poter eseguire software x86.
Indubbiamente, ma non è quello lo scopo e non ciò che farà Apple, che può contare sul controllo assoluto delle sue piattaforme mobile e desktop. Infatti ha imposto l'uso dei nuovi universal binary, e quindi può tranquillamente generare codice ad hoc per i suoi futuri processori ARM "desktop".

Anche Linux non ha problemi del genere, visto che si basa sul modello open source (ed è il motivo per cui, di fatto, viene imposto il rilascio dei sorgenti se si vuole avere supporto. Poi che anche coi sorgenti a disposizione questo non sia garantito, è un altro paio di maniche).

Il problema rimane per Windows e, in generale, per tutti i sistemi che non hanno a disposizione sorgenti o codice IL (ma c'è .NET per questo). In questo caso c'è tanto codice legacy x86 o x64 che rimarrà disponibile sempre in tale forma.

Comunque anche in questo caso peggiore ci potrebbero essere soluzioni tecnologie più moderne in grado di far girare in emulazione software x86/x64, ma mantenendo ugualmente prestazioni molto elevate. Il tutto senza mantenere i costi del legacy, e offrendo innovazioni e miglioramenti.
Il punto è questo. Si cerca di capire se può essere o meno. Per ora non esistono ARM intenzionalmente pensati per competere con gli x86 in quanto ad IPC. ARM è sinonimo di bassi consumi, nel senso che chi progetta quei SoC, pensa prima ai consumi e poi al resto.

Pure Apple, nonostante abbia fatto salti mortali per aumentare le prestazioni, ha posto come paletto consumi e calore prodotto. Ma pure per i laptop ARM si parla della stessa cosa. Infatti la prima caratteristica che viene pubblicizzata è l'autonomia.
E invece proprio le soluzioni di Apple sono quanto di più simile a x86/x64 si possa trovare in giro. Anzi, hanno soluzioni micro-architetturali ben più aggressive.

Come già detto prima, basti fare un confronto fra i rispettivi frontend e backend, e si capisce quali soluzioni e risorse Apple abbia messo in gioco per sfornare eccellenti prestazioni in single core/thread.
In questo io vedo l'impossibilità di sostituire x86 in tutti gli ambiti. Perchè se Intel e AMD accettano di sforare i 100W, ARM e i suoi soci non l'accetteranno mai.
Non sono obbligati a farlo, infatti: anche gli ARM possono benissimo arrivare a superare i 100W.
La questione è che per uso generalista, basta pure uno smartphone. Con la diffusione del cloud si sentirà sempre meno la necessità di terminali potenti. Ed in quest'ottica che s'introduce la possibilità adozione di ARM per i PC Apple.
Infatti a livello generale i processori di Apple potrebbero benissimo essere impiegati per il "daily use" di cui si parlava prima.

Con le osservazioni e note del caso, che ho già elencato.

Piedone1113
04-03-2019, 18:33
Non è affatto detto che si consumi meno: se riesci a portare a termine un'operazione in meno tempo, puoi anche consumare di meno.

C'è un interessante post del solito matthey sull'argomento (http://https://amigaworld.net/modules/newbb/viewtopic.php?mode=viewtopic&topic_id=43101&forum=2&start=140&viewmode=flat&order=0#821408) che consiglio di studiare.



Quando usci il primo atom ci furono centinaia di test che confrontavano atom vs core.
Nei test potenza totale impiegata per quasi tutti gli scenari era sempre dietro ( con consumi maggiori dal 10 al 70%).

Una cpu che consuma poco non vuol dire nulla ( più giusto considerare i gFlop/Watt ) ma anche questo è poco veritiero: cosa succede se ci sono th concorrenti sullo stesso core?
Proprio in ambito server si è visto che tranne per rari casi i server su architettura arm hanno un efficienza totale molto inferiore rispetto a x86 ( ed i server in genere hanno ben poco di poco ottimizzato lato software)

cdimauro
09-03-2019, 07:36
Condivido il discorso generale, però dipende anche dal tipo di software, come già detto, e anche quello server viene ottimizzato. Python e PHP, ad esempio, sono continuamente alla ricerca di ottimizzazioni per velocizzare l'esecuzione. Nodejs ha subito un impulso ENORME da questo punto di vista, e Javascript oggi è il linguaggio "dinamico" che ha migliori prestazioni. Giusto per fare qualche esempio.

Piedone1113
09-03-2019, 18:22
Condivido il discorso generale, però dipende anche dal tipo di software, come già detto, e anche quello server viene ottimizzato. Python e PHP, ad esempio, sono continuamente alla ricerca di ottimizzazioni per velocizzare l'esecuzione. Nodejs ha subito un impulso ENORME da questo punto di vista, e Javascript oggi è il linguaggio "dinamico" che ha migliori prestazioni. Giusto per fare qualche esempio.

Proprio li casca l'asino:
Se in ambiente server dove c'è una costante ricerca delle ottimizzazioni e prestazioni Arm a parità di carico di lavoro di un cluster x86 ha prestazioni per watt inferiori non vedo così scontato il presupposto AXX Apple votato alle prestazioni pure maggiore efficienza di x86.
Per il resto nell'attimo stesso che arm erode quote a x86 ci ritroveremo con una nuova architettura x86/64New dove tutte le caratteristiche magagne dovute alla compatibilità arcaica saranno trasferite da silicio a software ( o magari implementando un core vliw per la compatibilità di software che non se ne può fare proprio a meno).
In fondo la CU potrebbe gestire bene quest'alternativa e probabilmente il costo silicio sarebbe ben controbilanciato da core più piccoli e meno assetati di ampere

cdimauro
16-03-2019, 06:55
Proprio li casca l'asino:
Se in ambiente server dove c'è una costante ricerca delle ottimizzazioni e prestazioni Arm a parità di carico di lavoro di un cluster x86 ha prestazioni per watt inferiori non vedo così scontato il presupposto AXX Apple votato alle prestazioni pure maggiore efficienza di x86.
Ma mi pare che su questo sia d'accordo.
Per il resto nell'attimo stesso che arm erode quote a x86 ci ritroveremo con una nuova architettura x86/64New dove tutte le caratteristiche magagne dovute alla compatibilità arcaica saranno trasferite da silicio a software
Praticamente stai descrivendo la mia nuova architettura. :D
( o magari implementando un core vliw per la compatibilità di software che non se ne può fare proprio a meno).
Come già detto anche altre volte, VLIM è un modello fallimentare in ambito general-computing. Va benissimo, invece, in particolari nicchie di mercato.
In fondo la CU potrebbe gestire bene quest'alternativa e probabilmente il costo silicio sarebbe ben controbilanciato da core più piccoli e meno assetati di ampere
Ma molto meno efficienti.

AlexSwitch
16-03-2019, 07:50
Intanto da ieri stanno circolando in rete questi benchmark di ipotetiche CPU Arm di fascia desktop ( almeno dai risultati ottenuti ) di Apple:

https://appleinsider.com/articles/19/03/15/highly-suspect-benchmarks-claim-to-detail-apple-designed-arm-chips-for-mac

omerook
16-03-2019, 08:00
mi chiedevo se esistono dei benchmark che girano su Java. cosi tanto per giocare a perdere un po' di tempo.

NewEconomy
16-03-2019, 10:12
Intanto da ieri stanno circolando in rete questi benchmark di ipotetiche CPU Arm di fascia desktop ( almeno dai risultati ottenuti ) di Apple:

https://appleinsider.com/articles/19/03/15/highly-suspect-benchmarks-claim-to-detail-apple-designed-arm-chips-for-mac

Mi sembrano abbastanza potenti..O sbaglio?

pabloski
16-03-2019, 10:28
Mi sembrano abbastanza potenti..O sbaglio?

Infatti. Poi mi pare che qui un pò tutti abbiano dimenticato il fattore essenziale, ovvero l'ottimizzazione del software.

Vi racconto una storia.

Un pò di tempo fa incappai in una serie di benchmark su Phoronix riguardanti una libreria per il deep learning https://www.phoronix.com/scan.php?page=article&item=plaidml-nvidia-amd&num=1

E le GPU AMD ne uscirono con le ossa rotte. Ma giustamente il buon Bridgman ( ingegnere AMD ) https://www.phoronix.com/forums/forum/hardware/graphics-cards/1073127-plaidml-deep-learning-framework-benchmarks-with-opencl-on-nvidia-amd-gpus?p=1073175#post1073175

Ed è lo stesso canovaccio visto con HSA.

Alla fine della fiera, le ottimizzazioni del software arrivano a produrre risultati incredibili. Un esempio da far girare la testa di 360 gradi https://software.intel.com/en-us/articles/get-started-with-the-unity-entity-component-system-ecs-c-sharp-job-system-and-burst-compiler

E cos'hanno fatto? Semplicemente riarrangiato i dati!

Per cui continuerò a ripetere che si sta facendo una caciara pazzesca, basandosi sul nulla. Ovvero mancano dati certi su questi SoC ARM che Apple presenterà ( forse ).

cdimauro
16-03-2019, 10:55
Intanto da ieri stanno circolando in rete questi benchmark di ipotetiche CPU Arm di fascia desktop ( almeno dai risultati ottenuti ) di Apple:

https://appleinsider.com/articles/19/03/15/highly-suspect-benchmarks-claim-to-detail-apple-designed-arm-chips-for-mac
Geekbench. Per cui non spendo nemmeno una parola.

AlexSwitch
16-03-2019, 11:53
Geekbench. Per cui non spendo nemmeno una parola.

Sicuramente ci sono dei caveat su questi valori, in primis dal fatto che sono benchmark sintetici e, secundis, che non si sa bene che CPU o SoC siano quelli testati.
Ma è rilevante il fatto che Apple probabilmente ha quasi tutto pronto per un passaggio in grande stile su ARM, coprendo da subito più fasce di prodotti.
Vedremo in futuro cosa arriverà e come si comporterà.... :)

NewEconomy
16-03-2019, 12:20
sempre soliti discorsi triti e ritriti, i benchmark lasciano il tempo che trovano, come quelli di altre cpu ARM su android con punteggi superiori ad intel/amd... la bonta' di queste CPU la potremo verificare solo quando avremo lo stesso sw su entrambe le architettura da utilizzare, per esempio applicare un tot di filtri pesanti con photoshop su un'immagine enorme

Ma si, era indubbio quello...Poi i Benchmark non sappiamo nemmeno in che condizioni vengano fatti insomma....


Ad ogni modo, se non ho capito male già l’attuale A12X è predisposto fortemenete per lavori di grafica (Photoshop e roba simile). In teoria i Mac sarebbero più sbilanciati verso i lavori di grafica/editing quindi, potrebbe essere che Apple sviluppi ARM espressamente votati per queste funzioni?

cdimauro
16-03-2019, 12:22
Sicuramente ci sono dei caveat su questi valori, in primis dal fatto che sono benchmark sintetici e, secundis, che non si sa bene che CPU o SoC siano quelli testati.
Ma è rilevante il fatto che Apple probabilmente ha quasi tutto pronto per un passaggio in grande stile su ARM, coprendo da subito più fasce di prodotti.
Vedremo in futuro cosa arriverà e come si comporterà.... :)
Anch'io penso che Apple si stia già preparando. Ed è perfettamente naturale, dato il suo modus operandi.

Per il resto aspetto benchmark con applicazioni reali. E, come hai detto, che siano di certa provenienza.

the_joe
16-03-2019, 13:10
Dipenderà molto dai campi di applicazione e dall'ottimizzazione dei programmi però in ambiti generici secondo me saranno dietro e di molto dai proci desktop.
Ad esempio ho un TV box che riesce a decodificare agilmente i video in 4k, ma banalmente è lentissimo anche solo per la navigazione web...

cdimauro
16-03-2019, 13:59
Per questi ambiti, come pure molti di uso normale / comune / quotidiano, già da tempo i SoC Apple risultano adeguati.

the_joe
16-03-2019, 14:11
Per questi ambiti, come pure molti di uso normale / comune / quotidiano, già da tempo i SoC Apple risultano adeguati.

Certo, anche qualsiasi altro soc da cellulare va bene difatti li usiamo tutti i giorni per questi compiti, quello che volevo dire è che magari grazie alle parti di chip dedicate a particolari compiti gli arm di Apple saranno velocissimi anche con Photoshop che magari sarà ottimizzato per sfruttarli, poi però potrebbero essere lentissimi in altri compiti per i quali non sono ottimizzati.
Così come il mio box TV è velocissimo a decodificare i flussi video 4k con un chip da 1€ che è più veloce di un i7 per quel compito, ma poi naufraga in ogni altro utilizzo.

cdimauro
16-03-2019, 14:25
Ah, ok. Concordo. Ma Apple ha un certo peso, e non penso che gli sviluppatori le negherebbero delle ottimizzazioni. Anche quando occupava il 2% di mercato coi suoi Mac basati su PowerPC, gli sviluppatori hanno realizzato codice ottimizzato per Altivec.

pabloski
16-03-2019, 14:25
chip dedicate a particolari compiti gli arm di Apple saranno velocissimi anche con Photoshop che magari sarà ottimizzato per sfruttarli


La chiave è sempre l'ottimizzazione del software. Se io faccio girare una rete MTCNN per l'identificazione facciale ( 15 frame per secondo, non tantissimo ma adeguato ) su un Rockchip RK3288, ci possono girare pure i filtri di Photoshop in maniera decente.


poi però potrebbero essere lentissimi in altri compiti per i quali non sono ottimizzati.


Non nel caso degli Ax di Apple. Sono design molto aggressivi, con pipeline molto profonde, molto più simili ai chip x86 che ai vecchi ARM. E le prestazioni ne guadagnano moltissimo

https://www.reddit.com/r/apple/comments/9midcx/apple_really_undersold_the_a12_cpu_its_almost/

https://www.anandtech.com/show/13392/the-iphone-xs-xs-max-review-unveiling-the-silicon-secrets/2

Ed Apple non è l'unica https://www.extremetech.com/mobile/262676-samsungs-new-exynos-m3-processor-ultra-wide-mobile-monster

Questo ho sempre sostenuto quando dicevo che l'equazione ARM = calcolatrice è completamente fallata.

the_joe
16-03-2019, 15:21
La chiave è sempre l'ottimizzazione del software. Se io faccio girare una rete MTCNN per l'identificazione facciale ( 15 frame per secondo, non tantissimo ma adeguato ) su un Rockchip RK3288, ci possono girare pure i filtri di Photoshop in maniera decente.


Non è affatto detto perchè gli algoritmi sono diversi e quindi sfruttano istruzioni diverse per cui se sul chip non sono presenti le parti dedicate a quel particolare set di istruzioni, dovranno essere emulate da parti general purpose con netto calo di prestazioni, e se sul chip saranno presenti le parti dedicate anche a quelle istruzioni, i chip non sarà più tanto piccolo...


Non nel caso degli Ax di Apple. Sono design molto aggressivi, con pipeline molto profonde, molto più simili ai chip x86 che ai vecchi ARM. E le prestazioni ne guadagnano moltissimo

https://www.reddit.com/r/apple/comments/9midcx/apple_really_undersold_the_a12_cpu_its_almost/

https://www.anandtech.com/show/13392/the-iphone-xs-xs-max-review-unveiling-the-silicon-secrets/2

Ed Apple non è l'unica https://www.extremetech.com/mobile/262676-samsungs-new-exynos-m3-processor-ultra-wide-mobile-monster

Questo ho sempre sostenuto quando dicevo che l'equazione ARM = calcolatrice è completamente fallata.

Nessuno dice che ARM= poca potenza, ma non è nemmeno realistico pensare che chip da meno di 15W possano competere con chip che consumano (anche) 150W

pabloski
16-03-2019, 16:55
Non è affatto detto perchè gli algoritmi sono diversi e quindi sfruttano istruzioni diverse per cui se sul chip non sono presenti le parti dedicate a quel particolare set di istruzioni, dovranno essere emulate da parti general purpose con netto calo di prestazioni, e se sul chip saranno presenti le parti dedicate anche a quelle istruzioni, i chip non sarà più tanto piccolo...

Questo però vuol dire che il software non è stato portato e/o ottimizzato per quella piattaforma. E trattandosi di Apple, la vedo assai difficile.



Nessuno dice che ARM= poca potenza, ma non è nemmeno realistico pensare che chip da meno di 15W possano competere con chip che consumano (anche) 150W

Ovviamente no. Ma 150W li consuma un Threadripper. E resta il fatto che ARM, in genere, usa meno transistor rispetto ai concorrenti ( cioè per fare le stesse cose ). Il grosso dei consumi è poi legato alle cache. Infine dipende da quali e quante unità funzionali specializzate vengono implementate.

Tanto per dire, un processore vettoriale come quello che implementa le operazioni AVX, consuma molto meno di una fpu a parità di operazioni eseguite.

Esempio banalissimo sono le unità neurali dei chip Qualcomm. Con quelle implementi algoritmi di deep learning ad una frazione del costo energetico di una cpu. Ma ovviamente il software deve usarle e allora si ritorna al primato del software sull'hardware e all'importanza dell'ottimizzazione.

the_joe
17-03-2019, 08:31
Esempio banalissimo sono le unità neurali dei chip Qualcomm. Con quelle implementi algoritmi di deep learning ad una frazione del costo energetico di una cpu. Ma ovviamente il software deve usarle e allora si ritorna al primato del software sull'hardware e all'importanza dell'ottimizzazione.

Appunto, quello che intendo dire è che Qualcomm ha implementato le unità neurali e questo permette di eseguire quel tipo di calcoli più efficientemente rispetto alle unità non specializzate, ma lo stesso chip per eseguire i calcoli dei filtri di Photoshop dovrà integrare le unità specifiche per quei calcoli e così via per ogni algoritmo esistente, pena un crollo nelle prestazioni quando dovessero essere emulate dalle unità non specializzate.

pabloski
17-03-2019, 08:49
Appunto, quello che intendo dire è che Qualcomm ha implementato le unità neurali e questo permette di eseguire quel tipo di calcoli più efficientemente rispetto alle unità non specializzate, ma lo stesso chip per eseguire i calcoli dei filtri di Photoshop dovrà integrare le unità specifiche per quei calcoli e così via per ogni algoritmo esistente, pena un crollo nelle prestazioni quando dovessero essere emulate dalle unità non specializzate.

Beh no. Deve possedere acceleratori per determinate classi di problemi. Voglio dire, le GPU accelerano i filtri di Photoshop e pure le reti neurali. Tanto entrambi i casi implicano l'esecuzione di miliardi di operazioni su elementi di matrici gigantesche.

Cioè la classe è "calcoli su matrici gigantesche". E la GPU è un acceleratore adeguato. Altra necessità per questo tipo di operazioni è la larghezza di banda. I 30-35 GB/s miseri di una cpu x86 consumer non vanno bene. I 300+ GB/s di una gpu sono decisamente meglio.

Per esempio le TPU di Google sono agglomerati di processori vettoriali con precisione a 8 bit. A parte gli 8 bit ( che non andrebbero bene per Photoshop ), il resto è adatto ad accelerare pure le operazioni di flitraggio di Photoshop.

AlexSwitch
17-03-2019, 08:55
Appunto, quello che intendo dire è che Qualcomm ha implementato le unità neurali e questo permette di eseguire quel tipo di calcoli più efficientemente rispetto alle unità non specializzate, ma lo stesso chip per eseguire i calcoli dei filtri di Photoshop dovrà integrare le unità specifiche per quei calcoli e così via per ogni algoritmo esistente, pena un crollo nelle prestazioni quando dovessero essere emulate dalle unità non specializzate.

Però ci sono le GPU... Apple, indipendentemente dall'efficienza delle sue CPU ARM, ha investito parecchio sullo sfruttamento di queste con le API Metal/Metal 2. Infatti dall'attuale versione di macOS, Mojave, OpenGL e OpenCL sono state deprecate e molto probabilmente già dalla prossima versione verranno eliminate.

Una architettura dei futuri Macintosh basata su CPU ARM a basso consumo ( 15/20 W ), per uso generico, affiancate da GPU ( magari proprietarie visto che Apple le ha già sviluppate ) più potenti, per i calcoli più intensivi, non mi sembra così inverosimile.

pabloski
17-03-2019, 09:09
Una architettura dei futuri Macintosh basata su CPU ARM a basso consumo ( 15/20 W ), per uso generico, affiancate da GPU ( magari proprietarie visto che Apple le ha già sviluppate ) più potenti, per i calcoli più intensivi, non mi sembra così inverosimile.

Per Apple è tutto possibile, perchè è in grado di comandare i programmatori che lavorano nel suo recinto a piacimento.

Ovviamente sanno pure il fatto loro e conoscono l'uso che gli utenti fanno delle loro macchine. Per cui lanceranno un Mac con ARM solo quando saranno sicuri che possa garantire prestazioni almeno pari alle controparti x86.

NewEconomy
17-03-2019, 09:42
Per Apple è tutto possibile, perchè è in grado di comandare i programmatori che lavorano nel suo recinto a piacimento.

Ovviamente sanno pure il fatto loro e conoscono l'uso che gli utenti fanno delle loro macchine. Per cui lanceranno un Mac con ARM solo quando saranno sicuri che possa garantire prestazioni almeno pari alle controparti x86.

Non è detto che non vengano montati sul successore del MacBook fanless ad esempio, sarebbero perfette lì!

cdimauro
18-03-2019, 06:07
Non è affatto detto perchè gli algoritmi sono diversi e quindi sfruttano istruzioni diverse per cui se sul chip non sono presenti le parti dedicate a quel particolare set di istruzioni, dovranno essere emulate da parti general purpose con netto calo di prestazioni, e se sul chip saranno presenti le parti dedicate anche a quelle istruzioni, i chip non sarà più tanto piccolo...
Esattamente. E qui NON stiamo parlando di apposite unità (esterne al core) dedicate, ma a come funziona il core di per sé.

Come già detto prima, l'ISA FA la differenza. E idem la microarchitettura.

omerook
18-03-2019, 07:47
Certo, anche qualsiasi altro soc da cellulare va bene difatti li usiamo tutti i giorni per questi compiti, quello che volevo dire è che magari grazie alle parti di chip dedicate a particolari compiti gli arm di Apple saranno velocissimi anche con Photoshop che magari sarà ottimizzato per sfruttarli, poi però potrebbero essere lentissimi in altri compiti per i quali non sono ottimizzati.
Così come il mio box TV è velocissimo a decodificare i flussi video 4k con un chip da 1€ che è più veloce di un i7 per quel compito, ma poi naufraga in ogni altro utilizzo.
io mi chiedo perché Adobe o chiunque puduce foftware di un certo livello non si fa realizzare chip dedicati per loro suite da aggiungere ai sistemi. non credo che al professionista cambi la vita spendere 200 euro in più dopo aver acquistato un software sicuramente esoso.

Piedone1113
18-03-2019, 12:03
Come già detto anche altre volte, VLIM è un modello fallimentare in ambito general-computing. Va benissimo, invece, in particolari nicchie di mercato.


Non stavo parlando di core vlim, Ma di core x86new senza la retrocompatibilità arcaica ( x87 etc) affiancati da un core vlim ottimizzato per codice retrocompatibile.
Credo che sia possibile, in fondo i nuovi ryzen hanno gia la predisposizione per utilizzare unità di calcolo eterogenei in modo trasparente per l'os.
Sicuramente ci sarà un consumo di silicio superiore rispetto al solo path software, ma nei primi tempi si avrebbe una perdita minima sui path non più implementati in hardware nei core x86.
Ps credo che molte funzioni possano in futuro essere spostati agevolmente dai core x86 alle cu ( apu amd) aumentando al tempo stesso efficienza energetica per secondo e velocità di esecuzione

cdimauro
25-03-2019, 06:10
Non stavo parlando di core vlim, Ma di core x86new senza la retrocompatibilità arcaica ( x87 etc) affiancati da un core vlim ottimizzato per codice retrocompatibile.
Non è mi chiaro cosa vorresti avere.

"x86new" è una nuova ISA privata di parti di x86/x64, e questo è chiaro, ma è incompatibile a livello binario? Ha, cioé, un nuovo formato per le istruzioni?

Il core VLIW, invece, dovrebbe avere tutte le parti di x86/x64, ma anche qui non è chiaro se anche lui sarebbe incompatibile a livello binario.
Credo che sia possibile, in fondo i nuovi ryzen hanno gia la predisposizione per utilizzare unità di calcolo eterogenei in modo trasparente per l'os.
Ti dico già subito che non si può fare perché i binari non hanno informazioni su quale tipo di funzionalità vengano usati, e quindi il s.o. non sa su quali core smistare i processi.
Sicuramente ci sarà un consumo di silicio superiore rispetto al solo path software, ma nei primi tempi si avrebbe una perdita minima sui path non più implementati in hardware nei core x86.
Sì. Ma anche una nuova ISA potrebbe emulare x86/x64 con impatti minimi sulle prestazioni, e spostando quasi tutto il legacy in emulazione software.
Ps credo che molte funzioni possano in futuro essere spostati agevolmente dai core x86 alle cu ( apu amd) aumentando al tempo stesso efficienza energetica per secondo e velocità di esecuzione
Le CU sono ben diverse. Non funzionerebbe. Per lo meno non sarebbe efficiente.