Nuovo iPad Pro: prestazioni paragonabili al MacBook Pro 2018 su alcuni benchmark

Nuovo iPad Pro: prestazioni paragonabili al MacBook Pro 2018 su alcuni benchmark

I primi benchmark sui nuovi iPad Pro sottolineano gli enormi passi in avanti compiuti da Apple con i suoi processori basati su architettura ARM

di pubblicata il , alle 19:21 nel canale Apple
AppleiPad
 
38 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
bonzoxxx03 Novembre 2018, 18:41 #21
Per questo volevo il psd che hanno usato cosi da usarlo sul mio tablet x86 con penna
pabloski03 Novembre 2018, 19:33 #22
Originariamente inviato da: MiKeLezZ
Ti faccio una domanda molto banale: perché allora non usano ARM anche sulla linea Mac e MacBook?


Perchè il software non si porta da solo? E' la stessa ragione per cui Itanium fu un flop. Non l'unica ma una delle più importanti.

Originariamente inviato da: MiKeLezZ
Gli ARM sono CPU da tablet, in quanto vanno bene per fare le cose per cui negli anni li hanno specializzati a fare: audio/video processing e web browsing. Quando escono da tale binario è finita.


Non diciamo cazzate. Una CPU che implementi il modello di Von Neumann è una macchina di Turing. Pertanto può fare qualsiasi cosa.

Non c'è nessun limite tecnico, ma solo di mercato, che impedisce ad ARM di entrare nei PC, nei server e nei supercomputer. E infatti, come ho già scritto, è quello da qualche anno stanno facendo.

Esempio https://developer.arm.com/hpc

Originariamente inviato da: MiKeLezZ
Già nella demo il chippettino lo vedevi arrancare con photoshop... e li ho visti solo attivare/disattivare la visibilità livello e usare lo strumento pennello. Che mi facciano vedere l'applicazione di un bel filtro di edge sharpening ;-)


I video lasciano il tempo che trovano. E mi pare anche di aver detto che "stanno" lavorando verso quella direzione, non che sono già arrivati in quella direzione.

Ma come Anandtech scrive, con A11 e A12 si sono avvicinati ad un tiro di schioppo.

Originariamente inviato da: MiKeLezZ
Un ARM da 5W potrà competere forse con un x86 da 5W, ma basta salire poco poco (es. un 15W) per dargliene di santa ragione.


Solo che non sta scritto da nessuna parte che i SoC ARM devono restare entro il limite dei 5W.

Originariamente inviato da: MiKeLezZ
Ora arriverà il genio che dirà "e allora basta fare ARM da 45W!", "basta aggiungere tutte le istruzioni possibili per farli andare come bestie".


E infatti ci sono interi set di istruzioni che estendono le microarchitetture ARM, tra cui NEON, Jazelle, ecc...

E i SoC che stanno uscendo quest'anno integrano cose avanzatissime, come le unità di processamento neurale.

Originariamente inviato da: MiKeLezZ
Sì, bhe, peccato che è questa la differenza fra le due architetture: gli ARM sono pensati per il low power ed eseguono poche istruzioni per clock


E questa dove l'hai letta? Poche istruzioni per clock? Ma hai dato un'occhiata alle implementazioni dei SoC di Apple? E non solo Apple. Faccio anche notare che gli ingegneri ARM, fatte le loro valutazioni, hanno optato per un maggiore impiego di architetture manycore. Cioè loro ritengono che il futuro delle prestazioni stia nel numero di core e non in pochi core superpotenti. E considerando che molti casi d'uso richiedono esecuzioni realtime, direi che non hanno ragionato male.

Ti faccio notare che anche ARM ormai produce microarchitetture superscalari e out of order. Basta dare un'occhiata a Wikipedia per vedere che la musica è nettamente cambiata.

Ripeto che non c'è un limite tecnico, ma solo un limite imposto da ARM, la quale si è sempre mossa nel settore embedded e low power. Ma adesso ha deciso di espandersi altrove.

Originariamente inviato da: MiKeLezZ
gli x86 sono general purpose ed eseguono una brancata di istruzioni per clock, sono pensati come macchine da guerra che macinano tutto. Se modifichi un ARM per assomigliare sempre più alle prestazioni di un x86... otterrai un x86.


Tutto bello, ma secondo te quel "are extremely wide machines" che scrive Anandtech a cosa si riferisce?

Ripeto per l'ennesima volta...ARM storicamente produceva architetture a basso consumo, sacrificando le peformance. ARM ha da qualche anno deciso di rompere il taboo e produrre microarchitetture specifiche per scenari ad alte prestazioni.

Che poi banalmente, se ARM non potesse mai raggiungere x86, che senso avrebbe avuto per Microsoft portarci Windows 10?
MiKeLezZ03 Novembre 2018, 21:12 #23
Originariamente inviato da: pabloski
Perchè il software non si porta da solo? E' la stessa ragione per cui Itanium fu un flop. Non l'unica ma una delle più importanti.
Che sia un flop, è relativo. Oggi quanto ti peserebbe perdere il supporto ai 32-bit per ottenere un 20% di prestazioni in più? Magari! E' solo fallito. Se non fosse esistita l'estensione x86-64 ora probabilmente scriveremmo da un IA-64.
Ma sei sicuro tutto il software sia portabile su ARM? Mantenendo le prestazioni attuali? Un Chrome e un Spotify sono certo funzionerebbero esattamente uguale, ma come credi che girerebbe un handbrake o un cinebench, per esempio? Che si affidano pesantemente ad ottimizzazioni specifiche del set di istruzioni x86? A mio parere, in modo talmente vergognoso che non avrebbe senso compilarlo per tale architettura.
Quindi l'affermazione più corretta è: "non si usa ARM sui portatili perché non ci sono porting del software", oppure "non si usa ARM sui portatili perché non sarebbe sensato farci il porting dell'attuale software"?
Ma anche: "non hanno messo l'A12 sul Mac perché non c'è il software", oppure "hanno messo l'A12 su un tablet perché è l'unico posto dove ha un senso farlo"?

Non diciamo cazzate. Una CPU che implementi il modello di Von Neumann è una macchina di Turing. Pertanto può fare qualsiasi cosa.
Un ARM, un x86, un PowerPC, un MIPS, un FPGA o quello che vuoi sono varianti specifiche per determinati scopi.
Il motore termico ciclo otto è usato da (quasi) tutte le auto, ma di certo una Ferrari non è uguale a una Panda e nessuna della due è uguale a un Land Rover. Ognuna ha i suoi pregi e difetti e un suo specifico utilizzo.
Gli ARM hanno un'inferiore complessità rispetto gli x86 (processano meno istruzioni per ciclo di clock) e non hanno componentistica "legacy", è questo che gli permette di avere minori consumi - ed è quello che vogliono.
Apple ha preso l'ARM e ci sta creando sopra un x86: sta aumentando le istruzioni per ciclo di clock, sta aumentando a dismisura le frequenze, sta aumentando la cache (16MB!?! ce l'ha il 9900K, non so se mi spiego), sta riducendo le latenze cache, ha introdotti sistemi predittivi, supporta il calcolo parallelo e pure out of order (fino a qualche anno fa prerogative dei CISC, ovvero x86).
La ricerca del miglior processo produttivo non è più accessoria, ma fondamentale per rimanere con un basso TDP.
Ovvero ha smontato la Panda da cui è partita, ci ha aggiunto dei pezzi e ha creato una Panda Abarth 300CV che viaggia con solo un cilindro acceso. Ci vuoi girare in pista? Va bene, le Panda originali le batti tutte, ma la Ferrari avrà comunque ruote più larghe, aerodinamica migliore, migliore elettronica e non la superi.

Non c'è nessun limite tecnico, ma solo di mercato, che impedisce ad ARM di entrare nei PC, nei server e nei supercomputer. E infatti, come ho già scritto, è quello da qualche anno stanno facendo.
Esempio https://developer.arm.com/hpc
ARM -VORREBBE- entrare nei supercomputer in quanto settore molto lucrativo. Espandere il proprio business è la missione di ogni azienda sana in quanto significa maggiore profittabilità. Riuscirci, è ben diverso. IBM ad esempio ha investito anima e corpo nei POWER e ha faticato parecchio a tenerli a galla, abbassandosi pure al mercato console. Te lo vorresti un PowerPC nel tuo case? Neppure Apple lo voleva più.
Tu vorresti un ARM? Per ottenere minore compatibilità, prestazioni minori o uguali, piena dipendenza dal produttore? Contento te!!!

I video lasciano il tempo che trovano. E mi pare anche di aver detto che "stanno" lavorando verso quella direzione, non che sono già arrivati in quella direzione.
A mio parere questo iPad Pro non è che il "cavallo di troia" per convincere gli sviluppatori terzi a sviluppare applicazioni "desktop-quality" compilate ARM e paventare così la via per l'adozione di ARM anche nei Mac. Credo anche che Adobe sia stata adeguatamente foraggiata per farlo, in modo da fare da "buon esempio" per gli altri. Questo di Apple è un progetto a lungo termine che credo impiegherà non meno di 5 anni per emergere e per ora si traduce in "sole" performance ridicolmente elevate per i suoi dispositivi mobile (peraltro limitate da costrizioni energetiche).
Ma l'intento è diverso da quello che credi te. L'intento principale è la produzione di hardware a minor costo e quindi un aumento dei margini di guadagno (in quanto non si tradurrà in un abbassamento dei prezzi). Vogliono abbandonare Intel, esattamente come hanno fatto con IBM, ma il motivo questa volta è strettamente economico.
Bisogna vedere se gli utenti Apple saranno contenti di un'era PowerPC v.2, ma 25 anni dopo le cose possono anche essere cambiate (siamo in un surplus di potenza computazionale, quindi anche offrire un hardware depotenziato rispetto la concorrenza non porrà grossi limiti nell'uso).

Ma come Anandtech scrive, con A11 e A12 si sono avvicinati ad un tiro di schioppo.
A dire la verità scrive che il GeekBench non serve a nulla e che lo SPECperf mostra risultati a volte simili a volte mostruosamente inferiori alla controparte x86.

Solo che non sta scritto da nessuna parte che i SoC ARM devono restare entro il limite dei 5W.
Per aumentare il consumo devi aumentare la complessità del chip. Se aumenti la complessità del chip ARM (RISC) ottieni un x86 (CISC). Puoi anche fare un ARM da 50W (come IBM ha fatto un MIPS da 100W), ma tale potenza poi deve essere sfruttata dal software, altrimenti non ci fai nulla e ti naufraga.

E i SoC che stanno uscendo quest'anno integrano cose avanzatissime, come le unità di processamento neurale.
Il "processo neurale" sono cavolate di marketing.

E questa dove l'hai letta? Poche istruzioni per clock? Ma hai dato un'occhiata alle implementazioni dei SoC di Apple? E non solo Apple.
ARM e Apple sono entrati nell'ambito CISC da circa 10 anni mentre AMD e Intel battagliano in quell'ambito da 40 anni, costantemente integrando estensioni x86 (licenziate solo da loro) per migliorare le applicazioni consumer. L'implementazione Apple di ARM per quanto lodevole è ancora lungi dal poter competere ed è per questo che mancano veri e propri benchmark.

Faccio anche notare che gli ingegneri ARM, fatte le loro valutazioni, hanno optato per un maggiore impiego di architetture manycore. Cioè loro ritengono che il futuro delle prestazioni stia nel numero di core e non in pochi core superpotenti. E considerando che molti casi d'uso richiedono esecuzioni realtime, direi che non hanno ragionato male.
Guarda che Apple era rimasta l'unica ad adottare uno o due core quando tutti i sistemi informatici erano oramai indirizzati verso il multicore. Quando Apple ne integrava 2, gli Snapdragon già ne integravano 8. Tale ritardo era dovuto al fatto si fosse concentrata sul potenziamento della singola unità elaborativa.

Ripeto che non c'è un limite tecnico, ma solo un limite imposto da ARM, la quale si è sempre mossa nel settore embedded e low power. Ma adesso ha deciso di espandersi altrove.
ARM non impone nulla. Ti licenzia le sue architetture, poi te ci puoi fare quello che vuoi. Infatti non ha assolutamente tolto dallo sviluppo le in-order.

Che poi banalmente, se ARM non potesse mai raggiungere x86, che senso avrebbe avuto per Microsoft portarci Windows 10?
La missione aziendale di Microsoft è vendere licenze. Dal momento in cui i prodotti con architettura ARM acquisiscono una quota di mercato sufficiente per coprire i costi del progetto di scrittura codice ARM di Windows, Microsoft non ha motivi per NON farlo (attenzione alla doppia negazione!). Ovviamente poi ben si guarda dal dotare i propri Surface (prodotti il cui intento è vedere più unità possibili e fare da vetrina per le funzionalità di Windows) di processori ARM.
MiKeLezZ03 Novembre 2018, 21:50 #24
Originariamente inviato da: Bellaz89
Per citare una persona ben conosciuta in questo forum, quando si parla di microprocessori in dettaglio bisognerebbe dire se si sta parlando di ISA o uArch...
E' una specie di frase ad effetto con aggiunta di inglesismi per sembrare colto?
Stiamo ovviamente parlando sia di architetture di microprocessori che del loro set di istruzioni, come più volte esplicitato.
Bernhard Riemann03 Novembre 2018, 23:27 #25
Originariamente inviato da: Bellaz89
Non sono inglesismi. Sono termini tecnici. E negli argomenti tecnici la precisione è importante.

Perché dal tuo messaggio non si capisce se stai parlando di microarchitetture o architetture.

Se mi dici che ancora nessuna microarchitettura ARM ha ancora le performance GP di Intel nei suoi processori ad alte prestazioni mi sta bene.

Se invece dici che è impossibile fare un'architettura ad alte prestazioni con ISA ARM competitiva su utilizzo GP sono un po' meno d'accordo.


Concordo su tutta la linea.
MiKeLezZ04 Novembre 2018, 01:31 #26
Originariamente inviato da: Bellaz89
Se invece dici che è impossibile fare un'architettura ad alte prestazioni con ISA ARM competitiva su utilizzo GP sono un po' meno d'accordo.
Lo sono anche io visto che è quello che sta facendo Apple stravolgendo questi ARM (che oramai di ARM hanno più solo il nome). Ma anche raggiungendo una parità prestazionale che ipoteticamente equivale anche a una parità di consumi, chi me lo fa fare di preferirli a un x86 già bello che disponibile e perfettamente compatibile ed ottimizzato con qualsiasi programma mi venga in mente?!
thresher325304 Novembre 2018, 02:08 #27
Originariamente inviato da: MiKeLezZ
Che sia un flop, è relativo. Oggi quanto ti peserebbe perdere il supporto ai 32-bit per ottenere un 20% di prestazioni in più? Magari! E' solo fallito. Se non fosse esistita l'estensione x86-64 ora probabilmente scriveremmo da un IA-64.
Ma sei sicuro tutto il software sia portabile su ARM? Mantenendo le prestazioni attuali? Un Chrome e un Spotify sono certo funzionerebbero esattamente uguale, ma come credi che girerebbe un handbrake o un cinebench, per esempio? Che si affidano pesantemente ad ottimizzazioni specifiche del set di istruzioni x86? A mio parere, in modo talmente vergognoso che non avrebbe senso compilarlo per tale architettura.
Quindi l'affermazione più corretta è: "non si usa ARM sui portatili perché non ci sono porting del software", oppure "non si usa ARM sui portatili perché non sarebbe sensato farci il porting dell'attuale software"?
Ma anche: "non hanno messo l'A12 sul Mac perché non c'è il software", oppure "hanno messo l'A12 su un tablet perché è l'unico posto dove ha un senso farlo"?

Un ARM, un x86, un PowerPC, un MIPS, un FPGA o quello che vuoi sono varianti specifiche per determinati scopi.
Il motore termico ciclo otto è usato da (quasi) tutte le auto, ma di certo una Ferrari non è uguale a una Panda e nessuna della due è uguale a un Land Rover. Ognuna ha i suoi pregi e difetti e un suo specifico utilizzo.
Gli ARM hanno un'inferiore complessità rispetto gli x86 (processano meno istruzioni per ciclo di clock) e non hanno componentistica "legacy", è questo che gli permette di avere minori consumi - ed è quello che vogliono.
Apple ha preso l'ARM e ci sta creando sopra un x86: sta aumentando le istruzioni per ciclo di clock, sta aumentando a dismisura le frequenze, sta aumentando la cache (16MB!?! ce l'ha il 9900K, non so se mi spiego), sta riducendo le latenze cache, ha introdotti sistemi predittivi, supporta il calcolo parallelo e pure out of order (fino a qualche anno fa prerogative dei CISC, ovvero x86).
La ricerca del miglior processo produttivo non è più accessoria, ma fondamentale per rimanere con un basso TDP.
Ovvero ha smontato la Panda da cui è partita, ci ha aggiunto dei pezzi e ha creato una Panda Abarth 300CV che viaggia con solo un cilindro acceso. Ci vuoi girare in pista? Va bene, le Panda originali le batti tutte, ma la Ferrari avrà comunque ruote più larghe, aerodinamica migliore, migliore elettronica e non la superi.

ARM -VORREBBE- entrare nei supercomputer in quanto settore molto lucrativo. Espandere il proprio business è la missione di ogni azienda sana in quanto significa maggiore profittabilità. Riuscirci, è ben diverso. IBM ad esempio ha investito anima e corpo nei POWER e ha faticato parecchio a tenerli a galla, abbassandosi pure al mercato console. Te lo vorresti un PowerPC nel tuo case? Neppure Apple lo voleva più.
Tu vorresti un ARM? Per ottenere minore compatibilità, prestazioni minori o uguali, piena dipendenza dal produttore? Contento te!!!

A mio parere questo iPad Pro non è che il "cavallo di troia" per convincere gli sviluppatori terzi a sviluppare applicazioni "desktop-quality" compilate ARM e paventare così la via per l'adozione di ARM anche nei Mac. Credo anche che Adobe sia stata adeguatamente foraggiata per farlo, in modo da fare da "buon esempio" per gli altri. Questo di Apple è un progetto a lungo termine che credo impiegherà non meno di 5 anni per emergere e per ora si traduce in "sole" performance ridicolmente elevate per i suoi dispositivi mobile (peraltro limitate da costrizioni energetiche).
Ma l'intento è diverso da quello che credi te. L'intento principale è la produzione di hardware a minor costo e quindi un aumento dei margini di guadagno (in quanto non si tradurrà in un abbassamento dei prezzi). Vogliono abbandonare Intel, esattamente come hanno fatto con IBM, ma il motivo questa volta è strettamente economico.
Bisogna vedere se gli utenti Apple saranno contenti di un'era PowerPC v.2, ma 25 anni dopo le cose possono anche essere cambiate (siamo in un surplus di potenza computazionale, quindi anche offrire un hardware depotenziato rispetto la concorrenza non porrà grossi limiti nell'uso).

A dire la verità scrive che il GeekBench non serve a nulla e che lo SPECperf mostra risultati a volte simili a volte mostruosamente inferiori alla controparte x86.

Per aumentare il consumo devi aumentare la complessità del chip. Se aumenti la complessità del chip (CISC) ottieni un x86 (RISC). Puoi anche fare un ARM da 50W (come IBM ha fatto un MIPS da 100W), ma tale potenza deve essere sfruttata, altrimenti non ci fai nulla.

Il "processo neurale" sono cavolate di marketing.

ARM e Apple sono entrati nell'ambito CISC da circa 10 anni mentre AMD e Intel battagliano in quell'ambito da 40 anni, costantemente integrando estensioni x86 (licenziate solo da loro) per migliorare le applicazioni consumer. L'implementazione Apple di ARM per quanto lodevole è ancora lungi dal poter competere ed è per questo che mancano veri e propri benchmark.

Guarda che Apple era rimasta l'unica ad adottare uno o due core quando tutti i sistemi informatici erano oramai indirizzati verso il multicore. Quando Apple ne integrava 2, gli Snapdragon già ne integravano 8. Tale ritardo era dovuto al fatto si fosse concentrata sul potenziamento della singola unità elaborativa.

ARM non impone nulla. Ti licenzia le sue architetture, poi te ci puoi fare quello che vuoi. Infatti non ha assolutamente tolto dallo sviluppo le in-order.

La missione aziendale di Microsoft è vendere licenze. Dal momento in cui i prodotti con architettura ARM acquisiscono una quota di mercato sufficiente per coprire i costi del progetto di scrittura codice ARM di Windows, Microsoft non ha motivi per NON farlo (attenzione alla doppia negazione!). Ovviamente poi ben si guarda dal dotare i propri Surface (prodotti il cui intento è vedere più unità possibili e fare da vetrina per le funzionalità di Windows) di processori ARM.


Originariamente inviato da: Bellaz89
Non sono inglesismi. Sono termini tecnici. E negli argomenti tecnici la precisione è importante.

Perché dal tuo messaggio non si capisce se stai parlando di microarchitetture o architetture.

Se mi dici che ancora nessuna microarchitettura ARM ha ancora le performance GP di Intel nei suoi processori ad alte prestazioni mi sta bene.

Se invece dici che è impossibile fare un'architettura ad alte prestazioni con ISA ARM competitiva su utilizzo GP sono un po' meno d'accordo.

Ci sono fonti o libri dove poter studiare un po' di questa roba? State parlando latino per me.
thresher325304 Novembre 2018, 09:56 #28
Qualche nome?
cdimauro04 Novembre 2018, 12:23 #29
Il Patterson ovviamente: Computer Architecture: A Quantitative Approach

Riguardo alla discussione ARM vs x86, purtroppo salta ogni volta che ci sono notizie come questa. Proprio di recente ho già approfondito la questione, per cui non mi ripeterò (chi è interessato può andare a ripescare il messaggio che avevo scritto).

Aggiungo soltanto un paio di considerazioni: non c'è nulla che impedisca ad ARM di integrare estensioni simili a x86. Infatti ce ne sono diverse (Jazelle è ormai legacy, e non più presente da un po' di anni). Il problema è che quelle x86/x64 sono più diffuse, quindi c'è più che software che le sfrutti, ed è difficile portarlo su ARM visto che le ISA (con annesse estensioni) sono molto diverse.

Riguardo alle microarchitetture, invece, la differenza fra x86/x64 e ARM è che le prime, per natura stessa dell'ISA che implementano, consentono di eseguire più "lavoro utile" per singola istruzione, per cui non necessitano di decodificare ed eseguire così tante istruzioni per ciclo di clock rispetto a un equivalente ARM (o altra architettura RISC).
Attualmente il top in ambito ARM è rappresentato proprio dall'A12 di Apple, che offre ottime prestazioni di poco inferiori a un equivalente desktop di Intel, ma per farlo ha bisogno di molte più risorse (decoder più "wide", più unità d'esecuzione, ecc.).
Se pensate che si possa continuare ad aumentare arbitrariamente le risorse in quest'ambito vi sbagliate, perché aumentano non soltanto i costi in termini di transistor e consumi, ma anche quelli di progettazione. Non è un caso che i core di A12 siano di gran lunga più grossi rispetto a tutti gli altri SoC ARM.
Tempo fa ho letto un paper che mostra come aumentino esponenzialmente i costi all'aumentare del numero di istruzioni decodificate & eseguite per ciclo di clock, ma non trovo il link. Comunque se cercaste, trovereste letteratura in merito, visto che si tratta di problematiche ben note nonché studiate.
oatmeal04 Novembre 2018, 15:56 #30
Originariamente inviato da: cdimauro



Riguardo alle microarchitetture, invece, la differenza fra x86/x64 e ARM è che le
Attualmente il top in ambito ARM è rappresentato proprio dall'A12 di Apple, che offre ottime prestazioni di poco inferiori a un equivalente desktop di Intel, ma per farlo ha bisogno di molte più risorse (decoder più "wide", più unità d'esecuzione, ecc.).


cosa si intende per equivalente? watt o cosa?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^