PDA

View Full Version : Apple A8X è un triple-core da 2GB di RAM ad altissime prestazioni


Redazione di Hardware Upg
22-10-2014, 09:22
Link alla notizia: http://www.hwupgrade.it/news/apple/apple-a8x-e-un-triple-core-da-2gb-di-ram-ad-altissime-prestazioni_54571.html

L'architettura Cyclone di Apple si basa sulle performance del singolo core. Ma se ne vengono stipati tre su una singola CPU i risultati potrebbero essere molto elevati. Ed è quello che accade con Apple A8X, il nuovo processore di iPad Air 2

Click sul link per visualizzare la notizia.

Azib
22-10-2014, 09:27
Veramente l' iphone 6 plus rallenta? :mbe:

Simonex84
22-10-2014, 09:34
Questo Air 2 è una bomba, non vedo l'ora di comprarlo!!! il salto rispetto il mio iPad 3 è notevole, finalmente non avrò più lag o impuntamenti :sofico:

Notturnia
22-10-2014, 09:34
bel gioiellino..
forse è ora di aggiornare il mio ipad 3... non fosse altro per la scarsa memoria.. 16 gb stanno diventando pochetti :-(

Jones D. Daemon
22-10-2014, 09:35
"Apple A8X è un triple-core da 2GB di RAM..."

What??? :confused: :confused: :confused:

frankie
22-10-2014, 09:49
Lode ad apple by nino :doh:

HeatLaSfida
22-10-2014, 09:52
non fa in tempo ad uscire il costosissimo nexus 9 con il potentissimo tegra k1, che è già stato battuto, in multi core, da questo nuovo soc con cpu triple core.
mi domando se compete e batte k1, anche a livello di gpu.

DjLode
22-10-2014, 09:58
non fa in tempo ad uscire il costosissimo nexus 9 con il potentissimo tegra k1, che è già stato battuto, in multi core, da questo nuovo soc con cpu triple core.
mi domando se compete e batte k1, anche a livello di gpu.

Il K1 sembra più veloce a livello di gpu. Da Engadget (prima iPad e poi il tablet di Nvidia di riferimento):

3DMark IS Unlimited 21,659 30,970
GFXBench 3.0 Manhattan Off/onscreen (fps) 32.4/24.6 31.0/29.7

Tocca vedere quello montato su Nexus che punteggi fa, perchè se non ricordo male è clockato a frequenze inferiori.

lonewo|_f
22-10-2014, 10:01
non fa in tempo ad uscire il costosissimo nexus 9 con il potentissimo tegra k1, che è già stato battuto, in multi core, da questo nuovo soc con cpu triple core.
mi domando se compete e batte k1, anche a livello di gpu.

"costosissimo" e "potentissimo", manco fosse un surface pro/coso nuovo intel con broadwell

devi anche contare che il k1 è costruito @28nm HPM mentra l'A8x è @20nm

*sasha ITALIA*
22-10-2014, 10:01
iPhone 6 Plus non ha lag. Fonte: ce l'ho.


Detto questo faccio il contro-troll della situazione, dedicato a tutti coloro che sputtanano sempre Apple e le sue soluzioni tecniche.

Valen12
22-10-2014, 10:02
non fa in tempo ad uscire il costosissimo nexus 9 con il potentissimo tegra k1, che è già stato battuto, in multi core, da questo nuovo soc con cpu triple core.
mi domando se compete e batte k1, anche a livello di gpu.


Attenzione, con un core in più sono tutti bravi ad avere prestazioni migliori ! ;)

Tegra K1 (Con la CPU Denver a 64-bit) è un Dual Core + GPU Kepler.

Simonex84
22-10-2014, 10:04
Ma non ho capito da dove hanno recuperato l'informazione che si tratta di un triple-core?

E' una semplice deduzione dovuta al punteggio oppure l'hanno già sezionato?

HeatLaSfida
22-10-2014, 10:06
Tegra K1 (Con la CPU Denver a 64-bit) è un Dual Core + GPU Kepler.

si si lo so, infatti c'è una superiorità del soc apple, solo in multi core.
in single core sono sugli stessi livelli.

Valen12
22-10-2014, 10:08
si si lo so, infatti c'è una superiorità del soc apple, solo in multi core.
in single core sono sugli stessi livelli.


Se proprio stiamo ai numeri, come si dice dalle mie parti, K1 sta una " 'nticchia " sopra (roba di 100 punti) in single core. E secondo me la GPU del K1 di Nexus 9 sarà un pochino più potente. Anzi, su GFX Bench qualcosa ci dovrebbe già essere, se non sbaglio.

Aspettiamo di vedere le prossime CPU Qualcomm con più di 2 core a 64-bit, poi i numeri cambieranno ancora. :)

DjLode
22-10-2014, 10:11
Attenzione, con un core in più sono tutti bravi ad avere prestazioni migliori ! ;)

Tegra K1 (Con la CPU Denver a 64-bit) è un Dual Core + GPU Kepler.

No, ci sono quad core che stanno dietro. Quindi la tua affermazione è palesemente falsa ;)

Valen12
22-10-2014, 10:18
No, ci sono quad core che stanno dietro. Quindi la tua affermazione è palesemente falsa ;)


No, non direi proprio. Controlla che lo Shield tablet ha sempre Tegra K1 ma ha una CPU Quad-Core a 32bit mentre il tegra K1 di Nexus 9 monta la CPU Denver che è un dual-core a 64bit. Quindi no, non c'è proprio nulla di falso.

Infatti se vai a controllare il dual-core di A8 liscio in multi core è in linea con i quad-core a 32bit.

Attenzione prima di dare del falso a qualcuno.;)

PS: veramente confronti le prestazioni multicore di due CPU con archittetura diversa ? (32bit vs 64bit) ;) E' chiaro che tre core a 64 bit vadano più di 4 a 32 bit. :)

znick
22-10-2014, 10:22
Valen12, quello che intende DjLode è che non ha senso dire "con un core in più sono tutti bravi"
a parità di un solo core le due tecnologie si equivalgono.
apple però ha una combinazione di consumi-batteria che le permette di sbattere un core in più e prendersi il vantaggio.

ed è inutile dire "allora il K1 quad core farebbe meglio ancora", stiamo parlando di tecnologia disponibile oggi su tablet acquistabili in negozio.. non parliamo di ipotesi future.

DjLode
22-10-2014, 10:23
No, non direi proprio. Controlla che lo Shield tablet ha sempre Tegra K1 ma ha una CPU Quad-Core a 32bit mentre il tegra K1 di Nexus 9 monta la CPU Denver che è un dual-core a 64bit. Quindi no, non c'è proprio nulla di falso.


Parto da questa affermazione: "con un core in più tutti bravi ad avere prestazioni migliori".


Infatti se vai a controllare il dual-core di A8 liscio in multi core è in linea con i quad-core a 32bit.


Quindi di fatto quello che hai detto è falso :)


PS: veramente confronti le prestazioni multicore di due CPU con archittetura diversa ? (32bit vs 64bit) ;)

Tu invece stai veramente confrontando i risultati di due architetture diverse, Cyclone e Denver, riducendo tutto a: con un core in più tutti bravi ad avere prestazioni migliori?

Valen12
22-10-2014, 10:26
Parto da questa affermazione: "con un core in più tutti bravi ad avere prestazioni migliori".



Quindi di fatto quello che hai detto è falso :)



Tu invece stai veramente confrontando i risultati di due architetture diverse, Cyclone e Denver, riducendo tutto a: con un core in più tutti bravi ad avere prestazioni migliori?

Forse non ci siamo capiti, il confronto era fatto rispetto a Tegra K1 dual-core a 64bit. E' stato detto che A8X ha subito superato K1-Denver (Sono entrambi a 64 bit, non parlavo di confronti 32 vs 64) quindi a parità di prestazioni di CPU a 64bit mi sembra chiaro che tre core vadano più di 2. Non mi sembra che Apple, avendo aggiunto un core abbia scoperto l'acqua calda.

DjLode
22-10-2014, 10:28
Forse non ci siamo capiti, il confronto era fatto rispetto a Tegra K1 dual-core a 64bit. E' stato detto che A8X ha subito superato K1-Denver (Sono entrambi a 64 bit, non parlavo di confronti 32 vs 64) quindi a parità di prestazioni di CPU a 64bit mi sembra chiaro che tre core vadano più di 2.

Ci rinuncio :)

Valen12
22-10-2014, 10:29
Ci rinuncio :)

No, probabilmente sono io che devo rinunciare :)

Maphia88
22-10-2014, 10:30
Non capisco tutti questi discorsi sul numero di core. All utente finale che abbia un singolo core o 8 core non dovrebbe cambiare. L'utente finale si deve preoccupare delle prestazioni e non di come ci si arriva.

san80d
22-10-2014, 10:30
si confermano i migliori tablet in circolazione

Valen12
22-10-2014, 10:33
Non capisco tutti questi discorsi sul numero di core. All utente finale che abbia un singolo core o 8 core non dovrebbe cambiare. L'utente finale si deve preoccupare delle prestazioni e non di come ci si arriva.

Vabè essendo un forum di appassionati di tecnologia, mi sembrano normali 'sti discorsi. Poi non sono obbligatori eh ! :)

Simonex84
22-10-2014, 10:35
Non mi sembra che Apple, avendo aggiunto un core abbia scoperto l'acqua calda.

Invece è stata decisamente più brava di NVidia aggiungendo un core e mantenendo invariati consumi e generazione di calore

coschizza
22-10-2014, 10:35
Attenzione, con un core in più sono tutti bravi ad avere prestazioni migliori ! ;)

Tegra K1 (Con la CPU Denver a 64-bit) è un Dual Core + GPU Kepler.

questo non ma i stato vero in informatica e non lo è tuttora. Quello ce conta è la cpu o il soc nel suo complesso.

Se il tuo posto fosse vero le cpu amd non sarebbero tutte piu lente di quelle intel mentre hanno piu core/moduli a disposizione. Stessa cosa con le cpu arm, il soc apple è molto piu performante delle incarnazioni ufficiali di arm.

E la stessa cosa vale per i soc intel per smartphone, con 2 core si confrontano con le cpu arm a 4 core piu veloci e con 4 core invece prendono il largo.

L'architettura è quella cha fa la differenza, anche un misero core Haswell dasolo umilia un qualsiasi soc arm da 4 core se non confrontiamo anche il consumo come parametro.

recoil
22-10-2014, 10:36
ottime prestazioni

hanno abbassato il prezzo dei modelli 2013 ma questo A8X credo potrà garantire maggiore longevità rispetto agli A7 quindi la tentazione di fare il salto a Air 2 è forte... per 100 euro di differenza secondo me vale la pena Air 2, mentre non si può dire lo stesso del mini

acerbo
22-10-2014, 10:39
il precedente soc nvidia era pieno di core, ma prendeva la sveglia da tutti gli snapdragon dual core, dunque piu' core non significa sempre + performances.
Detto questo me ne sbatto la mazza di avere il soc piu' performante del piante se poi :
1) tablet e smartphone li uso per navigare, messaggiare e giocare a temple run
2) Se l'OS e le applicazioni non sono ottimizzati e non sfruttano come si deve l'hardware.

coschizza
22-10-2014, 10:40
Invece è stata decisamente più brava di NVidia aggiungendo un core e mantenendo invariati consumi e generazione di calore

per essere onesti non si puo dire che è stata brava ma ha solo applciato le leggi della fisica, essendo il k1 fatto a 28nm e l'a8x a 20nm, amd ha solo fatto quello che il processo produttivo avrebbe permesso a chiunque nvidia compresa.

Valen12
22-10-2014, 10:40
questo non ma i stato vero in informatica e non lo è tuttora. Quello ce conta è la cpu o il soc nel suo complesso.

Se il tuo posto fosse vero le cpu amd non sarebbero tutte piu lente di quelle intel mentre hanno piu core/moduli a disposizione. Stessa cosa con le cpu arm, il soc apple è molto piu performante delle incarnazioni ufficiali di arm.

E la stessa cosa vale per i soc intel per smartphone, con 2 core si confrontano con le cpu arm a 4 core piu veloci e con 4 core invece prendono il largo.

L'architettura è quella cha fa la differenza, anche un misero core Haswell dasolo umilia un qualsiasi soc arm da 4 core se non confrontiamo anche il consumo come parametro.


Sicuramente è vero quel che dici, ma vedendo i "numeri" che girano sui SoC ARM, non mi è sembrato strano che con un core in più A8X andasse in più di Denver 64bit, visto che le prestazioni in Dual erano molto simili. Poi non ci dimentichiamo che K1 è prodotto a 28 nm e A8X a 20nm, sarà curioso vedere quando saranno prodotti con lo stesso processo.

PS. Per dire che sia più performante delle ARM "ufficiali", aspettiamo che di Cortex A53 e A57 ancora praticamente sul mercato non se ne vedono (con tanto di OS a 64 bit). ;)

Simonex84
22-10-2014, 10:46
il precedente soc nvidia era pieno di core, ma prendeva la sveglia da tutti gli snapdragon dual core, dunque piu' core non significa sempre + performances.
Detto questo me ne sbatto la mazza di avere il soc piu' performante del piante se poi :
1) tablet e smartphone li uso per navigare, messaggiare e giocare a temple run
2) Se l'OS e le applicazioni non sono ottimizzati e non sfruttano come si deve l'hardware.

Io uso l'iPad principalmente per navigare e per questo ad essere onesti basterebbe anche il primissimo iPad, però io odio le attese e mi fanno venire il nervoso i terminali lenti, quindi sono ben felice di prendere un mostro di potenza e usarne una minima parte per visualizzare senza impuntamenti le pagine web :D

CrapaDiLegno
22-10-2014, 10:53
il precedente soc nvidia era pieno di core, ma prendeva la sveglia da tutti gli snapdragon dual core, dunque piu' core non significa sempre + performances.
Detto questo me ne sbatto la mazza di avere il soc piu' performante del piante se poi :
1) tablet e smartphone li uso per navigare, messaggiare e giocare a temple run
2) Se l'OS e le applicazioni non sono ottimizzati e non sfruttano come si deve l'hardware.
In verità il precedente SoC di nvidia (il Tegra4) è perfettamente in linea a tutti gli altri SoC che montano core Cortex A-15. Così come lo è il K1 32-bit

Non capisco tutti questi discorsi sul numero di core. All utente finale che abbia un singolo core o 8 core non dovrebbe cambiare. L'utente finale si deve preoccupare delle prestazioni e non di come ci si arriva.
Hai perfettamente ragione, ma "le prestazioni" così come misurate dai benchmark non sono quelle che si hanno nell'uso del dispositivo normalmente, dato che per avere uguali prestazioni da iù core significa avere il SW che sfrutta tutti i core, cosa che non è per niente vera.
I numeri dei benchmark (o le varie barrette colorate che tanto vanno di moda) vanno persi con le pinze e ragionati. Avere un numero altissimo quando si usano 8 core è ben diverso che avere un numero alto quando i core in gioco sono solo 2. Molto meglio la seconda soluzione anche se in asoluto ottiene prestazioni misurate dai benchmark leggermetne inferiori.

Quindi sapere quanti sono i core in gioco per raggiungere una determinata prestazione è importante se si vuole dare un "significato utile" al benchmark.

Notturnia
22-10-2014, 10:53
@Valent12 .. se aspettiamo che nVidia pasi a 20nm per vedere il confronto paragonerai SOC di epoche diverse.. che farai.. confronterai il SOC 2014 di Apple con quello d2015 o 2016 di nVidia ?..

oggi esce K1 e oggi esce A8X e nVidia con il tegra è indietro.. così come nVidia con le GPU da pc è avanti rispetto ad AMD..

c'è poco da fare.. nel 2014 si puo' fare quello che fa l'A8X di Apple.. MS e nVidia stanno rincorrendo perché non hanno la capacità di mettere più core in un die con un consumo ragionevole.. fra un'anno o due ci arriveranno ma immagino rivaleggeranno con A9X e non l'attuale A8X.. speriamo, per il mercato, che facciano un salto decente e che non siano sempre dietro.. K1 era un bel concorrente (e lo resta tutt'ora visto che le app non sono tutte fatte bene) vediamo che risposta ci sarà da parte dei futuri pad di Samsung..

Valen12
22-10-2014, 10:59
@Valent12 .. se aspettiamo che nVidia pasi a 20nm per vedere il confronto paragonerai SOC di epoche diverse.. che farai.. confronterai il SOC 2014 di Apple con quello d2015 o 2016 di nVidia ?..

oggi esce K1 e oggi esce A8X e nVidia con il tegra è indietro.. così come nVidia con le GPU da pc è avanti rispetto ad AMD..

c'è poco da fare.. nel 2014 si puo' fare quello che fa l'A8X di Apple.. MS e nVidia stanno rincorrendo perché non hanno la capacità di mettere più core in un die con un consumo ragionevole.. fra un'anno o due ci arriveranno ma immagino rivaleggeranno con A9X e non l'attuale A8X.. speriamo, per il mercato, che facciano un salto decente e che non siano sempre dietro.. K1 era un bel concorrente (e lo resta tutt'ora visto che le app non sono tutte fatte bene) vediamo che risposta ci sarà da parte dei futuri pad di Samsung..


Dai per scontato che Nvidia non abbia prodotto a 20 nm per mancanza tecnica. Ti ricordo che Apple ha prenotato praticamente tutte le fonderie non Samsung per la produzione dei propri chip, e i clienti più grossi comandano sul mercato. MS non produce SoC, quindi non c'entra. Da qui a dire che A8X è il migliore in assoluto ci andrei molto cauto, visto che i consumi di K1 sono comunque bassi.

"Fra un anno o due ci arriveranno", quanta fede in Apple...

Per la cronaca, K1-Denver è stato presentato ed analizzato a gennaio, non l'altroieri, in 10 mesi abbondanti sappiamo che le cose cambiano rapidamente.

http://www.extremetech.com/computing/174023-tegra-k1-64-bit-denver-core-analysis-are-nvidias-x86-efforts-hidden-within

acerbo
22-10-2014, 11:01
In verità il precedente SoC di nvidia (il Tegra4) è perfettamente in linea a tutti gli altri SoC che montano core Cortex A-15. Così come lo è il K1 32-bit


Beh il mio Moto X che monta un "modesto" S4 PRO dual Core a 1.7GHZ su antutu fà leggermente meglio del Tegra4 a 1.9ghz che ha 4+1 core.
Come vedi tutto é relativo.

Mparlav
22-10-2014, 11:10
In un soc per dispositivo mobile è rilevante il prestazioni/consumi prima di ogni altra considerazione.
Il soc è composto dalla cpu ma anche da gpu e cache.

Se la cpu è dual, quad o octacore è un fattore relativo, che riscuote la stessa importante del numero di core nella gpu o di texture units.

P.S.: L'Exynos 5433 con A57 ed A53 è in commercio, sia sui Note 4 (N910C) che sui Tab S.

Valen12
22-10-2014, 11:14
In un soc per dispositivo mobile è rilevante il prestazioni/consumi prima di ogni altra considerazione.
Il soc è composto dalla cpu ma anche da gpu e cache.

Se la cpu è dual, quad o octacore è un fattore relativo, che riscuote la stessa importante del numero di core nella gpu o di texture units.

P.S.: L'Exynos 5433 con A57 ed A53 è in commercio, sia sui Note 4 (N910C) che sui Tab S.

Si ma ancora Android ancora non gira nativamente a 64 bit, quindi c'è da attendere ancora un attimo.

pirlano
22-10-2014, 11:15
non fa in tempo ad uscire il costosissimo nexus 9 con il potentissimo tegra k1, che è già stato battuto, in multi core, da questo nuovo soc con cpu triple core.
mi domando se compete e batte k1, anche a livello di gpu.

1) se su single core si equivalgono, e l'A8X ha un core in più, mi sembra ovvio che lo batte in multi core.
2) la GPU è il punto forte del K1. K1 e A8X hanno lo stesso rapporto GFLOPS per Mhz. Con la differenza che sul K1 la GPU gira a 850Mhz, sull'A8X a 300Mhz...quindi date queste condizioni, non mi sorprenderei di vedere il K1 polverizzare nella pratica l'A8X sulla grafica :)

L'A8X punta più sulla CPU, il K1 più sulla GPU, come prestazioni generali si equivalgono, a parte questa scelta diversa

Mparlav
22-10-2014, 11:24
Beh il mio Moto X che monta un "modesto" S4 PRO dual Core a 1.7GHZ su antutu fà leggermente meglio del Tegra4 a 1.9ghz che ha 4+1 core.
Come vedi tutto é relativo.

Un Tegra 4 fa 31000-32000 con Antutu v4:

L'S4 Pro del Moto X fa' circa 19000 in quel test.

Ginopilot
22-10-2014, 11:29
Veramente l' iphone 6 plus rallenta? :mbe:

Naturalmente no, figurati.

znick
22-10-2014, 11:33
Per la cronaca, K1-Denver è stato presentato ed analizzato a gennaio, non l'altroieri,

verissimo, annunciato a gennaio, ma disponibile per la prima volta su un dispositivo nei negozi a ottobre. Come l'A8X.

Mparlav
22-10-2014, 11:34
Si ma ancora Android ancora non gira nativamente a 64 bit, quindi c'è da attendere ancora un attimo.

Il fatto che non vengano ancora sfruttati i 64bit, non significa che non vengano sfruttate le altre peculiarità dei core A57 ed A53.

Con Geekbench 3 il Tab S Exynos 5433 fa' 1270-4163 (4xA57 - 4xA53)

Il Tab S con Exynos 5420 fa' 909-2777 (4xA15 + 4xA7).

Stesso clock (1.9-1.3GHz). Testati ovviamente a 32bit.

Incrementi a prescindere dai 32/64bit.

devil_mcry
22-10-2014, 11:40
Se proprio stiamo ai numeri, come si dice dalle mie parti, K1 sta una " 'nticchia " sopra (roba di 100 punti) in single core. E secondo me la GPU del K1 di Nexus 9 sarà un pochino più potente. Anzi, su GFX Bench qualcosa ci dovrebbe già essere, se non sbaglio.

Aspettiamo di vedere le prossime CPU Qualcomm con più di 2 core a 64-bit, poi i numeri cambieranno ancora. :)

Va anche a quasi 1GHz in più K1, questi sono a 1.4GHz mi pare, non 2.5

L'architettura Apple per i core è comunque più performante.

coschizza
22-10-2014, 11:43
Naturalmente no, figurati.

invece è normale che rallenti, il confronto è fatto rispetto al modello non plus, essendo il soc lo stesso ma la risoluzione superiore è normale che il tutto sia piu appensatito.

il modello plus deve muovere il 100% in piu di pixel in piu a parita di hardware.

HeatLaSfida
22-10-2014, 11:43
Un Tegra 4 fa 31000-32000 con Antutu v4:

L'S4 Pro del Moto X fa' circa 19000 in quel test.

con Antutu V5.1.5 ed un Tegra 4i ho fatto 29672pt

Valen12
22-10-2014, 11:46
Il fatto che non vengano ancora sfruttati i 64bit, non significa che non vengano sfruttate le altre peculiarità dei core A57 ed A53.

Con Geekbench 3 il Tab S Exynos 5433 fa' 1270-4163 (4xA57 - 4xA53)

Il Tab S con Exynos 5420 fa' 909-2777 (4xA15 + 4xA7).

Stesso clock (1.9-1.3GHz). Testati ovviamente a 32bit.

Incrementi a prescindere dai 32/64bit.

Quindi mi dici che se l'app gira a 64 bit o a 32 bit non cambia nulla a livello di test ? Tra l'altro c'è da capire come Samsung abbia impostato lo scaling di tutti core. Gli incrementi ci stanno, ma non credo riflettano il potenziale del "girare nativamente a 64 bit".

Mparlav
22-10-2014, 11:49
Quindi mi dici che se l'app gira a 64 bit o a 32 bit non cambia nulla a livello di test ? Tra l'altro c'è da capire come Samsung abbia impostato lo scaling di tutti core. Gli incrementi ci stanno, ma non credo riflettano il potenziale del "girare nativamente a 64 bit".

No, dico che potrebbe esserci un'ulteriore incremento, in alcuni frangenti, girando a 64bit piuttosto che a 32bit.

Ma il più delle prestazioni dell'A57 già viene sfruttato con i 32bit.

RaZoR93
22-10-2014, 11:54
Senz'altro molto interessante il confronto fra A8 e Denver. è chiaro che Nvidia ha una soluzione competitiva per quanto riguarda le performance, anche se ora è da vedere il rapporto fra le GPU. Certo è che il livello prestazionale è paragonabile alle soluzioni Intel per notebook di qualche anno fa, il che è sorprendente.

coschizza
22-10-2014, 11:55
No, dico che potrebbe esserci un'ulteriore incremento, in alcuni frangenti, girando a 64bit piuttosto che a 32bit.

Ma il più delle prestazioni dell'A57 già viene sfruttato con i 32bit.

ARM ha mostrato dei bencmark che mostravano un incremento medio del 20% fra un codice 32bit contro lo stesso compilato a 64 bit sui loro A57.

http://images.anandtech.com/doci/7995/Screen%20Shot%202014-05-06%20at%202.59.56%20AM_575px.png

Valen12
22-10-2014, 11:57
No, dico che potrebbe esserci un'ulteriore incremento, in alcuni frangenti, girando a 64bit piuttosto che a 32bit.

Ma il più delle prestazioni dell'A57 già viene sfruttato con i 32bit.

Boh, non saprei che dirti se non "aspettiamo i numeri". Non sono convintissimo.

Comunque spero che Nvidia riesca a prenotare a qualche fonderia la produzione dei prossimi SoC a 20 nm, visto che Apple ha fatto asso piglia tutto. :D

Se continuano poi sulla via dell'ottimizzazione dei consumi come con Maxwell non sarà che una gran cosa.

RaZoR93
22-10-2014, 12:02
1) se su single core si equivalgono, e l'A8X ha un core in più, mi sembra ovvio che lo batte in multi core.
2) la GPU è il punto forte del K1. K1 e A8X hanno lo stesso rapporto GFLOPS per Mhz. Con la differenza che sul K1 la GPU gira a 850Mhz, sull'A8X a 300Mhz...quindi date queste condizioni, non mi sorprenderei di vedere il K1 polverizzare nella pratica l'A8X sulla grafica :)

L'A8X punta più sulla CPU, il K1 più sulla GPU, come prestazioni generali si equivalgono, a parte questa scelta diversa

GFXBench 3.0 Manhattan Off Screen (fps) 32.4 A8X
GFXBench 3.0 Manhattan Off Screen (fps) 31.0 K1 (Shield tablet)

Se questo lo chiami polverizzare. :sofico: (dalla review di engadget)

Mparlav
22-10-2014, 12:04
ARM ha mostrato dei bencmark che mostravano un incremento medio del 20% fra un codice 32bit contro lo stesso compilato a 64 bit sui loro A57.

http://images.anandtech.com/doci/7995/Screen%20Shot%202014-05-06%20at%202.59.56%20AM_575px.png

In pratica ci sarebbe un'incremento dai 32bit ai 64bit su A57 molto simile a quello da A15 ad A57.
Promettente, ma vediamo cosa accade nelle implementazioni dei vari produttori.

Per ora c'è solo Exynos e K1
Tocca vedere Snapdragon 808/810.

Ginopilot
22-10-2014, 12:07
invece è normale che rallenti, il confronto è fatto rispetto al modello non plus, essendo il soc lo stesso ma la risoluzione superiore è normale che il tutto sia piu appensatito.

il modello plus deve muovere il 100% in piu di pixel in piu a parita di hardware.

L'iphone 6+ non rallenta certo, al massimo potrebbe risultare piu' lento con alcuni soft, cosa tutta da dimostrare sul campo. Ma nell'uso l'interfaccia non rallenta, figuriamoci, non succede neanche con un vecchio iphone5 con ios 8.1 che sara' potente la meta' o anche meno.

Personaggio
22-10-2014, 12:19
Diciamo chiaramente che per il 100% dell app K1 e A8X vanno uguali. Quando avvii una APP essa è formata da un solo processo e quindi usa un solo core, dal punto di vista del singolo core sono pressoché identiche. La differenza la si ha nel multitasking, ma sinceramente in un tablet il multitasking è giusto da una parte il sistema operativo con tutte le funzioni di base (una CPU) e la app in esecuzione (seconda CPU). La terza non la usi mai, a meno che non si usano due APP diverse in contemporanea dividendo lo schermo in due, e non so se si possa fare con iOS 8.
Mi conoscete per andare sempre contro la politica Apple, ma sulle sue CPU non c'è niente da dire, da 2 anni sono nettamente migliori di ARM (il discorso vale in favore di Apple sui cellulari che ha solo 2 CPU gli ARM 4 ma ne usi solo 2)
Quello che si evince, invece, è che il K1, sebbene usi una architettura vecchia di un anno (28nm) sia alla pari di A8X, e secondo me è un grande successo per Nvidia. La Apple concentra gran parte delle sue risorse per progettare i suoi SoC, mentre nVidia solo una piccola parte visto che il suo Core Business è altro, ed è incredibile che sia riuscita in poco tempo a surclassare ARM.
Poi ricordiamoci che la GPU di K1 è nettamente superiore a quella in A8x, ma questo rimane cmq una fattore interessante solo ad una piccola parte dei consumatori, quelli che giocano a giochi sufficientemente seri su tablet.

znick
22-10-2014, 12:26
@personaggio non è corretto quello che hai scritto:
se un'app è scritta per sfruttare il multithread, questa trarrà beneficio dalle cpu a più core.
Per esempio, le app di editing video e foto, oltre che i giochi, saranno molto avantaggiate dalle cpu multicore.

CrapaDiLegno
22-10-2014, 12:41
Va anche a quasi 1GHz in più K1, questi sono a 1.4GHz mi pare, non 2.5

L'architettura Apple per i core è comunque più performante.
Ma ancora a guardare la frequenza di architetture diverse per capire quella che "è meglio performante"? Possibile che 40 anni di storia dell'elettrinica non vi hanno insegnato proprio nulla?

Che un chip vada a 3GHz e un altro a 1GHz dice ben poco "su chi sia più performante". E nemmeno chi sia "più efficiente".
I parametri da tenere in considerazione sono tanti: il primo è il consumo. Ma poi vengono altri fattori, tipo la quantità di silicio usata (o di transistor se si parla di PP diversi). Quanto è grande un core Apple rispetto a uno Denver?
Uno potrebbe dire, chi se ne frega. Certo, ma è indicativo della potenzialità di una o l'altra architettura di poter integrare più core nel futuro, se necessario, se economicamente ha senso, se c'è un PP migliore a disposizione, se una serie di cose combaciano, e sappiamo che nvidia e Apple operano in due modi differenti nel mercato mobile, con la seconda che ha la possibilità di fare i SoC grandi quanto le pare, tanto i profitti arrivano comunque, mentre la prima (come tutti gli altri concorrenti, Samsung esclusa) che vende il suo SoC deve tenere d'occhio i costi e quindi risicare anche il mm^2 dove possibile.
Poi c'è da tenere in considerazione quale tipologia di utilizzo si vuole fare di quel SoC. Meglio un SoC che a parità di consumi ha il 100% in più di potenza computazionale sulla GPU o meglio che ce l'abbia sulla CPU?
Quanto sono realmente sfruttabili 3, 4, 8 core al posto di 2 (benchmark a parte)? E una GPU dalla potenza di una scheda video discreta da desktop? Si parla di dispositivi mobili, che hanno potenzialità limitate già solo per l'interfaccia d'interazione e il cui prezzo è caratteristica altamente discriminante... 2, 4 o 10 euro in più per questa o quella (remota) possibilità d'uso hanno senso?

Quello che è importante da questo confronto non è sapere quanti core ci stanno in un SoC piuttosto che in un altro, ma vedere che il nuovo K1 di nvidia ha la stessa capacità computazionale del "famoso" Cyclone di Apple (che lasciano Samsung e sopratutto Qualcomm nella polvere). Sarebbe utile avere un bel confronto di dimensioni e consumi per valutare meglio in quale posizione si pongono sul mercato i due SoC e se vi sono margini di miglioramento per entrambi.
Non dimentichiamo che per quanto l'A8X integri un core in più, sostanzialmente non è cambiato molto rispetto all'A7 (vedere confronti A7 vs A8) e questo può essere indice del fatto che modificare una architettura di questo genere non è facile e richiede molto tempo. O è già "espansa" a sufficienza sul silicio da necessitare qualcosa di più di un mezzo shrink per poter essere migliorata sostanzialmente.

Del Denver si sa ben poco, se non che non sembra essere un'architettura classica ma una sorta di CPU in grado di "emulare" le istruzioni ARM, quindi con possibilità e potenzialità ben diverse da quelle offerte da una architettura "cablata" che necessita molto più impegno ad essere modificata.

Per quanto riguarda la questione performance 32bit vs 64bit, si sa già che l'incrementro delle performace non è dovuta al raddoppio dei bit delle unità di elaborazione, ma dal fatto che da ARM v7 (32 bit) ad ARM v8 (64bit) sono cambiate tutta una serie di altri parametri e risorse a diposizione che permettono un'aumento di IPC senza cambiare il codice.
E' da questo fatto che è un anno che si dice che la mossa di Apple di pubblicizzare il suo iPhone come 64bit è solo una mossa di marketing, dato che di quei 64 bit non sfrutta proprio niente: nemmeno la possibilità di indirizzare più di 4GB di RAM, dato che nei suoi dispositivi oggi si grida al miracolo al fatto che ne siano stati montati (ben) 2. E un applicativo da smartphone di conti a 64bit ne farà 4 in tutta la sua vita.
Però 64 bit fanno figo: 64 is meil che 32, così come 20MPixel sono meglio di 12, 4GHz su una architettura meglio per le performance di 2 su un'altra, ma peggio per i consumi... insomma, il marketing è uno strumento potente e se non lo si sa fare nel modo migliore non si può diventare l'azienda tecnologica con il fatturato più grande del mondo.

Per rendervene conto, provate contare quanti notizie che riportano la parola Apple al loro interno. E' sempre questione di marketing.

Dragon2002
22-10-2014, 12:43
Non capisco perché non mettere la stessa cpu su iphone 6 dove invece c'è un leggerissimo upgrade rispetto a quella del 5s.
E non stiamo parlando di un cellulare economico.

Simonex84
22-10-2014, 12:51
Non capisco perché non mettere la stessa cpu su iphone 6 dove invece c'è un leggerissimo upgrade rispetto a quella del 5s.
E non stiamo parlando di un cellulare economico.

Perchè sicuramente l'A8X consuma di più, scalda di più e occupa più spazione dell'A8, inoltre non c'è nessuna ragione per farlo, su iPad serve più potenza soprattutto per la risoluzione maggiore

CrapaDiLegno
22-10-2014, 12:51
@personaggio non è corretto quello che hai scritto:
se un'app è scritta per sfruttare il multithread, questa trarrà beneficio dalle cpu a più core.
Per esempio, le app di editing video e foto, oltre che i giochi, saranno molto avantaggiate dalle cpu multicore.
Uso tutti i giorni il mio tablet per fare editing video e ritoccare le foto con le dita.... certo certo...

@Personaggio
Non è che ci voglia molto a superare le prestazioni dei core ARM. Non perché ARM non sappia creare core potenti, ma come ho detto prima bisogna sempre valutare le risorse usate per arrivare ad un determinato livello di prestazioni. ARM è da sempre che sviluppa in campo embedded, e in questo particolare campo contano fondamnetalmente 2 cose: i consumi e le dimensioni ridotte. Se fa i il confronto tra i vari core ARM e quelli custom vedrai che questi ultimi vanno sì di più ma consumano di più e sopratutto sono molto più grandi in termini di silicio usato.
Quindi hanno senso solo se il produttore ha un mercato/prodotto ben specifico in cui costi e consumi sono meno importanti di quelli che sono i target ricercati da ARM.
Per tanto, così come non trovo straordinario che qualcuno faccia core più performanti di quelli "standard" ARM, troverei eccezionale qualcuno che li facesse più piccoli a parità di prestazioni.

Per chi ha familiarità con la compilazione del codice, una è ottimizzazione per size, l'altra per speed, e come ben si sa una inficia l'altra. Si può trovare sempre un compromesso, ma i due estremi tendono sempre in direzioni opposte.

devil_mcry
22-10-2014, 12:53
Ma ancora a guardare la frequenza di architetture diverse per capire quella che "è meglio performante"? Possibile che 40 anni di storia dell'elettrinica non vi hanno insegnato proprio nulla?

Che un chip vada a 3GHz e un altro a 1GHz dice ben poco "su chi sia più performante". E nemmeno chi sia "più efficiente".
I parametri da tenere in considerazione sono tanti: il primo è il consumo. Ma poi vengono altri fattori, tipo la quantità di silicio usata (o di transistor se si parla di PP diversi). Quanto è grande un core Apple rispetto a uno Denver?
Uno potrebbe dire, chi se ne frega. Certo, ma è indicativo della potenzialità di una o l'altra architettura di poter integrare più core nel futuro, se necessario, se economicamente ha senso, se c'è un PP migliore a disposizione, se una serie di cose combaciano, e sappiamo che nvidia e Apple operano in due modi differenti nel mercato mobile, con la seconda che ha la possibilità di fare i SoC grandi quanto le pare, tanto i profitti arrivano comunque, mentre la prima (come tutti gli altri concorrenti, Samsung esclusa) che vende il suo SoC deve tenere d'occhio i costi e quindi risicare anche il mm^2 dove possibile.
Poi c'è da tenere in considerazione quale tipologia di utilizzo si vuole fare di quel SoC. Meglio un SoC che a parità di consumi ha il 100% in più di potenza computazionale sulla GPU o meglio che ce l'abbia sulla CPU?
Quanto sono realmente sfruttabili 3, 4, 8 core al posto di 2 (benchmark a parte)? E una GPU dalla potenza di una scheda video discreta da desktop? Si parla di dispositivi mobili, che hanno potenzialità limitate già solo per l'interfaccia d'interazione e il cui prezzo è caratteristica altamente discriminante... 2, 4 o 10 euro in più per questa o quella (remota) possibilità d'uso hanno senso?

Quello che è importante da questo confronto non è sapere quanti core ci stanno in un SoC piuttosto che in un altro, ma vedere che il nuovo K1 di nvidia ha la stessa capacità computazionale del "famoso" Cyclone di Apple (che lasciano Samsung e sopratutto Qualcomm nella polvere). Sarebbe utile avere un bel confronto di dimensioni e consumi per valutare meglio in quale posizione si pongono sul mercato i due SoC e se vi sono margini di miglioramento per entrambi.
Non dimentichiamo che per quanto l'A8X integri un core in più, sostanzialmente non è cambiato molto rispetto all'A7 (vedere confronti A7 vs A8) e questo può essere indice del fatto che modificare una architettura di questo genere non è facile e richiede molto tempo. O è già "espansa" a sufficienza sul silicio da necessitare qualcosa di più di un mezzo shrink per poter essere migliorata sostanzialmente.

Del Denver si sa ben poco, se non che non sembra essere un'architettura classica ma una sorta di CPU in grado di "emulare" le istruzioni ARM, quindi con possibilità e potenzialità ben diverse da quelle offerte da una architettura "cablata" che necessita molto più impegno ad essere modificata.

Per quanto riguarda la questione performance 32bit vs 64bit, si sa già che l'incrementro delle performace non è dovuta al raddoppio dei bit delle unità di elaborazione, ma dal fatto che da ARM v7 (32 bit) ad ARM v8 (64bit) sono cambiate tutta una serie di altri parametri e risorse a diposizione che permettono un'aumento di IPC senza cambiare il codice.
E' da questo fatto che è un anno che si dice che la mossa di Apple di pubblicizzare il suo iPhone come 64bit è solo una mossa di marketing, dato che di quei 64 bit non sfrutta proprio niente: nemmeno la possibilità di indirizzare più di 4GB di RAM, dato che nei suoi dispositivi oggi si grida al miracolo al fatto che ne siano stati montati (ben) 2. E un applicativo da smartphone di conti a 64bit ne farà 4 in tutta la sua vita.
Però 64 bit fanno figo: 64 is meil che 32, così come 20MPixel sono meglio di 12, 4GHz su una architettura meglio per le performance di 2 su un'altra, ma peggio per i consumi... insomma, il marketing è uno strumento potente e se non lo si sa fare nel modo migliore non si può diventare l'azienda tecnologica con il fatturato più grande del mondo.

Per rendervene conto, provate contare quanti notizie che riportano la parola Apple al loro interno. E' sempre questione di marketing.

Qui c'è un SoC che a 2.5GHz ottiene performance in ST simili a quelle di Apple a 1.4GHz e inferiori in MT, c'è poco da girare intorno, ed infatti K1 offre lato CPU performance di poco superiori ad un A8 (dual Core a 1.4GHz) a fronte di un consumo doppio, essendo un chip per tablet da ben 5W, e inferiori in confronto ad un A8X per tablet.

Questi sono i dati di fatto. Non ti piace fare un confronto architetturale? Bene, sotto il profilo performance * watt Apple è comunque sempre davanti.

Palando di 64bit, visto che piace fare disinformazione, tantissime e ripeto tantissime APP iOS sono state riscritte a 64bit (basta che cerchi le news) e dall'anno nuovo le app dovranno essere fatte obbligatoriamente a 64bit. Quindi dai...

devil_mcry
22-10-2014, 12:54
Non capisco perché non mettere la stessa cpu su iphone 6 dove invece c'è un leggerissimo upgrade rispetto a quella del 5s.
E non stiamo parlando di un cellulare economico.

Perchè è un SoC da tablet, come K1, non da smatphone. Il consumo è quasi doppio (sono sui 5w mentre per i smartphone di solito il target è 2-3w).

Duncan
22-10-2014, 13:20
Come già detto da qualcuno K1 ha 1 GHz in più di frequenza, non mi pare una gran vittoria eguagliare le prestazioni di A8X in single core... :O

acerbo
22-10-2014, 13:32
Quindi mi dici che se l'app gira a 64 bit o a 32 bit non cambia nulla a livello di test ? Tra l'altro c'è da capire come Samsung abbia impostato lo scaling di tutti core. Gli incrementi ci stanno, ma non credo riflettano il potenziale del "girare nativamente a 64 bit".

Un Tegra 4 fa 31000-32000 con Antutu v4:

L'S4 Pro del Moto X fa' circa 19000 in quel test.

Con antutu scaricato qualche giorno fà (non so assolutamente che versione sia) mi dava 26.800 di punteggio, un collega che ha un wiko tegra4 faceva circa 25.000

znick
22-10-2014, 13:48
@CrapaDiLegno
Uso tutti i giorni il mio tablet per fare editing video e ritoccare le foto con le dita.... certo certo...

che ti piaccia o no, il futuro va verso questa direzione.
All'evento stampa della scorsa settimana la presentazione dell'app Replay ha mostrato chiaramente a cosa serva più potenza di calcolo su un tablet, ed è stato un ottimo esempio di come si sta evolvendo il mercato.

quindi non capisco il tuo tono

pirlano
22-10-2014, 14:31
Come già detto da qualcuno K1 ha 1 GHz in più di frequenza, non mi pare una gran vittoria eguagliare le prestazioni di A8X in single core... :O

GEEKBENCH 3 SINGLE-CORE:
GOOGLE NEXUS 9: 1903
APPLE IPAD AIR 2: 1812

GEEKBENCH 3 MULTI-CORE:
APPLE IPAD AIR 2: 4477 (ha un core in più)
GOOGLE NEXUS 9: 3166

3D Mark Ice Storm Unlimited:
iPad Air 2: 21660
Nvidia Shield Tablet: 30522 (sul Nexus 9 non trovo nessun benchmark, ma è sempre K1)

Poi se uno non considera le differenze nella scelta dell'architettura e si limita a guardare i "Mhz", non fa una gran figura...

"The Denver K1 has HUGE caches. 128KB/64KB L1 and 2MB L2. A8X has 64KB/64KB L1 and 2MB L2 (credo sia un errore, dovrebbe essere 1MB L2). However, the K1 also has a 128MB (yes, MB) instruction cache.
The Denver K1 is 7-wide. The A8X (and A7/A8) are 6-wide." (Si parla di pipeline superscalari)

devil_mcry
22-10-2014, 14:39
E nonostante tutto sto popo di cache riesce a fare 90 miseri punti in più, circa il 5% in più nonostante un clock nettamente superiore ( + Ghz pari al 70% del clock di A8/A8x).

Uao, fenomenale.

pirlano
22-10-2014, 14:55
E nonostante tutto sto popo di cache riesce a fare 90 miseri punti in più, circa il 5% in più nonostante un clock nettamente superiore ( + Ghz pari al 70% del clock di A8/A8x).

Uao, fenomenale.

Sinceramente, mi sembra un discorso stupido. E' più veloce di un misero 5%? Si, è pure più veloce, perché dovrebbe fare schifo? Fine.
La frequenza, intesa come un parametro buttato lì, fuori dal contesto di tutte le scelte architetturali, non ha alcun valore.
2.5Ghz è una frequenza accettabile, non altissima (fino a 4Ghz non c'è nessun problema tecnico/tecnologico, ma anche oltre, solo pippe mentali), e magari ti permette di trovare svariati compromessi nella progettazione del SoC. IMHO è un discorso senza alcun senso.

RaZoR93
22-10-2014, 14:56
GEEKBENCH 3 SINGLE-CORE:
GOOGLE NEXUS 9: 1903
APPLE IPAD AIR 2: 1812

GEEKBENCH 3 MULTI-CORE:
APPLE IPAD AIR 2: 4477 (ha un core in più)
GOOGLE NEXUS 9: 3166

3D Mark Ice Storm Unlimited:
iPad Air 2: 21660
Nvidia Shield Tablet: 30522 (sul Nexus 9 non trovo nessun benchmark, ma è sempre K1)

Poi se uno non considera le differenze nella scelta dell'architettura e si limita a guardare i "Mhz", non fa una gran figura...

"The Denver K1 has HUGE caches. 128KB/64KB L1 and 2MB L2. A8X has 64KB/64KB L1 and 2MB L2 (credo sia un errore, dovrebbe essere 1MB L2). However, the K1 also has a 128MB (yes, MB) instruction cache.
The Denver K1 is 7-wide. The A8X (and A7/A8) are 6-wide." (Si parla di pipeline superscalari)Il 3DMark non è neanche degno di considerazione per via del test sulla fisica che ha chiaramente qualche problema con i prodotti Apple e che abbassa enormemente il risultato finale. Stando a quel test l'A7 è più lento dell'A6.

http://www.futuremark.com/images/news/iphone5s-chart1.png

:banned:

devil_mcry
22-10-2014, 15:00
Sinceramente, mi sembra un discorso stupido. E' più veloce di un misero 5%? Si, è pure più veloce, perché dovrebbe fare schifo? Fine.
La frequenza, intesa come un parametro buttato lì, fuori dal contesto di tutte le scelte architetturali, non ha alcun valore.
2.5Ghz è una frequenza accettabile, non altissima (fino a 4Ghz non c'è nessun problema tecnico, solo pippe mentali), e magari ti permette di trovare svariati compromessi nella progettazione del SoC. IMHO è un discorso senza alcun senso.

Secondo me è stupido il voler fissarsi sul fatto che K1 è migliore a prescindere. Abbiamo da un lato un SoC che a 5w ha prestazioni in linea con l'altro che consuma la metà mentre in uno scenario di target energetico equivalente offre performance inferiori dato che si parla di un 50% in MT in più.

Quindi ricapitolando, l'architettura meno prestazionale in termini di IPC ma non importa, è meno efficiente (vuoi per l'architettura vuoi per il clock) dato che a fronte di consumi quasi doppi ha prestazioni analoghe, è meno veloce a parità di target energetico.

Tutto questo a fronte di cache giganti, pipeline a 7 vie etc.

Quindi dov'è il segreto che rende tutto quest senza senso?

djfix13
22-10-2014, 15:07
ma come si fa a fare confronti di banane con patate!!!
K1 e A8x sono identici per singolo core quindi se k1 avesse 3 core invece di 2 sarebbero cmq pari.
contando che nel mondo SW i processi singolo core sono ancora la maggioranza io queste prestazione da panico non so proprio Dove le vedrei dal lato pratico...

k1 poi ha un processo produttivo a 28nm mentre l' A8x è già a 20nm...(consumi diversi, clock diversi, GPU diverse...)

non si possono fare questi confronti DAI!! aspettiamo K2 che sarà a quad-core e via tutti a comprare il nuovo Nexus 12....ma che pubblicità stupida...

pirlano
22-10-2014, 15:13
Il 3DMark non è neanche degno di considerazione per via del test sulla fisica che ha chiaramente qualche problema con i prodotti Apple e che abbassa enormemente il risultato finale. Stando a quel test l'A7 è più lento dell'A6.

http://www.futuremark.com/images/news/iphone5s-chart1.png

:banned:

Se continui a leggere c'è scritto anche il motivo (e non è certo colpa del 3DMark):
"The A7's CPU is no faster than the A6 when dealing with non-sequential data structures with memory dependencies"

Abbiamo da un lato un SoC che a 5w ha prestazioni in linea con l'altro che consuma la metà

Sei proprio sicuro? Non riesco a trovare da nessuna parte il TDP dell'A8X, qualche fonte?

Ho trovato solo questo:
"Still we see a lot of difference where 5Y10 with lower TDP is 2x faster than A8X which has higher TDP."
Intel Core M 5Y10: TDP 4.5W

Quindi la tua affermazione dovrebbe essere errata (ammettendo che la frase di sopra sia corretta).

EDIT:
PS. i benchmark del Nexus 9 sono stati fatti col Geekbench a 32bit, quindi credo abbia ancora un pò di margine di miglioramento sfruttato l'IS a 64bit:
Inoltre il Nexus 9 dovrebbe essere più veloce dello nVidia Shield anche per quanto riguarda i test GPU (visto che CPU/RAM sono migliori e comunque vengono utilizzati).

devil_mcry
22-10-2014, 15:47
Se continui a leggere c'è scritto anche il motivo (e non è certo colpa del 3DMark):
"The A7's CPU is no faster than the A6 when dealing with non-sequential data structures with memory dependencies"



Sei proprio sicuro? Non riesco a trovare da nessuna parte il TDP dell'A8X, qualche fonte?

Ho trovato solo questo:
"Still we see a lot of difference where 5Y10 with lower TDP is 2x faster than A8X which has higher TDP."
Intel Core M 5Y10: TDP 4.5W

Quindi la tua affermazione dovrebbe essere errata (ammettendo che la frase di sopra sia corretta).

EDIT:
PS. i benchmark del Nexus 9 sono stati fatti col Geekbench a 32bit, quindi credo abbia ancora un pò di margine di miglioramento sfruttato l'IS a 64bit
E' l'A8 che ha prestazioni analoghe al K1 e consuma circa la metà, l'A8X va il 50% in più.

L'A8X è sui 5W come K1.

Android NON esiste a 64bit, nemmeno Android 5.0 lo sarà per ARM :doh:

pirlano
22-10-2014, 16:02
L'A8X è sui 5W come K1.

Ok, quindi il discorso che facevi sull'efficienza energetica va a farsi benedire.
Apple è andata verso la direzione -> più core.
nVidia è andata verso la direzione -> unificazione architettura GPU desktop e mobile
Due approcci diversi, due processori che mediamente si equivalgono. Non vedo perché l'A8X sia migliore e polverizzi il K1. I titoloni sono un pò gonfiati, non trovi?

E il fatto che non ci sia ancora una build di Android L a 64bit per ARM, lascia ulteriori margini di miglioramento per la velocità effettiva del K1, almeno in teoria, o no? Perché qui non stiamo paragonando iOS e Android, ma due SoC.

devil_mcry
22-10-2014, 16:09
Ok, quindi il discorso che facevi sull'efficienza energetica va a farsi benedire.
Apple è andata verso la direzione -> più core.
nVidia è andata verso la direzione -> unificazione architettura GPU desktop e mobile
Due approcci diversi, due processori che mediamente si equivalgono. Non vedo perché l'A8X sia migliore e polverizzi il K1. I titoloni sono un pò gonfiati, non trovi?

E il fatto che non ci sia ancora una build di Android L a 64bit per ARM, lascia ulteriori margini di miglioramento per la velocità effettiva del K1, almeno in teoria, o no? Perché qui non stiamo paragonando iOS e Android, ma due SoC.

Android a 64bit su mobile arriverà quando K1 già sarà vecchio, per ora il supporto è sperimentale solo per x86 e comunque 1 pagina fa qualcuno di voi non diceva che era utile il 64bit e che nemmeno Apple li sfrutta lol?.

Il discorso efficienza non va a farsi benedire, con la metà del consumo energetico (quasi) Apple offre la quasi stessa potenza.

A fronte di pari consumo energetico Apple offre 50% di performance in più, ha un core in più? Ma i consumi sono quelli... Se i Core fossero a 2.5GHz invece che 1.4GHz probabilmente andrebbe persino più veloce di così con 2 core (intendo rispetto all'A8X). Ma queste sono speculazioni. I dati comunque sono quelli.

Non importa l'unificazione di una architettura desktop (vecchia per altro, visto che maxwell è stata profondamente rivista) tra desktop è mobile, conviene solo a loro per riciclare roba già realizzata.

RaZoR93
22-10-2014, 16:14
Se continui a leggere c'è scritto anche il motivo (e non è certo colpa del 3DMark):
"The A7's CPU is no faster than the A6 when dealing with non-sequential data structures with memory dependencies"



Sei proprio sicuro? Non riesco a trovare da nessuna parte il TDP dell'A8X, qualche fonte?

Ho trovato solo questo:
"Still we see a lot of difference where 5Y10 with lower TDP is 2x faster than A8X which has higher TDP."
Intel Core M 5Y10: TDP 4.5W

Quindi la tua affermazione dovrebbe essere errata (ammettendo che la frase di sopra sia corretta).

EDIT:
PS. i benchmark del Nexus 9 sono stati fatti col Geekbench a 32bit, quindi credo abbia ancora un pò di margine di miglioramento sfruttato l'IS a 64bit:
Inoltre il Nexus 9 dovrebbe essere più veloce dello nVidia Shield anche per quanto riguarda i test GPU (visto che CPU/RAM sono migliori e comunque vengono utilizzati).Non sono sicuro di cosa significhi, ma evidentemente è alquanto insignificante dato che nessun altro bench mostra un comportamento analogo.

http://images.anandtech.com/graphs/graph8554/67994.png

è chiaro che in questi risultati c'è qualcosa che non va, e fare la media con questo discutibile test e gli altri comporta l'ottenere un risultato finale alquanto falsato.

Mparlav
22-10-2014, 16:19
Con antutu scaricato qualche giorno fà (non so assolutamente che versione sia) mi dava 26.800 di punteggio, un collega che ha un wiko tegra4 faceva circa 25.000

Su uno Xiaomi Mi3 Tegra 4 si fanno almeno 35.000 punti con Antutu v5 (quella disponibile ora), non i 25.000 del Wiko.

pirlano
22-10-2014, 16:23
Il discorso efficienza non va a farsi benedire, con la metà del consumo energetico (quasi) Apple offre la quasi stessa potenza.
A fronte di pari consumo energetico Apple offre 50% di performance in più, ha un core in più? Ma i consumi sono quelli...

Siamo sicuri? Il TDP e i consumi reali dell'A8X sono pura speculazione. Ammesso entrambi abbiano un TDP di 5W, quello che l'A8X guadagna col terzo core, lo ripaga sul fronte GPU. Sia per quanto riguarda i consumi, sia per quanto riguarda le prestazioni. K1 magari consuma più sulla GPU e meno sulla CPU, A8X consuma meno sulla GPU e più sulla CPU, magari lo dedica al core in più, in totale saranno 5W in full load per entrambi, se il TDP è quello, il consumo energetico/performance potrebbe benissimo essere uguale. Ma non lo sappiamo con certezza, quindi è speculazione pure questa...

Se i Core fossero a 2.5GHz invece che 1.4GHz probabilmente andrebbe persino più veloce di così con 2 core (intendo rispetto all'A8X). Ma queste sono speculazioni. I dati comunque sono quelli.

EDIT: capito male. Pura speculazione comunque.

Non importa l'unificazione di una architettura desktop (vecchia per altro, visto che maxwell è stata profondamente rivista) tra desktop è mobile, conviene solo a loro per riciclare roba già realizzata.

"Denver CPU paired with some Maxwell-based GPU solution are expected to be released after Tegra K1."
E poi nVidia fa GPU, è quello il punto forte. Non capisco dove vuoi arrivare...

pirlano
22-10-2014, 16:24
Non sono sicuro di cosa significhi, ma evidentemente è alquanto insignificante dato che nessun altro bench mostra un comportamento analogo.

Significa che il controller di memoria dell'A7, funziona peggio dell'A6 per le letture random. Non è una questione di bench.

RaZoR93
22-10-2014, 16:25
Siamo sicuri? Il TDP e i consumi reali dell'A8X sono pura speculazione. E non dimenticare che quello che l'A8X guadagna col terzo core, lo ripaga sul fronte GPU.?

Mparlav
22-10-2014, 16:31
Non sono sicuro di cosa significhi, ma evidentemente è alquanto insignificante dato che nessun altro bench mostra un comportamento analogo.

Stando a Anandtech non c'è niente che non va nel 3Dmark (versione 1.2): l'iPhone 6 è sempre più veloce del 5s e del 5, anche nei test Physics

http://www.anandtech.com/show/8613/the-samsung-galaxy-note-4-review/8

Mentre questo è lo Xiaomi Mipad con Tegra k1 (4xA15):
http://www.androidiani.com/recensioni/xiaomi-mipad-la-recensione-213613#benchmark

pirlano
22-10-2014, 16:31
?

GX6650 e K1 fanno entrambi 115GLOPS@300Mhz. Ma K1 ha frequenze GPU più alte, quindi è più veloce, poche chiacchiere, i dati sono questi...

RaZoR93
22-10-2014, 16:34
GX6650 e K1 fanno entrambi 115GLOPS@300Mhz. Ma K1 ha frequenze GPU più alte, quindi è più veloce, poche chiacchiere, i dati sono questi...Quelli sono solo i FLOPS, che non dicono niente onestamente. Per ora gli unici bench che ho visto sono quelli di Engadget, associati alla review del nuovo iPad.

http://i.imgur.com/0MbP8bX.png

Il punteggio di Basemark è questo per il K1.

http://images.anandtech.com/graphs/graph8554/67995.png

L'A8X >= in entrambi i test (offscreen).

Unica eccezione è il 3DMark, dove però abbiamo il test mediato con quello sulla Fisica, dove uno snapdragon 600 fa meglio di un A8, e non il test puramente grafico. Se vado a prendere il test grafico, non c'è dubbio che l'A8X faccia meglio del k1

http://images.anandtech.com/graphs/graph8554/67993.png

pirlano
22-10-2014, 16:38
Quelli sono solo i FLOPS, che non dicono niente onestamente. Per ora gli unici bench che ho visto sono quelli di Engadget, associati alla review del nuovo iPad.

[...]

Il punteggio di Basemark è questo per il K1.

[...]

L'A8X >= in entrambi i test (offscreen).

Unica eccezione è il 3DMark, dove però abbiamo il test mediato con quello sulla Fisica, dove uno snapdragon 600 fa meglio di un A8, e non il test puramente grafico. Se vado a prendere il test grafico, non c'è dubbio che l'A8X faccia meglio del k1

Il K1 dello nVidia Shield Tablet ha un comparto CPU differente dal K1 del Nexus 9, non so se questo si ripercuote sui bench che utilizzano CPU o CPU/GPU. Vedremo...
Se trovi altri bench postali pure, cmq "entrambi" quali? Ha FPS più alti onscreen, e l'altro è TBD (To Be Defined), cioè ancora da provare, quindi non capisco...

Mparlav
22-10-2014, 16:38
Il discorso efficienza non va a farsi benedire, con la metà del consumo energetico (quasi) Apple offre la quasi stessa potenza.

I consumi reali dei soc non sono noti.

Di conseguenza non si possono fare ragionamenti in merito al prestazioni/consumi o efficienza.

Tutto quello che si può fare è verificare i consumi finali dei tablet, ma lì entra in gioco il display.
Ci sono benchmark che cercano di depurare quel fattore, imho, con risultati un po' ambigui.

recoil
22-10-2014, 16:59
I consumi reali dei soc non sono noti.

Di conseguenza non si possono fare ragionamenti in merito al prestazioni/consumi o efficienza.

Tutto quello che si può fare è verificare i consumi finali dei tablet, ma lì entra in gioco il display.
Ci sono benchmark che cercano di depurare quel fattore, imho, con risultati un po' ambigui.

vero ma non perdiamo di vista il fatto che il tablet e smartphone sono prodotti che non possono essere assemblati a piacere

A8X lo trovi solo nel iPad, quindi ti interessa sapere quanto consuma iPad in toto, se il SoC mangia batteria ma il display è super efficiente tanto meglio

nel mondo PC guardi il benchmark del processore, della scheda video e del SSD poi ti assembli il sistema come ti pare tenendo conto delle prestazioni dei singoli componenti

HeatLaSfida
22-10-2014, 17:15
Beh il mio Moto X che monta un "modesto" S4 PRO dual Core a 1.7GHZ su antutu fà leggermente meglio del Tegra4 a 1.9ghz che ha 4+1 core.
Come vedi tutto é relativo.

Con antutu scaricato qualche giorno fà (non so assolutamente che versione sia) mi dava 26.800 di punteggio, un collega che ha un wiko tegra4 faceva circa 25.000

Nessun Wiko monta il Tegra 4.
alcuni di questi device (WAX ed Highway) al massimo montano il Tegra4i, che è una versione leggermente depotenziata (e con consumi minori) rispetto al Tegra 4.

e con Antutu già con il 4i si fa questo risultato:

http://i.imgur.com/HjY4oNP.png

mentre con il Tegra 4 si passano tranqullamente i 30000pt

Mparlav
22-10-2014, 17:18
vero ma non perdiamo di vista il fatto che il tablet e smartphone sono prodotti che non possono essere assemblati a piacere

A8X lo trovi solo nel iPad, quindi ti interessa sapere quanto consuma iPad in toto, se il SoC mangia batteria ma il display è super efficiente tanto meglio

nel mondo PC guardi il benchmark del processore, della scheda video e del SSD poi ti assembli il sistema come ti pare tenendo conto delle prestazioni dei singoli componenti

Certo che l'A8x lo trovi solo nel tablet, così come il K1.

Il punto è che non sai quanto consumano i soc, perchè i produttori non lo dichiarano.
Il TDP è un valore di riferimento che non dice nulla in termini di consumi reali, ma solo se un determinato soc nasce per i tablet o per gli smartphone (discorso che diventerà sempre più "fumoso", se prendi uno smartphone con un 6" ed un tablet con un 7" :)

Quel che puoi rilevare è il consumo dell'intero tablet quando esegue un determinato task: video, browser, gioco 3D che sia.

Mentre in un PC puoi misurare con buona precisione il consumo della sola cpu, della gpu (sia integrata, sia non) o dell'intero sistema, al di là dei valori dichiarati dal produttore.

E fare ragionamenti in termini di prestazioni/consumi ed efficienza.

calabar
22-10-2014, 17:47
Secondo me il punto debole di tutti questi discorsi è che parlate di confronto di architetture, ma state facendo un confronto tra SOC.

Escludere la variabile del processo produttivo (20nm contro 28nm) aiuterebbe già a fare un confronto più adeguato, ma ovviamente in questo momento non è possibile.

Oltretutto fate bene attenzione al fatto che k1 esiste in due declinazioni molto differenti, e bisogna fare molta attenzione quando si usa l'una per fare le veci dell'altra.

Se si esclude la variabile del processo produttivo, K1 mi sembra che non sfiguri affatto rispetto ad A8x, soprattutto se teniamo conto che la GPU dovrebbe essere più potente (e di conseguenza potrebbe essere responsabile di una percentuale maggiore dei consumi).
A8x allo stesso tempo dimostra di essere un ottimo SOC, buon erede di quell'A7 che era stato davvero una sorpresa, competendo in prestazioni con SOC che hanno il doppio dei core e frequenza quasi doppia.
Magari le prossime generazioni di SOC si allineeranno su questo trend, se l'approccio si dovesse dimostrare vincente (considerando tutte le variabil del caso).

@HeatLaSfida
Se non sbaglio la differenza tra Tegra4 a Tegra4i è che quest'ultimo ha 4 core A9 al posto dei core A15 (in pratica, una generazione indietro).

CrapaDiLegno
22-10-2014, 17:48
@CrapaDiLegno


che ti piaccia o no, il futuro va verso questa direzione.
All'evento stampa della scorsa settimana la presentazione dell'app Replay ha mostrato chiaramente a cosa serva più potenza di calcolo su un tablet, ed è stato un ottimo esempio di come si sta evolvendo il mercato.

quindi non capisco il tuo tono
Il mio tono non è sul trend che ben conosco, dato che sto aspettando che i SoC ARM prendano il posto degli Atom nei dispositivi portatili, ma questo non c'entra nulla col fatto che 3 core siano sempre e comunque meglio di 2. Come gli octocore ARM sono di una utilità pari a zero su qualsiasi smartphone/tblet.
Nel futuro vedremo se e come il numero di core aiuterà. Io ho sempre come riferimento il mercato desktop, dove usare più di 2 core è abbastanza raro. Figurarsi su un telefonino o un tablet il cui target d'uso oggi è navigare, vedersi dei film (sfruttando il decoder HW, non certo la CPU) e quando si è signori (ovvero per chi ha una porta SD) guardare le foto in RAW della propria reflex.

E nonostante tutto sto popo di cache riesce a fare 90 miseri punti in più, circa il 5% in più nonostante un clock nettamente superiore ( + Ghz pari al 70% del clock di A8/A8x).

Uao, fenomenale.
Ma ancora? Ma cosa non hai capito del discorso che ho fatto prima?
QUnato è grande un core Apple? Se usa il dopppio del silicio ha il vantaggio della frequenza ma di certo non quello della dimensione. E il silicio costa. Cosa non hai capito che Apple può permettersi SoC da mezzo metro quadro che tanto a 700+ dindi a dispositivo se li ripaga facilamente, mentre il resto dei produttori i SoC li vendono a terze parti che non possono tutti fare telefoni da 700+ euro?

E poi la questione dei consumi... non tiriamo in ballo numeri a caso. Se non avete i dati meglio che non parlate, perchè magari potreste rimarerci male quando scoprite che il SoC di Apple consuma magari 8 o più W.

Sembra di stare allo stadio o all'asilo, che poi non cambia molto: il mio SoC è meglio del tuo perché il tuo puzza.
Ma state bene? Forse non avete capito una beata mazza di quelo che vi ho detto nel post precedente, ma a questo punto rinuncio a farvi aprire la mente.
Vedremo dove nvidia porterà i suoi SoC ARM e dove invece li porterà Apple. Ah, i 128MB di cache istruzioni non sono lì per caso.. se solo aveste capito come è fatto un core Denver... ma va be', continuate con il discorso "il mio ha un core in più e il tuo no, gnègnègnè".

pirlano
22-10-2014, 17:48
Certo che l'A8x lo trovi solo nel tablet, così come il K1.

Il punto è che non sai quanto consumano i soc, perchè i produttori non lo dichiarano.
Il TDP è un valore di riferimento che non dice nulla in termini di consumi reali, ma solo se un determinato soc nasce per i tablet o per gli smartphone (discorso che diventerà sempre più "fumoso", se prendi uno smartphone con un 6" ed un tablet con un 7" :)

Quel che puoi rilevare è il consumo dell'intero tablet quando esegue un determinato task: video, browser, gioco 3D che sia.

Mentre in un PC puoi misurare con buona precisione il consumo della sola cpu, della gpu (sia integrata, sia non) o dell'intero sistema, al di là dei valori dichiarati dal produttore.

E fare ragionamenti in termini di prestazioni/consumi ed efficienza.

Vero, però i consumi reali durante operazioni mediamente complesse si aggirano intorno ai valori TDP. Coi bench sintentici spesso si sorpassa.
Diciamo però che bene o male sono veritieri (es. ho due 680M da 100W, e il 3740QM (TDP 45W) che con XTU+overclock con Prime95 arriva poco sotto ai 60W, avvio Furmark con le 680M e dovrei avvicinarmi o superare i 200W, e l'alimentatore è 300W di picco, contando un efficienza dell'80% siamo già al limite senza considerare il resto dei componenti, quindi credo che il TDP delle schede video sia tarato abbastanza "largo", quello della CPU un pò "stretto", ma bene o male non ci si allontana).
In ogni caso nVidia fornisce un TDP di 5W, quindi immagino che coi bench sintetici lo superi di poco.
Apple purtroppo non fornisce nessun TDP (che poi ogni produttore utilizza una formula diversa) per fare un tale paragone, ma diciamo che spesso in giro si dicono parecchie falsità per fare i numeroni con gli annunci (l'iPhone più iPhone di sempre! Più efficiente del millemila percento! Il tutto senza fornire dati specifici): dichiaravano i consumi dell'A7 intorno ai 2W/2.5W quando in realtà sotto stress oscillavano dai 4 ai 7W.
Quindi per quanto ci possiamo sforzare, tali considerazioni sono da prendere con le pinze, e non insisterei su "l'A8X ha un efficienza energetica superiore del 50% del K1" perché non ha alcun fondamento. E' pura speculazione.
Gran bei SoC entrambi, ma qui più che analizzare i fatti per quello che sono, si fa il tifo...

PS. al Basemark X, lo nVidia Shield Tablet fa più di 36000, per quello che può significare...quindi in effetti la GPU è più veloce dell'A8X, com'era lecito attendersi.

pirlano
22-10-2014, 17:53
sto aspettando che i SoC ARM prendano il posto degli Atom nei dispositivi portatili

Non ne sarei così sicuro, Intel sta sfornando delle CPU ULV davvero molto, molto, molto interessanti :)
Piccolo OT: il Surface Pro 3 inizia a farmi gola...

calabar
22-10-2014, 18:30
Non ne sarei così sicuro, Intel sta sfornando delle CPU ULV davvero molto, molto, molto interessanti
Interessanti lo sono di sicuro, ma guarda il prezzo... :asd:

Personaggio
22-10-2014, 18:38
@personaggio non è corretto quello che hai scritto:
se un'app è scritta per sfruttare il multithread, questa trarrà beneficio dalle cpu a più core.
Per esempio, le app di editing video e foto, oltre che i giochi, saranno molto avantaggiate dalle cpu multicore.

Il multithread permette l'esecuzione di più thred quasi e dico ben quasi contemporaneamente sullo stesso core e credo che esista solo sugli i7. Per lavorare su più core bisogna avere più processi, un singolo processo non può dividersi su due core e finché sarà così il multi-core per l'uso casalingo si sfrutta fino a 2, 4 core per chi lavora in ufficio con office e compagnia bella (rimane il fatto che se hai 10 istanze di excell aperte fanno sempre parte dello stesso processo e userà sempre un core). I videogiochi usano un solo core (non li conosco tutti non ne sono sicurissimo) L'unica applicazione che conosco che si divide su tutti i core è il Chrome che usa una decina di processi separati e che vengono divisi sui vari core. E parliamo di PC! Su uno smartphone il primo core va spesso al 100% il secondo quasi mai gli altri stanno sempre allo 0%.


A fronte di pari consumo energetico Apple offre 50% di performance in più, ha un core in più? Ma i consumi sono quelli... Se i Core fossero a 2.5GHz invece che 1.4GHz probabilmente andrebbe persino più veloce di così con 2 core (intendo rispetto all'A8X). Ma queste sono speculazioni. I dati comunque sono quelli.

Perche tu sei certo che l'architettura di A7/A8/A8x possa arrivare a 2.5Ghz? Magari ha raggiunto il suo limite fisico, l'unico indizio che abbiamo è che fra A7 e A8 è aumentata di pochissimo e che per la prima volta aggiungono un 3o core...

znick
22-10-2014, 18:52
Il multithread permette l'esecuzione di più thred quasi e dico ben quasi contemporaneamente sullo stesso core e credo che esista solo sugli i7.

aspetta, stai facendo confusione fra "multi thread" (ovvero la scrittura di codice in modo da generare più flussi di elaborazione che possano essere elaborati in parallelo dai processori dotati di più core e/o più thread di calcolo)
e "Hyperthreading" (ovvero la tecnologia Intel implementata su Core i3, Core i7 e sui vecchi Pentium 4 HT, in grado di simulare due core logici per ogni core fisico)

un programma, anche solo un player multimediale, può essere scritto su più threads in modo da sfruttare le cpu a core multiplo (o eventualmente la tecnologia hyperthreading quando presente).

Fin da quando è uscito l'iPhone 4S (il primo ad avere due core), l'ambiente di sviluppo Apple è stato implementato per gestire programmi multithreaded. Sul web è pieno di tutorial su come fare.

Tutto questo solo per dire che non è vero che il singolo programma non possa usare entrambi i core, anzi, al momento i programmi che li sfruttano entrambi sono numerosi.

pirlano
22-10-2014, 19:25
Interessanti lo sono di sicuro, ma guarda il prezzo... :asd:

http://www.cpu-world.com/CPUs/Core_M/Intel-Core%20M%205Y70.html
281$ :D
Però è una bella bestiolina per avere un TDP di 4.5W...
http://www.tomshardware.com/news/intel-core-m-broadwell-benchmarks,27656.html

cdimauro
22-10-2014, 19:36
Si ma ancora Android ancora non gira nativamente a 64 bit, quindi c'è da attendere ancora un attimo.
C'è già: guarda qui (http://www.extremetech.com/computing/191744-android-l-64-bit-preview-finally-released-but-only-for-x86-wheres-armv8-google).
Ma ancora a guardare la frequenza di architetture diverse per capire quella che "è meglio performante"? Possibile che 40 anni di storia dell'elettrinica non vi hanno insegnato proprio nulla?

Che un chip vada a 3GHz e un altro a 1GHz dice ben poco "su chi sia più performante".
Esattamente: contano le prestazioni sul campo, con applicazioni reali.
E nemmeno chi sia "più efficiente".
I parametri da tenere in considerazione sono tanti: il primo è il consumo.
Dipende dagli obiettivi.
Del Denver si sa ben poco, se non che non sembra essere un'architettura classica ma una sorta di CPU in grado di "emulare" le istruzioni ARM, quindi con possibilità e potenzialità ben diverse da quelle offerte da una architettura "cablata" che necessita molto più impegno ad essere modificata.
Denver ha un'architettura VLIW custom, sviluppata da nVidia, che è in grado di eseguire codice ARM a 32 o 64 bit tramite un layer di emulazione. E' sostanzialmente la stessa cosa che fece 15 anni fa Transmeta con x86. D'altra parte nVidia s'è portata dentro un po' di ingegneri da quest'ultima...
Per quanto riguarda la questione performance 32bit vs 64bit, si sa già che l'incrementro delle performace non è dovuta al raddoppio dei bit delle unità di elaborazione, ma dal fatto che da ARM v7 (32 bit) ad ARM v8 (64bit) sono cambiate tutta una serie di altri parametri e risorse a diposizione che permettono un'aumento di IPC senza cambiare il codice.
E' da questo fatto che è un anno che si dice che la mossa di Apple di pubblicizzare il suo iPhone come 64bit è solo una mossa di marketing, dato che di quei 64 bit non sfrutta proprio niente: nemmeno la possibilità di indirizzare più di 4GB di RAM, dato che nei suoi dispositivi oggi si grida al miracolo al fatto che ne siano stati montati (ben) 2. E un applicativo da smartphone di conti a 64bit ne farà 4 in tutta la sua vita.
Però 64 bit fanno figo: 64 is meil che 32, così come 20MPixel sono meglio di 12, 4GHz su una architettura meglio per le performance di 2 su un'altra, ma peggio per i consumi... insomma, il marketing è uno strumento potente e se non lo si sa fare nel modo migliore non si può diventare l'azienda tecnologica con il fatturato più grande del mondo.
In questo caso non è marketing, perché i 64-bit sono stati utilizzati fin dal day one da Apple, e non soltanto per i cambiamenti dell'ISA. Le prestazioni sono aumentate di molto, infatti, proprio grazie al fatto che nei 64 bit dei puntatori Apple è riuscita a infilare informazioni che normalmente richiedono campi appositi in un oggetto. Grazie a ciò, l'allocazione e il rilascio di (puntatori a) oggetti è di gran lunga più veloce.
Qui c'è un SoC che a 2.5GHz ottiene performance in ST simili a quelle di Apple a 1.4GHz e inferiori in MT, c'è poco da girare intorno, ed infatti K1 offre lato CPU performance di poco superiori ad un A8 (dual Core a 1.4GHz) a fronte di un consumo doppio, essendo un chip per tablet da ben 5W, e inferiori in confronto ad un A8X per tablet.

Questi sono i dati di fatto. Non ti piace fare un confronto architetturale?
Più che altro non ha senso farlo, perché le architetture sono completamente diverse. Ma, in generale, è sempre meglio andare a guardare le prestazioni sul campo.

A parte questo non si possono confrontare le frequenze. Ci sono microarchitetture che puntano a raggiungere frequenze più elevate di altre, al costo di una minore efficienza, e viceversa. Ciò significa che un'architettura molto efficiente ha non poche difficoltà a salire in frequenza. Insomma, le frequenze sono il risultato di ciò che il chip ha potuto raggiungere a causa della più o meno complessità della sua implementazione.
Bene, sotto il profilo performance * watt Apple è comunque sempre davanti.
Sembra proprio di sì. Apple ha fatto un eccellente lavoro, con un'architettura che bilancia consumi ridotti a prestazioni elevate.
Palando di 64bit, visto che piace fare disinformazione, tantissime e ripeto tantissime APP iOS sono state riscritte a 64bit (basta che cerchi le news) e dall'anno nuovo le app dovranno essere fatte obbligatoriamente a 64bit. Quindi dai...
Senz'altro, ma già al day one tutto il software di sistema era a 64 bit, come pure diverse app. La situazione non può che migliorare.
GEEKBENCH 3 SINGLE-CORE:
GOOGLE NEXUS 9: 1903
APPLE IPAD AIR 2: 1812

GEEKBENCH 3 MULTI-CORE:
APPLE IPAD AIR 2: 4477 (ha un core in più)
GOOGLE NEXUS 9: 3166

3D Mark Ice Storm Unlimited:
iPad Air 2: 21660
Nvidia Shield Tablet: 30522 (sul Nexus 9 non trovo nessun benchmark, ma è sempre K1)
No, sono due SoC con CPU completamente diverse, dunque non puoi confrontare nulla, a parte i numerini che escono fuori dall'esecuzione di benchmark.
Poi se uno non considera le differenze nella scelta dell'architettura e si limita a guardare i "Mhz", non fa una gran figura...
Concordo. Bisogna sempre vedere i risultati.
"The Denver K1 has HUGE caches. 128KB/64KB L1 and 2MB L2. A8X has 64KB/64KB L1 and 2MB L2 (credo sia un errore, dovrebbe essere 1MB L2). However, the K1 also has a 128MB (yes, MB) instruction cache.
128MB non sono di cache vera e proprio (intendo L1/L2/L3/L4), ma un blocco di memoria che è stato riservato (e quindi tolto dal totale) per memorizzare porzioni di codice ARM tradotto nell'architetture VLIW di Denver.
The Denver K1 is 7-wide. The A8X (and A7/A8) are 6-wide." (Si parla di pipeline superscalari)
Non sono confrontabili: sono architetture completamente diverse.
E nonostante tutto sto popo di cache riesce a fare 90 miseri punti in più, circa il 5% in più nonostante un clock nettamente superiore ( + Ghz pari al 70% del clock di A8/A8x).

Uao, fenomenale.
Lo è, se consideri quello che sono stati in grado di fare alla nVidia. Senza nulla togliere all'altrettanto grande lavoro che hanno fatto alla Apple con la loro architettura a 64-bit.

Ma a prescindere da tutto, è sempre meglio concentrarsi su quello che riescono a fare.
PS. i benchmark del Nexus 9 sono stati fatti col Geekbench a 32bit, quindi credo abbia ancora un pò di margine di miglioramento sfruttato l'IS a 64bit:
Senz'altro.
E' l'A8 che ha prestazioni analoghe al K1 e consuma circa la metà, l'A8X va il 50% in più.

L'A8X è sui 5W come K1.
Denver è diverso.
Android NON esiste a 64bit, nemmeno Android 5.0 lo sarà per ARM :doh:
Vedi sopra il link che ho fornito prima. Sono già stati rilasciati NDK a 64-bit e l'immagine da usare con l'emulatore, anche se soltanto per Intel64 al momento.
Android a 64bit su mobile arriverà quando K1 già sarà vecchio, per ora il supporto è sperimentale solo per x86
Non è sperimentale per Intel64: è con ARM64/ARMv8 che hanno ancora problemi.
e comunque 1 pagina fa qualcuno di voi non diceva che era utile il 64bit e che nemmeno Apple li sfrutta lol?.
Infatti hai ragione: vengono sfruttati, eccome.
Il discorso efficienza non va a farsi benedire, con la metà del consumo energetico (quasi) Apple offre la quasi stessa potenza.

A fronte di pari consumo energetico Apple offre 50% di performance in più, ha un core in più? Ma i consumi sono quelli... Se i Core fossero a 2.5GHz invece che 1.4GHz probabilmente andrebbe persino più veloce di così con 2 core (intendo rispetto all'A8X). Ma queste sono speculazioni.
E rimangono tali perché non puoi alzare a piacimento le frequenze di una ben precisa microarchitettura, come dicevo sopra.
I dati comunque sono quelli.
Aspettiamo quelli di Denver per fare qualche confronto.
Il mio tono non è sul trend che ben conosco, dato che sto aspettando che i SoC ARM prendano il posto degli Atom nei dispositivi portatili,
Credo che aspetterai ancora per parecchio tempo...
ma questo non c'entra nulla col fatto che 3 core siano sempre e comunque meglio di 2. Come gli octocore ARM sono di una utilità pari a zero su qualsiasi smartphone/tblet.
Nel futuro vedremo se e come il numero di core aiuterà. Io ho sempre come riferimento il mercato desktop, dove usare più di 2 core è abbastanza raro. Figurarsi su un telefonino o un tablet il cui target d'uso oggi è navigare, vedersi dei film (sfruttando il decoder HW, non certo la CPU) e quando si è signori (ovvero per chi ha una porta SD) guardare le foto in RAW della propria reflex.
Al solito, dipende sempre da quello che ci si fa. Ma Android è una piattaforma non particolarmente efficiente, per cui qualche core in più fa comodo per garantire una migliore esperienza utente. A parte questo, nei giochi qualche core in più fa comodo e viene sfruttato.
Sembra di stare allo stadio o all'asilo, che poi non cambia molto: il mio SoC è meglio del tuo perché il tuo puzza.
Ma state bene? Forse non avete capito una beata mazza di quelo che vi ho detto nel post precedente, ma a questo punto rinuncio a farvi aprire la mente.
Non mi pare sia tutto corretto quello che hai scritto.

calabar
22-10-2014, 19:43
Il multithread permette l'esecuzione di più thred quasi e dico ben quasi contemporaneamente sullo stesso core e credo che esista solo sugli i7.
Temo che tu abbia molta confusione riguardo a questo argomento.
Processi e Thread sono i due estremi dei Task (ossia il flusso di controllo di un programma) in base alla condivisione di risorse interne: dati due task, si parla di processi se non vi è condivisione e di thread se buona parte delle risorse sono condivise.
A seconda di quante risorse sono condivise il Task assomiglierà quindi più ad un processo o ad un thread.

Quello di cui parli tu è l'SMT (Simultaneous Multi Threading), ossia la capacità di un processore di eseguire più Task su un singolo core, con lo scopo di utilizzare al meglio tutte le risorse del core stesso.
L'i7 non è certo l'unico esempio, Intel stessa usa questa tecnologia anche su altri processori (i5, atom, ecc...), mentre altri produttori utilizzano anche versioni più spinte di SMT con quattro, otto o più thread eseguibili contemporaneamente su singolo core.

In questo caso però contemporaneamente significa solo che nello stesso istante la pipeline di calcolo può contenere elaborazioni relative a più task, ma essendo core uno solo, la contemporaneità è possibile solo perchè il core è una pipeline (ossia è diviso in stadi).
Con un processore multicore invece l'esecuzione può essere del tutto contemporanea, perchè i core sono indipendenti e non devono suddividere le risorse tra i diversi Task.

Morale della favola, al processore poco importa che i Task siano thread o processi, lui elabora quello che gli viene dato sulla base delle proprie risorse e caratteristiche.

PS: giochi che sfruttano ben più di un core ce ne sono da parecchio tempo. Già tre/quattro anni fa tre core erano un buon compromesso, ora la situazione è migliorata.

cdimauro
22-10-2014, 19:55
Anche con l'SMT è possibile eseguire istruzioni di thread diversi nello stesso ciclo di clock, sulla stessa pipeline / core del processore. Il fatto che le risorse del core siano condivise non significa che la pipeline debba per forza eseguire istruzioni di un solo thread.

Duncan
22-10-2014, 22:06
GEEKBENCH 3 SINGLE-CORE:
GOOGLE NEXUS 9: 1903
APPLE IPAD AIR 2: 1812

GEEKBENCH 3 MULTI-CORE:
APPLE IPAD AIR 2: 4477 (ha un core in più)
GOOGLE NEXUS 9: 3166

3D Mark Ice Storm Unlimited:
iPad Air 2: 21660
Nvidia Shield Tablet: 30522 (sul Nexus 9 non trovo nessun benchmark, ma è sempre K1)

Poi se uno non considera le differenze nella scelta dell'architettura e si limita a guardare i "Mhz", non fa una gran figura...

"The Denver K1 has HUGE caches. 128KB/64KB L1 and 2MB L2. A8X has 64KB/64KB L1 and 2MB L2 (credo sia un errore, dovrebbe essere 1MB L2). However, the K1 also has a 128MB (yes, MB) instruction cache.
The Denver K1 is 7-wide. The A8X (and A7/A8) are 6-wide." (Si parla di pipeline superscalari)

Ok, quindi il discorso che facevi sull'efficienza energetica va a farsi benedire.
Apple è andata verso la direzione -> più core.
nVidia è andata verso la direzione -> unificazione architettura GPU desktop e mobile
Due approcci diversi, due processori che mediamente si equivalgono. Non vedo perché l'A8X sia migliore e polverizzi il K1. I titoloni sono un pò gonfiati, non trovi?

E il fatto che non ci sia ancora una build di Android L a 64bit per ARM, lascia ulteriori margini di miglioramento per la velocità effettiva del K1, almeno in teoria, o no? Perché qui non stiamo paragonando iOS e Android, ma due SoC.


Diici che non ha senso, più alzi la frequenza, più devi alzare i voltaggi, più consumi... per me su un SOC per mobile è una differenza rilevante...

Personaggio
23-10-2014, 00:05
Temo che tu abbia molta confusione riguardo a questo argomento.
Processi e Thread sono i due estremi dei Task (ossia il flusso di controllo di un programma) in base alla condivisione di risorse interne: dati due task, si parla di processi se non vi è condivisione e di thread se buona parte delle risorse sono condivise.
A seconda di quante risorse sono condivise il Task assomiglierà quindi più ad un processo o ad un thread.

Quello di cui parli tu è l'SMT (Simultaneous Multi Threading), ossia la capacità di un processore di eseguire più Task su un singolo core, con lo scopo di utilizzare al meglio tutte le risorse del core stesso.
L'i7 non è certo l'unico esempio, Intel stessa usa questa tecnologia anche su altri processori (i5, atom, ecc...), mentre altri produttori utilizzano anche versioni più spinte di SMT con quattro, otto o più thread eseguibili contemporaneamente su singolo core.

In questo caso però contemporaneamente significa solo che nello stesso istante la pipeline di calcolo può contenere elaborazioni relative a più task, ma essendo core uno solo, la contemporaneità è possibile solo perchè il core è una pipeline (ossia è diviso in stadi).
Con un processore multicore invece l'esecuzione può essere del tutto contemporanea, perchè i core sono indipendenti e non devono suddividere le risorse tra i diversi Task.

Morale della favola, al processore poco importa che i Task siano thread o processi, lui elabora quello che gli viene dato sulla base delle proprie risorse e caratteristiche.

PS: giochi che sfruttano ben più di un core ce ne sono da parecchio tempo. Già tre/quattro anni fa tre core erano un buon compromesso, ora la situazione è migliorata.

Perdona la mia ignoranza, ma voglio capire meglio.
Innanzitutto prima mi sono confuso con l'hypertreading di intel. Cmq se io su windows apro il task manager e vado all'elenco processi. Se mi metto a caricare a manetta il PC (con un quad core), vedrò che ogni singolo processo non andare mai oltre il 25%, oppere, ancora meglio, se vado su Monitoraggio Risorse/CPU. per ogni processo che seleziono, mi mostra che sta utilizzando un solo core, non ce ne è uno che ne usa due. L'unica applicazione che usa più processi, secondo questi tool è il chrome che per ogni tab/plugin/motore usa un processo differente infatti in questo istante ci sono 17 processi chrome.exe, 4 su ogni core, il core num 2 ne ha 5. Anche con i videogiochi, se io ne faccio partire uno vedo solo un processo che occupa le risorse di un solo core, infatti alla partenza quando carica al massimo la CPU, arriva sempre ad un massimo del 25%, vedendo i core ne hai uno sfruttato al 100% e sugli altri poca roba. Potresti spiegarmi meglio perchè quello che dici non lo vedo su Windows?

pirlano
23-10-2014, 11:02
Diici che non ha senso, più alzi la frequenza, più devi alzare i voltaggi, più consumi... per me su un SOC per mobile è una differenza rilevante...

Direi che non ha senso la tua affermazione. Voltaggi e consumi non sono strettamente legati alla frequenza.

!fazz
23-10-2014, 11:12
Direi che non ha senso la tua affermazione. Voltaggi e consumi non sono strettamente legati alla frequenza.

c'è giusto una dipendenza non lineare sai che roba :D :D :D


i consumi di un qualsiasi dispositivo elettronico sono strettamente legati alla frequenza così come sono strettamente legati al voltaggio utilizzato per alimentarli. è si sbagliato utilizzare la frequenza per discriminare il consumo tra archietetture differenti ma ciò non toglie che a parità di architettura, aumentando la frequenza aumentano sicuramente i consumi

pirlano
23-10-2014, 11:16
c'è giusto una dipendenza non lineare sai che roba :D :D :D


i consumi di un qualsiasi dispositivo elettronico sono strettamente legati alla frequenza così come sono strettamente legati al voltaggio utilizzato per alimentarli. è si sbagliato utilizzare la frequenza per discriminare il consumo tra archietetture differenti ma ciò non toglie che a parità di architettura, aumentando la frequenza aumentano sicuramente i consumi

Beh, a parità di architettura, ovvio :)
Il discorso che facevamo io e Duncan era sul confronto tra A8X e K1 (almeno credo, oppure stavamo parlando lingue diverse :D )

C'è già: guarda qui (http://www.extremetech.com/computing/191744-android-l-64-bit-preview-finally-released-but-only-for-x86-wheres-armv8-google).

Si ma non è per ARM (non ancora), a noi interessava più che altro per fare un confronto tra i SoC (K1 e A8X), entrambi in ambiente x64.

No, sono due SoC con CPU completamente diverse, dunque non puoi confrontare nulla, a parte i numerini che escono fuori dall'esecuzione di benchmark.

La parte GPU del SoC dovrebbe essere simile però (infatti ho buttato lì un bench grafico dello nVidia Shield Tablet solo per rendere un'idea delle prestazioni).

128MB non sono di cache vera e proprio (intendo L1/L2/L3/L4), ma un blocco di memoria che è stato riservato (e quindi tolto dal totale) per memorizzare porzioni di codice ARM tradotto nell'architetture VLIW di Denver.

Non sono confrontabili: sono architetture completamente diverse.

Grazie per le precisazioni, hai qualche articolo/fonte/datasheet che me lo vado a leggere? Non sapevo fosse VLIW.
EDIT: http://lmgtfy.com/?q=denver+vliw :P

CrapaDiLegno
23-10-2014, 14:45
In questo caso non è marketing, perché i 64-bit sono stati utilizzati fin dal day one da Apple, e non soltanto per i cambiamenti dell'ISA. Le prestazioni sono aumentate di molto, infatti, proprio grazie al fatto che nei 64 bit dei puntatori Apple è riuscita a infilare informazioni che normalmente richiedono campi appositi in un oggetto. Grazie a ciò, l'allocazione e il rilascio di (puntatori a) oggetti è di gran lunga più veloce.

Scusami ma 64 bit cosa vuol dire?
Vuol dire che le ALU sono in grado di processare nativamente valori di 64 bit invece di "soli" 32bit.
Ora, vedi bene che non ha senso dire che un sistema è da sempre a 64 bit quando è da sempre che viene eseguito su una CPU a 32 bit. Se lo si vuole fare, ed è possibilissimo, significa buttare un sacco di potenza computazionale per nulla (doppie istruzioni per caricare ed elaborare operandi a 64bit su unità che ne gestiscono solo 32 alla volta).
Puoi al massimo dire che il sistema è predisposto per usare puntatori a 64bit già dal day one. Ovvero che la gestione "doppia" è riservata solo per alcune particolari operazioni sulla memoria. Il che significa che la portabilità è immediata di tutto il codice sulla nuova CPU a 64bit senza dover avere modalità a 32 o 64bit come con architetture e framework SW non pensati originariamente per essere usati a 64bit.
Ma le istruzioni che sono eseguite sui "vecchi" core sono a 32bit. D'altronde se le unità non supportano i 64bit, non ci sono istruzioni a 64bit possibili. Ma fossero anche state disponibili, come lo sono oggi, il vantaggio di eseguire codice a 64bit rispetto a quello a 32bit è irrisorio. Ne hai una prova tangibile quando esegui lo stesso programma a 32bit o a 64bit sotto Windows. A meno che il programma non faccia grande uso di calcoli a 64bit INTERI (non float) non hai alcun vantaggio tangibile. Su iPhone mi piacerebbe sapere quanti sono i programmi che fanno grande uso di calcoli interi a 64bit.
Il vantaggio che ha avuto Apple con il passaggio a'ISA v8 di ARM è lo stesso identico che avranno tutti gli altri SoC anche quando faranno girare codice a 32bit. Visto che come detto anche il "vecchio" codice Apple è a 32bit. L'uso del puntatore a 64bit di Apple è un bell'hack che le permette maggiore efficienza nell'uso dei puntatori ma che le taglia come ovvio parte dell'indirizzamento di memoria possibile.
Ovviamente con la velocità con cui Apple aggiunge memoria ai suoi prodotti non sarà un grande problema per qualche eone. In più, se non ho capito male il funzionamento, non rende tali puntatori compatibili con altre architetture, quindi da oggi in poi Apple è costretta a farsi la propria architettura ARM in casa. Altra cosa che ovviamente nessun altro può permettersi, nemmeno Samsung se non vuole costruirsi oltre ai telefoni e al SoC anche un OS tutto suo.

Detto ciò, e non è riferito a te, non capisco come ancora nel 2014 vi sia gente che frequenta forum di tecnologia e ostinatamente continua a ribadire che una architettura che va a 2.3GHz è meno efficiente di una che va a 1.4GHz con le stesse prestazioni. Ma comprendere che vi sono decine di altri punti da tenere presente quando si valuta una architettura, no? Eppure sono stati elencati: consumi, dimensioni, costi, facilità di aggiornamento, flessibilità d'uso... Giusto per curiosità, avete una minima idea di quanto siano più grandi i core Apple rispetto a quelli standard ARM, prima di dire che sono "il meglio in assoluto"?

Duncan
23-10-2014, 15:46
Scusami ma 64 bit cosa vuol dire?
Vuol dire che le ALU sono in grado di processare nativamente valori di 64 bit invece di "soli" 32bit.
Ora, vedi bene che non ha senso dire che un sistema è da sempre a 64 bit quando è da sempre che viene eseguito su una CPU a 32 bit. Se lo si vuole fare, ed è possibilissimo, significa buttare un sacco di potenza computazionale per nulla (doppie istruzioni per caricare ed elaborare operandi a 64bit su unità che ne gestiscono solo 32 alla volta).
Puoi al massimo dire che il sistema è predisposto per usare puntatori a 64bit già dal day one. Ovvero che la gestione "doppia" è riservata solo per alcune particolari operazioni sulla memoria. Il che significa che la portabilità è immediata di tutto il codice sulla nuova CPU a 64bit senza dover avere modalità a 32 o 64bit come con architetture e framework SW non pensati originariamente per essere usati a 64bit.
Ma le istruzioni che sono eseguite sui "vecchi" core sono a 32bit. D'altronde se le unità non supportano i 64bit, non ci sono istruzioni a 64bit possibili. Ma fossero anche state disponibili, come lo sono oggi, il vantaggio di eseguire codice a 64bit rispetto a quello a 32bit è irrisorio. Ne hai una prova tangibile quando esegui lo stesso programma a 32bit o a 64bit sotto Windows. A meno che il programma non faccia grande uso di calcoli a 64bit INTERI (non float) non hai alcun vantaggio tangibile. Su iPhone mi piacerebbe sapere quanti sono i programmi che fanno grande uso di calcoli interi a 64bit.
Il vantaggio che ha avuto Apple con il passaggio a'ISA v8 di ARM è lo stesso identico che avranno tutti gli altri SoC anche quando faranno girare codice a 32bit. Visto che come detto anche il "vecchio" codice Apple è a 32bit. L'uso del puntatore a 64bit di Apple è un bell'hack che le permette maggiore efficienza nell'uso dei puntatori ma che le taglia come ovvio parte dell'indirizzamento di memoria possibile.
Ovviamente con la velocità con cui Apple aggiunge memoria ai suoi prodotti non sarà un grande problema per qualche eone. In più, se non ho capito male il funzionamento, non rende tali puntatori compatibili con altre architetture, quindi da oggi in poi Apple è costretta a farsi la propria architettura ARM in casa. Altra cosa che ovviamente nessun altro può permettersi, nemmeno Samsung se non vuole costruirsi oltre ai telefoni e al SoC anche un OS tutto suo.

Detto ciò, e non è riferito a te, non capisco come ancora nel 2014 vi sia gente che frequenta forum di tecnologia e ostinatamente continua a ribadire che una architettura che va a 2.3GHz è meno efficiente di una che va a 1.4GHz con le stesse prestazioni. Ma comprendere che vi sono decine di altri punti da tenere presente quando si valuta una architettura, no? Eppure sono stati elencati: consumi, dimensioni, costi, facilità di aggiornamento, flessibilità d'uso... Giusto per curiosità, avete una minima idea di quanto siano più grandi i core Apple rispetto a quelli standard ARM, prima di dire che sono "il meglio in assoluto"?


Ecco un articolo

L'ottimizzazione non è a livello di processore, ma di runtime, quindi in qualunque momento può essere cambiata la struttura dati degli oggetti se necessario...ù

dall'articolo

If it overflowed (an unusual but real possibility with only 19 bits available) then fall back to a hash table.

Infatti quando gira un programma a 32 bit usa la vecchia struttura meno efficiente...

CrapaDiLegno
23-10-2014, 15:57
Ecco un articolo

L'ottimizzazione non è a livello di processore, ma di runtime, quindi in qualunque momento può essere cambiata la struttura dati degli oggetti se necessario...ù

dall'articolo

If it overflowed (an unusual but real possibility with only 19 bits available) then fall back to a hash table.

Infatti quando gira un programma a 32 bit usa la vecchia struttura meno efficiente...
Perdonami non ho capito molto dal tuo post:
quella che indichi è una ottimizzazione per ridurre l'overhead di un SW a 64bit nella gestione dei puntatori, ma non ha alcun impatto su un sistema che è stato sviluppato a 32bit che usa lo stesso identico sistema.

I vantaggi prestazionali sono dovuti all'uso della nuova ISA, indipendentemente che uno poi dica che siqa a 32 o 64bit. Lo vedremo ache sui SoC destinati ad Android con il SW a 32 bit.

Duncan
23-10-2014, 16:49
Perdonami non ho capito molto dal tuo post:
quella che indichi è una ottimizzazione per ridurre l'overhead di un SW a 64bit nella gestione dei puntatori, ma non ha alcun impatto su un sistema che è stato sviluppato a 32bit che usa lo stesso identico sistema.

I vantaggi prestazionali sono dovuti all'uso della nuova ISA, indipendentemente che uno poi dica che siqa a 32 o 64bit. Lo vedremo ache sui SoC destinati ad Android con il SW a 32 bit.

Era per rispondere a questo tuo passaggio


[cut]
Il vantaggio che ha avuto Apple con il passaggio a'ISA v8 di ARM è lo stesso identico che avranno tutti gli altri SoC anche quando faranno girare codice a 32bit. Visto che come detto anche il "vecchio" codice Apple è a 32bit. L'uso del puntatore a 64bit di Apple è un bell'hack che le permette maggiore efficienza nell'uso dei puntatori ma che le taglia come ovvio parte dell'indirizzamento di memoria possibile.
[cut]


Visto che non taglia nulla, ma usa semplicemente bit non usati per ora, visto che l'indirizzamento fisico di A7 ed A8 lo hanno più piccolo di 64 bit

CrapaDiLegno
23-10-2014, 17:18
Era per rispondere a questo tuo passaggio



Visto che non taglia nulla, ma usa semplicemente bit non usati per ora, visto che l'indirizzamento fisico di A7 ed A8 lo hanno più piccolo di 64 bit

Che ripeto è un miglioramento dell'implemtazione per SW a 64bit, non quella fatta per il codice precedente che non trae vantaggio da questa cosa ma gira più velocemente solo perché le risorse messe a disposizione sono maggiori rispetto all'ISA precedente. Più ALU, più vie, pipeline più corte sono quello che hanno reso l'architettura Apple più performante rispetto all'architettura ARM standard. Non certo il fatto che le ALU sono raddoppiate di dimensioni.
Il codice che prima faceva 1+1 non trae vantaggio da una ALu a 64bit rispetto ad una a 32bit (anzi, direi il contrario per l'energia necessaria).

@Speciale
Nessuno mette in discussione che Apple sia più avanti, già solo per il fatto che può permettersi un PP più avanzato.
Ma questo non dice nulla su quelle che sono le capacità degli altri SoC. Denver si è dimostrato al pari con un PP inferiore.
Brava Apple che ha i soldi (e il mercato) per occupare tutta la capacità produttiva a 20nm oggi dipsonibile. Brava nvidia che con un PP vecchio pareggia Apple ed è comunque una generazione avanti al resto della truppa, che presenterà chip standard a 64bit solo tra qualche mese a 20nm e core custom solo tra un anno o più.

Ricorda poi che nuovi PP non sono disponibili tutti gli anni, e quando i 20nm saranno disponibili anche agli altri è chi ha ha pensato alla soluzione migliore in partenza ad averla vinta, non chi è arrivato prima a sfruttare i nuovi processi produttivi.
Rimane il fatto che tra A7 e A8 non c'è molta differenza in prestazioni seppure c'è stato uno shrink di mezzo. Vedremo quando il resto della truppa presenterà le proprie soluzioni a 20nm.
E non dimenticare l'ultima cosa: Apple potrebbe anche fare il SoC più bellissimo e grandissimo e efficientissimo e blillantissimo di sempre, ma vive in un mondo tutto suo. Il resto del mercato è altra cosa e il confronto diretto non si può fare (altre esigenze, altre caratteristiche, altri costi, altri guadagni, altri obiettivi).
Se Apple la si può prendere come riferimento per quanto riguarda il potenziale di una certa architettura/scelta, sollevando discussioni su quanto e meglio si può ancora fare, non ha nessun senso prenderla a paragone come concorrente di alcunché.
Sono nvidia, Samsung e Qualcomm e i produttori di SoC cinesi/tawanesi ad essere in concorrenza tra loro, ognuno avendo un vantaggio piuttosto che un altro (costi, prestazioni, consumi, modem etc...).

Duncan
23-10-2014, 21:23
c'è giusto una dipendenza non lineare sai che roba :D :D :D


i consumi di un qualsiasi dispositivo elettronico sono strettamente legati alla frequenza così come sono strettamente legati al voltaggio utilizzato per alimentarli. è si sbagliato utilizzare la frequenza per discriminare il consumo tra archietetture differenti ma ciò non toglie che a parità di architettura, aumentando la frequenza aumentano sicuramente i consumi

Infatti i consumi aumentano in maniera lineare con l'aumento della frequenza ed esponenziale con quella della tensione, e per aumentare frequenza si deve aumentare la tensione...

Che ripeto è un miglioramento dell'implemtazione per SW a 64bit, non quella fatta per il codice precedente che non trae vantaggio da questa cosa ma gira più velocemente solo perché le risorse messe a disposizione sono maggiori rispetto all'ISA precedente. Più ALU, più vie, pipeline più corte sono quello che hanno reso l'architettura Apple più performante rispetto all'architettura ARM standard. Non certo il fatto che le ALU sono raddoppiate di dimensioni.
Il codice che prima faceva 1+1 non trae vantaggio da una ALu a 64bit rispetto ad una a 32bit (anzi, direi il contrario per l'energia necessaria).


Per il codice che gira a 32 bit concordo, per quello a 64 bit è più complicato, quando è riscritto in modo decente generalmente si ottengono anche altri miglioramenti, visto che si riesce ad elaborare anche il doppio dei dati per ciclo di clock


@Speciale
Nessuno mette in discussione che Apple sia più avanti, già solo per il fatto che può permettersi un PP più avanzato.
Ma questo non dice nulla su quelle che sono le capacità degli altri SoC. Denver si è dimostrato al pari con un PP inferiore.
Brava Apple che ha i soldi (e il mercato) per occupare tutta la capacità produttiva a 20nm oggi dipsonibile. Brava nvidia che con un PP vecchio pareggia Apple ed è comunque una generazione avanti al resto della truppa, che presenterà chip standard a 64bit solo tra qualche mese a 20nm e core custom solo tra un anno o più.

Ricorda poi che nuovi PP non sono disponibili tutti gli anni, e quando i 20nm saranno disponibili anche agli altri è chi ha ha pensato alla soluzione migliore in partenza ad averla vinta, non chi è arrivato prima a sfruttare i nuovi processi produttivi.
Rimane il fatto che tra A7 e A8 non c'è molta differenza in prestazioni seppure c'è stato uno shrink di mezzo. Vedremo quando il resto della truppa presenterà le proprie soluzioni a 20nm.
E non dimenticare l'ultima cosa: Apple potrebbe anche fare il SoC più bellissimo e grandissimo e efficientissimo e blillantissimo di sempre, ma vive in un mondo tutto suo. Il resto del mercato è altra cosa e il confronto diretto non si può fare (altre esigenze, altre caratteristiche, altri costi, altri guadagni, altri obiettivi).
Se Apple la si può prendere come riferimento per quanto riguarda il potenziale di una certa architettura/scelta, sollevando discussioni su quanto e meglio si può ancora fare, non ha nessun senso prenderla a paragone come concorrente di alcunché.
Sono nvidia, Samsung e Qualcomm e i produttori di SoC cinesi/tawanesi ad essere in concorrenza tra loro, ognuno avendo un vantaggio piuttosto che un altro (costi, prestazioni, consumi, modem etc...).

A8 è più efficiente, non va in throttling, poi vederemo cosa succederà in futuro, comuqnue rimane un fatto che l'acquisizione di PA Semi sia stata una dellepiù importanti per apple

cdimauro
23-10-2014, 21:52
Si ma non è per ARM (non ancora), a noi interessava più che altro per fare un confronto tra i SoC (K1 e A8X), entrambi in ambiente x64.
Entrambi in ambiente a 64 bit. Ma K1 (a 64 bit) non è ancora uscito. Inoltre Android per ARM64 non c'è ancora. Dunque confronti non se ne possono fare.
La parte GPU del SoC dovrebbe essere simile però (infatti ho buttato lì un bench grafico dello nVidia Shield Tablet solo per rendere un'idea delle prestazioni).
Sì, ma le CPU sono completamente diverse. Dunque non puoi prendere i benchmark attuali e vedere come andrà Denver.
Scusami ma 64 bit cosa vuol dire?
Vuol dire che le ALU sono in grado di processare nativamente valori di 64 bit invece di "soli" 32bit.
Vuol dire, in generale, avere la possibilità di manipolare "in maniera naturale" informazioni a 64-bit.
Ora, vedi bene che non ha senso dire che un sistema è da sempre a 64 bit quando è da sempre che viene eseguito su una CPU a 32 bit. Se lo si vuole fare, ed è possibilissimo, significa buttare un sacco di potenza computazionale per nulla (doppie istruzioni per caricare ed elaborare operandi a 64bit su unità che ne gestiscono solo 32 alla volta).
Scusami, ma non ti seguo. Parli del fatto che il codice attuale è a 32-bit e non ha alcun vantaggio a essere eseguito su un processore (e s.o.) a 64 bit?
Puoi al massimo dire che il sistema è predisposto per usare puntatori a 64bit già dal day one.
E anche dati. Informazioni, in generale.
Ovvero che la gestione "doppia" è riservata solo per alcune particolari operazioni sulla memoria. Il che significa che la portabilità è immediata di tutto il codice sulla nuova CPU a 64bit senza dover avere modalità a 32 o 64bit come con architetture e framework SW non pensati originariamente per essere usati a 64bit.s
Ma le istruzioni che sono eseguite sui "vecchi" core sono a 32bit. D'altronde se le unità non supportano i 64bit, non ci sono istruzioni a 64bit possibili.
Questo andrebbe bene se parlassimo di codice scritto in assembly. Ma con un linguaggio ad alto livello puoi utilizzare interi a 32 o 64-bit in maniera abbastanza semplice, a seconda dell'architettura per la quale viene compilato il codice.

Per la precisione, sicuramente i puntatori passano immediatamente da 32 a 64 bit, in maniera del tutto trasparente. Per i dati (interi), invece, dipende dal linguaggio.
Ma fossero anche state disponibili, come lo sono oggi, il vantaggio di eseguire codice a 64bit rispetto a quello a 32bit è irrisorio. Ne hai una prova tangibile quando esegui lo stesso programma a 32bit o a 64bit sotto Windows. A meno che il programma non faccia grande uso di calcoli a 64bit INTERI (non float) non hai alcun vantaggio tangibile.
Veramente è da quando sono arrivati sul mercato che i processori a 64 bit hanno mostrato prestazioni migliori. Le applicazioni compilate a 64-bit erano mediamente più veloci del 10-15% rispetto alle medesime, ma compilate a 32-bit.
Su iPhone mi piacerebbe sapere quanti sono i programmi che fanno grande uso di calcoli interi a 64bit.
Difficile a dirsi. Comunque ci sono anche gli spostamenti, riempimenti, confronti di zone di memoria, ecc. usando 64 bit anziché 32.
Il vantaggio che ha avuto Apple con il passaggio a'ISA v8 di ARM è lo stesso identico che avranno tutti gli altri SoC anche quando faranno girare codice a 32bit.
Il vantaggio ci sarà, ma non sarà identico: dipende sempre dalla particolare micro-architettura.
Visto che come detto anche il "vecchio" codice Apple è a 32bit.
Il codice di sistema è compilato a 64 bit.
L'uso del puntatore a 64bit di Apple è un bell'hack
No, è una funzionalità standard di ARM64, ma ci sono differenze nelle micro-achitetture. Ad esempio, la versione di ARM che useranno gli altri produttori metterà a disposizione soltanto 8 bit nei puntatori da utilizzare come "tag data". Apple, furbamente, ha deciso di sfruttare più bit allo scopo.
che le permette maggiore efficienza nell'uso dei puntatori
Nell'implementazione di virtual machine e/o di meccanismi di garbage collection.
ma che le taglia come ovvio parte dell'indirizzamento di memoria possibile.
Non è assolutamente un problema, perché lo spazio d'indirizzamento virtuale è di gran lunga più ampio della memoria fisica installata: 8GB contro 1GB e 2GB.
Ovviamente con la velocità con cui Apple aggiunge memoria ai suoi prodotti non sarà un grande problema per qualche eone. In più, se non ho capito male il funzionamento, non rende tali puntatori compatibili con altre architetture, quindi da oggi in poi Apple è costretta a farsi la propria architettura ARM in casa. Altra cosa che ovviamente nessun altro può permettersi, nemmeno Samsung se non vuole costruirsi oltre ai telefoni e al SoC anche un OS tutto suo.
No, assolutamente, perché tutto viene gestito in maniera trasparente dal runtime di Apple, che nasconde questi dettagli implementativi e il funzionamento dei tagged pointer.

SE e quando dovesse servire uno spazio d'indirizzamento virtuale più grande di 8GB, potrà sempre recuperare qualche bit dai puntatori senza ciò richieda modifiche alle applicazioni esistenti, che continueranno a funzionare in maniera trasparente.

Ultima cosa, e non meno importante, Apple potrebbe anche rilasciare un dispositivo con 32GB di memoria fisica, mantenendo gli 8GB di memoria virtuale indirizzabile, poiché tale limite sarebbe applicato per ogni applicazione. Quindi ogni applicazione avrebbe 8GB di memoria massima, ma già 4 applicazioni potrebbero coprire tutti e 32 i GB di memoria fisica a disposizione. Quindi si tratterebbe di un limite che, in ogni caso, non si farebbe sentire più di tanto, se non per particolari applicazioni estremamente esigenti.
Detto ciò, e non è riferito a te, non capisco come ancora nel 2014 vi sia gente che frequenta forum di tecnologia e ostinatamente continua a ribadire che una architettura che va a 2.3GHz è meno efficiente di una che va a 1.4GHz con le stesse prestazioni. Ma comprendere che vi sono decine di altri punti da tenere presente quando si valuta una architettura, no? Eppure sono stati elencati: consumi, dimensioni, costi, facilità di aggiornamento, flessibilità d'uso... Giusto per curiosità, avete una minima idea di quanto siano più grandi i core Apple rispetto a quelli standard ARM, prima di dire che sono "il meglio in assoluto"?
Allora non serve nemmeno andare a vedere quanto siano grandi o piccoli i core dei processori, perché anche questo dato rientrerebbe fra le varie caratteristiche di un chip.

Ciò che dovrebbe contare sono i risultati finali, in base alle proprie esigenze.
Che ripeto è un miglioramento dell'implemtazione per SW a 64bit, non quella fatta per il codice precedente che non trae vantaggio da questa cosa ma gira più velocemente solo perché le risorse messe a disposizione sono maggiori rispetto all'ISA precedente. Più ALU, più vie, pipeline più corte sono quello che hanno reso l'architettura Apple più performante rispetto all'architettura ARM standard. Non certo il fatto che le ALU sono raddoppiate di dimensioni.
Il codice che prima faceva 1+1 non trae vantaggio da una ALu a 64bit rispetto ad una a 32bit (anzi, direi il contrario per l'energia necessaria).
E' chiaro che il codice esistente non potrà trarre giovamento né dai 64 bit né dai cambiamenti dell'ISA, ma esclusivamente dai miglioramenti della micro-architettura.

Ma il software di sistema gira già a 64-bit, per cui un Safari a 64-bit, per fare l'esempio di un'applicazione molto importante e molto usata, gli utenti se lo possono godere fin da subito.

Per il resto, le applicazioni di terze parti verranno presto rese disponibili a 64 bit. Specialmente se lo imporrà Apple.
@Speciale
Nessuno mette in discussione che Apple sia più avanti, già solo per il fatto che può permettersi un PP più avanzato.
Ma questo non dice nulla su quelle che sono le capacità degli altri SoC. Denver si è dimostrato al pari con un PP inferiore.
Sì, ma il punto che, penso, voleva sottolineare Speciale, è che Apple vende già dispositivi col suo SoC. nVidia ancora no.

Alla fine ciò che conta, in questo momento, è cosa possano acquistare i consumatori...

cdimauro
23-10-2014, 21:55
Per il codice che gira a 32 bit concorso, per quello a 64 bit è più complicato, quando è riscritto in modo decente generalmente si ottengono anche altri miglioramenti, visto che si riesce ad elaborare anche il doppio dei dati per ciglio di clock
Esattamente. Poi se si ottimizzano le funzioni della famigerata "libc", i miglioramenti saranno automaticamente ereditati da tutte le applicazioni.
A8 è più efficiente, non va in throttling, poi vederemo cosa succederà in futuro, comuqnue rimane un fatto che l'acquisizione di PA Semi sia stata una dellepiù importanti per apple
Io metterei assieme anche quella di Intrinsity. ;)