Quote:
Ma la prossima generazione non sarà A15, ma A57. Il fatto che Apple con A7 abbia una CPU dual core a 1,3ghz che va quanto i quad core 2,3ghz della concorrenza dovrebbe
Non condivido il discorso sulla GPU, secondo me è abbastanza secondaria, nessuno su smartphone o tablet necessita di strabilianti prestazioni in questo, almeno per ora (e per gli effetti grafici e l'accelerazione hardware non serve una super GPU).
|
La "potenza" vera dei chip Apple andrebbe provata a parità di OS. Le app su iOS lavorano con codice nativo, quelle su Android tramite VM. Inoltre i test riportati usano sempre lavori monotask (i test Javascript non sono multithreaded), per cui direi che il confronto non è possiible. La frequenza è solo una delle caratteristiche della velocità. E' possibile per Apple, per le ragioni dette precedentemente, sacrificare parecchio spazio su silicio per permettere al chip di andare a minor frequenza con le stesse prestazioni. Ma se si vuole aumentare le performance valgono le stesse identiche regole: o alzi le frequenze e i consumi o allarghi ancora di più lo spazio usato (maggiore costo). Indipedentemente da quale modello si adotti, non basta dire "ah ma va solo a 1,3GHz, a 2,3GHz spazzerebbe via tutti". A 2,3GHz magari (o molto probabilmente) il chip di Apple consuma 15W invece degli oltre 5 che consuma oggi.
Il discordo sulla GPU invece non lo capisco. Così come su uno smartphone uno non avrebbe bisogno di una GPU iper potente, allora non avrebbe bisogno neanche di una CPU ultra mega figa. Che te ne faresti? Ci fai il rendering con PovRay o ci fai girare le simulazioni con Matlab? Eppure l'aumento delle prestazioni (e dello spazio dedicato) della GPU nei SoC è andata ad aumentare ben più delle prestazioni della CPU.
La verità, che Apple ha scoperto da subito a differenza degli altri, è che la maggior parte del lavoro compiuto dai SoC con gli smartphone/tablet è di tipo grafico. Un iPad ultima generazione non fa nulla di più o meno di quando non faccia il primo iPad. Però il nuovo iPad ha una risoluzine quadrupla e sono in arrivo schermi con risoluzioni ancora maggiori.
Pensa solo di guardarci un PDF. Il lavoro della CPU è il medesimo, la la GPU deve lavorare 4 volte di più. E' quindi logico che ci si concentri ad aumentare le prestazioni grafiche rispetto a quelle di puro calcolo. Prestazioni quest'ultime che comunuqe sono garantite dal passaggio alle nuove architetture di ARM (vedi le differenze tra i vecchi ARMv6, i Cortex-A8, gli A9, gli A15 e i nuovi A57).
Non c'è alcun miracolo in questa evoluzione delle CPU da parte di nessuno, Apple compresa. Chi se le fa in casa ottiene incrementi minimi ma alla fine decide semplicemente se usare più silicio o più frequenza. Tanto che persino Qualcomm usa i "normali" ARM sui suoi SoC minori, dove è chiaro che un lavoro di super ottimizzazione per ottenere 3 punti in più in un qualsiasi bench non paga.
In verità, Apple a parte, non so quanto ancora durerà questa cosa di farsi le architetture ARM compatibili in casa. Man mano che aumenta la complessità dell'architettura aumentano i costi. Quindi o vendi tanto di più o prima o poi non riesci ad andare in pari (visto che il costo del singolo SoC deve rimanere lo stesso per ovvie ragioni di mercato).
Per chi ha fatto i consti della durata dei SoC da 5W sui tablet, sappia che già sono usati SoC che consumano 5W e oltre (l'A6 di Apple per esempio) di picco massimo eppure la durata è sempre più o meno la stessa.
Probabilmente non avete compreso come funzionano gli smartphone o i tablet: non sono oggetti che rimangono a fare lavori in background come i PC. Fanno un determinato lavoro (e per il 99% dei casi uno e uno solo alla volta) e farlo in 1 minuto consumando 2 Watt o in 30 secondi consumando 4 Watt produce lo stesso identico consumo medio, solo che nel secondo caso l'ultilizzatore sarà ben più contento dei tempi di risposta.
Ovvio che se uno gioca e gli piace godere di 60fps invece che di 30 allora paga al cosa con un'autonomia inferiore.
Infatti quello che conta di più è il consumo in idle, ed è per questo che sono nati i vari big.LITTLE o il companion core di nvidia.
In questo caso è fondamentale che nvidia abbia previsto un modo per diminuire al massimo i consumi dell'enorme GPU quando non è usata, altrimenti sì, l'autonomia ne risentirà. Ma non è questione di quanto consuma quando è al lavoro.
Ribadisco, oltre a CPU e GPU questo SoC offre anche porte USB3.0 e Sata. Non conosco altri SoC in grado di offrire lo stesso. Su uno smartphone non serviranno a nulla (anzi mancando del modem inegrato non è meglio di altro), ma già su un tablet permette cose che altri non possono. In un sistema All-in-one come quello usato nella presentazione è ovvio che per ora non c'è concorrenza. Così come per qualsiasi altra cosa che non sia necessariamente un bieco smarphone. Quindi invece di guardare quanti FPS fa il nuovo Qualcomm, sarebbe da capire se offrirà le stesse caratteristiche.
Se qualcuno pensa "ah, ma non servon a niente", be', lo si pensava di tante altre cose prima che fossero state realizzate. Poi sono diventate indispensabili come il pane, e chi non li aveva si è attaccato al tram o ha dovuto spendere enormi risorse per portarsi alla pari.
Pensate semplicemente che questo SoC ha possibilità di far girare applicazioni CUDA o comunque GPGPU... oltre agli smartphone c'è altro mercato (spesso molto più redditizio), e nvidia sempre a questo ha pensato con i suoi SoC e il progetto Denver, dovendo comunque necessariamente passare per il mercato mobile nel frattempo.