PDA

View Full Version : Primi benchmark di Nvidia Tegra K1: irraggiungibile per i tablet di oggi, sfida i notebook


Redazione di Hardware Upg
14-01-2014, 09:31
Link alla notizia: http://www.hwupgrade.it/news/tablet/primi-benchmark-di-nvidia-tegra-k1-irraggiungibile-per-i-tablet-di-oggi-sfida-i-notebook_50490.html

Sono apparsi i primi benchmark di Nvidia Tegra K1, il SoC per dispositivi mobile che la società poco prima del CES 2014 di Las Vegas. I risultati dei primi test grafici sono assolutamente elevati

Click sul link per visualizzare la notizia.

dwfgerw
14-01-2014, 09:41
C'è da dire che K1 sara disponibile in produzione di massa nella seconda metá del 2014, mentre chip come A7 è andato in produzione a luglio-agosto 2013 ed alimenta gia milioni di device creando una base di installato a64bit sui quali testare le app mobili di domani.
Quando K1 arriverá sul mercato, Apple avrá il suo A8 e Qualcomm il suo chip a 64 bit e il divario si annullerá

dobermann77
14-01-2014, 09:47
5W.... ma è mostruoso sto prodotto... non ci posso credere.

gpat
14-01-2014, 09:52
Ci deve essere la fregatura, non ci credo che nVidia ha finalmente fatto un SOAC decente.

Notturnia
14-01-2014, 09:54
wow..

krocca
14-01-2014, 09:59
si ok su un dispositivo reference uber ottimizzato.
Voglio vederlo su un samsung... che già un s4 lagga pur avendo hardware che su altri dispositivi non causa impuntamenti...

Come sempre il software è fondamentale. :)

nickmot
14-01-2014, 10:03
si ok su un dispositivo reference uber ottimizzato.
Voglio vederlo su un samsung... che già un s4 lagga pur avendo hardware che su altri dispositivi non causa impuntamenti...

Come sempre il software è fondamentale. :)

Senza contare che nVidia ha l'abitudine di non rilasciare driver aggiornati per i nuovi kernel, di fatto i dispositivi tegra sono condannati alla versione di android con cui nascono.
Persino il Nexus 7 2012, pur avendo android KitKat ha ancora il kernel vecchio e non support aART.

die81
14-01-2014, 10:04
il trucco è semplice: quando uscirà sarà surclassato dalle nuove generazioni di soc...troppo facile vincere contro chip vecchi di quasi un anno ;)

CrapaDiLegno
14-01-2014, 10:06
Il tutto sta sempre nelle dimensioni. E quindi nei costi.
E' possibile per tutti fare SoC di grande potenza (presupponendo di sapere anche integtrare correttamente il tutto) usando spazio e silicio. I SoC Apple non sono potenti perché Apple è bella, brava, super etc... ma perché sono molto più grandi di quelli della concorrenza. Vendendo prodotti a costi molto più alti della concorrenza se lo può permettere.

La differenza vera sta nell'efficienza dell'architettura grafica. Siccome ormai la GPU è grande 2, 3 o anche più volte la parte CPU, la sua efficienza è sempre più importante. Bisogna vedere se l'architettura Kepler a parità di spazio e consumi è meglio o peggio di quella di PowerVR, ARM o Adreno. Ricordo che tutte le altre architetture non nvidia usano l'approccio tile based che si è dimostrato fallimentare sulle schede discrete. Potrebbe voler dire che da una certa complessità di lavoro in poi la soluzione nvidia è migliore per costi/consumi/spazio o altro. Se questo fosse vero per la concorrenza si apre un problema non indifferente a dove competere con chi da 20 anni fa una architettura grafica di questo tipo ed è pure il leader mondiale.

Però non è detto che tutti i SoC necessitino di una potenza del genere, anche se sembra che la possibilità di integrare sempre più roba porti questi SoC a diventare sempre più bestie (si è partiti da SoC da meno di mezzo Watt e ora abbiamo questo, insieme a quelli Apple, che consumano più di 5W).

Duncan
14-01-2014, 10:27
Mah, se è solo un paper launch cambia poco, visto che anche gli altri hanno annunciato la prossima generazione di chip, PowerVR ad esempio i nuovi 650 Xt mi pare, il 50% più veloce di quelli presenti su A7, quindi prestazioni allineate a K1

Vedremo cosa accadrà, ma Nvidia deve trovare un partner forte, tipo Microsoft come si vociferava ultimamente.

CrapaDiLegno
14-01-2014, 10:29
La cosa che forse non è stata detta e che da questi bench non si nota è che lato CPU è praticamente identico a tegra4, ha solo una GPU più potente.
Se la concorrenza esce con anche una CPU più potente come si presume questo tegra sarà una sola.
Purtroppo per la concorrenza la CPU non scala come la GPU e le diverse velocità ottenibili con varie ottimizazioni sono minime. Cioè non ti aspettare che un quad core basato su architettura A15 a 2GHz della concorrenza possa andare molto di più di questo o consumare la metà.
La differenza ora la fa la GPU. Apple lo ha dimostrato facendo per prima SoC con CPU limitata ma GPU enorme. E quindi alla fine vince chi fa meglio sulla parte grafica. Anche perché il futuro non è usare i SoC per fare rendering (almeno non nell'immediato) ma per gestire grafica su pannelli che sono passati da 480x320 a 4000x2200 facendo praticamente le stesse cose.
Chiamare "sola" un SoC che integra tutto (compresa USB3.0 e controller Sata) quando la concorrenza è già tanto se mette 2 porte USB 2.0 mi sembra un po' riduttivo. Forse è una sola da usare in un telefono, ma per altro per ora non c'è concorrenza (metti un Qualcomm in un touch screen e vedi un po' che cosa puoi farci senza aggiungerci un quantiliardo di altri componenti esterni).

calabar
14-01-2014, 11:01
@CrapaDiLegno
Ma la prossima generazione non sarà A15, ma A57. Il fatto che Apple con A7 abbia una CPU dual core a 1,3ghz che va quanto i quad core 2,3ghz della concorrenza dovrebbe
Non condivido il discorso sulla GPU, secondo me è abbastanza secondaria, nessuno su smartphone o tablet necessita di strabilianti prestazioni in questo, almeno per ora (e per gli effetti grafici e l'accelerazione hardware non serve una super GPU).

Le considerazioni fatte ora comunque lasciano il tempo che trovano, vedremo quando i prodotti saranno disponibili. Nvidia finora si è mossa male proprio su questo fronte, inutile far vedere mirabolanti prestazioni quando poi arrivi sul mercato e non sei nulla di speciale.

In ogni caso il problema maggiore secondo me rimane la politica di rilascio dei driver, forse va bene per i surface, ma nel mondo Android è una bella limitazione.

avvelenato
14-01-2014, 11:03
5 watt non sono pochi in ambito mobile.

A che prodotto si rivolge questo chip?

Di certo non a un cellulare: immaginatelo con una batteria da 2000mAh @ 3,6v: col solo consumo del soc la carica durerebbe 41 minuti circa.

Fate voi le proporzioni, ma anche per un tablet la vedo dura, a meno di non inserire una batteria da 6000mAh a 7,2v, il che porterebbe l'autonomia a circa 4 ore (considerando ESCLUSIVAMENTE il consumo del soc).


(è chiaro che si tratta di un thermal reference e non del consumo totale continuativo, però, così per farsi un'idea del tipo di oggetto dove andrà a finire questo chip)

MiKeLezZ
14-01-2014, 11:17
Metterlo sui tablet mi pare potenza sprecata... Bha complimenti NVIDIA, ma non vedo a cosa serva

Mah, se è solo un paper launch cambia poco, visto che anche gli altri hanno annunciato la prossima generazione di chip, PowerVR ad esempio i nuovi 650 Xt mi pare, il 50% più veloce di quelli presenti su A7, quindi prestazioni allineate a K1

Vedremo cosa accadrà, ma Nvidia deve trovare un partner forte, tipo Microsoft come si vociferava ultimamente.Il 50% in più NON li farà andare come K1. Da 27 fps passeranno a 40 fps che è comunque ben inferiore a 60 fps.

Graal92
14-01-2014, 12:17
Se non stanno attenti questo SoC fa la stessa fine di tegra4: dove sta? Quale smartphone lo monta? È già vecchio prima di prendere piede.

PhoEniX-VooDoo
14-01-2014, 12:26
si ok su un dispositivo reference uber ottimizzato.
Voglio vederlo su un samsung... che già un s4 lagga pur avendo hardware che su altri dispositivi non causa impuntamenti...

Come sempre il software è fondamentale. :)

quindi tu dici che i test vanno fatti con l'handicap di un sw di me...a come il touchwiz di samsung per essere attendibili? :doh:

un po come dire che i test da 0 a 100 le case automobilistiche dovrebbero farli tra le buche di roma e non su una pista :muro:

CrapaDiLegno
14-01-2014, 12:46
Ma la prossima generazione non sarà A15, ma A57. Il fatto che Apple con A7 abbia una CPU dual core a 1,3ghz che va quanto i quad core 2,3ghz della concorrenza dovrebbe
Non condivido il discorso sulla GPU, secondo me è abbastanza secondaria, nessuno su smartphone o tablet necessita di strabilianti prestazioni in questo, almeno per ora (e per gli effetti grafici e l'accelerazione hardware non serve una super GPU).
La "potenza" vera dei chip Apple andrebbe provata a parità di OS. Le app su iOS lavorano con codice nativo, quelle su Android tramite VM. Inoltre i test riportati usano sempre lavori monotask (i test Javascript non sono multithreaded), per cui direi che il confronto non è possiible. La frequenza è solo una delle caratteristiche della velocità. E' possibile per Apple, per le ragioni dette precedentemente, sacrificare parecchio spazio su silicio per permettere al chip di andare a minor frequenza con le stesse prestazioni. Ma se si vuole aumentare le performance valgono le stesse identiche regole: o alzi le frequenze e i consumi o allarghi ancora di più lo spazio usato (maggiore costo). Indipedentemente da quale modello si adotti, non basta dire "ah ma va solo a 1,3GHz, a 2,3GHz spazzerebbe via tutti". A 2,3GHz magari (o molto probabilmente) il chip di Apple consuma 15W invece degli oltre 5 che consuma oggi.

Il discordo sulla GPU invece non lo capisco. Così come su uno smartphone uno non avrebbe bisogno di una GPU iper potente, allora non avrebbe bisogno neanche di una CPU ultra mega figa. Che te ne faresti? Ci fai il rendering con PovRay o ci fai girare le simulazioni con Matlab? Eppure l'aumento delle prestazioni (e dello spazio dedicato) della GPU nei SoC è andata ad aumentare ben più delle prestazioni della CPU.

La verità, che Apple ha scoperto da subito a differenza degli altri, è che la maggior parte del lavoro compiuto dai SoC con gli smartphone/tablet è di tipo grafico. Un iPad ultima generazione non fa nulla di più o meno di quando non faccia il primo iPad. Però il nuovo iPad ha una risoluzine quadrupla e sono in arrivo schermi con risoluzioni ancora maggiori.
Pensa solo di guardarci un PDF. Il lavoro della CPU è il medesimo, la la GPU deve lavorare 4 volte di più. E' quindi logico che ci si concentri ad aumentare le prestazioni grafiche rispetto a quelle di puro calcolo. Prestazioni quest'ultime che comunuqe sono garantite dal passaggio alle nuove architetture di ARM (vedi le differenze tra i vecchi ARMv6, i Cortex-A8, gli A9, gli A15 e i nuovi A57).
Non c'è alcun miracolo in questa evoluzione delle CPU da parte di nessuno, Apple compresa. Chi se le fa in casa ottiene incrementi minimi ma alla fine decide semplicemente se usare più silicio o più frequenza. Tanto che persino Qualcomm usa i "normali" ARM sui suoi SoC minori, dove è chiaro che un lavoro di super ottimizzazione per ottenere 3 punti in più in un qualsiasi bench non paga.
In verità, Apple a parte, non so quanto ancora durerà questa cosa di farsi le architetture ARM compatibili in casa. Man mano che aumenta la complessità dell'architettura aumentano i costi. Quindi o vendi tanto di più o prima o poi non riesci ad andare in pari (visto che il costo del singolo SoC deve rimanere lo stesso per ovvie ragioni di mercato).

Per chi ha fatto i consti della durata dei SoC da 5W sui tablet, sappia che già sono usati SoC che consumano 5W e oltre (l'A6 di Apple per esempio) di picco massimo eppure la durata è sempre più o meno la stessa.
Probabilmente non avete compreso come funzionano gli smartphone o i tablet: non sono oggetti che rimangono a fare lavori in background come i PC. Fanno un determinato lavoro (e per il 99% dei casi uno e uno solo alla volta) e farlo in 1 minuto consumando 2 Watt o in 30 secondi consumando 4 Watt produce lo stesso identico consumo medio, solo che nel secondo caso l'ultilizzatore sarà ben più contento dei tempi di risposta.
Ovvio che se uno gioca e gli piace godere di 60fps invece che di 30 allora paga al cosa con un'autonomia inferiore.
Infatti quello che conta di più è il consumo in idle, ed è per questo che sono nati i vari big.LITTLE o il companion core di nvidia.
In questo caso è fondamentale che nvidia abbia previsto un modo per diminuire al massimo i consumi dell'enorme GPU quando non è usata, altrimenti sì, l'autonomia ne risentirà. Ma non è questione di quanto consuma quando è al lavoro.

Ribadisco, oltre a CPU e GPU questo SoC offre anche porte USB3.0 e Sata. Non conosco altri SoC in grado di offrire lo stesso. Su uno smartphone non serviranno a nulla (anzi mancando del modem inegrato non è meglio di altro), ma già su un tablet permette cose che altri non possono. In un sistema All-in-one come quello usato nella presentazione è ovvio che per ora non c'è concorrenza. Così come per qualsiasi altra cosa che non sia necessariamente un bieco smarphone. Quindi invece di guardare quanti FPS fa il nuovo Qualcomm, sarebbe da capire se offrirà le stesse caratteristiche.

Se qualcuno pensa "ah, ma non servon a niente", be', lo si pensava di tante altre cose prima che fossero state realizzate. Poi sono diventate indispensabili come il pane, e chi non li aveva si è attaccato al tram o ha dovuto spendere enormi risorse per portarsi alla pari.
Pensate semplicemente che questo SoC ha possibilità di far girare applicazioni CUDA o comunque GPGPU... oltre agli smartphone c'è altro mercato (spesso molto più redditizio), e nvidia sempre a questo ha pensato con i suoi SoC e il progetto Denver, dovendo comunque necessariamente passare per il mercato mobile nel frattempo.

calabar
14-01-2014, 13:58
@CrapaDiLegno
In realtà non conosci proprio nessun SOC con usb3 e sata, neppure questo... visto che non è ancora uscito. ;)
Ciò che intendo dire è che questo tipo di confronto potrai farlo quando sarà ben chiaro cosa ci sarà al momento dell'uscita sul mercato.
Comunque hai ragione, su un tablet possono essere un valore aggiunto.

Non concordo invece sulla GPU. Non serve una GPU così potente per fare le operazioni di accelerazione di cui parli, e difatti per mostrare la potenza del SOC non hanno misurato il tempo di rendering di un PDF ma gli FPS di una scena 3D.
La CPU invece fa ancora la parte del leone per quanto riguarda la reattività del sistema (non che questo SOC sia mal messo eh...), ma ormai anche con la CPU siamo giunti ad un livello di potenza tale che, come su PC, non la si sceglie più per la reattività che da al sistema perchè per quello la potenza di una CPU media è già sufficiente.

Per quanto riguarda i benchmark iOS/Android, ti ricordo che su Android è possible programmare in modo nativo, e i software di benchmark (come buona parte dei giochi 3D) di norma non sono programmati per girare su Dalvik (o su ART). Il sistema certo può influire, ma dipende caso per caso (e nei benchmark multipiattaforma ho idea che lo faccia in modo marginale).

Rimangono comunque i problemi di cui si è già parlato:
- Tempistica di uscita sul mercato, che in passato ha determinato il poco successo delle altre soluzioni Tegra.
- CPU che pare essere un po' sottotono (così qualcuno ha detto :p ).
- Aggiornamento dei Driver con le nuove uscite di Android.
Secondo me Nvidia deve ancora capire bene che il mercato dei SOC è diverso da quello delle schede per PC e comportarsi di conseguenza.

ciocia
14-01-2014, 17:58
Tanta roba per un tablet o netbook. Per smartphone sono titubante per i consumi, ma non ci resta che aspettare un telefono e vederne la durata.
Ho un Note2 e come durata lo ritengo insufficiente ( usandolo per navigare, niente giochi 3D ) pur essendo uno dei telefoni piu' longevi...Vogliamo la rincorsa alla durata, basta benchmark 3D...

CrapaDiLegno
15-01-2014, 09:09
In realtà non conosci proprio nessun SOC con usb3 e sata, neppure questo... visto che non è ancora uscito.
Devi esserti perso qualche pezzo di evoluzione. Il tegra4 già monta una USB3.0 e una porta Sata. E' vecchio, è in ritardo ma intanto nessuno ha fatto lo stesso.
E' evidente che il mercato a cui si sta rivolgendo nvidia con gli ultimi SoC non è quello degli smartphone a basso margine di guadagno. O almeno, non solo.

calabar
15-01-2014, 09:42
Devi esserti perso qualche pezzo di evoluzione. Il tegra4 già monta una USB3.0 e una porta Sata. E' vecchio, è in ritardo ma intanto nessuno ha fatto lo stesso.
Se è vero hai ragione, me l'ero perso... o più probabilmente mi ero dimenticato! :D

Non ho però trovato riferimenti, cosa strana non ne parla neppure nella pagina di presentazione del prodotto sul sito nvidia (click (http://www.nvidia.com/object/tegra-4-processor.html)), ma del resto li non se ne accenna neppure per il K1.

Al momento comunque questo tipo di integrazioni le vedo proficue solo su un target limitato come possono essere i surface di microsoft, a cui secondo me Nvidia sta puntando con il K1.
Sugli altri tablet potrebbe giusto tornare utile la usb3 per il trasferimento dati cablato, ma ho idea che sia una cosa vista come secondaria, dato che la maggior parte dell'utenza mobile usa altri metodi di sincronizzazione.