|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: http://www.hwupgrade.it/news/tablet/...ook_50490.html
Sono apparsi i primi benchmark di Nvidia Tegra K1, il SoC per dispositivi mobile che la società poco prima del CES 2014 di Las Vegas. I risultati dei primi test grafici sono assolutamente elevati Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Feb 2004
Messaggi: 3978
|
C'è da dire che K1 sara disponibile in produzione di massa nella seconda metá del 2014, mentre chip come A7 è andato in produzione a luglio-agosto 2013 ed alimenta gia milioni di device creando una base di installato a64bit sui quali testare le app mobili di domani.
Quando K1 arriverá sul mercato, Apple avrá il suo A8 e Qualcomm il suo chip a 64 bit e il divario si annullerá
__________________
Trattative a buon fine : Kenobi 321, klimt78, C3r3al, Ricky68, nicomixx, lahiri, Boxer2, fabri00, wainecrx |
![]() |
![]() |
![]() |
#3 |
Bannato
Iscritto dal: Feb 2013
Messaggi: 1552
|
5W.... ma è mostruoso sto prodotto... non ci posso credere.
|
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: May 2008
Messaggi: 2702
|
Ci deve essere la fregatura, non ci credo che nVidia ha finalmente fatto un SOAC decente.
__________________
MacBook Pro 16" M1Pro/16/512, Galaxy S24 Ultra 1TB. |
![]() |
![]() |
![]() |
#5 |
Senior Member
Iscritto dal: May 2008
Messaggi: 12500
|
wow..
|
![]() |
![]() |
![]() |
#6 |
Senior Member
Iscritto dal: Feb 2010
Messaggi: 1172
|
si ok su un dispositivo reference uber ottimizzato.
Voglio vederlo su un samsung... che già un s4 lagga pur avendo hardware che su altri dispositivi non causa impuntamenti... Come sempre il software è fondamentale. ![]()
__________________
Trattato positivamente con un bel po di gente. Steam: krcc PCars: krcc |
![]() |
![]() |
![]() |
#7 | |
Senior Member
Iscritto dal: May 2008
Città: Lucca
Messaggi: 13010
|
Quote:
Persino il Nexus 7 2012, pur avendo android KitKat ha ancora il kernel vecchio e non support aART.
__________________
PC1: Ryzen 5 5600X, 32GB(16x2) Corsair Vengeance RGB Pro 3600MHz, MSI MPG B550 GAMING PLUS, Corsair 275R-Corsair TX650W, Arctic Freezer 34 eSports DUO, Samsung 850 Evo 250GB+MX500 1TB+Seagate 2TB, RTX3070Ti FE, Monitor: AOC D2769VH; |
|
![]() |
![]() |
![]() |
#8 |
Senior Member
Iscritto dal: Nov 2003
Città: padova
Messaggi: 581
|
il trucco è semplice: quando uscirà sarà surclassato dalle nuove generazioni di soc...troppo facile vincere contro chip vecchi di quasi un anno
![]() |
![]() |
![]() |
![]() |
#9 |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3574
|
Il tutto sta sempre nelle dimensioni. E quindi nei costi.
E' possibile per tutti fare SoC di grande potenza (presupponendo di sapere anche integtrare correttamente il tutto) usando spazio e silicio. I SoC Apple non sono potenti perché Apple è bella, brava, super etc... ma perché sono molto più grandi di quelli della concorrenza. Vendendo prodotti a costi molto più alti della concorrenza se lo può permettere. La differenza vera sta nell'efficienza dell'architettura grafica. Siccome ormai la GPU è grande 2, 3 o anche più volte la parte CPU, la sua efficienza è sempre più importante. Bisogna vedere se l'architettura Kepler a parità di spazio e consumi è meglio o peggio di quella di PowerVR, ARM o Adreno. Ricordo che tutte le altre architetture non nvidia usano l'approccio tile based che si è dimostrato fallimentare sulle schede discrete. Potrebbe voler dire che da una certa complessità di lavoro in poi la soluzione nvidia è migliore per costi/consumi/spazio o altro. Se questo fosse vero per la concorrenza si apre un problema non indifferente a dove competere con chi da 20 anni fa una architettura grafica di questo tipo ed è pure il leader mondiale. Però non è detto che tutti i SoC necessitino di una potenza del genere, anche se sembra che la possibilità di integrare sempre più roba porti questi SoC a diventare sempre più bestie (si è partiti da SoC da meno di mezzo Watt e ora abbiamo questo, insieme a quelli Apple, che consumano più di 5W). |
![]() |
![]() |
![]() |
#10 |
Senior Member
Iscritto dal: Nov 1999
Città: Sesto Fiorentino, Firenze
Messaggi: 8444
|
Mah, se è solo un paper launch cambia poco, visto che anche gli altri hanno annunciato la prossima generazione di chip, PowerVR ad esempio i nuovi 650 Xt mi pare, il 50% più veloce di quelli presenti su A7, quindi prestazioni allineate a K1
Vedremo cosa accadrà, ma Nvidia deve trovare un partner forte, tipo Microsoft come si vociferava ultimamente. |
![]() |
![]() |
![]() |
#11 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3574
|
Quote:
La differenza ora la fa la GPU. Apple lo ha dimostrato facendo per prima SoC con CPU limitata ma GPU enorme. E quindi alla fine vince chi fa meglio sulla parte grafica. Anche perché il futuro non è usare i SoC per fare rendering (almeno non nell'immediato) ma per gestire grafica su pannelli che sono passati da 480x320 a 4000x2200 facendo praticamente le stesse cose. Chiamare "sola" un SoC che integra tutto (compresa USB3.0 e controller Sata) quando la concorrenza è già tanto se mette 2 porte USB 2.0 mi sembra un po' riduttivo. Forse è una sola da usare in un telefono, ma per altro per ora non c'è concorrenza (metti un Qualcomm in un touch screen e vedi un po' che cosa puoi farci senza aggiungerci un quantiliardo di altri componenti esterni). |
|
![]() |
![]() |
![]() |
#12 |
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14734
|
@CrapaDiLegno
Ma la prossima generazione non sarà A15, ma A57. Il fatto che Apple con A7 abbia una CPU dual core a 1,3ghz che va quanto i quad core 2,3ghz della concorrenza dovrebbe Non condivido il discorso sulla GPU, secondo me è abbastanza secondaria, nessuno su smartphone o tablet necessita di strabilianti prestazioni in questo, almeno per ora (e per gli effetti grafici e l'accelerazione hardware non serve una super GPU). Le considerazioni fatte ora comunque lasciano il tempo che trovano, vedremo quando i prodotti saranno disponibili. Nvidia finora si è mossa male proprio su questo fronte, inutile far vedere mirabolanti prestazioni quando poi arrivi sul mercato e non sei nulla di speciale. In ogni caso il problema maggiore secondo me rimane la politica di rilascio dei driver, forse va bene per i surface, ma nel mondo Android è una bella limitazione. |
![]() |
![]() |
![]() |
#13 |
Senior Member
Iscritto dal: Aug 2003
Città: Legnano (MI)
Messaggi: 4901
|
5 watt non sono pochi in ambito mobile.
A che prodotto si rivolge questo chip? Di certo non a un cellulare: immaginatelo con una batteria da 2000mAh @ 3,6v: col solo consumo del soc la carica durerebbe 41 minuti circa. Fate voi le proporzioni, ma anche per un tablet la vedo dura, a meno di non inserire una batteria da 6000mAh a 7,2v, il che porterebbe l'autonomia a circa 4 ore (considerando ESCLUSIVAMENTE il consumo del soc). (è chiaro che si tratta di un thermal reference e non del consumo totale continuativo, però, così per farsi un'idea del tipo di oggetto dove andrà a finire questo chip) |
![]() |
![]() |
![]() |
#14 | |
Senior Member
Iscritto dal: Jul 2003
Messaggi: 26788
|
Metterlo sui tablet mi pare potenza sprecata... Bha complimenti NVIDIA, ma non vedo a cosa serva
Quote:
|
|
![]() |
![]() |
![]() |
#15 |
Member
Iscritto dal: Feb 2013
Messaggi: 184
|
Se non stanno attenti questo SoC fa la stessa fine di tegra4: dove sta? Quale smartphone lo monta? È già vecchio prima di prendere piede.
|
![]() |
![]() |
![]() |
#16 | |
Bannato
Iscritto dal: Nov 2000
Messaggi: 15500
|
Quote:
![]() un po come dire che i test da 0 a 100 le case automobilistiche dovrebbero farli tra le buche di roma e non su una pista ![]() |
|
![]() |
![]() |
![]() |
#17 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3574
|
Quote:
Il discordo sulla GPU invece non lo capisco. Così come su uno smartphone uno non avrebbe bisogno di una GPU iper potente, allora non avrebbe bisogno neanche di una CPU ultra mega figa. Che te ne faresti? Ci fai il rendering con PovRay o ci fai girare le simulazioni con Matlab? Eppure l'aumento delle prestazioni (e dello spazio dedicato) della GPU nei SoC è andata ad aumentare ben più delle prestazioni della CPU. La verità, che Apple ha scoperto da subito a differenza degli altri, è che la maggior parte del lavoro compiuto dai SoC con gli smartphone/tablet è di tipo grafico. Un iPad ultima generazione non fa nulla di più o meno di quando non faccia il primo iPad. Però il nuovo iPad ha una risoluzine quadrupla e sono in arrivo schermi con risoluzioni ancora maggiori. Pensa solo di guardarci un PDF. Il lavoro della CPU è il medesimo, la la GPU deve lavorare 4 volte di più. E' quindi logico che ci si concentri ad aumentare le prestazioni grafiche rispetto a quelle di puro calcolo. Prestazioni quest'ultime che comunuqe sono garantite dal passaggio alle nuove architetture di ARM (vedi le differenze tra i vecchi ARMv6, i Cortex-A8, gli A9, gli A15 e i nuovi A57). Non c'è alcun miracolo in questa evoluzione delle CPU da parte di nessuno, Apple compresa. Chi se le fa in casa ottiene incrementi minimi ma alla fine decide semplicemente se usare più silicio o più frequenza. Tanto che persino Qualcomm usa i "normali" ARM sui suoi SoC minori, dove è chiaro che un lavoro di super ottimizzazione per ottenere 3 punti in più in un qualsiasi bench non paga. In verità, Apple a parte, non so quanto ancora durerà questa cosa di farsi le architetture ARM compatibili in casa. Man mano che aumenta la complessità dell'architettura aumentano i costi. Quindi o vendi tanto di più o prima o poi non riesci ad andare in pari (visto che il costo del singolo SoC deve rimanere lo stesso per ovvie ragioni di mercato). Per chi ha fatto i consti della durata dei SoC da 5W sui tablet, sappia che già sono usati SoC che consumano 5W e oltre (l'A6 di Apple per esempio) di picco massimo eppure la durata è sempre più o meno la stessa. Probabilmente non avete compreso come funzionano gli smartphone o i tablet: non sono oggetti che rimangono a fare lavori in background come i PC. Fanno un determinato lavoro (e per il 99% dei casi uno e uno solo alla volta) e farlo in 1 minuto consumando 2 Watt o in 30 secondi consumando 4 Watt produce lo stesso identico consumo medio, solo che nel secondo caso l'ultilizzatore sarà ben più contento dei tempi di risposta. Ovvio che se uno gioca e gli piace godere di 60fps invece che di 30 allora paga al cosa con un'autonomia inferiore. Infatti quello che conta di più è il consumo in idle, ed è per questo che sono nati i vari big.LITTLE o il companion core di nvidia. In questo caso è fondamentale che nvidia abbia previsto un modo per diminuire al massimo i consumi dell'enorme GPU quando non è usata, altrimenti sì, l'autonomia ne risentirà. Ma non è questione di quanto consuma quando è al lavoro. Ribadisco, oltre a CPU e GPU questo SoC offre anche porte USB3.0 e Sata. Non conosco altri SoC in grado di offrire lo stesso. Su uno smartphone non serviranno a nulla (anzi mancando del modem inegrato non è meglio di altro), ma già su un tablet permette cose che altri non possono. In un sistema All-in-one come quello usato nella presentazione è ovvio che per ora non c'è concorrenza. Così come per qualsiasi altra cosa che non sia necessariamente un bieco smarphone. Quindi invece di guardare quanti FPS fa il nuovo Qualcomm, sarebbe da capire se offrirà le stesse caratteristiche. Se qualcuno pensa "ah, ma non servon a niente", be', lo si pensava di tante altre cose prima che fossero state realizzate. Poi sono diventate indispensabili come il pane, e chi non li aveva si è attaccato al tram o ha dovuto spendere enormi risorse per portarsi alla pari. Pensate semplicemente che questo SoC ha possibilità di far girare applicazioni CUDA o comunque GPGPU... oltre agli smartphone c'è altro mercato (spesso molto più redditizio), e nvidia sempre a questo ha pensato con i suoi SoC e il progetto Denver, dovendo comunque necessariamente passare per il mercato mobile nel frattempo. |
|
![]() |
![]() |
![]() |
#18 |
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14734
|
@CrapaDiLegno
In realtà non conosci proprio nessun SOC con usb3 e sata, neppure questo... visto che non è ancora uscito. ![]() Ciò che intendo dire è che questo tipo di confronto potrai farlo quando sarà ben chiaro cosa ci sarà al momento dell'uscita sul mercato. Comunque hai ragione, su un tablet possono essere un valore aggiunto. Non concordo invece sulla GPU. Non serve una GPU così potente per fare le operazioni di accelerazione di cui parli, e difatti per mostrare la potenza del SOC non hanno misurato il tempo di rendering di un PDF ma gli FPS di una scena 3D. La CPU invece fa ancora la parte del leone per quanto riguarda la reattività del sistema (non che questo SOC sia mal messo eh...), ma ormai anche con la CPU siamo giunti ad un livello di potenza tale che, come su PC, non la si sceglie più per la reattività che da al sistema perchè per quello la potenza di una CPU media è già sufficiente. Per quanto riguarda i benchmark iOS/Android, ti ricordo che su Android è possible programmare in modo nativo, e i software di benchmark (come buona parte dei giochi 3D) di norma non sono programmati per girare su Dalvik (o su ART). Il sistema certo può influire, ma dipende caso per caso (e nei benchmark multipiattaforma ho idea che lo faccia in modo marginale). Rimangono comunque i problemi di cui si è già parlato: - Tempistica di uscita sul mercato, che in passato ha determinato il poco successo delle altre soluzioni Tegra. - CPU che pare essere un po' sottotono (così qualcuno ha detto ![]() - Aggiornamento dei Driver con le nuove uscite di Android. Secondo me Nvidia deve ancora capire bene che il mercato dei SOC è diverso da quello delle schede per PC e comportarsi di conseguenza. |
![]() |
![]() |
![]() |
#19 |
Senior Member
Iscritto dal: Sep 1999
Città: Calcara (Bologna) Nascita: 1974
Messaggi: 12804
|
Tanta roba per un tablet o netbook. Per smartphone sono titubante per i consumi, ma non ci resta che aspettare un telefono e vederne la durata.
Ho un Note2 e come durata lo ritengo insufficiente ( usandolo per navigare, niente giochi 3D ) pur essendo uno dei telefoni piu' longevi...Vogliamo la rincorsa alla durata, basta benchmark 3D... |
![]() |
![]() |
![]() |
#20 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3574
|
Quote:
E' evidente che il mercato a cui si sta rivolgendo nvidia con gli ultimi SoC non è quello degli smartphone a basso margine di guadagno. O almeno, non solo. |
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 06:52.