View Full Version : NVIDIA, uno smartphone quad-core al prossimo MWC?
Redazione di Hardware Upg
09-02-2012, 13:46
Link alla notizia: http://www.hwupgrade.it/news/telefonia/nvidia-uno-smartphone-quad-core-al-prossimo-mwc_40671.html
È stato distribuito in queste ore l'invito della compagnia americana NVIDIA alla propria conferenza che si terrà nel corso del prossimo Mobile World Congress, tema caldo dell'evento la possibilità di vedere svelato il primo smartphone quad-core
Click sul link per visualizzare la notizia.
VirtualFlyer
09-02-2012, 14:03
In teoria sono 5 core, comunque l'ottimizzazione dell'autonomia c'è anche grazie a questo quinto core e pare consumi addirittura meno di un dual core... questo per prevenire i commenti sull'autonomia...
Rikardobari
09-02-2012, 14:19
Galaxy S3 mio al day one!
Galaxy S3 mio al day one!
e quindi ? mica avrà il tegra 3 il galaxy s3 ;)
In teoria sono 5 core, comunque l'ottimizzazione dell'autonomia c'è anche grazie a questo quinto core e pare consumi addirittura meno di un dual core... questo per prevenire i commenti sull'autonomia...
mi sembra si chiami "compensation core".. in altre parole è un core che viaggia a 500-600 mhz... in altre parole si attiva nelle operazioni legate al solo TELEFONARE, disattivando tutti gli altri... quindi, in stand-by, dovrebbe consumare veramente poco!... dico DOVREBBE perchè dipende da tente cose... quindi ... :sperem:
e quindi ? mica avrà il tegra 3 il galaxy s3 ;)
gli piacerebbe... loro hanno i loro Exinos... che DICONO dare le paste a Nvidia... Personalmente (quindi IMHO) o non credo.. anche i Test dicono che in alcuni casi è vero, in altri assolutamente no... il bello di Nvidia è che ti dà un discreto supporto, soprattutto per giochi e applicazioni, SDK, l'HDMI ecc...
Samsung ha tentato di produrre anche il Galaxy R con Chip Nvidia Tegra2, ma non credo sia mai stato commercializzato in Italia... peccato, l'avrei voluto provare...
ciao!
Portocala
09-02-2012, 15:07
Ma che telefono è quello? Sembra un 22:10 non un 16:9, visto quanto è lungo (that's what she said :asd:)
devil997
09-02-2012, 15:20
Si chiama Companion core, e serve per le operazioni basilari, per evitare di dover accendere le fornaci.
Tegra 3 non è un processore da smartphone, lo vedrete su un cellulare quando passeranno ai 28nm ed il companion probabilmente scomparirà. Se doveste vederlo prima, state pur certi che non sarà quello che credete, o vorranno farvi credere. Esattamente come tegra 2, che si è scoperto (mesi dopo chissà perchè) essere molto diverso fra smartphone e tablet.
Già il transformer prime non arriva a 6 ore, figurati piazzare quella schifezza sulle spalle di una batteria da smartphone.
Exynos tutta la vita, da quando è uscito Gs2 non c'è più penuria di potenza, o colli di bottiglia, come su GS1, il nuovo soc oltre a portare ulteriore aumento di prestazioni, sarà anche discretamente ottimizzato per consumi ragionevoli...Sperem...
Ricordate che quando è uscito il dual con tegra 2 la gente si è fiondata a comprarlo, e tre mesi dopo samsung è uscito con GS2 ed exynos 4210...La storia si stà per ripetere...
gli piacerebbe... loro hanno i loro Exinos... che DICONO dare le paste a Nvidia... Personalmente (quindi IMHO) o non credo.. anche i Test dicono che in alcuni casi è vero, in altri assolutamente no... il bello di Nvidia è che ti dà un discreto supporto, soprattutto per giochi e applicazioni, SDK, l'HDMI ecc...
Samsung ha tentato di produrre anche il Galaxy R con Chip Nvidia Tegra2, ma non credo sia mai stato commercializzato in Italia... peccato, l'avrei voluto provare...
ciao!
da possessore di GS2 ti dico che non ha nulla a che invidiare ai tegra , anzi , riescono anche a far girare giochi ufficiali tegra 2 ;)
Tegra 3 non è un processore da smartphone, lo vedrete su un cellulare quando passeranno ai 28nm ed il companion probabilmente scomparirà. Se doveste vederlo prima, state pur certi che non sarà quello che credete, o vorranno farvi credere.
Non ne hai azzeccata una :)
Il Tegra3 verra' usato anche su smartphone, anche se in SKU diverso da quello dei tablet (cioe' e' lo stesso SoC, ma diverso binning e diversi settaggi interni tipo frequenza e tensione), ed e' a 40nm. E il Companion core non scomparira' affatto, e' la trovata di nvidia per risparmiare potenza negli scenari di basso utilizzo e funziona bene, verra' usato anche nei prossimi Tegra.
devil997
09-02-2012, 16:48
Per me tu non ne hai azzeccata una...Le parole che hai quotato sono di Nvidia.
CrapaDiLegno
09-02-2012, 17:43
I porossimi SoC con architettura standard ARm (quindi niente schifezze ibride come quelli prodotti da Qualcomm) si avranno la solzione big.LITTLE (Cortex-A15 affiancato da un Cortex-A7). Praticamente la soluzione nvidia ma "simmetrica" nel senso che ci sarà un core "scarso" per ogni core "buono". E andranno in alternativa l'uno con l'altro (proprio come avviene con il comanion core di nvidia e gli altri 4 Cortex-A9 a piena potenza).
Che il transformer non duri 6 ore non l'ho capita. Ti riferisci al test in cui hanno sparato il display al massimo della potenza per vedere in quanto tempo di scarica? Non mi sembra un test credibile. A quel punto un tablet con retroilluminazione a candela durerebbe molto di più. Il test andrebbe fatto in condizioni di uso normale e uguale per tutti i tablet in prova, non sfruttando le caratteristiche avanzate di uno che portano svantaggi quando mal usati (tipo tenere la retroilluminazione al massimo.. ma chi lo fa? Ah, sì quando sei in esterno... bravo.. quindi l'opzione è meno di 6 ore riuscendo a vedere uno schermo vs nessuna ora perché non vedi un bel niente su un tablet che non arriva a tale potenza di illuminazione).
Comunque se non fosse per nvidia saremmo ancora con i monocore a 600MHz e con GPU che malapena fanno girare Angry Birds.
I porossimi SoC con architettura standard ARm (quindi niente schifezze ibride come quelli prodotti da Qualcomm)
Beh dai perche' schifezze ibride? Fanno ottima roba in Qualcomm :) e soprattutto fanno un botto di soldi :)
si avranno la solzione big.LITTLE (Cortex-A15 affiancato da un Cortex-A7). Praticamente la soluzione nvidia ma "simmetrica" nel senso che ci sarà un core "scarso" per ogni core "buono". E andranno in alternativa l'uno con l'altro (proprio come avviene con il comanion core di nvidia e gli altri 4 Cortex-A9 a piena potenza).
Non sono sicuro di come funzionera' questa big.LITTLE, ho sentito voci discordanti: leggendo la press release di ARM mi sembrava di capire che big e little supportassero esattamente la stessa ISA, ma ho sentito voci in giro dire che non e' cosi'. Il vantaggio di supportare la stessa esatta architettura (come il Companion core) e' che e' trasparente al sistema operativo, l'hardware puo' spostare il sistema operativo e tutto il resto da un core all'altro senza che lui nemmeno sappia cos'e' successo, molto comodo per il software. Se big.LITTLE non fosse trasparente perderebbe secondo me parecchio appeal.
Che il transformer non duri 6 ore non l'ho capita. Ti riferisci al test in cui hanno sparato il display al massimo della potenza per vedere in quanto tempo di scarica? Non mi sembra un test credibile.
NEanche a me: e' in pratica un test del pannello, piuttosto inutile. Se li usi alla stessa luminosita', coem aveva fatto a suo tempo Anand, la durata del Prime era uguale se non un po' superiore a quello del primo transformer.
devil997
09-02-2012, 18:40
I porossimi SoC con architettura standard ARm (quindi niente schifezze ibride come quelli prodotti da Qualcomm) si avranno la solzione big.LITTLE (Cortex-A15 affiancato da un Cortex-A7). Praticamente la soluzione nvidia ma "simmetrica" nel senso che ci sarà un core "scarso" per ogni core "buono". E andranno in alternativa l'uno con l'altro (proprio come avviene con il comanion core di nvidia e gli altri 4 Cortex-A9 a piena potenza).
Che il transformer non duri 6 ore non l'ho capita. Ti riferisci al test in cui hanno sparato il display al massimo della potenza per vedere in quanto tempo di scarica? Non mi sembra un test credibile. A quel punto un tablet con retroilluminazione a candela durerebbe molto di più. Il test andrebbe fatto in condizioni di uso normale e uguale per tutti i tablet in prova, non sfruttando le caratteristiche avanzate di uno che portano svantaggi quando mal usati (tipo tenere la retroilluminazione al massimo.. ma chi lo fa? Ah, sì quando sei in esterno... bravo.. quindi l'opzione è meno di 6 ore riuscendo a vedere uno schermo vs nessuna ora perché non vedi un bel niente su un tablet che non arriva a tale potenza di illuminazione).
Comunque se non fosse per nvidia saremmo ancora con i monocore a 600MHz e con GPU che malapena fanno girare Angry Birds.
http://www.hwupgrade.it/articoli/portatili/3129/asus-transformer-prime-tf201-largo-ai-quattro-core_7.html
A parte l'utile prefazione, a cui non ho nulla da aggiungere...(Nel senso che è vera)
Capiscila, non è difficile, perchè tralasciando il test singolo modalità super IPS, anche gli altri tablet della comitiva erano impostati al massimo della luminosità. E quella di prime non è una bella figura. Ma non finisce qui... Il test non evidenzia lo scenario peggiore, quello da gioco, è lecito aspettarsi forse meno di un paio d'ore d'autonomia in modalità super IPS. Scherziamo? Per non parlare del fatto che non sarà certo fresco quell'affare, sapendo come si comporta il mio transformer dopo una mezzoretta di hard load.
Il discorso sulla candela non lo commento, quando ho fiutato l'andazzo, ho saltato un paio di righe...
L'ultima frase non sò su cosa si basi...Tegra 1 è stato un flop, e quando è uscito Tegra 2, l'altro mio cortex A8 Hummingbird era su piazza già da un po' e non si è ingelosito eccessivamente. Anzi, s'è pure fatto qualche risata in certi casi.
devil997
09-02-2012, 19:23
Fan boys.... :rolleyes:
Scusa con chi ce l'hai?Con chiunque tu ce l'abbia è un commento idiota e fuori luogo.
argent88
09-02-2012, 20:33
è tanta roba un cellulare quad core. Perché ci sono pochi pc quad-core..
Il discorso sulla candela non lo commento, quando ho fiutato l'andazzo, ho saltato un paio di righe...
Su questo, direi che hai fatto male.
Il discorso era molto semplice: un test con "luminosità al massimo" non serve a nulla per valutare l'autonomia, semplicemente perchè penalizza gli apparecchi capaci di arrivare ad alti livelli di luminosità.
Insomma, si trasforma un pregio in un difetto.
Un test che avrebbe più senso potrebbe consistere nel misurare l'autonomia ad un certo livello di luminosità raggiungibile da tutti gli apparecchi, per esempio il valore più alto raggiungibile dal display meno luminoso.
Mi sembra un discorso perfettamente logico, senza dover tirare in ballo "fanboysmi" o strane teorie complottistiche.
In teoria sono 5 core, comunque l'ottimizzazione dell'autonomia c'è anche grazie a questo quinto core e pare consumi addirittura meno di un dual core... questo per prevenire i commenti sull'autonomia...
mi sembra si chiami "compensation core".. in altre parole è un core che viaggia a 500-600 mhz... in altre parole si attiva nelle operazioni legate al solo TELEFONARE, disattivando tutti gli altri... quindi, in stand-by, dovrebbe consumare veramente poco!... dico DOVREBBE perchè dipende da tente cose... quindi ... :sperem:
Ok ma c'e' un piccolo problema... Se da stand-by consuma meno di un dual core ma acceso e' un prosciuga batteria, e contando che le lamentele degli smartphone sono tutte sull'autonomia che dura 1 giorno be'... A conti fatti direi che e' gia' tanto se arriva a fine giornata.
Se gia' ora con un normale utilizzo si deve ricaricare una volta al giorno, questo quad core (che dai test del Prime della Asus ha un consumo assurdo), mi sa che o ci mettono una batteria da 2000mAh e passa oppure mi mettero' a ridere.
E la domanda che mi pongo io e': va bene l'evoluzione tecnologica, ma questa inutilissima corsa ai core sugli smartphone? ICS e' flashato su un DHD single core da 1GHz e gira talmente fluido da farmi sclerare (visto che rom con 2.3.7 erano piu' scattose)... Quad core... Boh.
Se gia' ora con un normale utilizzo si deve ricaricare una volta al giorno, questo quad core (che dai test del Prime della Asus ha un consumo assurdo), mi sa che o ci mettono una batteria da 2000mAh e passa oppure mi mettero' a ridere.
Da quanto dichiarato inizialmente da Nvidia, Tegra 3 avava consumi inferiori a Tegra 2 anche usando i 4 core normali.
Al di la del quinto core quindi, è stato fatto un notavole lavoro di ottimizzazione, contando che siamo sempre a 40nm.
Inoltre, proprio l'uso all'interno di un telefono rende ancora più importante questo quindi core a basso consumo.
Se un tablet lo accendiamo quando serve, un telefono sta in idle la maggior parte del tempo perchè deve mantenere comunque attive le funzioni telefoniche.
Quindi facendo una stima spannometrica, direi che il vantaggio a favore di Tegra 3 appare netto, dovesse anche avere consumi di picco superiori.
Ricorda che questi dispositivi sono sempre meno telefoni e sempre più computer. Più potenza apre le porte a nuove applicazioni, non esiste solo il sistema operativo.
Inoltre poi ben vengano queste evoluzioni, perchè se la fascia alta è un quad core, il dual core diventa fascia media e quindi accessibile a molti, e il single core da 1ghz e oltre diventa alla portata di tutti, non quelle schifezze con vecchi processori con supporto arm v6 su cui neppure girano tutte le applicazioni.
Da quanto dichiarato inizialmente da Nvidia, Tegra 3 avava consumi inferiori a Tegra 2 anche usando i 4 core normali.
Al di la del quinto core quindi, è stato fatto un notavole lavoro di ottimizzazione, contando che siamo sempre a 40nm.
Soprattutto c'e' il fatto che Tegra2 non poteva spegnere i due core perche' erano sullo stesso power plane: se solo uno andava e l'altro era fermo, veniva fatto clock gating di quello fermo (cioe' spenti tutti i clock) ma non power gating (cioe' tolta l'alimentazione); questo vuol dire che il core fermo comunque aveva consumo di leakage, che non e' trascurabile.
Tegra3 ha ancora i 4 core potenti sullo stesso power plane, ma il Companion core e' su uno diverso: quindi quando passi al 5o core gli altri 4 vengono _completamente_ spenti, con consumo 0. Da qui il vantaggio: quando sei in idle (cioe' la maggior parte del tempo) consuma meno il "pentacore" del dual core.
Altri invece (Qualcomm, TI) hanno, che io sappia, i singoli core su power plane diversi. Non so dirti pero' i vantaggi e svantaggi dei due approcci.
devil997
10-02-2012, 00:06
Su questo, direi che hai fatto male.
Il discorso era molto semplice: un test con "luminosità al massimo" non serve a nulla per valutare l'autonomia, semplicemente perchè penalizza gli apparecchi capaci di arrivare ad alti livelli di luminosità.
Insomma, si trasforma un pregio in un difetto.
Un test che avrebbe più senso potrebbe consistere nel misurare l'autonomia ad un certo livello di luminosità raggiungibile da tutti gli apparecchi, per esempio il valore più alto raggiungibile dal display meno luminoso.
Mi sembra un discorso perfettamente logico, senza dover tirare in ballo "fanboysmi" o strane teorie complottistiche.
Bene, questa è la tua opinione.
La mia è questa.
Mi sembra un discorso inutilmente illogico, tirato fuori per sostenere la tesi che il Prime fosse durato poco a causa della luminosità al massimo.
Intanto il test di autonomia che ho postato è un test di autonomia di vari dispositivi (oh non so come tradurvelo). Non è una gara a chi ha il display che consuma di meno. Quindi le teorie sulla candela, sul faro, sul fuoco, sono fuori luogo.Non stiamo parlando di come deve essere condotto un test sull'autonomia. Aprite una discussione apposta se volete farlo.
Pensavo si capisse. Tutti i dispositivi hanno la luminosità al massimo e prime NON è in modalità super ips. Quindi tutti i dispositivi sono nelle medesime condizioni. Il test è inconfutabile, in quanto la differenza tra il primo ed il secondo, non è una manciata di minuti, ma UN ORA E MEZZA. E piglia schiaffi pure dal TF101, che se non sbaglio ha pure la batteria meno capiente.
Se poi vi aggiungo, che il display del prime è lo stesso SPUTATO (come scritto nell'articolo) pannello del TF101 e che con luminosità al massimo consumano la stessa sputata energia, voglio vedere chi ha ancora il coraggio di dire che Tegra 3 è un soc riuscito, e che addirittura lo vedremo negli smartphone prima del passaggio ai 28nm. Se lo vedremo, (con qualche produttore kamikaze che non ha un cavolo da fare e vuole accalappiare qualche pollo) potete star certi che sarà castrato in prestazioni.
L'ha detto la stessa Nvidia (l'info ve la cercate so google se volete), che in un primo momento verrà installato nei tablet e successivamente sarà installato sugli smartphone, quando uscirà la seconda revisione (recommended by Nvidia) a 28nm. In quella sede, si valuterà l'esclusione o meno del companion core, che è stato pubblicizzato come una "Feature", ma in realtà e NA PEZZA.
Perchè il marketing pubblicizza i vantaggi in termini di autonomia, ma non dice che costa prestazioni.....e và gestito. D'altronde non ci vuole un addetto ai lavori per capire che gestire il carico su unità che viaggiano velocità differenti, con architetture differenti, in maniera asincrona, può in determinati scenari generare latenze o colli di bottiglia. Questo SoC è fuori ora, perchè nvidia sta cercando di recuperare la sua roadmap. Nelle previsioni di 6 mesi fà, il SoC era Quad-Core, a 28nm, e senza companion. Non vi suggerisce nulla?
Bene, questa è la tua opinione.
La mia è questa.
Mi sembra un discorso inutilmente illogico, tirato fuori per sostenere la tesi che il Prime fosse durato poco a causa della luminosità al massimo.
Infatti e' proprio cosi' :)
Una volta messo a posto il discorso display, il Prime ha una durata superiore al primo Transformer negli scenari testati da Anand:
http://www.anandtech.com/show/5175/asus-transformer-prime-followup/3
e ben superiore ai tempi ottenuti da HWU.
Intanto il test di autonomia che ho postato è un test di autonomia di vari dispositivi (oh non so come tradurvelo). Non è una gara a chi ha il display che consuma di meno. Quindi le teorie sulla candela, sul faro, sul fuoco, sono fuori luogo.Non stiamo parlando di come deve essere condotto un test sull'autonomia. Aprite una discussione apposta se volete farlo.
Cioe' in un test sull'autonomia non si deve discutere di come si conducono i test sull'autonomia? Teoria interessante.
Pensavo si capisse. Tutti i dispositivi hanno la luminosità al massimo e prime NON è in modalità super ips. Quindi tutti i dispositivi sono nelle medesime condizioni.
Quindi un pannello da 683 nits e' nelle stesse esatte condizioni di uno da 436 nits?
http://www.anandtech.com/show/5163/asus-eee-pad-transformer-prime-nvidia-tegra-3-review/4
Buono a sapersi.
Se poi vi aggiungo, che il display del prime è lo stesso SPUTATO (come scritto nell'articolo) pannello del TF101 e che con luminosità al massimo consumano la stessa sputata energia,
Quindi un pannello da 683 nits e' lo stesso di uno da 436 nits e consuma la stessa energia? Buono a sapersi.
voglio vedere chi ha ancora il coraggio di dire che Tegra 3 è un soc riuscito, e che addirittura lo vedremo negli smartphone prima del passaggio ai 28nm.
Quale passaggio a 28nm? Non esiste alcun Tegra3 a 28nm. E' il prossimo chip (Tegra3.5, o come vorra' chiamarlo il marketing) che sara' a 28nm.
L'ha detto la stessa Nvidia (l'info ve la cercate so google se volete), che in un primo momento verrà installato nei tablet e successivamente sarà installato sugli smartphone, quando uscirà la seconda revisione (recommended by Nvidia) a 28nm. In quella sede, si valuterà l'esclusione o meno del companion core, che è stato pubblicizzato come una "Feature", ma in realtà e NA PEZZA.
Puoi mettere dei link? Perche' i fatti sono che: 1. non esiste alcun Tegra3 a 28nm, e 2. il COmpanion core sara' li' anche nel Tegra3.5 (e credo anche 4, se ricordo bene).
Questo SoC è fuori ora, perchè nvidia sta cercando di recuperare la sua roadmap. Nelle previsioni di 6 mesi fà, il SoC era Quad-Core, a 28nm, e senza companion. Non vi suggerisce nulla?
Suggerisce che stavi guardando un altro chip, non il Tegra3.
yossarian
10-02-2012, 01:35
Soprattutto c'e' il fatto che Tegra2 non poteva spegnere i due core perche' erano sullo stesso power plane: se solo uno andava e l'altro era fermo, veniva fatto clock gating di quello fermo (cioe' spenti tutti i clock) ma non power gating (cioe' tolta l'alimentazione); questo vuol dire che il core fermo comunque aveva consumo di leakage, che non e' trascurabile.
Tegra3 ha ancora i 4 core potenti sullo stesso power plane, ma il Companion core e' su uno diverso: quindi quando passi al 5o core gli altri 4 vengono _completamente_ spenti, con consumo 0. Da qui il vantaggio: quando sei in idle (cioe' la maggior parte del tempo) consuma meno il "pentacore" del dual core.
Altri invece (Qualcomm, TI) hanno, che io sappia, i singoli core su power plane diversi. Non so dirti pero' i vantaggi e svantaggi dei due approcci.
lo svantaggio principale, che mi viene in mente, del power gating rispetto al clock gating è nei tempi di risposta dei circuiti. Di contro, come hai scritto qui sopra, col clock gating continui ad avere power leakege
Duncan88
10-02-2012, 02:04
Mi chiedo come mai Nvidia non sviluppi una soluzione da desktop high end.
Se queste cpu di tipo ARM sono così piccole come dimensioni del die e offrono un rapporto prestazioni / consumo / TDP così superiore agli x86, perchè non sviluppare un processore basato su questa filosofia Tegra ma con un alto numero di cores atto a coprire i canonici standard di dimensioni e TDP degli attuali i7 ?
Questo tegra 3 sembrerebbe essere parecchio superiore a qualsiasi Atom in circolazione.
Mi chiedo come mai Nvidia non sviluppi una soluzione da desktop high end.
Se queste cpu di tipo ARM sono così piccole come dimensioni del die e offrono un rapporto prestazioni / consumo / TDP così superiore agli x86, perchè non sviluppare un processore basato su questa filosofia Tegra ma con un alto numero di cores atto a coprire i canonici standard di dimensioni e TDP degli attuali i7 ?
Purtroppo non funziona cosi': tanti core piccoli non fanno il lavoro di pochi core grandi. Nella quasi totalita' dei casi di applicazioni consumer, servono pochi core potenti e non tanti core lenti. Per raggiungere i FLOPS di un i7 dovresti mettere insieme decine di core A9, e non funziona. Senza considerare che di A9 non puoi metterne insieme piu di 4 (mi pare), non sono progettati per scalare su grossi numeri (dato che non c'e' motivo), quindi non potresti neanche volendo.
D'altro canto, nvidia sta in effetti cercando di sviluppare un processore ARM ad "alte" prestazioni, in modo indipendente, usando la sua licenza architetturale (l'architettura non c'emtra niente con A9 o A15, e' uan cosa fatta ad hoc per scalare in prestazioni, piu' in alto di dove i core standard sviluppati da ARM riescono ad arrivare). E' il progetto Denver che e' stato presentato al CES dell'anno scorso. Metto "alte" fra virgolette perche' se il piu' poetnte ARM arrivasse alle prestazioni di un i3 scarso sarei piacevolmente sorpreso :)
lo svantaggio principale, che mi viene in mente, del power gating rispetto al clock gating è nei tempi di risposta dei circuiti. Di contro, come hai scritto qui sopra, col clock gating continui ad avere power leakege
Penso che sia comunque abbastanza veloce da essere impercettibile all'utente. Gli svantaggi potrebbero essere:
* complessita': e' piu' difficile da realizzare e testare
* dimensione: devi aggiungere un power rail (con relativa logica di controllo) per ogni core invece che uno solo per tutto il ccplex ("CPU Complex" )
* dove sta la cache L2? dato che e' condivisa tra tutti i core, probabilmente deve stare in una sua partizione dedicata, esterna a quella dei core, il che potrebbe aumentare lievemente il tempo d'accesso
Il vantaggio ovviamente e' che riesci a minimizzare il consumo di ogni singolo core, tenendolo al minimo possibile per ogni applicazione, e non paghi lo spazio di un core in piu'.
Non so se nvidia abbia deciso di non avere rail separati per core perche' ritiene che il Companion Core sia un'alternativa piu' efficiente, o se e' stato un compromesso (del tipo: "non abbiamo abbastanza risorse per progettare e verificare core su power rail separate, quindi andiamo con un quinto core e mettiamo tutto il resto insieme" ). Provero' a chiedere a qualcuno.
devil997
10-02-2012, 08:35
Infatti e' proprio cosi' :)
Una volta messo a posto il discorso display, il Prime ha una durata superiore al primo Transformer negli scenari testati da Anand:
http://www.anandtech.com/show/5175/asus-transformer-prime-followup/3
e ben superiore ai tempi ottenuti da HWU.
Qua mi lasci perplesso. A me numeri e dati piacciono più delle considerazioni personali, e questi sono numeri e dati. E' anche vero che il risultato è decisamente diverso anche con la luminosità al massimo, quindi o hw upgrade ha barato per screditare, o anandtech ha leccato le chiappe...Su questo dovremmo esser daccordo...Posso solo aggiungere che i commenti di chi l'ha acquistato, tendono ad essere più solidali con hwupgrade. Io non ce l'ho e non posso dirlo. Possiedo però il TF101, e si comporta, come ha recensito hw upgrade, non come ha recensito anandtech. D'altra parte il grande anandtech dichiara 13 ore di VIDEO PLAYBACK A 720p per iPad!!!! ahahahahahhah, ragazzi sono perplesso...Sarebbe un buon risultato se le facesse in idle, con lo schermo acceso. D'altronde la stessa Apple ne dichiara di meno...Ma lo sanno tutti che le case sono pessimiste...
Cioe' in un test sull'autonomia non si deve discutere di come si conducono i test sull'autonomia? Teoria interessante.
Molto interessante, più della tua, perchè lo svantaggio è per tutti. Si sta misurando l'autonomia GLOBALE, in vari scenari d'uso, col tuo discorso del piffero, allora avrebbero dovuto disabilitare 2 core al Prime perchè gli altri sono dual. Se li metti tutti al minimo il vantaggio è per tutti, ma non è reale, cominceremmo a vedere produttori che impostano luminosità minime che non si vedono manco al buio...Quando ti capita una roba del genere?Che fai?Inizi a usare 2 pesi e 2 misure?Cos'è, siccome il Prime si vede meglio all'aperto, gli facciamo lo sconto sui test d'autonomia? Ma stiamo giocando?? I test non si fanno per soddisfare i Fan, si fanno per valutare i prodotti NELLE PEGGIORI CONDIZIONI POSSIBILI, di modo che, quando vai a leggere le caratteristiche, sai subito che, male che vada hai TOT. A fare marketing per eccesso, ci pensanno già gli operatori telefonici, e la cosa sta pigliando piede pure nel settore smartphone, dove i cretini sono in aumento. Io preferisco realtà per difetto. Perchè il minuto in più o in meno, su un ora e mezza di scarto me lo sbatto...
Quindi un pannello da 683 nits e' nelle stesse esatte condizioni di uno da 436 nits?
http://www.anandtech.com/show/5163/asus-eee-pad-transformer-prime-nvidia-tegra-3-review/4
Buono a sapersi.
Quindi lo fai apposta...Mi stai prendendo in giro di proposito...Manipoli volontariamente....Dico questo per giustificarti, perchè l'alternativa è che sei........I 683 nits sono in modalità super ips. Ci arrivi con la testa!? Quella modalità, proprio perchè riconosciuta come "PLUS" esclusivamente per uso all'aperto, è stata RISPARMIATA durante il test. NON è stata usata! Il pannello è lo stesso identico del TF101, la modalita super ips, non è una tecnologia rivoluzionaria che arriva da Marte, è semplicemente una modifica alla retroilluminazione, che gli permette uno step in più! (da 683 nits). Il pannello resta quello del TF101, e con la luminosità al massimo e la super ips disabilitata sono IDENTICI, come resa dei colori, e come consumi. E l'ho scritto bene, sei pregato di leggere con attenzione, perchè discutere si discute volentieri, ma se si deve combattere con gente che manco capisce quello che legge, allora gioca da solo. Quando fai un quote, sei pregato di esprimere la tua idea sulla base della mia, non di stravolgere la mia e tentare di farmi passare da matto.
Quale passaggio a 28nm? Non esiste alcun Tegra3 a 28nm. E' il prossimo chip (Tegra3.5, o come vorra' chiamarlo il marketing) che sara' a 28nm.
http://www.tomshw.it/cont/news/nvidia-28-nm-quest-anno-una-scelta-sbagliata/29796/1.html Ecco la dimostrazione che Tegra 3 nei piani di nvidia era a 28nm.
http://lenzfire.com/2011/12/nvidia-plans-to-use-28nm-process-in-their-next-generation-kal-el-27682/ Ecco la dimostrazione che se ne farà una versione a 28nm (Sempre Tegra 3, nuovo nome tegra3+) ASSOLUTAMENTE non prevista. Roadmap originale dal tuo caro anandtech http://images.anandtech.com/reviews/SoC/NVIDIA/Kal-El/roadmap.jpg
TEGRA 3.5????:eek: :eek: http://lmgtfy.com/?q=Nvidia+Tegra+3.5
Stai bene? Ti senti affaticato? Ti gira la testa? Il prossimo chip è Tegra 4 Wayne, lo sanno pure i sassi. Esiste una roadmap da tempo. Te l'ho appena postata.
Puoi mettere dei link? Perche' i fatti sono che: 1. non esiste alcun Tegra3 a 28nm, e 2. il COmpanion core sara' li' anche nel Tegra3.5 (e credo anche 4, se ricordo bene).
Messi caro...
I fatti sono che:
1. Fail.
2. Fantasy Fail.
Come ho detto non è CERTO che il companion sarà rimosso, dipende se riusciranno a contenere i consumi. Quello che è certo, è che se ne vogliono liberare appena possono...
Suggerisce che stavi guardando un altro chip, non il Tegra3.
Te stavi guardando n'altra cosa....Anzi mi sa che stai proprio su un altro pianeta....
Supersubway
10-02-2012, 09:23
Dico la mia, visto che sono un possessore del transformer Tegra2, e ho appena comprato il Prime con Tegra 3. Entrambi con tastiera.
Il nuovo ha una batteria che dura più del primo. Non so quanto influisca il chip o altre migliorie, ma il device è più piccolo e dura di più.
Il companion core entra in gioco solo per operazioni a carico, tipo standby, mp3, video. Cosi ho letto. E a dire il vero, l'esecuzione di applicazioni multithread su un quad core puo' essere vantaggioso. 4 core viaggiano a frequenze più basse rispetto a 2 core che devono necessariamente recuperare in frequenza lo svantaggio. Recuperare in frequenza significa incrementare in maniera drammatica il consumo di batteria.
Di conseguenza NVIDIA ha fatto un ottimo chip... più veloce del precedente e con minori consumi, e questo è il mio umile parere, dato che ho due device dello stesso produttore!
Mi viene da sorridere quando leggo di qualcuno che dice che un A8 è più veloce di 2 A9 più un A7, che è la configurazione del tegra2! :) Ciao a tutti!
CrapaDiLegno
10-02-2012, 09:36
@devil997
Leggendoti mi sembra che hai seri problemi a ragionare sul quel che vedi e ti viene detto.
Se guardi la review di Anandtech è chiaro che le due retroilluminazioni non sono per niente uguali.
A potenza massima, com SPS+ disattivato, il Transformer prima versione raggiunge una luminosità di 367nits mentre il Prime arriva a 436nits. Quindi NO, i due pannelli alla massima luminosità non consumano uguali e non hanno le stesse caratteristiche.
Non è questine di chi "imbroglia" o "lecca". E' questione di metodologia nel fare i test. Sebbene tu ritieni che un numero sia un numero indipendentemente da come sia stato ottenuto (cosa gravissima per una persona che dovrebbe essere matura a sufficienza per capire se quello che gli viene detto è significativo o meno) il problema è che il metodo usato da HWUpgrade è errato per mostrare l'autonomia del dispositivo in uso normale al pari degli altri dispositivi.
E' solo un test che dice quanto in fretta riesci a scaricare la batteria.
Normalmente i display sono posti ad una luminosità di circa 200nits. Se usi il Transformer, il Prime, iPad, il Galaxy, lo Xoom o qualsiasi cosa d'altro nello stesso ambiente tieni la stessa intensità luminosa per tutti. Non perché il prime raggiunge vette più alte tu ti metti a guardare lo schermo spaccandoti gli occhi solo perché puoi pigiare sul tastino "sì più luce, sì ce n'è ancora!". Quindi il test corretto (che richiede più tempo di setup rispetto a quello condotto qui insieme anche a una minima apparecchiatura per misurare la luminosità) è quello fatto da Anandtech che mostra la vera autonomia del dispositivo quando è usato in modo eguale agli altri. Qui non avviene.
Il test è sbagliato nel voler mostrare quale sia l'autonomia reale del dispositivo. Serve solo per sapere in quanto tempo puoi usarlo con le impostazioni al massimo, cosa che sinceramente non trovo utile, perché, ripeto, le impostazioni al massimo non sono quelle di utilizzo normale né tanto meno uguali a quelle degli altri dispositivi sempre messi al massimo.
Anche il test dell'audio è errato. Ma diversamente da quello di autonomia, la differenza di consumo degli auricolari è minimo rispetto a quello dello schermo che, per tua informazione, può essere anche doppio (o triplo) rispetto a quello del SoC. Per cui prima di arrivare alla conclusione che la colpa della presunta diminuzione di autonomia è da imputare esclusivamente al Tegra 3 ti serve lavorare (di fantasia) ancora un po'.
Infine la questione del companion e dei 40/28nm. Io credo che qui qualcuno,, pur appassionato di tecnologia, manchi degli elementi base per commentare sul minimo indispensabile.
Quanto credi che abbia impiegato nvidia a progettare il Tegra3? 3 mesi, 6 mesi? Comunque sia sbagli. Forse il companion era già previsto da un bel pezzo indipendentemente dalla nanometria disponibile al momento della realizzazione. Infatti non è un mistero per nessuno (che non sia uscito dal guscio ieri) che i 28nm di TSMC siano in ritardo di un anno e passa, e quindi anche tutti i piani di sviluppo dei progettisti (e non solo quelli di nvidia) sono andati un po' a ramengo.
Che il tuo Hummingbird potesse ridere del Tegra 2 ho i miei grandissimi dubbi. Ma ognuno è libero di credere a quello che vuole se lo fa contento.
devil997
10-02-2012, 09:44
Dico la mia, visto che sono un possessore del transformer Tegra2, e ho appena comprato il Prime con Tegra 3. Entrambi con tastiera.
Il nuovo ha una batteria che dura più del primo. Non so quanto influisca il chip o altre migliorie, ma il device è più piccolo e dura di più.
Il companion core entra in gioco solo per operazioni a carico, tipo standby, mp3, video. Cosi ho letto. E a dire il vero, l'esecuzione di applicazioni multithread su un quad core puo' essere vantaggioso. 4 core viaggiano a frequenze più basse rispetto a 2 core che devono necessariamente recuperare in frequenza lo svantaggio. Recuperare in frequenza significa incrementare in maniera drammatica il consumo di batteria.
Di conseguenza NVIDIA ha fatto un ottimo chip... più veloce del precedente e con minori consumi, e questo è il mio umile parere, dato che ho due device dello stesso produttore!
Mi viene da sorridere quando leggo di qualcuno che dice che un A8 è più veloce di 2 A9 più un A7, che è la configurazione del tegra2! :) Ciao a tutti!
Pensa come rido io quando ti sento dire che Tegra 2 ha 2xA9+A7...Praticamente sto soffocando nei miei fluidi.
Peccato stavo per crederti riguardo l'autonomia, ma mi tocca restare della mia opinione. Ricordando poi chiaramente la tua domanda "Che differenza c'è tra Froyo e Gingerbread" di qualche tempo fà, mi scuserai, se sono riluttante.
devil997
10-02-2012, 09:49
@devil997
Leggendoti mi sembra che hai seri problemi a ragionare sul quel che vedi e ti viene detto.
Se guardi la review di Anandtech è chiaro che le due retroilluminazioni non sono per niente uguali.
A potenza massima, com SPS+ disattivato, il Transformer prima versione raggiunge una luminosità di 367nits mentre il Prime arriva a 436nits. Quindi NO, i due pannelli alla massima luminosità non consumano uguali e non hanno le stesse caratteristiche.
Non è questine di chi "imbroglia" o "lecca". E' questione di metodologia nel fare i test. Sebbene tu ritieni che un numero sia un numero indipendentemente da come sia stato ottenuto (cosa gravissima per una persona che dovrebbe essere matura a sufficienza per capire se quello che gli viene detto è significativo o meno) il problema è che il metodo usato da HWUpgrade è errato per mostrare l'autonomia del dispositivo in uso normale al pari degli altri dispositivi.
E' solo un test che dice quanto in fretta riesci a scaricare la batteria.
Normalmente i display sono posti ad una luminosità di circa 200nits. Se usi il Transformer, il Prime, iPad, il Galaxy, lo Xoom o qualsiasi cosa d'altro nello stesso ambiente tieni la stessa intensità luminosa per tutti. Non perché il prime raggiunge vette più alte tu ti metti a guardare lo schermo spaccandoti gli occhi solo perché puoi pigiare sul tastino "sì più luce, sì ce n'è ancora!". Quindi il test corretto (che richiede più tempo di setup rispetto a quello condotto qui insieme anche a una minima apparecchiatura per misurare la luminosità) è quello fatto da Anandtech che mostra la vera autonomia del dispositivo quando è usato in modo eguale agli altri. Qui non avviene.
Il test è sbagliato nel voler mostrare quale sia l'autonomia reale del dispositivo. Serve solo per sapere in quanto tempo puoi usarlo con le impostazioni al massimo, cosa che sinceramente non trovo utile, perché, ripeto, le impostazioni al massimo non sono quelle di utilizzo normale né tanto meno uguali a quelle degli altri dispositivi sempre messi al massimo.
Anche il test dell'audio è errato. Ma diversamente da quello di autonomia, la differenza di consumo degli auricolari è minimo rispetto a quello dello schermo che, per tua informazione, può essere anche doppio (o triplo) rispetto a quello del SoC. Per cui prima di arrivare alla conclusione che la colpa della presunta diminuzione di autonomia è da imputare esclusivamente al Tegra 3 ti serve lavorare (di fantasia) ancora un po'.
Infine la questione del companion e dei 40/28nm. Io credo che qui qualcuno,, pur appassionato di tecnologia, manchi degli elementi base per commentare sul minimo indispensabile.
Quanto credi che abbia impiegato nvidia a progettare il Tegra3? 3 mesi, 6 mesi? Comunque sia sbagli. Forse il companion era già previsto da un bel pezzo indipendentemente dalla nanometria disponibile al momento della realizzazione. Infatti non è un mistero per nessuno (che non sia uscito dal guscio ieri) che i 28nm di TSMC siano in ritardo di un anno e passa, e quindi anche tutti i piani di sviluppo dei progettisti (e non solo quelli di nvidia) sono andati un po' a ramengo.
Che il tuo Hummingbird potesse ridere del Tegra 2 ho i miei grandissimi dubbi. Ma ognuno è libero di credere a quello che vuole se lo fa contento.
La storia del hummingbird ovviamente non era un discorso assoluto, e c'è scritto in "certi casi" non voglio certo dire che abbia una potenza computazionale superiore.
Forse il companion era già previsto da un bel pezzo indipendentemente dalla nanometria disponibile al momento della realizzazione. Infatti non è un mistero per nessuno (che non sia uscito dal guscio ieri) che i 28nm di TSMC siano in ritardo di un anno e passa, e quindi anche tutti i piani di sviluppo dei progettisti (e non solo quelli di nvidia) sono andati un po' a ramengo.
Forse....Ma non prova certo che avevo torto, in compenso Nvidia l'ha tenuto accuratamente nascosto fino a ridosso del lancio, e poi magicamente è saltato fuori, con grande campagna marketing.
Per Pleg era un mistero, visto che si è fatto beffe di me, sembrando seriamente convinto delle castronerie che diceva. Inoltre solo nvidia è in ritardo, Exynos 4212 è già in produzione in volumi a 32nm. Non esiste solo TSMC.
Cmq la sostanza è che in hwupgrade sono dei cani, e che qui abbiamo diverse persone che saprebbero fare meglio al posto loro. Fantastico....Mi chiedo cosa ci stiate a fare qua a legger recensioni.
[...] Forse....Ma non prova certo che avevo torto [...]
Perdonami, ma l'illogicità dei tuoi stessi ragionamenti prova che hai torto.
Pretendi di basare la tua opinione su un test senza guardarne la modalità.
Smetti di dare ascolto ad un utente che ha il prodotto e che ti da torto perchè insieme alla sua opinione d'uso dice un'imprecisione (se tale) sulla tecnologia utilizzata.
Di fronte a fatti riportati fai mezze marce indietro sulle tue affermazioni, ma alla fine pretendi ancora di avere ragione, usando oltretutto toni poco consoni ad una buona discussione.
Io spero davvero che tu lo stia facendo apposta, perché se credi davvero in quel che dici trovo la tua posizione decisamente peggiore.
Ma vabbè, lascio a chi legge le opinioni sulla questione.
devil997
10-02-2012, 10:24
Perdonami, ma l'illogicità dei tuoi stessi ragionamenti prova che hai torto.
Pretendi di basare la tua opinione su un test senza guardarne la modalità.
Smetti di dare ascolto ad un utente che ha il prodotto e che ti da torto perchè insieme alla sua opinione d'uso dice un'imprecisione (se tale) sulla tecnologia utilizzata.
Di fronte a fatti riportati fai mezze marce indietro sulle tue affermazioni, ma alla fine pretendi ancora di avere ragione, usando oltretutto toni poco consoni ad una buona discussione.
Io spero davvero che tu lo stia facendo apposta, perché se credi davvero in quel che dici trovo la tua posizione decisamente peggiore.
Ma vabbè, lascio a chi legge le opinioni sulla questione.
Smetto di dare ascolto ad una persona che possiede il prodotto perchè ha detto che Tegra 2 ha 2xA9+A7. E smetto di darla anche a te perchè poni il condizionale sul fatto che sia un "imprecisione".
Marcia indietro mai fatta, perchè credo in quello che dico, al massimo ho spiegato meglio quello che forse avevo espresso male. Non è fare marcia indietro. E mi sembra una cosa apprezzabile. Posso sbagliare, ma ovviamente me ne devo convincere, e finora nessuno è riuscito a comprendere quello che ho scritto senza alterarne il significato. Ed a rispondere con argomenti che mi convincano che devo cambiare idea.
Duncan88
10-02-2012, 10:24
Purtroppo non funziona cosi': tanti core piccoli non fanno il lavoro di pochi core grandi.
Forse sbaglio ma queste cpu basati su architettura ARM basati su Cortex funzionano con la stessa logica delle GPU ovvero calcoli paralleli vettoriali come i processori IBM Cell, quindi non ci sarebbe il problema del multicore degli x86.
Smetto di dare ascolto ad una persona che possiede il prodotto perchè ha detto che Tegra 2 ha 2xA9+A7. E smetto di darla anche a te perchè poni il condizionale sul fatto che sia un "imprecisione".
Sarei stato scellerato se non avessi messo quel condizionale, dato che non sono andato a verificare l'architettura del soc.
Tu invece in precedenza hai dato per certezze cose che non lo erano, come la massima luminosità del display.
Marcia indietro mai fatta, perchè credo in quello che dico [...]
Le mezze marce indietro le hai fatte più volte:
- Sui testo nel post #28
- Sugli hummingbird nel post #32
- sulla questione dei 28nm nep post #32
É proprio il fatto che credi in quello che dici ad esser preoccupante ;)
devil997
10-02-2012, 10:48
Sarei stato scellerato se non avessi messo quel condizionale, dato che non sono andato a verificare l'architettura del soc.
Tu invece in precedenza hai dato per certezze cose che non lo erano, come la massima luminosità del display.
Le mezze marce indietro le hai fatte più volte:
- Sui testo nel post #28
- Sugli hummingbird nel post #32
- sulla questione dei 28nm nep post #32
É proprio il fatto che credi in quello che dici ad esser preoccupante ;)
No, saresti stato colto in materia, si discute su quello che si sà, o che si pensa di sapere, non è una gara a chi cerca meglio su google.
Tu invece in precedenza hai dato per certezze cose che non lo erano, come la massima luminosità del display.
Falso, ho scritto che il display era al massimo senza super ips e che la luminosità è pari a quella del TF101 in quella modalità. Anandtech dice che non è vero. hwupgrade dice di sì. Non so chi ha ragione. Ma se sono male informato, sbaglio in buona fede, le fonti non sono certo anandtech e ziopaperone, come avere certezza assoluta? Ho scelto di credere ad hw upgrade per due motivi: Il Primo è che il mio TF101 si comporta come hanno rilevato loro, e non come ha rilevato anandtech. Il secondo è che anandtech dichiara 13 ore di riproduzione 720p per ipad e qualcuna in meno (non ricordo) per TF101, ed anche in questo non trovo riscontro a casa mia. Oltre ad esser numeri assurdi per chiunque.
- Sui testo nel post #28
Troppo generico, non capisco a che ti riferisci.
- Sugli hummingbird nel post #32
Falso, ho spiegato un affermazione espressa in maniera troppo sintetica. A credere che possa pensare che un A8 sia più veloce di un A9 bisogna essere molto in malafede. Quello che intendevo è che alcune applicazioni girano meglio sul hummingbird, ma è palese che è una questione di ottimizzazione, che non ha nulla a che fare con le prestazioni assolute.
- sulla questione dei 28nm nep post #32
Boh, non ci vedo alcuna marcia indietro, vedo solo che sono disposto ad accettare una teoria alternativa su quell'argomento, pur ribadendo la mia, sostenendola col fatto che pare strano che un azienda non pubblicizzi da subito una caratteristica che viene poi lanciata all'ultimo e su cui si costruisce gran parte del marketing. Ma anche lì come sapere la verità profonda?
CrapaDiLegno
10-02-2012, 11:20
Ecco il test di autonomia condotto in maniera seria:
"Finally, I must mention that we ensure all tablets tested here are normalized to the same display brightness setting of 200 nits for a true apples to apples comparison."
http://www.anandtech.com/show/5175/asus-transformer-prime-followup/3
Ora ridi, pure. A me sembra che l'autonomia del Prima sia maggiore del primo Transformer se usati nelle stesse condizioni. Anche la riproduzione video ha guadagnato 2 ore in più.
Comunque effettivamente il Tegra2 non ha alcun A7. Ha un altro ARM minore (un M3 se non ricordo male, come molti altri SoC) che sono in grado di prendersi carico di funzioni minori, come ad esempio la riproduzione audio.
devil997
10-02-2012, 11:26
Ecco il test di autonomia condotto in maniera seria:
"Finally, I must mention that we ensure all tablets tested here are normalized to the same display brightness setting of 200 nits for a true apples to apples comparison."
http://www.anandtech.com/show/5175/asus-transformer-prime-followup/3
Ora ridi, pure. A me sembra che l'autonomia del Prima sia maggiore del primo Transformer se usati nelle stesse condizioni. Anche la riproduzione video ha guadagnato 2 ore in più.
Comunque effettivamente il Tegra2 non ha alcun A7. Ha un altro ARM minore (un M3 se non ricordo male, come molti altri SoC) che sono in grado di prendersi carico di funzioni minori, come ad esempio la riproduzione audio.
Riprendi fiato...L'avevano già postata quella review...Ho già risposto. La prova che non hai letto una mazza nè di quello che ho scritto io, nè di quello che hanno scritto gli altri. Bravo...
Cmq devo ammettere che sto sorridendo all'idea di te che che cerchi su google, per capire se Tegra 2 ha un A7, e per trovare il test di anandtech che Plog ha postato ore fa....
No, saresti stato colto in materia, si discute su quello che si sà, o che si pensa di sapere, non è una gara a chi cerca meglio su google.
Infatti si discuteva di autonomia del dispositivo e di metodi di test, non di architettura.
Se poi tu ti aggrappi ad un argomento di cui non si sta discutendo per non voler considerare l'opinione di un utente che non ti da ragione, libero di farlo, tanto oramai perseverare di fronte all'evidenza è diventata una moda.
E non si è colti perchè si ha il tempo di andare a fare una ricerca su google ;)
Le mezze marce indietro e le inesattezze ci sono tutte, inutile che dici "falso".
Sui display hai detto che erano identici, ti è stato mostrato come non lo sono anche senza usare "SPS+". (inesattezza)
Sul test al post #28 sei passato dalla certezza dei test di hwupgrade alla sorpresa nel testo di anadtech (mezzo passo indietro)
Sugli hummerbird sei passato da "non si è ingelosito eccessivamente" (con risate in alcuni casi) a dire che non era un discorso assoluto (mezzo passo indietro, ma qui in effetti era più la forma che la sostanza ad essere stata eccessiva nel primo intervento)
Sul quinto core sei passato dalle tue teorie di evoluzioni a 28nm a dare "Forse...." ragione a quanto scritto da CrapaDiLegno (mezzo passo indietro).
Quindi o la mia idea di "mezzo passo indietro" è diversa dalla tua...
Devo comunque dire che a mio parere il saper fare qualche passo indietro sarebbero di per se un ottimo atteggiamento in una discussione, se alla fine non pretendessi comunque la ragione e "sbrufoneggiassi" nei confronti degli altri.
devil997
10-02-2012, 11:52
Infatti si discuteva di autonomia del dispositivo e di metodi di test, non di architettura.
Se poi tu ti aggrappi ad un argomento di cui non si sta discutendo per non voler considerare l'opinione di un utente che non ti da ragione, libero di farlo, tanto oramai perseverare di fronte all'evidenza è diventata una moda.
E non si è colti perchè si ha il tempo di andare a fare una ricerca su google ;)
Le mezze marce indietro e le inesattezze ci sono tutte, inutile che dici "falso".
Sui display hai detto che erano identici, ti è stato mostrato come non lo sono anche senza usare ips+. (inesattezza)
Sul test al post #28 sei passato dalla certezza dei test di hwupgrade alla sorpresa nel testo di anadtech (mezzo passo indietro)
Sugli hummerbird sei passato da "non si è ingelosito eccessivamente" (con risate in alcuni casi) a dire che non era un discorso assoluto (mezzo passo indietro, ma qui in effetti era più la forma che la sostanza ad essere stata eccessiva nel primo intervento)
Sul quinto core sei passato dalle tue teorie di evoluzioni a 28nm a dare "Forse...." ragione a quanto scritto da CrapaDiLegno (mezzo passo indietro).
Quindi o la mia idea di "mezzo passo indietro" è diversa dalla tua...
Devo comunque dire che a mio parere sarebbero di per se un ottimo atteggiamento in una discussione, se alla fine non pretendessi comunque la ragione e "sbrufoneggiassi" nei confronti degli altri.
La definizione di italiano è diversa tra me e te. Dunque, passiamo alla lezione di italiano:
Sui display hai detto che erano identici, ti è stato mostrato come non lo sono anche senza usare ips+. (inesattezza)
Non sono identici per Anandtech, per hwupgrade si. Lo hanno scritto loro. Non lo dico io.(la recensione l'ho postata io, verifica tu stesso) Io metto hwupgrade, tu metti anandtech. Per me è patta. Per te, non si sà per quale motivo, vinci tu. Vaaaaaaaa-bene...ooooook.
Sul test al post #28 sei passato dalla certezza dei test di hwupgrade alla sorpresa nel testo di anadtech (mezzo passo indietro)
Bell'intepretazione, Ho preso per buono quello che ho letto su anandtech, e l'ho messo in dubbio, con motivazioni e un altra recensione, che dice l'opposto...... Per risposta mi è stato dettoooooo.............Nulla.
Sugli hummerbird sei passato da "non si è ingelosito eccessivamente" (con risate in alcuni casi) a dire che non era un discorso assoluto (mezzo passo indietro, ma qui in effetti era più la forma che la sostanza ad essere stata eccessiva nel primo intervento)
Vai migliorando...Se una "materia" non si ingelosisce eccessivamente, cosa vuol dire? Spiegazione tua: Che se la ride perchè è superiore! BEEEP ERRATO! Spiegazione mia: Che si ingelosisce, ma non eccessivamente. Quindi quel discorso non implica alcuna superiorità del soggetto che non si ingelosisce eccessivamente, ma ANZI! Conferma il fatto che si ingelosisce! Anche se non eccessivamente....
Sul quinto core sei passato dalle tue teorie di evoluzioni a 28nm a dare "Forse...." ragione a quanto scritto da CrapaDiLegno (mezzo passo indietro).
Quindi o la mia idea di "mezzo passo indietro" è diversa dalla tua...
Qua fratello non sò come spiegartela, cosa non ti è chiaro del discorso, "forse hai ragione tu, ma forse invece ho ragione io". Che passo indietro è? Che mezzo passo indietro è? Al massimo è un arrestarsi e rendersi disponibili, ad accettare altre opinioni.
Ah aspetta ci sono! Tu non sai cosa significa fare un passo indietro.....Ah cavolo potevi dirlo prima....
Allora, una persona che va per la sua strada, (Come me) compie un passo indietro nel momento in cui, si arresta, ci pensa, e poi inizia a muoversi come un gambero.... Nel mio caso, un barlume di logica in una discussione, mi ha fatto fermare. Ma non mi ha fatto compiere alcun passo indietro....Ho solo riconosciuto come verosimile, una teoria diversa dalla mia. Ma nessuno può dare certezze su QUEL PRECISO ARGOMENTO, perchè sono teorie di 2 signor nessuno, che stanno discutendo....Non ho preteso di avere ragione, ma tu mi dai torto....Vaaaaaaa-bene....ooooook.
Vuoi continuare? Per me va bene, trovo simpatico questo modo di capirsi, ed apprezzo la tua pazienza, nel contestare punto per punto.
CrapaDiLegno
10-02-2012, 11:56
La questione della segretezza del companion core è presto detta: nvidia ci ha messo più di un anno a progettare il SoC e "annunciare" pubblicamente qualcosa in questo campo significa dare vantaggio alla concorrenza. Infatti nessuno degli altri ci ha pensato e nessuno potrà uscire con una idea simile se non prima dell'anno prossimo.
nvidia si è aggiudicata un vantaggio notevole in questo modo, potendo proporre un quad core a 40nm mentre tutti gli altri hanno solo 2 core in cantiere e i quad core solo per la fine dell'anno prossimo. Ovvero nvidia ha tempo per rilasciare altri 2 SoC nel frattempo. Chi vuole una soluzione come quella di nvidia adotterà il sistema big.LITTLE di ARM (che è lo stesso concetto ma simmetrico, come già detto).
La questione del Krait (quasi pronto a 32nm, finora non si è visto ancora nulla) è dovuta al solo fatto che Samsung ha le sue fabbriche. Per tutti gli altri esiste solo TSMC. L'uscita del Krait di Samsung precede di poco quella di tutti gli altri SoC basati su Cortex-A15 fatti a 28nm. E il Krait non è un A15.
Che nvidia esca con un quad a 28nm LP quando lo ha fatto a 40nm mi sembra più che logico. Quel quad a 28nm potrà consumare la metà del Tegra3 di adesso e consumerà comunque meno dei previsti dual core A15 che non hanno alcuna soluzione companion/big.LITTLE. E le prestazioni saranno simili per la pare CPU. Per la GPU si vedrà se nvidia la ritoccherà in qualche modo.
Per il momento non c'è SoC sul mercato che sia potente quanto il Tegra3 che garantisce consumi "normali" anche se è un quad. Poi che tu voglia vedere in un benchmark fatto male che il Tegra3 è una schifezza, libero di farlo. Altri benchmark condotti in maniera più seria dimostrano il contrario. E sono fatti su HC invece che su ICS non ancora disponibile, quando quest'ultimo in teoria dovrebbe garantire una scalabilità migliore sul quad (quindi altre prestazioni aggiuntive a parità di consumi).
I test di Anandtech non sono certo criticabili. Sono sempre condotti con metodo e criticità che pochi altri fanno. Infatti è considerato un sito di riferimento internazionale per quanto riguarda l'accuratezza delle informazioni che divulga. E testa anche in maniera diversa da quello che normalmente fanno i siti "minori". Vedasi in questo caso cosa ha fatto per la questione del WiFi rotto sui sample che gli hanno consegnato. E sì, là si fa anche il test della WiFi di un dispositivo mobile. E ci pongono domande sul perché. Non si mette un numero in una tabella e lo si accetta così come è.
Certamente questo test dell'autonomia di HW è l'opposto di come si dovrebbe condurre un test metodico. Spero che migliorino la modalità perché certamente non rende la recensione molto valida (anche se più facile da realizzare non dovendo maneggiare strumenti di misura o mettersi in condizioni standard... basta pigiare il tasto luminosità fino al massimo e lasciare lì il dispositivo fino a che non si spegne).
devil997
10-02-2012, 12:06
Devo comunque dire che a mio parere il saper fare qualche passo indietro sarebbero di per se un ottimo atteggiamento in una discussione, se alla fine non pretendessi comunque la ragione e "sbrufoneggiassi" nei confronti degli altri.
Ho sbruffoneggiato solo nei confronti di Pleg, che mi ha indispettito per primo dicendo, "non ne hai azzeccata una", quando in realtà il post che ha quotato era corretto.
E l'ho fatto nel Post #28 quando gli ho smontato pezzo per pezzo, i suoi reply arroganti.
Con eccezione del primo, che a quanto pare sta ancora alimentando la discussione, che non è mai degenerata in insulti.
Ti assicuro che non devi spiegarmi nulla, ne tantomeno insegnarmi l'italiano.
Ma visto che i tuoi modi da bulletto mi annoiano, chiudo qui la diatriba, tanto quello che abbiamo scritto possono leggerlo tutti.
Concludo dicendo che Hardware Upgrade, nella sua recensione, non dice come tu affermi che il display è lo stesso, ma che il pannello è lo stesso, e si tratta di una deduzione non comprovata (ma plausibilmente corretta) basata sulla colorimetria.
Dice anche esplicitamente che è stato cambiato il sistema di retroilluminazione, e indovina cosa maggiormente influisce sui consumi in un display LCD di questo tipo?
Anadtech ha misurato il valore di luminosità senza attivare IPS+ e ha visto che era maggiore nel nuovo transformer, quindi IPS+ non è l'unica differenza.
Come vedi continui con le inesattezze... ma non ti bastava una ricerca su google? :p
(Ok, questa potevo risparmiarmela, ma un po' te la sei cercata ;) )
Senza rancore, buon proseguimento. :)
CrapaDiLegno
10-02-2012, 12:23
Cmq devo ammettere che sto sorridendo all'idea di te che che cerchi su google, per capire se Tegra 2 ha un A7, e per trovare il test di anandtech che Plog ha postato ore fa....
Dopo questa credo che non vi sia più niente da argomentare. Io non ho "googlato" per vedere se il Tegra ha un A7. Perché IO so cosa è un A7. Tu non lo so. E comunque so di per certo che i 2 A9 non sono gli unici ARM nel SoC. Probabilmente tu non sapevi neanche che questi SoC avessero delle CPU in più oltre a quelle pubblicizzate ovunque. Ma fa niente. Sei tu l'esperto della materia, che pensa che Hummingbird fosse ancora competitivo all'uscita del Tegra 2 (se vuoi ti posto qualche bench in proposito.. vuoi? Ah, no, non mi è concesso "googlare" e a memoria i link visti 2 anni fa non me li ricordo davvero).
E la recensione ti è stata RIspedita con la nota in inglese. Lingua che forse non conosci. Ecco perché non hai capito la differenza (e forse ecco perché mai ti sei preoccupato di controllare i test di Anandtech).
E quello che non capisce quello che è scritto nelle recensioni sei tu. Qui non viene detto che i due display hanno la stessa luminosità. Ma che hanno più o meno la stessa resa cromatica, quindi si presuppone siano uguali per quanto riguarda lo strato degli LCD ma con retroilluminazione diversa. E' comunque solo un'ipotesi LORO, che non trova conferma ma che è comunque superflua. Il risultato è che il display ha luminosità diversa e mettendolo al massimo non ha la stessa intensità di illuminazione di quello vecchio. E quindi non è possibile nemmeno fare un confronto con esso alla pari. Il test di autonomia condotto è completamente inutile.
Dove tu abbia estrapolato tutte quelle informazioni errate lo sai solo tu. Evidentemente nel mio post in cui asserivo che hai notevoli problemi a comprendere e a informarti avevo pienamente ragione.
Ora ridi, godi e metti a tutti i lock a Google così solo tu rimani il detentore della verità assoluta.
Ciao
devil997
10-02-2012, 12:35
La questione della segretezza del companion core è presto detta: nvidia ci ha messo più di un anno a progettare il SoC e "annunciare" pubblicamente qualcosa in questo campo significa dare vantaggio alla concorrenza. Infatti nessuno degli altri ci ha pensato e nessuno potrà uscire con una idea simile se non prima dell'anno prossimo.
nvidia si è aggiudicata un vantaggio notevole in questo modo, potendo proporre un quad core a 40nm mentre tutti gli altri hanno solo 2 core in cantiere e i quad core solo per la fine dell'anno prossimo. Ovvero nvidia ha tempo per rilasciare altri 2 SoC nel frattempo. Chi vuole una soluzione come quella di nvidia adotterà il sistema big.LITTLE di ARM (che è lo stesso concetto ma simmetrico, come già detto).
La questione del Krait (quasi pronto a 32nm, finora non si è visto ancora nulla) è dovuta al solo fatto che Samsung ha le sue fabbriche. Per tutti gli altri esiste solo TSMC. L'uscita del Krait di Samsung precede di poco quella di tutti gli altri SoC basati su Cortex-A15 fatti a 28nm. E il Krait non è un A15.
Che nvidia esca con un quad a 28nm LP quando lo ha fatto a 40nm mi sembra più che logico. Quel quad a 28nm potrà consumare la metà del Tegra3 di adesso e consumerà comunque meno dei previsti dual core A15 che non hanno alcuna soluzione companion/big.LITTLE. E le prestazioni saranno simili per la pare CPU. Per la GPU si vedrà se nvidia la ritoccherà in qualche modo.
Per il momento non c'è SoC sul mercato che sia potente quanto il Tegra3 che garantisce consumi "normali" anche se è un quad. Poi che tu voglia vedere in un benchmark fatto male che il Tegra3 è una schifezza, libero di farlo. Altri benchmark condotti in maniera più seria dimostrano il contrario. E sono fatti su HC invece che su ICS non ancora disponibile, quando quest'ultimo in teoria dovrebbe garantire una scalabilità migliore sul quad (quindi altre prestazioni aggiuntive a parità di consumi).
I test di Anandtech non sono certo criticabili. Sono sempre condotti con metodo e criticità che pochi altri fanno. Infatti è considerato un sito di riferimento internazionale per quanto riguarda l'accuratezza delle informazioni che divulga. E testa anche in maniera diversa da quello che normalmente fanno i siti "minori". Vedasi in questo caso cosa ha fatto per la questione del WiFi rotto sui sample che gli hanno consegnato. E sì, là si fa anche il test della WiFi di un dispositivo mobile. E ci pongono domande sul perché. Non si mette un numero in una tabella e lo si accetta così come è.
Certamente questo test dell'autonomia di HW è l'opposto di come si dovrebbe condurre un test metodico. Spero che migliorino la modalità perché certamente non rende la recensione molto valida (anche se più facile da realizzare non dovendo maneggiare strumenti di misura o mettersi in condizioni standard... basta pigiare il tasto luminosità fino al massimo e lasciare lì il dispositivo fino a che non si spegne).
La questione della segretezza del companion core è presto detta: nvidia ci ha messo più di un anno a progettare il SoC e "annunciare" pubblicamente qualcosa in questo campo significa dare vantaggio alla concorrenza. Infatti nessuno degli altri ci ha pensato e nessuno potrà uscire con una idea simile se non prima dell'anno prossimo.
nvidia si è aggiudicata un vantaggio notevole in questo modo, potendo proporre un quad core a 40nm mentre tutti gli altri hanno solo 2 core in cantiere e i quad core solo per la fine dell'anno prossimo. Ovvero nvidia ha tempo per rilasciare altri 2 SoC nel frattempo. Chi vuole una soluzione come quella di nvidia adotterà il sistema big.LITTLE di ARM (che è lo stesso concetto ma simmetrico, come già detto).
Può essere un modo di vederla, l'accetto. Credo che la tua idea, potrebbe essere tranquillamente quella di Juang, in una conferenza stampa. La mia invece (come già affermato, nessun passo indietro) è che uscirsene con un quad core a 40nm, in tempi in cui le batterie se la passano male, è il gesto sofferto di un azienda, che ha bisogno di uscire per prima con un quad core, perchè i propri piani, le richiedono di essere la prima su questo campo. Perchè il loro business è legato al mondo videoludico di android e non come semplici produttori di SoC, come Qualcomm, TI, o Samsung. Da qui la pezza in extremis del companion, rispetto all'attesa, della più efficente soluzione big.little.
La questione del Krait (quasi pronto a 32nm, finora non si è visto ancora nulla) è dovuta al solo fatto che Samsung ha le sue fabbriche. Per tutti gli altri esiste solo TSMC. L'uscita del Krait di Samsung precede di poco quella di tutti gli altri SoC basati su Cortex-A15 fatti a 28nm. E il Krait non è un A15.
Giusto...Ma aggiungo che se fosse come dico io, gli altri hanno leggermente meno fretta...Quindi se Nvidia avesse aspettato i 32nm di TSMC, si sarebbe trovata in ritardo rispetto agli altri, perchè avevano l'esigenza d'uscire PRIMA. Mettici pure che coi 32nm, non avrebbero risolto granchè, ecco qua il compagno core....Io però, personalmente la salto volentieri sta gen....
Che nvidia esca con un quad a 28nm LP quando lo ha fatto a 40nm mi sembra più che logico. Quel quad a 28nm potrà consumare la metà del Tegra3 di adesso e consumerà comunque meno dei previsti dual core A15 che non hanno alcuna soluzione companion/big.LITTLE. E le prestazioni saranno simili per la pare CPU. Per la GPU si vedrà se nvidia la ritoccherà in qualche modo.
Capito Pleg?
I test di Anandtech non sono certo criticabili. Sono sempre condotti con metodo e criticità che pochi altri fanno. Infatti è considerato un sito di riferimento internazionale per quanto riguarda l'accuratezza delle informazioni che divulga. E testa anche in maniera diversa da quello che normalmente fanno i siti "minori". Vedasi in questo caso cosa ha fatto per la questione del WiFi rotto sui sample che gli hanno consegnato. E sì, là si fa anche il test della WiFi di un dispositivo mobile. E ci pongono domande sul perché. Non si mette un numero in una tabella e lo si accetta così come è.
Non sono daccordo per nulla. Ma fingiamo che lo sia. Quindi mi fai la cortesia di darmi una risposta a queste domande:
Come è possibile che Ipad2 riproduca per 13 ore H264 a 720p
Come è possibile che il TF101 riproduca (a scatti) 9.18 ore di H264 a 720p
Perchè non trovo riscontro nel mio transformer, di tutto quello che ha pubblicato anandtech.
devil997
10-02-2012, 12:37
Dopo questa credo che non vi sia più niente da argomentare. Io non ho "googlato" per vedere se il Tegra ha un A7. Perché IO so cosa è un A7. Tu non lo so. E comunque so di per certo che i 2 A9 non sono gli unici ARM nel SoC. Probabilmente tu non sapevi neanche che questi SoC avessero delle CPU in più oltre a quelle pubblicizzate ovunque. Ma fa niente. Sei tu l'esperto della materia, che pensa che Hummingbird fosse ancora competitivo all'uscita del Tegra 2 (se vuoi ti posto qualche bench in proposito.. vuoi? Ah, no, non mi è concesso "googlare" e a memoria i link visti 2 anni fa non me li ricordo davvero).
E la recensione ti è stata RIspedita con la nota in inglese. Lingua che forse non conosci. Ecco perché non hai capito la differenza (e forse ecco perché mai ti sei preoccupato di controllare i test di Anandtech).
E quello che non capisce quello che è scritto nelle recensioni sei tu. Qui non viene detto che i due display hanno la stessa luminosità. Ma che hanno più o meno la stessa resa cromatica, quindi si presuppone siano uguali per quanto riguarda lo strato degli LCD ma con retroilluminazione diversa. E' comunque solo un'ipotesi LORO, che non trova conferma ma che è comunque superflua. Il risultato è che il display ha luminosità diversa e mettendolo al massimo non ha la stessa intensità di illuminazione di quello vecchio. E quindi non è possibile nemmeno fare un confronto con esso alla pari. Il test di autonomia condotto è completamente inutile.
Dove tu abbia estrapolato tutte quelle informazioni errate lo sai solo tu. Evidentemente nel mio post in cui asserivo che hai notevoli problemi a comprendere e a informarti avevo pienamente ragione.
Ora ridi, godi e metti a tutti i lock a Google così solo tu rimani il detentore della verità assoluta.
Ciao
:mc: :mc: Non posso abbassarmi a competere con te, per dimostrarti che conosco le sigline, i coprocessori, gli integrati di supporto....
Ho sbruffoneggiato solo nei confronti di Pleg, che mi ha indispettito per primo dicendo, "non ne hai azzeccata una", quando in realtà il post che ha quotato era corretto.
E invece non ne hai azzeccata una :)
Postare qualche link a caso che dice cose che non esistono non aiuta granche'.
devil997
10-02-2012, 16:57
E invece non ne hai azzeccata una :)
Postare qualche link a caso che dice cose che non esistono non aiuta granche'.
Dai non continuare a ripeterlo, mi stai spingendo verso il suicidio...:Prrr:
devil997
10-02-2012, 16:57
E invece non ne hai azzeccata una :)
Postare qualche link a caso che dice cose che non esistono non aiuta granche'.
Dai non continuare a ripeterlo, mi stai spingendo verso il suicidio...:Prrr:
La questione della segretezza del companion core è presto detta: nvidia ci ha messo più di un anno a progettare il SoC e "annunciare" pubblicamente qualcosa in questo campo significa dare vantaggio alla concorrenza.
Esatto. E' piuttosto semplice da capire, no? Tranne per alcuni, voglio dire :)
nvidia si è aggiudicata un vantaggio notevole in questo modo, potendo proporre un quad core a 40nm mentre tutti gli altri hanno solo 2 core in cantiere e i quad core solo per la fine dell'anno prossimo. Ovvero nvidia ha tempo per rilasciare altri 2 SoC nel frattempo.
Purtroppo no, per progettare quelle cose serve parecchio tempo (per darti un'idea: stiamo cominciando a progettare quello che uscira' nel 2015), quindi per uscire quest'anno dovrebbe essere stato iniziato 2+ anni fa, e non e' cosi'. Ci sara' un "kicker" di Tegra3 (di fatto lo stesso chip, pompato un attimo, ma sempre a 40nm) forse il prossimo quarter, ma per il nuovo SoC (quello si' a 28nm) bisognera' aspettare l'inizio dell'anno prossimo.
La questione del Krait (quasi pronto a 32nm, finora non si è visto ancora nulla) è dovuta al solo fatto che Samsung ha le sue fabbriche. Per tutti gli altri esiste solo TSMC. L'uscita del Krait di Samsung precede di poco quella di tutti gli altri SoC basati su Cortex-A15 fatti a 28nm. E il Krait non è un A15.
Precisazione: Krait e' di Qualcomm, non Samsung. E Qualcomm credo si rifornisca da TSMC come tutti. Quanto al confronto con A15, finche' non escono entrambi sono solo speculazioni, impossibile a dirsi adesso.
Che nvidia esca con un quad a 28nm LP quando lo ha fatto a 40nm mi sembra più che logico. Quel quad a 28nm potrà consumare la metà del Tegra3 di adesso e consumerà comunque meno dei previsti dual core A15 che non hanno alcuna soluzione companion/big.LITTLE. E le prestazioni saranno simili per la pare CPU. Per la GPU si vedrà se nvidia la ritoccherà in qualche modo.
Purtroppo no. Non c'e' alcun Tegra3 a 28nm. Considera che far uscire un SoC l'anno e' gia' un lavoro enorme per un'azienda piccola come nvidia (nvidia ha ~6000 dipendenti, Qualcomm ~15000, Intel ~90000...). Dal Tegra3 si sono ottenuti circa 10 SKU (cioe' varianti, con consumi e frequenze lievemente diverse, alcune "pompate", per adattarsi ai diversi ambiti: tablet, smartphone, automotive, ...). Quindi nvidia ha in roadmap Tegra3 a 40nm adesso, e Tegra3.5 per l'inizio dell'anno prossimo (o Tegra4... ha cambiato nomi un po' di volte, cmq e' quello che viene dopo :)
Forse sbaglio ma queste cpu basati su architettura ARM basati su Cortex funzionano con la stessa logica delle GPU ovvero calcoli paralleli vettoriali come i processori IBM Cell, quindi non ci sarebbe il problema del multicore degli x86.
Nope, non e' cosi'. Gli ARM sono normali processori scalari. Quelli piu' vecchi erano scalari e in-order, gli A9 dovrebbero essere superscalari out-of-order (ma certo lontani anni luce dai processori AMD o Intel). Hanno delle unita' vettoriali (chiamate NEON), che sono un po' come SSE di x86.
Inoltre, considera che un processore vettoriale va bene per ambiti specifici (come ad esempio le GPU, signal processing, molta roba che viaggia sui supercomputer, eccetera) ma non in generale. Metti un sistema operativo su un processore vettoriale e non ci guadagni niente :) il kernel non funziona cosi'.
CrapaDiLegno
11-02-2012, 00:01
@pleg
ma sei informatissimo :)
Ci dici cosa cambierà tra il Tegra3 e il 3.5 (o 4)? :)
Sempre quad sarà? Quad A15? Alla fine ci metterete il memory controller dual channel?
Dai, non ti sto chiedendo cosa c'è in quello del 2015 (duemilaequindici! Quello con Maxwell e facente parte del progetto Denver!... no no , non voglio sapere che cosa c'è lì dentro :) ).
Comunque credevo che l'adattamento alla nuova nanometria non richiedesse tutta la riprogettazione del chip e quindi si potesse fare in parallelo allo sviluppo di un nuovo SoC. E' stata nvidia che ha detto che mentre stava sviluppando il G200 c'era già un gruppo di ingegneri a disegnare Fermi, per cui 2 progetti completi in contemporanea nvidia dovrebbe poterseli permettere :) E mentre faceva Fermi è riuscita a rimpicciolire sia il G92 (per ben 2 volte) sia il G200.
D'altronde uscire con un SoC quad core a 28nm nel 2012 porrebbe nvidia in enorme vantaggio rispetto alla concorrenza.
Per quanto riguarda il Krait, l'ho confuso con quello di Samsung. Effettivamente l'unica che uscirà con qualcosa di nuovo in primavera sarà Samsung con il suo dual core A15, mentre Qualcomm uscirà con l'ibrido A9/A15 chiamato Krait insieme a tutti gli altri produttori, cioè quando TSCM avrà finalmente risolto i suoi problemi di produzione con la linea 28nm LP. Per cui Qualcomm è già indietro anche più di TI (che con il dual A15 dovrebbe uscire contemporaneamente).
Nota a margine:
non capisco che vantaggio abbia Qualcomm a riprogettare tutto il chip per essere compatibile con l'ISA ARM quando ARM ha già la soluzione migliore pronta. Prima che Qualcomm finisce di fabbricare il suo ibrido la versione completa di ARM è già sul mercato. E la sua architettura non ha vantaggi particolari se non con codice ottimizzato che però non mi sembra gli sviluppatori di applicazioni Android supportino direttamente. Forse andava bene un tempo quando si andava con una architettura nuova ogni 2 anni, 1 solo vero concorrente e nessun OS a omogeneizzare il mercato. Oggi mi sa che non è più un vantaggio quello di Qualcomm che anzi rischia di rimanere parecchio indietro rispetto alla concorrenza (e alle soluzioni approntate da ARM come big.LITTLE).
Samsung infatti ha deciso di usare l'A15 così come viene da ARM invece di fare anche lei un ibrido come fece con Hummingbird. Il che la pone in vantaggio prestazionale oltre che temporale per via delle sue fabbriche.
Ci dici cosa cambierà tra il Tegra3 e il 3.5 (o 4)? :)
Sempre quad sarà? Quad A15? Alla fine ci metterete il memory controller dual channel?
Bravissimo, hai indovinato tutto :)
28nm, quad A15, e memory controller raddoppiato rispetto a Tegra3.
Cmq e' da notare che nonstante il canale verso la RAM sia rimasto invariato tra Tegra2 e Tegra3 (32 bit) la larghezza di banda e' piu' che raddoppiata (almeno negli SKU a prestazioni piu' elevate). Questo deriva da due fattori:
* la frequenza della memoria e' raddoppiata da 400 a 800 MHz
* il memory controller e' stato migliorato, aumentando di parecchio l'efficienza (cioe' il rapporto tra la banda effettivamente sfruttabile e la banda totale disponibile)
In questo modo la banda disponibile e' piu' che raddoppiata pur mantenendo lo stesso single-channel 32bit, con risparmio di costo.
Dai, non ti sto chiedendo cosa c'è in quello del 2015 (duemilaequindici! Quello con Maxwell e facente parte del progetto Denver!... no no , non voglio sapere che cosa c'è lì dentro :) ).
Vicino :) le specifiche sono ancora fluide, ma sara' probabilmente Denver+Kepler.
Comunque credevo che l'adattamento alla nuova nanometria non richiedesse tutta la riprogettazione del chip e quindi si potesse fare in parallelo allo sviluppo di un nuovo SoC.
Purtroppo non e' cosi' facile. Minimo-minimo devi rifare parte del floorplan e tutta la fase di layout (cioe' passare dalla netlist di gate logiche alla disposizione fisica dei singoli transistor -- che non e' la generazione delle maschere, quella viene ancora dopo ed e' fatta dalla Fab), dato che cambiano tutte le librerie tecnologiche. Certo, invece che 2 anni magari prende solo 6 mesi :) ma vuol dire che il team di layout deve fare quello e non puo' fare il tapeout di qualche altro chip, e non hanno tempo da scialare -- devono macinare un chip dopo l'altro senza interruzioni.
Per dire, nell'anno che passa tra Tegra3 e Tegra4 devono fare il tapeout di tutti i chip Kepler, e quelli non possono aspettare, sono gia' in ritardo :(
non capisco che vantaggio abbia Qualcomm a riprogettare tutto il chip per essere compatibile con l'ISA ARM quando ARM ha già la soluzione migliore pronta. Prima che Qualcomm finisce di fabbricare il suo ibrido la versione completa di ARM è già sul mercato.
Non so dirti di preciso, progettandosi la loro CPU "from scratch" possono ottimizzare quello che vogliono (potenza, velocita', eccetera); inoltre, puo' essere un vantaggio stategico nel senso che tutti i tuoi concorrenti hanno A9 o A15 (TI, Samsung, NVidia, Apple) mentre tu hai la tua roba. Pero' deve essere migliore degli altri per avere senso :) mentre finora non ho visto niente di eclatante: Snapdragon mi sembrava in linea con A9 e Krait sembrerebbe in linea con A15 (anche se finche' non escono tutti e due non si puo' dire niente di preciso). Non so che cos'abbiano in mente, ma Qualcomm e' un'azienda eccellente con un sacco di buona gente e un fottio di miliardi di dollari, quindi bisogna stare attenti :)
CrapaDiLegno
11-02-2012, 12:31
Domanda finale. Poi non ti rompo più (eh, magari :) ).
Perché nvidia fa solo SoC top gamma e non si preoccupa invece di quelli mainstream? Intendo, il dual A9 è stato un portento al momento del lancio dato che nessuno aveva un dual in casa. Ora però tutti ne hanno uno e il Tegra 2 mostra un po' la sua età. Ne deriva che tutti i nuovi dispositivi che vogliono avere un dual (anche senza essere il non plus ultra) montano chip Qualcomm o TI. Non ci sono telefonini nuovi con Tegra2.
Egualmente il Tegra3 è bello perché è il primo quad, apre la via a tante cose, come l'ottimizzazione multithreading di ICS (che poi tutti gli altri troveranno pronta e diranno "va che boiata il Tegra3 e come andava male") ma è sicuro che al lancio dei dual A15 non sarà più preso in considerazione, almeno per i telefonini.
nvidia quindi l'anno prossimo uscirà con un quad A15, sempre al top, ma intanto il mercato di volumi se lo fa Qualcomm e TI che sono indietro ma poi presentano un prodotto che consuma uguale e va un po' di più pappandosi la torta della "massa" che si accontenta.
Ma il SoC del 2015 monterà (ancora) Kepler? Per davvero? E Maxwell quando lo vedremo? Alla creazione della teoria unificata delle leggi fisiche?
E per finire... quanto sono in ritardo con Kepler? Non il GK104 che dovrebbe arrivare a settimane, ma con il bestio (sarà denominato GK100 o GK110 alla fine?) Q2? Q3? Q4? Mai?
Grazie mille per le delucidazioni (e qualche bella news :) )
Duncan88
11-02-2012, 12:41
Nope, non e' cosi'. Gli ARM sono normali processori scalari. Quelli piu' vecchi erano scalari e in-order, gli A9 dovrebbero essere superscalari out-of-order (ma certo lontani anni luce dai processori AMD o Intel). Hanno delle unita' vettoriali (chiamate NEON), che sono un po' come SSE di x86.
Inoltre, considera che un processore vettoriale va bene per ambiti specifici (come ad esempio le GPU, signal processing, molta roba che viaggia sui supercomputer, eccetera) ma non in generale. Metti un sistema operativo su un processore vettoriale e non ci guadagni niente :) il kernel non funziona cosi'.
Quindi questo tipo di cpu non sarà mai in grado di competere con un high-end x86 in ambito desktop anche volendo. :eek:
Ma quindi tutte queste discussioni nate dal supporto fornito dal prossimo W8 ad ARM sono dovute solamente alle solite fasce mobile / low-end, ma in quel caso perchè Intel dovrebbe preoccuparsi ?
Duncan88
11-02-2012, 12:51
E per finire... quanto sono in ritardo con Kepler? Non il GK104 che dovrebbe arrivare a settimane, ma con il bestio (sarà denominato GK100 o GK110 alla fine?) Q2? Q3? Q4? Mai?
Grazie mille per le delucidazioni (e qualche bella news :) )
GK104 è una GPU di fascia media e sostituirà la GTX560, e si dice avrà prestazioni pari a quelle della 7950 anche se il nominativo sarà quello di GTX680, non ha nulla a che fare con la fascia alta.
GK110, il pezzo grosso arriverà più tardi e costituirà 3 modelli :
GTR 685 ( chip castrato, sostituisce la gtx570 )
GTX 685 ( sostituisce la gtx580, top di gamma single gpu )
GTX 690 ( dual GPU ).
Domanda finale. Poi non ti rompo più (eh, magari :) ).
Perché nvidia fa solo SoC top gamma e non si preoccupa invece di quelli mainstream?
E' vero al momento fa solo roba di fascia alta, ma ci sono in cantiere nuovi Tegra per la fascia mainstream ("Grey" sara' il primo), quindi tra 1--2 anni cominceranno ad uscire anche quelli. Per il 2015 mi aspetterei di vedere prodotti Tegra coprire tutte le fasce di mercato, dagli smartphone mainstream, ai tablet, a portatili di fascia bassa (con Denver). Occhio che "coprire tutto il mercato" significa che NVidia avra' i prodotti, poi deve riuscire a piazzarli :) )
Non so esattamente quale fosse la strategia, posso avanzare delle ipotesi:
* come dicevo prima, nvidia e' "piccola", nella divisione mobile ci sono al picco un migliaio di persone a lavorare su Tegra (perche' ovviamente il grosso di nvidia e' sempre orientato su GPU, quelle danno il pane a tutti); confronta con Qualcomm e TI, che sono 10 volte piu' grosse, e capisci che poteva solo mandare fuori un SoC l'anno; dovendo scegliere, hanno scelto la fascia alta, per cominciare a farsi un nome (far uscire il primo dual core e il primo quad core fa pubblicita' e fa conoscere il brand, uscire nei terminali di fascia bassa non fa crescere molto il brand... quella fascia se la prendono i cinesi :) )
* Qualcomm e TI integrano tutto, compreso il modem radio (il processore baseband); questo livello di integrazione paga soprattutto nel mercato medio-basso, dove non puoi avere il lusso di avere un SoC senza radio e poi un altro chip con la radio di fianco; NVidia non aveva un modem baseband, e quindi pagava lo scotto. Adesso ce l'ha (ha comprato Icera l'estate scorsa) e infatti lo sta integrando nei prossimi Tegra. Guardacaso, il primo modello con modem Icera sara' Grey -- fascia media.
* Intel ha fatto il mazzo a nvidia negli ultimi anni: prima sbattendoli fuori dal mercato chipset non rinnovandogli le licenze (e chipset faceva il 25% del fatturato di nvidia, capisci che botta enorme che e' perdere un quarto del tuo fatturato) e poi cercando di rubare la fascia bassa di schede grafiche, integrandole nel processore, cioe' attaccando nvidia dal basso (aveva provato anche dall'alto, ma Larrabee dopo tanto hype e' sparito senza lasciare traccia). NVidia sta cercando di rendere la pariglia :) ) attaccando Intel dal basso nello stesso modo: i tablet di fascia alta cercano di sostituire parte del mercato netbook e notebook di fascia bassa, dominato da Intel. Mentre chi gioca davvero ha sempre bisogno di schede grafiche potenti (chi ha una GTX580 non la sostituisce coi giochini da tablet :) ), il giocatore occasionale si gode il suo smartphone e tablet, ed e' li' che nvidia puo' far valere il suo vantaggio nelle GPU (ed e' anche per questo che aggiunse l'accelerazione hardware di flash in Tegra2).
Ma il SoC del 2015 monterà (ancora) Kepler? Per davvero? E Maxwell quando lo vedremo? Alla creazione della teoria unificata delle leggi fisiche?
Beh Maxwell per GPU discrete seguira' la stessa cadenza biennale del resto -- Fermi nel 2010, Kepler nel 2012, Maxwell nel 2014. Ma per gli SoC devi fare una versione apposta della GPU, non credo si riesca a fare sia le Maxwell discrete che integrate per il 2014, mi aspetterei i primi modelli Maxwell nel 2014, seguiti dalla seconda ondata nel 2015, e roba per SoC nel 2015-16. La roadmap non e' ancora fissata, quindi queste date sono molto preliminari, ma e' quello che mi aspetterei al momento.
E per finire... quanto sono in ritardo con Kepler? Non il GK104 che dovrebbe arrivare a settimane, ma con il bestio (sarà denominato GK100 o GK110 alla fine?) Q2? Q3? Q4? Mai?
Sorry non posso dire niente. La strategia del marketing, come puoi vedere, e' stata "silenzio assoluto", perfino al CES Kepler non e' stato nemmeno nominato. Quando arrivano arrivano, di sorpresa.
Posso dirti pero' che tutte le roadmap che sono uscite finora e tutti i commenti degli articoli di questi ultimi giorni (anche in questo stesso thread) sono largamente cannati :)
Quindi questo tipo di cpu non sarà mai in grado di competere con un high-end x86 in ambito desktop anche volendo. :eek:
Ma quindi tutte queste discussioni nate dal supporto fornito dal prossimo W8 ad ARM sono dovute solamente alle solite fasce mobile / low-end, ma in quel caso perchè Intel dovrebbe preoccuparsi ?
Dubito fortemente che vedremo mai CPU ARM competere con high-end Intel. Non tanto per l'architettura in se', quanto per la "potenza di fuoco ingegneristica" che Intel puo' mettere in campo:
* Intel e' un nodo litografico avanti al resto del mondo: puoi anche fare lo stesso processore, ma andra' piu' lento dell'equivalente Intel perche' hai un processo piu' vecchio
* Intel puo' mettere in campo migliaia di ingegneri e miliardi di dollari per ogni nuova famiglia di CPU; ARM non puo', NVidia non puo', Qualcomm non puo', eccetera. Semplicemente non puoi fare il lavoro che fanno loro, puoi avere un'architettura buona quanto vuoi ma poi per costruire effettivamente una CPU di fascia alta hai bisogno di mettere in campo qualche decina di milioni di ore-uomo di lavoro, e solo Intel puo' permetterselo
Windows On ARM sara' si' per tablet (e forse qualche portatile di fascia bassa, o roba di quella classe). Intel dovrebbe preoccuparsi perche' le vendite di tablet e altri dispositivi del genere erodono il loro mercato standard di notebook e desktop. Le vendite di desktop sono piatte da anni, notebook stanno sentendo la pressione dei tablet, e i tablet sono in crescita esponenziale. Se non entrano in quel mercato rischiano di perdere quote importanti nel lungo periodo -- ecco perche' stanno cercando di entrarci.
cdimauro
12-02-2012, 13:59
:mc: :mc: Non posso abbassarmi a competere con te, per dimostrarti che conosco le sigline, i coprocessori, gli integrati di supporto....
Con tutta questa conoscenza perché non fai domanda di assunzione a nVidia?
Dovresti soltanto sperare che il colloquio non te lo faccia Pleg... :asd:
Dubito fortemente che vedremo mai CPU ARM competere con high-end Intel. Non tanto per l'architettura in se', quanto per la "potenza di fuoco ingegneristica" che Intel puo' mettere in campo
A livello puramente prestazionale non so quanto possa competere ARM, anche nell'ipotesi di avere risorse comparabili a Intel in termini di R&D.
E' un'idea, magari sbagliata, che mi sono fatto in tutti questi anni, ma a mio avviso l'architettura CISC di x86, pur con tutti i limiti di una progettazione iniziale sbagliata (o magari semplicemente allineata all'epoca: stiamo parlando di circa 35 anni fa!), dovrebbe permettere di un ottenere un certo margine di vantaggio grazie all'uso di istruzioni e/o modalità d'indirizzamento che permettono di realizzare più "lavoro utile" (riducendo al contempo la dipendenza fra le istruzioni).
Altro vantaggio dovrebbe essere rappresentato dalla densità del codice, che consente di risparmiare spazio in memoria e nelle varie cache, con conseguente riduzione delle varie banda di memoria (registri <-> cache L1 <-> cache L2 <-> cache l3 <-> memoria).
Non è un caso che alcune aziende che progettano processori RISC alla fine abbiano "calato le corna", come si suol dire, proponendo delle ISA che fanno uso di opcode a lunghezza variabile (ARM con la sua Thumb, "ibrido" 16-32 bit), e arrivando perfino a sacrificare l'esecuzione del codice condizionale per ogni istruzione (ARM64 avrà soltanto alcune, limite ma comunque le più utili, istruzioni che lo permetteranno).
Sul resto nulla da dire, mi trovo pienamente d'accordo.
devil997
12-02-2012, 14:07
Con tutta questa conoscenza perché non fai domanda di assunzione a nVidia?
Dovresti soltanto sperare che il colloquio non te lo faccia Pleg... :asd:
:rolleyes:
Perchè ho già da tempo un lavoro che paga meglio.
cdimauro
12-02-2012, 14:11
:eek: Sai talmente tante cose, che conosci pure lo stipendio di Pleg. :p
devil997
12-02-2012, 14:17
:eek: Sai talmente tante cose, che conosci pure lo stipendio di Pleg. :p
Non me ne frega nulla dello stipendio di Pleg, ma visto che ci tieni tanto ad approfondire, posso dirti di essere sicuro di preferire la mia retribuzione attuale a quella che prenderei da dipendente Nvidia. Oltretutto non sarei in grado, e non capisco come possa esserti venuta in mente una scemenza del genere, dato che non sono mai sceso così profondamente nel tecnico, e non sono nemmeno in grado di farlo....Parlavo d'altro con pleg. Quest'ultima tesina non mi riguarda.
Ah già, dovevi solo continuare il flame, una volta accertato con certezza quali chiappe era meglio lucidare.... Di certo cmq non vorrei il tuo di lavoro.
Adesso possiamo finirla con le frecciatine e le scemenze?
cdimauro
12-02-2012, 14:28
Al solito, come hai ampiamente dimostrato, ti piace scadere sul piano personale e ricorrere agli insulti, peraltro nemmeno velati, come hai fatto in precedenza con Pleg.
Inoltre continui col tuo "passo del gambero": fai un'affermazione, e poi marcia indietro dopo che ti sei sputtanato. Se non ti fosse chiaro il concetto:
PRIMA -> "Perchè ho già da tempo un lavoro che paga meglio."
DOPO -> "Non me ne frega nulla dello stipendio di Pleg"
Ma andando indietro nel thread si può andare dalle mirabolanti affermazioni sulle metodologie di test del display, al quinto core di Tegra 3 che "siccome nVidia non ne aveva parlato non poteva esserci", ecc. fino ai 28nm. Ce n'è per tutti i gusti. :p
devil997
12-02-2012, 14:34
Al solito, come hai ampiamente dimostrato, ti piace scadere sul piano personale e ricorrere agli insulti, peraltro nemmeno velati, come hai fatto in precedenza con Pleg.
Inoltre continui col tuo "passo del gambero": fai un'affermazione, e poi marcia indietro dopo che ti sei sputtanato. Se non ti fosse chiaro il concetto:
PRIMA -> "Perchè ho già da tempo un lavoro che paga meglio."
DOPO -> "Non me ne frega nulla dello stipendio di Pleg"
Ma andando indietro nel thread si può andare dalle mirabolanti affermazioni sulle metodologie di test del display, al quinto core di Tegra 3 che "siccome nVidia non ne aveva parlato non poteva esserci", ecc. fino ai 28nm. Ce n'è per tutti i gusti. :p
Ho un lavoro che paga meglio, non dello stipendio di sto maledetto Pleg, che continui a nominare solo tu, ma dello stipendio che otterrei, proponendomi come dipendente Nvidia, come mi hai suggerito di fare, scrutinato dall'onnipresente Pleg.
Questo ho detto. Un altro che non capisce l'italiano.:cry:
Cmq sei pregato di smetterla di tediarmi, che non sò nemmeno da quale buco salti fuori.
cdimauro
12-02-2012, 14:38
Per fare dei confronti col tuo stipendio dovresti almeno conoscere quello dei dipendenti di nVidia. Non so dalle tue, ma dalle mie parti i confronti si fanno su DUE quantità. :fiufiu: :D
Comunque tranquillo: la smetto qui, anche perché sei talmente bravo che riesci a dire una cosa e smentirti successivamente da solo, per cui non c'è nemmeno piacere a discettare. :p
P.S: Guarda la mia data d'iscrizione. :cool:
devil997
12-02-2012, 14:40
Per fare dei confronti col tuo stipendio dovresti almeno conoscere quello dei dipendenti di nVidia. Non so dalle tue, ma dalle mie parti i confronti si fanno su DUE quantità. :fiufiu: :D
Comunque tranquillo: la smetto qui, anche perché sei talmente bravo che riesci a dire una cosa e smentirti successivamente da solo, per cui non c'è nemmeno piacere a discettare. :p
P.S: Guarda la mia data d'iscrizione. :cool:
Grazie molte.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.