|
|
|
![]() |
|
Strumenti |
![]() |
#81 | ||||||||||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
Quote:
Quote:
"C' è un test fatto su un sito concorrente, la conclusione è che in idle gli ARM consumano meno, ma sotto carico sono gli Intel ad essere più efficienti." I costi non c'entrano con l'efficienza, a meno che non parliamo di efficienza del processo produttivo = rese e caratteristiche del silicio. D'altra parte Cfranco rispondeva a questa tua frase: "Intel competerà finchè riuscirà a controbilanciare l'inefficienza della sua architettura con un magigor numero di transistor messi nella stessa area con un PP più avanzato. " E tu rispondevi a LCHM che aveva scritto questo: "Intel avrà cpu più performanti solo se riuscirà a stare in testa in termini di tecnologia produttiva e se riuscirà a mantenere la consistenza numerica del suo zoccolo duro (software per x86 non portabile)." Dunque il concetto di efficienza mi pare chiaro: prestazioni. Che poi risulta essere, "casualmente", l'argomento della notizia... Quote:
Quote:
Comunque se ho tempo faccio qualche ricerca e riporto il link alla discussione, ma adesso ho altro da fare. Quote:
"Quindi le famose manovre sporche di Intel qui non sono applicabili." non lo è più. Un conto è riportare un fatto del passato, e un altro è infilarlo in una discussione che parla del presente. Sono due cose che non c'entrano nulla, per cui o si tratta di roba insensata oppure di illazioni. Quote:
Quote:
Secondo, spiegami cosa c'entra la compatibilità con una macchina virtuale come quella utilizzata da Android, tanto per prendere una delle 3 che hai citato e per i quali c'è maggior discussione in merito. Scendi pure quanto vuoi nei dettagli tecnici. Quote:
"Oggi i mercati mobile/desktop/server sono separati per ovvie ragioni storiche e altissime dipendenze da SW creati in trent'anni di sviluppo. Ma sono cose che stanno per essere superate: Apple ha il suo sistema di sviluppo trasversale, MS ha .NET, Android ha la Dalvik e derivate. Quello che c'è sotto il cofano conta sempre meno: conta quello che è in grado di fare, quanto consuma e sopratutto quanto costa. Il primo punto è vinto da Intel. Il secondo per ora è ad armi pari. Il terzo è vinto da ARM a mani basse. Miscelate il tutto, shekerate, mettere in fresco 3 o 4 anni e vedremo cosa accadrà. " Dunque a questo punto non ti riferivi ai 3 mercati, ma a quello che hai scritto dopo "Quello che c'è sotto il cofano conta sempre meno". Quote:
Per il resto, vedi sopra. E, al solito, saranno gli altri utenti a capire come stanno le cose.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
||||||||||
![]() |
![]() |
![]() |
#82 |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3920
|
Mi piace l'idea che la gente pensi che Intel è indistruttibile perché ha e avrà sempre la CPU più potente sul mercato.
Si vede che in questi 4 anni avete dormito e non vi siete accorti che la gente ha sempre meno bisogno di potenza bruta. Tutti i dispositivi consumer, anche quello ARM based, hanno già sufficiente potenza di elaborazione per le operazioni di tutti i giorni. Prima che la moda tablet scoppiasse c'erano i netbook. Chi se li ricorda? Eppure erano Intel based. Avevano una potenza di elaborazione schifosissima, non diversa da quella che mette a disposizione ARM oggi. Però sono andati via come il pane. Poi sono arrivati i tablet ARM based e la festa per Intel è finita (quasi in tragedia, visto la mole di soldi che ha dovuto spendere per tentare di recuperare). Le vostre considerazioni sull'uso obbligato di una CPU x86 si basano essenzialmente su 2 punti: 1. Potenza di calcolo esorbitante 2. Necessità di compatibilità = Windows. Il punto uno è presto risolto, dato che la gente comune non usa il PC per convertire video o elaborare RAW da 20MB ciascuno. E infatti ha trovato prima i netbook e poi i tablet, oggi perfino i mega smarphone, come strumenti adeguati per fare le proprie cose. Il punto due muore da solo quando la gente ha capito che deve pensare ai servizi che necessita invece del programma che gli permette di raggiungerli. Ed ecco la questione compatibilità trasversale su più dispositivi (che Intel e Microsoft non avevano mai e poi mai affrontato prima dell'arrivo di iOS e Android, da lì la fine del patto Wintel che nessuno sano di mente può negare sia esistito). Java (e le VM in generale)sono un male per qanto riguardale prestazioni. Non ci sono dubbi. Ma quando le prestazioni generali diventano sufficienti per coprire la realizzazione dei servizi di base richiesti, la priorità non è fare andare Kraken (un bench a caso) a 20.000 punti invece di 10.000, ma quello di far andare il servizio su 20.000 dispositivi invece di 10.000. Oggi vedete la scelta di Google di usare una VM come negativa, sopratutto perché ARM ha basse prestazioni. Ma la mossa negli anni si potrà rivelare molto furba. Apple fece la scelta di legarsi prima alla famiglia 68000, poi a quella PPC, ora ad Intel. Ad ogni passaggio una tragedia per quanto riguarda lo sviluppo SW. Google sa che se domani ARM finisce il suo ruolo di trainatore del mercato mobile e subentra MIPS o la stessa architettura x86 non gliene fregherebbe nulla. A lei interessa raggiungere gli utenti con i suoi servizi. Ed è anche interesse di tutti cloro che sviluppano per Android. Infatti di app scritte che usano le API native sono poche. MS ha fatto una scelta analoga. Queste VM sono una tragedia lo dicono tutti, poi comunque tutti felici di programmare con .NET e lasciarsi alle spalle i tempi delle MFC. Perché anche MS ha capito da tempo che il mondo non va più solo nella direzione x86. E oggi può presentarsi (lei e i suoi sviluppatori) con i suoi servizi su desktop/tablet/smarphone e console senza preoccuparsi di quello che contengono. Apple è da tempo che è all'opera per unire i due mondi desktop e mobile. Quindi, x86 vivrà? Ma è ovvio. Vi saranno milioni di i5/i7 venduti ai professionisti che ne hanno bisogno. E di Xeon nel mercato server ad alta potenza/workstation. Ma vi saranno anche centinaia di milioni di dispositivi che pian piano di "ibridizzeranno" passando da x86 a ARM senza che l'utente neanche se ne accorga. E anche nel mondo server c'è spazio per architetture ARM. E Intel lo sa, altrimenti non se ne sarebbe uscita cercando di anticipare la concorrenza con l'Avoton. Chiunque pensa che la battaglia del futuro sarà basata sulla potenza bruta non deve aver seguito l'andamento del mercato negli ultimi anni Chi ha postato prima il grafico dei fatturati delle industrie di semiconduttori l'ha fatto solo guardando dove era la linea blu (quella piatta). Le altre che stanno più in basso invece crescono. E neanche poco. Qualcomm nel 2014 ha fatturato più di 25 miliardi (rispetto ai meno di venti miliardi del 2013). Metà di Intel. Uno può benissimo dire, ma gli utili di Intel sono molto più alti. Certo. Gli utili netti però non così tanto, dato che le spese per le fabbriche Intel li deve sostenere mentre Qualcom ha già pagato il fornitore quando mostra i suoi numeri. Qualcomm guadagna molto meno per ogni singolo pezzo, ma vende 10 volte il numero dei pezzi di Intel. Insieme a Qualcomm c'è Samsung, una miriade di altri produttori minori (Marvell, Broadcomm, ST, Apple e nvidia) e tutti i produttori cinesi che si stanno affacciando con prodotti a bassissimo prezzo che alla gente bastano e avanzano e con cui Intel non può competere nei prezzi neanche rispolverando il primo Atom. Si parla di 2 miliardi di chip ARM based venduti. 2 miliardi! Sufficienti a mantenere attiva una o due fabbriche senza problemi. Che è quello che allarma Intel più di ogni altra cosa. Fab che sono in grado di fare concorrenza ai suoi PP. PP che per lei diventano sempre più costosi perché il numero di pezzi che vende diminuisce ogni anno (e deve cercare clienti che non siano concorrenti e siano disposti a pagare... molto difficile). Dei miliardi di dispositivi ARM che oggi sono venduti, solo una piccola parte è in competizione con Intel. Intel non ha modo di entrare nel mercato dove ARM domina da eoni. Non ha i mezzi tecnici e là dove li ottiene sono a discapito dei costi insostenibili per questi mercati. Viceversa ARM da qualche anno ha cominciato a penetrare nel mercato di Intel. Piano. Poco alla volta. Sempre più dispositivi passano dall'essere x86 based ad ARM based. Là dove i due punti elencati sopra (forza bruta e compatibilità con Windows) non servono, ARM è la scelta migliore. Se non per l'efficienza, per i costi ineguagliabili dai processi produttivi che Intel deve usare per raggiungerla. Tutti che parlano di workstation e i7. Negli Stati Uniti è esplosa un nuovo mercato: quello dei Chrome Book. E guarda caso, se all'inizio tutti montavano processori Intel, ora si affacciano anche quelli con ARM. Vanno meno? Sicuro. Stessa autonomia? Sì, più o meno. Ma costano meno! In un dispositivi nato per essere il più economico possibile, il costo del SoC è importante. Più delle prestazioni. E ricordo che oggi Intel è là dentro perché "foraggia" gli assemblatori. Quando la politica della spesa folle per ottenere nulla cesserà (perché deve cessare, quasi 8 miliardi in 2 anni per vendere una manciata di processori non ha alcun senso neanche per gli investitori e azionisti) Intel avrà un bel da farse per riuscire a convincere che quei MFlops a parità di W in più che ha valgono tutti quei soldi. Non solo agli assemblatori, ma anche ai potenziali clienti. Sarà una lotta continua, molto diversa da quella vissuta negli anni passati dove i pochi squali sono stati mangiati uno ad uno perché ognuno aveva una architettura diversa che non poteva mantenere in autonomia nel mercato di nicchia che si era ritagliato contro il colosso. Sarà un logorio, che là dove verrà arginato costerà moltissimo ad Intel in forma economica, e dove non ci riuscirà costerà in forma di vendite perse. Certo che Intel non fallirà. Ma è quasi certo che il ruolo di x86 nel mondo dell'informatica sarà rivisto. E più il livello si prestazioni minimo garantito dai minuscoli SoC ARM si alza peggio diventerà perché basterà sempre a più persone che nel frattempo si sarà liberata dal giogo di Windows. |
![]() |
![]() |
![]() |
#83 | ||||||||
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3920
|
Non da uno che fa finta (spero per lui) di non capire quello che scrivo. Sembra una continua presa per i fondelli la tua.
Quote:
![]() Hai deciso tu che l'argomento del giorno sono le prestazioni e non l'efficienza intesa come prestazioni/Watt/costi? Quote:
Quote:
In secondo luogo la frase è quella, è semplice, non contraddice il passato e non fa riferimento ad un possibile futuro. Leggi piano piano con me e cerca di comprendere: Le-famose-manovre-sporche-di-Intel (quelle passate, quelle documentate, compreso fino a qui?) qui (oggi, in questo contesto, in questa situazione, sempre tutto chiaro o devo ripetere?) non-sono-applicabili (NON si possono ripetere, non ci sono le stesse condizioni). Inutile che fai il negazionista. Intel è quello che ha fatto nella sua storia. Costellata non solo di circuiti. E come tutte le cose, nessuno può negare che si ripeta. Anche se ti dà fastidio o ti crea "problemi", io penso e deduco quello che voglio. Dico che può ancora. Non è una accusa se è questo che ti crea "problemi". Poi comunque ci sono sempre bravi insegnanti migliori di me che possono aiutarti a comprendere il significato delle parole. Quote:
Oltre che all'italiano dovresti anche fare un po' di ripasso di storia, per capire come spesso le cose non capitano mai una volta sola e solo i beoti poi si meravigliano dicendo "un'altra volta??". Quote:
Però vediamo.. prima dello scandalo il test di Anantech fatto a 1K, 2K e 4K.. la scheda si comporta come o meglio della 290X.. dopo lo scandalo.. sì, mi pare si comporti ancora allo stesso modo... Torno alla convinzione originaria: il problema non sono le prestazioni a cui molti si sono aggrappati per sostenere lo scandalo, ma alla "furberia" di nvidia. Puoi essere incazzato quanto vuoi e con ragione perché ha tentato di fregarti, ma non puoi cercare la giustificazione nelle prestazioni della scheda che fa esattamente quello che deve e che è stato registrato a tutti i siti come tale. Se poi vuoi usare l'AA 8x a 4K per dimostrare che la scheda va in ginocchio, be', il problema a quel punto non ce l'a certo la scheda. Anche perché in passato proprio AMD ha venduto schede che stutteravano in modalità di funzionamento normali e queste schede non erano castrate oltre alle specifiche date. Cioè lavoravano male a piene specifiche. Che non so se sia meglio. Quindi imbastire un'argomentazione riguardante le prestazioni non ha alcun senso. Soprattutto da chi ha digerito le schede AMD sopra citate. Quote:
Quote:
Quote:
Quanto tempo perso... e so già che me ne pentirò. Ultima modifica di CrapaDiLegno : 10-02-2015 alle 21:57. |
||||||||
![]() |
![]() |
![]() |
#84 |
Senior Member
Iscritto dal: Jan 2014
Messaggi: 3826
|
A me continua a sembrare assurdo pensare che un'azienda come Intel sia fossilizzata solo su x86.
Soprattutto ricordando articoli dei mesi scorsi in cui si diceva che stessero addirittura pensando di comprarsi tutta MediaTek. Che poi al 90% dell'utenza comune non serva un i7 si sa da anni, non è una novità di ora. |
![]() |
![]() |
![]() |
#85 | |
Senior Member
Iscritto dal: May 2001
Messaggi: 12847
|
Quote:
|
|
![]() |
![]() |
![]() |
#86 |
Senior Member
Iscritto dal: Jan 2014
Messaggi: 3826
|
Oggi sì, ovviamente. Ma sempre x86 è. Se il problema tanto discusso fosse davvero l'architettura in sè (ed ho seri dubbi a riguardo, proprio grazie agli Atom attuali), chi dice che Intel non abbia un piano B?
Passo e chiudo, che forse domani ci sarà il nuovo papiro di Di Mauro, e mica voglio rubare spazio ![]() |
![]() |
![]() |
![]() |
#87 | |
Senior Member
Iscritto dal: May 2001
Messaggi: 12847
|
Quote:
Tu di cosa stai parlando? Ad Apple conviene economicamente? Forse si. Se ti fermi alla sola fornitura di processori. Ma quanti ne vende poi? Quanto perde in prestazioni? Ad oggi Intel sforna processori general purpose decisamente più potenti. A livello di consumi Broadwell dimostra di essere molto efficiente. Ripeto, tu di cosa stai parlando? |
|
![]() |
![]() |
![]() |
#88 | ||||||||||||||||||||||||||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
Quote:
D'altra parte è normale che sia così: non è soltanto l'hardware a spingersi in avanti, ma anche il software aumentando di complessità. Questo è anche il motivo per cui "casualmente" sia Google sia Facebook rilasciano applicazioni per poter fruire i loro servizi su dispositivi con hardware più limitato. Quote:
Quote:
Quote:
Quote:
Quote:
Dunque di che patto stai parlando? Quote:
Se fosse come dici tu nessuno scriverebbe applicazioni native, e si sarebbero buttati tutti sulle piattaforme basate su macchine virtuali. Quote:
Chissà come mai ARM abbia sentito questo gran bisogno d'intervenire se, come dici tu, le applicazioni native sono poche... Quote:
Basti prendere le date di introduzione di .NET e Cocoa per dimostrare che quanto hai riportato sia del tutto falso: rispettivamente 2002 e 1993 (visto che affonda le sue radici in NextStep). Ma dei due soltanto il primo è (sulla carta) multipiattaforma, perché con Cocoa le applicazioni rimangono native (e infatti Apple ha fatto uso da tempo dei cosiddetti "universal binary" per le applicazioni; ma sempre binari rimangono, e legati a precise architetture). Quote:
E questo perché la potenza bruta non è importante anche per gli utenti comuni (perché sarà nelle loro mani che finiranno i dispositivi che monteranno l'A72, esattamente avviene oggi coi modelli attuali). Quote:
Quote:
Quote:
Quote:
Quote:
Quote:
Il tuo problema è che estendi la situazione del mercato mobile, dove Intel è entrata tardi, con la globalità. Quote:
Quote:
Quote:
Infine riguardo ai costi, i 22nm sono da tempo maturi ed economici. Tant'è che Intel, come già detto, colleziona pure partner esterni. Al solito il tuo problema sta nel cercare di generalizzare la situazione del settore mobile con l'universo. Una nota fallacia logica... Quote:
Quote:
Quote:
Quote:
Ma, a parte questo, SoC basati su Atom per uso NON mobile se ne trovano a poco prezzo e NON vengono venduti scontati. Quote:
Quote:
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
||||||||||||||||||||||||||
![]() |
![]() |
![]() |
#89 | ||||||||||||||||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
Quote:
Non so, vorresti dirmi che i processori extreme da 999$ venduti con forti sconti? Non succede nemmeno per gli Atom che trovi in tantissimi dispositivi come NUC et similia. Dunque, ribadisco: in base a quali dati affermi che il processo a 22nm costi a Intel il quadruplo? Riporta pure. Quote:
Per il resto t'avevo riportato quanto era scritto, anche da te, in sequenza. Tanto basta per dimostrare che parlavi anche tu di prestazioni. Anche se a un certo punto hai deciso di deragliare perché l'argomento era divenuto impossibile da sostenere. Quote:
Quote:
Quote:
Quote:
Quote:
"non fa riferimento ad un possibile futuro" e poi questo: "Dico che può ancora" ? Lascio agli altri utenti le conclusioni su chi dei due ha difficoltà con la lingua italiana. Quote:
Quote:
Quote:
Quindi immagino che se ti capiti di sbagliare tu continuerai a commettere lo stesso errore anche in futuro, anziché cercare di evitarlo... Quote:
Quote:
Ma lo ripeto ancora una volta: cosa c'entra la compatibilità con una macchina virtuale? Risposta chiara e precisa, prego, esclusivamente tecnica (anche perché è soltanto tale). Cercare di cambiare o tagliare nuovamente il discorso denoterà la tua mancanza di conoscenza in materia. In buona sostanza: hai sparato una balla colossale. Quote:
Quote:
Quote:
Questo perché continui a cimentarti in ambiti di cui hai scarsa o nulla conoscenza. Il bagaglio culturale non lo si forma leggendo informazioni a destra e a manca, e "shackrando" il tutto, come hai già scritto. Lo si fa con studio e lavoro. Quello che ancora non hai capito... P.S. Non ho tempo di correggere, perché mi fiondo a letto. Domani (oggi) si torna a lavoro.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
||||||||||||||||
![]() |
![]() |
![]() |
#90 | |||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Rispondo velocemente soltanto a questo.
Quote:
Contrariamente a tutte le (cattive) aspettive. Quote:
Comunque l'acquisizione non sarebbe stata volta a entrare nell'architettura ARM, quanto nell'ecosistema e portfolio di clienti che s'è creata Mediatek, che sarebbe il vero valore di quest'azienda per Intel. Quote:
Certamente un i7 attuale sarà overkill anche fra diversi anni per la maggior parte dell'attuale utenza, ma non lo saranno le versioni minori, che in futuro diventeranno il punto di riferimento / la normalità per gli utenti comuni.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
|||
![]() |
![]() |
![]() |
#91 | |
Senior Member
Iscritto dal: Jan 2007
Messaggi: 6147
|
Quote:
ha come cpu un Exynos 5 dual (Cortex A15 a 32nm) ad 1.6Ghz e secondo http://www.fonearena.com/tech/review...1-review/5429/ ha una batteria da 30Wh. Mentre invece il Chromebook 14 ha una cpu Celeron 2955U (a 22nm) ad 1.4Ghz (ed UNO step tecnologico avanti 32 -> 22 secondo la progressione delle fab di Intel e DUE step tecnologici avanti 32 -> 28-> 22 -> 20 secondo quella delle fab Samsung che usano anche gli half-node). e cercando in giro mi risulta che abbia una batteria da 37Wh ( http://www.atbatt.com/laptop-batteri...-14-c010us.asp ). Processore che gira a frequenza più bassa, uno step tecnologico più avanti e circa un 25% in più di batteria. E poi se si guarda la recensione dell' 11 su Notebookreview ... http://www.notebookcheck.net/Review-....105485.0.html Si trova un riferimento ad un altro HP Chromebook 14 questa volta con un Celeron 847ULV a 32nm ed 1.1Ghz ![]() ( http://www.notebookcheck.net/Review-...k.98655.0.html ) e si scopre che nonostante il resto sia come quello con il 2955U a 22nm (inclusa la batteria da 37Wh) ha una durata di solo 4 ore e 14 minuti con il loro test di "websufurfing su WLAN) ed 1 ora e 58 minuti nel test di video playback 1080p. Mentre invece l'11 negli stessi test ha fatto 5 ore ed 8 minuti di websurfing su WLAN e 3 ore e 26 minuti di video playback 1080p (e tutto questo con una batteria da 30Wh). Per questo, come ho già affermato precedentemente, per Intel saranno caXXi amari se non riesce a tenersi avanti alla concorrenza con gli step tecnologici. |
|
![]() |
![]() |
![]() |
#92 | ||
Senior Member
Iscritto dal: Jul 2003
Messaggi: 26791
|
Quote:
L'INTEL monta un LCD che è il 20% più grande e questo è il componente che ciuccia più batteria in assoluto e il rapporto 30:100=37:x indica una percentuale di batteria il 23% maggiore (se già mi cominci a ladrare sui numeri ipotizzo malafede!). Quindi senza farsi troppe seghine possiamo dire il confronto sia alla pari. Con la differenza che 2955U mi fornisce 6:100=9:x il 50% in più di durata!!!! Stic!!!! E il 2955U pompa QUASI il DOPPIO del Exynos 5 Dual (Octane test di 11k contro 6k!!!!!!) PUR AVENDO FREQUENZA INFERIORE (e sappiamo bene che non è un limite dell'architettura, come invece in ARM... semplicemente l'hanno settata bassa per ridurre i consumi). DOPPIA DURATA, DOPPIA POTENZA, COSTI INFERIORI DATO IL PROCESSO PRODUTTIVO INFERIORE E HA PURE DISATTIVATI TURBO BOOST, HYPER-THREADING, TSX, AVX, AES-NI (PERCHE' ALTRIMENTI GLI SEMBRAVA TROPPO...)!!!!!!!!! DI COSA DOVREBBE PREOCCUPARSI INTEL, SCUSA??! Quote:
INTEL è stata la prima a usare l'high-k (che ora usano le concorrenti) e ora la prima a usare non solo il FinFET (che useranno le concorrenti quando e se cominceranno i 16nm), ma pure il tri-gate tridimensionale (fantascienza per gli altri)... Intel è un processo produttivo avanti, 12 mesi di vantaggio tecnologico che si traducono anche in una efficenza doppia in produzione. Ultima modifica di MiKeLezZ : 11-02-2015 alle 01:17. |
||
![]() |
![]() |
![]() |
#93 |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Lo stai dicendo a me? Io lo so benissimo (e vedi anche la firma).
![]() ![]() Per il resto concordo che i confronti andrebbero fatti con prodotti aventi caratteristiche simili. Idealmente per poter valutare esclusivamente l'architettura si dovrebbe cambiare esclusivamente il core lasciando invariato tutto il resto. Ciò, purtroppo, non è possibile, perché i chip / SoC integrano all'interno parecchia altra roba, anche molto diversa (pur facendo le stesse cose. Mi riferisco a GPU, decoder video, ecc.).
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
![]() |
![]() |
![]() |
#94 | ||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Devo correre a lavoro, ma un'altra cosa su questo la voglio dire.
Quote:
A mio modesto avviso no, perché significherebbe perdere uno dei primati che la caratterizzano: le prestazioni. E, a ruota, la densità di codice, che è anche uno dei motivi per tanti RISC montano cache di dimensioni più grandi (per il codice, in genere). Dunque se dovesse cambiare, Intel dovrebbe adottare una soluzione che le consenta di mantenere quanto meno il vantaggio che ha adesso. Ma, soprattutto, dovrebbe trovare delle vere motivazioni per poter effettuare questo drastico cambio. Sul primo punto, dopo anni di ricerche, studi, e lavoro, io ho fornito una mia personale soluzione al problema, di cui trovi un breve abstract nel link mia firma. Il secondo punto non è cosa che mi compete. Quote:
![]()
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
||
![]() |
![]() |
![]() |
#95 | ||
Senior Member
Iscritto dal: Jan 2014
Messaggi: 3826
|
Quote:
D'altronde, fino a non molto tempo fa, il vero problema di x86 nel settore mobile non era certo dato dalle prestazioni, ma dal fatto che, provenendo dal mondo dei desktop, si portava dietro consumi maggiori. Con gli Atom Intel sembra aver perso la strada giusta anche in questa direzione, quindi nemmeno io, in realtà, vedo perché dovrebbe cambiare direzione. Il mio commento era legato, infatti, ad un'ipotesi precisa:"Se il problema tanto discusso fosse davvero l'architettura in sè (ed ho seri dubbi a riguardo, proprio grazie agli Atom attuali)" Quote:
Comunque, secondo me l'unica motivazione potrebbe essere un non riuscire a convincere gli OEM della bontà dei suoi chip anche nel settore mobile. Il che non significa che rischia di fallire, tra l'altro, visto quanto fattura nei settori in cui le prestazioni servono, eccome (forse qualcuno dimentica che, in quegli ambiti, i prezzi stanno intorno ai 1000$ a chip, mica parliamo dello smartphone per Facebook e Whatsapp). E tu hai già ricordato come Intel entri prepotentemente anche nel mondo embedded. Spero si sia capito che quella parte di commento era in tono "positivo" ![]() |
||
![]() |
![]() |
![]() |
#96 | ||
Senior Member
Iscritto dal: Apr 2002
Città: PD
Messaggi: 11726
|
Quote:
Quote:
Tra l' altro mi risulta che proprio l' architettura netburst fosse il "piano B" per i problemi a salire le frequenze dei PIII, e l' architettura core fu la scelta di ripiego per il fallimento a raggiungere i 10 Ghz dell' architettura netburst Quindi di piani B Intel ne ha sempre avuti
__________________
Ph'nglui mglw'nafh Cthulhu R'lyeh wgah'nagl fhtagn |
||
![]() |
![]() |
![]() |
#97 | ||
Senior Member
Iscritto dal: Jan 2014
Messaggi: 3826
|
Quote:
Quote:
I 10GHz sono stati un tentativo eccessivo: la Fisica non guarda in faccia nessuno. |
||
![]() |
![]() |
![]() |
#98 | |
Senior Member
Iscritto dal: Jan 2007
Messaggi: 6147
|
No.
Quote:
Per questo ho tirato in ballo l'HP Chromebook 14 con un Celeron ULV a 32nm (stesso step dell' l'Exynos 5 Dual) e TDP 17Watt dove si vede cosa succede a parità di step. ![]() Poi se non si hanno i dati sul sistema di backlighting dei due display è difficile capire se un 20% in più di area si traduce in un 20% in più di consumo (dipende dai led utilizzati e da altri accorgimenti) MA nelle due recensioni di Notebookcheck che avevo postato ( http://www.notebookcheck.net/Review-....105485.0.html http://www.notebookcheck.net/Review-...k.98655.0.html ) se vai a vedere LE CARATTERISTICHE DEI DISPLAY si nota che il 12" viaggia a 300 cd/m^2 con contrasto 578:1 mentre il 14" raggiunge solo 235 cd/m^2 con contrasto 373:1 il che fa pensare che il consumo extra legato al backlighting sia decisamente inferiore all'aumento dell'area. ![]() E questo ci fa ritornare a quel che dicevo prima: uno step tecnologico di vantaggio fa una differenza notevole. ![]() |
|
![]() |
![]() |
![]() |
#99 | ||
Senior Member
Iscritto dal: Apr 2002
Città: PD
Messaggi: 11726
|
Quote:
![]() Quote:
![]() C' è uno strato esterno che traduce le istruzioni nei codici veramente usati dal processore internamente, moduli che riordinano e riorganizzano il codice, esecuzioni out-of-order, registri rinominati al volo e un sacco di altra roba. Che siano istruzioni ARM o x86 assomigliano ormai sempre più al C come livello di astrazione, addirittura Transmeta nei suoi processori usava un traduttore software anzichè HW per trasformare un codice x86 in VLIW. Sono proprio le CPU VLIW quelle che hanno cercato di riportare il codice assembly al livello del processore ma proprio Itanium non è riuscito a rendere reale il vantaggio teorico di questo approccio, gestire esplicitamente il parallelismo dei processori del nuovo millennio è un casino.
__________________
Ph'nglui mglw'nafh Cthulhu R'lyeh wgah'nagl fhtagn |
||
![]() |
![]() |
![]() |
#100 | |
Senior Member
Iscritto dal: Jan 2014
Messaggi: 3826
|
A meno che non abbia sbagliato Itanium, il progetto è partito nei primi anni Novanta, almeno stando a Wikipedia: http://it.wikipedia.org/wiki/Itanium
Quote:
Quest'ultimo, infatti, affida la gestione delle dipendenze tra le istruzioni che verranno eseguite in parallelo al compilatore, con la conseguente, necessaria, ricompilazione di un intero parco software qualora cambi l'architettura del microprocessore sottostante. Comunque, il tempo dirà cosa accadrà ![]() |
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 04:23.