PDA

View Full Version : La Legge di Moore è morta, ma l'innovazione continuerà ad esserci


Redazione di Hardware Upg
16-02-2016, 12:01
Link alla notizia: http://www.hwupgrade.it/news/cpu/la-legge-di-moore-e-morta-ma-l-innovazione-continuera-ad-esserci_60982.html

Un corposo approfondimento di Nature.com racconta il declino dell'affidabilità della Legge di Moore, la cui "morte" è già stata preannunciata da tempo

Click sul link per visualizzare la notizia.

kamon
16-02-2016, 12:21
Come nel mercato smartphone, da quando sono usciti gli schermi sono reddoppiati in pollici ogni 2 anni, raggiunto un certo limite non si potrà andare oltre, l'innovazione allora punterà su zainetti e poi carriole per trasportarli sempre più efficenti...

CrapaDiLegno
16-02-2016, 12:24
Dai che forse è finita l'era dei core General purpose monolitici grandi come pizze e si passa ad architetture più leggere dove unità di calcolo diverse fanno lavori diversi in maniera diversa rispetto ad oggi.
Vedere te che tra 10 anni sarà Intel stessa ad ammettere che x86 era una architettura nata male ed evoluta peggio solo per mantenere la retrocompatibilità e senza davvero aver apportato vere innovazioni.
Ovviamente lo dirà quando avrà in mano una nuova architettura che darà la birra a questa, ormai giunta al capolinea ben prima della morte della legge di Moore

demon77
16-02-2016, 12:31
Eh si. Purtroppo che il treno ha rallentato parecchio ce ne siamo accorti tutti da un pezzo.
R.I.P. Legge di Moore.. sinceramente mi eri davvero simpatica.

GigoBoso
16-02-2016, 12:34
Come nel mercato smartphone, da quando sono usciti gli schermi sono reddoppiati in pollici ogni 2 anni, raggiunto un certo limite non si potrà andare oltre, l'innovazione allora punterà su zainetti e poi carriole per trasportarli sempre più efficenti...

Non conoscevo questa legge, ma non è il giusto esempio, gli attuali smartphone, secondo me , sono solo un fenomeno commerciale, quale reale utilizzo hanno? Sarebbero telefoni portatili la cui batteria non dura niente a causa di schermi enormi.

deggial
16-02-2016, 12:34
Dai che forse è finita l'era dei core General purpose monolitici grandi come pizze e si passa ad architetture più leggere dove unità di calcolo diverse fanno lavori diversi in maniera diversa rispetto ad oggi.
Vedere te che tra 10 anni sarà Intel stessa ad ammettere che x86 era una architettura nata male ed evoluta peggio solo per mantenere la retrocompatibilità e senza davvero aver apportato vere innovazioni.
Ovviamente lo dirà quando avrà in mano una nuova architettura che darà la birra a questa, ormai giunta al capolinea ben prima della morte della legge di Moore

sinceramente dire che X86 sia un'architettura nata male ed evoluta peggio, è un po' offensivo verso il mondo dei microprocessori che ci ha assistito negli ultimi decenni.

CrapaDiLegno
16-02-2016, 12:50
sinceramente dire che X86 sia un'architettura nata male ed evoluta peggio, è un po' offensivo verso il mondo dei microprocessori che ci ha assistito negli ultimi decenni.

Assistito o imposta per ragioni più commerciali che tecniche e di merito?

demon77
16-02-2016, 12:58
Assistito o imposta per ragioni più commerciali che tecniche e di merito?

Sinceramente ne so troppo poco in merito per poter dire se X86 è questo e quello.. di certo però posso dire che come evoluzione di strada ne ha fatta parecchia eh.. non è che sia poi sta rovina direi.

Che poi si possa creare una architettura migliore ok posso anche ammetterlo.. ma scusa la cosa più furba in assoluto per Intel sarebbe sfruttare la sua posizione di capofila per diffonderla affiancandola alle soluzioni x86.
In tal modo garantirebbe la diffusione e al momento buono potebbe liberarsi del vecchio standard.

Se tutto questo non accade è perchè si vede che x86 è ancora valida.. no?

fraussantin
16-02-2016, 12:58
"A questa grandezza le parti individuali che compongono il chip sono più piccole di una particella virale tipica, e simili alle dimensioni delle membrane esterne di un germe."

In arrivo pc immuni dai virus? :asd:

Baio

questa sarebbe una vera innovazione.

Nui_Mg
16-02-2016, 13:01
Assistito o imposta per ragioni più commerciali che tecniche e di merito?
Al di là di imposizione o meno, è più che oggettivo affermare che tale architettura si sia difesa più che bene da quegli avversari che hanno provato a scalzarla (powerpc, arm, ecc., sempre a parità di prestazioni/efficienza energetica).

Shurpaul
16-02-2016, 13:11
Ha fatto talmente schifo che alla fine ne hanno venduto miliardi. Si poteva fare meglio? Probabilmente, ma evidentemente per quello che serviva è andata bene così. Basti pensare agli anni 60 quando i computer erano grandi quanto stanze e adesso un I7 stracazzuto è millemila volte più potente e sta in un case ITX...

CrapaDiLegno
16-02-2016, 13:23
Al di là di imposizione o meno, è più che oggettivo affermare che tale architettura si sia difesa più che bene da quegli avversari che hanno provato a scalzarla (powerpc, arm, ecc., sempre a parità di prestazioni/efficienza energetica).

Solo la sua posizione commerciale le ha permesso di superare la concorrenza che per motivi economici è sempre stata indietro con i processi produttivi.
Non confondere l'enorme capacità tecnica nei processi produttivi che ha mantenuto valida una architettura nata vecchia con le caratteristiche dell'architettura stessa.

Prova a chiederti perché con tutte queste presunte capacità Intel nel mondo embedded praticamente non esiste.
Nel mondo embedded la retrocompatibilità vale zero e tanto meno il supporto a Windows. Sono ben altre le caratteristiche richieste. E guarda caso dove mancano le prime due Intel non esiste.
Dopo l'antico mercato embedded sono arrivati gli smartphone, che condividono con il primo la non necessità dei punti esposti sopra. E guarda caso, Intel non c'è.

Sarà tutta una coincidenza o è evidente che là dove le politiche commerciali non contano rispetto alle caratteristiche della propria architettura Intel ha fallito? Devo ricordare il progetto Merced (poi Itanium) per ulteriore conferma?

Sono 40 anni che abbiamo le mani legate a quello che Intel ci ha proposto. Quando una volta decise finalmente di cambiare pagina arrivò AMD con l'estensione 64bit che ha fermato nuovamente tutto.
Ora siamo al capolinea. Si spera in una vera rivoluzione. E si spera che non sia più una sola azienda a decidere come dovrà essere la roadmap del progresso informatico mondiale.

roccia1234
16-02-2016, 13:43
Eh si. Purtroppo che il treno ha rallentato parecchio ce ne siamo accorti tutti da un pezzo.
R.I.P. Legge di Moore.. sinceramente mi eri davvero simpatica.

Già, proprio vero.

Però il portafogli ci guadagna parecchio...

deggial
16-02-2016, 13:47
Solo la sua posizione commerciale le ha permesso di superare la concorrenza che per motivi economici è sempre stata indietro con i processi produttivi.
Non confondere l'enorme capacità tecnica nei processi produttivi che ha mantenuto valida una architettura nata vecchia con le caratteristiche dell'architettura stessa.

Prova a chiederti perché con tutte queste presunte capacità Intel nel mondo embedded praticamente non esiste.
Nel mondo embedded la retrocompatibilità vale zero e tanto meno il supporto a Windows. Sono ben altre le caratteristiche richieste. E guarda caso dove mancano le prime due Intel non esiste.
Dopo l'antico mercato embedded sono arrivati gli smartphone, che condividono con il primo la non necessità dei punti esposti sopra. E guarda caso, Intel non c'è.

Sarà tutta una coincidenza o è evidente che là dove le politiche commerciali non contano rispetto alle caratteristiche della propria architettura Intel ha fallito? Devo ricordare il progetto Merced (poi Itanium) per ulteriore conferma?

Sono 40 anni che abbiamo le mani legate a quello che Intel ci ha proposto. Quando una volta decise finalmente di cambiare pagina arrivò AMD con l'estensione 64bit che ha fermato nuovamente tutto.
Ora siamo al capolinea. Si spera in una vera rivoluzione. E si spera che non sia più una sola azienda a decidere come dovrà essere la roadmap del progresso informatico mondiale.

io non ne so moltissime, ma un po' di storia X86 vs. ARM me la sono letta. Dall'idea che me ne sono fatto, gli ARM agli albori non erano adatti al calcolo general purpose, ora invece sì.
E sono stati adottati nel mondo mobile per il loro rapporto prestazioni/consumi, che all'inizio era nettamente migliore delle proposte X86. Quello che dici tu ora si può dire all'opposto... anche se ci sono ormai valide alternative X86 anche in ambito mobile, queste non vengono adottate per accordi commerciali pregressi.

Nel mondo embedded non è che PIC sia stata molto diversa dal monopolio X86 in ambito general... anche lì per politiche commerciali scorrette?

calabar
16-02-2016, 13:47
Che ci sia un ritorno a processori specializzati, come ai tempi dell'Amiga? (giusto per citare un esempio).

In effatti alla fine per l'uso quotidiano non servono prestazioni folli, tranne per alcune attività specifiche che richiedono grande potenza computazionale. Per quelle attività dei DSP ad hoc potrebbero garantire prestazioni molto elevate e consumi bassissimi (al prezzo di una minore versatilità).

Che poi si possa creare una architettura migliore ok posso anche ammetterlo.. ma scusa la cosa più furba in assoluto per Intel sarebbe sfruttare la sua posizione di capofila per diffonderla affiancandola alle soluzioni x86.
In tal modo garantirebbe la diffusione e al momento buono potebbe liberarsi del vecchio standard.
In realtà ci aveva provato, con Itanium. Il risultato è stato un fallimento.
L'inerzia dovuta all'enorme quantità di software esistente per questa architettura è un treno piuttosto difficile da frenare.
Se in futuro ci si liberrerà di questo fardello (credo che MS ci abbia già provato con .NET e WinRT e ora ci stia provando con le applicazioni universali), allora questo passaggio potrà essere fatto, ma sarà sempre difficile fino a quando non ci saranno investimenti sufficienti in architetture alternative.
Ma chi investe? Ad Intel probabilmente non conviene vista la posizione di x86. Altri dovrebbero prima trovare un mercato adatto a questo target di processori, perchè non si possono investire miliardi senza un rientro economico. Oggi forse ARM è quella che ha le carte migliori, dato che i processori con questa architettura, anche grazie al loro utilizzo sui server, si stanno pian piano trasformando in prodotti ad alte prestazioni.

fano
16-02-2016, 13:50
Per spezzare un'arancia a favore di Intel loro hanno provato almeno 2 volte a far fuori X86 nel lontano 1982 con iAPX_432 (https://en.wikipedia.org/wiki/Intel_iAPX_432) e Itanium entrambe le volte i produttori software fecero fallire le nuove architetture perché non erano compatibili con X86! Itanium aveva addirittura un emulatore X86 hardware integrato, ma a parità di prestazioni risultava comunque troppo lento quindi...

AMD64 è un accrocchio al confronto di Itanium questo deve essere chiaro :cry:

demon77
16-02-2016, 14:31
Che ci sia un ritorno a processori specializzati, come ai tempi dell'Amiga? (giusto per citare un esempio).

In effatti alla fine per l'uso quotidiano non servono prestazioni folli, tranne per alcune attività specifiche che richiedono grande potenza computazionale. Per quelle attività dei DSP ad hoc potrebbero garantire prestazioni molto elevate e consumi bassissimi (al prezzo di una minore versatilità).


In realtà ci aveva provato, con Itanium. Il risultato è stato un fallimento.
L'inerzia dovuta all'enorme quantità di software esistente per questa architettura è un treno piuttosto difficile da frenare.
Se in futuro ci si liberrerà di questo fardello (credo che MS ci abbia già provato con .NET e WinRT e ora ci stia provando con le applicazioni universali), allora questo passaggio potrà essere fatto, ma sarà sempre difficile fino a quando non ci saranno investimenti sufficienti in architetture alternative.
Ma chi investe? Ad Intel probabilmente non conviene vista la posizione di x86. Altri dovrebbero prima trovare un mercato adatto a questo target di processori, perchè non si possono investire miliardi senza un rientro economico. Oggi forse ARM è quella che ha le carte migliori, dato che i processori con questa architettura, anche grazie al loro utilizzo sui server, si stanno pian piano trasformando in prodotti ad alte prestazioni.

Per spezzare un'arancia a favore di Intel loro hanno provato almeno 2 volte a far fuori X86 nel lontano 1982 con iAPX_432 (https://en.wikipedia.org/wiki/Intel_iAPX_432) e Itanium entrambe le volte i produttori software fecero fallire le nuove architetture perché non erano compatibili con X86! Itanium aveva addirittura un emulatore X86 hardware integrato, ma a parità di prestazioni risultava comunque troppo lento quindi...

AMD64 è un accrocchio al confronto di Itanium questo deve essere chiaro :cry:

Momento.. Itanium che io sappia è si una architettura nuova creata da intel.. ma non ha mai voluto andare a soppiantare X86, era tesa a contrastare i processori per datacenter che erano appannaggio dei SUN spark.. un settore totalemte diverso.

CrapaDiLegno
16-02-2016, 17:29
io non ne so moltissime, ma un po' di storia X86 vs. ARM me la sono letta. Dall'idea che me ne sono fatto, gli ARM agli albori non erano adatti al calcolo general purpose, ora invece sì.
E sono stati adottati nel mondo mobile per il loro rapporto prestazioni/consumi, che all'inizio era nettamente migliore delle proposte X86. Quello che dici tu ora si può dire all'opposto... anche se ci sono ormai valide alternative X86 anche in ambito mobile, queste non vengono adottate per accordi commerciali pregressi.

Nel mondo embedded non è che PIC sia stata molto diversa dal monopolio X86 in ambito general... anche lì per politiche commerciali scorrette?

Tutte le architetture che conosci sono x86 e arm? Motorola, alpha, mips, spark, PA-risc... Tutte 7nferiori a x86... Si si

Ha fatto talmente schifo che alla fine ne hanno venduto miliardi. Si poteva fare meglio? Probabilmente, ma evidentemente per quello che serviva è andata bene così. Basti pensare agli anni 60 quando i computer erano grandi quanto stanze e adesso un I7 stracazzuto è millemila volte più potente e sta in un case ITX...
Hai qualche deficit a comprendere causa effetto. Ne ha venduto miliardi perché è stata commercialmente in grado di farlo. Come un mulino che si auto-alimenta, una volta scelta da IBM ha potuto vendere enormi quantità di micro, con i guadagni migliorare le fabbriche, fare micro che costavano meno della concorrenza, vendere ancora di più, migliorare ancora di più le fabbriche e via.
Perché credi che X86 abbia prima ucciso tutte le altre architetture nel mondo desktop e solo dopo anche in quello dei mainframe, giusto quando ha potuto permettersi di integrare 4 volte il numero di transistor rispetto concorrenza a parità di spazio?
Per alcuni la legge di Moore non è mai valsa, perché non tutti avevano accesso a processi produttivi che miglioravano prima ogni 12, poi 18 e infine 24 mesi

Momento.. Itanium che io sappia è si una architettura nuova creata da intel.. ma non ha mai voluto andare a soppiantare X86, era tesa a contrastare i processori per datacenter che erano appannaggio dei SUN spark.. un settore totalemte diverso.
Itanium e nato dalle ceneri del progetto Merced che aveva come obiettivo quello di superare l'architettura x86. Intel sapeva che sarebbe stata dura a far abbandonare la vecchia architettura, ma contava sul fatto che i nuovi programmi avrebbero guadagnato moltissimo se compilati per la nuova. Un po' come oggi abbiano versioni a 32 e 64 bit dello stesso applicativo. Pensalo a compilato per x86 (32bit) e Merced (64bit). Era un piano di progresso decennale. E costoso.
AMD ovviamente sarebbe stata tagliata fuori totalmente da questo cambiamento, e quindi ha fatto i miracoli per uscire con una modifica a x86 quanto basta per supportare puntatori a 64bit. Anche lei avrebbe potuto fare molto meglio (tipo riordinare registri e istruzioni obsolete), ma non era certo sua intenzione migliorare l'architettura. Solo farla molto in fretta e frenare i piani di Intel che l'avrebbero uccisa del tutto.

Poco costosa, 100% retrocompatibile, nessuna modifica necessaria a compilatori e sistemi di sviluppo, chi mai avrebbe investito in una nuova architettura quando c'era x86-64bit? Tecnicamente il peggio, commercialmente il meglio, ecco fatta la frittata che ci porta oggi ad avere 20 miliardi di transistor su processori che vanno si e no il doppio di quelli del 2006.

tuttodigitale
16-02-2016, 17:53
Vedere te che tra 10 anni sarà Intel stessa ad ammettere che x86 era una architettura nata male ed evoluta peggio solo per mantenere la retrocompatibilità e senza davvero aver apportato vere innovazioni.
Ovviamente lo dirà quando avrà in mano una nuova architettura che darà la birra a questa, ormai giunta al capolinea ben prima della morte della legge di Moore
Peccato che l'architettura PowerPC, faccia davvero fatica a tenere il passo di Haswell. Poi se dici che Intel non produce le migliori architetture al mondo sfondi una porta aperta :read:

Vuoi vedere che l'ISA x86, non fa tanto schifo..

Dai che forse è finita l'era dei core General purpose monolitici grandi come pizze
circa 50mmq sono per i core e il memory controller, per l'attuale cpu skylake.

Solo la sua posizione commerciale le ha permesso di superare la concorrenza che per motivi economici è sempre stata indietro con i processi produttivi
Dietro al SOI, c'era IBM. Il fallimento è sempre possibile quando si fa ricerca. I risultati non sono mica certi. Poi che Intel spende molto di più è un dato incontestabile. E visti i risultati straordinar, anche in ambito mobile, se pensi a quanto rullano i SoC Atom, fa bene ad investire tanto.

Eh si. Purtroppo che il treno ha rallentato parecchio ce ne siamo accorti tutti da un pezzo.
Intel ha quadruplicato le prestazioni per watt, da Nehalem a broadwell/skylake.. Direi che sta andando ancora come un treno, a differenza di AMD ed IBM, che nonostante cambiamenti architetturali ben più profondi di quelle attuate da Intel, si sono accontentate di migliorie minime.

CrapaDiLegno
16-02-2016, 20:27
Peccato che l'architettura PowerPC, faccia davvero fatica a tenere il passo di Haswell. Poi se dici che Intel non produce le migliori architetture al mondo sfondi una porta aperta :read:

Vuoi vedere che l'ISA x86, non fa tanto schifo..


Davvero? L'architettura Power fa fatica a tenere il passo a 32nm SOI contro i 14nm Finfet di Intel? Ma daiiii! Non ci avrei mai scommesso!
E guarda caso, prima che Intel riuscisse a doppiare la concorrenza con il processo produttivo nessuna console ha mai montato x86 (tranne ovviamente la moglie di Intel, chiamata MS).
Montavano tutte prima MIPS, poi proprio quel PowerPC che ora con una densità dimezzata sì, fa un po' di fatica a tenete il passo.
Ma non abbastanza per non essere stata scelta come l'architettura che porterà i supercomputer al exaflop.

Grande, grande architettura quella di Intel,non ci sono dubbi. Portala a 32nm come la concorre e vediamo come se la gioca... In panchina, forse.


circa 50mmq sono per i core e il memory controller, per l'attuale cpu skylake.
[\QUOTE]
A 14nm sono uno sproposito, se poi conti che rispetto a SandyBridge a 32nm le prestazioni sono praticamente invariate. (fai conti di quanti mmq diventano a 32nm)

[QUOTE=tuttodigitale;43385381]
Dietro al SOI, c'era IBM. Il fallimento è sempre possibile quando si fa ricerca. I risultati non sono mica certi. Poi che Intel spende molto di più è un dato incontestabile. E visti i risultati straordinar, anche in ambito mobile, se pensi a quanto rullano i SoC Atom, fa bene ad investire tanto.
[\QUOTE]
Il SOI non è un fallimento. A 45nm AMD ha realizzato architettura che Intel si sognava. Il problema è il fatto che GF e compagnia sono rimaste indietro perché non potevano permettersi gli investimenti di Intel nei processi produttivi. Quando AMD era a 45nm Intel era già ai 32.e mentre AMD passava ai 32 (dove è ancora oggi) con un silicio scarso, Intel passa ai Finfet a 22 poi 14nm. Difficile vincere una gara di F1 quando hai un'auto che pesa 4 volte quella dell'avversario. Ma se arrivi a 1" di distacco, seppur hai perso, non è che l'altro faccia bella figura. Se capisci le differenze in gioco, ovviamente. Se hai 8 anni e ti piace gridare solo, ha vinto ha vinto, allora è un altro discorso.
Poi devi aver visto una realtà parallela, perché gli Atom di Intel non rullano per nulla e nei 2 anni scorsi le sono costati la bellezza di 7 miliardi in incentivi. Non brillavano prima quando Intel paragonava il suo Atom ancora da produrre con l'ultimo PP vs l'architettura superata di ARM realizzata con 2 PP più vecchi (si si, io me li ricordo i confronti tra Cherry Trail e Cortex A9) figurati ora.
E, sempre guarda caso, con lo spostamento della produzione di massa da desktop a mobile, Intel viaggia col freno tirato e gli altri hanno fatto passi mostruosi nei processi produttivi fino a raggiungerla (purtroppo per ora solo per il low power).
Ma con i Soc ARM a 14nm, non c'è spazio per gli Atom. E infatti non mi sembra proprio che le vendite vadano bene per Intel. E infatti ha dismesso gli incentivi perché non sostenibili.

[QUOTE=tuttodigitale;43385381]
Intel ha quadruplicato le prestazioni per watt, da Nehalem a broadwell/skylake.. Direi che sta andando ancora come un treno, a differenza di AMD ed IBM, che nonostante cambiamenti architetturali ben più profondi di quelle attuate da Intel, si sono accontentate di migliorie minime.
Mamma mia, ha quadruplicato le prestazioni x watt!! A parte che è vero solo per i calcoli floating point dove le prestazioni teoriche (e ripeto teoriche) sono aumentate solo perché si è passati da unità di calcolo SIMD da 128 a 512bit, ma ti sei perso lo shrink da 45 a 14nm e dal processo planare a quello Finfet?
Nello stesso lasso di tempo ARM ha fatto passi doppi pur arrivando solo ora al Finfet. Dall'architettura v6 (i palmari pre 2008) alla v8 vedi un po' cosa è cambiato.

Migliorie minime le ultime architetture Power? Figliolo, in quale mondo vivi? In quello dove le migliorie architetturali si chiamano più buffer per la predizione dei salti, più cache, più core (tipo 18 core x 36 thread vs 4 core x 32 thread?).

deggial
16-02-2016, 22:19
Tutte le architetture che conosci sono x86 e arm? Motorola, alpha, mips, spark, PA-risc... Tutte 7nferiori a x86... Si si



No beh, ho citato anche PIC, e conosco anche RISC (che ho "grossolanamente" identificato con ARM, anche se ci sono diversi processori RISC - da te citati).

Cmq è evidente che tu ne sai più di me... dicevo solo che sei stato troppo duro a criticare X86

tuttodigitale
16-02-2016, 22:50
Davvero? L'architettura Power fa fatica a tenere il passo a 32nm SOI contro i 14nm Finfet di Intel? Ma daiiii! Non ci avrei mai scommesso!
A parte il powerpc sono sui 22nm SOI e attualmente le soluzioni server intel concorrenti sono sui 22nm finfet. Comunque io parlavo del pacchetto architettura+silicio. Nel momento in cui il silicio, non fa parte dell'equazione (e perchè mai?), avrei dubbi enormi su quale sia la "migliore" architettura x86.


Montavano tutte prima MIPS, poi proprio quel PowerPC che ora con una densità dimezzata sì, fa un po' di fatica a tenete il passo.
Ma non abbastanza per non essere stata scelta come l'architettura che porterà i supercomputer al exaflop.
Anche 32nm bulk vs 32nm SOI, i powerPC hanno faticato a tenere il passo. Passando da power 7 ai 7+, 45 a 32nm, IBM ha migliorato le prestazioni per watt del 15% (AMD ha fatto meglio, segno che PD è un gioiello di architettura), mentre Intel un robusto +85%.

Grande, grande architettura quella di Intel,non ci sono dubbi. Portala a 32nm come la concorre e vediamo come se la gioca... In panchina, forse.
portarla ai 32nm SOI, semmai. Il bulk di INTEL é straordinario.


Il SOI non è un fallimento. .
mi dai un solo dato che metta in buona luce il 32nm ?
Ti dico il fallimento di AMD:
4,8GHz default -> 4GHz con Resonant Clock Mesh
10 core -> 8 core
95W per tutti i modelli bulldozer, tranne per il top di gamma.


quello IBM
6GHz+ default...credo che basti o no?


Poi devi aver visto una realtà parallela, perché gli Atom di Intel non rullano per nulla e nei 2 anni scorsi le sono costati la bellezza di 7 miliardi in incentivi. Non brillavano prima quando Intel paragonava il suo Atom ancora da produrre con l'ultimo PP vs l'architettura superata di ARM realizzata con 2 PP più vecchi (si si, io me li ricordo i confronti tra Cherry Trail e Cortex A9) figurati ora.
Lato CPU sono efficientissime.
Lato mobile Intel non ha sfruttato per anni il suo vantaggio tecnologico. Prima dei 14nm, le soluzioni per smartphone adottavano processi produttivi "antiquati". Ma se la sono cavata sempre egregiamente lato CPU...
http://www.extremetech.com/computing/144778-atom-vs-cortex-a15-vs-krait-vs-tegra-3-which-mobile-cpu-is-the-most-power-efficient


Mamma mia, ha quadruplicato le prestazioni x watt!! A parte che è vero solo per i calcoli floating point dove le prestazioni teoriche (e ripeto teoriche) sono aumentate solo perché si è passati da unità di calcolo SIMD da 128 a 512bit,

siamo passati da 4 core Nehalem da 2,5GHz 85W a 18 core Haswell 2,3 145W: ovvero l'efficienza aumentata di oltre 3 volte, senza considerare le nuove istruzioni.
Con l'architettura PowerPC questo miglioramento con il doppio passaggio 45->32->22nm non si è verificato.

Ora broadwell dovrebbe portare a 22 core. Se rimangono i 2,3 GHz, siamo nelle prossimità del 4x. (sempre senza considerare le AVX)


A 14nm sono uno sproposito, se poi conti che rispetto a SandyBridge a 32nm le prestazioni sono praticamente invariate. (fai conti di quanti mmq diventano a 32nm)
Crapadilegno, fare il conto è difficile. Considera che i 22nm FINFET, sono dei 26-28nm, che sono stati pubblicizzati per le loro qualità con un nanometraggio ridotto, NON corrispondente al vero. La stessa sorte per i 16FF di TSMC nei confronti dei MEDIOCRI 20nm SoC. La differenza non è nel livello di integrazione ma nell'uso dei finfet. Secondo TSMC le prestazioni per watt sono migliorate di un fattore 2x, senza che ci sia stata effettivamente una riduzione nelle dimensioni dei transistor. In soldoni, visti anche i problemi avuti dai core A57, i 16FF sono i 20nm come dovevano essere fin dal principio. Brava Intel che ha fiutato la necessità dei finfet già dai 28nm, pardon 22. :read:


Nello stesso lasso di tempo ARM ha fatto passi doppi pur arrivando solo ora al Finfet. Dall'architettura v6 (i palmari pre 2008) alla v8 vedi un po' cosa è cambiato.

stai mettendo troppa carne al fuoco. Parlavo di IBM, perchè se poi parliamo di smartphone, non penso che Intel ha fatto peggio...
Comunque siamo passati dai 32nm, nell'avere soluzioni dual core Arrandale da 1,33GHz in 19W, nell'avere con i 14nm soluzioni Soc dual core skylake 1,2GHz con 4,5W di TDP compresa gestione dell'I/O. Intel e ARM, sono arrivate allo stesso punto (SoC per tablet) partendo da posizioni opposte. Il risultato è di tutto rispetto...


Migliorie minime le ultime architetture Power? Figliolo, in quale mondo vivi? In quello dove le migliorie architetturali si chiamano più buffer per la predizione dei salti, più cache, più core (tipo 18 core x 36 thread vs 4 core x 32 thread?).
Mi pare di essere stato chiaro su questo punto: nonostante Intel tra le 3 è quella che ha migliorato in maniera incrementale il suo progetto a partire da Conroe, mentre IBM, ma soprattutto AMD, hanno fatto cambiamenti più profondi, il risultato inequivocabile, è che è stata Intel a beneficiare dei maggiori miglioramenti delle prestazioni.

Gaetano77
17-02-2016, 00:58
Già ormai da diversi anni l'evoluzione delle performance dei processori si è molto rallentata... :rolleyes:

Quando infatti nel 2004 comprai il Pentium 4 3.00 Ghz in firma, mi accorsi che esisteva proprio un abisso prestazionale rispetto al Pentium MMX 166 Mhz del 1997, che andava dalle 20 volte (SuperPI) fino alle 50-60 volte (in alcuni benchmark applicativi), eppure tra le 2 CPU c'erano solo 7 anni di distanza...

I processori attuali (dopo 12 anni) sono comunque molto più veloci di un Pentium 4, ma "solo" di 7-8 volte circa; l'aumento più evidente c'è stato proprio nel passaggio dall'architettura Netburst a quella Core, che ha portato quasi un raddoppio delle performance a parità di frequenza, migliorando anche notevolmente l'efficienza energetica; poi nel passaggio alle generazioni successive il miglioramento è stato ogni volta del 20-30% soltanto.

Siccome anche l'evoluzione del software segue quella dell'hardware, si capisce perchè un Pentium 4 sia al giorno d'oggi ancora utilizzabile per molti impieghi basiliari (almeno i modelli di fascia alta dotati di tecnologia HT) come navigazione internet, lavori da ufficio, riproduzione di musica/video/DVD, mentre 12 anni fa era già quasi impossibile utilizzare una CPU di 12 anni prima, cioè un 486 o anche uno dei primi Pentium.

tuttodigitale
17-02-2016, 07:36
A 14nm (50mm) sono uno sproposito, se poi conti che rispetto a SandyBridge a 32nm le prestazioni sono praticamente invariate. (fai conti di quanti mmq diventano a 32nm)

stando a quanto pubblicato dagli esperti del settore, dai 32nm ai 14nm di Intel, il livello di integrazione è aumentato di 3,2x, di gran lunga inferiore rispetto ai 5,3x teorici.
I 14nm rispetto ai 16nmFF(liscio) e i 20nm di TSMC, permettono di stipare nella stessa superficie, il 37% di transistor in più. In pratica il quad-core skylake sarebbe grande sul processo TSMC circa 70mmq cache e IMC compreso.
Vantaggio piuttosto consistente (25%) anche nei confronti dei 14nm Samsung.

INTEL con i 22nm (che in realtà sono 26nm) ha si ottenuto prestazioni paragonabili ad un vero e proprio die shrink (cosa che non è avvenuta con il passaggio dai 28 ai 20nm per TSMC ad esempio), con l'effetto collaterale, di un livello di integrazione non spinto. Le prestazioni per watt sono aumentate in misura maggiore rispetto alla densità dei transistor (+65%).
Se intel nonostante la pasta del capitano, nella versione 2.0, è riuscita a raggiungere i 4,4GHz in turbo boost, questo è il principale motivo.

La stessa identica cosa è avvenuta per i 16nm FF, che ha ridotto a 0,7x la densità del calore rispetto ai 28nm. Cosa diametralmente opposta è avvenita per i 20nm SoC, ed è l'origine del problema degli A57. Per tanto è ipotizzabile ulteriori aumenti di clock anche per le CPU, ma c'è l'incognita del processo "low power", e per le gpu (basta vedere quanto siano aumentate le frequenze dei SoC per smartphone)

tuttodigitale
17-02-2016, 09:30
Già ormai da diversi anni l'evoluzione delle performance dei processori si è molto rallentata... :rolleyes:

Quando infatti nel 2004 comprai il Pentium 4 3.00 Ghz in firma, mi accorsi che esisteva proprio un abisso prestazionale rispetto al Pentium MMX 166 Mhz del 1997, che andava dalle 20 volte (SuperPI) fino alle 50-60 volte (in alcuni benchmark applicativi), eppure tra le 2 CPU c'erano solo 7 anni di distanza...

Un primo arresto si è avuto nel finire del 2002, quando fu presentato il P4 da 3,06GHz HT. Ci sarebbero voluti altri 3 anni, ed un paio di die shrink, per aumentare il clock del 25%, con consumi aumentati...
Poi il botto c'è stato (software permettendo), con l'arrivo delle prime soluzioni dual core nel 2005. Le prestazioni sono aumentate piuttosto rapidamente fino al 2011, ovvero con la presentazione di Sandy Bridge ed SB-E. Da li in poi il buio. Intel ha si rallentato, ma i concorrenti sono stati praticamente immobilizzati a confronto, e questo si è tradotto in quote di mercato server/hpc sempre più elevate.

In 6 anni abbiamo avuto questo:
Nel 2005, Intel è passata da un pentium D 840 ad un i7 3960x nel 2011 (octa core nativo, con 2 core disabilitati).
Il salto fu enorme anche considerando il pessimo punto di partenza rispetto a quanto proponeva AMD all'epoca.
il salto prestazionale rispetto al periodo 97-2002, è stato condizionato dal fatto che il consumo di energia è stato drasticamente ridotto, mentre il TDP di un p4 era di un ordine di grandezza più elevato di quello del MMX che hai sostituito. Praticamente l'andamento dell'efficienza nei due periodi presi in esame è sovrapponibile.

cdimauro
17-02-2016, 23:16
Dai che forse è finita l'era dei core General purpose monolitici grandi come pizze e si passa ad architetture più leggere dove unità di calcolo diverse fanno lavori diversi in maniera diversa rispetto ad oggi.
Già adesso i SoC integrano coprocessori dedicati a specifiche funzioni.
Vedere te che tra 10 anni sarà Intel stessa ad ammettere che x86 era una architettura nata male ed evoluta peggio solo per mantenere la retrocompatibilità e senza davvero aver apportato vere innovazioni.
8086 è un'architettura frutto del suo tempo, e con tutti i limiti del caso. I progettisti non avevano sfere di cristallo per capire come si sarebbe evoluto il mercato dei microprocessori, che era nato da poco.

Comunque di 8086 è rimasto ben poco nei processori moderni. Non vedo come una manciata di transistor in SoC che ne contengono miliardi possano far gridare allo scandalo.

Ma se vuoi essere preciso sul perché sarebbe nata male e perché si sarebbe evoluta peggio, non hai che da fornire dettagli più precisi, in modo che si possa affrontare una discussione tecnica. Altrimenti, con parole che non dicono niente in merito, non si va da nessuna parte.

Quanto alle innovazioni, ce ne sono state a carrettate. Anzi, Intel è stata tante volte pioniera, come dimostra la sua storia.
Ovviamente lo dirà quando avrà in mano una nuova architettura che darà la birra a questa, ormai giunta al capolinea ben prima della morte della legge di Moore
Una nuova architettura la si può certamente realizzare, ma non perché questa sia arrivata al capolinea (per quale motivo, poi? Non lo dici).

Ma chi ti dice che possa essere molto diversa da quella attuale?
Assistito o imposta per ragioni più commerciali che tecniche e di merito?
Questo capita in tutti i settori: vedi su mobile o su embedded.
Solo la sua posizione commerciale le ha permesso di superare la concorrenza che per motivi economici è sempre stata indietro con i processi produttivi.
Sui processi produttivi, le dimensioni dei core, i consumi, le prestazioni, la scalabità ha già abbondantemente e precisamente risposto tuttodigitale, che peraltro è di gran lunga più competente, per cui eviterò d'intervenire.
Non confondere l'enorme capacità tecnica nei processi produttivi che ha mantenuto valida una architettura nata vecchia con le caratteristiche dell'architettura stessa.
Perché sarebbe nata vecchia? Sii preciso. E fallo contestualizzando.
Prova a chiederti perché con tutte queste presunte capacità Intel nel mondo embedded praticamente non esiste.
Veramente è presente da parecchio tempo. Mai sentito parlare della famiglia 805x? L'ha pure licenziata ad altre aziende.
Nel mondo embedded la retrocompatibilità vale zero e tanto meno il supporto a Windows. Sono ben altre le caratteristiche richieste. E guarda caso dove mancano le prime due Intel non esiste.
Dopo l'antico mercato embedded sono arrivati gli smartphone, che condividono con il primo la non necessità dei punti esposti sopra. E guarda caso, Intel non c'è.
Intel non c'è con x86, ma ci sta entrando, con risultati positivi. Specialmente nel mercato embedded, la divisione è in netta, continua, e ben consistente crescita.

Su quello mobile molto meno, ma ne abbiamo già discusso l'ultima volta che hai tirato fuori l'argomento.
Sarà tutta una coincidenza o è evidente che là dove le politiche commerciali non contano rispetto alle caratteristiche della propria architettura Intel ha fallito? Devo ricordare il progetto Merced (poi Itanium) per ulteriore conferma?
Devo ricordarti che all'epoca Intel non era certo un colosso nel mercato server (tutt'altro)? Devo ricordarti EPIC (di cui Merced e Itanium sono due rappresentanti) è nata dalla collaborazione di Intel E (congiunzione) HP? Devo ricordarti che era un progetto di lungo termine? Devo ricordarti che è stato ammazzato dall'arrivo di x86-64 di AMD?
Sono 40 anni che abbiamo le mani legate a quello che Intel ci ha proposto.
Ma anche no. Intel non ha certo dominato con la sua architettura IA-32. Tutt'altro. L'ha fatto soltanto DOPO che i PC si sono diffusi, togliendo di mezzo Amiga, Atari, Mac, Archimedes, et similia. Dunque nei primi anni '90. E quindi ben dopo l'introduzione dell'8086.
Quando una volta decise finalmente di cambiare pagina arrivò AMD con l'estensione 64bit che ha fermato nuovamente tutto.
Ha fermato EPIC, ma ha migliorato notevolmente l'ISA, togliendo anche di mezzo un po' di roba legacy (le istruzioni più complesse e/o obsolete sono sparite, come pure la segmentazione a eccezione di alcune piccole cose).
Ora siamo al capolinea. Si spera in una vera rivoluzione.
Tipo?
E si spera che non sia più una sola azienda a decidere come dovrà essere la roadmap del progresso informatico mondiale.
Non è mai stato così.
io non ne so moltissime, ma un po' di storia X86 vs. ARM me la sono letta. Dall'idea che me ne sono fatto, gli ARM agli albori non erano adatti al calcolo general purpose, ora invece sì.
No, erano adatti al calcolo general purpose.

Però le prime due versioni, ARM1 e 2, dell'architettura erano nate male (e questo per davvero), essendo castrate come spazio d'indirizzamento a 26 bit (massimo 64MB).

Persino il vecchissimo 68000 poteva indirizzare 64MB di base (16MB per ogni function code), e il 68012 poteva indirizzare 1GB (per ogni function code).

Hanno risolto soltanto parecchi anni dopo, con ARM3.
Che ci sia un ritorno a processori specializzati, come ai tempi dell'Amiga? (giusto per citare un esempio).

In effatti alla fine per l'uso quotidiano non servono prestazioni folli, tranne per alcune attività specifiche che richiedono grande potenza computazionale. Per quelle attività dei DSP ad hoc potrebbero garantire prestazioni molto elevate e consumi bassissimi (al prezzo di una minore versatilità).
Infatti ci sono già. Se "apri" un SoC trovi diversi coprocessori specializzati, e la CPU in genere occupa l'area minore.
In realtà ci aveva provato, con Itanium. Il risultato è stato un fallimento.
L'inerzia dovuta all'enorme quantità di software esistente per questa architettura è un treno piuttosto difficile da frenare.
Il problema di Itanium è stato x86-64 di ARM, che ha traghettato l'architettura x86 verso i 64 bit, con una transizione morbida, consentendole di aggredire il mercato server, che all'epoca era di dominio di diversi RISC.
Se in futuro ci si liberrerà di questo fardello (credo che MS ci abbia già provato con .NET e WinRT e ora ci stia provando con le applicazioni universali), allora questo passaggio potrà essere fatto, ma sarà sempre difficile fino a quando non ci saranno investimenti sufficienti in architetture alternative.
Se dovessero servire.
Ma chi investe? Ad Intel probabilmente non conviene vista la posizione di x86. Altri dovrebbero prima trovare un mercato adatto a questo target di processori, perchè non si possono investire miliardi senza un rientro economico. Oggi forse ARM è quella che ha le carte migliori, dato che i processori con questa architettura, anche grazie al loro utilizzo sui server, si stanno pian piano trasformando in prodotti ad alte prestazioni.
ARM ha già tirato fuori ARMv8 AKA ARM64: non avrebbe senso tirarne fuori un'altra.

Intel al momento riesce a competere tranquillamente con x64, per cui non ha motivi per dover cambiare. Anzi, continua a innovare più che mai. Vedrai con AVX-512. :cool:
Momento.. Itanium che io sappia è si una architettura nuova creata da intel.. ma non ha mai voluto andare a soppiantare X86, era tesa a contrastare i processori per datacenter che erano appannaggio dei SUN spark.. un settore totalemte diverso.
Il piano iniziale era di entrare (finalmente) nel mercato server. In particolare di quelli ad alte prestazioni e mission critical.

Poi si sarebbe passati su PC, ma dopo un bel pezzo. Questo perché all'epoca l'architettura x86, che era a 32-bit, era sufficiente allo scopo. Non si sentiva l'esigenza di una a 64-bit.

Nel frattempo EPIC/Itanium/IA64 avrebbe avuto modo di diffondersi e consolidare la sua posizione (c'era anche Windows!), per facilitare il traghettamento.
Tutte le architetture che conosci sono x86 e arm? Motorola, alpha, mips, spark, PA-risc... Tutte 7nferiori a x86... Si si
Beh, molte sono morte...
Perché credi che X86 abbia prima ucciso tutte le altre architetture nel mondo desktop e solo dopo anche in quello dei mainframe, giusto quando ha potuto permettersi di integrare 4 volte il numero di transistor rispetto concorrenza a parità di spazio?
Nel mondo desktop oltre a x86 c'era sostanzialmente solo Motorola coi 68000. Ed è stata Motorola, non Intel, ad ammazzare la sua creatura...
AMD ovviamente sarebbe stata tagliata fuori totalmente da questo cambiamento, e quindi ha fatto i miracoli per uscire con una modifica a x86 quanto basta per supportare puntatori a 64bit.
Ma anche no: x86-64 ha portato ben altro. E per fortuna!
Anche lei avrebbe potuto fare molto meglio (tipo riordinare registri e istruzioni obsolete),
Veramente le istruzioni più obsolete e complesse le ha fatte sparire. Hai mai dato un'occhiata a com'è fatta x86-64? Mi pare proprio di no.

Quanto al riordino dei registri, cosa intendi?
ma non era certo sua intenzione migliorare l'architettura.
Anche qui sbagli, perché è proprio quello che ha fatto. In base a cosa sostieni il contrario?
Poco costosa,
Infatti ha richiesto solo il 5% in più di transistor.
100% retrocompatibile,
Solo col vecchio codice x86.
nessuna modifica necessaria a compilatori e sistemi di sviluppo,
Assolutamente no! Eccome se sono state necessarie modifiche. Sarebbe stato impossibile sfruttare x86-64, altrimenti.
prima che Intel riuscisse a doppiare la concorrenza con il processo produttivo nessuna console ha mai montato x86 (tranne ovviamente la moglie di Intel, chiamata MS).
E non a caso la miglior console fu proprio la XBox: nettamente superiore a PS2 e GameCube.
E, sempre guarda caso, con lo spostamento della produzione di massa da desktop a mobile, Intel viaggia col freno tirato
Ma anche no.
e gli altri hanno fatto passi mostruosi nei processi produttivi fino a raggiungerla (purtroppo per ora solo per il low power).
Cos'avrebbero raggiunto?
Ma con i Soc ARM a 14nm, non c'è spazio per gli Atom. E infatti non mi sembra proprio che le vendite vadano bene per Intel. E infatti ha dismesso gli incentivi perché non sostenibili.
Ne abbiamo già parlato: perché torni a ripetere a pappagallo le stesse cose? Rileggiti i precedenti commenti, e se hai qualcosa da dire, fallo in quei thread.

Comunque tuttodigitale ha già risposto. E infatti sei nuovamente sparito...
Mamma mia, ha quadruplicato le prestazioni x watt!! A parte che è vero solo per i calcoli floating point
Falso: anche per gli interi. AVX-2, infatti, colma le lacune di AVX proprio sugli interi!!! AVX aveva introdotto il supporto sostanzialmente per i soli floating point.

Hai mai aperto un manuale delle architetture x86? Mi pare proprio di no.
dove le prestazioni teoriche (e ripeto teoriche)
Perché, gli altri processori sono diversi? Mi faresti un esempio?
sono aumentate solo perché si è passati da unità di calcolo SIMD da 128 a 512bit,
Ma anche no: le AVX-512 devono ancora arrivare. A 512 bit c'è solo il vecchio Xeon Phi, ma serve esclusivamente in ambito HPC / massiccio calcolo parallelo, e la sua ISA non è compatibile AVX-512 (lo sarà solo a partire da Knight Landing).

AVX-2 è "fermo" a 256 bit. E, purtroppo, risulta ancora poco sfruttato.

calabar
18-02-2016, 00:10
Infatti ci sono già. Se "apri" un SoC trovi diversi coprocessori specializzati, e la CPU in genere occupa l'area minore.

Il problema di Itanium è stato x86-64 di ARM, che ha traghettato l'architettura x86 verso i 64 bit, con una transizione morbida, consentendole di aggredire il mercato server, che all'epoca era di dominio di diversi RISC.

ARM ha già tirato fuori ARMv8 AKA ARM64: non avrebbe senso tirarne fuori un'altra.
1) Mi riferivo al mercato PC (dove già qualcosina c'è, per esempio quicksync di Intel, ma è ancora poca roba).
Nel mobile, dove queste cose hanno maggiore importanza, ci si è arrivati prima.

2) Direi che intendevi "di AMD" ;)

3) Non intendo dire un altro set di istruzioni ARM, ma di un'architettura votata maggiormente alle alte prestazioni.
Non è comunque da escludere che un nuovo set di istruzioni possa essere introdotto, del resto anche i processori per PC integrano sempre nuove istruzioni, ma anche gli ARM in passato hanno avuto delle "aggiunte" (vedi le ARMv7 a cui hanno aggiunto le istruzioni simd NEON).

cdimauro
18-02-2016, 05:52
1) Mi riferivo al mercato PC (dove già qualcosina c'è, per esempio quicksync di Intel, ma è ancora poca roba).
Veramente c'è anche altro, e di molto interessante. E no, non è la GPU. :fiufiu: :D
Nel mobile, dove queste cose hanno maggiore importanza, ci si è arrivati prima.
Nel mobile devi contenere i consumi in primis, per cui soluzioni più specializzate si rendono necessarie.
2) Direi che intendevi "di AMD" ;)
Sì, grazie per la correzione. E' stato un lapsus, e con una sola lettera di differenza può capitare. :D
3) Non intendo dire un altro set di istruzioni ARM, ma di un'architettura votata maggiormente alle alte prestazioni.
Non è comunque da escludere che un nuovo set di istruzioni possa essere introdotto, del resto anche i processori per PC integrano sempre nuove istruzioni, ma anche gli ARM in passato hanno avuto delle "aggiunte" (vedi le ARMv7 a cui hanno aggiunto le istruzioni simd NEON).
E' già stato fatto: ARMv8 è un'architettura appositamente votata alle prestazioni, che è molto diversa da quella a 32 bit. E' proprio un set d'istruzioni diverso, anche se in buona parte retrocompatibile (SE non usi le istruzioni condizionate, che sono ormai limitate a poche).

ARM ha pure presentato una nuova FPU e unità SIMD con questa ISA.

Dunque escludo del tutto la possibilità che ne possa tirare fuori altre.

Al massimo continuerà ad aggiungere istruzioni e funzionalità, per l'appunto.

calabar
18-02-2016, 07:18
Veramente c'è anche altro, e di molto interessante. E no, non è la GPU. :fiufiu: :D

Nel mobile devi contenere i consumi in primis, per cui soluzioni più specializzate si rendono necessarie.

E' già stato fatto: ARMv8 è un'architettura appositamente votata alle prestazioni, che è molto diversa da quella a 32 bit.
1) Ma la parte del leone nelle solite operazioni di calcolo continua a farla la CPU. Io intendevo il trasferire in hardware operazioni più comuni (chessò, parte dei principali algoritmi di compressione per esempio).
PS: beh, la GPU possiamo considerarla un "coprocessore", ma non è un DSP. ;)

2) Esattamente, ma anche la necessità di raggiungere certi livelli di prestazioni. Comunque si, il concetto è quello.

3) Vorrei capire però "quanto" è rivolta alle prestazioni. Sicuramente lo è, del resto il mercato server lo richiedeva (e qui si torna al discorso si prima sulla necessità di avere un mercato su cui monetizzare gli investimenti).
Ho però l'impressione che non sia ancora adatta ad aggredire mercati come quello workstation o HPC.

cdimauro
19-02-2016, 21:46
1) Ma la parte del leone nelle solite operazioni di calcolo continua a farla la CPU. Io intendevo il trasferire in hardware operazioni più comuni (chessò, parte dei principali algoritmi di compressione per esempio).
PS: beh, la GPU possiamo considerarla un "coprocessore", ma non è un DSP. ;)
Sì arriverà anche a questo in ambito consumer. Attualmente roba del genere è più utile server-side, e ci sono processori che hanno appositi acceleratori hardware (i PowerPC implementano Zip e XML, se non ricordo male).
3) Vorrei capire però "quanto" è rivolta alle prestazioni. Sicuramente lo è, del resto il mercato server lo richiedeva (e qui si torna al discorso si prima sulla necessità di avere un mercato su cui monetizzare gli investimenti).
ARMv8 nasce per le prestazioni. Non è un caso che l'ISA sia molto simile ad Alpha e MIPS.
Ho però l'impressione che non sia ancora adatta ad aggredire mercati come quello workstation o HPC.
Servirebbe una microarchitettura con la parte SIMD e/O FPU potenziata (ma ha costi non indifferenti), oppure un'unità SIMD moderna e "wide".

Quest'ultimo caso è più difficile, visto che ARM ha già presentato la nuova unità SIMD con ARMv8, e lo spazio degli opcode a 32 bit è troppo ridotto per sfornarne un'altra.

Ciò a meno di trucchetti come rimappare al volo la modalità d'esecuzione (vedi ARM vs Thumb, o Thumb vs Thumb-EE), che però penso che ARM voglia evitare con la sua nuova architettura, perché è più complicata da gestire (anche per il codice da generare), mentre ARMv8 è votata anche alla semplicità.

CrapaDiLegno
22-02-2016, 12:36
Già adesso i SoC integrano coprocessori dedicati a specifiche funzioni.

8086 è un'architettura frutto del suo tempo, e con tutti i limiti del caso. I progettisti non avevano sfere di cristallo per capire come si sarebbe evoluto il mercato dei microprocessori, che era nato da poco.

Comunque di 8086 è rimasto ben poco nei processori moderni. Non vedo come una manciata di transistor in SoC che ne contengono miliardi possano far gridare allo scandalo.

Ma se vuoi essere preciso sul perché sarebbe nata male e perché si sarebbe evoluta peggio, non hai che da fornire dettagli più precisi, in modo che si possa affrontare una discussione tecnica. Altrimenti, con parole che non dicono niente in merito, non si va da nessuna parte.

Quanto alle innovazioni, ce ne sono state a carrettate. Anzi, Intel è stata tante volte pioniera, come dimostra la sua storia.

Una nuova architettura la si può certamente realizzare, ma non perché questa sia arrivata al capolinea (per quale motivo, poi? Non lo dici).

Sui processi produttivi, le dimensioni dei core, i consumi, le prestazioni, la scalabità ha già abbondantemente e precisamente risposto tuttodigitale, che peraltro è di gran lunga più competente, per cui eviterò d'intervenire.

Perché sarebbe nata vecchia? Sii preciso. E fallo contestualizzando.

Veramente è presente da parecchio tempo. Mai sentito parlare della famiglia 805x? L'ha pure licenziata ad altre aziende.

Intel non c'è con x86, ma ci sta entrando, con risultati positivi. Specialmente nel mercato embedded, la divisione è in netta, continua, e ben consistente crescita.

Su quello mobile molto meno, ma ne abbiamo già discusso l'ultima volta che hai tirato fuori l'argomento.

Ma anche no. Intel non ha certo dominato con la sua architettura IA-32. Tutt'altro. L'ha fatto soltanto DOPO che i PC si sono diffusi, togliendo di mezzo Amiga, Atari, Mac, Archimedes, et similia. Dunque nei primi anni '90. E quindi ben dopo l'introduzione dell'8086.


Quoto poco che sennò facciamo Natale.
Caro CdM, le discussioni con rendono sempre le stesse. Arrivi all' ultimo, quoti tutti, fai 4 battute, fai finta di non capire quello che fa fare brutta figura alla tua azienda e sostiene 7n sacco di accuse ingiustificate.

Che tu non voglia ammettere i limiti dell'architettura x86 nata con 4 registri in croce, istruzioni non ortogonali e segmentazione di memoria che in 20 ha richiesto diverse estensioni, è ormai palese.

Hai detto un sacco di parole e formulato diverse false domande di chiarimento quando la sintesi è semplicemente che Intel ha ucciso tutti i concorrenti perché ha potuto soppiantare grazie ad un vantaggio sui processi produttivi che nessun altro si è mai potuto permettere. Motorola non ha ucciso un bel niente. I problemi di Motorola era semplici: quantità di unità venduto scarse, inutile continuare a far evolvere una architettura così. Ci avesse buttato i soldi di Intel perché ne vendeva altrettanti, oggi probabilmente non saremmo fermi da 6 anni con le stesse prestazioni.

Non puoi non aver capito che il capolinea di x86 è già arrivato, visto che nonostante la legge di Moore che Intel faticosamente persegue, le prestazioni sono ferme.
Non puoi non aver capito che gli altri non sono in queste condizioni. Arm, che vende e fa guadagnare parecchio alle fonderie e ha motivo di far crescere le sue architetture dal 2010 a oggi ha fatto progressi che comparati a quelli di Intel l'affanno sembrare preistoria.

Ora io capisco che tu sia dipendente Intel e vieni qui a spezzare vagoni di lance a favore della tua azienda, ma è pure palese che spesso intervieni senza causa. Parte di quello che hai detto è lo stesso che ho detto io (e che al solito non hai capito) ma se vuoi rimandare il passato per tentare di gettare ombre sul tuo interlocutore possiamo tornare a parlare degli incentivi e dei 100 dollari a singolo pezzo che secondo te erano per il modem, del fatto che credevi che Intel avrebbe sfondato nel mobile, forse perché non hai mai capito con quale prodotto Intel si paragonava con il suo ultimo gioiello appena sfornato dalla high risk production, che ignori che Intel nell'embedded, mercato nel quale io lavoro, non esiste... Insomma arrivi, cerchi di convincerci (e secondo me anche convincerti) delle tue striminzite vedute che non comprendono tutto lo scenario ma solo il dettaglio su cui ti impuniti x aver ragione, e poi alla fine quando alzi lo sguardo vedi un mondo completamente diverso da quello che descrivi, ma fai finta di nulla, e torni a impuntarti su un'altra sciocchezza e via così.

Lo scenario che vediamo oggi è quello che ho descritto qualche annetto fa: fine del dominio del processo produttivo = fine del dominio di Intel.
Non c'è vantaggio che Intel possa inventare o sbandierare di aver fatto che la rende migliore degli altri. L'unico reale è la compatibilità con Windows classico. Ma il mercato è cambiato e altri dispositivi Windows free sono arrivati. Cambiato tutto il paradigma che alimentava le casse di Intel. Cambiato il vento. E, mi spiace che tu lo venga a sapere così, ma non saranno le vuole AVX a salvarla.

Ora ti saluto con affetto che sono con il cellulare e scrivere oltre mi fa venire il mal di testa.

cdimauro
22-02-2016, 16:57
Quoto poco che sennò facciamo Natale.
Caro CdM, le discussioni con rendono sempre le stesse. Arrivi all' ultimo,
Non vivo per il forum, e poi ho postato dopo appena un giorno e mezzo dalla notizia: quale sarebbe il problema?
quoti tutti, fai 4 battute, fai finta di non capire quello che fa fare brutta figura alla tua azienda e sostiene 7n sacco di accuse ingiustificate.
Non scambiamoci gli abiti: quello che spara bordate senza alcuna giustificazione sei tu. Ho chiesto conto di quello che hai scritto, e ovviamente non hai fornito la benché minima risposta. Nulla di nuovo...
Che tu non voglia ammettere i limiti dell'architettura x86 nata con 4 registri in croce, istruzioni non ortogonali e segmentazione di memoria che in 20 ha richiesto diverse estensioni, è ormai palese.
Li conosco molto bene i limiti: ho anche scritto una serie di ben 9 articoli, in cui ho esaminato dettagliatamente ogni cosa.

Mi sfugge, però, quali problemi ponga la vecchia architettura 8086 all'interno delle attuali implementazioni. Ti ho fatto una precisa domanda in merito, a cui al solito manca la risposta.
Hai detto un sacco di parole
Tu invece no, vero? La differenza, però, sta in quello che si dice. Nello specifico, le chiacchiere da bar rimangono tali senza argomentazioni e fatti a loro supporto.
e formulato diverse false domande di chiarimento
False in che senso? Se è nel senso che sono volte a dimostrare la falsità di quello che hai scritto, allora confermo che lo scopo era quello. Però in questo caso non si parla di false domande, ma di domande retoriche.

A meno che non volessi dire altro, e allora dovresti specificare meglio ciò che intendevi con ciò.
quando la sintesi è semplicemente che Intel ha ucciso tutti i concorrenti perché ha potuto soppiantare grazie ad un vantaggio sui processi produttivi che nessun altro si è mai potuto permettere.
Su questo ha già risposto tuttodigitale, PRIMA di me, sul quale non hai avuto nulla da dire.
Motorola non ha ucciso un bel niente. I problemi di Motorola era semplici: quantità di unità venduto scarse, inutile continuare a far evolvere una architettura così.
Intanto i numeri c'erano, eccome, perché con la famiglia 68000 Motorola serviva Amiga, Atari, Apple, e poi una miriade di altri sistemi, dalle workstation e server, fino agli arcade, e console varie (SNK NeoGeo e SEGA Genesis/Megadrive). Infatti è stata una delle più prolifiche architetture... finché è durata.

Ma da quel che hai scritto è evidente che, oltre a x86 e x64, sconosci del tutto l'architettura 68000, e non sai quanto complessa fosse (ben di più di quella x86), e di conseguenza quanto sia stato problematico per Motorola spingerne le prestazioni.

Basti vedere le difficoltà che ha avuto prima col 68040, e poi col 68060, che hanno decretato la fine di questa famiglia, e il passaggio di Motorola ai PowerPC.
Ci avesse buttato i soldi di Intel perché ne vendeva altrettanti, oggi probabilmente non saremmo fermi da 6 anni con le stesse prestazioni.
Su questo c'è un articolo di Anandtech che ti smentisce, e che è stato postato già tempo fa. Ma è sempre comodo tornare con la solita solfa, vero?
Non puoi non aver capito che il capolinea di x86 è già arrivato, visto che nonostante la legge di Moore che Intel faticosamente persegue, le prestazioni sono ferme.
Ma anche no, e ti è stato risposto anche da tuttodigitale. Al solito, hai evitato di rispondere.
Non puoi non aver capito che gli altri non sono in queste condizioni. Arm, che vende e fa guadagnare parecchio alle fonderie e ha motivo di far crescere le sue architetture dal 2010 a oggi ha fatto progressi che comparati a quelli di Intel l'affanno sembrare preistoria.
ARM non era ai livelli di Intel, per cui è ovvio che abbia spinto molto per portare le sue architetture ad avere buone prestazioni.

Non aveva nemmeno un'architettura a 64 bit, e questa era un'enorme mancanza a cui ha provveduto soltanto di recente.
Ora io capisco che tu sia dipendente Intel e vieni qui a spezzare vagoni di lance a favore della tua azienda,
Questo è il classico attacco ad hominem: una fallacia logica molto comune, che viene usata da chi non riesce a controbattere ai fatti e alle argomentazioni riportati.
ma è pure palese che spesso intervieni senza causa.
Non ti sarà difficile dimostrarlo, allora. Son qui che aspetto...
Parte di quello che hai detto è lo stesso che ho detto io
La cosa mi sorprende alquanto. Mi faresti vedere in cosa e come?
(e che al solito non hai capito)
Aspetto la tua spiegazione, allora. Ma non farmi invecchiare, nel frattempo...
ma se vuoi rimandare il passato per tentare di gettare ombre sul tuo interlocutore
Tranquillo: le ombre ci sono perché ci sono solidi casi che le proiettano. Ecco perché il passato serve, eccome.
possiamo tornare a parlare degli incentivi e dei 100 dollari a singolo pezzo che secondo te erano per il modem,
Guarda che questa notizia è stata riportata per prima da un ex-dipendente Qualcomm.
del fatto che credevi che Intel avrebbe sfondato nel mobile,
Veramente ho sempre detto una cosa ben diversa: che si sarebbe ritagliata uno spazio in questo mercato.

Ma sei libero di quotarmi e farmi vedere che non è così, eh!
forse perché non hai mai capito con quale prodotto Intel si paragonava con il suo ultimo gioiello appena sfornato dalla high risk production,
Visto che non l'ho mai capito, perché non ne parli chiaramente?
che ignori che Intel nell'embedded, mercato nel quale io lavoro, non esiste...
I bilanci dell'azienda, che con tanta cura visioni a ogni report, dimostrano l'esatto contrario: la divisione IoT è da tempo in costante e sostanziosa crescita.
Insomma arrivi, cerchi di convincerci (e secondo me anche convincerti) delle tue striminzite vedute che non comprendono tutto lo scenario ma solo il dettaglio su cui ti impuniti x aver ragione, e poi alla fine quando alzi lo sguardo vedi un mondo completamente diverso da quello che descrivi, ma fai finta di nulla, e torni a impuntarti su un'altra sciocchezza e via così.
Le uniche sciocchezze sono quelle che hai riportato, per le quali ti ho chiesto conto e ragione, e sulle quali hai sistematicamente evitato d'intervenire, per le ovvie carenze che hai sempre mostrato.

Poi quando la smetterai di parlare genericamente e astrattamente sui massimi sistemi, e metterai in chiaro il tuo pensiero, potremo finalmente far sentire la nostra opinione.

Nel frattempo il tuo rimane il solito cianciare...
Lo scenario che vediamo oggi è quello che ho descritto qualche annetto fa: fine del dominio del processo produttivo = fine del dominio di Intel.
Non c'è vantaggio che Intel possa inventare o sbandierare di aver fatto che la rende migliore degli altri. L'unico reale è la compatibilità con Windows classico. Ma il mercato è cambiato e altri dispositivi Windows free sono arrivati. Cambiato tutto il paradigma che alimentava le casse di Intel. Cambiato il vento.
Ne riparleremo quando finirà tutto E gli altri avranno agguantato Intel.
E, mi spiace che tu lo venga a sapere così, ma non saranno le vuole AVX a salvarla.
Le AVX fanno parte di quel contributo prestazionale che tu ignori, come anche ignori del tutto come siano fatte, come hai ampiamente dimostrato, visto che non hai mai aperto un manuale dell'architettura x86/x64.
Ora ti saluto con affetto che sono con il cellulare e scrivere oltre mi fa venire il mal di testa.
La prossima volta impiegalo meglio il tuo tempo, rispondendo alle questioni che hai posto e che ti sono state contestate (non soltanto da me).

Non capisco perché ami scrivere a ruota libera di tutto, tranne che per fornire queste risposte.

Ti faccio notare che le domande e le contestazioni nascono esclusivamente da ciò che hai scritto, per cui dovrebbe essere tuo interesse farlo, no?

Il problema è che, come al solito, parli di cose che sconosci del tutto, e lo fai attingendo alle solite leggende metropolitane che circolano. Da cui si vedono le macroscopiche balle che hai scritto su 8086, x86, x64, e infine AVX.

Ma è così difficile parlare soltanto di cose di cui si ha una, almeno discreta, conoscenza?