Niente più Tick-Tock per Intel: è tempo di Process-Architecture-Optimization

L'evoluzione costante delle tecnologie produttive porta a una complessità sempre maggiore da dover affrontare. Questo ha portato al superamentoall'approccio a due fasi al debutto di nuove CPU, sostituito da una cadenza a tre
di Paolo Corsini pubblicata il 23 Marzo 2016, alle 15:51 nel canale ProcessoriIntelSkylakeCore
64 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infola vera botta però lato gpu dove si passa dai 130gflops del sandy ai 440 del skylake
E SCUSA SE E' POCO
di ipc (la frequenza è fissa), ma le frequenze sono più alte
Ok, prendo tutto per buono.
Ma sta di fatto che alla prova dei fatti l'aumento di prestazioni in cinque anni è piutosto misero. Specie se poi lo paragoniamo agli incrementi prestazionali a cui abbiamo assistito in passato.
Un fatto questo che sto sperimentando in prima persona.. il mio 2600K compirà 5 anni esatti a giugno e mentre in passato mi trovavo ad avere un pc decisamente sorpassato che non era più papabile per i giochi recenti oggi mi trovo un pc ancora pienamente valido, in grado di far girare qualsiasi titolo senza particolari limiti, il che vuol dire che non avrò esigenza di cambiarlo per almeno un anno ancora, ma anche due credo..
Senza contare poi che ho ancora la carta dell'overclock da giocare per ottenere almeno un 15% di potenza extra.
In tal caso potrebbe anche evitare di presentare nuovi processori, investendo inutilmente soldi in nuovi progetti, non credi?
AMD in questo caso non c'entra nulla, l'abbandono del Tick-Tock è dovuto alle sempre maggiori difficoltà di sviluppo dei nuovi processi produttivi, a cui neppure Intel può sottrarsi.
Esattamente.
1) Processi produttivi sempre più difficili da shrinkare
2) Concorrenza di AMD completamente assente.
Non è un caso se dal 2011, con sandy bridge, ad oggi 2016, le CPU intel avranno si e no migliorato le performance del 15% a parità di clock...
Tra un 2600K a 4.0Ghz ed un 6600K a 4.0Ghz le differenze di perfomance sono irrisorie...
Su questo hanno già risposto altri. Aggiungo che, oltre alle maggiori prestazioni delle GPU integrate, sono state potenziate anche le unità SIMD, sebbene sia ben poco il codice che ne faccia uso (mi riferisco ad AVX e AVX-2, nello specifico).
Falso. E' soltanto di recente che ci sono state delle difficoltà.
Mi mostreresti dov'è che non sarebbe stata più rispettata?
Vergogna !
Da quando ci si deve vergognare delle leggi delle fisica?
A questo punto perché non tiravi direttamente in ballo l'introduzione del primo transistor, e l'aumento delle prestazioni che c'è stato negli anni successivi?
In passato l'aumento delle prestazioni era legato sia al maggior numero di transistor impacchettato (che incideva in maniera più consistente nell'IPC) sia alle maggiori frequenze che si raggiungevano.
Da un po' di anni tutto ciò non è più possibile, e il Pentium-4 ne è stata la dimostrazione: doveva raggiungere i 10Ghz entro il 2010, e invece s'è fermato poco sotto i 4Ghz. Frequenza, questa, che è stata raggiunta stabilmente solo di recente.
Quanto all'IPC, ormai i decoder delle istruzioni sono molto efficienti, come pure unità di branch prediction, cache TLB, ecc.. Ecco perché, pur impaccando più transistor per queste unità, gli aumenti di prestazioni sono ormai relegati a pochi punti percentuali.
Ormai le uniche due variabili che portano a consistenti incrementi di prestazioni sono il multicore e l'unità SIMD. Per entrambe, però, serve codice appositamente realizzato. Cosa che, peraltro, non si applica tutto il codice. Tutt'altro.
La concorrente di Intel è ARM, e già da un pezzo.
Ci sono e si vedono bene nello sviluppo in costante rallentamento delle CPU.
Però questo vale per intel tanto quanto per AMD.
Ed è anche innegabile che se Intel avesse il fiato di AMD sul collo di certo ci darebbe dentro un tantino di più.
Vedi sopra: non è certo per questo che Intel sia rimasta con le braccia conserte.
I benefici di architetture migliori li può benissimo spendere per competere con ARM. Non farlo, quando ha difficoltà a ritagliarsi una fetta nel mercato mobile, sarebbe del tutto ridicolo.
Ecco perché non ha alcuna senso parlare di mancanza di concorrenza.
Sai com'è: nei chip di oggi integrano parecchi cose. Tra cui la GPU (e molto altro).
TUTTO ciò contribuisce al budget dei transistor.
Gli Xeon sono relegati ad altri mercati: non ha senso proporre roba simile in altri ambiti, come quello desktop, che hanno altre esigenze.
Qual è il problema qui?
Idem come sopra.
Perché per la stragrande maggioranza degli utenti è sufficiente ai loro scopi, e non hanno bisogno di comprarne una discreta.
La Pro serve ad altro. E l'eDRAM integrata, peraltro, è utile ANCHE ai core della componente CPU, visto che funge sostanzialmente da cache L4, e dunque contribuisce al miglioramento delle prestazioni (sebbene marginalmente: miracoli non è possibile farne, per quanto detto prima).
Se hai esigenze particolari puoi benissimo buttarsi su uno Xeon...
purtroppo sono tutte cose dietro cui io sbavo quindi mi tocca!
Oddio.. non è proprio un obbligo eh. (se hai un fisso intendo)
Perchè se la gpu integrata è scarsa con cento euro ti fai una discreta che seppur low level è ampiamente più performante ad oggi.
Per quanto riguarda usb 3 o thunderbolt basta una scheda aggiuntiva anche qui con spesa contenuta.
Vedi sopra: non è certo per questo che Intel sia rimasta con le braccia conserte.
I benefici di architetture migliori li può benissimo spendere per competere con ARM. Non farlo, quando ha difficoltà a ritagliarsi una fetta nel mercato mobile, sarebbe del tutto ridicolo.
Ecco perché non ha alcuna senso parlare di mancanza di concorrenza.
Mmmmmmah.. non saprei.
E' anche vero che adesso ARM è molto cambiata agli occhi del panorama tecnologico.. ma credo che almeno adesso non sia definibile un concorrente per quanto concerne l'ambito PC.
Sono ancora due mondi definiti e distinti.
Potremo parlare davvero di concorrenza diretta sui pc quando esisteranno PC ARM su cui gireranno software e sistemi operativi al pari di quelli che ora usiamo su desktop.
E quando ovviamente ci saranno cpu arm in grado di macinare la stessa potenza di calcolo di una cpu intel di fascia alta.
E' anche vero che adesso ARM è molto cambiata agli occhi del panorama tecnologico.. ma credo che almeno adesso non sia definibile un concorrente per quanto concerne l'ambito PC.
Sono ancora due mondi definiti e distinti.
Potremo parlare davvero di concorrenza diretta sui pc quando esisteranno PC ARM su cui gireranno software e sistemi operativi al pari di quelli che ora usiamo su desktop.
E quando ovviamente ci saranno cpu arm in grado di macinare la stessa potenza di calcolo di una cpu intel di fascia alta.
Non devi guardare soltanto al mercato desktop, quando pensi ad ARM (che peraltro ha manifestato apertamente l'intenzione di entrarvi).
Le innovazioni tecnologiche le puoi utilizzare, chi più chi meno, in qualunque ambito: dal desktop al mobile. E, dunque, possono aiutare Intel anche nella sua sfida con ARM.
Ecco perché non ha senso parlare di Intel che va col freno a mano tirato: sarebbe un suicidio per lei, che ha bisogno di sfruttare qualunque innovazione per competere con ARM, e prepararsi all'assalto che questa sta già preparando anche nel settore desktop.
Ma sta di fatto che alla prova dei fatti l'aumento di prestazioni in cinque anni è piutosto misero. Specie se poi lo paragoniamo agli incrementi prestazionali a cui abbiamo assistito in passato.
ok ma bisogna anche fare i conti con i limiti del silicio... magari tra qualche anno ci sarà un nuovo materiale che permetterà un salto prestazionale notevole
Questo ok. Ma di certo non è cosa imminente per quanto ho detto prima, anche con le migliori premesse comunque si parla di anni prima che ARM possa preoccupare Intel davvero nel settore dei PC desktop.
Di fatto ora come ora i concorrenti sono coloro che hanno cpu x86 sul mercato.. quindi intel ed AMD.
Questo chiaramente non vuol dire che Intel non sta lavorando a nuovi e più performanti processori ma certo è che può prendersi il tempo che gli serve senza troppi pensieri perchè AMD ormai (purtroppo) da anni non riesce a competere ai livelli più alti.
Stai ben certo che se le cpu MAD se la giocassero testa a testa con gli i7 di certo avremmo cpu ben più pompate ad oggi.
Verissimo.
Limiti che comunque interessano tutti. Intel, AMD, ARM, Nvidia e chiunque se la giochi nel campo dei microprocessori in generale.
Ora si parla di tante possibili alternative.. ma per ora nulla di concreto e nessuna strada tracciata in senso assoluto.
Onestamente questo mi preoccupa parecchio perchè confidavo nel fatto che prima di arrivare davvero ai limiti del silicio sarebbero arrivati sistemi alternativi per tempo.. e questo invece non sta accadendo.
Di fatto l'evoluzione sta rallentando e prima o poi andrà a stagnare.. il che vuol dire ulteriore crisi di vendite e di conseguenza rallentamento nella ricerca e sviluppo.
Quindi Intel dovrebbe aspettare che ARM si fortifichi, per poi farsi trovare impreparata quando arriverà l'assalto?
Questo chiaramente non vuol dire che Intel non sta lavorando a nuovi e più performanti processori ma certo è che può prendersi il tempo che gli serve senza troppi pensieri perchè AMD ormai (purtroppo) da anni non riesce a competere ai livelli più alti.
Stai ben certo che se le cpu MAD se la giocassero testa a testa con gli i7 di certo avremmo cpu ben più pompate ad oggi.
Non funziona così.
Prima di tutto non puoi mai sapere cosa tirerà fuori la concorrenza. Magari c'è un ingegnere che tira fuori un'idea geniale che consente di mettere all'angolo Intel.
Le buone idee non sono di dominio delle aziende più grandi. Basti pensare che l'idea, rivelatasi poi vincente, di utilizzare un core RISC internamente per eseguire effettivamente le istruzioni x86 (che sono tradotte in una o più micro-op RISC) non è venuta né da Intel né da AMD, ma da una piccola startup (poi acquisita da AMD).
Secondo, se non innovi non metti le condizioni per rinfrescare il parco hardware, e gli utenti si terranno stretti quello che hanno finché i loro sistemi non se ne andranno di morte naturale. Già adesso è difficile vendere, a causa degli aumenti di IPC e frequenza che non possono più essere quelli di una volta, per cui figurati cosa succedere in un mercato sostanzialmente statico.
Terzo, il mercato desktop è soltanto uno dei mercati in cui opera Intel, che deve pensare a essere competitiva in tutto quello che fa. Le innovazioni tecnologiche sono tante volte trasversali: una volta trovate/sperimentate sul mercato desktop, le posso riciclare anche su quello server, o mobile, o embedded. E viceversa, un'innovazione in ambito mobile la posso anche riutilizzare in ambito desktop, server, embedded. Ecc.
Non è sempre vero, sia chiaro, ma in generale le buone idee non hanno dominii limitati a quelli in cui sono nati.
Tutto ciò implica che Intel non può starsene con le mani in tasca in alcuni settori, quando ha bisogno di essere competitiva in altri.
Vedremo se a quel punto i produttori, per differenziarsi, si impegneranno maggiormente in aspetti quali:
maggiore presenza di porte Usb 3.1
maggiore presenza di socket m.2
presenza di porte Thunderbolt
migliore componentistica elettronica, nelle motherboard, pure di fascia mainstream
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".