PDA

View Full Version : Niente più Tick-Tock per Intel: è tempo di Process-Architecture-Optimization


Redazione di Hardware Upg
23-03-2016, 14:51
Link alla notizia: http://www.hwupgrade.it/news/cpu/niente-piu-tick-tock-per-intel-e-tempo-di-process-architecture-optimization_61731.html

L'evoluzione costante delle tecnologie produttive porta a una complessità sempre maggiore da dover affrontare. Questo ha portato al superamentoall'approccio a due fasi al debutto di nuove CPU, sostituito da una cadenza a tre

Click sul link per visualizzare la notizia.

Giouncino
23-03-2016, 14:53
se AMD dorme, Intel gongola (e lucra) alla grande...

calabar
23-03-2016, 14:59
L'alternanza Tick-Tock di Intel non "è destinata a venir meno", è già venuta meno da qualche generazione di processori.
Certo, noi avevamo bonariamente chiamato il nuovo modello come Tick-Tock-Tack (o era taaaack! ? :D ), ma se in Intel preferiscono chiamarla Process-Architecture-Optimization fa lo stesso.

@Giouncino
AMD in questo caso non c'entra nulla, l'abbandono del Tick-Tock è dovuto alle sempre maggiori difficoltà di sviluppo dei nuovi processi produttivi, a cui neppure Intel può sottrarsi.

Cappej
23-03-2016, 15:03
Tick-Tock.... -Tuck ?:eek: :sofico:

Gigibian
23-03-2016, 15:06
L'alternanza Tick-Tock di Intel non "è destinata a venir meno", è già venuta meno da qualche generazione di processori.
Certo, noi avevamo bonariamente chiamato il nuovo modello come Tick-Tock-Tack (o era taaaack! ? :D ), ma se in Intel preferiscono chiamarla Process-Architecture-Optimization fa lo stesso.

@Giouncino
AMD in questo caso non c'entra nulla, l'abbandono del Tick-Tock è dovuto alle sempre maggiori difficoltà di sviluppo dei nuovi processi produttivi, a cui neppure Intel può sottrarsi.

Sono due fattori che hanno portato all'estensione del tempo di sviluppo delle CPU da parte di intel.
1) Processi produttivi sempre più difficili da shrinkare
2) Concorrenza di AMD completamente assente.

Non è un caso se dal 2011, con sandy bridge, ad oggi 2016, le CPU intel avranno si e no migliorato le performance del 15% a parità di clock...
Tra un 2600K a 4.0Ghz ed un 6600K a 4.0Ghz le differenze di perfomance sono irrisorie...
La legge di moore sono anni che non viene più rispettata.

demon77
23-03-2016, 15:08
BON.
Il mio 2600K sarà amico fedele per anni ancora! :asd:

AceGranger
23-03-2016, 15:14
se AMD dorme, Intel gongola (e lucra) alla grande...

non gongola, non è piu economicamente conveniente ne fattibile,nemmeno per intel, mantenere un processo produttivo solo per 2 generazioni.

PaulGuru
23-03-2016, 15:16
Quante espressioni per dire che lo sviluppo rallenterà ulteriormente.
Vergogna !

X1l10on88
23-03-2016, 15:26
BON.
Il mio 2600K sarà amico fedele per anni ancora! :asd:

Secondo me il miglior acquisto del secolo... Praticamente dopo sandy bridge non è uscito nulla

Gigibian
23-03-2016, 15:46
ma anche no, in CB 11.5 a parità di clock in ST ci passa il +24% tra i5 2500k e i5 6600k, mentre in MT il +31%

Mediamente di preciso non saprei ma credo che i valori saranno circa gli stessi

ed in tanto si passa dai 6 core a 32nm ai 10 core a 14nm nelle versioni extreme...
e da 10 core a 22 core negli Xeon

AMD non ha Fab da anni, e Intel già con i 22nm ha dovuto rallentare senza dichiararlo apertamente, ora ha fatto outing ma è una cosa normale e fin ora ha fatto anche mediamente bene e degli ottimi prodotti spendendo capitali enormi.

spero trovino altre soluzioni, anche architetturali oltre che di litografia per sopperire al problema

Ma anche no...cosa?
Anche fosse, ti sembra accettabile +24% in 6 anni di sviluppo ? :D

http://images.anandtech.com/graphs/graph9483/5.png

http://images.anandtech.com/graphs/graph9483/6.png

+22% in ST e +21% in MT.

Se ti sembra accettabile il 20% di incremente su Cinebench in 6 anni di differenza :D

E poi stiamo parlando di Cinebench! Su altri test, la differenza è NULLA:

http://images.anandtech.com/graphs/graph9483/7.png

http://images.anandtech.com/graphs/graph9483/8.png

Quindi come incremento medio siamo MOLTO sotto il 15% che avevo ipotizzato io.
Altro che no!

Gigibian
23-03-2016, 16:01
mi posti il test completo?

comunque sono 4 anni non 6 :rolleyes:

Gennaio 2011 (sandy) agosto 2015 (skylake)

4 anni e mezzo. Il discorso non cambia.

cerca "6700k anandtech review" su google, primo link.

Cmq, per non dimenticare, quando intel da un giorno all'altro ricacciava +40% di performance, grazie ad AMD che era competitiva con i suoi athlon 64...

http://www.hwupgrade.it/articoli/cpu/1530/autogk.png

demon77
23-03-2016, 16:08
Secondo me il miglior acquisto del secolo... Praticamente dopo sandy bridge non è uscito nulla

In effetti si. Un best buy mai visto nella storia del PC.
Ai tempi non lo sapevo.. gran botta di culo! :ciapet:

PaulGuru
23-03-2016, 16:09
Gennaio 2011 (sandy) agosto 2015 (skylake)

4 anni e mezzo. Il discorso non cambia.

cerca "6700k anandtech review" su google, primo link.

Cmq, per non dimenticare, quando intel da un giorno all'altro ricacciava +40% di performance, grazie ad AMD che era competitiva con i suoi athlon 64...

http://www.hwupgrade.it/articoli/cpu/1530/autogk.png

Bei tempi quelli dell'Athlon64.
Il problema è che AMD da quando uscì il Core 2 rimase palesemente a guardare.

bongo74
23-03-2016, 16:14
non ci frega nulla di tick tuck piadina e parsot
ci frega di
1) quanto costano
2) quanto tirano
3) quanto consumano

rockroll
23-03-2016, 16:16
se AMD dorme, Intel gongola (e lucra) alla grande...

AMD fa quel che può coi mezzi che ha, ma questo non c'entra con le difficoltà oggettive che incontra Intel nella corsa ai nanometri: figurati quanto gode e quanto lucra ora che sta raschiando il fondo del barile e si ostina, costi quel che costi; ma alla fine il fondo del barile si buca...

PaulGuru
23-03-2016, 16:17
non ci frega nulla di tick tuck piadina e parsot
ci frega di
1) quanto costano
2) quanto tirano

fixed

demon77
23-03-2016, 16:24
Ma anche no...cosa?
Anche fosse, ti sembra accettabile +24% in 6 anni di sviluppo ? :D

http://images.anandtech.com/graphs/graph9483/5.png

http://images.anandtech.com/graphs/graph9483/6.png

+22% in ST e +21% in MT.

Se ti sembra accettabile il 20% di incremente su Cinebench in 6 anni di differenza :D

E poi stiamo parlando di Cinebench! Su altri test, la differenza è NULLA:

http://images.anandtech.com/graphs/graph9483/7.png

http://images.anandtech.com/graphs/graph9483/8.png

Quindi come incremento medio siamo MOLTO sotto il 15% che avevo ipotizzato io.
Altro che no!

La dimostrazione in termini pratici di cosa vuol dire non avere concorrenza. :cry:

PaulGuru
23-03-2016, 16:26
La dimostrazione in termini pratici di cosa vuol dire non avere concorrenza. :cry:Ringraziamo AMD !

demon77
23-03-2016, 16:36
Ringraziamo AMD !

Eh si. Anche se non credo si divertano a stare in coda eh.. sper davvero che ci sia un ribaltone come ai tempi dell'athlon.. ce ne sarebbe un bisogno bestia.

GTKM
23-03-2016, 16:38
Avete già deciso che sia tutto dovuto alla debolezza di AMD, senza considerare le difficoltà, fisiche ed economiche, legate allo sviluppo di nuovi processi produttivi.

demon77
23-03-2016, 16:51
Avete già deciso che sia tutto dovuto alla debolezza di AMD, senza considerare le difficoltà, fisiche ed economiche, legate allo sviluppo di nuovi processi produttivi.

Ma no. Ovvio che nessuno nega le difficoltà tecniche di cui parli.
Ci sono e si vedono bene nello sviluppo in costante rallentamento delle CPU.

Però questo vale per intel tanto quanto per AMD.
Ed è anche innegabile che se Intel avesse il fiato di AMD sul collo di certo ci darebbe dentro un tantino di più.

Gigibian
23-03-2016, 16:58
ah è proprio nella review di skylake, pensavo fosse un test a parte, ok:

Sandy Bridge to Ivy Bridge: Average ~5.8% Up
Ivy Bridge to Haswell: Average ~11.2% Up
Haswell to Broadwell: Average ~3.3% Up
Broadwell to Skylake (DDR3): Average ~2.4% Up
Broadwell to Skylake (DDR4): Average ~2.7% Up

dice quindi, moltiplicando con base 100 a partire da SB che SL è un +24.4% MEDIO in ddr3 e +24.8% MEDIO in ddr4...

si ma cosa posti il salto dalla Arch Netburst alla Arch Core, è stato il cambio architetturale epocale, così come Sandy Bridge è stato nel mezzo della strada fino ad ora...

Io a spanne avevo detto un +15% invece è un +24% in 4.5 anni..mmm..allora cambia tutto!

E poi quelli sono test particolarmente CPU bound...poi vai a vedere i grafici dei videogame o di compilazione sotto linux (utilizzo reale della cpu) e le differenze sono di meno dell'1% ...:D

Fino a che non vengo bannato, posto quello che voglio che non vada contro regolamento. :)

Dimostra solamente che quando c'è concorrenza (athlon 64 vs pentium 4 e core 2 vs athlon 64 ) ci sono dei grossi salti nelle performance.
In questi ultimi 5 anni, 0 concorrenza e 0 aumento di performance.

DukeIT
23-03-2016, 16:59
Ringraziamo AMD !Io ringrazierei anche tutti quelli che sempre e comunque danno contro ad AMD, pure quando sforna(va) prodotti concorrenziali, nella rispettiva fascia di prezzo :rolleyes:

Gigibian
23-03-2016, 16:59
Sono due fattori che hanno portato all'estensione del tempo di sviluppo delle CPU da parte di intel.
1) Processi produttivi sempre più difficili da shrinkare
2) Concorrenza di AMD completamente assente.

Non è un caso se dal 2011, con sandy bridge, ad oggi 2016, le CPU intel avranno si e no migliorato le performance del 15% a parità di clock...
Tra un 2600K a 4.0Ghz ed un 6600K a 4.0Ghz le differenze di perfomance sono irrisorie...
La legge di moore sono anni che non viene più rispettata.

Avete già deciso che sia tutto dovuto alla debolezza di AMD, senza considerare le difficoltà, fisiche ed economiche, legate allo sviluppo di nuovi processi produttivi.

Veramente avevo premesso entrambe le cose.
Se si vuole essere oggettivi, si valutando e considerando entrambi i fattori.

Poi se si è di parte, per l'una o per l'altra azienda, se ne considera uno solo dei due :)

PaulGuru
23-03-2016, 17:08
Avete già deciso che sia tutto dovuto alla debolezza di AMD, senza considerare le difficoltà, fisiche ed economiche, legate allo sviluppo di nuovi processi produttivi.Con CPU dal TDP ridicolo che comprende per altro anche il lato iGPU ?
Direi che ci sono enormi margini che Intel da tempo non sfrutta, basti vedere anche le specifiche che tirano fuori con gli Xeon e vedrai che anche a parità di PP, gli affinamenti che raggiungono certi Xeon sono inavvicinabili.

Per non parlare degli HSI che han cominciato ad essere dissaldati, la suddivisione in serie K e non o le iGPU in quasi tutti i modelli ( quando anche al loro interno ci sono suddivisioni in versioni con Iris Pro e liscio ).

La piattaforma 2011 potrebbe avere un efficienza molto migliore dell'offerta attuale e gli LGA1150 trattengono molto di ciò che potrebbero offrire ( poco fa si parlare di uno Xeon quad core su LGA1150 con 5.2Ghz di freq stock e senza iGPU ).

Gigibian
23-03-2016, 17:40
sarebbe? dici perchè ho scritto "cosa posti...", quello?
era per dire che hai postato proprio il cambio di architettura epocale dalla Netburst alla Core, e grazie al piffero che ci sono stati quei cambiamenti è tutta un altra concezione di architettura, mentre bene o male da Sandy bridge la base è la stessa, in realtà anche da prima ma Sandy Bridge è uno sparti acque

tutto questo non è avvenuto per magia, ma perché si è permessa un silicio sempre migliore... negli ultimi anni sia con i 22 che con i 14 ha incontrato difficoltà ed ecco che gli incrementi sono risicati.

sicuramente ha inciso il fatto che amd non avesse un silicio all'altezza, ma non lo producono loro ed in più l'architettura bulldozer è un mezzo fail come concezione di base, ma le difficoltà oggettive sono lampanti e la solita battutina "grazie AMD" c'entra come i cavoli a merenda...

quindi se si vuole analizzare le cose è un conto, se si vuole fare la solita battuta allora passo... ed è riferito a tutti non solo a te.

Ma quale battuta. Io non ne ho fatte. Rileggi i posto precedenti.
Dico solo che le cose sono oggettive:
Negli ultimi 5 anni si è assistito ad un ristagno delle performance CPU di INTEL così come di AMD.
E Questo è stato causato da due fattori:

1) Processi produttivi sempre più difficile da affinare
2) Concorrenza assente da parte di AMD.

Fine. E' oggettivo che sia così. Il resto sono solo chiacchiere.

PaulGuru
23-03-2016, 18:30
tutto questo non è avvenuto per magia, ma perché si è permessa un silicio sempre migliore... negli ultimi anni sia con i 22 che con i 14 ha incontrato difficoltà ed ecco che gli incrementi sono risicati.


Perdonami ma del vetusto 32nm al rivoluzionario 22nm Tri-Gate cè stato un salto epocale sulla carta, capisco che questo non può riportarsi sempre proporzionalmente anche sull'atto pratico ma non si può credere sia cambiato poco o nulla fra i due, anche perchè sono passati anni e il tempo per affinarlo nel caso vi fossero realmente stati problemi non è mancato.

Non è minimamente ammissibile che da un Ivy ad un Hasswell il livello di efficienza sia anche solo paragonabile, è una balla che non si può rifilare nemmeno pagando.

Stessa cosa da 22 a 14nm, da come stà girando la cosa a sto punto dovremmo dire che anche il 14nm di Intel non è molto migliore del vecchio 32nm ( che a livello di dim è più del doppio ) ?

AceGranger
23-03-2016, 19:52
Io a spanne avevo detto un +15% invece è un +24% in 4.5 anni..mmm..allora cambia tutto!


A parita di TDP hanno anche aumentato i core del 250% e nelle CPU consumer hanno incrementato significativamente le prestazioni della GPU.

Hanno incrementato selettivamente determinati aspetti nei mercati dove serviva; il mercato desktop consumer sta morendo e visto che la piattaforma è quella condivisa con il mercato mobile, tutte le migliorie sono andate nel verso dei consumi e della GPU per i portatili e ultraportatili; nel mercato Server la potenza e l'efficienza sono arrivate e continuano ad arrivare; il mercato desktop consumer non se lo caga piu nessuno.

marchigiano
23-03-2016, 20:54
Non è un caso se dal 2011, con sandy bridge, ad oggi 2016, le CPU intel avranno si e no migliorato le performance del 15% a parità di clock...
Tra un 2600K a 4.0Ghz ed un 6600K a 4.0Ghz le differenze di perfomance sono irrisorie...

skylake, oltre ad avere un ipc superiore, ha pure il 18% in più di frequenza base e 10% turbo

la vera botta però lato gpu dove si passa dai 130gflops del sandy ai 440 del skylake

E SCUSA SE E' POCO :eek:


Ma anche no...cosa?
Anche fosse, ti sembra accettabile +24% in 6 anni di sviluppo ? :D

http://images.anandtech.com/graphs/graph9483/5.png

http://images.anandtech.com/graphs/graph9483/6.png

+22% in ST e +21% in MT.


di ipc (la frequenza è fissa), ma le frequenze sono più alte

pingalep
23-03-2016, 21:43
intel senza amd che spinga sulla potenza bruta sta affinando tutto il resto su cui amd era ed è un poco competitiva, quindi la gpu e i consumi. e considerando le esigenze più diffuse fa bene, pc più silenziosi e gpu che accelerano in hardware un sacco di roba senza tentennamenti. io ho un netbook amd da 15w di secoli fa che gestisce file fullHD senza problemi in hardware, mentre youtube in hd non lo regge.

spero che amd quest'anno scombini un po' le carte sul fronte potenza pura, anche in ottica VR.

però sul lato gpu amd ci ha regalatog randi soddisfazioni, soprattutto tra i non giocatori. rimarchia da tempo gpu top portandole a fasce di prezzo sempre più basse. e ti trovi certe bestie, magari un po' vecchiotte, senza alcune feature, ma che hanno una potenza bruta che nvidia a pari prezzo nemmeno in slide ti propone.

se tirano fuori una nuova linea gpu+cpu top per gestire al meglio la VR sarebbe una figata, perchè tra qualche anno potrebbe arrivare a prezzi mainstream e rendere la VR a portata di molti

pingalep
23-03-2016, 21:45
cmq skylake se non usi la igpu e thunderbolt 3\usb 3.1 è un po' una spesa inutile.
purtroppo sono tutte cose dietro cui io sbavo quindi mi tocca!

demon77
23-03-2016, 22:03
skylake, oltre ad avere un ipc superiore, ha pure il 18% in più di frequenza base e 10% turbo

la vera botta però lato gpu dove si passa dai 130gflops del sandy ai 440 del skylake

E SCUSA SE E' POCO :eek:




di ipc (la frequenza è fissa), ma le frequenze sono più alte

Ok, prendo tutto per buono.
Ma sta di fatto che alla prova dei fatti l'aumento di prestazioni in cinque anni è piutosto misero. Specie se poi lo paragoniamo agli incrementi prestazionali a cui abbiamo assistito in passato.

Un fatto questo che sto sperimentando in prima persona.. il mio 2600K compirà 5 anni esatti a giugno e mentre in passato mi trovavo ad avere un pc decisamente sorpassato che non era più papabile per i giochi recenti oggi mi trovo un pc ancora pienamente valido, in grado di far girare qualsiasi titolo senza particolari limiti, il che vuol dire che non avrò esigenza di cambiarlo per almeno un anno ancora, ma anche due credo..
Senza contare poi che ho ancora la carta dell'overclock da giocare per ottenere almeno un 15% di potenza extra. :)

cdimauro
23-03-2016, 22:04
se AMD dorme, Intel gongola (e lucra) alla grande...
In tal caso potrebbe anche evitare di presentare nuovi processori, investendo inutilmente soldi in nuovi progetti, non credi?
@Giouncino
AMD in questo caso non c'entra nulla, l'abbandono del Tick-Tock è dovuto alle sempre maggiori difficoltà di sviluppo dei nuovi processi produttivi, a cui neppure Intel può sottrarsi.
Esattamente.
Sono due fattori che hanno portato all'estensione del tempo di sviluppo delle CPU da parte di intel.
1) Processi produttivi sempre più difficili da shrinkare
2) Concorrenza di AMD completamente assente.

Non è un caso se dal 2011, con sandy bridge, ad oggi 2016, le CPU intel avranno si e no migliorato le performance del 15% a parità di clock...
Tra un 2600K a 4.0Ghz ed un 6600K a 4.0Ghz le differenze di perfomance sono irrisorie...
Su questo hanno già risposto altri. Aggiungo che, oltre alle maggiori prestazioni delle GPU integrate, sono state potenziate anche le unità SIMD, sebbene sia ben poco il codice che ne faccia uso (mi riferisco ad AVX e AVX-2, nello specifico).
La legge di moore sono anni che non viene più rispettata.
Falso. E' soltanto di recente che ci sono state delle difficoltà.

Mi mostreresti dov'è che non sarebbe stata più rispettata?
Quante espressioni per dire che lo sviluppo rallenterà ulteriormente.
Vergogna !
Da quando ci si deve vergognare delle leggi delle fisica? :rolleyes:
Cmq, per non dimenticare, quando intel da un giorno all'altro ricacciava +40% di performance, grazie ad AMD che era competitiva con i suoi athlon 64...
A questo punto perché non tiravi direttamente in ballo l'introduzione del primo transistor, e l'aumento delle prestazioni che c'è stato negli anni successivi?

In passato l'aumento delle prestazioni era legato sia al maggior numero di transistor impacchettato (che incideva in maniera più consistente nell'IPC) sia alle maggiori frequenze che si raggiungevano.

Da un po' di anni tutto ciò non è più possibile, e il Pentium-4 ne è stata la dimostrazione: doveva raggiungere i 10Ghz entro il 2010, e invece s'è fermato poco sotto i 4Ghz. Frequenza, questa, che è stata raggiunta stabilmente solo di recente.

Quanto all'IPC, ormai i decoder delle istruzioni sono molto efficienti, come pure unità di branch prediction, cache TLB, ecc.. Ecco perché, pur impaccando più transistor per queste unità, gli aumenti di prestazioni sono ormai relegati a pochi punti percentuali.

Ormai le uniche due variabili che portano a consistenti incrementi di prestazioni sono il multicore e l'unità SIMD. Per entrambe, però, serve codice appositamente realizzato. Cosa che, peraltro, non si applica tutto il codice. Tutt'altro.
La dimostrazione in termini pratici di cosa vuol dire non avere concorrenza. :cry:
La concorrente di Intel è ARM, e già da un pezzo.
Ma no. Ovvio che nessuno nega le difficoltà tecniche di cui parli.
Ci sono e si vedono bene nello sviluppo in costante rallentamento delle CPU.

Però questo vale per intel tanto quanto per AMD.
Ed è anche innegabile che se Intel avesse il fiato di AMD sul collo di certo ci darebbe dentro un tantino di più.
Vedi sopra: non è certo per questo che Intel sia rimasta con le braccia conserte.

I benefici di architetture migliori li può benissimo spendere per competere con ARM. Non farlo, quando ha difficoltà a ritagliarsi una fetta nel mercato mobile, sarebbe del tutto ridicolo.

Ecco perché non ha alcuna senso parlare di mancanza di concorrenza.
Con CPU dal TDP ridicolo che comprende per altro anche il lato iGPU ?
Sai com'è: nei chip di oggi integrano parecchi cose. Tra cui la GPU (e molto altro).

TUTTO ciò contribuisce al budget dei transistor.
Direi che ci sono enormi margini che Intel da tempo non sfrutta, basti vedere anche le specifiche che tirano fuori con gli Xeon e vedrai che anche a parità di PP, gli affinamenti che raggiungono certi Xeon sono inavvicinabili.
Gli Xeon sono relegati ad altri mercati: non ha senso proporre roba simile in altri ambiti, come quello desktop, che hanno altre esigenze.
Per non parlare degli HSI che han cominciato ad essere dissaldati,
Qual è il problema qui?
la suddivisione in serie K e non
Idem come sopra.
o le iGPU in quasi tutti i modelli
Perché per la stragrande maggioranza degli utenti è sufficiente ai loro scopi, e non hanno bisogno di comprarne una discreta.
( quando anche al loro interno ci sono suddivisioni in versioni con Iris Pro e liscio ).
La Pro serve ad altro. E l'eDRAM integrata, peraltro, è utile ANCHE ai core della componente CPU, visto che funge sostanzialmente da cache L4, e dunque contribuisce al miglioramento delle prestazioni (sebbene marginalmente: miracoli non è possibile farne, per quanto detto prima).
La piattaforma 2011 potrebbe avere un efficienza molto migliore dell'offerta attuale e gli LGA1150 trattengono molto di ciò che potrebbero offrire ( poco fa si parlare di uno Xeon quad core su LGA1150 con 5.2Ghz di freq stock e senza iGPU ).
Se hai esigenze particolari puoi benissimo buttarsi su uno Xeon...

demon77
23-03-2016, 22:07
cmq skylake se non usi la igpu e thunderbolt 3\usb 3.1 è un po' una spesa inutile.
purtroppo sono tutte cose dietro cui io sbavo quindi mi tocca!

Oddio.. non è proprio un obbligo eh. (se hai un fisso intendo)
Perchè se la gpu integrata è scarsa con cento euro ti fai una discreta che seppur low level è ampiamente più performante ad oggi.
Per quanto riguarda usb 3 o thunderbolt basta una scheda aggiuntiva anche qui con spesa contenuta.

demon77
23-03-2016, 22:13
La concorrente di Intel è ARM, e già da un pezzo.

Vedi sopra: non è certo per questo che Intel sia rimasta con le braccia conserte.

I benefici di architetture migliori li può benissimo spendere per competere con ARM. Non farlo, quando ha difficoltà a ritagliarsi una fetta nel mercato mobile, sarebbe del tutto ridicolo.

Ecco perché non ha alcuna senso parlare di mancanza di concorrenza.

Mmmmmmah.. non saprei.
E' anche vero che adesso ARM è molto cambiata agli occhi del panorama tecnologico.. ma credo che almeno adesso non sia definibile un concorrente per quanto concerne l'ambito PC.
Sono ancora due mondi definiti e distinti.
Potremo parlare davvero di concorrenza diretta sui pc quando esisteranno PC ARM su cui gireranno software e sistemi operativi al pari di quelli che ora usiamo su desktop.
E quando ovviamente ci saranno cpu arm in grado di macinare la stessa potenza di calcolo di una cpu intel di fascia alta.

cdimauro
23-03-2016, 23:04
Mmmmmmah.. non saprei.
E' anche vero che adesso ARM è molto cambiata agli occhi del panorama tecnologico.. ma credo che almeno adesso non sia definibile un concorrente per quanto concerne l'ambito PC.
Sono ancora due mondi definiti e distinti.
Potremo parlare davvero di concorrenza diretta sui pc quando esisteranno PC ARM su cui gireranno software e sistemi operativi al pari di quelli che ora usiamo su desktop.
E quando ovviamente ci saranno cpu arm in grado di macinare la stessa potenza di calcolo di una cpu intel di fascia alta.
Non devi guardare soltanto al mercato desktop, quando pensi ad ARM (che peraltro ha manifestato apertamente l'intenzione di entrarvi).

Le innovazioni tecnologiche le puoi utilizzare, chi più chi meno, in qualunque ambito: dal desktop al mobile. E, dunque, possono aiutare Intel anche nella sua sfida con ARM.

Ecco perché non ha senso parlare di Intel che va col freno a mano tirato: sarebbe un suicidio per lei, che ha bisogno di sfruttare qualunque innovazione per competere con ARM, e prepararsi all'assalto che questa sta già preparando anche nel settore desktop.

marchigiano
23-03-2016, 23:38
Ok, prendo tutto per buono.
Ma sta di fatto che alla prova dei fatti l'aumento di prestazioni in cinque anni è piutosto misero. Specie se poi lo paragoniamo agli incrementi prestazionali a cui abbiamo assistito in passato.

ok ma bisogna anche fare i conti con i limiti del silicio... magari tra qualche anno ci sarà un nuovo materiale che permetterà un salto prestazionale notevole

demon77
23-03-2016, 23:41
Ecco perché non ha senso parlare di Intel che va col freno a mano tirato: sarebbe un suicidio per lei, che ha bisogno di sfruttare qualunque innovazione per competere con ARM, e prepararsi all'assalto che questa sta già preparando anche nel settore desktop.

Questo ok. Ma di certo non è cosa imminente per quanto ho detto prima, anche con le migliori premesse comunque si parla di anni prima che ARM possa preoccupare Intel davvero nel settore dei PC desktop.
Di fatto ora come ora i concorrenti sono coloro che hanno cpu x86 sul mercato.. quindi intel ed AMD.
Questo chiaramente non vuol dire che Intel non sta lavorando a nuovi e più performanti processori ma certo è che può prendersi il tempo che gli serve senza troppi pensieri perchè AMD ormai (purtroppo) da anni non riesce a competere ai livelli più alti.
Stai ben certo che se le cpu MAD se la giocassero testa a testa con gli i7 di certo avremmo cpu ben più pompate ad oggi.

demon77
23-03-2016, 23:46
ok ma bisogna anche fare i conti con i limiti del silicio... magari tra qualche anno ci sarà un nuovo materiale che permetterà un salto prestazionale notevole

Verissimo.
Limiti che comunque interessano tutti. Intel, AMD, ARM, Nvidia e chiunque se la giochi nel campo dei microprocessori in generale.

Ora si parla di tante possibili alternative.. ma per ora nulla di concreto e nessuna strada tracciata in senso assoluto.
Onestamente questo mi preoccupa parecchio perchè confidavo nel fatto che prima di arrivare davvero ai limiti del silicio sarebbero arrivati sistemi alternativi per tempo.. e questo invece non sta accadendo.
Di fatto l'evoluzione sta rallentando e prima o poi andrà a stagnare.. il che vuol dire ulteriore crisi di vendite e di conseguenza rallentamento nella ricerca e sviluppo.

cdimauro
24-03-2016, 06:31
Questo ok. Ma di certo non è cosa imminente per quanto ho detto prima, anche con le migliori premesse comunque si parla di anni prima che ARM possa preoccupare Intel davvero nel settore dei PC desktop.
Quindi Intel dovrebbe aspettare che ARM si fortifichi, per poi farsi trovare impreparata quando arriverà l'assalto?
Di fatto ora come ora i concorrenti sono coloro che hanno cpu x86 sul mercato.. quindi intel ed AMD.
Questo chiaramente non vuol dire che Intel non sta lavorando a nuovi e più performanti processori ma certo è che può prendersi il tempo che gli serve senza troppi pensieri perchè AMD ormai (purtroppo) da anni non riesce a competere ai livelli più alti.
Stai ben certo che se le cpu MAD se la giocassero testa a testa con gli i7 di certo avremmo cpu ben più pompate ad oggi.
Non funziona così.

Prima di tutto non puoi mai sapere cosa tirerà fuori la concorrenza. Magari c'è un ingegnere che tira fuori un'idea geniale che consente di mettere all'angolo Intel.
Le buone idee non sono di dominio delle aziende più grandi. Basti pensare che l'idea, rivelatasi poi vincente, di utilizzare un core RISC internamente per eseguire effettivamente le istruzioni x86 (che sono tradotte in una o più micro-op RISC) non è venuta né da Intel né da AMD, ma da una piccola startup (poi acquisita da AMD).

Secondo, se non innovi non metti le condizioni per rinfrescare il parco hardware, e gli utenti si terranno stretti quello che hanno finché i loro sistemi non se ne andranno di morte naturale. Già adesso è difficile vendere, a causa degli aumenti di IPC e frequenza che non possono più essere quelli di una volta, per cui figurati cosa succedere in un mercato sostanzialmente statico.

Terzo, il mercato desktop è soltanto uno dei mercati in cui opera Intel, che deve pensare a essere competitiva in tutto quello che fa. Le innovazioni tecnologiche sono tante volte trasversali: una volta trovate/sperimentate sul mercato desktop, le posso riciclare anche su quello server, o mobile, o embedded. E viceversa, un'innovazione in ambito mobile la posso anche riutilizzare in ambito desktop, server, embedded. Ecc.
Non è sempre vero, sia chiaro, ma in generale le buone idee non hanno dominii limitati a quelli in cui sono nati.

Tutto ciò implica che Intel non può starsene con le mani in tasca in alcuni settori, quando ha bisogno di essere competitiva in altri.

AleLinuxBSD
24-03-2016, 07:17
L'unica nota positiva è data dal discorso relativo alle motherboard.
Vedremo se a quel punto i produttori, per differenziarsi, si impegneranno maggiormente in aspetti quali:
maggiore presenza di porte Usb 3.1
maggiore presenza di socket m.2
presenza di porte Thunderbolt
migliore componentistica elettronica, nelle motherboard, pure di fascia mainstream

ziobepi
24-03-2016, 07:39
Ottima mossa di Intel.
Non c'è bisogno di correre sui desktop vista l'assoluta mancanza di concorrenza,
sia a livello di progettazione che di tecnologie produttive.

Intel sta concentrando tutti gli sforzi sui computer quantistici,
chiaramente non ve lo vengono a dire :O

An.tani
24-03-2016, 14:44
SNon è un caso se dal 2011, con sandy bridge, ad oggi 2016, le CPU intel avranno si e no migliorato le performance del 15% a parità di clock...
Tra un 2600K a 4.0Ghz ed un 6600K a 4.0Ghz le differenze di perfomance sono irrisorie...


BUM!

Innanzitutto nell uso "normale" un 6600k consuma il 35% in meno

e per le prestazioni....

Around 45% better cinebench r10 32Bit 1-core score
More than 40% better geekbench 3 Multi-Core score
Around 45% better cinebench r10 32Bit score

Comunque Intel in questi hanno si è concentrata essenzialmente sui consumi ma i benefici li vedi molto di più sulle CPU destinate ai portatili

gd350turbo
24-03-2016, 15:05
Io ringrazierei anche tutti quelli che sempre e comunque danno contro ad AMD, pure quando sforna(va) prodotti concorrenziali, nella rispettiva fascia di prezzo :rolleyes:

Più che altro devi ringraziare quelli che elogiavano/elogiano amd, e poi comprano prodotti intel !

Detto mille volte, volete che amd torni competitiva ?
Ci vogliono dei soldi !
Quindi bisogna comperare i suoi prodotti ora, non aspettare ZEN, e poi vedere quanto andrà in confronto ad intel poi scegliere...
Dateli dei soldi ora, e le possibilità di competizione aumenteranno !

demon77
24-03-2016, 15:57
BUM!

Innanzitutto nell uso "normale" un 6600k consuma il 35% in meno

e per le prestazioni....

Around 45% better cinebench r10 32Bit 1-core score
More than 40% better geekbench 3 Multi-Core score
Around 45% better cinebench r10 32Bit score

Comunque Intel in questi hanno si è concentrata essenzialmente sui consumi ma i benefici li vedi molto di più sulle CPU destinate ai portatili

Che consuma meno va bene, è vero. E' una ottima cosa ma ricordiamoci che parliamo di una CPU che già di suo consuma poco.. tradotta in pratica viol dire che risparmi un euro all'anno ripetto ad un sandy bridge.

Per le prestazioni quel 45% non è veritiero, bench alla mano (vedi i post indietro) simulando l'uso di software veri si viaggia decisamente più in basso.

Comunque sia, fosse anche veritiero il 45% di cui parli saremmo comunque lontani dai fasti del passato.
Quando presi il 2600K il mio vecchio pc (cinque anni esatti anche lui ai tempi) era un Athlon 64 x2 4400+.. un salto di prestazioni titanico rispetto ad oggi.

tuttodigitale
24-03-2016, 18:04
se AMD dorme, Intel gongola (e lucra) alla grande...

hai sbagliato soggetto...
sono TSMC e Samsung che sono in pesante ritard (GF? Lasciamo perdere....).
Non credete che raggiungeranno Intel nel giro di poco...
I 10nm sono da considerarsi un vero proprio salto di nodo (Intel si aspetta un livello di integrazione superiore del 90%), cosa che non avverrà con i 10 nm Samsung, che saranno appena il 20% più densi dei 14nm di Intel (confronto tra le relative celle SRAM 6T ad alto clock)...
ovvero i 10nm di Intel forse, ma non è assolutamente detto, saranno raggiunti dai 7nm della concorrenza..:doh:

tuttodigitale
24-03-2016, 18:24
credo che non possiamo sottovalutare il clamoroso debacle del power7+ (prestazioni migliorate del 5-10% con un die shrink...la fonte è la stessa IBM), il tonfo di k10, un'architettura che ha un livello di ipc/transistor per core persino superiore a SB,
per non parlare delle incongruenze, di clock e vcore, riportate nelle slide per k10 e di prestazioni (+50% a cinebench e nel 3d mark06 su 1100T) per BD ad appena 3 mesi di quello che doveva essere il lancio...

3 sono le architetture, che hanno pagato lo scotto di un 32nm pessimo, e quella che ne è uscita meglio, bulldozer-piledriver, paradosso vuole che sia anche quella maggiormente criticata....

Confermata la vocazione al clock di ZEN: stadi con complessità uguale se non inferiore a BD, gli stadi aggiuntivi lato FP non lasciano dubbi...(ma io non li ho mai avuti :cool: )

cdimauro
25-03-2016, 07:12
Più che altro devi ringraziare quelli che elogiavano/elogiano amd, e poi comprano prodotti intel !

Detto mille volte, volete che amd torni competitiva ?
Ci vogliono dei soldi !
Quindi bisogna comperare i suoi prodotti ora, non aspettare ZEN, e poi vedere quanto andrà in confronto ad intel poi scegliere...
Dateli dei soldi ora, e le possibilità di competizione aumenteranno !
Gli utenti non sono azionisti, che devono supportare la loro azienda.

Le loro scelte dovrebbero essere dettate da ciò a cui serve loro.

Quanti hanno comprato i P4 di Intel, quando quest'ultima era in difficoltà e non riusciva a reggere la concorrenza di AMD in ambito prestazionale?
Per le prestazioni quel 45% non è veritiero, bench alla mano (vedi i post indietro) simulando l'uso di software veri si viaggia decisamente più in basso.
I software utilizzati per i test sono anch'essi "veri".
Comunque sia, fosse anche veritiero il 45% di cui parli saremmo comunque lontani dai fasti del passato.
Quando presi il 2600K il mio vecchio pc (cinque anni esatti anche lui ai tempi) era un Athlon 64 x2 4400+.. un salto di prestazioni titanico rispetto ad oggi.
E due. Come già detto nel primo commento di questo thread, l'aumento delle prestazioni era legato anche alla maggior frequenza che si riusciva a raggiungere coi nuovi processi produttivi. Ciò NON è più possibile per problemi legati alla fisica, che non fa sconti a nessuno.

Inoltre l'IPC non può più essere migliorato più di tanto, anche impaccando zilioni di transistor, per le motivazioni che ho già elencato.

Per cui risulta del tutto insensato fare paragoni col passato, dove queste variabili erano ben diverse.

Oggi si può puntare sostanzialmente solo su multicore e unità SIMD "pompate".

Pier2204
25-03-2016, 07:58
Anche Intel ha raggiunto i limiti del silicio e il la procedura Tick-Tock non è più realizzabile.

Mi ricordo che ai tempi degli Athlon e dei core duo si parlava già dei limiti del silicio e degli esperimenti che non solo Intel e AMD facevano, ma anche centri di ricerca universitari sparsi nel mondo ipotizzavano già la sostituzione del silicio, si parlava di Nanotubi, Grafene, processi litografici in 3D, processori organici... che fine hanno fatto queste ricerche? mi par di capire che non hanno portato a niente, per il momento il silicio impera al 100%

demon77
25-03-2016, 09:48
Anche Intel ha raggiunto i limiti del silicio e il la procedura Tick-Tock non è più realizzabile.

Mi ricordo che ai tempi degli Athlon e dei core duo si parlava già dei limiti del silicio e degli esperimenti che non solo Intel e AMD facevano, ma anche centri di ricerca universitari sparsi nel mondo ipotizzavano già la sostituzione del silicio, si parlava di Nanotubi, Grafene, processi litografici in 3D, processori organici... che fine hanno fatto queste ricerche? mi par di capire che non hanno portato a niente, per il momento il silicio impera al 100%

No calma, chi ha detto che non hanno portato a niente?
Sono ancora in corso.
Il problema è che ricerche del genere richiedono anni di lavoro. Speravamo tutti di ottenere risultati per tempo.. ma purtroppo non è così.
Quindi fino a che non salta fuori la soluzione buona bisogna allungare il brodo.

demon77
25-03-2016, 09:51
E due. Come già detto nel primo commento di questo thread, l'aumento delle prestazioni era legato anche alla maggior frequenza che si riusciva a raggiungere coi nuovi processi produttivi. Ciò NON è più possibile per problemi legati alla fisica, che non fa sconti a nessuno.

Inoltre l'IPC non può più essere migliorato più di tanto, anche impaccando zilioni di transistor, per le motivazioni che ho già elencato.

Per cui risulta del tutto insensato fare paragoni col passato, dove queste variabili erano ben diverse.

Oggi si può puntare sostanzialmente solo su multicore e unità SIMD "pompate".

Ma io non ho fatto distinzioni sulle varialbili in gioco nè sulle ragioni del generale rallentamento. Lo so anche io quali sono le cause.

PaulGuru
25-03-2016, 10:57
No calma, chi ha detto che non hanno portato a niente?
Sono ancora in corso.
Il problema è che ricerche del genere richiedono anni di lavoro. Speravamo tutti di ottenere risultati per tempo.. ma purtroppo non è così.
Quindi fino a che non salta fuori la soluzione buona bisogna allungare il brodo.
Anni fà le soluzioni buone sembravano cadere dal cielo.
Ora non più.

Ricordo ai tempi quando le cpu cambiavano di architettura con molta più frequenza ma ancora più frequenti erano le loro versioni che portavano molto spesso a marcati gap prestazionali.
Col P4 dal Willamette al Northwood o Prescott
Col AthlonXP dal Palomino al Barton
Con l'Athlon64 dal Clawhammer al San Diego
L'avvento del primo Core.
E le evoluzioni del Core 2 fino a Nehalem.

Epoi l'avvento della rincorsa al multicore ..... duo, triple, quad ecc ....

Adesso non si fà più nulla.

*aLe
25-03-2016, 11:17
Detto mille volte, volete che amd torni competitiva ?
Ci vogliono dei soldi !
Quindi bisogna comperare i suoi prodotti ora, non aspettare ZEN, e poi vedere quanto andrà in confronto ad intel poi scegliere...Beh questo può valere se estendi la "lista della spesa" alle GPU però: vuoi sostenere AMD? Compri una GPU AMD ora sperando che parte del ricavato finisca a finanziare anche Zen.
Con le CPU la vedo molto dura: se tutti comprassimo un FX 8xxx ora per "aiutare" AMD a sviluppare Zen... Chi lo comprerebbe Zen una volta uscito?
Dovremmo cambiare tutti ancora CPU (e magari motherboard e memorie)? Finiremmo a spendere il doppio!

Quindi tanto varrebbe spendere altrettanto e comprare un top di gamma Intel (dubito che Zen all'uscita vada a fare il :ciapet: agli i7 5xxx e 6xxx sinceramente, spero di sbagliarmi).

Essere legati a una determinata marca e sostenerla quando possibile ci sta (lo faccio anche io con AMD/Sapphire sulle GPU), ma comprare adesso una CPU AMD in attesa di Zen mi sembra un po' suicida come tattica.

PaulGuru
25-03-2016, 11:21
Più che altro devi ringraziare quelli che elogiavano/elogiano amd, e poi comprano prodotti intel !

Detto mille volte, volete che amd torni competitiva ?
Ci vogliono dei soldi !
Quindi bisogna comperare i suoi prodotti ora, non aspettare ZEN, e poi vedere quanto andrà in confronto ad intel poi scegliere...
Dateli dei soldi ora, e le possibilità di competizione aumenteranno !
Cosè beneficenza ?
I problemi della vita sono altri.

marchigiano
25-03-2016, 13:28
Quindi bisogna comperare i suoi prodotti ora, non aspettare ZEN, e poi vedere quanto andrà in confronto ad intel poi scegliere...
Dateli dei soldi ora, e le possibilità di competizione aumenteranno !

secondo questa linea di ragionamento i produttori dovrebbero cercare di fare le peggio cose per ottenere il masismo delle vendite... :sofico:

tipo intel tira fuori il prescott lo mette a 1000€ e tutti a comprarlo così ha i soldi per sviluppare il silicio a 7nm...

roccia1234
25-03-2016, 13:57
BUM!

Innanzitutto nell uso "normale" un 6600k consuma il 35% in meno

e per le prestazioni....

Around 45% better cinebench r10 32Bit 1-core score
More than 40% better geekbench 3 Multi-Core score
Around 45% better cinebench r10 32Bit score

Comunque Intel in questi hanno si è concentrata essenzialmente sui consumi ma i benefici li vedi molto di più sulle CPU destinate ai portatili

Per i 5 anni che sono passati, è praticamente niente.

Giusto per ricordare i "tempi passati".
Il 1 novembre 1995 intel presentava i pentium pro. Frequenze da 150 a 200mhz, 350nm, 36w di consumo.
Meno di 5 anni dopo (marzo 2000) c'è sul mercato il pentium 3 coppermine da 1ghz, 180nm, 23w di consumo.

Qua, senza nemmeno tenere conto degli avanzamenti dell'architettura e considerando solo la frequenza, siamo ad un + 500%, in 5 anni.

Altro che il misero 45% degli ultimi 5 anni che devi andare a cercare nei benchmark.

DukeIT
25-03-2016, 16:08
Quanti hanno comprato i P4 di Intel, quando quest'ultima era in difficoltà e non riusciva a reggere la concorrenza di AMD in ambito prestazionale?
Troppi, purtroppo. Senza contare le pratiche scorrette successivamente sanzionate.

cdimauro
25-03-2016, 16:24
Non era questo il senso della mia domanda.

DukeIT
25-03-2016, 16:39
Non era questo il senso della mia domanda.
Ma io sono d'accordo che alla fine uno dovrà fare un bilancio tra costi e prestazioni, pure io ho una CPU Intel. Ma finchè ho potuto, quando convenivano ma anche quando le differenze nel rapporto prestazioni/prezzo erano minime, ho sempre scelto AMD (sia in ambito CPU che GPU).
Ma relativamente alla domanda da te fatta, la risposta era corretta: quando AMD era superiore, la gente continuava comunque ad acquistare Intel.

PaulGuru
25-03-2016, 17:01
Ma relativamente alla domanda da te fatta, la risposta era corretta: quando AMD era superiore, la gente continuava comunque ad acquistare Intel.E' vero fino ad un certo punto.
AMD era competitiva alla lunga anche nelle vendite, ai tempi c'erano molte pubblicità di prodotti con specifica nota verso la cpu AMD che montavano dicendo che era la più potente al mondo.
E anche nei supermercati e preassemblati sia Intel ma anche AMD erano ben presenti.

Quindi va bene il marketing ma se non cè una base tecnica dietro .........

DukeIT
25-03-2016, 17:25
Se ricordo bene i grafici delle vendite di quel periodo, AMD si era avvicinata ad Intel... ma se hai i prodotti migliori in tutto (prestazioni, calore, consumo), dovresti vendere di più, non avvicinarti.

PaulGuru
25-03-2016, 17:34
Se ricordo bene i grafici delle vendite di quel periodo, AMD si era avvicinata ad Intel... ma se hai i prodotti migliori in tutto (prestazioni, calore, consumo), dovresti vendere di più, non avvicinarti.
Se hai i prodotti migliori vendi di più se col tempo consolidi la fiducia verso i consumatori.
3 anni non bastano, considerando che fino a poco prima del debutto era il P4 il riferimento delle CPU in quanto era davanti all'AthlonXP e non neghiamo neppure che il giochino della frequenza alta gli permetteva di fare molto marketing fra i neofiti del settore.



Il brand Intel era già solido all'epoca mentre AMD è emersa dopo.
Se AMD avesse continuato a dominare probabilmente oggi avremmo una situazione di mercato differente.

cdimauro
25-03-2016, 20:20
Ma relativamente alla domanda da te fatta, la risposta era corretta: quando AMD era superiore, la gente continuava comunque ad acquistare Intel.
Non per pietà, però, e quindi per aiutarla a ritornare competitiva. Il nocciolo è questo. ;)

GTKM
26-03-2016, 07:51
Non si può acquistare un prodotto per "aiutare" l'azienda. Lo si compra perché soddisfa le proprie necessità.
Stiamo parlando di CPU, non di ricerca sul cancro eh...

DukeIT
26-03-2016, 11:23
Però, nel caso di prodotti vicini come prestazioni, si può scegliere l'azienda più in difficoltà, invece che la più florida, visto che certe differenze nemmeno si avvertono.