Dai Core 2000 ai 12000: come sono cambiate le prestazioni delle CPU Intel

Dai Core 2000 ai 12000: come sono cambiate le prestazioni delle CPU Intel

In che modo sono cambiate le prestazioni delle CPU Intel Core dalla serie 2000 all'attuale 12000? E in quale modo si sono evolute le architetture, i processi produttivi e come sono salite le frequenze? In questo articolo, tra storia e numeri, una visione d'insieme di quello che è successo nella gamma Core negli ultimi 12 anni circa.

di , pubblicato il nel canale Processori
CoreIntelgaming hardware
 
84 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
HW202103 Settembre 2022, 13:01 #31
Un commento a parte al riguardo dei SOC ARM dei quali qualcuni ha fatto cenno qui nei suoi commenti (a parte per non perdere il filo del discorso nel precedente mio commento e per non allungarlo più di quanto è già abbastanza lungo):

Per quel che ne so attualmente i SoC ARM vengono implementati massicciamente solo negli smartphone nei tablet e in alcuni specifici notebook; in questi sinceramente non ho mai visto tutta sta grande potenza di calcolo dichiarata superiore ai classici processori per PC Desktop (che sono degli ibridi RISC/CISC) ...

Un discorso a parte sono i notebook iMAC di Apple, questi sono gli unici che veramente dimostrano di cosa sono capaci i SoC ARM sia dal punto di vista della potenza di elaborativa e sia dal punto di vista dei minori consumi energetici e della minor dissipazione di calore; tuttavia un'aspetto tutt'altro di poco conto è il fatto che i notebook iMAC sono sistemi chiusi proprietari specificatamente ottimizzati al contrario dei computer basati su piattaforma CISC/RISC X86 che sono universalmente compatibili con milioni e milioni di configurazioni hardware, ed è questa la vera "chiave" delle ottime prestazioni dei notebook di Apple. Comunque con specifici test alla mano i notebbok di Aplle non si sono dimostrati superiori a corrispondenti PC DeskTop o LapTop di fascia alta ....
AlexSwitch03 Settembre 2022, 13:08 #32
C'è una inesattezza sull'introduzione della eDram per le GPU integrate della serie Iris Pro ( 5200 e seguenti ).
Questa soluzione, chiamata da Intel Crystal Well che prevedeva un quantitativo ( 64/128 Mb ) di Dram montata sullo stesso die della CPU e funzionante alla stessa frequenza di clock, è stata introdotta con Haswell e non con la generazione successiva Broadwell.
Le CPU interessate erano gli i5 e gli i7 ( 45xx, 46xx, 47xx, 48xx e 49xx ) nelle declinazioni R, HQ e EQ con TDP da 47 e 65 W.
La eDram Crystal Well poteva funzionare oltre che come frame buffer per la GPU anche come cache di 4 livello per i core CPU, con gestione dinamica del quantitativo di memoria da allocare per entrambi gli usi a seconda delle necessità.
[K]iT[o]03 Settembre 2022, 13:24 #33
Non è un segreto che dalla serie Intel 2000 alla 7000 c'è stato il nulla più totale, complice principale la mancanza di vera concorrenza imputabile alle prestazioni imbarazzanti degli Athlon FX.
Dalla serie 8000 in poi Ryzen ha costretto Intel a rincorrere la flagship, utilizzando specie ultimamente qualsiasi sotterfugio con conseguenti risultati pratici a dir poco discutibili, e mi riferisco alla configurazione P+E cores.
Altro trend molto negativo, comune alle schede grafiche, è l'implementazione di serie dell'overclock molto spinto (chiamato boost), che ha ridotto ulteriormente le possibilità di personalizzazione delle configurazioni, aumentato i consumi e i costi dell'intera build.

E nel frattempo ARM avanza...
Telstar03 Settembre 2022, 13:36 #34
Perché non avete postato tutti i grafici?
Micene.103 Settembre 2022, 13:48 #35
sarebbe stato interessante confronto a parità di frequenza per vedere i miglioramenti ipc al di là del processo produttivo

dopo la serie 4 (inclusa) mai piu avuto intel....di contro di 1150 e 1155 ne ho avuti e venduti milioni, davvero tantissimi
HW202103 Settembre 2022, 13:58 #36
@chairam

Molti nel commentare gli articoli in questo portale tecnologico, parlano a sproposito di potenza elaborativa senza aver mai toccato con mano concretamente le reali potenze elaborative richieste da specifiche applicazioni. Mi spiego meglio con un esempio concreto riallacciandomi a quando già fatto cenno e scritto in precedente mio commento:

La complessa scena 3D che ho creato con Blender proprio per verificare le differenze prestazionali facendo fare il rendering alla mia GeForce RTX 3080 oppure facendolo eseguire al mio attuale processore Intel Core i9 9900K la dice lunga su cosa significa di disporre di elevata potenza elaborativa ... il processore i9 9900K termina il rendering della predetta scena 3D entro 3 ore ovvero 180 minuti, mentre se faccio eseguire il rendering alla GeForce RTX 3080 questa lo porta a termine in circa 15 minuti

Ora se questi tempi non vi sembrano particolarmente lunghi, ve li amplifico ... immaginate che nella scena in questione applico un'animazione della durata di 10 secondi con un frame rate minimo di 25 frame/sec (sono il minimo standard per una fluida visione del video finale). Andando a fare i rendering dovrei renderizzare la bellezza di 250 frame

Se li faccio eseguire al processore otterrei tutti i frame del video finale (da montare poi con software di montaggio video) dopo la bellezza di

180 minuti x 250 frame = 45000 minuti = 750 ore = 31,25 giorni = circa un mese

Se li faccio eseguire alla RTX 3080 ottengo il rendering di tutti i 250 frame del video finale (da rielaborare poi con software di montaggio video) dopo un intervallo di tempo pari a:

15 minuti x 250 frame = 3750 minuti = 62,5 ore = circa quasi tre giorni

Se questo non vi basta immaginate quanto tempo occorrerebbe alla Walt Disney creare un moderno cartone animato 3D esattamente come oramai produce e che si crea appunto con software di modellazione/animazione e rendering 3D, non gli basterebbero anni ed anni per ottenere il cartone animato finito utilizzando un PC Desktop come il mio che per uso casalingo e privato già è abbastanza performante anche se orami quasi obsoleto dopo quattro anni che l'ho assemblato ...

Ecco perché sostengo che parlate troppo a sproposito di potenza elaborativa senza averne un'esperienza concreta e diretta, si perché non tutti utilizzano certe specifiche applicazioni ed oggi più che mai anche con uno scadente computer che ti regalano dentro il fustino del detersivo per lavatrice si può utilizzare senza problemi prestazionali e agilmente Navigare in internet, scrivere email, Word/Excel/Powerpoint (e softwares analoghi free e open source), grafica raster per isitemare le proprie foto scattate con apposita cam o smartphone ecc. ecc.

Non ne parliamo poi di software tecnico scientifici come il Mathematica o MatLAB oppure software ingegneristici specifici per la progettazione di impianti industriali, di climatizzazione e/o di elementi meccanici ... cosa ovviamente che non sono utilizzati in massa ma solo da una piccola cerchia di professionisti ...


HW202103 Settembre 2022, 14:04 #37
a dimenticavo, gli attuali notebook di Apple per i quali è disponibile Blender specificatamente compilato per i sistemi operativi MAC, fanno letteralmente cancare con i rendering 3D e le piattaforme Intel/AMD X86 sono massicciamente più performanti ...
Damy0603 Settembre 2022, 14:14 #38
Complimenti, ottimo articolo !!
HW202103 Settembre 2022, 14:27 #39
Sempre a titolo di test (utilizzando per professione anche il software Mathematica della wolfraim research) e sfruttando il fatto che è possibile chiedere al Mathematica di ritornare anche il tempo che impiega ad eseguire i calcoli, ho provato a fargli eseguire lo sviluppo di Taylor di una complessa funzione continua di classe C-infinito con un ordine d'infinitesimo pari a 10 miliardi ... be in una manciata di secondi l'i9 9900K è stato in grado di restituirmi un risultato che occupa lo spazio di circa 100 pagine A4

Questo a voi vi sembra scarsa potenza elaborativa?

Ovviamente tutti questi esempi concreti e test reali li ho riportati per farvi capire che non comprendo la vostra disillusione delle performance dei processori Intel e per farvi capire anche che la potenza attuale dei computer casaling è anche eccessiva per il normale uso del computer, si perché ribadisco alcune specifiche applicazione che richiedono veramente un'esosa potenza di calcolo non sono utilizzati da tutti ma solo da una ristrettissima cerchia di persone

Anche per i videogiochi era fondamentale in passato avere un computer di top livello, oggi è sufficiente accattarsi un'opportuna scheda grafica da montare in computer dei fascia media per poter giocare con assoluta soddisfazione
Marco7103 Settembre 2022, 16:39 #40

HW201...

...molti qui dentro il forum sono ingegneri e periti industriali con esperienze varie nei settori della progettazione, matematica, ingegneria.
Uso Mathematica ad esempio dalla versione 2.0 per DOS oltre che tutti i principali programmi di calcolo simbolico ed algebrico (Derive, Macsima, Maple V ecc. ecc.) ed ho anche la passione collaterale per la teoria dei numeri con annesso calcolo delle varie costanti Pi "greca", e ecc. ecc. a miliardi di cifre decimali.
Definire "uso normale" è sempre fuorviante...come usare l'etichetta "professionale"...dipende...dipende da chi usa cosa e come la usa.

Mathematica da varie versioni ormai si avvantaggia per il calcolo interno dei set di istruzioni SIMD di cui sono dotate le cpu anche ma non solo Intel come minimo dalle SSE in poi. Non facendo più uso dello stack x87 e relative istruzioni.
Tra l'altro la latenza delle istruzioni di quello che un tempo era un coprocessore matematico discreto (epoca pre 80486) è diminuita di pochissimo in termini di cicli dall'epoca Pentium, Pentium Pro in poi.

Ben più impegnativo che non il calcolo di uno sviluppo in serie di Taylor sarebbe l'uso di programmi di nicchia come y-cruncher per il calcolo di costanti come Pi "greca".
Questo tipo di programmi usa in modo estensivo la memoria centrale, quella virtuale su memoria di massa oltre che i vari nuclei di cpu presenti.

http://www.numberworld.org/y-cruncher/

http://www.numberworld.org/misc_run...0t/details.html

La delusione a cui ci si riferisce qui è dovuta ad un aumento commisurato e proporzionato alle varie generazioni "micro" architetturali di cpu non solo Intel ma anche AMD per rimanere in ambito ISA x86/x86-64.

Per evidenziare quanto detto sarebbe servita una approfondita analisi che nessuno conduce più a base di Whetstone e MIPS Dhrystone...solo uso di programmid i benchmarking sintetico rivolti alla produzione di videogiochi o di grafica.
Per non citare l'uso di programmi mirati a mettere in luce i colli di bottiglia cpu<->memoria centrale...come LINPACK di Dongarra...se fosse usato ad esempio vedresti che tracollo e che "non aumento" di prestazioni in virgola mobile anche con l'uso dei set di istruzioni SIMD suddetti dato che te ne fai poco delle memorie cache di primo, secondo, terzo livello se devi avere a che fare con matrici di enormi dimensioni (ne sa qualche cosa chi ha usato uno dei primi supercompuer americani ASCI Red che usava dei Pentium Pro).





Marco71

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^