Quote:
Originariamente inviato da calabar
@PaulGuruParti dal presupposto sbagliato, ossia che un affinamento del processo produttivo significhi necessariamente un aumento di frequenza.
Rimane comunque sbagliato il presupposto da cui partivi, ossia che il nuovo processo produttivo avrebbe dovuto portare processori a frequenza maggiore
|
Certo che lo sò, ma questo perchè anni fa un minor PP comportava anche ad un aumento dei transistors consistente per via di una nuova architettura o di cambiamenti tangibili, cosa che però non avviene più con Intel, quindi è logico che l'unica cosa che rimane ( a parte la iGPU ) è la frequenza.
Quote:
|
Non è affatto detto, anzi in diversi casi è possibile il contrario (per esempio gli Athlon64 con frequenza più elevata erano a 90nm e non a 65nm).
|
Però i Phenom avevano 4 cores, gli Athlon64 solo due.
E si diceva che i 65nm di AMD fossero un FAIL, a sto punto dobbiamo considerare così anche quelli di Intel ?
E poi non esisteva il turbo a quell'epoca.
Quote:
|
Ora che la miniaturizzazione sta diventando sempre più difficile, non sarebbe strano aspettarsi il contrario.
|
Miniaturizzazione = più transistors sullo stesso die a parità di dimensione e calore emesso o più frequenza sullo stesso die a parità di calore e consumi.
Se nessuno dei due avviene più a sto punto il cambio di PP su mainstream avviene solo perchè ad Intel conviene unificare la produzione e basta, ma a livello pratico zero.
Quote:
|
Certo, i consumi ridotti servono anche su desktop. Non è solo una questione di consumo, ma anche di dissipazione, di dimensionamento dei circuiti di alimentazione, di curva di consumo al salire della frequenza, di far rientrare i chip entro una certa soglia per stabilire le fasce di prodotto, ecc...
|
Dissipazione che ultimamente è peggiore con l'avanzare del PP o addirittura indifferente senza che il die subisca cambiamenti.
Quote:
Lasciando per un attimo da parte i discorsi sull'integrazione (e di conseguenza le possibilità di complessità del chip), uno step indietro per Intel significa produrre meno chip sul singolo wafer, quindi non le conviene rimanere sullo step precedente, a patto ovviamente che la produzione sia abbastanza buona.
Oltretutto il nuovo processo produttivo deve monetizzare ed essere ammortizzato.
Alcuni pare che credano che Intel possa fare quel che vuole, ma anche lei deve sottostare alla legge dei costi, soprattutto ora che i nuovi processi produttivi sono assai costosi.
|
Appunto i PP nuovi costano sempre di più e Intel li fa fruttare solo dove vuole lei ( mobile e server ).
Quindi su mainstream il cambio di PP avviene solo per una questione di uniformità ma poi non viene espresso alcun vantaggio se non l'iGPU più grande.
Quote:
Riguardo alla complessità di Skylake, non hanno detto solo quello, hanno anche spiegato su cosa hanno lavorato. Anche tu puoi approfondire se vuoi (io mi sono fermato alla superficie, non ho avuto tempo di vedere nel dettaglio).
Rimane il fatto che la dichiarazione esiste ed è ufficiale, mentre le supposizioni sono altre.
|
A parità di clock la differenza fra Hasswell e Skylake fa quasi ridere, quindi qualunque cambio dicono di aver operato o potevano risparmiarselo ( quindi parliamo di fail ) o ne han fatti ben pochi.
E non si può negare che l'architettura non è nuova dove ci sono aspetti ancora da apprendere.
Quote:
Per quanto riguarda il processore ad alta frequenza, si possono fare tante cose, ma non tutte sono convenienti. Se non l'hanno fatto è perchè non conveniva (e se non conveniva con uno xeon...).
Il taglio laser della GPU non porta grandi vantaggi in overclock, ormai è power gating fa un ottimo lavoro nell'isolare i circuiti.
Quella dei Chip selezionati ma con GPU non funzionante è quasi una contraddizione, solitamente i chip con una parte non funzionante fanno parte di batch meno riusciti o chip periferici, e di conseguenza è molto difficile tirarci fuori qualcosa di "selezionato".
|
Solitamente sono quelli che vengono dalla parte centrale ad essere di maggior qualità.