View Full Version : Nuove CPU Xeon ogni 12 mesi da Intel: per il 2020 debutto a 10 nanometri
Redazione di Hardware Upg
09-08-2018, 09:41
Link alla notizia: https://pro.hwupgrade.it/news/server-workstation/nuove-cpu-xeon-ogni-12-mesi-da-intel-per-il-2020-debutto-a-10-nanometri_77465.html
Cascade Lake, Cooper Lake e Ice Lake: questi i nomi in codice delle future generazioni di processore Xeon che Intel renderà disponibili tra fine 2018 e 2020. Con Ice Lake al debutto la tecnologia produttiva a 10 nanometri
Click sul link per visualizzare la notizia.
fine 2018 ancora a 14nm.. 2020 ancora a 10nm.. quando tsmc sta producendo da oltre 1 anno centinaia di milioni di chip Apple (da 80-90-100mm quadrati) a 10nm, e quest'anno inizierà la produzione a 7nm dei chip A12 su wafer 12inch. Il prossimo anno ci saranno anche i chip Ryzen ed Epyc a 7nm da AMD sempre prodotti da TSMC.. Intel è rimasta indietro nel processo produttivo, vantaggio storico che ha detenuto per anni in passato.
coschizza
09-08-2018, 10:35
fine 2018 ancora a 14nm.. 2020 ancora a 10nm.. quando tsmc sta producendo da oltre 1 anno centinaia di milioni di chip Apple (da 80-90-100mm quadrati) a 10nm, e quest'anno inizierà la produzione a 7nm dei chip A12 su wafer 12inch. Il prossimo anno ci saranno anche i chip Ryzen ed Epyc a 7nm da AMD sempre prodotti da TSMC.. Intel è rimasta indietro nel processo produttivo, vantaggio storico che ha detenuto per anni in passato.
si ma i 14nm++ sono come prestazioni in linea con i 10nm degli altri quindi non ha nessun reale svantaggio oggi. Ti ricordo che fra i 14nm e i 14nm ++ le migliorie sono state tante come se si fosse passato a un nodo inferiore.
Intel oramai è cotta a livello server e a livello di processo produttivo.
Fino al 2022 non ha alcun modo di competere ne a livello performance ne a livello prezzo con Epyc.
Quando Intel avrà pronto Ice Lake (forse in grado di competere con Rome di AMD) AMD avrà già Milan.
In parole povere parliamo di server all'incirca 30% più veloci e che costano il 70% in meno. Ah, e consumano anche meno. C'è anche il discorso PCI lanes e quantità di ram, anche queste a vantaggio di AMD.
Con questo non voglio dire che AMD vincerà il mercato server, per una serie di fondamentali motivi:
-AMD non è certificata VMWare e altre applicazioni fondamentali, le certificazioni potrebbero arrivare, ma ancora non ci sono
-Non puoi estendere un rack Intel con cpu AMD, le cpu devono essere dello stesso vendor. Ergo AMD è una soluzione solo per nuovi datacenter, ma non datacenter da upgradare.
-Intel userà tutte le sue tattiche e rebate vari per tenersi i clienti
AMD rosicchierà % notevoli ad Intel, ma per vedere cambiamenti molto netti ci vorranno tanti anni. AMD ha già avuto server più performanti ed economici di intel nel 2003, ma il mercato non è cambiato molto a vantaggio di AMD.
HwWizzard
09-08-2018, 11:43
Intel oramai è cotta a livello server e a livello di processo produttivo.
Fino al 2022 non ha alcun modo di competere ne a livello performance ne a livello prezzo con Epyc.
Quando Intel avrà pronto Ice Lake (forse in grado di competere con Rome di AMD) AMD avrà già Milan.
In parole povere parliamo di server all'incirca 30% più veloci e che costano il 70% in meno. Ah, e consumano anche meno. C'è anche il discorso PCI lanes e quantità di ram, anche queste a vantaggio di AMD.
Con questo non voglio dire che AMD vincerà il mercato server, per una serie di fondamentali motivi:
-AMD non è certificata VMWare e altre applicazioni fondamentali, le certificazioni potrebbero arrivare, ma ancora non ci sono
-Non puoi estendere un rack Intel con cpu AMD, le cpu devono essere dello stesso vendor. Ergo AMD è una soluzione solo per nuovi datacenter, ma non datacenter da upgradare.
-Intel userà tutte le sue tattiche e rebate vari per tenersi i clienti
AMD rosicchierà % notevoli ad Intel, ma per vedere cambiamenti molto netti ci vorranno tanti anni. AMD ha già avuto server più performanti ed economici di intel nel 2003, ma il mercato non è cambiato molto a vantaggio di AMD.
Beh c'è un miliardo di motivi perché questo è accaduto ;)
A questo punto si può chiaramente dire che intel ha perso tutto il vantaggio che aveva sul PP e infatti si vedono i risultati dove AMD potendo utilizzare un PP pari a intel gliele suona in tutti i campi tranne i giochi da giocare con 16 1080Ti in SLi a risoluzioni FHD o inferiori, che per i funboy (fun è voluto) intel è diventato il vero benchmark per una CPU!
... Intel è rimasta indietro nel processo produttivo, vantaggio storico che ha detenuto per anni in passato.
si ma i 14nm++ sono come prestazioni in linea con i 10nm degli altri ...
Direi che la verità sta ne mezzo.
I 14nm++ Intel sono ottimi a livello di prestazioni (tanto che Intel dichiara che occorreranno i 10nm++ per raggiungerli in termini di velocità dei transistor) e competono bene con i 10nm delle altre fonderie, ma patiscono in densità, che non è un fattore irrilevante.
Per competere con i 7nm Intel dovrà tirare fuori i 10nm, ma lo farà in ritardo rispetto alla concorrenza e presumibilmente il processo produttivo non sarà competitivo su tutti i fronti.
coschizza
09-08-2018, 12:08
Beh c'è un miliardo di motivi perché questo è accaduto ;)
A questo punto si può chiaramente dire che intel ha perso tutto il vantaggio che aveva sul PP e infatti si vedono i risultati dove AMD potendo utilizzare un PP pari a intel gliele suona in tutti i campi tranne i giochi da giocare con 16 1080Ti in SLi a risoluzioni FHD o inferiori, che per i funboy (fun è voluto) intel è diventato il vero benchmark per una CPU!
"gliele suona in tutti i campi" si direbbe un parere personale perchè non è che le cpu amd sono superiori ora sono molto competitive che è ben diverso. Ci sono cose dove son omeglo e altre meno come è normale che sia, ma non arriviamo al delirio di onnipotenza che dice che intel è alla frutta, intel vende perche fa ottimi sistemi questo è un fatto.
paolo.oliva2
09-08-2018, 13:39
"gliele suona in tutti i campi" si direbbe un parere personale perchè non è che le cpu amd sono superiori ora sono molto competitive che è ben diverso. Ci sono cose dove son omeglo e altre meno come è normale che sia, ma non arriviamo al delirio di onnipotenza che dice che intel è alla frutta, intel vende perche fa ottimi sistemi questo è un fatto.
Intel dalla sua ha UNICAMENTE frequenze superiori perchè il silicio 14nm è superiore, e Intel infatti gioca questa carta sbandierando la frequenza massima su 1-2 core (diciamo che è pressochè fumo negli occhi considerando che a breve commercializzerà un X8 16 TH che per la tipologia d'acquisto la massima frequenza su 1 core/2 TH ha valore pressochè nullo).
Però Intel gioca MOLTO sporco nel dichiarare il TDP... perchè tra passare da un 7700K X4+4 a 95W TDP ad un 9900K X8 16 TH a frequenze superiori con il raddoppio dei core allo stesso TDP, è una cosa che manco riuscirebbe se già producesse l'X8 a 10nm.
Dichiarare un TDP che nel reale può raggiungere punte del +50%, per me è scorrettissimo.
Facendo un esempio, il 7980XE di Intel è un X18, commercializzato a 165W TDP, ben inferiore rispetto ai 250W TDP di un 2990X X32 AMD. Però, se facciamo 165W TDP +50%, allora abbiamo 247,5W TDP, cioè SOLAMENTE -2,5W rispetto al 2990X.
Considerando che il 2990X è di media sopra il +50% prestazionalmente al 7980XE, è facile fare 2 conti... AMD a parità di consumo è +50% prestazionale.
Non stiamo facendo comparazioni sugli FPS dei giochi (poi fatte senza applicare i fix delle falle), ma stiamo parlando di proci X8 e più, dove il consumo ha un fattore molto importante.
Per spiegare quello che voglio dire, ho un 2700X, e mi aspetto da Intel che il suo prox 9900K batterà il mio 2700X sia in potenza ST che in potenza MT.
Però... se già pensiamo che un 8700K X6 consuma già più del mio 2700X, credo molto probabile che a fronte di un +10% prestazionale il 9900K consumerà buono buono almeno un 50/60% in più, con tutti i prb di spesa per la dissipazione (il 2700X, comprensivo nel prezzo, ha già il suo dissi stock, il 9900K, come tutti i k, andrà acquistato a parte).
Ci rendamo conto che un 1950X sul 14nm si raffreddava tranquillamente ad aria (e lo si poteva pure occare con un Noctua aria da 70€), mentre già il 7920K (se non sbaglio la sigla, lo Skylake-X X8) obbligatoriamente ci vuole un AIO e pure di fascia medio-alta? Il 2990X X32 è venduto con il dissi ad aria stock... ipotizziamo che un 7980XE possa funzionare ad aria?
E' qui il problema per Intel... perchè non è solamente un discorso architetturale... AMD, oltre all'architettura, ha avuto la geniale idea di utilizzare più die per arrivare ad un numero complessivo di die a package impossibile da realizzare allo stesso prezzo con die nativo.
Un esempio è che all'epoca TR, un 1950X X16 costava 1000€, esattamente il doppio rispetto al prezzo di un 1800X X8, che costava 500€.
Oggi vende un X32 ad un prezzo ben superiore a quello che verrebbe prendendo il prezzo di un 2700X e moltiplicandolo per 4 (300€ * 4 = 1200€, altro che 1700€).
Intel non può fare nulla, tranne che far pagare i suoi X28 10.000$ a salire.
A mio modo di vedere, e cerco di essere il più razionale possibile, Intel le busca e sonoramente in consumo/prestazioni e prezzo/prestazioni e offerta potenza massima. Se tieni in considerazione questi 3 parametri, cosa rimane per preferire un procio Intel ad uno AMD? Tra l'altro con la piattaforma AMD compatibile (parole ufficiali di AMD) per il prox Zen e Zen3 (fino al 2020 compreso?)
Poi, per carità... uno può anche preferire un 8700K ad un 2600X e pure il 9900K, ci mancherebbe... però deve avere i soldi che gli cascano dalle tasche. :)
HwWizzard
09-08-2018, 13:42
"gliele suona in tutti i campi" si direbbe un parere personale perchè non è che le cpu amd sono superiori ora sono molto competitive che è ben diverso. Ci sono cose dove son omeglo e altre meno come è normale che sia, ma non arriviamo al delirio di onnipotenza che dice che intel è alla frutta, intel vende perche fa ottimi sistemi questo è un fatto.
A parità di costo ed esclusi Sli di 18080Ti a 1080p AMD è superiore. Poi se uno vuole per forza vedere intel avanti è un altro discorso. intel oggi vende un buon 90% grazie alle malefatte passate dove si è creata la leggenda che intel è meglio sempre e comunque. Ma se uno analizza quello che paga con quello che riceve in prestazioni ad oggi intel perde sempre. Ah si non ho nessuna CPU Amd perchè non ho ancora avuto bisogno di aggiornare dopo l'uscita di ryzen.
paolo.oliva2
09-08-2018, 14:00
A parità di costo ed esclusi Sli di 18080Ti a 1080p AMD è superiore. Poi se uno vuole per forza vedere intel avanti è un altro discorso. intel oggi vende un buon 90% grazie alle malefatte passate dove si è creata la leggenda che intel è meglio sempre e comunque. Ma se uno analizza quello che paga con quello che riceve in prestazioni ad oggi intel perde sempre. Ah si non ho nessuna CPU Amd perchè non ho ancora avuto bisogno di aggiornare dopo l'uscita di ryzen.
Se uno dovesse considerare le malefatte di Intel per acquisire il monopolio del mercato, con la conseguenza diiretta di un'offerta di X4+4 per 10 anni e che per proci superiori bisognava fare un mutuo, beh, come "cliente", io già penalizzerei Intel nel non acquistare i suoi prodotti anche pagandoli alla pari di AMD (e questo è un argomento che RECEPISCONO molto bene), figurati se dovessi poi spendere +50% per avere -50% e risposte del tipo "le falle? Le abbiamo riparate a sufficienza", basta così. Cacchio, te l'ho strapagato, potresti sostituirmelo a gratis con l'ultimo di tua produzione, invece mi dici "per noi va bene così, chi ha avuto ha avuto, chi ha dato ha dato?". :) Se poi c'è gente che di tutto questo se ne frega e vuole premiare Intel pagando di più per avere di meno, beh, Intel fa più che bene a fare come fa (e come ha fatto).
paolo.oliva2
09-08-2018, 14:20
Hai mai avuto un processore K? Giusto per sapere....
Non ho mai avuto intenzione di regalare i miei soldi :). Non avevo/ho i K di Intel, ma gli X di AMD, anche era BD.
Avevo un negozio dove assemblavo i computer, fin dall'epoca degli 8088. Dopo gli MMX (validissimi, di Intel) ho sempre commercializzato AMD, Intel solo su ordinazione.
Il motivo è stato il bug dei Pentium 90-100 e 120, che Intel li aveva si sostituiti gratis, ma io sono dovuto andare a mie spese dai miei clienti per smontare il vecchio e montarci il nuovo, senza manco un grazie da Intel.
Con AMD ero entrato nel suo circolo di rivenditori, mi riempiva di gadget, mentre avere a che fare con Intel era come telefonare al presidente della repubblica.
Da quel giorno non ho avuto più un procio Intel, a parte 2 proci nel mobile, oggi rimpiazzati da un 2700U.
Non è questione di fanboismo... è mio carattere... se uno mi inc...la, io cambio, se mi trovo bene, rimango. L'ho fatto con la marca di auto e con tante altre cose. Se fregano tutti, vaglio la possibilità di fare a meno di quella cosa. Un esempio, l'Italia è diventata invivibile? OK, mi sono trasferito in Costa d'Avorio... io là lavoro 12 mesi per me, non come in Italia che su 12 mesi solamente 2 sono per me.
Comunque le frequenze non dipendono solo dal processo produttivo eh ma anche dal numero di transistor.
Vedi Fiji e Vega, hanno la stessa identica architettura (stesse rops, cu, ecc) ma Vega ha il 50% di transistor in piu che servono ad alzare i clock (più transistor metti nello stesso nodo più puoi alzare la frequenza abbassando il voltaggio).
paolo.oliva2
09-08-2018, 14:36
Comunque le frequenze non dipendono solo dal processo produttivo eh ma anche dal numero di transistor.
Vedi Fiji e Vega, hanno la stessa identica architettura (stesse rops, cu, ecc) ma Vega ha il 50% di transistor in piu che servono ad alzare i clock (più transistor metti nello stesso nodo più puoi alzare la frequenza abbassando il voltaggio).
Per la frequenza incidono molti fattori... Ad esempio il clock lo si può alzare anche su un PP mediocre, a patto di aumentare i layer.
Secondo me è quanto ha fatto Intel... cioè, che il 14nm Intel sia il migliore, è fuori discussione, ma secondo me le ultime release hanno frequenze alte più per un aumento dei layer che per affinamento processo.
In fin dei conti, l'offerta Intel 8700K a scendere, non ha alcun problema in sè di prestazione a core, anzi, sarebbe pure più competitiva, ma quello che Intel paga è il prezzo.
Prendi un 8700K, lo prezzi a 200€ e da domani le vendite Intel vanno a iosa.
Ha poco senso spendere per affinare il PP e realizzare una nuova maschera su un cambio procio che cambia più nel nome che nella sostanza.
Non che intel avesse bisogno di farsi concorrenza interna in epoca pre-Ryzen.
Basta cacciare fuori dal cassetto il fascicolo "concorrenza sleale"... vi coprite di ridicolo. IBM ha venduto calcolatori ai nazisti, boicottiamola?
Infine, voi che con il pc ci giocate, cosa ve ne fate di 16-32-64 core?
Già con una 1070 e un 4690k faccio girare due giochi senza problemi.
Non sarebbe meglio avere max 8 core che scaldano una miseria senza far intevenire(comprare) Noctua o Silver arrow?
Oggi comprerei una cpu amd? Si anche per il supporto della mobo.
paolo.oliva2
09-08-2018, 15:40
Non che intel avesse bisogno di farsi concorrenza interna in epoca pre-Ryzen.
Basta cacciare fuori dal cassetto il fascicolo "concorrenza sleale"... vi coprite di ridicolo. IBM ha venduto calcolatori ai nazisti, boicottiamola?
Sono 2 cose differenti.
Se IBM ha venduto i PC ai nazisti, poco mi importa (egoisticamente non sono parte in causa) come non lo sarei se Intel avesse dovuto pagare 1 miliardo e 500 milioni di $ (mi sembra) ad AMD perchè ha fatto concorrenza sleale e la cosa chiusa lì.
Il problema è che mettendo in crisi economicamente AMD, AMD non ha avuto le forse di controbattere e con tutta probabilità la superiorità di Intel sul silicio è una diretta conseguenza, nel senso che riuscendo ad acquisire sopra il 95% del mercato PC, poteva attingere su una liquidità che di fatto le ha concesso di investire somme enormi sul silicio.
Se poi Intel a fronte di questo ha potuto prezzare un X4 a 400€, un X8 a 1200€ ed un X10 a 1700€, cacchio, questo interessa pure a noi, perchè Intel ha pagato AMD, ma non noi che per 10 anni gli abbiamo strapagato i proci.
-----
Il discorso di AMD e della sua posizione a posteriori per me è una diretta conseguenza.
Non credo sia una misura corretta confrontare una ditta (Intel) in grado di realizzare una architettura ma di fatto, essendo proprietaria di FAB, realizzare un silicio su misura della sua architettura, cosa che AMD non può fare, cioè, TSMC, GF, hanno il loro PP silicio che possono offrire ad AMD e sul quale al limite finalizzare un PP, ma da scordarsi un'evoluzione di 5-6 PP come Intel ha fatto sul 14nm, con un totale di varianti come sarebbe intuibile tra il PP per un X4 (massima frequenza a scapito dei consumi) e quello per un X28 (minimi consumi).
Il "trucco" del die unico di AMD è dovuto anche a questo... perchè GF per fare svariati affinamenti di PP, avrebbe aumentato il costo di produzione a die. Ora che i dindi AMD li ha fatti, si può permettere di "lavorare" con TSMC per gli Epyc (probabilmente il 7nm TSMC è più parco nei consumi) e GF (più idoneo alla massima frequenza).
-----
Ora, se Intel si trova indietro ad AMD sia dal punto di vista architetturale che sul silicio, cosa dovremmo fare noi? Aiutarla comprandogli i proci?
Infine, voi che con il pc ci giocate, cosa ve ne fate di 16-32-64 core?
Già con una 1070 e un 4690k faccio girare due giochi senza problemi.
Non sarebbe meglio avere max 8 core che scaldano una miseria senza far intevenire(comprare) Noctua o Silver arrow?
Oggi comprerei una cpu amd? Si anche per il supporto della mobo.
Il discorso io lo farei in questo modo:
Io non mi compro un 2950X X16 se riesco a fare le stesse cose con un 2700X X8 che me ne costa 300€.
Però non andrei a comprare un X6 a 350€ (8700K) se AMD mi da un X8 (2700X) pagandolo 50€ in meno.
Perchè dovrei spendere di più per avere di meno? Al limite, se proprio ti fa strano avere 2 core in più, prenderei un 2600X a 200€ al posto dell'8700K a 350€.
Poi per me è abbastanza "facile" la scelta... a parità di prezzo/prestazioni, al limite avrei una preferenza per questa o quella ditta... ma a fronte di un prezzo/prestazioni nettamente superiore di Intel (cacchio, un X32 costa meno di un X18, un X16 meno di un X10 e un X12 meno di un X8), la scelta è ovvio che ricada su AMD, ma nemmeno in discesa, in caduta libera.
Mister D
09-08-2018, 16:49
Intel oramai è cotta a livello server e a livello di processo produttivo.
Fino al 2022 non ha alcun modo di competere ne a livello performance ne a livello prezzo con Epyc.
Quando Intel avrà pronto Ice Lake (forse in grado di competere con Rome di AMD) AMD avrà già Milan.
In parole povere parliamo di server all'incirca 30% più veloci e che costano il 70% in meno. Ah, e consumano anche meno. C'è anche il discorso PCI lanes e quantità di ram, anche queste a vantaggio di AMD.
Con questo non voglio dire che AMD vincerà il mercato server, per una serie di fondamentali motivi:
-AMD non è certificata VMWare e altre applicazioni fondamentali, le certificazioni potrebbero arrivare, ma ancora non ci sono
-Non puoi estendere un rack Intel con cpu AMD, le cpu devono essere dello stesso vendor. Ergo AMD è una soluzione solo per nuovi datacenter, ma non datacenter da upgradare.
-Intel userà tutte le sue tattiche e rebate vari per tenersi i clienti
AMD rosicchierà % notevoli ad Intel, ma per vedere cambiamenti molto netti ci vorranno tanti anni. AMD ha già avuto server più performanti ed economici di intel nel 2003, ma il mercato non è cambiato molto a vantaggio di AMD.
Sei sicuro di questo?
Da qua non sembra proprio:
https://www.vmware.com/resources/compatibility/detail.php?deviceCategory=cpu&productid=124&vcl=true
Noi al lavoro abbiamo una netapp con Esix 6.5 con due server HP proliant gen 8 (mi pare) con doppio xeon bdw e a vedere qua sopra potrei decidere di cambiare prendendo questi:
https://www.hpe.com/us/en/product-catalog/servers/proliant-servers/pip.hpe-proliant-dl385-gen10-server.1010268408.html
E il sistema girerebbe lo stesso;)
Sono 2 cose differenti.
Ora, se Intel si trova indietro ad AMD sia dal punto di vista architetturale che sul silicio, cosa dovremmo fare noi? Aiutarla comprandogli i proci?
Io non mi compro un 2950X X16 se riesco a fare le stesse cose con un 2700X X8 che me ne costa 300€.
Però non andrei a comprare un X6 a 350€ (8700K) se AMD mi da un X8 (2700X) pagandolo 50€ in meno.
Perchè dovrei spendere di più per avere di meno? Al limite, se proprio ti fa strano avere 2 core in più, prenderei un 2600X a 200€ al posto dell'8700K a 350€.
Non mi segui ed io sono stato, volutamente, poco specifico... preferirei che amd proponesse, nel prossimo futuro, cpu 8 core come base di partenza tra i 100-150 euro.
Certo che se a 300€ na hai 16 e a 600€ 32... tutto molto fico, ma per i giochi ed i programmi di tutti i giorni non servono.
Meglio sfruttare il pp sempre più piccolo per consentire a noi poveri gamers di poter usare case contenuti, senza dover comprare 100€ di dissipatore...
50€ per i non abbienti.
attaccarsi ad una slide del 2012...
HwWizzard
10-08-2018, 13:09
attaccarsi ad una slide del 2012...
Eh ma quando le faceva AMD tutti a fare I brillanti sul forum.... Era intel che faceva la sborona finché non le ha prese sui denti e puff magicamente si può vendere anche un 6 core a 250$ invece di 660$.... e continua a propinare slide sui 10nm che non si sa bene se arriveranno mai
paolo.oliva2
12-08-2018, 09:31
Non mi segui ed io sono stato, volutamente, poco specifico... preferirei che amd proponesse, nel prossimo futuro, cpu 8 core come base di partenza tra i 100-150 euro.
Certo che se a 300€ na hai 16 e a 600€ 32... tutto molto fico, ma per i giochi ed i programmi di tutti i giorni non servono.
Beh, finchè Intel vendeva solamente gli X4+4, gli X6 e X8 AMD erano inutili... poi Intel commercializzò l'8700K X6 e, coincidenza, gli X4+4 di colpo sono diventati insufficienti e 6 core servivano (ma non gli 8 di AMD). A settembre uscirà l'X8 Intel, e di colpo gli X6 (8700K) saranno insufficienti. Beh... è una continua bandiera a seconda di cosa fa Intel.
In ogni caso, aumentare l'offerta di core, non vuole dire che ci sarà assenza di proci con meno core, soltanto che si pagheranno molto meno.
Un X4 Zen è un riciclo di un die X8 fallato, ma se AMD fa pagare un X8 meno di un X6 Intel, è ovvio che tutti i tagli inferiori (X8 --> X6 e X4) costeranno di meno dell'X8 AMD e molto di meno di X& e X4 Intel.
Meglio sfruttare il pp sempre più piccolo per consentire a noi poveri gamers di poter usare case contenuti, senza dover comprare 100€ di dissipatore...
50€ per i non abbienti.
Allora in ogni caso dovresti comunque comprare AMD... parlare di proci freddi di marca Intel, è incongruente :).
attaccarsi ad una slide del 2012...
Dato che si sta parlando di un ritardo di cinque anni, mi pare molto difficile riferirsi ad una slide più recente. Il ritardo va calcolato rispetto alle prime roadmap in cui si è fissato il periodo di uscita del prodotto.
Insomma, stai facendo un commento senza alcun senso logico.
Beh, finché Intel vendeva solamente gli X4+4, gli X6 e X8 AMD erano inutili...
Visto che nel tempo il software cambia, non ci vedo nulla di strano che man mano che passano gli anni la situazione possa cambiare. Quindi se sei anni fa era più difficile sfruttare otto core, oggi l'evoluzione del software ti consente di farlo meglio di prima.
Oltretutto dipende anche a quali 8 core AMD ti stai riferendo. L'architettura CMT di AMD con Bulldozer era nata per competere con l'HT di Intel, quindi un octa core AMD avrebbe dovuto competere con un Intel 4c/8t (non a caso l'octa core BD aveva solo 4 FPU, come il quad core Intel), purtroppo senza riuscirci realmente (ma questo è un altro discorso).
Differente il discorso se si parla di octa core Zen, li in effetti c'è una sovrabbondanza di core rispetto alle offerte precedenti e si parla di una situazione molto più recente (quindi è meno valevole il discorso del software, a meno di improbabili grandi cambiamenti nel breve periodo).
Allora in ogni caso dovresti comunque comprare AMD... parlare di proci freddi di marca Intel, è incongruente :).
Beh, ora però non diciamo sciocchezze.
Un'affermazione del genere potevi farla per i vecchi BD si AMD, i cui consumi (e il conseguente calore prodotto) erano molto superiori alle controparti Intel, ma anche se oggi i processori Intel sono un po' più caldi (essenzialmente per l'uso della pasta termica) non mi pare sia affatto giustificata un'affermazione del genere.
A proposito di questo:
https://semiaccurate.com/2018/08/02/intel-guts-10nm-to-get-it-out-the-door/
I "10nm" di Intel in arrivo a fine 2019 non saranno quelli promessi, al punto che sarebbero da classificare come 12nm sotto vari aspetti.
Mi sa che come successo con i P4, faranno leva sul marketing per resistere il tempo necessario per avere una proposta davvero competitiva a livello di PP ed architettura.
Il problema è che questa volta non è solo di AMD che devono preoccuparsi.
Nel senso che AMD può cambiare foundry con meno problemi di Intel.
paolo.oliva2
12-08-2018, 16:24
...Visto che nel tempo il software cambia, non ci vedo nulla di strano che man mano che passano gli anni la situazione possa cambiare. Quindi se sei anni fa era più difficile sfruttare otto core, oggi l'evoluzione del software ti consente di farlo meglio di prima.
Si ma non parliamo di anni, bensì di giorni.
Cioè, il giorno prima alla commercializzazione 8700K, gli X4+4 andavano benissimo ed erano più che sufficienti, il giorno dopo, gli X4+4 non andavano più bene.
Oltretutto dipende anche a quali 8 core AMD ti stai riferendo. L'architettura CMT di AMD con Bulldozer era nata per competere con l'HT di Intel, quindi un octa core AMD avrebbe dovuto competere con un Intel 4c/8t (non a caso l'octa core BD aveva solo 4 FPU, come il quad core Intel), purtroppo senza riuscirci realmente (ma questo è un altro discorso).
Beh, dai... la discussione è sul 10nm che Intel avrà disponibile fine 2020, Zen è uscito nel 2017, mi sembra ovvio che non stia parlando di una architettura uscita nel 2012, dai.
Per quanto riguarda il discorso architettura, BD ha pagato il silicio più dell'architettura, perchè se ben ricordi, tutti i discorsi sull'efficienza dell'architettura Intel, sono andati a finire nel cesso, visto che la stessa Intel dichiara e ha dichiarato che il suo processo 14nm è del 20-25% superiore a qualsiasi altro processo (GF compresa), quindi per arrivare al punto di perdere quel 20/25% di superiorità silicio e perdere ancora (per le prestazioni che Intel deve cavarci dalla sua architettura, e non parlo di 1 TH su 1 core ma di tutto il procio, l'efficienza si è andata a far benedire), tutta sta gran efficienza sull'architettura Intel era una bufala, e se oggi regge, lo è solamente per il tiramento di capelli estremo del suo silicio (ma vs il 7nm TSMC/GF sarà una ecatombe).
Differente il discorso se si parla di octa core Zen, li in effetti c'è una sovrabbondanza di core rispetto alle offerte precedenti e si parla di una situazione molto più recente (quindi è meno valevole il discorso del software, a meno di improbabili grandi cambiamenti nel breve periodo).
Come detto parlavo di Zen... ma il 10nm non sarà la panacea per Intel, perchè per contrastare AMD, non c'è solamente un discorso di core ma anche (e soprattutto) il modo di produrli sti core... ed Intel con il mono-die, è in braghe di tela... perchè al più il 10nm, teorizzando una resa simile al 14nm, abbasserebbe del 40% il costo di produzione, ciò vorrebbe dire in linea di massima portare un X18 dai 2000$ attuali a 1200$, ma con AMD che sul 14nm è già a 1500$ per un X32, con il 7nm ci sarà più divario rispetto all'attuale.
Beh, ora però non diciamo sciocchezze.
Un'affermazione del genere potevi farla per i vecchi BD si AMD, i cui consumi (e il conseguente calore prodotto) erano molto superiori alle controparti Intel, ma anche se oggi i processori Intel sono un po' più caldi (essenzialmente per l'uso della pasta termica) non mi pare sia affatto giustificata un'affermazione del genere.
Ti ricordo che ALMENO AMD ha venduto la coerenza di vendere un 9590 a 220W TDP, ed ancora oggi AMD vende un procio con un TDP dichiarato che non si può superare... mentre Intel ha preso la via di dichiarare un TDP valutato su un carico di lavoro "normale", che vuol dire? Che dal TDP dichiarato al TDP effettivo ci può essere una differenza del +50%.
Ora... se tu per un po' più caldo intendi un procio che da 90W TDP arriva a 135W TDP vs un altro che è venduto a 105W e rimane a 105W, io lo intendo molto più caldo, visto che quando AMD vendette i Phenom I 125W, con il modello successivo a 140W, per +15W sembrava una catastrofe. :).
Magari toccherebbe pure rimarcare che un X6 a 95W ed un X8 a 105W, non vuole assolutamente dire che l'X8 consuma di più, anzi, totalmente il contrario, perchè con un carico sull'X6 massimo, avremo l'X6 al 100% e quindi 95W TDP, mentre l'X8, con il +33% di core, non sarà assolutamente al 100%, ma poco sopra al 75%, e quindi vorrebbe dire ~75% di 105W TDP, ben meno dei 95W dell'X6.
Quindi mi pare più che ovvio che Intel, già partendo da un TDP che è inferiore al reale massimo, per di più riferito ad un procio ben più facile saturare in quanto ha meno core di un modello di pari fascia AMD, di certo vuol dire tutto tranne che sia colpa della pasta.
Il TDP so bene che non è il consumo, ma riguarda specifiche di alimentazione e di temperatura, ma essendo il procio un componente elettronico con nessuna parte meccanica, le temperature raggiunte saranno proporzionali alla corrente/tensione necessarie al proprio funzionamento, quindi di per se, è un metro sufficiente per avere una idea di massima del consumo e temperature del procio. Ed infatti è proprio per questo che Intel valuta il TDP per un carico di lavoro "normale" a suo uso e consumo.
Dai... se si sta a credere a quello che dice, sarebbe riuscita a passare da un 7700K X4+4 93W, ad un 8700K con +50% di core e frequenze def e massime superiori, cosa che manco sarebbe difficile da ottenere conn un salto di miniaturizzazione silicio... il bello è che il 9900K, con +33% di core rispetto all'8700K e frequenze probabilmente ancora più tirate, avrà lo stesso TDP... quindi Intel immagina di produrre l'8700K già sul 10nm dichiarando quel TDP ed il 9900K già sul successore... LOL
Beh, dai... la discussione è sul 10nm che Intel avrà disponibile fine 2020, Zen è uscito nel 2017, mi sembra ovvio che non stia parlando di una architettura uscita nel 2012, dai.
Mica tanto ovvio... la questione degli "otto core sono troppi" risale ai tempi di Bulldozer, anche se spesso se ne parlava un po' a sproposito proprio per le differenze architetturali tra le due soluzioni.
Per inciso BD è stato fallimentare in ambito consumer non solo per il silicio ma perchè i suoi punti di forza non erano ben sfruttabili e perchè la microarchitettura era troppo votata al multithread.
Ora... se tu per un po' più caldo intendi un procio che da 90W TDP arriva a 135W TDP ...
E questi numeri da dove saltano fuori? Spero non siano la voce di qualche utente che spara qualche sciocchezza su un forum.
Ad ogni modo il fatto che arrivi a quel TDP in condizioni particolari (per esempio utilizzando un certo set di istruzioni che oltretutto può accelerare notevolmente certe operazioni) non significa nulla se il processore nel complesso si comporta bene.
Al momento non mi pare ci siano differenze di efficienza così significative e non mi pare che AMD non sfori mai il valore dichiarato con il TDP (anzi... farlo per periodi di tempo limitato è una caratteristica dei nuovi sistemi "turbo").
L'unica cosa su cui concordo è che al momento AMD, con la sua architettura modulare ha un vantaggio nella produzione, e Intel dovrà farci i conti. Ma ricordiamo che Intel ha fonderie proprie, quindi è difficile fare un paragone diretto.
... perchè con un carico sull'X6 massimo, avremo l'X6 al 100% e quindi 95W TDP, mentre l'X8, con il +33% di core, non sarà assolutamente al 100%, ma poco sopra al 75%, e quindi vorrebbe dire ~75% di 105W TDP, ben meno dei 95W dell'X6.
Ora però non mettiamoci a fare i conti della serva, che non funziona affatto in questo modo :asd:
E non sto contestando l'assunzione, ma il metodo.
paolo.oliva2
16-08-2018, 10:15
E' la stessa Intel che riporta che il TDP nominale può essere sforato sino al +50% (ovviamente la mette in modo che sembri sia una possibilità remota, ma per Intel probabilmente la definizione di carico "normale" è molto.... partigiano).
Comunque, io non contesto il fatto che il silicio Intel sia nettamente migliore di quello GF in frequenza massima, ed in questo ovviamente faccio tutte le mie lodi ad Intel. Contesto unicamente ad Intel di voler nascondere che le frequenze massime raggiunte sono al prezzo di una perdita di efficienza.
Leggi sto articolo:
https://www.ginjfo.com/actualites/composants/processeurs/core-i9-9900k-et-core-i7-9700k-bilan-autour-des-caracteristiques-20180816
Un salto di miniaturizzazione consente di abbassare il consumo a parità di transistor, diciamo che a parità di bontà PP si può arrivare ad un -40% di consumo. Quindi già passare da un 8700K X6 ad un 9900K X8 (+33% di transistor), sarebbe alla portata di un salto di miniatura mantenendo le stesse frequenze di un X6.
Ma qui parliamo che da un X6 @4,3GHz su tutti i core e @4,7GHz di frequenza massima su 1 core, si passa a @4,7GHz SU TUTTI I CORE... già sarebbe un miracolo da ottenere con 1 salto di miniaturizzazione... Ottenerlo sullo stessa miniaturizzazione è pura fantascienza... quindi è per questo che non credo assolutamente ai 95W TDP.
Poi è ovvio, se i 95W TDP sono sforabili del 50% ed in più Intel ci marcia ancor più sul peso del carico che lei giudica "normale", beh... lo può anche dichiarare 65W TDP... ma per me, ripeto, è una colossale bufala cercare di far credere che da un 7700K @4GHz def @4,2GHz Turbo 91W dalla stessa miniaturizzazione è riuscita a raddoppiare i transistor e aumentare le frequenze del >17% il tutto con 4W TDP in più, io non ci credo perchè non è assolutamente fattibile fisicamente...
Il 6900K era efficiente, e se ti ricordi AMD stessa aveva orgogliosamente presentato un ES Zen che riusciva ad essere (LEGGERMENTE) più efficiente prima a 3GHz e poi a 3,2GHz (che era la frequenza def del 6900K).
Quello che salta all'occhio, è che Intel con gli Skylake-X ha addirittura diminuito il TDP dichiarato (il 6900K X8 era 140W TDP, il 7900X X10 è passato a 135W se non sbaglio), nonostante aumenti di frequenza di 1GHz e anche più, a tal punto che il 7900X (X10), arriva a consumare quanto un 1950X (X16), ma AMD dichiara il 1950X 180W TDP, mentre Intel abbondantemente meno.
E' ovvio che non essendoci una normativa in vigore, Intel può dichiarare il TDP come vuole, ma non arriviamo ad illuderci che prenendo il dissi ad aria stock di un 2700X che ha 105W TDP, saremmo in grado di far funzionare un 7820X (X8)... perchè qualsiasi rece di sta terra ha dichiarato che per permettere il funzionamento di qualsiasi Skylake-X è necessario almeno un AIO 240 e di ottima fattura... altro che i 250W di un X32 2990x raffreddabile (ed occabile) pure ad aria.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.