La Intel del futuro tra nanometri, tecnologia e 6 pilastri di crescita

La Intel del futuro tra nanometri, tecnologia e 6 pilastri di crescita

In una intervista con Murthy Renduchintala, Chief Engineering Office, Technology, Systems Architecture and Client Group, scopriamo quali siano stati i problemi che hanno colpito Intel negli ultimi anni, la strategia per un passaggio ai 7 nanometri che sia senza problemi, l'abbandono futuro dei chip monolitici e la ricetta di sviluppo futuro basata su 6 pilastri

di pubblicato il nel canale Processori
Intel
 

3 gennaio 2020: sono sull'aereo che mi porterà negli Stati Uniti per partecipare al CES di Las Vegas. Mentre sta per completarsi la fase di imbarco e attendo al mio posto che tutti i passeggeri si siedano, squilla il cellulare: è il responsabile comunicazione di Intel Italia, che mi chiama per confermarmi una intervista che aveva organizzato per la mia trasferta al CES. A sorpresa cambia però l'intervistato e ne resto non poco stupito. Dovrò incontrare dopo qualche giorno Venkata Renduchintala, semplicemente meglio noto come Murthy: è CEO di Intel.

murthy_shot_1.jpg

Questa sigla non è nel suo caso acronomo di Chief Executive Officer, cioè amministratore delegato, ma di Chief Engineering Office, Technology, Systems Architecture and Client Group. Detto in altro modo, quindi, il lavoro di Murthy è quello di governare in Intel tutto quello che riguarda lo sviluppo della tecnologia e la capacità produttiva interna all'azienda.

Proprio l'interlocutore giusto, penso, per cercare di fare un po' di chiarezza su quello a cui Intel sta lavorando e sulle prospettive di sviluppo per i prossimi anni. Ma più di tutto voglio approfondire le problematiche incontrate dall'azienda nel corso degli ultimi anni, legate alla transizione alla tecnologia produttiva a 10 nanometri. Partiamo proprio da questo nella nostra chiacchierata nei giorni che chiudono il CES 2020.

Dalle parole ai fatti: quella execution che è diventata un problema degli ultimi anni

Ai miei occhi quello che è mancato ad Intel in questi anni è quello che gli americani definiscono con il termine di "execution", cioè la capacità di concretizzare in fatti i piani di sviluppo futuri. Proprio l'ambito nel quale la concorrente AMD ha sempre incontrato notevoli difficoltà nel passato e dove invece, da alcuni anni a questa parte, non sembra sbagliarne una. Ed è proprio su questo aspetto che inizia la nostra conversazione, con una risposta molto franca di Murthy che ammette le difficoltà incontrate dell'azienda, soprattutto nel passaggio alla tecnologia produttiva a 10 nanometri.

"Una delle grandi capacità nella storia di Intel è stata quella di fornire nuova tecnologia e processi produttivi in costante evoluzione con una cadenza facilmente prevedibile e costante nel tempo. Recentemente come azienda abbiamo sbagliato, e lo abbiamo fatto gravemente: questo è in modo principale legato alle difficoltà nel passaggio alla tecnologia produttiva a 10 nanometri, con il quale abbiamo assunto rischi tecnologici troppo spinti e siamo stati eccessivamente ambiziosi e aggressivi."

Una franchezza, la sua, che vista la posizione ricoperta non mi aspettavo e che ho molto apprezzato

Una franchezza, la sua, che vista la posizione ricoperta non mi aspettavo e che ho molto apprezzato. Da qui passiamo al presente, che vede Intel posizionata in una "clear road to improvement" per citare le parole di Murthy con una roadmap di prodotti a 10 nanometri che vedremo al debutto già nel corso del 2020 (nota: al CES Intel ha annunciato, in una conferenza stampa, una serie di processori attesi per i prossimi mesi basati su queste tecnologie tanto per sistemi datacenter come per i notebook).

Sarà da quest'anno che Intel rientrerà in una fase per la quale l'alternanza tra novità tecnologiche e innovazioni nella tecnologia produttiva tornerà a quella cadenza stabile e prevedibile che ne ha caratterizzato il passato, superando la fase di difficoltà incontrata nel corso degli ultimi anni. Ma per raggiungere questo obiettivo Intel ha dovuto anche investire in leadership, inserendo nel proprio organico figure chiave che contribuiscano tanto allo sviluppo tecnologico come a quello della sua capacità produttiva meglio segmentando la struttura all'ingresso con l'obiettivo di renderla più pronta e rapida ai cambiamenti.

In questo senso vengono subito alla mente due volti pubblici di Intel fortemente impegnati nello sviluppo delle tecnologie del futuro, entrambi che riportano proprio a Murty Renduchintala: Raja Koduri, ex CTO di AMD, e Jim Keller, brillante ingegnere con una carriera di successo tra AMD, Apple e Tesla considerato una sorta di superstar tra gli ingegneri che sviluppano nuove architetture di processore.

Da 10 a 7 nanometri: una lezione per il futuro

La difficile esperienza nella migrazione a 10 nanometri quali ricadute potrà avere nel passaggio alla successiva tecnologia produttiva in roadmap, quella a 7 nanometri? Murthy conferma come già ora il processo di implementazione della tecnologia a 7 nanometri sia in corso e che i problemi a 10 nanometri siano una base di esperienza sulla quale far maturare il nuovo processo evitando gli errori del passato.

è fondamentale per Intel non rincorrere a 7 nanometri il massimo livello di scalabilità ricercato a 10 nanometri

In primo luogo è fondamentale per Intel non rincorrere il massimo livello di scalabilità ricercato a 10 nanometri, quel 2,7x che si è mostrato essere un target troppo ambizioso alla prova dei fatti. Gli ingegneri dell'azienda hanno lavorato ad un gran numero di innovazioni che sommate assieme avrebbero permesso di raggiungere questo obiettivo. E' stato non tanto il loro sviluppo specifico, quanto tutte le reciproche influenze che queste innovazioni tecnologiche richieste dai 10 nanometri hanno richiesto tra di loro una volta implementate che hanno creato le note difficoltà nel passaggio a questo nodo.

Per questo motivo nel passaggio alla tecnologia produttiva a 7 nanometri l'obiettivo interno in Intel sarà quello di raggiungere uno scaling con un fattore 2x, limitando in parte il massimo teorico raggiungibile (indicativamente 2,4x-2,5x) ma garantendo in questo modo una maggiore facilità di esecuzione e nei limiti del possibile la certezza di giungere all'obiettivo nei tempi previsti. Da tutto questo scaturisce la nuova roadmap di sviluppo tecnologico nella quale è presente un'alternanza annuale tra innovazioni tecnologiche e miglioramenti nelle tecnologie produttive con varie evoluzioni dello stesso processo produttivo.

il continuo affinamento del processo produttivo a 14 nanometri ha permesso almeno in parte di ovviare alla mancanza di prodotti a 10 nanometri

E' questo quanto accaduto con la tecnologia produttiva a 14 nanometri, che ha visto evoluzioni nella forma di 14nm+ prima e 14nm++ in seguito così da renderla sempre più adatta alle necessità specifiche dei prodotti apparsi in commercio. Potremmo dire che questa è stata da un lato una innovazione di Intel, dall'altra una necessità pratica: il continuo affinamento del processo produttivo a 14 nanometri ha permesso almeno in parte di ovviare alla mancanza di prodotti a 10 nanometri in volumi adeguati a far fronte alla domanda di mercato.

La sintesi di tutto questo è un processo che vede Intel offrire un anno quello che Murthy definisce un "Moore's Law equivalent" in termini di scalabilità del processo seguito l'anno successivo da un "Moore's Law equivalent" in termini di prestazioni. Allo stesso tempo è importante per l'azienda continuare a far rendere gli investimenti fatti nel corso del tempo, spostando prodotti e tecnologie ai nuovi processi produttivi più sofisticati solo quando questo si rende necessario e sensato dal punto di vista del risultato finale. In tempi di eterogeneous computing è importante per Intel saper scegliere al meglio quale tecnologia produttiva abbinare a quale prodotto, così da offrire il migliore connubio per i propri clienti.

"we're very much on plan with our 7nm execution; we'll be sampling 7nm before the end of 2020 and shipping the first commercial devices before the end of 2021. BY 2022 we'll have a full portfolio of 7nm devices"

Andare oltre i design monolitici: tra processo e innovazione

Adottare la migliore tecnologia produttiva, e non necessariamente la più recente e innovativa, in funzione delle specifiche necessità del chip che deve essere costruito porta a pensare in modo naturale alla tecnologia Foveros, della quale Intel ha in più occasioni parlato nel recente passato. Su questo Murthy è molto chiaro: la domanda di superiore potenza di calcolo che proviene dal mercato è così elevata ed in crescita che non è pensabile poter sviluppare solo ed esclusivamente soluzioni monolitiche (cioè in singolo chip) perché la tecnologia produttiva a disposizione non renderebbe chip di questo tipo sensati dal punto di vista della loro costruzione e delle rese produttive.

i design monolitici sono troppo complessi e con die troppo grandi per ottenere una loro facile applicabilità in ambito produttivo

Anche se si potesse adottare in questo momento una tecnologia prevista per gli anni a venire, come quella a 5 nanometri, la risultante sarebbe quella di avere design monolitici troppo complessi e con die troppo grandi per ottenerne una facile applicabilità in ambito produttivo. Costi troppo elevati ed eventualità di rese produttive insufficienti sono rischi che Intel non vuole correre.

La sfida più grande è quindi quella di capire in che modo poter partizionare un die in un design da monolitico a multi-chip, mantenendo efficienza complessiva sia dal punto di vista energetico sia da quello della potenza.

"The challenge is when you split a die up, how do you do that in a power efficient and a performance efficient way?"

La risposta è nella integrazione orizzontale e in quella verticale, con varie tecnologie sviluppate da Intel per entrambi gli ambiti. Nel primo caso, parliamo di integrazione 2D, troviamo quella Multi-Die Interconnect Bridge o EMiB; nel secondo, integrazione 3D, entra in gioco la tecnologia Foveros. La peculiarità di Foveros è quella di distribuire tra i chip non solo i dati (con quindi tutto quello che riguarda la bandwidth necessaria per il loro trasferimento) ma anche la potenza loro necessaria per operare. In chiave futura Foveros e EMiB saranno strumenti adottati in forma sempre più massiccia da Intel per la costruzione di tutti i SoC previsti per il futuro.

slide_foveros_1.jpg
Foveros - Intel Architecture Day 2018

La risultante? La stima di Murthy è che nel corso del decennio appena iniziato la maggior parte dei prodotti Intel destinati al mondo del server adotteranno per la propria costruzione tecnologie Foveros e EMiB, con dinamica simile replicata anche per quanto riguarda i System on a Chip destinati al settore dei client. Non si deve però dimenticare che la fattibilità, in termini di costruzione all'interno delle fonderie, dei chip basati su queste tecnologie innovative richiederà tanta innovazione e ricerca almeno quanta è stata spesa da Intel per la loro ideazione. E'infatti necessario applicarle in modo tale che conducano a rese produttive adeguate con costi che siano bilanciati a quelli che si avrebbero con un tradizionale, e per molti versi irrealizzabile, design monolitico.

forte legame tra innovazione tecnologica, che si manifesta con chip sempre più complessi e potenti, e capacità produttiva interna all'azienda

Dalle parole di Murthy traspare quindi il forte legame tra innovazione tecnologica, che si manifesta con chip sempre più complessi e potenti, e capacità produttiva interna all'azienda. Quest'ultimo ambito è, per usare un'immagine, la parte nascosta dell'iceberg che rimane sotto la superficie del mare ma che è probabilmente quella più grande e complessa da gestire.

Ci spingiamo quindi verso un futuro fatto di chip sempre più complessi, potenti ma capaci di operare in condizioni ben precise quanto a potenza e requisiti termici: i design saranno sempre più basati su un approccio multichip, nel quale le differenti tecnologie produttive a disposizione saranno utilizzate non per essere le più innovative ma quelle più adatte alla costruzione dello specifico chip per considerazioni legate alla sua redditività e fattibilità economica. Lo sviluppo di nuove tecnologie (Intel indica Foveros e EMiB ma altre arriveranno in futuro) permetterà ai design multichip di mantenere un bilanciamento in termini di prestazioni e di efficienza energetica richiesti dalla domanda di mercato, sempre più spinta verso avere a disposizione soluzioni di calcolo potenti e compatte che in questo momento non sembrano accessibili con design monolitici mantenendo adeguati livelli di rese produttive con un adeguato ritorno in termini economici.

I 6 pilastri della crescita futura

In più occasioni Intel ha rimarcato il proprio cambio di strategia, basato sui cosiddetti "6 pillars". Si tratta di 6 elementi considerati da Intel quali fondamentali per guidare il proprio sviluppo futuro, e tutti in misura marcata collegati tra di loro: software, sicurezza, interconnessione, memoria, architettura e processo. Il lavoro congiunto su questi elementi permette ad Intel di approcciarsi al mercato in modo differente rispetto a quanto fatto in passato, non limitandosi più al solo mondo dei chip ma aprendosi ad uno spazio dal controvalore potenziale superiore ai 300 miliardi di dollari.

Non ce n'è uno più importanti degli altri, perché le relazioni che li legano tra di loro sono così forti da essere imprescindibili

Chiedere a Murthy quale sia dei 6 elementi chiave quello più fondamentale degli altri è sembrato scontato e da un certo punto di vista altrettanto è la risposta. Non ce n'è uno più importanti degli altri, perché le relazioni che li legano tra di loro sono così forti da essere imprescindibili. Intel avrebbe potuto nominare questa strategia come quella dei 10 o dei 12 pilastri, mi risponde Murthy: l'identificare nello specifico questi 6 è frutto di un processo interno che li ha evidenziati come i più fondamentali, che di fatto non possono essere modificati con l'evoluzione del tempo.

Che questi 6 siano per certi versi immutabili, quasi inevitabili potremmo aggiungere, nella strategia di Intel parte da una semplice considerazione: ognuno di questi pilastri ha una sua propria rilevanza in funzione dello specifico mercato nel quale viene applicato.

Alla base continuerà ad esserci la tecnologia produttiva, necessaria per la costruzione dei prodotti, con la CPU quale fondamentale componente dello sviluppo futuro. Questi due elementi sono stati alla base della strategia passata di Intel, basata sul modello Tick-Tock (alternanza di nuovo processo produttivo e di nuova architettura) e adatta per un mercato di riferimento da 60 miliardi di dollari di controvalore annuale come è quello delle CPU. Non è più così nel momento in cui ci si rivolge ad un mercato da 300 miliardi di dollari di controvalore, per il quale diventa necessario investire in modo massiccio in altre tipologie di soluzioni ponendo al centro le GPU.

Da questo nasce quindi lo sforzo ingegneristico di Intel nella creazione di nuove architetture di GPU, adatte ai differenti scenari d'uso dal mondo dei client sino alle elaborazioni nei datacenter. Per Murthy avere a disposizione delle soluzioni GPU per Intel è importante non solo nell'ottica delle necessità delle soluzioni discrete (quindi montate su schede PCI Express), ma è uno dei requisiti fondamentali per il mondo dell'elaborazione parallela e quindi per tutta quella serie di elaborazioni complesse.

slide_gpu_2.jpg
architettura Intel Xe - Intel Architecture Day 2018

Non dobbiamo dimenticare che Intel è il principale produttore di GPU a livello mondiale, forte di tutti i propri processori con GPU integrata che vengono utilizzati nei sistemi desktop e notebook. Lo sviluppo attuale, incentrato nelle soluzioni della famiglia Xe, punta a rendere Intel ancora più presente in questo settore e capace di rispondere anche alla domanda di prodotti che puntino alle massime prestazioni.

Avere unità di elaborazione potenti richiede necessariamente strumenti che permettano di trasferire dati da e verso così da essere processati: da questo l'enfasi per i sistemi di interconnessione quale strumento chiave per poter sfruttare al meglio tutta la potenza di elaborazione insita nelle nuove architetture. Accanto a questo trova spazio il contesto della memoria, strumento anche in questo caso imprescindibile per poter gestire dati e fare in modo che le unità di elaborazione siano sempre pronte ad eseguire applicazioni.

in questa strategia rivesta un ruolo fondamentale il lavoro svolto sulle future GPU discrete

Scontato da questo punto di vista parlare di software, con lo sforzo principale di Intel legato all'iniziativa OneAPI con la quale poter fornire agli sviluppatori un unico ambiente di lavoro nel quale poter sfruttare le differenti risorse di elaborazione senza dover implementare un linguaggio specifico per ogni componente hardware. E come non poter collegare a questo il tema della sicurezza, divenuto ancor più centrale da alcuni anni a questa parte in seguito alla scoperta di bug hardware all'interno di processori che possono essere sfruttati in modo malevolo.

raja_murthy.jpg
Raja Koduri, Senior VP dell'Intel Architecture and Graphics Solutions group e Murthy Renduchintala, Chief Engineering Officer di Intel, in occasione dell'Intel Architecture Day 2018

I 6 pilastri sono quindi tutti equamente fondamentali per lo sviluppo futuro di Intel e non deve stupire, nel caso specifico, vedere come in questa strategia rivesta un ruolo fondamentale il lavoro svolto sulle future GPU discrete. Raja Koduri, ex AMD come abbiamo detto e responsabile per lo sviluppo dell'architettura Xe, è anche fortemente coinvolto nell'iniziativa OneAPI: alla luce di quanto qui detto la cosa non deve stupire. 

Immaginiamo il futuro tra 5 anni

Abbiamo analizzato i problemi incontrati da Intel negli ultimi anni, capito le evoluzioni future in termini di tecnologia e posizionati i 6 pilastri che rappresentano la chiave di sviluppo dell'attività di business dell'azienda per un mercato potenziale da 300 miliardi di dollari di controvalore. Proviamo ora a spingerci con l'immaginazione a 5 anni da oggi: quali potranno essere i dispositivi che avremo con noi a disposizione e utilizzeremo quotidianamente? Sarà sempre uno smartphone il prodotto nelle nostre mani o un PC potrà prendere uno spazio d'uso diverso? Ho chiesto questo a Murthy Renduchintala ricevendo una risposta molto interessante: dal suo punto di vista continueremo ad avere entrambi i dispositivi al centro della nostra esperienza d'uso, se possibile con una enfasi ancora più elevata per il notebook.

I PC portatili del prossimo futuro avranno però una caratteristica innovativa: quella di non richiedere più di avere a disposizione un alimentatore

Se lo smartphone è pratico e comodo da avere sempre a disposizione è la piattaforma PC quella che garantisce la massima produttività. I PC portatili del prossimo futuro avranno però una caratteristica innovativa: quella di non richiedere più di avere a disposizione un alimentatore, dipendendo unicamente dalle batterie. La ricarica sarà rapidissima e implementata con tecnologie di induzione: negli uffici e nelle nostre abitazioni saranno presenti stazioni di ricarica che permetteranno di ricaricare i nostri prodotti mobile in pochi minuti, liberandoci dalla ricerca di una presa di corrente per poter essere produttivi per tutta la giornata.

E chiudendo la nostra chiacchierata è scontato pensare a come i problemi che lo sviluppo della tecnologia cerca di risolvere siano complessi e abbiano sempre più ripercussioni uno sull'altro. E' questo un settore affascinante che non smette di stupire, ma la cui complessità è ben celata come è la parte inferiore di un iceberg. Il fine ultimo dell'evoluzione tecnologica è quello di offrire strumenti e servizi che semplifichino la vita degli utenti: un po' come Murthy immagina il futuro tra qualche anno, fatto di notebook e smartphone sempre più potenti e flessibili ma per i quali il cavo di alimentazione, con le immancabili preoccupazioni di restare senza batteria, sia un ricordo del passato.

17 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Bradiper28 Gennaio 2020, 20:25 #1
Non ho letto tutto tutto l articolo, ma rifacendomi anche ad articoli precedenti di CPU per desktop a 10 nm non se ne parla? Quindi sono ancora in difficoltà?
Bluknigth28 Gennaio 2020, 23:49 #2
Mi pare di capire dall’articolo che hanno spinto la densità oltre il limite fisico e soprattutto che tanti reparti abbiamo spinto il loro pezzettino di processore senza tener conto degli altri.
Quando hanno messo tutto insieme si sono accorti che il puzzle non si chiudeva come si aspettavano.

C’è da sperare che abbiano imparato la lezione in vista dei 7 nm o delle prossime architetture.

Fa sorridere che dopo qualche anno di prese in gito verso la soluzione multichip di AMD si siano convertiti alla visione che questa sia l’unica strada percorribile.
Apprezzo comunque il fatto di aver cambiato idea...

Comunque anche con un ritorno alle roadmap del passato, mi pare che AMD abbia ben altro passo.
Se non si siede sugli allori potrebbe davvero guadagnare un buon gap tecnologico si Intel.
Che per me prima o poi si riprenderà lo scettro, ma potrebbero volerci anni.

A meno di tirar fuori una rivoluzione tecnologica.
Bradiper29 Gennaio 2020, 00:23 #3
Io non credo molto a questa storia, stiamo parlando di intel non di Via,o come si chiamava, li hanno inventati loro le CPU,che siano incappati in problemi tecnici ok ma il progetto i3/5/7 è molto valido su questo non si discute, dovevano applicarlo solo ai 10 nm, senza dover osare chissà cosa, con tutte i vantaggi che il processo produttivo poteva dare, minor consumo e più core e roba varia da infilarci dentro.
Secondo me hanno voluto strafare per andar oltre ad amd e si sono ritrovati in un vicolo cieco.
paolo.oliva229 Gennaio 2020, 02:56 #4
Considerando che un modello di procio resta in commercio per almeno 1 anno (altrimenti non è remunerativo, dovendo arrivare ad un determinato volume di vendita per ammortizzare l'intero R&D, altrimenti il plus di prezzo R&D calcolato su un volume inferiore aumenterebbe il prezzo di vendita e risulterebbe invendibile).

Quindi molto dipende in che data Intel proporrà l'i10, in quanto prima sembrava presentazione al CES e commercializzazione tra febbraio e maggio 2020... ma siccome Intel manco ne ha parlato al CES, è probabile che la data slitterà.

Nel contempo, Intel parla di prodotti sul 7nm a fine 2021 e l'intera gamma nel 2022. Ovvio che se ipotizziamo il prodotto desktop 7nm a fine 2021, non cìè più spazio di 1 anno per il prodotto desktop sul 10nm... ma se ipotizziamo il prodotto desktop a 7nm a metà 2022, lo spazio ci sarebbe.

Inoltre bisogna considerare anche che AMD potrebbe commercializzare Zen4 sul 5nm (che a parte la sigla è l'equivalente del 7nm Intel) nel 2021, quindi per Intel è meglio concentrarsi sul 7nm e farlo uscire il prima possibile più che produrre a 10nm in ritardo e ritrovarsi comunque con lo svantaggio di un nodo (che praticamente sarebbe la fotocopia della situazione attuale)
paolo.oliva229 Gennaio 2020, 03:09 #5
Intel ha puntato sulla densità massima semplicemente perchè così avrebbe stra-massimizzato i profitti (2,5X vs il 14nm avrebbe detto 2,5X die dallo stesso wafer, e senza AMD che li ha obbligati a raddoppiare i core, sai che profitti...)
Ma per me qualche cosa non torna. Quando si sono accorti dei prb, Intel ha sbandierato il 10nm+ dicendo che avrebbe risolto tutti i prb, e l'annuncio di proci desktop 10nm a metà 2019.
Se ci vogliono 2-3 anni per creare una nuova nanometria da zero (vedi rumors che Intel lavorava sul 7nm nel 2019 e 2012/2022 commercializzazione), in 3 anni non sono riusciti a fare marcia indietro sul 10nm?
paolo.oliva229 Gennaio 2020, 03:14 #6
Comunque... io sono simpatizzante AMD... ma sto tifando a randa per Intel.
Voglio ritornare ai vecchi tempi con AMD... -5% di performances vs Intel ma -30/40% di costo, lo preferisco piuttosto che avere +5% e pagarlo quanto Intel.

Ora come ora, la prestazione a core è super rispetto alle esigenze, sia che si parli di Intel come AMD... quindi il fatto di pagare meno a mio avviso è ben più importante della prestazione massima... e per me AMD con Zen3 aumenterà il listino.
Vash_8529 Gennaio 2020, 08:19 #7
"inconsistent performance from 4 die glued together"





Link ad immagine (click per visualizzarla)
coschizza29 Gennaio 2020, 09:50 #8
Originariamente inviato da: Vash_85
"inconsistent performance from 4 die glued together"






tu ridi ma i benchmark danno ragione ad intel e amd stessa avendo cambiato quel particolare nelle nuove cpu ha dato conferma che la prima versione aveva problemi.
Altrimenti perche rivoluzionare qualcosa che funzionava?
E appunto i nuovi benchmark sulle nuove cpu amd dimostrano quanto la prima versione aveva grossi problemi in certe situazioni.
calabar29 Gennaio 2020, 10:26 #9
Mi stavo quasi preoccupando, uno dei pochi articoli interessanti e nessun commento ieri sera, oggi per fortuna qualcosa è arrivato.

Originariamente inviato da: Bradiper
Secondo me hanno voluto strafare per andar oltre ad amd e si sono ritrovati in un vicolo cieco.

I problemi di Intel con i 10nm risalgono a ben prima della risalita di AMD.
La situazione attuale è frutto di due errori: il voler ottenere troppo dai 10nm, che si è trasformato nelle enormi difficoltà tecniche ancora oggi presenti, e il trascinare il progetto e le difficoltà legate ad esso per tanti anni: ricordiamo che i 10nm Intel erano inizialmente previsti nel 2015.

Il problema di applicare le attuali architetture ai 10nm sta nel fatto che i 10nm oggi non sono pronti per la vera produzione di massa (anche se recenti notizie pare suggeriscano un miglioramento della situazione entro i prossimi mesi), sono loro il problema.
Oggi uno dei "nemici" di Intel sono proprio i suoi 14nm affinatissimi, contro i quali questi nuovi 10nm problematici hanno grande difficoltà a competere, soprattutto nella capacità di lavorare ad alte frequenze.

Originariamente inviato da: coschizza
Altrimenti perche rivoluzionare qualcosa che funzionava?

AMD ha semplicemente migliorato il progetto, e probabilmente questo miglioramento era già previsto dall'inizio per il secondo step dell'architettura.
Ora la nuova architettura non ha più "4 die glued together" ma 4 die (o più incollati insieme ad un controllore centrale realizzato per giunta con un processo produttivo più economico.
Direi che non hanno rivoluzionato affatto, hanno semplicemente proseguito sulla stessa strada.
Vash_8529 Gennaio 2020, 11:02 #10
[I][SIZE="3"]"We are proud to affirm that now Intel glue is better than AMD one"[/SIZE][/I]

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^