View Full Version : Alder Lake, nel futuro di Intel c'è la Hybrid Technology anche su desktop
Redazione di Hardware Upg
14-07-2020, 18:01
Link alla notizia: https://www.hwupgrade.it/news/cpu/alder-lake-nel-futuro-di-intel-c-e-la-hybrid-technology-anche-su-desktop_90768.html
Alder Lake, progetto che dovrebbe debuttare tra il 2021 e il 2022, dovrebbe introdurre anche in ambito desktop la Hybrid Technology di Intel presentata sui notebook con Lakefield. Le indiscrezioni circolavano da tempo, ma nuove informazioni sembrano confermare la svolta.
Click sul link per visualizzare la notizia.
Ma questo approccio sarà riservato alle CPU con grafica integrata?
Escludo categoricamente di volere questo approccio sul PC fisso.
Il motivo stavolta mi è sufficiente per passare per la prima volta ad AMD.
PS: come la pensa AMD a riguardo?
Fantapollo
14-07-2020, 19:19
Incredibile, Intel si conferma leader come sempre :D
richiederà una nuova piattaforma, probabilmente basata sui chipset della serie 600 ed equipaggiata con il socket LGA 1700
Che strano, un nuovo socket!!
Che strano, un nuovo socket!!
Avevi intenzione di comprarne uno?
Comunque ho un negozio, sai quanti clienti vengono per cambiare CPU in un PC vecchio?
ZERO perché quando arrivano è il momento di cambiare tutto, il cambio di socket fra una generazione e un'altra è un falso problema, poi ci sarà certamente chi vorrebbe fare un cambio, ma sono un'esigua minoranza, poi onore ad AMD che mantiene il socket, ma non scelgo AMD solo per quello...
Visto il cambio piuttosto radicale direi che è scontato un cambio di socket, direi proprio per esigenze pratiche.
Comunque anche io non vedo sta gran tragendia nel cambio socket.
Detto questo.. onestamente sta mossa mi pare una cagata pazzesca (cit.)
Passi una tecnologia del genere su un ultraportatile always on.
Ma su desktop è la fiera dell'inutile.
Ciliegina sulla torta poi il fatto che usando i core a basso consumo hai anche un set istruzioni ridotto.
Non vorrei mai una CPU del genere nel mio desktop.
Visto il cambio piuttosto radicale direi che è scontato un cambio di socket, direi proprio per esigenze pratiche.
Comunque anche io non vedo sta gran tragendia nel cambio socket.
Detto questo.. onestamente sta mossa mi pare una cagata pazzesca (cit.)
Passi una tecnologia del genere su un ultraportatile always on.
Ma su desktop è la fiera dell'inutile.
Ciliegina sulla torta poi il fatto che usando i core a basso consumo hai anche un set istruzioni ridotto.
Non vorrei mai una CPU del genere nel mio desktop.
Infatti non capisco l'utilità dei core a basso consumo, ci sono già diversi metodi di risparmio energetico senza necessità di mettere core farlocchi, un i7 che fa operazioni semplici consuma certamente già una frazione di quando è a pieno carico.
cdimauro
14-07-2020, 22:18
Anche per me è una soluzione insensata sul desktop. Su laptop/mobile va benissimo.
L'unica cosa è che Intel potrebbe utilizzare lo stesso core sia sua desktop sia su mobile: allora avrebbe senso. Visto che i core a basso consumo in più ci sono comunque, tanto vale usarli anche in ambito desktop.
coschizza
14-07-2020, 22:19
Infatti non capisco l'utilità dei core a basso consumo, ci sono già diversi metodi di risparmio energetico senza necessità di mettere core farlocchi, un i7 che fa operazioni semplici consuma certamente già una frazione di quando è a pieno carico.
Ma una cpu a basso consumo consuma ancora meno sia energia sia spazio
E cosa ti serve un set di istruzioni completo su una cpu volutamente a basso consumo ? Nulla e anche meno
Ma una cpu a basso consumo consuma ancora meno sia energia sia spazio
Quello che vuoi.. ma su desktop che te frega?
Cioè.. tutto sto sbattimento con tanto di limitazioni pesanti per risparmiare una manciata di watt?
Io su desktop voglio piena potenza e CPU sfruttata e sfruttabile al 100 per cento con tutti i cores.
Se ho un carico di lavoro basso già il downclock in realtime delle cpu attuali è più che adeguato a limitare i consumi.
coschizza
14-07-2020, 22:29
Quello che vuoi.. ma su desktop che te frega?
Cioè.. tutto sto sbattimento con tanto di limitazioni pesanti per risparmiare una manciata di watt?
Io su desktop voglio piena potenza e CPU sfruttata e sfruttabile al 100 per cento con tutti i cores.
Se ho un carico di lavoro basso già il downclock in realtime delle cpu attuali è più che adeguato a limitare i consumi.
Ma non sappiamo quale sia il target, se le fanno vuol dire che hanno domanda
Ma non sappiamo quale sia il target, se le fanno vuol dire che hanno domanda
Questo non lo sappiamo, le cantonate le prendono pure alla Intel, non è certo la prima volta.
Io una CPU così per il mio pc non la predenderei di partenza, andrei su latro di sicuro.
cdimauro
15-07-2020, 05:29
Mi riquoto:
L'unica cosa è che Intel potrebbe utilizzare lo stesso core sia sua desktop sia su mobile: allora avrebbe senso. Visto che i core a basso consumo in più ci sono comunque, tanto vale usarli anche in ambito desktop.
@cdimauro
Beh oddio, quei core per quanto più piccoli un po' di spazio sul die lo occupano comunque, non so quanto l'idea del riciclo possa avere senso.
Piuttosto sembra un lavoro fatto a metà: se ti trovi nella situazione di utilizzare tutti i core le istruzioni presenti solo nei core ad alte prestazioni non possono essere utilizzate, e questa è una grande limitazione.
Immagina infatti lo scenario in cui utilizzi un software che richiede le massime prestazioni e quindi sfrutti le istruzioni avanzate, potresti far girare sistema e task in background sui core piccoli e lasciare i core grossi a disposizione del software che richiede prestazioni. E invece no, non potendo usare le istruzioni avanzate di questi ultimi, rimani fregato.
PS: a me l'idea di risparmiare qualche watt in idle sul desktop non dispiace affatto, considerando che ho PC che stanno in idle la maggior parte del tempo. Ma forse per quello bastano uno o due core a basso consumo, non ne servono otto.
Gringo [ITF]
15-07-2020, 10:51
Io la vedo buona invece come soluzione, purchè la modalità a basso consumo sia spiazzante, come avviene sui chip ARM, con un consumo in basse prestazioni di una manciata di Watt tipo 8/16w se non elabora con un bel server multimediale per la rete di casa, PC acceso 18h/24h se non adirittura h24.
Unico NEO.... TROPPO LIMITATI massimo 16Core.... avrebbe senso se esistesse una logica per cui li usasse realmente tutti e 16 e si smistasse il lavoro...
Ma sospetto che potrà usare... solo 8 core in contemporanea.
In pratica si torna ai coprocessori matematici.
cdimauro
16-07-2020, 06:31
@cdimauro
Beh oddio, quei core per quanto più piccoli un po' di spazio sul die lo occupano comunque, non so quanto l'idea del riciclo possa avere senso.
Piuttosto sembra un lavoro fatto a metà: se ti trovi nella situazione di utilizzare tutti i core le istruzioni presenti solo nei core ad alte prestazioni non possono essere utilizzate, e questa è una grande limitazione.
Immagina infatti lo scenario in cui utilizzi un software che richiede le massime prestazioni e quindi sfrutti le istruzioni avanzate, potresti far girare sistema e task in background sui core piccoli e lasciare i core grossi a disposizione del software che richiede prestazioni. E invece no, non potendo usare le istruzioni avanzate di questi ultimi, rimani fregato.
PS: a me l'idea di risparmiare qualche watt in idle sul desktop non dispiace affatto, considerando che ho PC che stanno in idle la maggior parte del tempo. Ma forse per quello bastano uno o due core a basso consumo, non ne servono otto.
;46881108']Io la vedo buona invece come soluzione, purchè la modalità a basso consumo sia spiazzante, come avviene sui chip ARM, con un consumo in basse prestazioni di una manciata di Watt tipo 8/16w se non elabora con un bel server multimediale per la rete di casa, PC acceso 18h/24h se non adirittura h24.
Unico NEO.... TROPPO LIMITATI massimo 16Core.... avrebbe senso se esistesse una logica per cui li usasse realmente tutti e 16 e si smistasse il lavoro...
Ma sospetto che potrà usare... solo 8 core in contemporanea.
Il nocciolo è che se realizzi UN solo die per coprire sia il segmento mobile sia quello desktop, quegli 8 core in più a basse prestazioni le hai comunque.
I produttori di processori hanno spesso un solo design/die che viene poi "personalizzato" in base al mercato in cui va a finire. Si fa così per economia di scala: progettare SPECIFICI processori per SPECIFICI segmenti di mercato è di gran lunga più costoso.
Per cui inutile impuntarsi contro la presenza di questi core addizionali.
L'unica cosa sarebbe poterli usare, eventualmente, ANCHE in ambito desktop.
Il nocciolo è che se realizzi UN solo die per coprire sia il segmento mobile sia quello desktop, quegli 8 core in più a basse prestazioni le hai comunque.
I produttori di processori hanno spesso un solo design/die che viene poi "personalizzato" in base al mercato in cui va a finire. Si fa così per economia di scala: progettare SPECIFICI processori per SPECIFICI segmenti di mercato è di gran lunga più costoso.
Per cui inutile impuntarsi contro la presenza di questi core addizionali.
L'unica cosa sarebbe poterli usare, eventualmente, ANCHE in ambito desktop.
Scusa però fin ad ora le cpu mobile di intel sono comunque differenti tra desktop e mobile. Perchè qui dovrebero portarsi questi core a bassa potenza anche su desktop?
Il nocciolo è che se realizzi UN solo die ...
... I produttori di processori hanno spesso un solo design/die che viene poi "personalizzato" ...
Certamente, ma la domanda è un'altra: ha senso per un'azienda come Intel realizzare un solo die con tanto "spreco" (si fa per dire) di silicio in produzione?
Intel ha sicuramente risorse e volumi per due progetti separati.
Inoltre è da vedere se questi piccoli core facciano parte dei "mattoncini" che è possibile mettere o togliere personalizzando il die è siano fortemente integrati insieme ai core ad alte prestazioni. In quest'ultimo caso sarebbero sicuramente più difficili da rimuovere, ma il dualismo che sembra esserci nel processore da l'impressione che si tratti di aree ben distinte.
Ad ogni modo come dicevo è una scelta che non mi dispiacerebbe, anche solo per avere consumi ridotti magari di 10-15W in idle, ma senza la possibilità di usare i diversi tipi di core con tutte le loro caratteristiche contemporaneamente mi sa di una soluzione castrata.
Visto che per Intel i programmi più utilizzati al mondo sono questi:
https://cdn.wccftech.com/wp-content/uploads/2020/06/Intel-Real-World-Performance-Benchmarks_AMD-Ryzen-4000_AMD-Ryzen-3000_Intel-10th-gen_Intel-9th-Gen-CPUs_4-1-1480x833.jpg
non è sbagliato pensare che bastino quasi sempre 8 core più "semplici ed efficienti" per gestirli.
Ma nella stessa logica non mi servirebbe nemmeno un top 8c/16t + 8 core con TDP teorico da 125W, ma un i3 4c/8t da 35W che costa 1/4.
Finchè parliamo di cpu mobile la strategia ci sta', con configurazioni 2+8, 4+8 o 8+8, ma nei desktop non hanno senso.
cdimauro
17-07-2020, 06:29
Scusa però fin ad ora le cpu mobile di intel sono comunque differenti tra desktop e mobile. Perchè qui dovrebero portarsi questi core a bassa potenza anche su desktop?
Perché sono differenti? Lo stesso core / design viene usato per i diversi settori (desktop, mobile).
Certamente, ma la domanda è un'altra: ha senso per un'azienda come Intel realizzare un solo die con tanto "spreco" (si fa per dire) di silicio in produzione?
Sì, ha senso, ed è quello che fa.
Intel ha sicuramente risorse e volumi per due progetti separati.
I progetti separati ci sono, infatti, ma riguardano processori con un certo numero (diverso) di core.
Faccio un esempio astratto (perché non ricordo quali sono i progetti base). Intel realizza un progetto base con 4 core, un altro con 8 core, un altro ancora con 12 core, un altro con 18, ecc.. Queste sono le basi, ma poi prende quello da 4 core, ne disabilita due (che magari non funzionano) e vende il chip come Celeron due core. E così via anche con gli altri progetti base.
Ma Intel non può certo mettersi con un singolo progetto per ogni singolo diverso tipo di processore che vende: è assolutamente antieconomico.
D'altra parte è anche giusto che sia così, perché i chip che escono dallo stesso wafer non sono tutti gli stessi: ci sono quelli con migliori prestazioni e meno difetti (al centro del wafer), e così via quelli con minori prestazioni e/o più difetti (ai bordi).
In questo modo differenza la sua offerta senza spendere una barca di soldi in sviluppo.
Inoltre è da vedere se questi piccoli core facciano parte dei "mattoncini" che è possibile mettere o togliere personalizzando il die è siano fortemente integrati insieme ai core ad alte prestazioni. In quest'ultimo caso sarebbero sicuramente più difficili da rimuovere, ma il dualismo che sembra esserci nel processore da l'impressione che si tratti di aree ben distinte.
I core non si rimuovono: semplicemente si disabilitano (col laser, se non erro).
Ad ogni modo come dicevo è una scelta che non mi dispiacerebbe, anche solo per avere consumi ridotti magari di 10-15W in idle, ma senza la possibilità di usare i diversi tipi di core con tutte le loro caratteristiche contemporaneamente mi sa di una soluzione castrata.
Nemmeno a me dispiacerebbe, visto che il PC sta per lo più a girarsi i pollici.
E' soltanto quando lancio un task pesante che ho bisogno di core a prestazioni elevate.
Power-budget permettendo, l'ideale sarebbe farli lavorare tutti quando c'è il massimo carico (magari riservando i core piccoli soltanto per far girare i processi del s.o. e altre piccole applicazioni).
Perché sono differenti? Lo stesso core / design viene usato per i diversi settori (desktop, mobile).
Si ok, il "core" in se è quello, ma le cpu per notebook vengono "posizionati" in configurazioni differerenti, non sono quelli per desktop presi e messi lì.
Anche per questione di consumo energetico.. o no?
I progetti separati ci sono, infatti, ...
Certamente, ma qui non stiamo parlando di una particolare serie di processori, qui stiamo parlando dell'intero comparto CPU per Desktop e, presumibilmente, anche per workstation e server (perchè, se Intel crea un progetto senza core ad alta efficienza per questi settori, è più facile che derivi da qui i processori per PC Desktop).
Mi pare che in questo contesto ci siano decisamente numeri e risorse per progetti distinti.
I core non si rimuovono: semplicemente si disabilitano (col laser, se non erro).
Certo, ma in quel caso è silicio "sprecato".
Sappiamo bene che ci sono serie ottenute disabilitando core, bloccando istruzioni, tagliando cache... lo si fa per tanti motivi, dal differenziare i prodotti al riciclare die difettosi all'evitare una linea produttiva dedicata per ogni prodotto possibile, che sarebbe economicamente insostenibile (come infatti fai notare).
Con volumi di vendita sufficienti però le cose cambiano, e c'è tutto l'interesse a realizzare una serie che ottenga un certo risultato con un chip più piccolo possibile, incrementando le rese e quindi riducendo i costi di produzione.
Il punto è secondo me un altro: mentre in questa discussione molti considerano quei core un fardello inutile, credo che Intel non lo consideri tale e quindi per loro non sia silicio "sprecato".
Credo quindi che dovremmo aspettare per vedere cosa saranno in grado di fare questi processori e se sarà valsa la pena di spendere quel budget di silicio in quel modo.
Power-budget permettendo, l'ideale sarebbe farli lavorare tutti quando c'è il massimo carico (magari riservando i core piccoli soltanto per far girare i processi del s.o. e altre piccole applicazioni).
Esattamente ciò che sostenevo. Per questo se dovesse essere confermata la notizia dell'impossibilità di utilizzare istruzioni avanzate quando sono attivi i core ad alta efficienza (o peggio ancora l'impossibilità di usare entrambi i tipi di core contemporaneamente), sarebbe un vero peccato e un'occasione persa.
cdimauro
20-07-2020, 06:06
Si ok, il "core" in se è quello, ma le cpu per notebook vengono "posizionati" in configurazioni differerenti, non sono quelli per desktop presi e messi lì.
Anche per questione di consumo energetico.. o no?
No, invece: per il mobile vengono presi i core che hanno prestazioni migliori a livello di consumi, ma il design è quello.
Certamente, ma qui non stiamo parlando di una particolare serie di processori, qui stiamo parlando dell'intero comparto CPU per Desktop e, presumibilmente, anche per workstation e server (perchè, se Intel crea un progetto senza core ad alta efficienza per questi settori, è più facile che derivi da qui i processori per PC Desktop).
Mi pare che in questo contesto ci siano decisamente numeri e risorse per progetti distinti.
Direi di no, se consideri la vastissima offerta di Intel e il fatto che alla progettazione di un processore prendono parte ormai centinaia di ingegneri.
Certo, ma in quel caso è silicio "sprecato".
Infatti lo è.
Sappiamo bene che ci sono serie ottenute disabilitando core, bloccando istruzioni, tagliando cache... lo si fa per tanti motivi, dal differenziare i prodotti al riciclare die difettosi all'evitare una linea produttiva dedicata per ogni prodotto possibile, che sarebbe economicamente insostenibile (come infatti fai notare).
Con volumi di vendita sufficienti però le cose cambiano, e c'è tutto l'interesse a realizzare una serie che ottenga un certo risultato con un chip più piccolo possibile, incrementando le rese e quindi riducendo i costi di produzione.
Non credo proprio. Aziende come Intel cercano tutti i modi per poter risparmiare anche i singoli centesimi sui processori (che moltiplicato per i circa 250 milioni di processori l'anno che vende, sono comunque bei soldi). Se continua con dei design base per coprire le tante fasce di segmento di mercato in cui opera, vuol dire che il risparmio di silicio non compensa gli alti costi necessari per la progettazione di singoli design.
Il punto è secondo me un altro: mentre in questa discussione molti considerano quei core un fardello inutile, credo che Intel non lo consideri tale e quindi per loro non sia silicio "sprecato".
Credo quindi che dovremmo aspettare per vedere cosa saranno in grado di fare questi processori e se sarà valsa la pena di spendere quel budget di silicio in quel modo.
Per Intel è indifferente, per quanto detto sopra: anche se fosse silicio buttato (nel caso decidesse di non abilitare gli 8 core a basso consumo nelle declinazioni desktop), rimarrebbe puramente una questione di riduzione dei costi (perché riutilizza lo stesso progetto).
Esattamente ciò che sostenevo. Per questo se dovesse essere confermata la notizia dell'impossibilità di utilizzare istruzioni avanzate quando sono attivi i core ad alta efficienza (o peggio ancora l'impossibilità di usare entrambi i tipi di core contemporaneamente), sarebbe un vero peccato e un'occasione persa.
Non credo. Ricordiamoci che a dominare rimane sempre il power-budget di un processore. Se i core ad alte prestazioni sono così impegnati da arrivarci, alla fine poco importa se gli 8 core a basso consumo non siano utilizzati.
Per me, invece, sarebbe utile abilitarli e farli lavorare perché normalmente non spremo affatto la CPU, e quindi potrebbe gestire tranquillamente il carico ordinario nella stragrandissima maggioranza del tempo che il PC è accesso.
Non credo proprio. Aziende come Intel cercano tutti i modi per poter risparmiare anche i singoli centesimi sui processori (che moltiplicato per i circa 250 milioni di processori l'anno che vende, sono comunque bei soldi). Se continua con dei design base per coprire le tante fasce di segmento di mercato in cui opera, vuol dire che il risparmio di silicio non compensa gli alti costi necessari per la progettazione di singoli design.
Continuo a non vedere causalità tra la prima affermazione e il resto.
Certo che Intel cerca di ottimizzare i costi, vista la quantità di processori prodotti. E "sprecare" tanto silicio su tutta la gamma Desktop va esattamente in direzione opposta, ed è per questo che secondo me avrebbe senso un design dedicato, proprio perchè la gamma è vasta e i processori nelle loro varie declinazioni sono tanti, per cui ha senso investire in un progetto di base maggiormente ottimizzato.
In altre parole vale la pena di creare un design specifico proprio perchè stiamo parlando di grandi numeri su cui i costi di sviluppo possono essere adeguatamente spalmati.
Da qui la conclusione che probabilmente per Intel quello non è silicio sprecato, non del tutto per lo meno.
Non credo.
Spiegami come fai a rispondere "non credo" ad un passaggio in cui scrivo di essere completamente d'accordo con te. :asd:
cdimauro
21-07-2020, 06:36
Continuo a non vedere causalità tra la prima affermazione e il resto.
Certo che Intel cerca di ottimizzare i costi, vista la quantità di processori prodotti. E "sprecare" tanto silicio su tutta la gamma Desktop va esattamente in direzione opposta, ed è per questo che secondo me avrebbe senso un design dedicato, proprio perchè la gamma è vasta e i processori nelle loro varie declinazioni sono tanti, per cui ha senso investire in un progetto di base maggiormente ottimizzato.
In altre parole vale la pena di creare un design specifico proprio perchè stiamo parlando di grandi numeri su cui i costi di sviluppo possono essere adeguatamente spalmati.
Da qui la conclusione che probabilmente per Intel quello non è silicio sprecato, non del tutto per lo meno.
Permettimi: credo che i conti se li siano fatti, non credi?
Come già detto sviluppare un processore richiede centinaia di ingegneri ormai, oltre al fatto che devi attivare apposite linee di produzione e maschere (per i wafer) incluse. Poi magari una linea non vende bene e ti rimangono sul groppone tutti i costi che hai sostenuto per avere il prodotto e attivarla, e gli invenduti...
Spiegami come fai a rispondere "non credo" ad un passaggio in cui scrivo di essere completamente d'accordo con te. :asd:
Scusami, la mattina vado di fretta. Nello specifico mi riferivo all'occasione persa di cui parlavi, che non è se consideri che i processori ormai arrivano abbondantemente al power budget.
Sul resto concordo, e infatti dopo avevo pure detto che personalmente mi piacerebbe avere funzionanti quegli 8 core a basso consumo.
Permettimi: credo che i conti se li siano fatti, non credi?
Proprio sulla base di questo traevo la mia conclusione e ritengo che il fatto che Intel non si consideri spreco come fanno diversi utenti qui sul forum sia una delle possibilità.
Come già detto sviluppare un processore richiede centinaia di ingegneri ormai ...
Ripeto, stiamo parlando di tutta la gamma Desktop, difficile che Intel non venda bene a meno che non si tratti di una generazione di transizione della durata di pochi mesi.
Oltretutto non stiamo parlando di un progetto completamente differente, dubito che servano tanti cervelli per metterlo a punto, mentre sicuramente valgono le considerazioni sull'approntamento delle linee produttive (che in fin dei conti costituirebbero la maggior parte dei costi).
Nello specifico mi riferivo all'occasione persa di cui parlavi, che non è se consideri che i processori ormai arrivano abbondantemente al power budget.
La considero un'occasione persa sia in termini di potenzialità e di completezza del progetto, ma anche perchè credo che ci siano delle situazioni in cui la giusta combinazione tra i due tipi di core possa rendere al meglio in specifici contesti.
È verissimo comunque che usando le istruzioni avanzate (in particolare le ultime AVX) il consumo schizza alle stelle, quindi effettivamente in questi casi potrebbe non esserci spazio per l'uso dei core "piccoli" (che però dovrebbero anche essere molto efficienti ed incidere in modo minimo sul power budget).
Piuttosto bisognerà vedere quali saranno le configurazioni che usciranno, perchè se si tratta di aggiungere due piccoli core che alla fine serviranno soprattutto per i consumi in idle allora non cambierebbe molto e sarebbe ben poco il "silicio sprecato".
Da vedere anche quanto i core piccoli siano integrati con quelli grandi, potrebbe essere un blocco 1+1 unico (magari con parte delle risorse condivise) e questo potrebbe farci rivedere buona parte delle ipotesi discusse finora.
cdimauro
24-07-2020, 06:37
Ripeto, stiamo parlando di tutta la gamma Desktop, difficile che Intel non venda bene a meno che non si tratti di una generazione di transizione della durata di pochi mesi.
Oltretutto non stiamo parlando di un progetto completamente differente, dubito che servano tanti cervelli per metterlo a punto, mentre sicuramente valgono le considerazioni sull'approntamento delle linee produttive (che in fin dei conti costituirebbero la maggior parte dei costi).
Non è soltanto questione di cervelli (che ci vogliono comunque), ma devi anche testare tutti questi nuovi prodotti, e già il solo processo di test di un chip da miliardi e di miliardi di transistor è ormai molto costoso.
Se non ricordo male per realizzare un chip (dalla fase di studio a quella di produzione) servono team composti da 500-1000 persone per 2-3 anni almeno, e con quello che costano queste figure professionali altamente specializzate puoi capire bene a che livelli si arrivi.
E parliamo di un articolo che avevo letto qualche anno fa: coi nuovi processi produttivi e l'integrazione di sempre più transistor i costi tendono ad aumentare.
La considero un'occasione persa sia in termini di potenzialità e di completezza del progetto, ma anche perchè credo che ci siano delle situazioni in cui la giusta combinazione tra i due tipi di core possa rendere al meglio in specifici contesti.
Dubito che possa funzionare bene una combinazione dei due. In genere o hai un carico rilevante e quindi usi i core ad alte prestazioni, oppure hai poco carico e ti bastano quelli a basse prestazioni.
Vie di mezzo è difficile trovarne, perché si scatta facilmente nell'uno o nell'altro caso.
È verissimo comunque che usando le istruzioni avanzate (in particolare le ultime AVX) il consumo schizza alle stelle, quindi effettivamente in questi casi potrebbe non esserci spazio per l'uso dei core "piccoli" (che però dovrebbero anche essere molto efficienti ed incidere in modo minimo sul power budget).
Anche se incidono poco, quando hai un carico elevato i core ad alte prestazioni se lo prendono tutto il power budget e lo sforano pure, quindi non ci sono proprio i margini per poter lasciare qualcosina a quelli a basse prestazioni anche se consumassero pochissimo.
Piuttosto bisognerà vedere quali saranno le configurazioni che usciranno, perchè se si tratta di aggiungere due piccoli core che alla fine serviranno soprattutto per i consumi in idle allora non cambierebbe molto e sarebbe ben poco il "silicio sprecato".
Si parla di 8+8 core, e non di 8+2. Il che lascia pensare che la configurazione sia mutuamente esclusiva: o si usano quelli ad alte prestazioni, o quelle a basse prestazioni.
Altrimenti una configurazione 8+2 la vedrei bene sia sul desktop sia sul mobile.
Da vedere anche quanto i core piccoli siano integrati con quelli grandi, potrebbe essere un blocco 1+1 unico (magari con parte delle risorse condivise) e questo potrebbe farci rivedere buona parte delle ipotesi discusse finora.
Non credo. Cercare di condividere delle risorse crea soltanto problemi sia a livello di complicazione del progetto sia a livello prestazionale (si riducono le prestazioni a causa della logica addizionale che fa aumentare i tempi di propagazione dei segnali).
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.