View Full Version : AMD, spunta un nuovo brevetto: l'architettura ibrida sempre più concreta?
Redazione di Hardware Upg
14-06-2021, 06:59
Link alla notizia: https://www.hwupgrade.it/news/cpu/amd-spunta-un-nuovo-brevetto-l-architettura-ibrida-sempre-piu-concreta_98480.html
Un nuovo brevetto pubblicato da AMD illustra l'uso di un'architettura ibrida in cui core differenti lavorano insieme per occuparsi dei carichi di lavoro, smistandosi le attività in base a determinati parametri verificati in tempo reale.
Click sul link per visualizzare la notizia.
daitarn_3
14-06-2021, 08:07
Molto interessante e promettente
Molto interessante e promettente
MAH.. è ne più ne meno quello che ha fatto Intel sui prossimi processori che usciranno.
Io sono abbastanza scettico su queste soluzioni.
Sono dell'idea che un CPU per PC (nel 95% dei casi) non abbia necessità di ricorrere a queste soluzioni per risparmiare qualche watt.
nickname88
14-06-2021, 10:25
ma non avevano già confermato l'architettura ibrida ?
dovè la novità ?
Se è stato necessario un brevetto specifico, evidentemente ci sono diversi modi per implementare un architettura ibrida.
supertigrotto
14-06-2021, 11:31
Chissà se sarebbe possibile ibridare core x86 con Risc-V,il problema sarebbe il codice e lo smistamento delle istruzioni.
Chissà se sarebbe possibile ibridare core x86 con Risc-V,il problema sarebbe il codice e lo smistamento delle istruzioni.
Sarebbe sicuramente possibile ma non con lo stesso livello di ibridazione.
Con le architetture big-little e simili hai lo stesso eseguibile che può essre fatto girare su core big o little. Nel caso da te proposto sarebbero necessari due esguibili diversi compilati per le due architetture
I SoC di Texas Instruments delle famiglie Omap e DaVinci (ora abbandonati se ben ricordo) contenevano core ARM e DSP Texas
tuttodigitale
14-06-2021, 13:38
MAH.. è ne più ne meno quello che ha fatto Intel sui prossimi proce:eek: ssori che usciranno.
Io sono abbastanza scettico su queste soluzioni.
Sono dell'idea che un CPU per PC (nel 95% dei casi) non abbia necessità di ricorrere a queste soluzioni per risparmiare qualche watt.
Parti dal presupposto errato che questi core non contribuiscono in misura non trascurabile al raggiungimento delle massime prestazioni in un determinato TDP.. L'ipc dei core little sarà notevole, solo marginalmente più basso delle CPU della scorsa generazione...
Parti dal presupposto errato che questi core non contribuiscono in misura non trascurabile al raggiungimento delle massime prestazioni in un determinato TDP.. L'ipc dei core little sarà notevole, solo marginalmente più basso delle CPU della scorsa generazione...
Ma scusa.. come fai a saperlo? Non ci sono prove su strada che io sappia.
Poi dipende pure come sono intese le CPU con questa tecnologia..
Io oggi compro un "8 core 16 Thread" dove i cores sono tutti "BIG".
Domani come funziona? Sempre uguale (8/16) con 2/4 extra di core "LITTLE" o mi becco un 8/16 con 6/12 BIG e 2/4 LITTLE?
Perchè la prima ipotesi mi va a genio, la seconda molto meno
Piedone1113
14-06-2021, 16:10
Ma scusa.. come fai a saperlo? Non ci sono prove su strada che io sappia.
Poi dipende pure come sono intese le CPU con questa tecnologia..
Io oggi compro un "8 core 16 Thread" dove i cores sono tutti "BIG".
Domani come funziona? Sempre uguale (8/16) con 2/4 extra di core "LITTLE" o mi becco un 8/16 con 6/12 BIG e 2/4 LITTLE?
Perchè la prima ipotesi mi va a genio, la seconda molto meno
Ma se una cpu va in multi come il 5950x ( 16/32) cambia qualcosa nel saperla una 12/24 + 4/8 o una 16/32 + 8/16?
il successo dei processori ibridi è strettamente legato al software.
Campa cavallo.
Quanti sw sfruttano in maniera adeguata i sistemi multicore?
Quanti sw sfruttano in maniera adeguata le estensioni cpu (SSEx, Avx, ecc)?
Quanti sw sfruttano in maniera adeguate le gpu integrate nelle cpu?
L'ipc dei core little sarà notevole, solo marginalmente più basso delle CPU della scorsa generazione...
Te l'ha detto l'uccellino?
Ma se una cpu va in multi come il 5950x ( 16/32) cambia qualcosa nel saperla una 12/24 + 4/8 o una 16/32 + 8/16?
Beh SI.
Se prendo una CPU come il 5950X (ma vale lo stesso discorso per ogni CPU) è ovvio che la compro per il suo elevato potenziale e numero di cores.
Ed è altrettanto ovvio che mi importa se si parla di sedici cavalli di razza oppure di dodici cavalli di razza e quattro ronzini.
rockroll
14-06-2021, 19:04
Beh SI.
Se prendo una CPU come il 5950X (ma vale lo stesso discorso per ogni CPU) è ovvio che la compro per il suo elevato potenziale e numero di cores.
Ed è altrettanto ovvio che mi importa se si parla di sedici cavalli di razza oppure di dodici cavalli di razza e quattro ronzini.
Quoto.
Più che altro è Intel che si ostina a voler far correre anche i ronzini; scommetto che AMD si limiterà al brevetto di gestione ronzini, e se qualcuno lo vorrà sfruttare cavoli suoi, lei incasserà le royalty.
La cosa ha senso SOLO in un ottica di uso su notebook o comunque PC che necessitano di un BASSO valore di consumo complessivo. Come accoppiare 4 core tipo Atom a 8 core tipo Ryzen (tanto per capirci bene). Poi, come per gli ARM, magari dedichi i primi 4 ad attività a basso consumo e/o operazioni basilari veloci e il secondo gruppo (dinamicamente) ai carichi pesanti. Ma il tutto poi andrebbe abbinato anche a unità aritmetiche/matematiche concepite allo stesso modo, o addirittura assenti nei cores Low Power ... (o limitate a 2 cores su 4, come per i vecchi FX AMD).
Beh SI.
Se prendo una CPU come il 5950X (ma vale lo stesso discorso per ogni CPU) è ovvio che la compro per il suo elevato potenziale e numero di cores.
Ed è altrettanto ovvio che mi importa se si parla di sedici cavalli di razza oppure di dodici cavalli di razza e quattro ronzini.
Peccato che quei 16 cavalli di razza non possano andare tutti e sedici al massimo potenziale (vatti a leggere le varie frequenze di boost nei modelli con maggiore numero di core), motivo per cui avere altri core maggiormente efficienti può essere utile.
12 cavalli di razza che vanno al massimo e 4 ronzini che fanno il lavoro che non richiede potenza CPU (e ti assicuro che di task IO bound ce ne sono in un uso comune del PC).
Quello che conterà saranno le prestazioni, se questi processori saranno migliori bene, altrimenti si faranno altre scelte, alla fine potrebbero fare pure un processore monocore da 1mhz, se mi facesse finire il lavoro in metà tempo di uno con 24 core a 10ghz non starei certo a preoccuparmi dei numerini.
Peccato che quei 16 cavalli di razza non possano andare tutti e sedici al massimo potenziale (vatti a leggere le varie frequenze di boost nei modelli con maggiore numero di core), motivo per cui avere altri core maggiormente efficienti può essere utile.
12 cavalli di razza che vanno al massimo e 4 ronzini che fanno il lavoro che non richiede potenza CPU (e ti assicuro che di task IO bound ce ne sono in un uso comune del PC).
Un attimo.
Una CPU con tutti i cores uguali li fa andare tutti alla fequenza nominale dichiarata. Quindi si, tutti i cavalli di razza vanno al massimo potenziale se adeguatamente raffreddati.
Poi se fai qualcosa che ricihede il single core allora scatta il turbo su quel core, ma è un EXTRA, non è la frequenza nominale.
Discorso parecchio diverso se mi metti davanti una cpu 8 cores che però sono 6 potenti e 2 scarsi proprio a livello di architettura.
Quindi torno a dire, ben vengano i cores a basso consumo solo se sono presentati come EXTRA al fianco del solito numero di cores ad alte prestazioni.
Mi aspetto quindi una futura CPU sempre coi suoi 8 cores PIU due low power per un totale di dieci.
Quello che conterà saranno le prestazioni, se questi processori saranno migliori bene, altrimenti si faranno altre scelte, alla fine potrebbero fare pure un processore monocore da 1mhz, se mi facesse finire il lavoro in metà tempo di uno con 24 core a 10ghz non starei certo a preoccuparmi dei numerini.
Certo ovvio.
Però salvo miracoli di qualche genere non mi aspetto dei nuovi cores con un salto prestazionale così marcato.
Un attimo.
Una CPU con tutti i cores uguali li fa andare tutti alla fequenza nominale dichiarata. Quindi si, tutti i cavalli di razza vanno al massimo potenziale se adeguatamente raffreddati.
Poi se fai qualcosa che ricihede il single core allora scatta il turbo su quel core, ma è un EXTRA, non è la frequenza nominale.
Discorso parecchio diverso se mi metti davanti una cpu 8 cores che però sono 6 potenti e 2 scarsi proprio a livello di architettura.
Quindi torno a dire, ben vengano i cores a basso consumo solo se sono presentati come EXTRA al fianco del solito numero di cores ad alte prestazioni.
Mi aspetto quindi una futura CPU sempre coi suoi 8 cores PIU due low power per un totale di dieci.
Per prima cosa non sono core "scarsi", perlomeno non sotto ogni aspetto, infatti saranno più efficienti dei core ad alte prestazioni.
Poi non hai proprio colto la questione delle frequenze. La situazione è questa sui Ryzen 5xxx (tabella copiata da Anandtech):
Ryzen 9 5950X 16c/32t base: 3400 turbo: 4900
Ryzen 9 5900X 12c/24t base: 3700 turbo: 4800
Ryzen 7 5800X 8c/16t base: 3800 turbo: 4700
Ryzen 5 5600X 6c/12t base: 3700 turbo: 4600
Secondo te è un caso che il 5950X ha la frequenza base più bassa? Il turbo single core è più spinto chiaramente grazie al binning, ma rimangono sempre 16 cavalli di razza che non possono andare al massimo potenziale perchè si "rubano" il budget termico l'un l'altro (e non venitemi a raccontare la storia che un PC da "gamer" non ha alcun limite a livello termico).
Ora immagina un'architettura ibrida, dove i core più prestanti possono andare al massimo, senza preoccuparsi del budget termico e i core più efficienti si occupano dei task poco pesanti dal punto di vista computazionale. Se al posto dei core efficienti ci metti altri core prestanti tutto questo non funzionerebbe.
Piedone1113
14-06-2021, 22:25
Beh SI.
Se prendo una CPU come il 5950X (ma vale lo stesso discorso per ogni CPU) è ovvio che la compro per il suo elevato potenziale e numero di cores.
Ed è altrettanto ovvio che mi importa se si parla di sedici cavalli di razza oppure di dodici cavalli di razza e quattro ronzini.
Quindi se domani and ti tira fuori un architettura che con 8 core di razza e 8 ronzini va più dei 16 core di razza diventati nel frattempo Brocchi tu la consideri una chiavica?.
tuttodigitale
14-06-2021, 22:39
Ma scusa.. come fai a saperlo? Non ci sono prove su strada che io sappia.
Le informazioni sulla nuova architettura non mancano, ed i little avranno un front end molto più ampio rispetto agli atom odierni, e resteranno intrinsecamente molto efficienti (come vuole dimostrare la mancanza di smt) con un ipc compreso tra Sandy Bridge ed Haswell..
Comunque tengo a precisare che con gli ulteriori aumenti di ipc la differenza sarà comunque notevole con i big core.
Ma l'aumento di ipc non corrisponde sempre ad una aumento di eficienza... esempio notevole Rocket Lake, che nonostante frequenze e vcore ridotti a causa della sua complessità fa peggio, a parità di consumo, rispetto al predecessore. In sostanza questa strada permette da un lato di svincolarsi da limiti di consumo stringenti per i core più veloci, dall'altra proprio la maggior potenza nel singolo thread rispetto a soluzioni omogenee potenzialmente potrà avere risvolti positivi nell'esecuzione di porzione di codice non dostribuibile su più core..
Il problema è di natura software... I meno giovani si ricorderanno il problema di scheduling del HT, soprattutto nella variante dual core...
Per prima cosa non sono core "scarsi", perlomeno non sotto ogni aspetto, infatti saranno più efficienti dei core ad alte prestazioni.
Poi non hai proprio colto la questione delle frequenze. La situazione è questa sui Ryzen 5xxx (tabella copiata da Anandtech):
Ryzen 9 5950X 16c/32t base: 3400 turbo: 4900
Ryzen 9 5900X 12c/24t base: 3700 turbo: 4800
Ryzen 7 5800X 8c/16t base: 3800 turbo: 4700
Ryzen 5 5600X 6c/12t base: 3700 turbo: 4600
Secondo te è un caso che il 5950X ha la frequenza base più bassa? Il turbo single core è più spinto chiaramente grazie al binning, ma rimangono sempre 16 cavalli di razza che non possono andare al massimo potenziale perchè si "rubano" il budget termico l'un l'altro (e non venitemi a raccontare la storia che un PC da "gamer" non ha alcun limite a livello termico).
Ora immagina un'architettura ibrida, dove i core più prestanti possono andare al massimo, senza preoccuparsi del budget termico e i core più efficienti si occupano dei task poco pesanti dal punto di vista computazionale. Se al posto dei core efficienti ci metti altri core prestanti tutto questo non funzionerebbe.
No, non è un caso.
E' risaputo che con più cores sullo stesso die è anche più difficile mantenere la stabilità a pieno carico con tutti i cores attivi. E' un fatto fisico non è che si divertono a farli andare a clock inferiore.
E poi tutto da vedere se mettendo dentro alcuni cores meno potenti riesci a fare andare di più gli altri, resta il fatto che se magari vanno di più sono comunque di meno in numero. Allora tantovale predere direttamente il mdello con meno cores non ti pare?
Ribadisco il discorso:
il futuro Ryzen 9 6950X sarà 16c/32t di cui 4 "low power" OPPURE sarà 16c/32t con 4 cores low power IN PIU' che entrano in gioco per le cose meno impegnative?
Faccio presente che comunque vada se vuoi far girare 16 cores potenti tutti assieme il problema della frequenza "limitata" resta.
Quindi se domani and ti tira fuori un architettura che con 8 core di razza e 8 ronzini va più dei 16 core di razza diventati nel frattempo Brocchi tu la consideri una chiavica?.
Chiaro che no.
Però come detto i miracoli non capitano spesso, quindi prima vorrei vedere alla prova una CPU con 8 cores di razza e 8 ronzini che vanno più di 16 cores di razza attuali.
Poi partiamo da li. ;)
Le informazioni sulla nuova architettura non mancano, ed i little avranno un front end molto più ampio rispetto agli atom odierni, e resteranno intrinsecamente molto efficienti (come vuole dimostrare la mancanza di smt) con un ipc compreso tra Sandy Bridge ed Haswell..
Comunque tengo a precisare che con gli ulteriori aumenti di ipc la differenza sarà comunque notevole con i big core.
Ma l'aumento di ipc non corrisponde sempre ad una aumento di eficienza... esempio notevole Rocket Lake, che nonostante frequenze e vcore ridotti a causa della sua complessità fa peggio, a parità di consumo, rispetto al predecessore. In sostanza questa strada permette da un lato di svincolarsi da limiti di consumo stringenti per i core più veloci, dall'altra proprio la maggior potenza nel singolo thread rispetto a soluzioni omogenee potenzialmente potrà avere risvolti positivi nell'esecuzione di porzione di codice non dostribuibile su più core..
Il problema è di natura software... I meno giovani si ricorderanno il problema di scheduling del HT, soprattutto nella variante dual core...
Sono comunque tutte deduzioni e consideranzioni a tavolino.
Il risultato finale alla prova su strada è ben altro paio di maniche.
E ribadisco che non è certo facile tirare fuori una ipotetica CPU ibrida con 16 cores in totale tra BIG e LITTLE che sia migliore di una attuale CPU con 16 cores tutti BIG.
E poi tutto da vedere se mettendo dentro alcuni cores meno potenti riesci a fare andare di più gli altri, resta il fatto che se magari vanno di più sono comunque di meno in numero. Allora tantovale predere direttamente il mdello con meno cores non ti pare?
È anche probabile che esisteranno sku con soli core BIG, ma non darei per scontato che vadano uguale alla versione BIG.little, che è più efficiente energeticamente. Tu li chiami "meno potenti", io li chiamo "più efficienti".
Se sia Intel che Amd stanno andando in questa direzione ci sarà un motivo non credi?
Piedone1113
15-06-2021, 07:15
Sono comunque tutte deduzioni e consideranzioni a tavolino.
Il risultato finale alla prova su strada è ben altro paio di maniche.
E ribadisco che non è certo facile tirare fuori una ipotetica CPU ibrida con 16 cores in totale tra BIG e LITTLE che sia migliore di una attuale CPU con 16 cores tutti BIG.
Che siano o non siano architetture ibride 16 core in ambito desktop sono esagerati per i prox 10 anni.
Le dimensioni dei die sono già belle minuscole, con i prox pp non avrebbe senso aumentarli ( se non per applicazioni specifiche e per il fan del più lungo).
Già adesso la concorrenza dei core è controproducente ( non solo il tuo, ma anche cache, RAM, sottosistema i/o) e credere che 16 core siano davvero utili ( o peggio indispensabili) significa essere divenuto vittime del marketing.
Per i Little ( il brevetto è per il reindirizzamento e switch dei processi) potrebbero essere una architettura big/Little, int/vec, big/small/Extreme o qualsiasi altra cosa, come pure un architettura con core più adatti a carichi int, altri a carichi fp, ed altri ancora a carichi Vector.
Insomma non sappiamo ne se uscirà, ne quando, ne come e con che tipologie di core l'implementazione di questo brevetto e già c'è chi lo boccia e chi lo osanna.
Aspettare e vedere mai?
È anche probabile che esisteranno sku con soli core BIG, ma non darei per scontato che vadano uguale alla versione BIG.little, che è più efficiente energeticamente. Tu li chiami "meno potenti", io li chiamo "più efficienti".
Se sia Intel che Amd stanno andando in questa direzione ci sarà un motivo non credi?
:D :D :D
Si vabbeh che discorso.. tu li chiami delinquenti io li chiamo diversamente onesti! :sofico:
Più efficienti ma di fatto meno potenti.
Molto interessante, ma molto dipende da quanto tempo ci mette un carico di lavoro per essere migrato da un core all'altro.
nickname88
15-06-2021, 10:46
È anche probabile che esisteranno sku con soli core BIG, ma non darei per scontato che vadano uguale alla versione BIG.little, che è più efficiente energeticamente. Tu li chiami "meno potenti", io li chiamo "più efficienti".
Se sia Intel che Amd stanno andando in questa direzione ci sarà un motivo non credi?Più efficienti ? Si certo ma siccome occupano spazio, avremmo preferito che venisse usato in altro modo, magari con più cores High Power o più cache.
Inoltre come già specificato richiede una programmazione supplementare, non penso basterà l'OS affinchè vi sia una distribuzione perfetta del carico, senza contare la latenza dovuta al trasferimento di carico, visto che uno o più thread potrebbero benissimo variare repentinamente il loro carico di lavoro.
Utilizzare quello spazio invece con cache o altri cores non avrebbe implicato ciò.
Poi voglio proprio vedere se veramente darà vantaggi da subito e se saremmo costretti a disabilitarlo in game.
A me dà solo l'impressione di una soluzione nata per far durare di più le batterie dei notebook e che su desktop arriva solo per mantenere unificati progetti e le produzioni.
Che siano o non siano architetture ibride 16 core in ambito desktop sono esagerati per i prox 10 anni.
Le dimensioni dei die sono già belle minuscole, con i prox pp non avrebbe senso aumentarli ( se non per applicazioni specifiche e per il fan del più lungo).
Già adesso la concorrenza dei core è controproducente ( non solo il tuo, ma anche cache, RAM, sottosistema i/o) e credere che 16 core siano davvero utili ( o peggio indispensabili) significa essere divenuto vittime del marketing.
Su questo sono d'accordo. La vedo nello stesso modo.
Sicuramente a qualcuno 16 cores fanno anche comodo ma certmante parliamo di una percentuale minima.
Ma io facevo un discorso in generale e palavo quindi anche delle CPU mainstream.
Per i Little ( il brevetto è per il reindirizzamento e switch dei processi) potrebbero essere una architettura big/Little, int/vec, big/small/Extreme o qualsiasi altra cosa, come pure un architettura con core più adatti a carichi int, altri a carichi fp, ed altri ancora a carichi Vector.
Insomma non sappiamo ne se uscirà, ne quando, ne come e con che tipologie di core l'implementazione di questo brevetto e già c'è chi lo boccia e chi lo osanna.
Aspettare e vedere mai?
Veramente sarebbe aspettare e vedere sempre.
Ho espresso perplessità e dubbi su come verranno realizzate le nuove CPU, non ho detto che saranno certamente uno schifo.
:D :D :D
Si vabbeh che discorso.. tu li chiami delinquenti io li chiamo diversamente onesti! :sofico:
Più efficienti ma di fatto meno potenti.
Potenza e efficienza sono strettamente connesse tra di loro. Una CPU più efficiente esegue più calcoli a parità di budget termico, sono le leggi della fisica.
Non capisco cosa ci sia da aggiungere una volta vista la tabellina delle frequenze dei Ryzen 5xxx.
nickname88
15-06-2021, 14:13
Potenza e efficienza sono strettamente connesse tra di loro. Una CPU più efficiente esegue più calcoli a parità di budget termico, sono le leggi della fisica.
Non capisco cosa ci sia da aggiungere una volta vista la tabellina delle frequenze dei Ryzen 5xxx.Fosse vero realizzerebbero tutti i cores con quell'architettura.
Del budget termico su desktop ci puliamo il sedere, noi vogliamo le prestazioni sui cores High Power, anche ben più del numero di cores totale.
Fosse vero realizzerebbero tutti i cores con quell'architettura.
Del budget termico su desktop ci puliamo il sedere, noi vogliamo le prestazioni sui cores High Power, anche ben più del numero di cores totale.
:rotfl: e pensare che l'architettura Core di Intel deriva dal Pentium M
Ma non spreco altro tempo, tanto non capiresti comunque :rolleyes:
nickname88
15-06-2021, 17:03
:rotfl: e pensare che l'architettura Core di Intel deriva dal Pentium M
Ma non spreco altro tempo, tanto non capiresti comunque :rolleyes:
C'è ben poco da capire, il Centrino aveva una microarchitettura concettualmente nettamente superiore al Netburst.
E infatti ci han realizzato una nuova linea di CPU basati interamente.
Se fai un architettura ibrida con cores High Power e cores Low Powers a casa mia vuol dire che le differenze ci sono altrimenti facevi tutti cores High Power con la stessa architettura degli ultimi.
Non è che ci vuole tanto a capire certe cose.
Altrimenti non la facevano ibrida.
Piedone1113
15-06-2021, 17:50
C'è ben poco da capire, il Centrino aveva una microarchitettura concettualmente nettamente superiore al Netburst.
E infatti ci han realizzato una nuova linea di CPU basati interamente.
Se fai un architettura ibrida con cores High Power e cores Low Powers a casa mia vuol dire che le differenze ci sono altrimenti facevi tutti cores High Power con la stessa architettura degli ultimi.
Non è che ci vuole tanto a capire certe cose.
Altrimenti non la facevano ibrida.
Se fai una architettura con dei core con tutte le nuovi istruzioni e l'altra con le classiche int, ft, sse2 senza implementare niente di complesso o esotico avremo la seconda tipologia di core che in int e fp andranno di più consumando di meno in carichi ortodossi, mentre con carichi specialistici andrà di più la prima.
Chi va di più o di meno lo decide il progettista ed il software, facilissimo implementare però dei core con accelerazione hardware limitate che in determinati ambiti consumeranno meno andando di più del "big" core ( es navigazione internet con video h265)
nickname88
15-06-2021, 18:51
Se fai una architettura con dei core con tutte le nuovi istruzioni e l'altra con le classiche int, ft, sse2 senza implementare niente di complesso o esotico avremo la seconda tipologia di core che in int e fp andranno di più consumando di meno in carichi ortodossi, mentre con carichi specialistici andrà di più la prima.
Chi va di più o di meno lo decide il progettista ed il software, facilissimo implementare però dei core con accelerazione hardware limitate che in determinati ambiti consumeranno meno andando di più del "big" core ( es navigazione internet con video h265)Se le performance fossero il focus dell'architettura questi cores "semplici" sarebbero implementati anch'essi come High Power con frequenza e cache maggiorati ad affiancare i cores tradizionali. Così da evitare anche il passaggio continuo da un core all'altro in base al carico di lavoro ( che comporta una latenza ).
Il focus invece è in realtà quello dei SoC ARM, ossia dei cores a basse performance che operano quando la CPU non deve svolgere carichi elevati.
Poi ripeto, un core con istruzioni semplici occupa sempre spazio, spazio che si potrebbe usare per ampliare i core tradizionali.
Così non solo avremmo comunque più prestazioni ma una più semplice OTTIMIZZAZIONE lato software, che su PC non è un esattamente il punto forte.
Nel caso qualcuno come K0nte avanzasse poi l'ipotesi che la collaborazione con i cores Low Power possa consentire boost più spinti fra i cores High Power ricordo che una cache maggiore è prestazionalmente meglio o uguale al fornire un boost di 100-200Mhz in più su una CPU.
Piedone1113
15-06-2021, 19:46
Se le performance fossero il focus dell'architettura questi cores "semplici" sarebbero implementati anch'essi come High Power con frequenza e cache maggiorati ad affiancare i cores tradizionali. Così da evitare anche il passaggio continuo da un core all'altro in base al carico di lavoro ( che comporta una latenza ).
Il focus invece è in realtà quello dei SoC ARM, ossia dei cores a basse performance che operano quando la CPU non deve svolgere carichi elevati.
Poi ripeto, un core con istruzioni semplici occupa sempre spazio, spazio che si potrebbe usare per ampliare i core tradizionali.
Così non solo avremmo comunque più prestazioni ma una più semplice OTTIMIZZAZIONE lato software, che su PC non è un esattamente il punto forte.
Nel caso qualcuno come K0nte avanzasse poi l'ipotesi che la collaborazione con i cores Low Power possa consentire boost più spinti fra i cores High Power ricordo che una cache maggiore è prestazionalmente meglio o uguale al fornire un boost di 100-200Mhz in più su una CPU.
tu confondi basse performance con alto rendimento.
Una cpu può avere alte performance su determinati carichi consumando meno, ma al tempo stesso avere pessime performance su altri tipo di carichi.
Per esempio i primi ATOM avevano ottime performance e bassissimi consumi con tutti i processi sequenziali, mentre avevano pessime performance con processi che prevedevano salti di codice.
Quindi con codici sequenziali erano velocissimi e super efficienti, con carichi che non lo erano ( il 95% dei casi) avevano pessime prestazioni ed anche un efficienza inferiore agli allora core ( significa che per fare lo stesso lavoro consumavano anche più).
Se riesci a capire che in informatica non esiste solo bianco o nero possiamo trovare un incontro teorico, altrimenti nisba.
Per esempio la ( secondo tua opinione) pessima architettura cell era un bidone in assoluto, mentre se quell'architettura fosse stata il little core di una cpu general purpose sarebbe stata una meraviglia ( fino a 20 volte più veloce nei calcoli vettoriali di qualsiasi architettura nei successissivi 5 anni dalla sua presentazione.
PS mi è sfuggito la tua considerazione sulla cache:
La tua affermazione è una falsità assoluta
È risaputo invece che una cache è sempre in funzione non solo del backend ma anche del frontend.
Che succede se aumenti la cache e le unità di elaborazione non riescono a elaborare sufficienti dati?
Che succede se il dataprefetch ha il 30% di miss?
Che succede se il datachanel verso la RAM si satura?
Che succede se un aumento della cache ( che scalda) ti riduce il clock dei core in modo direttamente proporzionale?
Se aggiungi da una parte togli dall'altra e solo uno che non
comprende che le architetture sono una mediazione alla ricerca del miglior compromesso e che aumentare core, cache, canali RAM, dataprefetch, ecc così ad cazzum fa l'esatto contrario di quello che scrivi.
Per la cronaca 16 core in ambito desktop sono abbondanti per i prossimi 6/7 anni almeno e tu proponi di aumentarli per aumentare le prestazioni?
C'è ben poco da capire, il Centrino aveva una microarchitettura concettualmente nettamente superiore al Netburst.
E infatti ci han realizzato una nuova linea di CPU basati interamente.
Se fai un architettura ibrida con cores High Power e cores Low Powers a casa mia vuol dire che le differenze ci sono altrimenti facevi tutti cores High Power con la stessa architettura degli ultimi.
Non è che ci vuole tanto a capire certe cose.
Altrimenti non la facevano ibrida.
Centrino è il nome della piattaforma, l'architettura della CPU era quella del Pentium M. E indovina perchè era nettamente superiore a Netburst? Perchè era pensato per essere più efficiente energeticamente :rolleyes:
Non ci vorrà tanto a capire certe cose, ma tu non le hai capite nemmeno con l'esempio dei cavalli
Nel caso qualcuno come K0nte avanzasse poi l'ipotesi che la collaborazione con i cores Low Power possa consentire boost più spinti fra i cores High Power ricordo che una cache maggiore è prestazionalmente meglio o uguale al fornire un boost di 100-200Mhz in più su una CPU.
Il fatto di avere core ibridi non impedisce di incrementare la cache. Quello che lo impedisce è l'area e il costo.
Non vuoi compromessi? Prova a informarti, magari puoi comprare questo https://www.intel.com/content/www/us/en/high-performance-computing/supercomputing/exascale-computing.html
:asd:
nickname88
15-06-2021, 22:17
Centrino è il nome della piattaforma, l'architettura della CPU era quella del Pentium M. E indovina perchè era nettamente superiore a Netburst? Perchè era pensato per essere più efficiente energeticamente :rolleyes: Netburst era una microarchitettura fallimentare.
Anche la K10 di AMD era tranquillamente superiore, così come quella usata sui Ryzen lo è rispetto all'attuale di Intel e non perchè sono state pensate per i notebook, dove anzi è stata più intel a focalizzarsi sul mobile nel decennio nero di AMD.
Non ci vorrà tanto a capire certe cose, ma tu non le hai capite nemmeno con l'esempio dei cavalliDifficile capire le baggianate.
Il fatto di avere core ibridi non impedisce di incrementare la cache. [/QUOTE]
Si invece, perchè la dimensione dei prodotti hanno dei limiti sulla base del costo e delle rese preventivati che devono avere i prodotti finiti.
Quindi se lo spazio è occupato da questi cores la cache non la ampliano.
nickname88
15-06-2021, 22:29
tu confondi basse performance con alto rendimento.
Una cpu può avere alte performance su determinati carichi consumando meno, ma al tempo stesso avere pessime performance su altri tipo di carichi.Se fosse come dici tu per quale motivo non colmare il gap in fatto di consumo ( magari alzando le frequenze ) con gli altri cores in modo da avere performance ancora maggiore con lo stesso carico ?
Perchè DEVE necessariamente consumare meno ?
Per esempio la ( secondo tua opinione) pessima architettura cell era un bidone in assoluto, mentre se quell'architettura fosse stata il little core di una cpu general purpose sarebbe stata una meraviglia ( fino a 20 volte più veloce nei calcoli vettoriali di qualsiasi architettura nei successissivi 5 anni dalla sua presentazione.Le performance di Cell non le conosco, ma che sia così prodigioso come dici tu è tutto da dimostrare.
PS mi è sfuggito la tua considerazione sulla cache:La considerazione sulla cache era un esempio, il fatto è che questi cores low end occupano spazio che invece può sicuramente essere utilizzato in altro modo per aumentare le performance generali.
La tua affermazione è una falsità assoluta
È risaputo invece che una cache è sempre in funzione non solo del backend ma anche del frontend.
Che succede se aumenti la cache e le unità di elaborazione non riescono a elaborare sufficienti dati?
Che succede se il dataprefetch ha il 30% di miss?
Che succede se il datachanel verso la RAM si satura?
Che succede se un aumento della cache ( che scalda) ti riduce il clock dei core in modo direttamente proporzionale?AMD ha introdotto la 3D V-Cache che invece ha portato a significativi vantaggi su modelli già esistenti.
Con un CCD più ridotto si può piazzare un quantitativo maggiore di quest'ultima.
Per la cronaca 16 core in ambito desktop sono abbondanti per i prossimi 6/7 anni almeno e tu proponi di aumentarli per aumentare le prestazioni?16 ? Anche 8 sono abbondanti.
Ma la strada dovrebbe essere unicamente votata all'aumento delle performance massima del singolo core, ( altrimenti le microarchitetture X86 sarebbero votate alla massima parallelizzazione come nelle GPU ) il numero verrà da sè con la miniaturizzazione.
Avere la stessa performance di un modello 8 core in uno da 6 avresti meno problemi di sfruttabilità e meno cores con carico ridotto e quindi migliori risultati.
Nei giochi il collo di bottiglia sulla CPU è spesso rappresentato dal singolo core che gestisce il thread del rendering, quì i cores Low End non servono ad un beneamato tubo.
Piedone1113
15-06-2021, 22:32
Centrino è il nome della piattaforma, l'architettura della CPU era quella del Pentium M. E indovina perchè era nettamente superiore a Netburst? Perchè era pensato per essere più efficiente energeticamente :rolleyes:
Non ci vorrà tanto a capire certe cose, ma tu non le hai capite nemmeno con l'esempio dei cavalli
:asd:
Prevenire: n610 Compaq con Pentium m 1600 ma non centrino ( ottima infrastruttura ma esageratamente pompata dal marketing da farla apparire molto più influente di quanto non fosse in realtà)
Netburst era una microarchitettura fallimentare.
Anche la K10 di AMD era tranquillamente superiore, così come quella usata sui Ryzen lo è rispetto all'attuale di Intel e non perchè sono state pensate per i notebook, dove anzi è stata più intel a focalizzarsi sul mobile nel decennio nero di AMD.
Difficile capire le baggianate.
Il fatto di avere core ibridi non impedisce di incrementare la cache.
Si invece, perchè la dimensione dei prodotti hanno dei limiti sulla base del costo e delle rese preventivati che devono avere i prodotti finiti.
Quindi se lo spazio è occupato da questi cores la cache non la ampliano.
Ma finiscila, che qui l'unico che dice baggianate qui sei te :doh:
Rimani pure nella tua ignoranza, tanto io non ci guadagno niente a spiegare le cose agli ignoranti come te :doh:
Prevenire: n610 Compaq con Pentium m 1600 ma non centrino ( ottima infrastruttura ma esageratamente pompata dal marketing da farla apparire molto più influente di quanto non fosse in realtà)
Niente da dire, la gente che lavora nel reparto marketing di Intel sa il fatto suo :p
Piedone1113
15-06-2021, 23:23
Se fosse come dici tu per quale motivo non colmare il gap in fatto di consumo ( magari alzando le frequenze ) con gli altri cores in modo da avere performance ancora maggiore con lo stesso carico ?
Perchè DEVE necessariamente consumare meno ?
Le performance di Cell non le conosco, ma che sia così prodigioso come dici tu è tutto da dimostrare.
La considerazione sulla cache era un esempio, il fatto è che questi cores low end occupano spazio che invece può sicuramente essere utilizzato in altro modo per aumentare le performance generali.
AMD ha introdotto la 3D V-Cache che invece ha portato a significativi vantaggi su modelli già esistenti.
Con un CCD più ridotto si può piazzare un quantitativo maggiore di quest'ultima.
16 ? Anche 8 sono abbondanti.
Ma la strada dovrebbe essere unicamente votata all'aumento delle performance massima del singolo core, ( altrimenti le microarchitetture X86 sarebbero votate alla massima parallelizzazione come nelle GPU ) il numero verrà da sè con la miniaturizzazione.
Avere la stessa performance di un modello 8 core in uno da 6 avresti meno problemi di sfruttabilità e meno cores con carico ridotto e quindi migliori risultati.
Nei giochi il collo di bottiglia sulla CPU è spesso rappresentato dal singolo core che gestisce il thread del rendering, quì i cores Low End non servono ad un beneamato tubo.
Sono con Cell scusa se non quoto punto per punto ma in ordine:
1 le unità int ed fp in un core sono ingegnerizzate per ottenere il miglior compromesso area efficienza su tutti i tipi di carico, ( tralasciamo le istruzioni dedicate), ma questo compromesso si riduce sempre a limitare le prestazioni assolute.
Ci sono carichi che utilizzano esclusivamente unità int, mentre altre fp, la serie FX di AMD è un classico esempio dove con carichi int si avevano ottime prestazioni, mentre con carichi fp pessime.
Ma una suite di videoscrittura o di desktop publishing non hanno bisogno di fp, va da sé che senza nessuna modifica alla architettura un epuramento delle fp porterebbe maggiori prestazioni, maggior frequenza e minor consumo.
2
L'architettura Cell era molto più efficiente nei calcoli vettoriali e matriciali di una GPU, non credo di dover dimostrare nulla a riguardo, considera che pur avendo un'architettura superspecialistica cosa hanno tirato fuori da PS3 ( e Cell in quella macchina senza l'ausilio di una parte general purpose ha mostrato tutti i limiti di una CPU specialistica adattata a fare tutto)
3
Vai a vedere quanto occupa un core completo e quanto la cache.
Adesso riduci il core solo per carichi "leggeri" e ti renderai conto che di spazio tolto alla cache lo puoi definire trascurabile.
4
3d v cache è valida perché è modulare, come struttura monolitica avrebbe dei costi esageratamente alti e dei vantaggi prestazionali molto inferiori.
Secondo il tuo parere la vcache in ryzen6 sarà nel ccx o ancora 3d?
5
Un core gigantesco come proponi ( aumento dei transistor) è stato esplicitamente bocciato da AMD, perché fare ccx da 8 core invece che da 4 il doppio più grandi?
Superata una certa soglia l'area occupata in più ti porta vantaggi sempre più risicati e sempre più limitati.
Core specializzati al contrario ti portano un aumento prestazionale ed una maggior efficienza su specifici carichi.
Ti faccio un esempio alla carlona:
Mentre crei un sito web il software prevede un uso ottimale di 2 unità int e 1 unità fp.
Il rendering di una scena invece prevede l'uso di 1 int e 3 fp.
Le attuali CPU hanno 2 int e 3 fp per core.
Quale risulterebbe più efficiente una CPU con 2int e 3 fp o una capace di switch are a seconda del carico tra quella a 1 int e 3 fp e quella da 2 int e 1 fp?
Considera anche che tra le due tipologie di core puoi anche affinare maggiormente la parte int e la parte fp migliorandole o peggiorandole secondo le previsioni di carico sostenibili.
PS possono pure implementare l'architettura big e Little con struttura 3d: strato profondo Little, intermedio big e superiore vcache rendendo del tutto ininfluente il transistor count.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.