PDA

View Full Version : AMD come Intel e ARM, nel futuro Ryzen con architettura ibrida?


Redazione di Hardware Upg
10-08-2020, 10:01
Link alla notizia: https://www.hwupgrade.it/news/cpu/amd-come-intel-e-arm-nel-futuro-ryzen-con-architettura-ibrida_91297.html

Un brevetto di AMD illustra come l'azienda stia pensando a chip dotati di architettura ibrida, ossia dotati di core ad alte prestazioni unitamente a soluzioni a basso consumo. Un design che ricorda il big.LITTLE di ARM o il più recente Big.BIGGER di Intel Lakefield.

Click sul link per visualizzare la notizia.

Nautilu$
10-08-2020, 12:22
Ha senso per i portatili.... ma sui desktop è inutile e controproducente.

djmatrix619
10-08-2020, 12:37
Ha senso per i portatili.... ma sui desktop è inutile e controproducente.

Specialmente se la corrente la pagano i tuoi genitori. :asd:

Eh.

Nautilu$
10-08-2020, 13:03
Credo tu non abbia capito il senso di quello che ho scritto....
....e che stai parlando con un padre di famiglia con 2 figli grandicelli....

Riky1979
10-08-2020, 13:15
Dipende se si parla di desktop entrilevel per word etc oppure con desktop di fascia alta con cpu performanti, in questo caso ci sarebbe una forte utilità avere in pratica una cpu poco energivora per navigare etc ed un lato della cpu ad alte prestazioni; non conosco i consumi ma non mi stupire che una cpu di fascia bassa tirata al 90% consumi meno di una cpu di fascia alta al 30-40%.
Inoltre avrebbe un impatto elevatissimo su luoghi con centinaia o migliaia di computer collegati e spesso mai spenti, per via di update scansioni av svolte in orario notturno.

rockroll
10-08-2020, 13:27
Ha senso per i portatili.... ma sui desktop è inutile e controproducente.

Ma difatti, sono complicazioni che su desktop creano più danni che benefici.

A fronte di un risparmio trascurabile di energia di alimentazione, e con maggior complessità e delicatezza del sistema HW, poi andiamo a montare una sk video della Madonna che si divora 100 volte quello che avremo eventualmente risparmiato....

randy88
10-08-2020, 13:31
Domanda evidentemente idiota:

Ma AMD già non proponeva un'architettura con core ibridi in stile ARM? :stordita:

Ero assolutamente sicuro di aver letto che già da almeno una generazione, le CPU Ryzen avessere core ibridi con core più performanti accanto ad altri meno performanti. Sarò stato ubriaco :asd:

djmatrix619
10-08-2020, 13:31
Credo tu non abbia capito il senso di quello che ho scritto....
....e che stai parlando con un padre di famiglia con 2 figli grandicelli....

Dicevo in senso ipotetico, non a te in modo diretto.

E comunque é una soluzione per lo piú in ambito mobile infatti, ma ció non toglie che anche in altri ambiti puó essere utile. Che poi avere una soluzione in piú non fa mai male. Chi non la vuole ha altre soluzioni, semplice. Non credo che forzino ad avere la tecnologia ibrida.

Dipende se si parla di desktop entrilevel per word etc oppure con desktop di fascia alta con cpu performanti, in questo caso ci sarebbe una forte utilità avere in pratica una cpu poco energivora per navigare etc ed un lato della cpu ad alte prestazioni; non conosco i consumi ma non mi stupire che una cpu di fascia bassa tirata al 90% consumi meno di una cpu di fascia alta al 30-40%.
Inoltre avrebbe un impatto elevatissimo su luoghi con centinaia o migliaia di computer collegati e spesso mai spenti, per via di update scansioni av svolte in orario notturno.

Esattamente, sono tantissimi gli usi dove una tecnologia del genere potrebbe essere immensamente utile anche fuori dall'ambito mobile. ;)

sbaffo
10-08-2020, 13:34
Ha senso per i portatili.... ma sui desktop è inutile e controproducente.
Si era visto che anche sui cellulari, almeno all’inizio, era in effetti inutile e controproducente, perché mancava l’ottimizzazione, infatti erano più il tempo e l’energia persi a saltare da un core all’altro che il guadagno. Anche recentemente sugli exynos degli S9-note9 succedeva la stessa cosa, con ritardi di 400ms nei salti (articolo di anandtech).

Considerando la scarsa ottimizzazione di windows, che ci ha messo dieci anni a capire come usare i core virtuali dell’hiperthreading, do ragione a nautilus. Sui pc fissi il guadagno sarà risibile nella maggior parte dei casi. Comunque non escludo che qualche uso particolare come nas, nuc/media server o altro potrebbe avvantaggiarsene.

Nautilu$
10-08-2020, 13:48
Dicevo in senso ipotetico, non a te in modo diretto.

E comunque é una soluzione per lo piú in ambito mobile infatti, ma ció non toglie che anche in altri ambiti puó essere utile. Che poi avere una soluzione in piú non fa mai male. Chi non la vuole ha altre soluzioni, semplice. Non credo che forzino ad avere la tecnologia ibrida.


Lo spero...

nickname88
10-08-2020, 14:20
Specialmente se la corrente la pagano i tuoi genitori. :asd:

Eh.Ti riferisci per caso alla manciata di euro l'anno che pagherai con gli interessi tranquillamente in prezzo/prestazione ? Specie laddove il desktop lo tieni spesso in full e cui queste unità occupano solo spazio e basta.
Se voglio risparmiare uso un sistema differente non un desktop.

Ha senso per i portatili.... ma sui desktop è inutile e controproducente.
Così come le GPU integrate nel die della CPU, specialmente in prodotti di fascia alta dove è quasi contato che si usi sempre una VGA discreta. :rolleyes:

nickname88
10-08-2020, 14:26
Dipende se si parla di desktop entrilevel per word etc oppure con desktop di fascia alta con cpu performanti, in questo caso ci sarebbe una forte utilità avere in pratica una cpu poco energivora per navigare etc ed un lato della cpu ad alte prestazioni; non conosco i consumi ma non mi stupire che una cpu di fascia bassa tirata al 90% consumi meno di una cpu di fascia alta al 30-40%.
Inoltre avrebbe un impatto elevatissimo su luoghi con centinaia o migliaia di computer collegati e spesso mai spenti, per via di update scansioni av svolte in orario notturno.Quindi uno utilizzerebbe un desktop High End con sistema di aerazione composto da diverse ventole, dissipatori voluminosi e display di grande diagonale per navigare ? :rolleyes: Per quelle cose esistono i muletti, che siano altri fissi, HTPC, notebook o tablet.

demon77
10-08-2020, 16:28
Specialmente se la corrente la pagano i tuoi genitori. :asd:

Eh.

Guarda che ha ragionissima.
Per la questione consumi.. vai a fare due calcoli di cosa consuma e cosa costa un pc di fascia medio alta acceso otto ore al giorno.. :stordita:

Nautilu$
10-08-2020, 16:54
Se vogliono intraprendere questa strada, devono adeguare in qualche modo anche la scheda madre che ospita la CPU, perché non si può pretendere prestazioni stratosferiche su tutto (anche nvme pcie 4, ram che tocca i 4,6GHz, ecc) ma una CPU che con carichi bassi consumi qualche millivolt.....
Se vai a vedere, già adesso, anche CPU con 16 core (Amd) , con carichi basso consumano una manciata di watt.... ma il consumo in idle resta comunque sui 100W per la scheda madre, con il suo chipset che consuma abbastanza, anche senza fare nulla, e tutte le periferiche di contorno (integrate) come sk audio, ethernet, controller RGB vari (utilissimi...), gestione ventole, ecc....

Un 4 core in idle consuma uguale..... che significa? Tutto il consumo lo fa la mb.
Intel in questo senso fa meglio, infatti in idle si hanno sempre un 25/30W in meno sul totale.... ma bisognerà vedere se quando abiliterà veramente il pcie4 gestito fuori dalla cpu, il divario resterà tale.....

Probabilmente, per essere efficiente realmente, dovrebbero fare anche una "doppia" alimentazione dalla mb, e quindi prestazioni minori verso l' "esterno" quando si usano i core "little" (con velocità I/O inferiori).
Tutto ciò ovviamente con costi ancora superiori per le mb..... :rolleyes:
...che già in futuro saranno più alte di adesso per i futuri alimentatori con la sola linea 12V...

Così i costi superiori di corrente risparmiati li hai già pagati ...prima !... pagando magari una mb 500€...

Riky1979
10-08-2020, 17:20
Quindi uno utilizzerebbe un desktop High End con sistema di aerazione composto da diverse ventole, dissipatori voluminosi e display di grande diagonale per navigare ? :rolleyes: Per quelle cose esistono i muletti, che siano altri fissi, HTPC, notebook o tablet.

Pensi che in una industria accendano un pc per modellare in 3D un componente e poi accendano un altro per controllare una mail o stendere una relazione in word?

Poi c'è sempre il fatto che spesso non si spengono mai i pc, da un lato per pigrizia per averli accesi il giorno dopo dall'altro per permettere agli amministratori di sistema di aggiornare i pc e fare manutenzione programmata.

djmatrix619
10-08-2020, 17:25
Guarda che ha ragionissima.
Per la questione consumi.. vai a fare due calcoli di cosa consuma e cosa costa un pc di fascia medio alta acceso otto ore al giorno.. :stordita:

Infatti non esiste solo lo scenario da te descritto, per cui non puó avere ragione.

Ci sono tanti possibili usi per desktop e workstation per cui puó valere la pena avere una tecnologia del genere.
Ha ragione soltanto se forzerebbero quella tecnologia su tutti i processori, rendendoli spesso uno spreco enorme di soldi (per tecnologie non necessarie), e lui credo l'ha capito.

Tecnologie del genere devono essere possibili su tutti i tipi di processori, qualora servissero. Cosí come anche pochi laptop possono montare GPU di livello desktop al loro interno.

Fin quando il consumer puó scegliere, non vedo perché lamentarsi. Al contrario, sarebbe si assai contro producente.

calabar
10-08-2020, 18:20
Ma difatti, sono complicazioni che su desktop creano più danni che benefici.
Ma una volta che lo fai per i notebook non è che ci sia grande complicazione nel portarlo sui desktop.
Per quanto mi riguarda se il PC mi risparmia 10-15W in idle (e diversi PC stanno in idle la maggior parte del tempo) non mi dispiace.

E non è una questione di qualche euro di energia in meno al mese, ma di evitare uno spreco che può essere evitato: avete presente la legge che ha costretto tutti i produttori di dispositivi elettronici, per esempio i TV, ad avere consumi in standby sotto il watt? Il risparmio sembra minimo, ma moltiplicato per tutti i dispositivi lasciati in standby in ogni casa, evita uno spreco non trascurabile.

Non mi preoccuperei neppure del problema "ottimizzazione" in windows, sia perchè immagino che sia disattivabile in caso crei problemi, sia perchè se verrà utilizzato nei notebook (dove può avere grande utilità e soprattutto un impatto percepibile per l'utilizzatore) dubito che non verrà fatto funzionare a dovere.

Nautilu$
10-08-2020, 19:55
Ma guarda i consumi...
https://www.mediafire.com/convkey/7516/ajxx6jzv9ombuvx4g.jpg (http://www.mediafire.com/view/ajxx6jzv9ombuvx/idle.jpg/file)
...in idle (solo il browser aperto).... TOTALE CONSUMO 16 CORE: 1,7W
Ci sono ovviamente altri 15W fissi consumati dal soc.... che presumo potevano diminuire almeno della metà se solo il motherchip fosse stato a 7nm come i chiplets...

...ma mi dici a cosa servirebbe una configurazione biglittle su un desktop?

COME HO GIA' SCRITTO PRIMA, il grosso del consumo (oltre alla cpu) lo fa la scheda madre! Bisognerebbe cambiare radicalmente quella....ma poi si avrebbero limitazioni varie (come nei portatili a basso consumo)... a partire dalla velocità della ram e collegamenti I/O per le periferiche!
Vi siete mai chiesti perchè sui portatili la ram di solito è lentuccia?

blackshard
10-08-2020, 20:24
Aldilà dei rumor citati nell'articolo, sembra un controsenso avere da un lato il turbo che ti manda un core ad una frequenza a volte doppia rispetto al normale, con tensioni di alimentazione pazzesche per "fare presto", dall'altro avere architetture ibride dove i carichi "leggeri" vanno su eventuali core poco prestanti (cos'è poi un carico "leggero" me lo devono spiegare: è un carico che usa pochi core? oppure che dura poco?)

A sto punto se mi devi fare dei core "poco prestanti", tanto vale togliere di mezzo il turbo e lasciare basse le tensioni di alimentazione... :confused:

nickname88
10-08-2020, 20:51
Pensi che in una industria accendano un pc per modellare in 3D un componente e poi accendano un altro per controllare una mail o stendere una relazione in word?

Poi c'è sempre il fatto che spesso non si spengono mai i pc, da un lato per pigrizia per averli accesi il giorno dopo dall'altro per permettere agli amministratori di sistema di aggiornare i pc e fare manutenzione programmata.
Nelle aziende sono i notebook il tipo di piattaforma in assoluto più diffusa, chi fa uso di workstation fisse non necessariamente sono presenti in gran numero e ad ogni dipendente è assegnato il notebook, mentre altri si appoggiano a macchine virtuali su datacenter. Laddove sia largamente usate WS invece non penso proprio le lascino accese, tuttavia se svolgi compiti ad alto carico e nel frattempo ti guardi la mail di certo quei core "lite" ti servono a poco.

Nelle fasce HEDT infatti di integrata non c'è manco la GPU.

k0nt3
10-08-2020, 21:11
Aldilà dei rumor citati nell'articolo, sembra un controsenso avere da un lato il turbo che ti manda un core ad una frequenza a volte doppia rispetto al normale, con tensioni di alimentazione pazzesche per "fare presto", dall'altro avere architetture ibride dove i carichi "leggeri" vanno su eventuali core poco prestanti (cos'è poi un carico "leggero" me lo devono spiegare: è un carico che usa pochi core? oppure che dura poco?)

A sto punto se mi devi fare dei core "poco prestanti", tanto vale togliere di mezzo il turbo e lasciare basse le tensioni di alimentazione... :confused:
Non è un controsenso, mai sentito parlare di processi I/O bound? Tutta roba che può girare tranquillamente sui core "little".
L'approccio ha perfettamente senso anche sui desktop, data l'abbondanza di core. Tra l'altro è probabile che i core "big" saranno più tirati proprio grazie all'energia e al calore risparmiato dai core "little".

nickname88
10-08-2020, 21:19
Non è un controsenso, mai sentito parlare di processi I/O bound? Tutta roba che può girare tranquillamente sui core "little".
L'approccio ha perfettamente senso anche sui desktop, data l'abbondanza di core. Tra l'altro è probabile che i core "big" saranno più tirati proprio grazie all'energia e al calore risparmiato dai core "little".
Risparmiati ? I core lite lavorano assieme ai core HP, ciucciano energia e occupano spazio nel die, quindi semmai è il contrario.
Energia e spazio sottratti ovviamente agli altri cores.

k0nt3
10-08-2020, 21:30
Risparmiati ? I core lite lavorano assieme ai core HP, ciucciano energia e occupano spazio nel die, quindi semmai è il contrario.
Quello spazio è comunque ben utilizzato perchè non tutti i processi sono CPU bound e farli girare sui core big sarebbe uno spreco di energia.
I core little sono immensamente più efficienti energeticamente parlando, questo lascia più margine di manovra per il turbo dei core big.
Hai mai notato il fatto che le cpu con elevato numero di core in genere hanno una frequenza base più bassa?

sbaffo
10-08-2020, 21:38
Ma guarda i consumi...
...in idle (solo il browser aperto).... TOTALE CONSUMO 16 CORE: 1,7W
...
esatto, un core big in idle consuma 0,1W, la storia del risparmio in idle non regge!
Al più si potrebbero spegnere dei core se inutilizzati.
(ps. la foto anche zoommando non si riesce a leggere, mi fido)

Casomai si potrebbero assegnare i core little ai compiti di sistema tipo I/O e simili, e lasciare i big per i programmi.

Tutto sta nell ottimizzazione, altrimenti resta solo marketing come i mediatek 10 core giustamente scomparsi in breve tempo o gli exynos tanto criticati. E finché faranno le mobo che consumano più della cpu per riciclare i vecchi pp sarà una presa in giro. Risparmi 1W di cpu e ne consumi 10 in più con il chipset a 22nm (per dire) che magari non va mai in basso consumo.

Ah, dimenticavo l’alimentatore cinese con efficienza ridicola che di solito si abbina ai pc economici, oppure il 750W sovradimensionato per il pc carrozzato che però perde efficienza come tutti sotto il 20% cioè sotto i 150W... e abbiamo completato il quadro. :asd:

nickname88
10-08-2020, 21:39
Quello spazio è comunque ben utilizzato perchè non tutti i processi sono CPU bound e farli girare sui core big sarebbe uno spreco di energia.
I core little sono immensamente più efficienti energeticamente parlando, questo lascia più margine di manovra per il turbo dei core big.
Hai mai notato il fatto che le cpu con elevato numero di core in genere hanno una frequenza base più bassa?Alto numero di cores implica maggior numero di transistors, quindi consuma di più a parità di frequenza rispetto ad altri.

Aggiungere altri cores a quelli già esistenti non farà altro che rubare energia e spazio a quelli già presenti. Quello che tu dici è valido solo se questi ultimi cores lite fossero integrati in sostituzione ad alcuni cores HP ( con riduzione delle performance ), ma non mi sembra sia così, verranno semplicemente "aggiunti" a quello che avevi prima, oppure dovranno ridurre delle specifiche per farceli stare nello stesso spazio e TDP.

k0nt3
10-08-2020, 21:46
Alto numero di cores implica maggior numero di transistors, quindi consuma di più a parità di frequenza rispetto ad altri.

Aggiungere altri cores a quelli già esistenti non farà altro che rubare energia e spazio a quelli già presenti. Quello che tu dici è valido solo se questi ultimi cores lite fossero integrati in sostituzione ad alcuni cores HP ( con riduzione delle performance ), ma non mi sembra sia così, verranno semplicemente "aggiunti" a quello che avevi prima, oppure dovranno ridurre delle specifiche per farceli stare nello stesso spazio e TDP.

Ecco questo è il motivo per cui le cpu non le progettano gli utenti di un forum :doh:

nickname88
10-08-2020, 21:52
Ecco questo è il motivo per cui le cpu non le progettano gli utenti di un forum :doh:finiti gli argomenti ?

demon77
10-08-2020, 22:12
Infatti non esiste solo lo scenario da te descritto, per cui non puó avere ragione.

Ci sono tanti possibili usi per desktop e workstation per cui puó valere la pena avere una tecnologia del genere.
Ha ragione soltanto se forzerebbero quella tecnologia su tutti i processori, rendendoli spesso uno spreco enorme di soldi (per tecnologie non necessarie), e lui credo l'ha capito.

Tecnologie del genere devono essere possibili su tutti i tipi di processori, qualora servissero. Cosí come anche pochi laptop possono montare GPU di livello desktop al loro interno.

Fin quando il consumer puó scegliere, non vedo perché lamentarsi. Al contrario, sarebbe si assai contro producente.

La critica è la stessa che faccio ai processori intel con la stessa base.
L'idea di fare una CPU che va a metà se in modalità basso consumo e sempre a metà (l'altra) per le cose più impegnative mi può andare bene su un ultrabook dove il risparmio è fondamentale ma su un desktop proprio non esiste. Non vorrei mai una CPU del genere su un desktop.. per cosa poi? Risparmiare dieci euro di corrente all'anno?
Per l'ambito desktop è già molto più che efficace la tecnologia della frequenza variabile che costituisce una ottima soluzione per il risparmio energetico senza rinunciare alla piena potenza della cpu.

Nautilu$
10-08-2020, 22:46
(ps. la foto anche zoommando non si riesce a leggere, mi fido)
se ci clicchi sopra si apre.... su desktop la vedi bene! oppure fai il download :)

calabar
10-08-2020, 23:07
Per l'ambito desktop è già molto più che efficace la tecnologia della frequenza variabile che costituisce una ottima soluzione per il risparmio energetico senza rinunciare alla piena potenza della cpu.
Se fosse più efficace non avrebbero pensato a queste soluzioni.

Comunque k0nt3 ha ragione, non è tanto una questione di idle ma di basso carico, dove la differenza tra core efficienti e core ad alte prestazioni può farsi sentire.

Rimane il fatto che in idle i PC fissi consumano troppo, dovrebbero consumare molto meno e spero che questo diventi campo di sfida nelle prossime generazioni.

demon77
10-08-2020, 23:36
Se fosse più efficace non avrebbero pensato a queste soluzioni.

Comunque k0nt3 ha ragione, non è tanto una questione di idle ma di basso carico, dove la differenza tra core efficienti e core ad alte prestazioni può farsi sentire.

Rimane il fatto che in idle i PC fissi consumano troppo, dovrebbero consumare molto meno e spero che questo diventi campo di sfida nelle prossime generazioni.

Mah, di soluzioni e idee arrivate in commercio e poi rivelatesi un flop ce ne sono una vagonata.
Che le abbiano pensate non vuol dire che abbiano successo.

Poi adesso, reputare un problema il consumo dei desktop quando in media un desktop completo da ufficio in uso normale arriva a fatica a consumare 100 watt mi pare esagerato.
Va bene non sprecare energia ma senza castrare inutilmente le CPU con ibridi del genere.

k0nt3
11-08-2020, 07:25
@demon77 @nickname88
Il problema del consumo c'è su qualsiasi CPU, non solo sui notebook, per via del sistema di raffreddamento e anche perchè le performance non aumentano linearmente con l'aumento di potenza richiesta.
Ripeto, oggi le CPU con alto numero di core hanno una frequenza base più bassa, proprio a causa dell'elevato consumo/calore.
Usare un approccio ibrido può essere la soluzione per sfruttare in maniera più efficiente la potenza disponibile (quindi più performance a parità di consumo).
In ogni caso secondo me è sbagliato il paragone con big.LITTLE, dove ci sono due cluster che vengono usati in alternativa, qui si parla di un cluster ibrido, più simile a DynamIQ (https://pages.arm.com/dynamiq-technology.html)

demon77
11-08-2020, 09:24
@demon77 @nickname88
Il problema del consumo c'è su qualsiasi CPU, non solo sui notebook, per via del sistema di raffreddamento e anche perchè le performance non aumentano linearmente con l'aumento di potenza richiesta.
Ripeto, oggi le CPU con alto numero di core hanno una frequenza base più bassa, proprio a causa dell'elevato consumo/calore.
Usare un approccio ibrido può essere la soluzione per sfruttare in maniera più efficiente la potenza disponibile (quindi più performance a parità di consumo).
In ogni caso secondo me è sbagliato il paragone con big.LITTLE, dove ci sono due cluster che vengono usati in alternativa, qui si parla di un cluster ibrido, più simile a DynamIQ (https://pages.arm.com/dynamiq-technology.html)

Tutto dipende dalla questione "costi - benefici".
Come ho detto, se parliamo di un ultrabook nulla da obiettare ma su un desktop lo trovo ridicolo.
Risparmiare energia è sempre una cosa buona ma il troppo stroppia..
Io una CPU desktop che viaggia mezza si e mezza no per risparmiare una manciata di watt non la compro.

the_joe
11-08-2020, 09:30
Tutto dipende dalla questione "costi - benefici".
Come ho detto, se parliamo di un ultrabook nulla da obiettare ma su un desktop lo trovo ridicolo.
Risparmiare energia è sempre una cosa buona ma il troppo stroppia..
Io una CPU desktop che viaggia mezza si e mezza no per risparmiare una manciata di watt non la compro.

A meno che tu non abbia la possibilità di farti costruire le CPU come vuoi, compri quello che ti offre il mercato e nulla più.

Poi perché questa crociata lo sapete solo voi.

Se la CPU costa e va uguale perché sputare sopra quella che ha un risparmio energetico migliore?

Comunque il problema non si pone, se i produttori faranno solo questo tipo di CPU compreremo questo.

demon77
11-08-2020, 10:54
A meno che tu non abbia la possibilità di farti costruire le CPU come vuoi, compri quello che ti offre il mercato e nulla più.

Poi perché questa crociata lo sapete solo voi.

Se la CPU costa e va uguale perché sputare sopra quella che ha un risparmio energetico migliore?

Comunque il problema non si pone, se i produttori faranno solo questo tipo di CPU compreremo questo.

Questo mi pare palese, ma non penso proprio che adotteranno questa soluzione per tutte le loro CPU, anzi penso sarà una sezione ben specifica.

Poi non è che sputo sopra al risparmio energetico migliore, il fatto è che già mi sta sulle palle avere adesso sulla CPU una scheda video che non uso.. figuriamoci poi se mi devo pure beccare una fetta di CPU dormiente che si attiva solo in situazioni particolari di basso carico. :mbe:
E ripeto, per risparmiare quanto? Una misera manciata di watt.
In paragone una lavatrice fatta andare a mezzo carico invece che a pieno carico si brucia il risparmio energetico di una decina di anni di uso accorto dei PC.

Nautilu$
11-08-2020, 11:27
Mi sembrerebbe logico una sorta di bigLittle sulle APU... ma ripeto, con anche una mb rivista e corretta e adatta allo scopo.

calabar
11-08-2020, 11:56
Va bene non sprecare energia ma senza castrare inutilmente le CPU con ibridi del genere. Io una CPU desktop che viaggia mezza si e mezza no per risparmiare una manciata di watt non la compro.
Non mi è ben chiaro in base a cosa questa CPU dovrebbe essere castrata o "mezza si e mezza no".
Al più potresti dire che quel silicio poteva essere usato per altro (ma ricorda che quei core sono molto piccoli, lo "spreco" è molto ridotto), ma sappiamo bene che non funziona in questo modo perchè le CPU sono piazzate in base al target di riferimento sul mercato.

Inoltre vedo che ancora non avete colto le potenzialità di una soluzione del genere, come fatto notare da k0nt3: le prestazioni di una CPU oggi sono legate ad un budget termico, se ho la possibilità di eseguire alcuni task su una CPU molto più efficiente il burget risparmiato può andare a favore dei core ad alte prestazioni che così possono lavorare a frequenze più elevate.

nickname88
11-08-2020, 13:41
@demon77 @nickname88
Ripeto, oggi le CPU con alto numero di core hanno una frequenza base più bassa, proprio a causa dell'elevato consumo/calore.
Usare un approccio ibrido può essere la soluzione per sfruttare in maniera più efficiente la potenza disponibile (quindi più performance a parità di consumo).

Però ancora non hai spiegato come farebbe, in pratica consumerebbe meno laddove vi sia un carico di lavoro scarso.
Ma ciò che conta in una cpu High End è la performance in full, l'efficienza in idle invece è forse l'ultimo dei problemi su un desktop high end.

Il risparmio andrebbe bene solamente se non venisse intaccato il primo aspetto, cosa impossibile visto che la sola presenza di altri cores scarsi come detto prima necessita di transistors e spazio fisico per essere implementati.

calabar
11-08-2020, 14:40
@nickname88
Non stai proprio capendo quello che k0nt3 ti sta spiegando.
Il vantaggio dei core piccoli potrebbe proprio mostrarsi nelle prestazioni massime, dato che questi, essendo molto più efficienti, permettono di risparmiare un po' di power budget che può essere sfruttato dai core ad alte prestazioni.

Oltre questo, il risparmio in idle, per quanto a te non freghi nulla (probabilmente perchè hai la coscienza ecologica di un petroliere), è invece sacrosanto, perchè la somma di tanti computer che si trovano spesso in idle comporta un risparmio energetico complessivo abbastanza significativo.

nickname88
11-08-2020, 14:53
@nickname88
Non stai proprio capendo quello che k0nt3 ti sta spiegando.
Il vantaggio dei core piccoli potrebbe proprio mostrarsi nelle prestazioni massime, dato che questi, essendo molto più efficienti, permettono di risparmiare un po' di power budget che può essere sfruttato dai core ad alte prestazioni.
Tu stai parlando di contesti fantasiosi in cui alcuni cores sono a basso carico e altri ad alto carico, contesti appunto inesistenti perchè nulla vieta ad un thread di basso impatto di richiedere un picco, e a quel punto cosa fai ?
Devi passare il thread da un core all'altro ? Chiamasi latenza aggiuntiva questa.

Invece quanto tutti i cores sono in full non risparmi un tubo.

Inoltre ancora faticate tu e Konte a capire che questi altri cores dovranno essere INTEGRATI assieme a quelli HP, quindi a parità di transistors andranno per forza di cose a rubarne una parte a questi ultimi, o altrimenti in caso contrario avremmo una CPU con più transistors a parità di cores HP, quindi un prodotto più costoso.

Questo schifo se dovesse finire anche in ambito desktop sarà solo per unificare o allineare il più possibile le linee di produzione dei prodotti notebook a quelli desktop e nient'altro. Un po' come Intel quando infilò le GPU integrate sull'intera linea mainstream, destinate a rimanere disattivate a vita ( MA PAGATE ) per la quasi totalità dell'utenza retail.

Oltre questo, il risparmio in idle, per quanto a te non freghi nulla (probabilmente perchè hai la coscienza ecologica di un petroliere), è invece sacrosanto, perchè la somma di tanti computer che si trovano spesso in idle comporta un risparmio energetico complessivo abbastanza significativo.Mai lavorato in un contesto aziendale ? Mai sentito parlare di virtualizzazione e datacenter ? Quante sarebbero poi le aziende con uffici che fanno largo uso di WS ? Non c'è poi bisogno di dirti che invece in ambito domestico/privato questo problema è inesistente.

k0nt3
11-08-2020, 19:11
@nickname88
Non stai proprio capendo quello che k0nt3 ti sta spiegando.
Il vantaggio dei core piccoli potrebbe proprio mostrarsi nelle prestazioni massime, dato che questi, essendo molto più efficienti, permettono di risparmiare un po' di power budget che può essere sfruttato dai core ad alte prestazioni.

Oltre questo, il risparmio in idle, per quanto a te non freghi nulla (probabilmente perchè hai la coscienza ecologica di un petroliere), è invece sacrosanto, perchè la somma di tanti computer che si trovano spesso in idle comporta un risparmio energetico complessivo abbastanza significativo.
Meno male qualcuno capisce quello che intendo, ma mi sa che è tempo perso :rolleyes:
Tu stai parlando di contesti fantasiosi in cui alcuni cores sono a basso carico e altri ad alto carico, contesti appunto inesistenti perchè nulla vieta ad un thread di basso impatto di richiedere un picco, e a quel punto cosa fai ?
Devi passare il thread da un core all'altro ? Chiamasi latenza aggiuntiva questa.

Il brevetto è proprio incentrato sul concetto di trasferire i thread da un core all'altro a seconda del tipo di carico. L'impatto sulla latenza è minimo perchè i due core condividono la cache.

Invece quanto tutti i cores sono in full non risparmi un tubo.

Inoltre ancora faticate tu e Konte a capire che questi altri cores dovranno essere INTEGRATI assieme a quelli HP, quindi a parità di transistors andranno per forza di cose a rubarne una parte a questi ultimi, o altrimenti in caso contrario avremmo una CPU con più transistors a parità di cores HP, quindi un prodotto più costoso.

Questo schifo se dovesse finire anche in ambito desktop sarà solo per unificare o allineare il più possibile le linee di produzione dei prodotti notebook a quelli desktop e nient'altro. Un po' come Intel quando infilò le GPU integrate sull'intera linea mainstream, destinate a rimanere disattivate a vita ( MA PAGATE ) per la quasi totalità dell'utenza retail.

Nonostante sia io che calabar te lo abbiamo spiegato diverse volte ancora non hai capito vedo..
Per prima cosa non ho mai parlato di risparmio in idle, potrebbe essere un effetto collaterale e ne sarei contento, ma non credo proprio sia la feature principale.
E' proprio nel "full load" che ci sarebbero i benefici. Partiamo dal presupposto che tutti i processori che puoi comprare sono "castrati", sono infatti limitati da potenza e calore oltre che dal costo necessario a produrli in grande quantità.
Detto questo quello che abbiamo osservato negli ultimi anni è un aumento vertiginoso del numero di core nelle cpu mainstream. Attualmente però c'è un problema che ho già sottolineato più volte ma tu fai finta di non capire (oppure non capisci veramente). Le cpu ad elevato numero di core non riescono a rimanere stabilmente ad alte frequenze a causa dei limiti di cui sopra, di conseguenza hanno una frequenza base più bassa. Siccome si tratta di prodotti top gamma, ovviamente vanno markettati con la frequenza più alta, quindi quello che si fa è selezionare il silicio migliore e aumentare la frequenza di boost (magari anche solo in single core, tanto è quello che scrivono sulla scatola).
Se questo trend dovesse continuare (e molto probabilmente lo farà) sarà ben difficile poter offrire tutti core uguali e mantenere le frequenze più alte sul top gamma. Capisci dove voglio arrivare?
I core "little" servono ad aumentare l'efficienza in generale, così che si possa spingere di più la frequenza base dei core "big" (frequenza sostenuta, non boost che dura giusto il tempo di girare il benchmark).
Se come sembra dall'articolo veramente riescono ad indirizzare i thread I/O bound sui core little e quelli CPU bound sui core big, non ci sarà alcun degradamento delle performance in full load, solo un utilizzo più intelligente delle risorse che porta a maggiori prestazioni a parità di consumo energetico (che ripeto di nuovo è un limite tecnico anche sui desktop, dato che nessuno di noi ha una centrale elettrica in casa e raffreddamento da reattore nucleare).

In ogni caso le mie sono soltanto speculazioni, dato che non abbiamo sufficienti dati per sapere dove vogliono andare a parare. Non capisco però l'allarmismo, come se vi stessero vendendo un prodotto peggiore. Lasciate fare agli ingegneri il proprio lavoro che sicuramente sanno il fatto loro.

nickname88
11-08-2020, 22:35
Il brevetto è proprio incentrato sul concetto di trasferire i thread da un core all'altro a seconda del tipo di carico. L'impatto sulla latenza è minimo perchè i due core condividono la cache.Impatto minimo anche durante un picco di carico ? Questo è da vedere.


Per prima cosa non ho mai parlato di risparmio in idle, potrebbe essere un effetto collaterale e ne sarei contento, ma non credo proprio sia la feature principale.Sbagliato, questa è una tecnologia nata in primis per l'ambito mobile per risparmiare la batteria, quindi il risparmio in idle dovrebbe essere il punto principale cui è stata concepita sta tecnologia.

E' proprio nel "full load" che ci sarebbero i benefici. Partiamo dal presupposto che tutti i processori che puoi comprare sono "castrati", sono infatti limitati da potenza e calore oltre che dal costo necessario a produrli in grande quantità.In realtà sono castrati anche dai limiti del PP.
Oltre un certo limite il PP non consente di salire più se non con esasperati rapporti di performance/watt.

Se pensi sia solo un problema di assorbimento basta guardare la differenza in overclock fra un 3700X ed un 3800X, dove il primo dovrebbe avere limiti di assorbimento ben più marcato rispetto al secondo.

Attualmente però c'è un problema che ho già sottolineato più volte ma tu fai finta di non capire (oppure non capisci veramente). Le cpu ad elevato numero di core non riescono a rimanere stabilmente ad alte frequenze a causa dei limiti di cui sopra, di conseguenza hanno una frequenza base più bassa. No sbagliato.
Le frequenze sono capacissimi di tenerle per tutto il tempo che vuoi e superare pure le specifiche Turbo, basta avere una MOBO e una dissipazione idonea. Non stiamo mica parlando di sottilette come i notebook con dissipazione chiaramente sottodimensionata a tavolino.

Il turbo più che overclockare la CPU, imposta determinate frequenze e voltaggi a seconda del numero di cores impegnati e del carico, ma la frequenza nominale io la vedo solo in idle e nemmeno così spesso, può capitare all'interno di qualche oscillazione ma roba di attimi.

Quindi come vedi è un discorso utile e nato solo su mobile.

Se questo trend dovesse continuare (e molto probabilmente lo farà) sarà ben difficile poter offrire tutti core uguali e mantenere le frequenze più alte sul top gamma. Capisci dove voglio arrivare?Spiegami come possa questa tecnologia aumentare le frequenze se tutti i cores HP sono impegnati e in full load.
Da come lo dici è utile per massimizzare di più in applicazioni che prevedono treads di carico variabile, ma di che valori stiamo parlando ?
E soprattutto dovrebbero essere confrontati con il costo che ne deriva dall'installazione di questi cores che fisicamente parlando non sono gratuiti.

I core "little" servono ad aumentare l'efficienza in generale, così che si possa spingere di più la frequenza base dei core "big" (frequenza sostenuta, non boost che dura giusto il tempo di girare il benchmark).
Per poter avere quei 100Mhz in più ? Al costo magari di una minore cache L3 ?

Perchè per poterceli infilare fino a prova contraria bisognerà far spazio o anche questo è di difficile ammissione ? Spazio che andrà sottratto agli altri cores o fare un die più grandi e pagare di più una CPU.

calabar
12-08-2020, 00:54
Tu stai parlando di contesti fantasiosi in cui alcuni cores sono a basso carico e altri ad alto carico,
L'unica cosa fantasiosa qui sono i tuoi commenti.
Uno scenario di quel tipo è molto comune, anche nei giochi (ti basti cercare qualsiasi grafico di occupazione dei core).

E certamente questi core aggiuntivi avranno un "costo" in termini di silicio ma, oltre al fatto che occupano un'area molto piccola, se possono contribuire a migliorare la resa energetica (e quindi le prestazioni) è silicio ben speso.
Perché, nell'epoca dei processori con millemila core, il "nemico" è il power budget limitato, e la capacità di gestirlo al meglio è la chiave per ottenere migliori prestazioni.
Riguardo al risparmio energetico non ha senso parlare ne di ambito aziendale ne casalingo, è un problema complessivo e riguarda lo spreco energetico.

Nautilu$
12-08-2020, 09:09
...e come esempio per fare capire meglio prendi proprio i giochi? :D
che un qualsiasi PC mentre giochi ciuccia almeno 300W ?
E secondo te con i core Little il PC consumerebbe meno o , ancora peggio, andrebbe di più? :mad: :D

Dici che il problema sono i millemila core....e così ne metteresti millemila+4.....
Dici che il problema da risolvere è il consumo in idle delle workstation (che attualmente è dato solo dalla mb e non dal processore)...ma ti assicuro che quelle sono accese per macinare, e poi vengono spente!

Ripeto, per me avrebbero senso sulle apu : chi gioca prende altro, sulle apu (dove non si usa una scheda video esterna) si dovrà trovare un connubio adatto al risparmio anche con mb DEDICATE.

demon77
12-08-2020, 09:44
...e come esempio per fare capire meglio prendi proprio i giochi? :D
che un qualsiasi PC mentre giochi ciuccia almeno 300W ?
E secondo te con i core Little il PC consumerebbe meno o , ancora peggio, andrebbe di più? :mad: :D

Dici che il problema sono i millemila core....e così ne metteresti millemila+4.....
Dici che il problema da risolvere è il consumo in idle delle workstation (che attualmente è dato solo dalla mb e non dal processore)...ma ti assicuro che quelle sono accese per macinare, e poi vengono spente!

Ripeto, per me avrebbero senso sulle apu : chi gioca prende altro, sulle apu (dove non si usa una scheda video esterna) si dovrà trovare un connubio adatto al risparmio anche con mb DEDICATE.

Diciamo che SE le nuove cpu sono pensate con i soliti 8-12-16 cores fisici ad alte prestazioni e IN PIU' a lato c'è un mini processore "little" con quattro cores a basso consumo la cosa può pure andare bene.

Resta da capire come ed a che velocità si passa dalla cpu little a quella big.. questa è una cosa che può fare parecchia differenza

Nautilu$
12-08-2020, 10:04
Secondo me ha senso fino a Massimo 8 core....e sarebbero pure troppi....
Un 16 core esiste perché servono le prestazioni: se si ha bisogno di un PC con prestazioni multicore:
- i giochi non sono da considerare
- lo spazio del package è già full e probabilmente non c'è altro spazio per eventuali core aggiuntivi
- costerebbe inevitabilmente di più senza validi motivi
- spesso non sarebbero utilizzati i Little, quindi il risparmio va a farsi benedire
- per un 16 core la mb deve essere carrozzata , e inevitabilmente consuma di più....e qui ritorno al mio mantra: SE IL MAGGIORE CONSUMO È DATO DALLA MB, È INUTILE OPERARE SULLA CPU. LA CPU IN SÉ, IN IDLE O ANCHE A BASSO CARICO, NON CONSUMA PIÙ DI UNA CON MENO CORE, PERCHÉ QUELLI NON IN USO SONO "DORMIENTI"
Aprire Ryzen Master e ragionare su quanto visibile, please... :)

k0nt3
12-08-2020, 11:32
@nickname88 @demon77 @Nautilu$
Come ho scritto prima non credo che il paragone con big.LITTLE sia azzeccato. Si tratta di un solo cluster di CPU come chiarito nella news, quindi i core big e little lavorano in parallelo e si spartiscono i compiti in maniera intelligente (carichi I/O bound per i core little e carichi CPU bound per i core big).
Non c'è nessuno spreco di area, solo un utilizzo più intelligente e mirato.
Non mi aspetto nemmeno una riduzione del TDP, dato che l'energia risparmiata dai core little verrà senz'altro sfruttata dai core big per offrire prestazioni maggiori a parità di TDP.

@nickname88
sei tu che ti sbagli sulle frequenze:
r9 3950x -> 3,5 GHz
r9 3900x -> 3,8 GHz
r7 3800x -> 3,9 GHz
Con una soluzione come quella descritta nella news il 3950x potrebbe avere core ad alte prestazioni che raggiungono i 3,9GHz stabilmente. Cosa che adesso non è possibile per limiti di consumo/calore.
...e come esempio per fare capire meglio prendi proprio i giochi? :D
che un qualsiasi PC mentre giochi ciuccia almeno 300W ?
E secondo te con i core Little il PC consumerebbe meno o , ancora peggio, andrebbe di più? :mad: :D

Dici che il problema sono i millemila core....e così ne metteresti millemila+4.....
Dici che il problema da risolvere è il consumo in idle delle workstation (che attualmente è dato solo dalla mb e non dal processore)...ma ti assicuro che quelle sono accese per macinare, e poi vengono spente!

Ripeto, per me avrebbero senso sulle apu : chi gioca prende altro, sulle apu (dove non si usa una scheda video esterna) si dovrà trovare un connubio adatto al risparmio anche con mb DEDICATE.
Perchè i giochi non hanno carichi I/O bound? A giudicare dal lavoro che è stato fatto nelle console next gen c'era parecchio da lavorare in quel senso.

digieffe
12-08-2020, 11:51
Secondo me ha senso fino a Massimo 8 core....e sarebbero pure troppi....
Un 16 core esiste perché servono le prestazioni: se si ha bisogno di un PC con prestazioni multicore:
- i giochi non sono da considerare
- lo spazio del package è già full e probabilmente non c'è altro spazio per eventuali core aggiuntivi
- costerebbe inevitabilmente di più senza validi motivi
- spesso non sarebbero utilizzati i Little, quindi il risparmio va a farsi benedire
- per un 16 core la mb deve essere carrozzata , e inevitabilmente consuma di più....e qui ritorno al mio mantra: SE IL MAGGIORE CONSUMO È DATO DALLA MB, È INUTILE OPERARE SULLA CPU. LA CPU IN SÉ, IN IDLE O ANCHE A BASSO CARICO, NON CONSUMA PIÙ DI UNA CON MENO CORE, PERCHÉ QUELLI NON IN USO SONO "DORMIENTI"
Aprire Ryzen Master e ragionare su quanto visibile, please... :)
Allora visto che insisti in QUESTO MODO non mi resta da dirti che sono perfettamente d'accordo con te :sofico:
scherzi a parte condivido tutto, una mb consuma da ~35 a ~50W

nickname88
12-08-2020, 11:56
L'unica cosa fantasiosa qui sono i tuoi commenti.
Uno scenario di quel tipo è molto comune, anche nei giochi (ti basti cercare qualsiasi grafico di occupazione dei core).

E certamente questi core aggiuntivi avranno un "costo" in termini di silicio ma, oltre al fatto che occupano un'area molto piccola, se possono contribuire a migliorare la resa energetica (e quindi le prestazioni) è silicio ben speso.
Perché, nell'epoca dei processori con millemila core, il "nemico" è il power budget limitato, e la capacità di gestirlo al meglio è la chiave per ottenere migliori prestazioni.
Riguardo al risparmio energetico non ha senso parlare ne di ambito aziendale ne casalingo, è un problema complessivo e riguarda lo spreco energetico.
Bello quotare le frasi a metà vero ?

Il problema è che come ho scritto ( e tu deliberatamente non hai quotato ) anche un thread a basso carico può necessitare di un picco e bisogna vedere quanta latenza viene aggiunta per passarlo da un core all'altro, specie se vi sono picchi frequenti.

E certamente questi core aggiuntivi avranno un "costo" in termini di silicio ma, oltre al fatto che occupano un'area molto piccola, se possono contribuire a migliorare la resa energetica (e quindi le prestazioni) è silicio ben speso.Piccola ? Dove lo hai letto questo ?
Cosa vuol dire piccola poi ? Se incrementi del 10% il num di transistors già è tanto e quì non stiamo di certo parlando di ARM.

In un processore con X numero di cores non puoi di certo mettere un num limitato di cores LP, ma deve essere un numero di certo proporzionato, quindi non si parla di uno o due cores su un modello octo core.

Riguardo al risparmio energetico non ha senso parlare ne di ambito aziendale ne casalingo, è un problema complessivo e riguarda lo spreco energetico.Dello spreco energetico globale in idle oltre una certa misura su una WS o gaming PC non frega letteralmente una beata minki4 se non a qualche fans di Greta, quella è argomento semmai per l'ambito mobile, in cui è nato sto schifo. Semmai è il consumo massimo in full l'argomento interessante.

Al posto di aggiungerci questi cores LP sarebbe meglio usare quello spazio per aggiungere o ampliare altri componenti della CPU se proprio ci tengono a piazzare più transistors o mantenere il die più piccolo.

nickname88
12-08-2020, 12:11
@nickname88
sei tu che ti sbagli sulle frequenze:
r9 3950x -> 3,5 GHz
r9 3900x -> 3,8 GHz
r7 3800x -> 3,9 GHz
Con una soluzione come quella descritta nella news il 3950x potrebbe avere core ad alte prestazioni che raggiungono i 3,9GHz stabilmente. Cosa che adesso non è possibile per limiti di consumo/calore.
Nessuna di quelle CPU con un dissipatore serio scende alla frequenza nominale manco in full pieno e ovviamente tutto stabilmente, senza limiti di tempo come tu affermi ( che è argomento esclusivo delle soluzioni mobile questo ). Il mio 3800X anche sotto Cinebench MT con tutti i cores a palla non scende sotto i 4.1/4.2Ghz, a 3.8Ghz lo trovo solamente in idle col profilo energetico stock di AMD.

k0nt3
12-08-2020, 12:30
Nessuna di quelle CPU con un dissipatore serio scende alla frequenza nominale manco in full pieno e ovviamente tutto stabilmente, senza limiti di tempo come tu affermi ( che è argomento esclusivo delle soluzioni mobile questo ). Il mio 3800X anche sotto Cinebench MT con tutti i cores a palla non scende sotto i 4.1/4.2Ghz, a 3.8Ghz lo trovo solamente in idle col profilo energetico stock di AMD.
Che c'entra l'overclock adesso? :confused:
Io ci rinuncio rimani pure con le tue idee :doh:

nickname88
12-08-2020, 12:35
Che c'entra l'overclock adesso? :confused:
Io ci rinuncio rimani pure con le tue idee :doh:
Mai parlato di overclock, ma di frequenze stock ( pure PBO disattivato, che per giunta corrisponde all'impostazione stock auto ).
Tu continui a riportare solo le frequenze di base come se fossero le frequenze reali mentre quelle del turbo sarebbero tutte "tarocche" per far marketing, però non è così, a quelle frequenze da te elencate anche con profilo stock non ci scende nessuna di quelle CPU se correttamente dissipate.

Stessa cosa quando avevo Intel.

k0nt3
12-08-2020, 12:43
Mai parlato di overclock, ma di frequenze stock.
Quelle sono frequenze di boost, la frequenza base e' quella che ho scritto io e la trovi sul sito ufficiale di AMD: https://www.amd.com/en/products/cpu/amd-ryzen-9-3950x
Non cambia il fatto che non stai capendo la questione principale e infatti hai risposto soltanto a quello che fa comodo a te

nickname88
12-08-2020, 12:46
Quelle sono frequenze di boost, la frequenza base e' quella che ho scritto io e la trovi sul sito ufficiale di AMD: https://www.amd.com/en/products/cpu/amd-ryzen-9-3950x
Non cambia il fatto che non stai capendo la questione principale e infatti hai risposto soltanto a quello che fa comodo a te
Le frequenze di boost rappresentano la frequenza effettiva del 99% dei casi di utilizzo e rientrano nelle specifiche di TDP ed è su quei valori che bisogna far le valutazioni. Che il mio 3800X di base sia un 3.9Ghz ha importanza zero se poi opera sempre e costantemente ad frequenze differenti.
La frequenza base è un valore che forse tiene solo quando non ci sono le condizioni termiche per mettere in atto il boost, condizioni ovviamente inesistenti se si dispone di un dissipatore idoneo.

k0nt3
12-08-2020, 12:50
Le frequenze di boost rappresentano la frequenza effettiva del 99% dei casi di utilizzo ed è su quella che bisogna far le valutazioni.
Che il mio 3800X di base sia un 3.9Ghz ha importanza zero se poi opera sempre ad frequenze differenti.

La frequenza base è un valore che forse tiene solo quando non ci sono le condizioni termiche per mettere in atto il boost.
Qualsiasi sia la frequenza di cui stiamo parlando, i modelli con piu' core non possono raggiungere lo stesso boost "all core" dei modelli con meno core. Su questo non ci piove.
Quindi il discorso che ho fatto non cambia di una virgola.

nickname88
12-08-2020, 13:41
Qualsiasi sia la frequenza di cui stiamo parlando, i modelli con piu' core non possono raggiungere lo stesso boost "all core" dei modelli con meno core. Su questo non ci piove.
Quindi il discorso che ho fatto non cambia di una virgola.
Cambia perchè il boost più basso dei modelli con più cores è ottenuto solo quando il numero dei cores impiegati è più alto.
Una CPU con tutti i cores HP in full, dei cores LP se ne fa poco o niente.

Quando invece non tutti i cores sono impegnati devi fare confronti con frequenze di boost più elevate, l'unico ambito in cui il tuo discorso può avere un senso è che con questa soluzione il boost stesso sia ulteriormente maggiorato, ma con dei contro ( latenze e transistors in più ) e dei pro ancora da definire.

sbaffo
12-08-2020, 14:17
vi state scannando per niente, le architetture big.little non sono pensate per le cpu high end ma per quelle low end, per esempio alder lake di intel ha 4core a basso consumo e un quinto big giusto per dargli quello scatto in più quando serve.
Esempio di utilizzo tipico (secondo me): la segretaria, lo studente, ecc che usa Office e internet, gioca ai giochini su facebook, ecc. insomma carichi medio-bassi, con uno spunto in più per quando apri un programma o un sito pesante, o un giochino tipo flash. Oppure utilizzo torrent-nas-mediacenter-nvr che trotterella sempre con carichi i/o a mezza velocità.
Se giochi seriamente o usi cinebench non te ne può fregare di meno, e non credo che usciranno mai delle cpu ibride per quella fascia.

k0nt3
12-08-2020, 14:28
Cambia perchè il boost più basso dei modelli con più cores è ottenuto solo quando il numero dei cores impiegati è più alto.
Una CPU con tutti i cores HP in full, dei cores LP se ne fa poco o niente.

Quando invece non tutti i cores sono impegnati devi fare confronti con frequenze di boost più elevate, l'unico ambito in cui il tuo discorso può avere un senso è che con questa soluzione il boost stesso sia ulteriormente maggiorato, ma con dei contro ( latenze e transistors in più ) e dei pro ancora da definire.
Tipicamente il carico sulla CPU ha una componente CPU bound e una I/O bound. Solo mentre esegui un benchmark il carico sarà estremamente sbilanciato sulla CPU.
I core "little" saranno molto più efficienti energeticamente e potranno eseguire la parte di carico che è I/O bound con un certo risparmio senza intaccare le performance (poichè parliamo di carico I/O bound). L'energia così risparmiata può così essere usata dai core "big", senza bisogno di ridurre la frequenza base (o boost all core se preferici) per stare nel TDP promesso.
Senza i core little non sarebbe possibile, perchè l'efficienza generale della piattaforma sarebbe inferiore.
Detto questo non è affatto detto che tutto questo vedrà la luce, ci potrebbero essere soluzioni anche migliori di cui non siamo a conoscenza.
Quello delle cpu ibride però mi sembra il trend attuale, ed ha molto senso data l'abbondanza di core a disposizione (che molto probabilmente diventerà ancora più abbondante in futuro).

nickname88
12-08-2020, 14:53
la frequenza base (o boost all core se preferici)La frequenza boost all core non è la frequenza di base.
Quest'ultima non comprende proprio il boost.
Anche all core le frequenze saranno perennemente più elevate di quella base.

Comunque sia ho dei dubbi sulla tua spiegazione, come farebbe a distinguere i threads non solo I/O bound ma tutti quelli a basso carico dagli altri ? Ci vuole un supporto da parte del software in uso, ma a quel punto tanto vale ottimizzare la distribuzione dei treads sul minor numero di cores ( infilando tutti questi I/O bounds su un unico core o il minor num possibile ) e disattivare dinamicamente gli altri e avresti lo stesso risultato.

vi state scannando per niente, le architetture big.little non sono pensate per le cpu high end ma per quelle low end, per esempio alder lake di intel ha 4core a basso consumo e un quinto big giusto per dargli quello scatto in più quando serve.
Esempio di utilizzo tipico (secondo me): la segretaria, lo studente, ecc che usa Office e internet, gioca ai giochini su facebook, ecc. insomma carichi medio-bassi, con uno spunto in più per quando apri un programma o un sito pesante, o un giochino tipo flash. Oppure utilizzo torrent-nas-mediacenter-nvr che trotterella sempre con carichi i/o a mezza velocità.
Se giochi seriamente o usi cinebench non te ne può fregare di meno, e non credo che usciranno mai delle cpu ibride per quella fascia.
E' quello che penso anche io.

Nautilu$
12-08-2020, 15:30
@nickname88
sei tu che ti sbagli sulle frequenze:
r9 3950x -> 3,5 GHz
r9 3900x -> 3,8 GHz
r7 3800x -> 3,9 GHz
Con una soluzione come quella descritta nella news il 3950x potrebbe avere core ad alte prestazioni che raggiungono i 3,9GHz stabilmente. Cosa che adesso non è possibile per limiti di consumo/calore.


Stai scherzando vero?
Su carta sì, i limiti sono quelli, ma semplicemente perché sennò avrebbero dovuto pubblicizzare il 3950x per 140W e non 105....
Il mio procio sta sempre fisso su 16 core minimo a 3900mhz, senza pbo, anche con carichi avx al 100%
È solo una questione di consumi....sono 16 core, non potevano essere come il 3800x....

Quindi, se tu volessi le stesse identiche prestazioni attuali , ma con in più altri core "Little", avresti ULTERIORE CONSUMO e i un die PIÙ GRANDE ...

inutile e più costoso.
Non puoi non essere d'accordo. 1+1 fa 2...non può fare 3 in nessun caso.

k0nt3
12-08-2020, 15:50
La frequenza boost all core non è la frequenza di base.
Quest'ultima non comprende proprio il boost.
Anche all core le frequenze saranno perennemente più elevate di quella base.


E chi ha mai detto che siano la stessa cosa? Ho detto soltanto che si applica lo stesso principio.
Per il resto la chiudo qui perchè è completamente inutile parlare con chi non vuole nemmeno sforzarsi di capire :muro:

k0nt3
12-08-2020, 15:58
Stai scherzando vero?
Su carta sì, i limiti sono quelli, ma semplicemente perché sennò avrebbero dovuto pubblicizzare il 3950x per 140W e non 105....
Il mio procio sta sempre fisso su 16 core minimo a 3900mhz, senza pbo, anche con carichi avx al 100%
È solo una questione di consumi....sono 16 core, non potevano essere come il 3800x....

Quindi, se tu volessi le stesse identiche prestazioni attuali , ma con in più altri core "Little", avresti ULTERIORE CONSUMO e i un die PIÙ GRANDE ...

inutile e più costoso.
Non puoi non essere d'accordo. 1+1 fa 2...non può fare 3 in nessun caso.
No non sto scherzando. Devi pensare alle future generazioni di cpu, non alle attuali. Immagina per esempio 32 core al posto dei 16 del 3950X. IMO stiamo arrivando al punto in cui non conviene che tutti i core siano uguali se vogliamo mantenere le prestazioni di punta elevate e elevato numero di core allo stesso tempo.
La cosa funziona perchè il rapporto tra performance e energia consumata non è lineare, come ho già spiegato. Quindi un core che consuma la metà dell'energia sarà soltanto il 75% meno veloce (numeri sparati a caso per spiegare il concetto). Questo significa aumentare l'efficienza e se si mantiene costante il consumo dell'intero package vedrai che le performance globali saranno superiori. E' matematica, non è un'opinione.

nickname88
12-08-2020, 16:53
E chi ha mai detto che siano la stessa cosa? Ho detto soltanto che si applica lo stesso principio.
Per il resto la chiudo qui perchè è completamente inutile parlare con chi non vuole nemmeno sforzarsi di capire :muro:
Io mi sforzo di capire ma questo non implica mica che debba ritenere questa tua teoria convincente.
L'articolo infatti non menziona mai un aumento di performance o delle frequenze ma parla sempre e solo di risparmio di energia.

the_joe
12-08-2020, 17:02
Io mi sforzo di capire ma questo non implica mica che debba ritenere questa soluzione convincente.

Per il solo fatto che lo studio di queste soluzioni venga fatto da ingegneri che lavorano nel settore specifico ed abbiamo quindi esperienza e titoli per farlo, rende questa tua considerazione praticamente ininfluente.

nickname88
12-08-2020, 17:05
Per il solo fatto che lo studio di queste soluzioni venga fatto da ingegneri che lavorano nel settore specifico ed abbiamo quindi esperienza e titoli per farlo, rende questa tua considerazione praticamente ininfluente.Ininfluente una titubanza verso una teoria mai menzionata nell'articolo ? L'unico tema che non si tocca nell'articolo è proprio l'aumento delle prestazioni, e gli "ingegneri" di cui parli la studiano per uno scopo che l'articolo illustra solo come abbattimento dei consumi, mentre l'ipotesi sull'aumento delle frequenze rimane solo un ipotesi "vostra".

djmatrix619
12-08-2020, 18:08
Ragazzi ma proprio non ci arrivate nel capire quando uno trolla o meno, eh? E dai su... :rolleyes:

calabar
12-08-2020, 23:02
...e come esempio per fare capire meglio prendi proprio i giochi?
I giochi sono un ottimo esempio. Prima di tutto perchè si trovano facilmente grafici che mostrano lo sfruttamento dei core, pochi core sono sfruttati pesantemente, altri sono sfruttati ma in modo più leggero. Esempio: click (https://www.semiaccurate.com/wp-content/uploads/2016/02/DirectX12Multithreading-617x336.png). Seconda cosa perchè è il tipico caso in cui qualcuno potrebbe pensare non vi siano miglioramenti.

Per il resto posso dirti che non ho mai detto che il problema sia il multicore, ma che nei processori attuali, che sono orientati al multicore, il power budget è una voce di primaria importanza. E in questi termini si, potrebbe andare di più.
Non ho mai detto che il problema sono le workstation in idle ma che anche se ad uno può non importare di spendere qualche euro in più in bolletta lo spreco energetico è un problema globale e ben venga se lo si riduce investendo in miglioramenti anche sui PC in idle.
Dai, cerchiamo di capirci! ;)

Bello quotare le frasi a metà vero ?
LOL. problemi di persecuzione?
Io cito solo la frase a cui aggancio il discorso, il resto uno può andarselo a leggere nel post originale.

Alla tua obiezione ti era già stato risposto: la tecnologia di cui si parla punta proprio a ridurre l'overhead per questo tipo di passaggi. Che comunque sono l'estrema ratio, gli scheduler moderni sanno bene come assegnare i carichi.

Davvero mi stai chiedendo dove "ho letto" che sono piccoli? Se non conosci minimamente l'argomento di cui stai parlando, perchè ne parli?

Al posto di aggiungerci questi cores LP sarebbe meglio usare quello spazio per aggiungere o ampliare altri componenti della CPU se proprio ci tengono a piazzare più transistors o mantenere il die più piccolo.
Chi lavora sul progetto evidentemente ritiene il contrario. Ma sono sicuro che la tua opinione sia molto più autorevole della loro. ;)

L'unico tema che non si tocca nell'articolo è proprio l'aumento delle prestazioni, e gli "ingegneri" di cui parli la studiano per uno scopo che l'articolo illustra solo come abbattimento dei consumi, mentre l'ipotesi sull'aumento delle frequenze rimane solo un ipotesi "vostra".
Anche l'articolo contiene deduzioni e opinioni del redattore, esattamente come i commenti contengono le nostre.
La possibilità di avere prestazioni migliori è una conseguenza di una miglior gestione del power budget, per i motivi ormai spiegati e rispiegati. Se poi ne valga davvero la pena credo lo sapremo a giochi fatti, le premesse però ci sono e sono evidenti se si ha un minimo di comprensione dell'argomento.

nickname88
13-08-2020, 10:21
Alla tua obiezione ti era già stato risposto: la tecnologia di cui si parla punta proprio a ridurre l'overhead per questo tipo di passaggi. Che comunque sono l'estrema ratio, gli scheduler moderni sanno bene come assegnare i carichi.

Chi lavora sul progetto evidentemente ritiene il contrario. Ma sono sicuro che la tua opinione sia molto più autorevole della loro. ;)

Io articoli che parlando di aumento delle performance come target sui prodotti desktop/server riferito a questa tecnologia ibrida non ne ho trovati. E se fa veramente ciò che tu dici dovrebbero invece spiccare e invece tutto ciò che trovi fa chiaro riferimento al mobile.


Anche l'articolo contiene deduzioni e opinioni del redattore, esattamente come i commenti contengono le nostre. Deduzione del redattore ?
Se è vero che la tecnologia Hybrid di Lakefield è una soluzione analoga, quest'ultima è dichiaratamente stata pensata per il settore mobile, quindi direi che le deduzioni del redattore godono di più probabilità delle tue.

calabar
13-08-2020, 10:46
Lakefield pensata per il mobile? Nella new in cui se ne parlava ci sono pagine e pagine in cui si discute del fatto che presumibilmente verrà utilizzata anche per i PC fissi.

Il "problema" degli articoli è che sono basati su poche informazioni, ossia che presumibilmente ci saranno dei processori ibridi (dichiarato nel caso di Intel, presunto da un brevetto nel caso di AMD) e questi ibridi contengono piccoli core ad alta efficienza.
Dato che finora questa tecnologia è stata utilizzata sui SOC per dispositivi mobile per ridurre i consumi a basso carico (cosa utile per migliorare l'autonomia di questi dispositivi) si è subito pensato al loro uso per ridurre i consumi in idle dei PC.
Quello di cui invece stavamo discutendo è che invece lo scopo potrebbe essere ben altro, ossia aumentare l'efficienza complessiva per spingere sulle prestazioni in determinati contesti, e si cercava di spiegare il perchè di questa possibilità.

nickname88
13-08-2020, 15:37
Lakefield pensata per il mobile? Nella new in cui se ne parlava ci sono pagine e pagine in cui si discute del fatto che presumibilmente verrà utilizzata anche per i PC fissi.

Ho detto che la tecnologia ibrida di lakefield è pensata per il mobile.
Verranno implementati su desktop ma lo target specificato è sempre quello del risparmio di energia.
Infatti l'uscita su desktop non necessariamente implica anche il segmento HEDT.

Inoltre negli articoli di lakefield parla di cores LP specificando un 47% di riduzione rispetto agli altri cores, il che significa che almeno in questo caso la "dimensione ridotta" non lo è così tanto, in pratica due di questi occupano lo spazio di un core HP.

Quello di cui invece stavamo discutendo è che invece lo scopo potrebbe essere ben altro, ossia aumentare l'efficienza complessiva per spingere sulle prestazioni in determinati contesti, e si cercava di spiegare il perchè di questa possibilità.Può darsi ma per il momento rimane una tua teoria personale, perchè nessuno ha mai trattato ciò.

I giochi sono un ottimo esempioL'articolo dice che il tutto dovrà essere gestito lato software sia dal OS che dall'applicativo in uso e non penso proprio che i giochi per PC godranno di queste ottimizzazioni.

k0nt3
13-08-2020, 17:38
Meanwhile at Architecture Day 2020:
https://www.forbes.com/sites/antonyleather/2020/08/13/intels-surprise-ryzen-killer-alder-lake-hybrid-processors-offer-biggest-performance-leap-in-14-years/#160e8cae4f5f
The key, according to Koduri, isn't the long-awaited introduction of the 10nm manufacturing process on the desktop, but a hybrid design featuring a mixture of different cores. This, according to Koduri, will enable its CPU to continue to offer exceptional gaming performance, but also massively ramp up multi-threaded performance too.

Nautilu$
13-08-2020, 19:10
I giochi sono un ottimo esempio. Prima di tutto perchè si trovano facilmente grafici che mostrano lo sfruttamento dei core, pochi core sono sfruttati pesantemente, altri sono sfruttati ma in modo più leggero. ...

e tu hai mai letto i valori del consumo dei core non sfruttati al 100% (con HWinfo64 o anche Ryzen Master)? Ti è sfuggito che la frequenza reale è minore della massima, ma soprattutto i watt consumati sono un'inezia?
Il risparmio energetico , anche su spu con 16 core (o più) GIA' C'E' , anche lasciando tutto così, senza dover usare altro spazio.
Quello da migliorare è il consumo delle motherboard (saranno 20 volte che lo scrivo.... ma tanto ognuno prosegue per la sua strada......:rolleyes: )...
quindi I GIOCHI CHE SFRUTTANO POCHI CORE NON SONO UN ESEMPIO CORRETTO ! E SE I CORE SONO SFRUTTATI TUTTI AL MASSIMO, ALLORA altri aggiuntivi più piccoli starebbero a guardare!
Basta... è inutile!

nickname88
13-08-2020, 22:27
Meanwhile at Architecture Day 2020:
https://www.forbes.com/sites/antonyleather/2020/08/13/intels-surprise-ryzen-killer-alder-lake-hybrid-processors-offer-biggest-performance-leap-in-14-years/#160e8cae4f5f
Non menziona nulla di quanto da te supposto, ovvio che massimizza le performance MT, può processare più threads in parallelo visto che il numero di cores di fatto aumenta.

cdimauro
13-08-2020, 22:41
Ma alla fine conta in ogni caso il power-budget. Se lanci delle applicazioni pesanti, queste utilizzeranno quasi esclusivamente i core ad alte prestazioni che monopolizzeranno il power-budget, per l'appunto.

L'uso dei core a basso consumo rimarrebbe appannaggio degli scenari non pesanti. Che comunque sarebbe un'ottima cosa, sia chiaro, visto che normalmente i PC non li si spreme tutto il tempo.

Infatti a me andrebbe benissimo avere un singolo core ad elevatissime prestazioni (in SC/ST) per i pochi casi in cui smanetto o uso emulatori, affiancato da uno o due core a basse prestazioni per l'uso ordinario.

Alla fine il nocciolo della questione rimane più che altro il fatto che Intel potrebbe adottare un singolo design sia per il mercato mobile sia per quello desktop, per cui giocoforza su quest'ultimo ci si ritroverà coi core a basse prestazioni nel chip. Per cui tanto vale utilizzarli, per quanto detto sopra.

k0nt3
13-08-2020, 23:32
Non menziona nulla di quanto da te supposto, ovvio che massimizza le performance MT, può processare più threads in parallelo visto che il numero di cores di fatto aumenta.
Dubito che tu abbia letto l'articolo.
Il titolo è: Alder Lake Hybrid Processors Offer Biggest Performance Leap In 14 Years :read:
Come vedi parla di performance, non di risparmio energetico. Parla di prestazioni gaming al top ed elevato numero di core allo stesso tempo.
Sempre da Raja:
This, according to Koduri, will enable its CPU to continue to offer exceptional gaming performance, but also massively ramp up multi-threaded performance too.
Suona proprio come quello che sto dicendo da pagine e AMD sarà quasi sicuramente sulla stessa strada.

@cdimauro
Comunque in un uso tipico del PC, anche in full load il carico è misto. Ci saranno thread CPU bound e altri I/O bound, quindi anche i core a basso consumo verrebbero utilizzati. Oppure immagini una soluzione in cui tutto il power budget venga dedicato ai core ad alte prestazioni nei momenti di picco?

calabar
14-08-2020, 00:47
Ho detto che la tecnologia ibrida di lakefield è pensata per il mobile. ...
Più che altro LakeField sono processori mobile, ma la tecnologia ibrida non è detto sia stata pensata solo per il mobile, infatti la controparte Desktop, Alder Lake, pare confermato utilizzi la stessa tecnologia.
EDIT: il passaggio riportato sopra da k0nt3 pare confermare che anche l'architettura ibrida sia stata pensata anche nell'ottica delle prestazioni.

Ad ogni modo pare che tu abbia letto informazioni che finora non erano saltate fuori. Puoi linkare le fonti?
Un rapporto di 2:1 tra core ad alte prestazioni e core ad alta efficienza sarebbe anomalo, la percentuale di cui parli cosa comprendeva esattamente?

Può darsi ma per il momento rimane una tua teoria personale, perchè nessuno ha mai trattato ciò.
Non voglio prendermi meriti che non ho, la "teoria" in questo topic è stata introdotta da k0nt3, e forse nessuno ne ha parlato perchè non ci ha pensato (neanche io ci avevo pensato prima che k0nt3 lo facesse notare) ma una volta spiegate le motivazioni non posso che condividere, perchè sono ragionevoli.

L'articolo dice che il tutto dovrà essere gestito lato software sia dal OS che dall'applicativo in uso e non penso proprio che i giochi per PC godranno di queste ottimizzazioni.
E perchè mai non dovrebbero? O_o
Oltretutto in questa stessa news si afferma che AMD stia puntando su una gestione principalmente in hardware, quindi il problema potrebbe non porsi affatto.

Basta... è inutile!
Se mi rispondi in quel modo concordo con te, è inutile: sembra che tu non abbia capito molto di quanto abbiamo scritto.
E, giusto per la cronaca, non ho mai parlato di giochi che sfruttano pochi core.

L'uso dei core a basso consumo rimarrebbe appannaggio degli scenari non pesanti.
Stavamo ragionando propri su questo: i core a basso consumo in realtà sarebbero sfruttabili proficuamente in quegli scenari in cui i core sono carichi in modo differente, alcuni con richieste elevate altri con richieste meno elevate (ho fatto l'esempio dei giochi proprio perchè ci si trova spesso in scenari di questo tipo).
Ovvio che se si parla di compiti altamente parallelizzabili in grado di sfruttare appieno i core ad alte prestazioni, per esempio un rendering su CPU, non siamo nella casistica di cui si stava parlando.

calabar
14-08-2020, 00:47
Perdonate, doppione per problemi di connessione al forum.

cdimauro
14-08-2020, 06:11
Dubito che tu abbia letto l'articolo.
Il titolo è: Alder Lake Hybrid Processors Offer Biggest Performance Leap In 14 Years :read:
Come vedi parla di performance, non di risparmio energetico. Parla di prestazioni gaming al top ed elevato numero di core allo stesso tempo.
Credo che ciò sia dovuto principalmente all'adozione di core con la nuova micro-architettura che succederà a WillowCove.
@cdimauro
Comunque in un uso tipico del PC, anche in full load il carico è misto. Ci saranno thread CPU bound e altri I/O bound, quindi anche i core a basso consumo verrebbero utilizzati. Oppure immagini una soluzione in cui tutto il power budget venga dedicato ai core ad alte prestazioni nei momenti di picco?
Dipende principalmente dal tipo di codice eseguito.

Raggiungere (e superare) il power budget implica l'uso massiccio di codice SIMD. Le vecchie SSE sono già sufficienti di per sé a far superare il power budget, ma se andiamo con le AVX/-2 o, peggio ancora, con le AVX-512, il processore è costretto addirittura a scendere in frequenza.

Quindi immagino che gli scenari in cui entri in gioco il power budget saranno le applicazioni di rendering, quelle di conversione video, i giochi, ecc. Tutte hanno anche bisogno di eseguire I/O (molto meno le prime, dove hai quasi tutto caricato in memoria), ma questo non incide molto sul fatto che i core saranno principalmente usati per macinare numeri, e quindi far salire i consumi.

Con applicazioni / scenari più ordinari l'I/O potrebbe essere più dominante. Ma in ogni caso con PC ormai dotati di SSD, e con quelli NVMe che stanno prendendo sempre più piede, anche l'I/O intensivo ormai non lascia per lungo tempo le CPU a girarsi i pollici in attesa di dei dati (fermo restando che se un processo è in attesa di I/O, il core potrà essere utilizzato da un altro processo che magari è dedito a macinare numeri).
Stavamo ragionando propri su questo: i core a basso consumo in realtà sarebbero sfruttabili proficuamente in quegli scenari in cui i core sono carichi in modo differente, alcuni con richieste elevate altri con richieste meno elevate (ho fatto l'esempio dei giochi proprio perchè ci si trova spesso in scenari di questo tipo).
Ovvio che se si parla di compiti altamente parallelizzabili in grado di sfruttare appieno i core ad alte prestazioni, per esempio un rendering su CPU, non siamo nella casistica di cui si stava parlando.
Sì, esatto. Ne ho parlato meglio sopra.

Comunque per i core a basso consumo non servirebbero nemmeno processori out-of-order: quelli in-order occupano di gran lunga meno silicio e consumano molto meno.
Ma ormai credo che difficilmente vedremo processori in-order in ambito consumer (che pure sono quasi esenti da vulnerabilità di tipo side-channel).