Intel rivoluziona le CPU? L'azienda pensa ai 'Super Core' definiti tramite software. Che cosa sono
Intel ha depositato il brevetto EP4579444A1 per i Software Defined Super Cores (SDC), una tecnologia che consente di fondere più core in un unico "Super Core" virtuale per migliorare le prestazioni single-thread. Il progetto promette più efficienza senza frequenze più alte, ma presenta complessità tecniche significative.
di Manolo De Agostini pubblicata il 01 Settembre 2025, alle 08:31 nel canale ProcessoriCoreIntel
Intel ha depositato il brevetto EP4579444A1, che descrive un approccio innovativo per incrementare le prestazioni single-thread senza affidarsi esclusivamente a frequenze più elevate o a core sempre più grandi. La tecnologia, denominata Software Defined Super Cores (SDC), prevede la possibilità di fondere dinamicamente più core di dimensioni ridotte in un unico "Super Core" virtuale, capace di eseguire un singolo thread come se fosse un core monolitico.
L'idea si discosta dalle tradizionali strategie basate sullo scaling hardware: un core molto grande, infatti, soffre di rendimenti decrescenti in termini di efficienza e prestazioni. Con SDC, invece, tanti core più piccoli possono coordinarsi, suddividendo il flusso di istruzioni in blocchi gestiti in parallelo. Al sistema operativo e al software il "Super Core" appare come un unico core logico, ma internamente i core collaborano tramite buffer dedicati e percorsi di comunicazione a bassa latenza per garantire ordine, sincronizzazione e trasferimenti di dati corretti.

Uno degli obiettivi dichiarati è migliorare l'IPC (istruzioni per ciclo) e ridurre i colli di bottiglia nei carichi single-threaded senza aumentare tensioni o frequenze operative, con benefici potenziali in termini di performance per watt. Tuttavia, l'implementazione non è priva di complessità: la suddivisione e la riallocazione delle istruzioni richiedono sincronizzazione estremamente rapida e il supporto di compilatori e sistemi operativi, con sfide simili a quelle che in passato hanno frenato architetture sperimentali come Itanium.

Il brevetto cita inoltre meccanismi come lo Shadow Store Buffer, che consentirebbero di mantenere consistenti i trasferimenti di dati tra i core fusi. L'idea richiama in parte i concetti alla base dell'Hyper-Threading, ma con un obiettivo differente: potenziare i carichi single-threaded, piuttosto che migliorare l'esecuzione multi-thread.
Non è chiaro se e quando Intel porterà SDC in produzione: molte delle sue soluzioni brevettate rimangono allo stadio sperimentale. Ciononostante, l'approccio mostra come l'azienda stia esplorando nuove vie per recuperare competitività nei confronti di AMD, che negli ultimi anni è tornata a comandare il mercato grazie ad architetture efficienti e scalabili.










Renault Twingo E-Tech Electric: che prezzo!
Il cuore digitale di F1 a Biggin Hill: l'infrastruttura Lenovo dietro la produzione media
DJI Osmo Mobile 8: lo stabilizzatore per smartphone con tracking multiplo e asta telescopica
Snap e Perplexity unite: dal prossimo anno le ricerche si potranno fare direttamente da Snapchat
La Cina dice addio a NVIDIA? Il governo avrebbe vietato i chip AI stranieri nei progetti pubblici
Microlino, simbolo italiano della mobilità elettrica, potrebbe spostare la produzione in Cina
Apple disattiverà la sincronizzazione delle reti Wi-Fi tra iPhone e Apple Watch in tutta l’UE
Google lancia l'allarme: attenzione ai malware che riscrivono il codice in tempo reale con l’AI
Primo test drive con Leapmotor B10: le cinesi così fanno paura | Video
'Non può essere un robot': l'umanoide di Xpeng si muove così fluidamente da diventare un caso
Monopattino elettrico Segway Ninebot Max G2E in offerta: 450W di potenza e freni su entrambe le ruote, ora a 549€ su Amazon
Syberia Remastered è disponibile: il ritorno poetico di Kate Walker su PS5, Xbox e PC
Sony scopre che tutti i modelli AI hanno pregiudizi razziali: ecco cosa è emerso con il dataset FHIBE
Amazon nasconde un -15% su 'Seconda Mano' — ecco come accaparrarselo subito
Due occasioni Apple su Amazon: iPhone 16 e MacBook Air M4 a prezzi super scontati
Verso la fine della TV tradizionale? I giovani guardano sempre più TikTok e YouTube
Cassa JBL a 39€, portatili, smartphone, TV e robot scontati di centinaia di Euro: le migliori offerte Amazon con diverse idee regalo









27 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoNon so perchè ma mi puzza di una combinazione di fuffa+mossa della disperazione
Non so perchè ma mi puzza di una combinazione di fuffa+mossa della disperazione
della serei se lo faceva chiunque altro era una figata, ma è intel quindi...
No, no, era una cagata anche se lo faceva chiunque altro.
Hai una vaga idea di cosa voglia dire, a livello di chiamate di sistema, timing, ecc, affidare al software la gestione di più core "come fossero uno"?
Hai una vaga idea di cosa voglia dire, a livello di chiamate di sistema, timing, ecc, affidare al software la gestione di più core "come fossero uno"?
In Intel lo sanno molto bene, sicuramente meglio di te e di me, e sanno anche quali sono i limiti e le sfide per aumentare le prestazioni in futuro.
Non so se ti sei accorto ma negli ultimi anni l'aumento di prestazioni single core avanza di pochi punti percentuali a ogni nuova architettura. Architetture che arrivano una volta ogni due anni. Sempre legato all'aumento di frequenza, aumento di consumi e soprattutto all'allocazione di budget di transistor enormi per qualche sputacchio di prestazioni in più qui o lì.
Quindi o continui a costruire core sempre più mastodontici oppure cerchi una soluzione alternativa. Non è detto che questa sia la soluzione finale ultima possibile, la più conveniente o che proprio funzioni. Ma l'evoluzione tecnologica deve guardare oltre all'aumento del numero di risorse (transisitors, cache, W) dedicate ad un singolo core che è ormai in crescita logaritmica e non più sostenibile.
I core già godono di bus di comunicazione ad alta velocità verso memorie e di interconnessione. Investire su questi aspetti potrebbe portare migliori prestazioni rispetto a dover continuamente raddoppiare cache (la cui latenza dipende dalla loro dimensione ed è quindi una sfida non indifferente anche renderle più veloci e più grandi), aumentare frequenze, aumentare gli stadi delle pipeline, aumentare le capacità dei front-end e della superscalarità e quindi aumentare anche il back-end.
Anche qualche anno fa era impensabile riuscire a far scalare due chip in maniera quasi lineare (pensa allo SLI/Crossfire) e quindi si puntava a fare sistemi monolitici sempre più complessi.
Poi sono arrivati i bus di comunicazione veloci su interposer e AMD ha fatto la sua architettura su chiplet. Questi bus sono evoluti così tanto che ora pure le GPU sono a chiplet (e non è una cosa banale mettere insieme chiplet che richiedono TB/s di banda per non avere colli di bottiglia). Blackwell sono praticamente due chip in SLI.
Abbattuto il problema dell'interconnessione nessuno impedisce di pensare a sistemi con 2,3,4,8 chiplet. Infatti AMD già lo fa. Vero che questi chiplet alla fine sono meno efficienti di un monolitico, ma un monolitico con quelle prestazioni non è possible.
Siamo quindi andati oltre al concetto di monolitico sempre più grande per avere prestazioni migliori.
L'idea di Intel è di scendere in livello ancora più in basso per cercare di aumentare le prestazioni.
La disperazione ce l'avrà chi non avendo pensato ad una soluzione alternativa si troverà a dover progettare nuovi core con miliardi di transistor in più per aumentare l'IPC del 5%.
Ma guardacaso, combinazione, l'ha fatto Intel
Chissà se li rimpiangono anche i loro ingegneri!
Non so se ti sei accorto ma negli ultimi anni l'aumento di prestazioni single core avanza di pochi punti percentuali a ogni nuova architettura. Architetture che arrivano una volta ogni due anni. Sempre legato all'aumento di frequenza, aumento di consumi e soprattutto all'allocazione di budget di transistor enormi per qualche sputacchio di prestazioni in più qui o lì.
Quindi o continui a costruire core sempre più mastodontici oppure cerchi una soluzione alternativa. Non è detto che questa sia la soluzione finale ultima possibile, la più conveniente o che proprio funzioni. Ma l'evoluzione tecnologica deve guardare oltre all'aumento del numero di risorse (transisitors, cache, W) dedicate ad un singolo core che è ormai in crescita logaritmica e non più sostenibile.
I core già godono di bus di comunicazione ad alta velocità verso memorie e di interconnessione. Investire su questi aspetti potrebbe portare migliori prestazioni rispetto a dover continuamente raddoppiare cache (la cui latenza dipende dalla loro dimensione ed è quindi una sfida non indifferente anche renderle più veloci e più grandi), aumentare frequenze, aumentare gli stadi delle pipeline, aumentare le capacità dei front-end e della superscalarità e quindi aumentare anche il back-end.
Anche qualche anno fa era impensabile riuscire a far scalare due chip in maniera quasi lineare (pensa allo SLI/Crossfire) e quindi si puntava a fare sistemi monolitici sempre più complessi.
Poi sono arrivati i bus di comunicazione veloci su interposer e AMD ha fatto la sua architettura su chiplet. Questi bus sono evoluti così tanto che ora pure le GPU sono a chiplet (e non è una cosa banale mettere insieme chiplet che richiedono TB/s di banda per non avere colli di bottiglia). Blackwell sono praticamente due chip in SLI.
Abbattuto il problema dell'interconnessione nessuno impedisce di pensare a sistemi con 2,3,4,8 chiplet. Infatti AMD già lo fa. Vero che questi chiplet alla fine sono meno efficienti di un monolitico, ma un monolitico con quelle prestazioni non è possible.
Siamo quindi andati oltre al concetto di monolitico sempre più grande per avere prestazioni migliori.
L'idea di Intel è di scendere in livello ancora più in basso per cercare di aumentare le prestazioni.
La disperazione ce l'avrà chi non avendo pensato ad una soluzione alternativa si troverà a dover progettare nuovi core con miliardi di transistor in più per aumentare l'IPC del 5%.
Ma... ricordi quando Intel annunciò l'architettura ibrida nel mondo X86?
La annunciò come rivoluzionaria e che sarebbe stata il massimo come efficienza e prestazioni. Dopo X anni, un pozzo di soldi di R&D, il dopo Nova non sarà più ibrido.
Dopo aver annunciato il 18A come processo universale per i player di tutto il mondo (e forse anche dell'universo), si scopre che il 18A, al contrario del numeretto, è più simile al processo N3E TSMC di quanto abbia voluto far credere (e portò Pat in conflitto con il CEO TSMC).
Ancora c'è chi crede alle bufale Intel? Io ho seri dubbi che ad Intel sappiano bene alcune cose... tranne come far fallire una azienda che era un colosso.
Riportiamo i piedi per terra... Intel avrà circa 25 miliardi di perdita nel 2025, è in calo nei volumi di vendita e ancor più negli utili, non ha i soldi per il 14A (o entrano investitori sul progetto, o non si farà, parola del nuovo CEO), lato server, mobile, contratti con gli OEM, è tutto un declino costante. In molti riportano che Nova sarà l'ultima possibilità per non cedere le FAB (valevano 240 miliardi di $ quando erano al top, oggi valgono 100 miliardi (vedi operazione Governo USA)).
L'articolo parla di un brevetto, quindi siamo più sull'idea che un qualcosa di reale e commercializzabile nell'immediato. Non è possibile, ora come ora, saperne la validità... ma, nelle condizioni Intel, la probabilità che sia il solito fumo (e niente arrosto), per non far fuggire gli azionisti (ultimi), è tanta.
Da quello che ho capito questa tecnologia permetterebbe di cambiare dinamicamente le pipeline di un core 'rubandole' da un altro. O no ?
Oppure e' qualcosa come una specie di 'light threading' dove due cpu possono cooperare con un costo di sincronizzazione molto basso (register level)?
E anche qui non ho capito quanto sia trasparente. Alla fine un processore superscalare parallelizza il flusso di istruzioni implicitamente senza che serva un particolare supporto da parte del compilatore. In questo caso il compilatore dovrebbe riconoscere e taggare porzioni parallele
Mi chiedo quanto siano migliorati i compilatori rispetto ad itanium. Da quello che ho sempre saputo la 'forza' dei processori superscalari OoO e' che e' molto difficile predire lo stato a livello microarchitetturale di una CPU a compile time. E questo e', sempre da quello che so, e' uno dei motivi della disfatta dei VLIW come cpu general-purpose.
C'e' qualche appassionato/esperto di architetture che ci ha capito qualcosa e lo puo' spiegare in maniera umana?
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".