Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Due mesi di Battlefield 6: dalla campagna al battle royale, è l'FPS che stavamo aspettando
Due mesi di Battlefield 6: dalla campagna al battle royale, è l'FPS che stavamo aspettando
Abbiamo giocato a lungo a Battlefield 6, abbiamo provato tutte le modalità multiplayer, Redsec, e le numerose personalizzazioni. In sintesi, ci siamo concentrati su ogni aspetto del titolo per comprendere al meglio uno degli FPS più ambiziosi della storia dei videogiochi e, dopo quasi due mesi, abbiamo tirato le somme. In questo articolo, condividiamo con voi tutto ciò che è Battlefield 6, un gioco che, a nostro avviso, rappresenta esattamente ciò che questo genere attendeva da tempo
Antigravity A1: drone futuristico per riprese a 360° in 8K con qualche lacuna da colmare
Antigravity A1: drone futuristico per riprese a 360° in 8K con qualche lacuna da colmare
Abbiamo messo alla prova il drone Antigravity A1 capace di riprese in 8K a 360° che permette un reframe in post-produzione ad eliche ferme. Il concetto è molto valido, permette al pilota di concentrarsi sul volo e le manovre in tutta sicurezza e decidere con tutta tranquillità come gestire le riprese. La qualità dei video, tuttavia, ha bisogno di uno step in più per essere competitiva
Sony Alpha 7 V, anteprima e novità della nuova 30fps, che tende la mano anche ai creator
Sony Alpha 7 V, anteprima e novità della nuova 30fps, che tende la mano anche ai creator
Dopo oltre 4 anni si rinnova la serie Sony Alpha 7 con la quinta generazione, che porta in dote veramente tante novità a partire dai 30fps e dal nuovo sensore partially stacked da 33Mpixel. L'abbiamo provata per un breve periodo, ecco come è andata dopo averla messa alle strette.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 01-09-2025, 08:31   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75166
Link alla notizia: https://www.hwupgrade.it/news/cpu/in...no_142752.html

Intel ha depositato il brevetto EP4579444A1 per i Software Defined Super Cores (SDC), una tecnologia che consente di fondere più core in un unico "Super Core" virtuale per migliorare le prestazioni single-thread. Il progetto promette più efficienza senza frequenze più alte, ma presenta complessità tecniche significative.

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 01-09-2025, 08:56   #2
boboviz
Senior Member
 
Iscritto dal: Jul 2003
Messaggi: 991
Sniff, sniff
Non so perchè ma mi puzza di una combinazione di fuffa+mossa della disperazione
boboviz è online   Rispondi citando il messaggio o parte di esso
Old 01-09-2025, 09:04   #3
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 8186
Quote:
Originariamente inviato da boboviz Guarda i messaggi
Sniff, sniff
Non so perchè ma mi puzza di una combinazione di fuffa+mossa della disperazione
della serei se lo faceva chiunque altro era una figata, ma è intel quindi...
coschizza è offline   Rispondi citando il messaggio o parte di esso
Old 01-09-2025, 09:10   #4
boboviz
Senior Member
 
Iscritto dal: Jul 2003
Messaggi: 991
Quote:
Originariamente inviato da coschizza Guarda i messaggi
della serei se lo faceva chiunque altro era una figata, ma è intel quindi...
No, no, era una cagata anche se lo faceva chiunque altro.
Hai una vaga idea di cosa voglia dire, a livello di chiamate di sistema, timing, ecc, affidare al software la gestione di più core "come fossero uno"?
boboviz è online   Rispondi citando il messaggio o parte di esso
Old 01-09-2025, 09:54   #5
unnilennium
Senior Member
 
L'Avatar di unnilennium
 
Iscritto dal: Jan 2005
Città: ichnusa
Messaggi: 18031
Mi pare qualcosa di simile al thread director quando hanno presentato per la prima volta la piattaforma ibrida p-core e-core, sicuramente molto più complesso... Certo è che pure col thread director alcuni software non hanno goduto di buone prestazioni, nonostante gli annunci trionfalistici, e quindi immagino come sarà questa soluzione.... Per quanto buono sarà, ci sarà un prezzo da pagare... Sarà comunque interessante vedere cosa si inventano
unnilennium è offline   Rispondi citando il messaggio o parte di esso
Old 01-09-2025, 09:55   #6
CrapaDiLegno
Senior Member
 
L'Avatar di CrapaDiLegno
 
Iscritto dal: Jan 2011
Messaggi: 4177
Quote:
Originariamente inviato da boboviz Guarda i messaggi
No, no, era una cagata anche se lo faceva chiunque altro.
Hai una vaga idea di cosa voglia dire, a livello di chiamate di sistema, timing, ecc, affidare al software la gestione di più core "come fossero uno"?
In Intel lo sanno molto bene, sicuramente meglio di te e di me, e sanno anche quali sono i limiti e le sfide per aumentare le prestazioni in futuro.
Non so se ti sei accorto ma negli ultimi anni l'aumento di prestazioni single core avanza di pochi punti percentuali a ogni nuova architettura. Architetture che arrivano una volta ogni due anni. Sempre legato all'aumento di frequenza, aumento di consumi e soprattutto all'allocazione di budget di transistor enormi per qualche sputacchio di prestazioni in più qui o lì.

Quindi o continui a costruire core sempre più mastodontici oppure cerchi una soluzione alternativa. Non è detto che questa sia la soluzione finale ultima possibile, la più conveniente o che proprio funzioni. Ma l'evoluzione tecnologica deve guardare oltre all'aumento del numero di risorse (transisitors, cache, W) dedicate ad un singolo core che è ormai in crescita logaritmica e non più sostenibile.

I core già godono di bus di comunicazione ad alta velocità verso memorie e di interconnessione. Investire su questi aspetti potrebbe portare migliori prestazioni rispetto a dover continuamente raddoppiare cache (la cui latenza dipende dalla loro dimensione ed è quindi una sfida non indifferente anche renderle più veloci e più grandi), aumentare frequenze, aumentare gli stadi delle pipeline, aumentare le capacità dei front-end e della superscalarità e quindi aumentare anche il back-end.

Anche qualche anno fa era impensabile riuscire a far scalare due chip in maniera quasi lineare (pensa allo SLI/Crossfire) e quindi si puntava a fare sistemi monolitici sempre più complessi.
Poi sono arrivati i bus di comunicazione veloci su interposer e AMD ha fatto la sua architettura su chiplet. Questi bus sono evoluti così tanto che ora pure le GPU sono a chiplet (e non è una cosa banale mettere insieme chiplet che richiedono TB/s di banda per non avere colli di bottiglia). Blackwell sono praticamente due chip in SLI.
Abbattuto il problema dell'interconnessione nessuno impedisce di pensare a sistemi con 2,3,4,8 chiplet. Infatti AMD già lo fa. Vero che questi chiplet alla fine sono meno efficienti di un monolitico, ma un monolitico con quelle prestazioni non è possible.
Siamo quindi andati oltre al concetto di monolitico sempre più grande per avere prestazioni migliori.

L'idea di Intel è di scendere in livello ancora più in basso per cercare di aumentare le prestazioni.
La disperazione ce l'avrà chi non avendo pensato ad una soluzione alternativa si troverà a dover progettare nuovi core con miliardi di transistor in più per aumentare l'IPC del 5%.

Ultima modifica di CrapaDiLegno : 01-09-2025 alle 09:58.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 01-09-2025, 12:20   #7
Kirov HC
Member
 
L'Avatar di Kirov HC
 
Iscritto dal: Oct 2010
Messaggi: 233
mi puzza
Kirov HC è offline   Rispondi citando il messaggio o parte di esso
Old 01-09-2025, 12:24   #8
Max Power
Senior Member
 
L'Avatar di Max Power
 
Iscritto dal: Jan 2003
Messaggi: 3627
Quote:
Originariamente inviato da coschizza Guarda i messaggi
della serei se lo faceva chiunque altro era una figata, ma è intel quindi...
Ma guardacaso, combinazione, l'ha fatto Intel
__________________

MASTER: Ryzen 5 9600X LC,Powercolor RX 7700XT,MSI PRO B650M-A WIFI,32GB Ram 6400 CL32 RIPJAWS X in DC,Samsung 980Pro 512GB G4 + 980Pro 2TB G4 + SSHD 2TB SATA + HDD 1TB SATA,Audio ALC897,MSI MPG A650GF,Win 11 PRO,TK X-SUPERALIEN + AQUARIUS III,MSI 32" Optix MAG322CQR,MSI VIGOR GK30 COMBO,MSI Agility GD20 PAD,MSI IMMERSE GH10 HEADSET
Max Power è offline   Rispondi citando il messaggio o parte di esso
Old 02-09-2025, 08:09   #9
alegallo
Senior Member
 
L'Avatar di alegallo
 
Iscritto dal: Feb 2000
Città: Montevarchi (AR)
Messaggi: 2210
[OT mode on] Quando leggo queste notizie rimpiango i tempi in cui erano "Intel ha presentato una nuova CPU che raddoppia il clock: da 66 a 133 MHz!".
Chissà se li rimpiangono anche i loro ingegneri! [OT mode off]
__________________
... mi guardo ancora nello specchio / e vi saluto, brava gente. (Ivano Fossati)
Il mio coro - Polifonica San Lorenzo
Ho fatto affari con molti, ho avuto problemi SOLO con madyson e Xavierz
alegallo è offline   Rispondi citando il messaggio o parte di esso
Old 02-09-2025, 08:54   #10
paolo.oliva2
Senior Member
 
L'Avatar di paolo.oliva2
 
Iscritto dal: Jan 2002
Città: Urbino (PU)
Messaggi: 31911
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
In Intel lo sanno molto bene, sicuramente meglio di te e di me, e sanno anche quali sono i limiti e le sfide per aumentare le prestazioni in futuro.
Non so se ti sei accorto ma negli ultimi anni l'aumento di prestazioni single core avanza di pochi punti percentuali a ogni nuova architettura. Architetture che arrivano una volta ogni due anni. Sempre legato all'aumento di frequenza, aumento di consumi e soprattutto all'allocazione di budget di transistor enormi per qualche sputacchio di prestazioni in più qui o lì.

Quindi o continui a costruire core sempre più mastodontici oppure cerchi una soluzione alternativa. Non è detto che questa sia la soluzione finale ultima possibile, la più conveniente o che proprio funzioni. Ma l'evoluzione tecnologica deve guardare oltre all'aumento del numero di risorse (transisitors, cache, W) dedicate ad un singolo core che è ormai in crescita logaritmica e non più sostenibile.

I core già godono di bus di comunicazione ad alta velocità verso memorie e di interconnessione. Investire su questi aspetti potrebbe portare migliori prestazioni rispetto a dover continuamente raddoppiare cache (la cui latenza dipende dalla loro dimensione ed è quindi una sfida non indifferente anche renderle più veloci e più grandi), aumentare frequenze, aumentare gli stadi delle pipeline, aumentare le capacità dei front-end e della superscalarità e quindi aumentare anche il back-end.

Anche qualche anno fa era impensabile riuscire a far scalare due chip in maniera quasi lineare (pensa allo SLI/Crossfire) e quindi si puntava a fare sistemi monolitici sempre più complessi.
Poi sono arrivati i bus di comunicazione veloci su interposer e AMD ha fatto la sua architettura su chiplet. Questi bus sono evoluti così tanto che ora pure le GPU sono a chiplet (e non è una cosa banale mettere insieme chiplet che richiedono TB/s di banda per non avere colli di bottiglia). Blackwell sono praticamente due chip in SLI.
Abbattuto il problema dell'interconnessione nessuno impedisce di pensare a sistemi con 2,3,4,8 chiplet. Infatti AMD già lo fa. Vero che questi chiplet alla fine sono meno efficienti di un monolitico, ma un monolitico con quelle prestazioni non è possible.
Siamo quindi andati oltre al concetto di monolitico sempre più grande per avere prestazioni migliori.

L'idea di Intel è di scendere in livello ancora più in basso per cercare di aumentare le prestazioni.
La disperazione ce l'avrà chi non avendo pensato ad una soluzione alternativa si troverà a dover progettare nuovi core con miliardi di transistor in più per aumentare l'IPC del 5%.
Ma... ricordi quando Intel annunciò l'architettura ibrida nel mondo X86?
La annunciò come rivoluzionaria e che sarebbe stata il massimo come efficienza e prestazioni. Dopo X anni, un pozzo di soldi di R&D, il dopo Nova non sarà più ibrido.

Dopo aver annunciato il 18A come processo universale per i player di tutto il mondo (e forse anche dell'universo), si scopre che il 18A, al contrario del numeretto, è più simile al processo N3E TSMC di quanto abbia voluto far credere (e portò Pat in conflitto con il CEO TSMC).

Ancora c'è chi crede alle bufale Intel? Io ho seri dubbi che ad Intel sappiano bene alcune cose... tranne come far fallire una azienda che era un colosso.

Riportiamo i piedi per terra... Intel avrà circa 25 miliardi di perdita nel 2025, è in calo nei volumi di vendita e ancor più negli utili, non ha i soldi per il 14A (o entrano investitori sul progetto, o non si farà, parola del nuovo CEO), lato server, mobile, contratti con gli OEM, è tutto un declino costante. In molti riportano che Nova sarà l'ultima possibilità per non cedere le FAB (valevano 240 miliardi di $ quando erano al top, oggi valgono 100 miliardi (vedi operazione Governo USA)).
L'articolo parla di un brevetto, quindi siamo più sull'idea che un qualcosa di reale e commercializzabile nell'immediato. Non è possibile, ora come ora, saperne la validità... ma, nelle condizioni Intel, la probabilità che sia il solito fumo (e niente arrosto), per non far fuggire gli azionisti (ultimi), è tanta.
__________________
9950X PBO 1X CO -33 Override +100 CPU-Z RS/DU 930/18.563 - CB23-2339 - 47682 47728 -CB24 144 2508 - OCCT - V-RAY 53.994 - GeekBench 6.3 3563/22664 - TEST RS Y-Cruncher BKT - core 0-15 NPbench - CO -50 + CS -10 (NO RS) CPU-Z 932/19004 - CB23 48679 - CB24 2593

Ultima modifica di paolo.oliva2 : 02-09-2025 alle 09:16.
paolo.oliva2 è offline   Rispondi citando il messaggio o parte di esso
Old 02-09-2025, 09:07   #11
ZeroSievert
Senior Member
 
L'Avatar di ZeroSievert
 
Iscritto dal: Dec 2023
Messaggi: 1002
Ho cercato di leggere il brevetto velocemente ma ammetto che probabilmente mi sono sfuggiti molti punti.

Da quello che ho capito questa tecnologia permetterebbe di cambiare dinamicamente le pipeline di un core 'rubandole' da un altro. O no ? In questo caso mi chiedo quanto sia il costo in termini di complessita' dell'unita di scheduling delle istruzioni visto che deve supportare diverse configurazioni.

Oppure e' qualcosa come una specie di 'light threading' dove due cpu possono cooperare con un costo di sincronizzazione molto basso (register level)?

E anche qui non ho capito quanto sia trasparente. Alla fine un processore superscalare parallelizza il flusso di istruzioni implicitamente senza che serva un particolare supporto da parte del compilatore. In questo caso il compilatore dovrebbe riconoscere e taggare porzioni parallele ?
Mi chiedo quanto siano migliorati i compilatori rispetto ad itanium. Da quello che ho sempre saputo la 'forza' dei processori superscalari OoO e' che e' molto difficile predire lo stato a livello microarchitetturale di una CPU a compile time. E questo e', sempre da quello che so, e' uno dei motivi della disfatta dei VLIW come cpu general-purpose.

C'e' qualche appassionato/esperto di architetture che ci ha capito qualcosa e lo puo' spiegare in maniera umana?
__________________
Utenti bloccati: Tom & Jerry, zappy, giuliop, maxsin72(doppio account di zappy?)

Ultima modifica di ZeroSievert : 02-09-2025 alle 09:39.
ZeroSievert è offline   Rispondi citando il messaggio o parte di esso
Old 02-09-2025, 09:24   #12
ZeroSievert
Senior Member
 
L'Avatar di ZeroSievert
 
Iscritto dal: Dec 2023
Messaggi: 1002
Quote:
Originariamente inviato da boboviz Guarda i messaggi
No, no, era una cagata anche se lo faceva chiunque altro.
Hai una vaga idea di cosa voglia dire, a livello di chiamate di sistema, timing, ecc, affidare al software la gestione di più core "come fossero uno"?
Credo che il supporto dell'OS si riferisca al fatto che probabilmente lo scheduler deve essere modificato per far girare un determinato core in modalita' SDC. Cosi' a naso non credo sia una cosa impossibile da fare. Soprattutto visto che per lo OS scheduler problemi simili non sono affatto nuovi (e.g. si pensi alla gestione di Hyperthreading, Big-Little.. oppure a fare lo scheduling su architetture a chiplet dove 'muovere' un processo tra cores in uno stesso chiplet ha un costo diverso da muoverlo tra diversi chiplet).

Per i compilatori invece probabilmente si tratta di riconoscere sezioni di codice parallele. Ma in parte e' qualcosa che gia' fanno. Alcune ottimizzazioni a livello di compilazione sono fatte per pre-riordinare il flusso di istruzioni di modo che sia piu' facile per una cpu massimizzare l'occupazione delle pipelines.

Qui, da quello che ho capito, si tratta di fare uno step in piu' e indicare esplicitamente i flussi di istruzione da eseguire in parallelo nel binario generato. La vera domanda e' quanto bene i compilatori potrebbero farlo visto che questo introduce un 'vincolo' per il riordino delle istruzioni a run-time. E quindi in alcuni casi il rischio di diminuire anziche' aumentare l'IPC.
__________________
Utenti bloccati: Tom & Jerry, zappy, giuliop, maxsin72(doppio account di zappy?)

Ultima modifica di ZeroSievert : 02-09-2025 alle 11:48.
ZeroSievert è offline   Rispondi citando il messaggio o parte di esso
Old 02-09-2025, 11:21   #13
CrapaDiLegno
Senior Member
 
L'Avatar di CrapaDiLegno
 
Iscritto dal: Jan 2011
Messaggi: 4177
Quote:
Originariamente inviato da paolo.oliva2 Guarda i messaggi
Ma... ricordi quando Intel annunciò l'architettura ibrida nel mondo X86?
La annunciò come rivoluzionaria e che sarebbe stata il massimo come efficienza e prestazioni. Dopo X anni, un pozzo di soldi di R&D, il dopo Nova non sarà più ibrido.

Dopo aver annunciato il 18A come processo universale per i player di tutto il mondo (e forse anche dell'universo), si scopre che il 18A, al contrario del numeretto, è più simile al processo N3E TSMC di quanto abbia voluto far credere (e portò Pat in conflitto con il CEO TSMC).

Ancora c'è chi crede alle bufale Intel? Io ho seri dubbi che ad Intel sappiano bene alcune cose... tranne come far fallire una azienda che era un colosso.

Riportiamo i piedi per terra... Intel avrà circa 25 miliardi di perdita nel 2025, è in calo nei volumi di vendita e ancor più negli utili, non ha i soldi per il 14A (o entrano investitori sul progetto, o non si farà, parola del nuovo CEO), lato server, mobile, contratti con gli OEM, è tutto un declino costante. In molti riportano che Nova sarà l'ultima possibilità per non cedere le FAB (valevano 240 miliardi di $ quando erano al top, oggi valgono 100 miliardi (vedi operazione Governo USA)).
L'articolo parla di un brevetto, quindi siamo più sull'idea che un qualcosa di reale e commercializzabile nell'immediato. Non è possibile, ora come ora, saperne la validità... ma, nelle condizioni Intel, la probabilità che sia il solito fumo (e niente arrosto), per non far fuggire gli azionisti (ultimi), è tanta.
Doh, quante stronzate.
L'architettura ibrida è stata annunciata ed è diventata realtà.
E in single core funziona meglio della architettura non ibrida e con SMT della concorrenza.
Che il dopo Nova non sia più ibrida è una tua invenzione. Se non sbaglio lo avevi già detto di Nova. Ora è diventato il dopo Nova.
Tutto il resto sono vaneggiamenti giusto per gettare merda così.
Mi piacerebbe sapere cosa hai detto quanto AMD ha presentato la prima versione di Ryzen: sicuramente sarà stato qualcosa come "che cagata, questi qui che non sanno fare un core completo (Bulldozer docet) ora si inventano di fare core completi ad alte prestazioni su più die separati".

Questa tecnologia, nella sua idea fondamentale, è l'opposto dell'hyper threading. Con l'HT si tenta di sfruttare le parti inutilizzate di core enormi che non riescono a parallelizzare a sufficienza un thread per saturare le tante unità di elaborazione che stanno sotto il front-end. Front end che deve essere extra complicato per riuscire a estrarre istruzioni indipendenti nel flusso di istruzioni X86, set di istruzioni che è una merda assoluta da decodificare con lunghezze variabili, dimensioni di istruzioni enormi, non allineate, che rompe l'accesso pulito alle cache dove magari l'istruzione sta a cavallo delle linee, numero di registri limitato e che va via via sempre più complicandosi ogni nuova architettura che inserisce continuamente nuove estensioni.

Con questo approccio si semplifica notevolmente il front-end e si può snellire il complesso di unità di elaborazione in un singolo core, con tutto quello (positivo) che ne consegue, e si affida l'esecuzione di istruzioni indipendenti del flusso ad un secondo core per parallelizzare più istruzioni.
La complicazione della intercomunicazione tra i core può benissimo essere compensata dalla enorme semplificazione di core monothread meno superscalari di quanto non debbano essere ora come ad esempio sono i core ARM che godono di un set di istruzioni RISC che facilita notevolmente la decodifica e l'esecuzione OoO.
Sono trucchi per cercare di aumentare l'IPC di un set di istruzioni che andrebbe rivisto completamente dopo che hanno perso l'occasione di farlo quando hanno creato il set a 64 bit. IPC che con il metodo attuale richiede trilioni di transistor per essere migliorato di uno sputo.
Con le frequenze che non crescono più, l'aumento di velocità come le ottieni?
Mettendo mille (inutili) mega core in una CPU consumer?
Così migliori solo le barrette dei benchmark, ma le prestazioni degli applicativi veri rimangono la palo.

Quote:
Originariamente inviato da ZeroSievert Guarda i messaggi
Qui, da quello che ho capito, si tratta di fare uno step in piu' e indicare esplicitamente i flussi di istruzione da eseguire in parallelo nel binario generato. La vera domanda e' quanto bene potrebbero farlo visto che questo introduce un 'vincolo' per il riordino delle istruzioni a run-time.
Non sono un espertone di micro architetture, ma qualcosa la so. Provo a ragionare a voce alta.
Nei core X86 una bella fetta del front-end serve a decodificare le istruzioni x86 e trasformarle in micro operazioni che sono a loro volta riordinate per essere eseguite al meglio dalla parte computazionale che comprende anche 20 unità di elaborazione che possono andare in parallelo.
Per ogni istruzione x86 viene valutata l'indipendenza rispetto alle altre, cioè quando ha necessità di essere sincronizzata, quali risorse usa, quale accesso di memoria richiede e vengono applicate un sacco di trasformazioni interne oltre alle le u-ops necessarie per eseguire l'istruzione (rinomina di registri, creazione di istruzioni di accesso alla memoria, istruzioni di fence e sincronismo) che poi finiscono nella pipeline di esecuzione e quindi alle unità di calcolo parallele.
Altri passaggi sono lo storing delle u-ops in cache per migliorare l'efficienza dei cicli e la branch prection.
E in alcune architetture i front end sono addirittura 2 che lavorano in parallelo anche se il core è mono-thread.
Quindi c'è già un sacco di lavoro nel front-end per individuare la migliore l'istruzione da eseguire al ciclo successivo e cercare di saturare al meglio le unità di elaborazione.

La tecnica che vuole usare Intel in parte semplifica il front-end perché per esempio sarebbe possibile eseguire a full speed le due parti, anche molto lunghe, di un branch condizionato in maniera parallela e gettare il risultati del ramo errato. Per assurdo potrebbe essere esteso all'esecuzione completa in ulteriori core anche dei sotto-rami di questo primo bivio (una sorta di extreme speculative execution).
Già questo semplificherebbe notevolmente la gestione della branch prediction che è una delle cose più complesse che prende parecchio spazio perché oggi ogni branch miss è un disastro di cicli per resettare tutto il lavoro già fatto e ricominciare da zero ed è quello che impedisce di sfruttare pipeline lunghe un chilometro ma con frequenze altissime (Netburst docet).
Inoltre aumenterebbe notevolmente l'IPC per i motivi sopra detti: non dover dipendere da una condizione ritardataria per sapere se eseguire una strada piuttosto che un'altra è stata la cosa che ha maggiormente aumentato l'IPC al punto da dedicare una grandissima fetta del budget di transistor per continuamente migliorare la branch prediction unit.

Ripeto, non dico che questa sia la strada giusta o quella definitiva per migliorare l'IPC del set di istruzioni X86, ma è una alternativa che può essere valida al continuare a fare front-end enormi con back end che tengano il passo dell'eventuale alto numero di istruzioni eseguite in parallelo. E quando l'eventuale non c'è, rassegnarsi al numero di transistor inutilizzati che sono stati inseriti nella CPU.

Ultima modifica di CrapaDiLegno : 02-09-2025 alle 11:52.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 02-09-2025, 12:01   #14
ZeroSievert
Senior Member
 
L'Avatar di ZeroSievert
 
Iscritto dal: Dec 2023
Messaggi: 1002
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
La tecnica che vuole usare Intel in parte semplifica il front-end perché per esempio sarebbe possibile eseguire a full speed le due parti,anche molto lunghe, di un branch condizionato in maniera parallela e gettare il risultati del ramo errato. Per assurdo potrebbe essere esteso all'esecuzione completa in ulteriori core anche dei sotto-rami di questo primo bivio (una sorta di extreme speculative execution).
Già questo semplificherebbe notevolmente la gestione della branch prediction che è una delle cose più complesse che prende parecchio spazio perché oggi ogni branch miss è un disastro di cicli per resettare tutto il lavoro già fatto e ricominciare da zero ed è quello che impedisce di sfruttare pipeline lunghe un chilometro ma con frequenze altissime (Netburst docet).
Inoltre aumenterebbe notevolmente l'IPC per i motivi sopra detti: non dover dipendere da una condizione ritardataria per sapere se eseguire una strada piuttosto che un'altra è stata la cosa che ha maggiormente aumentato l'IPC al punto da dedicare una grandissima fetta del budget di transistor per continuamente migliorare la branch prediction unit.

Ripeto, non dico che questa sia la strada giusta o quella definitiva per migliorare l'IPC del set di istruzioni X86, ma è una alternativa che può essere valida al continuare a fare front-end enormi con back end che tengano il passo dell'eventuale alto numero di istruzioni eseguite in parallelo. E quando l'eventuale non c'è, rassegnarsi al numero di transistor inutilizzati che sono stati inseriti nella CPU.
Ok. Ma, da totale ignorante, l'esecuzione speculativa (eseguire tutti e due i branch di un if statement alla volta e buttare via il risultato sbagliato quando la condizione del jump e' disponibile) non e' qualcosa che viene gia' fatto dalle CPU attuali ? Poi d'accordo al 100% con te che questa tecnica potrebbe semplificare core diventati 'oversize'. E questo probabilmente ha un impatto positivo in termini di latenza, IPC, consumo e complessita' (assumendo che il costo dei canali di comunicazione non sia troppo elevato).

Comunque dall'articolo sembra che ci sia bisogno di un supporto esplicito dei compilatori per sfruttare la tecnica. Quindi, assumendo che questo sia vero, dovrebbero esserci anche delle istruzioni in piu' per fare lo scheduling esplicito di un determinato flusso di istruzioni no?

Quote:
Originariamente inviato da articolo
. Tuttavia, l'implementazione non è priva di complessità: la suddivisione e la riallocazione delle istruzioni richiedono sincronizzazione estremamente rapida e il supporto di compilatori e sistemi operativi, con sfide simili a quelle che in passato hanno frenato architetture sperimentali come Itanium.
__________________
Utenti bloccati: Tom & Jerry, zappy, giuliop, maxsin72(doppio account di zappy?)

Ultima modifica di ZeroSievert : 02-09-2025 alle 12:08.
ZeroSievert è offline   Rispondi citando il messaggio o parte di esso
Old 02-09-2025, 13:26   #15
Ripper89
Senior Member
 
L'Avatar di Ripper89
 
Iscritto dal: Dec 2020
Messaggi: 3873
Sarebbe qualcosa di clamoroso, ma ho paura che NON sarà come lo immaginiamo noi.

Sarà un software con qualche AI che ripartizionerà i carichi in modo adeguato sui vari cores tenendo conto del tipo di cores e distinguendo fra logico e fisico e nient'altro.

Il chè sarebbe comunque niente male "se funzionasse correttamente".


AMD ci provò a fare una cosa del genere via hardware durante il concept della famiglia FX che poi sappiamo come è finita, dietro front totale con parte delle componenti rimaste condivise e strada spianata verso il più grande e mai visto EPIC FAIL della storia delle CPU X86.
Ripper89 è offline   Rispondi citando il messaggio o parte di esso
Old 02-09-2025, 14:15   #16
CrapaDiLegno
Senior Member
 
L'Avatar di CrapaDiLegno
 
Iscritto dal: Jan 2011
Messaggi: 4177
Quote:
Originariamente inviato da ZeroSievert Guarda i messaggi
Ok. Ma, da totale ignorante, l'esecuzione speculativa (eseguire tutti e due i branch di un if statement alla volta e buttare via il risultato sbagliato quando la condizione del jump e' disponibile) non e' qualcosa che viene gia' fatto dalle CPU attuali ? Poi d'accordo al 100% con te che questa tecnica potrebbe semplificare core diventati 'oversize'. E questo probabilmente ha un impatto positivo in termini di latenza, IPC, consumo e complessita' (assumendo che il costo dei canali di comunicazione non sia troppo elevato).

Comunque dall'articolo sembra che ci sia bisogno di un supporto esplicito dei compilatori per sfruttare la tecnica. Quindi, assumendo che questo sia vero, dovrebbero esserci anche delle istruzioni in piu' per fare lo scheduling esplicito di un determinato flusso di istruzioni no?
No, i core di oggi non eseguono entrambi i rami della condizione, altrimenti non ci sarebbe bisogno di unità di branch prediction così complesse. Oggi i core eseguono quello che è il ramo più probabile, cioè quello che viene scelto dal branch predictor secondo una serie di criteri molto complessi che si rifanno alla storia dei branch precedenti.
Alla fine se quel ramo risulta corretto, hai fatto il giro giusto e hai zero penalità, ma se hai sbagliato allora ti ritocca ripartire dall'istruzione corretta dopo il salto condizionale e rifare tutto con perdite di cicli enormi e una drastica diminuzione dell'IPC.
Problema enorme che aveva ad esempio Netburst di Intel con pipeline lunghissime che in caso di predizione sbagliata doveva pulire una quantità enorme di istruzioni già inutilmente eseguite per tornare un sacco di istruzioni indietro.

Quote:
Originariamente inviato da Ripper89 Guarda i messaggi
AMD ci provò a fare una cosa del genere via hardware durante il concept della famiglia FX che poi sappiamo come è finita, dietro front totale con parte delle componenti rimaste condivise e strada spianata verso il più grande e mai visto EPIC FAIL della storia delle CPU X86.
L'approccio di AMD era diverso.
AMD aveva un solo front-end per core. Significa una sola area di cache, un solo decoder (anche se era a più vie) e una sola unità di dispatch.
Le due pipeline di esecuzione sparate potevano essere usate solo da due thread separati, una su una pipeline, l'altro sull'altra. Nel caso di esecuzione di un solo thread, una delle due pipeline rimaneva inusata.
Era un tentativo di ottimizzare l'uso dell'hyper threading, non di eseguire più velocemente in singolo thread. La cosa peggiore era che avevano in comune una sola pipeline floating point, che significa che due thread che lavoravano su dei dati floating point, ovvero i carichi multithread più comuni che elaborano dati, andavano in concorrenza e praticamente i due mezzi core ottenevano il throughput di un core single thread.
Secondo problema era la dipendenza della creazione di programmi multithread che ai tempi non era ancora matura a sufficienza.
Oggi il problema non si pone con la gestione di applicativi multi-thread che si risolve mettendo semplicemente quanti più core possibili (mono o SMT), ma il problema rimane per l'esecuzione dei single thread che non possono essere accelerati da un parallelismo esplicito (altra mancanza del set di istruzioni X86).

L'approccio di Intel è simile solo per il fatto di avere a disposizione due pipeline in un core SDC, ma avrebbe 2 decoder, il doppio delle unità INT/FP/AGU e due back-end in grado di scrivere i risultati in cache in maniera indipendente per i due flussi, teoricamente raddoppiando l'IPC se si potesse avere una istruzione indipendente ogni 2.
Il tutto si potrebbe fare anche in un singolo core mega super duper con le stesse tecniche usate oggi, ma il costo dei transistor non avrebbe alcun senso nel momento in cui tale parallelismo non esistesse. Spazio gettato e sappiamo quanto lo spazio sia importante soprattutto quando di vogliono integrare decine di core e non solo una manciata come al tempo di Bulldozer.
Due core snelli che possono eventualmente diventare uno solo anche solo per una frazione di tempo, permetterebbe di avere quanti più transistor attivi possibili senza penalizzare il multithread con aree del die inutilizzate quando invece potrebbero essere dei core funzionanti.

L'approccio di Intel richiede che l'OS decida quando accorpare i due core e dove l'unione avviene:
nel metodo più diretto dovrebbe rimanere fuori dal controllo dell'SDC l'accesso alla seconda cache sia in input che output visto che i dati/istruzioni/TLB e conversioni di indirizzi logici/fisici sono già nel primo core e l'unione sia proprio attivare uno switch su un bus di comunicazione tra i due front-end che passi i dati dal core 1 al 2 e sul back-end per ritornare i risultati dal core 2 all'1, con il front-end del core 1 in grado di decidere quali istruzioni inviare al core 2 e quali invece tenere in locale.
Una seconda possibilità è che si aggiunga una sorta di mini thread director a monte dei due (o più) core in modo che il front end del core1 non sia diverso da quello del core 2/3/4 e non si faccia carico di alcuna decisione di dove eseguire le istruzioni. Più complicato ma più flessibile, e lascia i core omogenei tra di loro.
Questi dovrebbero essere i metodi più compatibili e trasparenti possibile al codice già esistente, mentre se la decisione su quali istruzioni vanno eseguite su quali core è a livello SW allora c'è la possibilità che non funzioni perfettamente se non c'è un aiuto da parte del compilatore/virtual machine e che sia applicato solo se l'applicativo è compilato nella giusta maniera (quindi solo con applicativi nuovi e non quelli vecchi).
Ma sono solo tutte ipotesi. Ho il dubbio che se mai verrà implementato sarà dopo il 2030 e per quel periodo magari i compilatori già sforneranno applicativi compatibili con questa approccio.

Ultima modifica di CrapaDiLegno : 02-09-2025 alle 14:34.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 02-09-2025, 14:50   #17
Ripper89
Senior Member
 
L'Avatar di Ripper89
 
Iscritto dal: Dec 2020
Messaggi: 3873
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi

L'approccio di AMD era diverso.
AMD aveva un solo front-end per core.
FX non è dietro front all'ultimo momento come detto in precedenza.
Le peculiarità di FX erano frutto dell'approccio precedente e che non potevano essere riprogettate e quindi l'architettura che ha debuttato era di fatto un riadattato di quello che doveva essere il progetto iniziale.

Che poi anche l'appoccio orginario di FX fosse comunque differente lo sò.

FX come è stato fatto uscire era di fatto un aborto non solo in senso figurato ma anche letterale, ed AMD non ha avuto le palle di riproporre un die shrink tirato in frequenza del Phenom II X6, per poi tirare fuori successivamente una versione octa core con alcuni dei miglioramenti architetturali proposti su FX.

Ultima modifica di Ripper89 : 02-09-2025 alle 15:02.
Ripper89 è offline   Rispondi citando il messaggio o parte di esso
Old 02-09-2025, 15:09   #18
ZeroSievert
Senior Member
 
L'Avatar di ZeroSievert
 
Iscritto dal: Dec 2023
Messaggi: 1002
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
...
Grazie delle informazioni
__________________
Utenti bloccati: Tom & Jerry, zappy, giuliop, maxsin72(doppio account di zappy?)
ZeroSievert è offline   Rispondi citando il messaggio o parte di esso
Old 02-09-2025, 15:17   #19
CrapaDiLegno
Senior Member
 
L'Avatar di CrapaDiLegno
 
Iscritto dal: Jan 2011
Messaggi: 4177
Quote:
Originariamente inviato da Ripper89 Guarda i messaggi
FX non è dietro front all'ultimo momento come detto in precedenza.
Le peculiarità di FX erano frutto dell'approccio precedente e che non potevano essere riprogettate e quindi l'architettura che ha debuttato era di fatto un riadattato di quello che doveva essere il progetto iniziale.
Ci deve essere stata qualche incomprensione.
Primo non ho detto che FX (FX è il core consumer dell'architetture Bulldozer, come ora chiamiamo Ryzen quei core dell'architettura Zen) fosse un dietro front di niente. Io ho parlato di front-end e back-end che sono parti fisiche costituenti i core delle CPU.
Poi Bulldozer non era frutto di nessun approccio precedente di AMD visto che AMD aveva appena archiviato l'ottima architettura Phenom e a detta loro Bulldozer era un tentativo di aumentare il numero di core (o di unità di esecuzione se di core completi non si vuole parlare) senza far esplodere il numero di transistor che non potevano permettersi, economicamente parlando.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 02-09-2025, 15:20   #20
Ripper89
Senior Member
 
L'Avatar di Ripper89
 
Iscritto dal: Dec 2020
Messaggi: 3873
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ci deve essere stata qualche incomprensione.
Primo non ho detto che FX (FX è il core consumer dell'architetture Bulldozer, come ora chiamiamo Ryzen quei core dell'architettura Zen) fosse un dietro front di niente. Io ho parlato di front-end e back-end che sono parti fisiche costituenti i core delle CPU.
Poi Bulldozer non era frutto di nessun approccio precedente di AMD visto che AMD aveva appena archiviato l'ottima architettura Phenom e a detta loro Bulldozer era un tentativo di aumentare il numero di core (o di unità di esecuzione se di core completi non si vuole parlare) senza far esplodere il numero di transistor che non potevano permettersi, economicamente parlando.
L'architettura Bulldozer è nata come un architettura che doveva proporre l'inverso del SMT di Intel, per poi fare marcia indietro quando era già in fase avanzata dello sviluppo, quindi quello che è sbucato fuori è di fatto un ibrido frutto di un riadattamento ad un approccio opposto.

Quote:
Bulldozer era un tentativo di aumentare il numero di core (o di unità di esecuzione se di core completi non si vuole parlare) senza far esplodere il numero di transistor
FX 8150 ha 1,200 million di transistors
Phenom X6 ha 904 million di transistors

In poche parole FX8150 ha il 30% di transistors in più del Phenom X6, perfettamente compatibile con un teorico passaggio da 6 a 8 cores da parte del Phenom II, in pratica non han risparmiato proprio nulla.

L'FX è stato un fail su ogni linea.
Un Phenom II X8 con frequenze leggermente più alte del 1100T sarebbe stato sicuramente molto migliore.

Ultima modifica di Ripper89 : 02-09-2025 alle 15:29.
Ripper89 è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Due mesi di Battlefield 6: dalla campagna al battle royale, è l'FPS che stavamo aspettando Due mesi di Battlefield 6: dalla campagna al bat...
Antigravity A1: drone futuristico per riprese a 360° in 8K con qualche lacuna da colmare Antigravity A1: drone futuristico per riprese a ...
Sony Alpha 7 V, anteprima e novità della nuova 30fps, che tende la mano anche ai creator Sony Alpha 7 V, anteprima e novità della ...
realme GT 8 Pro Dream Edition: prestazioni da flagship e anima racing da F1 realme GT 8 Pro Dream Edition: prestazioni da fl...
OVHcloud Summit 2025: le novità del cloud europeo tra sovranità, IA e quantum OVHcloud Summit 2025: le novità del cloud...
Malesia, giro di vite sul mining illegal...
Meta rivede la roadmap: visore ultralegg...
Addio ricariche continue con le elettric...
Maxi sconto sul robot del futuro: roboro...
I 3 super TV OLED e QLED crollati su Ama...
Tre notebook fuori di testa in sconto: M...
Sconti iPhone su Amazon: oggi ci sono i ...
Google rende disponibile Gemini 3 Deep T...
I 3 super robot Dreame Aqua10 Roller tor...
Tornano in sconto le scope elettriche Ti...
IA nei videogiochi: anche SEGA la utiliz...
Apple in piena tempesta: anche il boss d...
Due GeForce GTX 580 in SLI: l'insospetta...
TSMC dà i numeri: dal processo N7...
La ricarica wireless dei Samsung Galaxy ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 17:40.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1