|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://www.hwupgrade.it/news/cpu/nu...ura_91360.html
In un post sul proprio blog la startup NUVIA, creata da ex ingegneri di Apple e Google, presenta alcune proiezioni comparative tra il proprio core Phoenix, ancora in via di sviluppo, e i core di altre realtà, tra cui AMD e Intel. NUVIA mostra prestazioni e consumi senza precedenti, ma è tutto troppo bello per essere vero? Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Jul 2013
Messaggi: 968
|
Vabbè ma questi non sono niente, se vi mostro i numeri della mia CPU immaginaria sono da andar fuori di testa, ho fatto anche dei benchmark nella mia testa e hanno dato +60% di prestazioni rispetto al più potente xeon.
|
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: May 2003
Città: Lucca
Messaggi: 14706
|
Pivello, ho delle slide della mia CPU turboemotional che in single core doppia il Frecciarossa Roma-Milano e ti fa il resto in bitcoin
__________________
焦爾焦 |
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: Mar 2000
Città: BO[h]
Messaggi: 4919
|
Da questo grafico si direbbe che A13 Lighting vada piu di sunny cove
|
![]() |
![]() |
![]() |
#5 |
Senior Member
Iscritto dal: Aug 2017
Messaggi: 1292
|
Secondo geekbench in single core quelle due cpu hanno prestazioni simili, sul sito sono indicati anche i punteggi nei vari sottotest, anche quelli abbastanza simili tra loro, non sembrano esserci elementi che falsano il test tipo gonfiare i risultati dell'A13 testando feature accelerate in hardware, mentre arranca nel resto
|
![]() |
![]() |
![]() |
#6 |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
geekbench = spazzatura.
Avrebbero potuto usare SPECint e SPECfp, che sono standard industriali nonché il punto di riferimento.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
![]() |
![]() |
![]() |
#7 |
Senior Member
Iscritto dal: Jan 2014
Messaggi: 3826
|
|
![]() |
![]() |
![]() |
#8 |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
LOL
![]()
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
![]() |
![]() |
![]() |
#9 | |
Senior Member
Iscritto dal: Jan 2007
Messaggi: 5992
|
Quote:
Insomma, le sparano grosse, ma mi sa che i chip che realizzeranno saranno decisamente interessanti. |
|
![]() |
![]() |
![]() |
#10 |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Stai parlando di prestazioni in multicore, però, e di prodotti diversi da questi di NUVIA, che finora non hanno mostrato niente.
Inoltre bisogna vedere quali incrementi effetti porteranno le SVE2 (le ARMv8.1, invece, sono già state introdotte da tempo).
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
![]() |
![]() |
![]() |
#11 | |
Senior Member
Iscritto dal: Jan 2007
Messaggi: 5992
|
Quote:
Ho parlato di ARMv8.1 perché é il "livello base" per realizzare sistemi con un elevato numero di core con primitive di sincronizzazione efficienti. Inoltre si è già visto che SVE va molto bene per il calcolo matriciale/vettoriale, SVE2 è la versione migliorats e permette di dimensionare le ALU vettoriali in modo più flessibile visto che lo stesso codice sviluppato per una implementazione con ALU vettoriali a 256bit riesce a sfruttare al massimo (senza ricompilare) anche un implementazione con ALU a 128bit come pure una a 512bit o più. Dei tizi di NUVIA si sa che conoscono bene il loro mestiere e si sa cosa hanno contribuito a realizzare. Infine ho tirato in ballo le prestazioni multicore perché inevitabilmente saranno proposti in configurazioni multicore e Graviton2 è un implementazione già disponibile di cui si possono vedere le prestazioni reali. |
|
![]() |
![]() |
![]() |
#12 |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Sì, ma quanti server utilizzano le istruzioni SIMD? Purtroppo ben pochi, visto che per lo più si affidano a codice intero/scalare, ed eventualmente in virgola mobile.
I processori di NUVIA non sono destinati a HPC (dove le SIMD sono molto usate), ma a server, e quindi mi aspetto benchmark con questo tipo di applicazioni. Ovviamente nei server sono importanti anche le prestazioni multicore, ma sarebbe interessante analizzare sistemi a parità di core.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
![]() |
![]() |
![]() |
#13 | |
Senior Member
Iscritto dal: Jan 2007
Messaggi: 5992
|
Quote:
Considerando quanto siano diffuse le architetture con estensioni SIMD anche su x86, non mi stupirei se anche software "scalare" non si avvantaggi di esse per avere dei registri in più visibili al programmatore e per certi tipi di elaborazioni che si prestano bene ad essere ottimizzate, ad esempio: - Confronto di stringhe usando SSE4.2 - Ricerca di sottostringhe - Quicksort con AVX512 - Conversione da intero a rappresentazione decimale in ascii (in questo caso solo branchlut riesce a competere ... fino ad un certo punto) - Codifica base64 (usata ad es. per codificare file binari nelle email) Il problema è che se a parità di tecnologia, costo e budget energetico puoi realizzare una cpu A con 64 core ed una cpu B con 8 core, il confronto non sarebbe proprio uguale se lo si fa a parità di core. |
|
![]() |
![]() |
![]() |
#14 | |||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
Quote:
Comunque, e come dicevo, quelli elencati sono casi "da manuale". Purtroppo il codice SIMD non è così diffuso. La situazione migliorerà sicuramente in futuro, ma è un lento progresso. Quote:
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
|||
![]() |
![]() |
![]() |
#15 | |||
Senior Member
Iscritto dal: Jan 2007
Messaggi: 5992
|
Quote:
Uno dei vantaggi è che questo elimina alla radice il problema del dover modificare i sorgenti e/o ricompilare per sfruttare le "nuove istruzioni" (codice SIMD per SSE che poi va riscritto/aggiornato per SSE2, AVX, AVX-512, ecc.). E da molta più liberta nella realizzazione di soluzioni big-LITTLE non come l'accrocchio che ha fatto Intel con core "big" con AVX-512 e core "little" con AVX2. Quote:
Quote:
![]() |
|||
![]() |
![]() |
![]() |
#16 | ||||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
Quote:
Quote:
![]() Quote:
Ma ciò che i promotori di quest'ultimo non dicono è che non è sempre possibile trattare lo stream di dati in maniera omogenea, cioè come una sequenza di dimensione variabile. Infatti ci sono tipologie di codice dove è necessario manipolare vettori a dimensione fissa. Ti passo un link a un articolo dell'evangelizzatore di RISC-V e del paradigma "vector", David Patterson, il cui titolo è già tutto un programma: SIMD Instructions Considered Harmful. ![]() Ma la parte più interessanti sono i commenti, dove alcuni intervengono contestando il pezzo per alcune cose, fra cui qualcuno facendo esempi che ricadono in quello che ho detto sopra, e come puoi vedere "stranamente" il prof. Patterson non interviene. ![]() Peraltro sempre il suddetto prof. i confronti con x86 li ha vergognosamente fatti soltanto col codice a 32 bit, "ignorando" quello a 64 bit che consente di ridurre il numero di istruzioni eseguite, come gli hanno fatto notare nei commenti. Dulcis in fundo, non ha nemmeno messo un esempio con AVX-512 che, pur necessitando di codice di "fringing", risolve il problema in maniera di gran lunga più elegante (rispetto a tutte le altre estensioni SIMD classiche) nonché efficiente. E poi, vabbé, non ha nemmeno citato le SVE di ARM, che sono anch'esse estensioni "vettoriali", e dunque dirette concorrenti del suo amato RISC-V... Quindi, sì, il paradigma vector è certamente molto utile in tanti casi, anche molto comuni, ma non rappresenta affatto la soluzione finale al problema del massiccio processamento dei dati usando unità di calcolo parallele. Infatti nella mia architettura ho previsto l'esecuzione contemporanea/mista di codice SIMD tradizionale (SSE, AVX-/2, AVX-512, e una futura AVX-1024) con codice "vettoriale" (rimuovendo il supporto alle MMX e rimpiazzandolo con quello "vector"), quindi dando massima libertà agli sviluppatori e ai compilatori di decidere come meglio organizzare il codice. Il tutto usando esattamente le stesse istruzioni (la mia ISA è totalmente ortogonale: la stessa istruzione può lavorare indifferentemente con una delle citate estensioni). E aggiungo anche i vantaggi di usare pure tutte le caratteristiche addizionali previste dalla mia ISA per qualunque istruzione. In particolare, nello specifico: - modalità d'indirizzamento di pre-post/inc-decremento --> rimozione delle istruzioni di "aggiustamento" dei puntatori; - caricamento & broadcasting di valori immediati come seconda/terza "sorgente" --> rimozione delle apposite istruzioni di load & broadcast; - possibilità di evitare di inquinare le cache con alcuni dati --> rimozione delle apposite istruzioni che "marcano" delle zone di memoria come "non-cachable/evict"; e... tanto altro ancora.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
||||
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 14:18.