Torna indietro   Hardware Upgrade Forum > Componenti Hardware > Processori

Sony WF-1000X M6: le cuffie in-ear di riferimento migliorano ancora
Sony WF-1000X M6: le cuffie in-ear di riferimento migliorano ancora
WF-1000X M6 è la sesta generazione di auricolare in-ear sviluppata da Sony, un prodotto che punta a coniugare facilità di utilizzo con una elevata qualità di riproduzione dei contenuti audio e una cura nella riduzione del rumore ambientale che sia da riferimento
Snowflake porta l'IA dove sono i dati, anche grazie a un accordo con OpenAI
Snowflake porta l'IA dove sono i dati, anche grazie a un accordo con OpenAI
Snowflake ha presentato diverse novità per la sua piattaforma legate all'intelligenza artificiale. Quella forse più eclatante è una collaborazione con OpenAI, ma non mancano diverse nuove funzionalità che rendono la piattaforma più flessibile e in grado di rispondere meglio alle esigenze in continuo cambiamento delle aziende
Sistema Mesh Roamii BE Pro: il Wi-Fi 7 secondo MSI
Sistema Mesh Roamii BE Pro: il Wi-Fi 7 secondo MSI
Con velocità teoriche fino a 11 Gbps, gestione tramite app intelligente e protezione avanzata dei dispositivi, Roamii BE Pro porta il Wi‑Fi 7 tri‑band nelle abitazioni più esigenti. Un sistema Wi-Fi Mesh proposto da MSI allo scopo di garantire agli utenti una rete fluida e continua capace di sostenere streaming 8K, gaming competitivo e le applicazioni moderne più esigenti in termini di banda
Tutti gli articoli Tutte le news

Vai al Forum
Discussione Chiusa
 
Strumenti
Old 01-03-2016, 21:45   #641
Grizlod®
Senior Member
 
L'Avatar di Grizlod®
 
Iscritto dal: Apr 2011
Città: Funky Town
Messaggi: 3396
Quote:
Originariamente inviato da Free Gordon Guarda i messaggi
Ora tutto sta nel vedere se riescono ad uscire a ottobre 2016...

I 10nm di Intel per quando sono previsti?
Io sono realisticamente fiducioso, se hanno detto 2016, sarà quest'anno.

Se poi non ricordo male, c'erano rumors dove prevedevano prima l'uscita per desktop e successivamente (2017) per server.
__________________
.........
Grizlod® è offline  
Old 02-03-2016, 07:38   #642
bjt2
Senior Member
 
L'Avatar di bjt2
 
Iscritto dal: Apr 2005
Città: Napoli
Messaggi: 6817
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
Facevo appunto riferimento alla seconda opzione, e non mi pare questa gran genialata. . Meglio rendere capaci di eseguire le FADD, gli costa meno silicio (IMHO).
D'altra parte abbiamo avuto informazioni mancanti, lacunose e aberranti. Vuoi vedere che sono quattro FMAC, come ce li immaginavamo fin dall'inizio.
4 FMAC improbabile, perchè il moltiplicatore costa molta area, ma non si sa mai... Perchè poi si semplifica il decoder e lo scheduler se le unità sono tutte quante uguali, vedi le GPU...

Quello che dici tu è la prima opzione che ho menzionato... Cosa credi che siano le MOP? Sono solo delle istruzioni come le x86, ma a lunghezza fissa e con campi predeterminati e formattati... Se per esempio la FMAC è codificata con il codice x, la FADD potrebbe essere codificata con il codice y e l'unità FMAC saprà che con il codice y deve ignorare il moltiplicando che sta su un bus predeterminato ed usare la costante predefinita 1.0f (1 in floating point) a 32 bit o 64 bit a seconda se la FADD è a 32 o 64 bit (e avranno 2 codici diversi ovviamente)...
__________________
0 A.D. React OS
La vita è troppo bella per rovinarsela per i piccoli problemi quotidiani...
IL MIO PROFILO SOUNDCLOUD! IL MIO CANALE YOUTUBE! IL MIO PLUGIN VST PROGRAMMABILE!
bjt2 è offline  
Old 02-03-2016, 12:48   #643
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4387
Quote:
Originariamente inviato da bjt2 Guarda i messaggi
Quello che dici tu è la prima opzione che ho menzionato...
NO, mi riferivo alla seconda opzione che utilizza un registro speciale, che rende del tutto inconsapevole l'unità FMAC. Nella prima opzione dovresti comunque mettere mano alla FMAC, per riconoscere una nuova istruzione.

Credo che l'opzione sia o rendere compatibile FADD la FMAC, o non renderla capace affatto. I rumors tendono per questa seconda ipotesi, ma erano gli stessi che dicevano che non esistevano unità FMAC e che la P3 era indispensabile per l'esecuzione di questo tipo di istruzioni..Questa era l'ipotesi più accreditata fino ad un paio di giorni fa....ed era la ragione principale per cui ho rivisto assai al ribasso l'aumento di ipc...

NNon dimentichiamo che non utilizzare la FMAC per le semplici FADD permette anche un maggior risparmio energetico. Quindi boh...

Quote:
Originariamente inviato da bjt2 Guarda i messaggi
4 FMAC improbabile, perchè il moltiplicatore costa molta area, ma non si sa mai...
Siamo passati da una 1MUL+2ADD (devo controllare, ma sono sicuro al 90% che era così) ad una 2FMAC+2ADD, di questo passo davvero ci sono 4 FMAC: non si sa mai....

PS è vero che le FMUL costano tanto in termini di transistor, ma le pipeline sono ampie solo 128bit, e Intel ne ha 2 ma da 256 bit. Tutto può essere....

OMG. Ho detto tutto e il contrario di tutto. Ho senz'altro ragione
tuttodigitale è offline  
Old 02-03-2016, 15:52   #644
bjt2
Senior Member
 
L'Avatar di bjt2
 
Iscritto dal: Apr 2005
Città: Napoli
Messaggi: 6817
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
PS è vero che le FMUL costano tanto in termini di transistor, ma le pipeline sono ampie solo 128bit, e Intel ne ha 2 ma da 256 bit. Tutto può essere....

OMG. Ho detto tutto e il contrario di tutto. Ho senz'altro ragione
Effettivamente non ci avevo pensato... A 28nm magari il core veniva troppo grande... Ma a 14nm, visto che i core saranno sempre 8 (anche se erano 4 moduli, ma vabeh) e la densità è praticamente quasi doppia...

Facciamo i conti: 28nm -> 8 core, 4 moduli (escludiamo GPU o L3 a seconda dei modelli). Ogni modulo sono 4 ALU, 4 AGU, 2 FMAC 128b, 2 MMX 128b, 4 decoder, 96KB+32KB cache L1, 2MB cache L2, quindi:

4 Moduli Excavator, escludendo L3 o GPU hanno:
16 ALU, 16 AGU, 8 FMAC, 8 MMX, 16 decoder, circa 8MB tra L1 e L2.

Tutto questo a 28nm.

8 core ZEN richiedono:
8x4=32 ALU
8x2=16 AGU
8x2=16 FMAC
8x2=16 FADD
8x4=32 decoder
8x64+64=1MB di cache L1
8x512=4MB di cache L2

Tutto questo a 14nm. Supponendo una densità doppia del 14nm, questo può richiedere meno area di excavator perchè è come se avessimo la stessa area di 4 core Zen implementati però a 28nm. Avremmo stesse ALU, decoder, FMAC e FADD/MMX, la metà delle AGU e un quarto della cache L2! Avremmo anche spazio per core più complessi! E infatti c'è la cache L0, checkpointing, supporto SMT e chissà cos'altro... Probabilmente c'è lo spazio per fare nella stessa area delle FPU più potenti...

Se vediamo INTEL a 14nm per il desktop ha 4 core+GPU dove i core hanno FMAC a 256 bit... Quindi c'è spazio per fare 4 FMAC.

Resto del parere che in un modo o nell'altro le 2 FMAC sono sicuramente usate anche per le FADD... Avevo letto da qualche parte che le prestazioni di picco erano attestate a 4 FADD, tanto che era sorto il dubbio che a regime non si riusciva a tenerle tutte occupate perchè la lettura da memoria può fare solo 2 parole da 128 bit per ciclo...
__________________
0 A.D. React OS
La vita è troppo bella per rovinarsela per i piccoli problemi quotidiani...
IL MIO PROFILO SOUNDCLOUD! IL MIO CANALE YOUTUBE! IL MIO PLUGIN VST PROGRAMMABILE!
bjt2 è offline  
Old 02-03-2016, 16:53   #645
Ren
Senior Member
 
L'Avatar di Ren
 
Iscritto dal: Apr 2003
Città: Roma
Messaggi: 3237
Quote:
Originariamente inviato da Free Gordon Guarda i messaggi
Ora tutto sta nel vedere se riescono ad uscire a ottobre 2016...

I 10nm di Intel per quando sono previsti?
La prima ad uscire con i 10nm sarà Samsung.

I 14nm di intel sono quasi mezzo nodo avanti, usano airgap(nelle interconnessioni) ed hanno tre gate contro i due dei concorrenti.

E' probabile che intel integri tecnologie previste per i 7nm (III-V, QWFET), nei suoi 10nm.

Ultima modifica di Ren : 02-03-2016 alle 17:20.
Ren è offline  
Old 02-03-2016, 17:25   #646
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4387
Quote:
Originariamente inviato da bjt2 Guarda i messaggi
Facciamo i conti:
se non ti dispiace ti dò una mano. Probabilmente ti riferisci a PD.
Quote:
Originariamente inviato da bjt2 Guarda i messaggi
4 Moduli Excavator, escludendo L3 o GPU hanno:
16 ALU, 16 AGU, 8 FMAC, 4 MMX, 32 decoder, circa 4MB tra L1 e L2.
FIXED
ogni modulo excavator/steamroller ha 8 decoder, 4 per ogni core e 1 unità MMX. In excavator hanno dimezzato la cache l2.

Da notare che nello spazio di 2 moduli steamroller con l2 da 2 MB ce ne vanno quasi 3 di excavator con l2 da 1MB, sempre su 28nm.

Con l'uso dellle HDL, la dimensione del modulo excavator, privo della l2, è di soli 14mmq, che passando ai finfet sarebbero circa 7mmq e altri 3 per la cache l2 da 1MB. Se la memoria non mi tradisce, un modulo+l2 bulldozer era grande poco più di 30mmq...Potrebbero in teoria triplicare TUTTE le risorse e avere dimensioni accettabili...

Quote:
Originariamente inviato da bjt2 Guarda i messaggi
. Supponendo una densità doppia del 14nm, questo può richiedere meno area di excavator perchè è come se avessimo la stessa area di 4 core Zen implementati però a 28nm.
Come detto, a più riprese i 14nm e i 16nm, sono solo nomi commerciali. La prima è stata Intel, per dare risalto alle migliorie offerte dal tri-gate, commercializzando un PP da 26nm come un 22nm.
A dispetto del nome, ad oggi siamo a conoscenza del fatto che i 14nm lpe (non so cosa cambi dal lpp a livello di integrazione) permette un aumento di densità dei transistor (transistor/mmq) "solo" del 2,1x rispetto ai 28nm TSMC, a dispetto dei 4 teorici.
Tuttavia è stato ridotto il consumo in misura maggiore, e questo dovrebbe aiutare le CPU che usano le HDL e/o che hanno una bella propensione a viaggiare ad alta frequenza..

Rispetto ai 32nm, siamo a 2,5x.

abbiamo quindi:
SUPER CORE by tuttodigitale
cpu 8 core

caratteristiche del singolo core
12 decoder
6 ALU
6AGU,
3 FMAC
1,5MB

è strasotto, in tutto le parti, ergo, AMD per pareggiare le dimensioni di un modulo di BD, deve infarcire di elementi la CPU. Credo di non rischiare niente se dico che il core ZEN sarà più piccolo di un modulo SR e PD.

Ultima modifica di tuttodigitale : 02-03-2016 alle 17:38.
tuttodigitale è offline  
Old 02-03-2016, 18:00   #647
digieffe
Senior Member
 
L'Avatar di digieffe
 
Iscritto dal: Oct 2003
Città: Milano
Messaggi: 4080
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
se non ti dispiace ti dò una mano. Probabilmente ti riferisci a PD.

FIXED
ogni modulo excavator/steamroller ha 8 decoder, 4 per ogni core e 1 unità MMX. In excavator hanno dimezzato la cache l2.

Da notare che nello spazio di 2 moduli steamroller con l2 da 2 MB ce ne vanno quasi 3 di excavator con l2 da 1MB, sempre su 28nm.

Con l'uso dellle HDL, la dimensione del modulo excavator, privo della l2, è di soli 14mmq, che passando ai finfet sarebbero circa 7mmq e altri 3 per la cache l2 da 1MB. Se la memoria non mi tradisce, un modulo+l2 bulldozer era grande poco più di 30mmq...Potrebbero in teoria triplicare TUTTE le risorse e avere dimensioni accettabili...


Come detto, a più riprese i 14nm e i 16nm, sono solo nomi commerciali. La prima è stata Intel, per dare risalto alle migliorie offerte dal tri-gate, commercializzando un PP da 26nm come un 22nm.
A dispetto del nome, ad oggi siamo a conoscenza del fatto che i 14nm lpe (non so cosa cambi dal lpp a livello di integrazione) permette un aumento di densità dei transistor (transistor/mmq) "solo" del 2,1x rispetto ai 28nm TSMC, a dispetto dei 4 teorici.
Tuttavia è stato ridotto il consumo in misura maggiore, e questo dovrebbe aiutare le CPU che usano le HDL e/o che hanno una bella propensione a viaggiare ad alta frequenza..

Rispetto ai 32nm, siamo a 2,5x.

abbiamo quindi:
SUPER CORE by tuttodigitale
cpu 8 core

caratteristiche del singolo core
12 decoder
6 ALU
6AGU,
3 FMAC
1,5MB

è strasotto, in tutto le parti, ergo, AMD per pareggiare le dimensioni di un modulo di BD, deve infarcire di elementi la CPU. Credo di non rischiare niente se dico che il core ZEN sarà più piccolo di un modulo SR e PD.
12 decoder per core?
digieffe è offline  
Old 02-03-2016, 18:34   #648
bjt2
Senior Member
 
L'Avatar di bjt2
 
Iscritto dal: Apr 2005
Città: Napoli
Messaggi: 6817
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
se non ti dispiace ti dò una mano. Probabilmente ti riferisci a PD.

FIXED
ogni modulo excavator/steamroller ha 8 decoder, 4 per ogni core e 1 unità MMX. In excavator hanno dimezzato la cache l2.

Da notare che nello spazio di 2 moduli steamroller con l2 da 2 MB ce ne vanno quasi 3 di excavator con l2 da 1MB, sempre su 28nm.

Con l'uso dellle HDL, la dimensione del modulo excavator, privo della l2, è di soli 14mmq, che passando ai finfet sarebbero circa 7mmq e altri 3 per la cache l2 da 1MB. Se la memoria non mi tradisce, un modulo+l2 bulldozer era grande poco più di 30mmq...Potrebbero in teoria triplicare TUTTE le risorse e avere dimensioni accettabili...


Come detto, a più riprese i 14nm e i 16nm, sono solo nomi commerciali. La prima è stata Intel, per dare risalto alle migliorie offerte dal tri-gate, commercializzando un PP da 26nm come un 22nm.
A dispetto del nome, ad oggi siamo a conoscenza del fatto che i 14nm lpe (non so cosa cambi dal lpp a livello di integrazione) permette un aumento di densità dei transistor (transistor/mmq) "solo" del 2,1x rispetto ai 28nm TSMC, a dispetto dei 4 teorici.
Tuttavia è stato ridotto il consumo in misura maggiore, e questo dovrebbe aiutare le CPU che usano le HDL e/o che hanno una bella propensione a viaggiare ad alta frequenza..

Rispetto ai 32nm, siamo a 2,5x.

abbiamo quindi:
SUPER CORE by tuttodigitale
cpu 8 core

caratteristiche del singolo core
12 decoder
6 ALU
6AGU,
3 FMAC
1,5MB

è strasotto, in tutto le parti, ergo, AMD per pareggiare le dimensioni di un modulo di BD, deve infarcire di elementi la CPU. Credo di non rischiare niente se dico che il core ZEN sarà più piccolo di un modulo SR e PD.
Hai ragione sui decoder...
Anche sul 14nm sapevo che lo scaling non era 4x... Stavo facendo conti a spanne... Per la L2 non ricordavo che l'avessero dimezzata in XV... E nonostante questo dalle prove preliminari sembra abbia un IPC bello alto! Sarà forse per il nuovo branch predicition di Jaguar? O la L1I da 96KB?

Quote:
Originariamente inviato da digieffe Guarda i messaggi
12 decoder per core?
Sta triplicando le risorse per avere la stessa area di XV a 28nm.
__________________
0 A.D. React OS
La vita è troppo bella per rovinarsela per i piccoli problemi quotidiani...
IL MIO PROFILO SOUNDCLOUD! IL MIO CANALE YOUTUBE! IL MIO PLUGIN VST PROGRAMMABILE!
bjt2 è offline  
Old 02-03-2016, 19:43   #649
Ren
Senior Member
 
L'Avatar di Ren
 
Iscritto dal: Apr 2003
Città: Roma
Messaggi: 3237
Quote:
Originariamente inviato da bjt2 Guarda i messaggi
Hai ragione sui decoder...
Anche sul 14nm sapevo che lo scaling non era 4x... Stavo facendo conti a spanne... Per la L2 non ricordavo che l'avessero dimezzata in XV... E nonostante questo dalle prove preliminari sembra abbia un IPC bello alto! Sarà forse per il nuovo branch predicition di Jaguar? O la L1I da 96KB
Su excavator hanno modificato anche la L1D, adesso è da 32KB.
Credo che anche la latenza della L2 sia un tantino diversa.
Ren è offline  
Old 02-03-2016, 19:47   #650
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4387
Quote:
Originariamente inviato da bjt2 Guarda i messaggi
O la L1I da 96KB?
La L1I da 96KB, ce l'ha anche steamroller. E' la L1D, che ha raddoppiato di dimensioni passando da 16 a 32KB.
La cache l2 ha mantenuto la stessa associatività dei predecessori e pare che abbia subito una drastica riduzione delle latenze.

EDIT
ho scritto le stesse cose. Quanto sono letto a scrivere con il telefono

Ultima modifica di tuttodigitale : 02-03-2016 alle 19:49.
tuttodigitale è offline  
Old 02-03-2016, 19:50   #651
Ren
Senior Member
 
L'Avatar di Ren
 
Iscritto dal: Apr 2003
Città: Roma
Messaggi: 3237
Dai ti aiuto(copione). Hanno anche aumentato il branch target L1 del 50% (768e 3way)
Ren è offline  
Old 02-03-2016, 20:56   #652
bjt2
Senior Member
 
L'Avatar di bjt2
 
Iscritto dal: Apr 2005
Città: Napoli
Messaggi: 6817
Ma da prove con i primi XV desktop sembra che in cinebench si sia guadagnato anche 10% di IPC... Penso che la branch predicition di jaguar per caso sia stata fenomenale... Daltronde il team era probabilmente diverso come ai tempi di Merom/Conroe e Precotto in Intel... Poi sappiamo chi è stato fanculizzato e chi no...
__________________
0 A.D. React OS
La vita è troppo bella per rovinarsela per i piccoli problemi quotidiani...
IL MIO PROFILO SOUNDCLOUD! IL MIO CANALE YOUTUBE! IL MIO PLUGIN VST PROGRAMMABILE!
bjt2 è offline  
Old 03-03-2016, 01:46   #653
Free Gordon
Senior Member
 
L'Avatar di Free Gordon
 
Iscritto dal: Mar 2004
Città: Eporedia
Messaggi: 13454
Puma è identico a livello di architettura?

A parte le migliorie legate al processo produttivo, minor leakage ecc..
__________________
AMD Ryzen 1700 - Asrock B450 GAMING-ITX/AC - G-Skill RipjawsV 2X8GB 2660mhz - Sapphire Pulse RX 570 ITX - Crucial MX500 m.2 - Corsair Vengeance 500W - Sharkoon Shark Zone C10 Mini ITX
Free Gordon è offline  
Old 03-03-2016, 07:22   #654
bjt2
Senior Member
 
L'Avatar di bjt2
 
Iscritto dal: Apr 2005
Città: Napoli
Messaggi: 6817
Quote:
Originariamente inviato da Free Gordon Guarda i messaggi
Puma è identico a livello di architettura?

A parte le migliorie legate al processo produttivo, minor leakage ecc..
Mi pare di no. Sicuramente Bobcat era con unità a 64 bit e quindi non supportava le AVX a 256 bit, mentre Jaguar ha unità a 128 bit. Puma mi sfugge al momento...
__________________
0 A.D. React OS
La vita è troppo bella per rovinarsela per i piccoli problemi quotidiani...
IL MIO PROFILO SOUNDCLOUD! IL MIO CANALE YOUTUBE! IL MIO PLUGIN VST PROGRAMMABILE!
bjt2 è offline  
Old 03-03-2016, 10:48   #655
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4387
Quote:
Originariamente inviato da digieffe Guarda i messaggi
12 decoder per core?
come ha detto bjt2
Quote:
Originariamente inviato da bjt2 Guarda i messaggi
Sta triplicando le risorse per avere la stessa area di XV a 28nm.
Mi rendo conto che è un poco oscuro il mio post. Cerco di renderlo più chiaro.
Abbiamo calcolato il gap, a livello di dimensioni tra un modulo+L2 excavator sui 14nm e un modulo+L2 piledriver.

Per fare ciò abbiamo preso le misure di excavator su 28nm, valori indicativi:

Excavator@28nm: 14,8mmq (2core) +6mmq (cache l2 da 1MB)
e abbiamo diviso per 2,1, che è il guadagno in termini di densità areale dei 14nm sui 28nm (di fatto sono dei 20nm...)

otteniamo questo:
Excavator@die shrink a 14nm: 7mmq (2core)+ 3mmq (cache l2 da 1MB)

per confronto abbiamo preso PD
Piledriver@32nm:19,2mmq+12mmq (cache l2 da 2MB)

Tra i due c'è una differenza di 3x, ovvero un ipotetico modulo XV sui 14nm occuperebbe un'area 3 volte inferiore a quella di PD sui 32nm.
A questo punto, abbiamo ipotizzato, che finchè si rimane nelle dimensioni del vecchio PD, le dimensioni di un core sono per così dire accettabili.
Viene da sè, che se i core rimangono 8, ZEN con annessa L2, può avere una complessità circuitale 3 volte superiore al singolo core.

Per questa ragione ho moltiplicato le risorse del singolo core per 3. Il fatto che sia usciti numeri fuori dal mondo, ci dice che in realtà un core ZEN sarà decisamente più piccolo di un core PD.
Addirittura, anche la l3, dovrebbe subire una minima riduzione delle dimensioni, nonostante si passi da 8 a 16MB..

Le caratteristiche attuali grossolanamente portano a questi risultati:
1core XV------- -vs------- 1 core ZEN
4decoder-----------------4decoder (uguale)
1 INT-vs------------------2x1 scheduler INT (+100%)
2ALU---------------------4ALU (+100%, ma dubito assai che sia tutte in grado di eseguire le MUL/ADD, è più vero simile un +40%)
2AGU---------------------2AGU (uguale)

FPU (valori di XV da dividere per 2)
2x1 scheduler FP--vs------2x1 scheduler (indentico, ma sono 1 per core, +100%)
2 FMAC-----------vs-------2FMAC (uguale. +100%)
1MMX-------------vs-------2FADD (facciamo +500%, ma ricordiamo che sono unità relativamente piccole)

cache L2 per core
512KB------------vs--------512KB (indentico, ma credo che si passi al 8T SRAM, quindi +33%)

di gran lunga inferiore al 3x calcolato su. Credo che un core ZEN abbia più o meno la stessa complessità di un modulo XV.
Quote:
Originariamente inviato da bjt2 Guarda i messaggi
Cosa credi che siano le MOP? Sono solo delle istruzioni come le x86, ma a lunghezza fissa e con campi predeterminati e formattati...
ho fatto un intero post sulle uop e MOP, e mi pare che abbia anche scritto che le uop di Intel, e quindi a maggior ragione le MOP di AMD, sono in grado di eseguire codice CISC pur presentando una formattazione "razionale".

tuttodigitale è offline  
Old 03-03-2016, 11:55   #656
bjt2
Senior Member
 
L'Avatar di bjt2
 
Iscritto dal: Apr 2005
Città: Napoli
Messaggi: 6817
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
ho fatto un intero post sulle uop e MOP, e mi pare che abbia anche scritto che le uop di Intel, e quindi a maggior ragione le MOP di AMD, sono in grado di eseguire codice CISC pur presentando una formattazione "razionale".

A rigore le istruzioni CISC possono fare operazioni complesse come seno, coseno, operazioni read/modify/write complesse, lock, istruzioni di sistema. Le MOP AMD, e a maggior ragione le uop INTEL no.
Le uop INTEL seguono la filosofia RISC. Anche le uop AMD, ma AMD raggruppa le uop in MOP. Quindi le MOP AMD sono una sorta di CISC perchè uniscono più uop RISC, ma non arrivano alla complessità necessaria per fare tutte le operazioni con una sola MOP: il set x86 è sterminato e pieno di istruzioni complesse e astruse. Per definire un set di istruzioni CISC, molti sostengono che debba essere microcodificato e le MOP non lo sono. Semplicemente sono un raggruppamento fisso di più uop e quindi sono paragonabili a una singola uop molto estesa. E sono anche decodificate: una istruzione può avere un codice numerico come opcode, che non significa nulla. Invece una uop, e quindi le MOP, hanno il "codice" che descrive l'operazione che non è un codice, ma una sequenza di bit, di cui pochi a 1 e moltissimi a zero, dove ogni bit accende o spegne particolari unità e bus di una pipeline. Ad esempio: se ipotizzo che FADD è codificato con x, FMUL con y e FMAC con z, una ipotetica MOP avrà dei bit a 1 per attivare i bus di ingresso e uscita, dei bit a 1 per l'ADD e/o MUL (per la FMAC), ecc...
__________________
0 A.D. React OS
La vita è troppo bella per rovinarsela per i piccoli problemi quotidiani...
IL MIO PROFILO SOUNDCLOUD! IL MIO CANALE YOUTUBE! IL MIO PLUGIN VST PROGRAMMABILE!
bjt2 è offline  
Old 03-03-2016, 13:35   #657
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4387
Tra le complex micro-ops di intel e le MOP di AMD, non esistono sulla carta, sostanziali differenze, se nonchè l'architettura Intel non è in grado di sfornarne più di una per ciclo.

Non sono tenuto a conoscere la definizione di questi "molti" sul CISC, mi basta che gli ingegneri di Intel concordano che le micro-ops Fusion di fatto abilitano la CPU all'esecuzione di codice CISC.
Anche perchè diverse architetture, anche all'interno della stessa famiglia, hanno le uops di diversa potenza, e pertanto istruzioni simili, possono essere o non essere microcodificate...

Non so per quale ragione, lei abbia esteso l'esecuzione di alcune semplici istruzioni CISC, da parte delle uops che hanno una dimensione di 236 bit, all'intero set di istruzioni x86 ....

Non devi dimostrarmi che sei competente, ho già avuto modo di constatarlo anni fa.


Ultima modifica di tuttodigitale : 03-03-2016 alle 13:46.
tuttodigitale è offline  
Old 03-03-2016, 13:45   #658
bjt2
Senior Member
 
L'Avatar di bjt2
 
Iscritto dal: Apr 2005
Città: Napoli
Messaggi: 6817
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
Tra le complex micro-ops di intel e le MOP di AMD, non esistono sulla carta, sostanziali differenze, se nonchè l'architettura Intel non è in grado di sfornarne più di una per ciclo.

Non sono tenuto a conoscere la definizione di questi "molti" sul CISC, mi basta che gli ingegneri di Intel concordano che le micro-ops Fusion di fatto abilitano la CPU all'esecuzione di codice CISC.
Anche perchè diverse architetture, anche all'interno della stessa famiglia, hanno le uops di diversa potenza, e pertanto istruzioni simili, possono essere o non essere microcodificate...

Non so per quale ragione, TU hai esteso l'esecuzione di alcune istruzioni CISC, da parte delle uops che hanno una dimensione di 236 bit, all'intero set di istruzioni x86 che è si limitato a 15byte, ma con una formattazione dei diversi campi irregolare, finalizzata alla riduzione delle dimensioni (Spesso nelle micro-op ci sono interi campi inutilizzati, o con il numero di bit eccessivi).

Non devi dimostrarmi che sei competente, ho già avuto modo di constatarlo anni fa.

Vabeh, molte istruzioni CISC sono semplici e si traducono in 1 MOP o addirittura in una uop, ma la definizione più accettata per distinguere RISC da CISC è che le RISC sono istruzioni che agiscono SOLO su registri e le uniche istruzioni abilitate ad accedere alla memoria sono le load e store e le uop INTEL e le MOP AMD da questo punto di vista sono istruzioni RISC, perchè SOLO le uop/MOP che accedono alle LSU possono accedere alla memoria: le altre uop/MOP hanno 0/1/2/3 registri in ingresso e 1/2 in uscita... Resta il fatto che le MOP sono più potenti delle uop...

BTW ho letto il PDF della stack cache... Se usano la strategia di cache separata per lo stack, oltre al risparmio energetico, e quindi potenziale turbo maggiore, si ha anche una cache effettiva di dimensione superiore, perchè tutta la cache dati è usata per i soli dati e non è "mangiata" dallo stack che è nella cache a parte... MOOOLTO interessante...

http://research.cs.wisc.edu/multifac...tack_cache.pdf
__________________
0 A.D. React OS
La vita è troppo bella per rovinarsela per i piccoli problemi quotidiani...
IL MIO PROFILO SOUNDCLOUD! IL MIO CANALE YOUTUBE! IL MIO PLUGIN VST PROGRAMMABILE!
bjt2 è offline  
Old 03-03-2016, 15:13   #659
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4387
Quote:
Originariamente inviato da bjt2 Guarda i messaggi
ma la definizione più accettata per distinguere RISC da CISC è che le RISC sono istruzioni che agiscono SOLO su registri
che poi è la definizione che insegnano a scuola per distinguere le 2 grandi famiglie. Ma le micro-ops di Intel sono in grado di eseguire operazioni memory to register, inevitabile conseguenza quando si fondono due micro-ops.
Non volgio dire che io abbia ragione, ma si ho ragione

il link, è molto interessante.

Ultima modifica di tuttodigitale : 03-03-2016 alle 15:21.
tuttodigitale è offline  
Old 03-03-2016, 18:13   #660
stefanonweb
Senior Member
 
L'Avatar di stefanonweb
 
Iscritto dal: Dec 2005
Città: Ibiza - Malta - Udine
Messaggi: 6420
Scusate la domanda banale, ma il socket FM2+ che fine dovrebbe fare? Grazie.
__________________
PC: "Che te lo dico a fare"
stefanonweb è offline  
 Discussione Chiusa


Sony WF-1000X M6: le cuffie in-ear di riferimento migliorano ancora Sony WF-1000X M6: le cuffie in-ear di riferiment...
Snowflake porta l'IA dove sono i dati, anche grazie a un accordo con OpenAI Snowflake porta l'IA dove sono i dati, anche gra...
Sistema Mesh Roamii BE Pro: il Wi-Fi 7 secondo MSI Sistema Mesh Roamii BE Pro: il Wi-Fi 7 secondo M...
Recensione HUAWEI Mate X7: un foldable ottimo, ma restano i soliti problemi Recensione HUAWEI Mate X7: un foldable ottimo, m...
Nioh 3: souls-like punitivo e Action RPG Nioh 3: souls-like punitivo e Action RPG
Meta lavora a un sistema di riconoscimen...
Il mercato smartphone potrebbe registrar...
Apple punterà sull'architettura c...
NASA Curiosity: i processi non biologici...
Sega conferma l'arrivo di tanti nuovi gi...
La serie POCO X8 è pronta al debu...
Apple conferma che l'arrivo della 'nuova...
Le vendite di Square Enix sono in netto ...
iPhone 17e si mostra in un video 'first ...
Il nuovo Xiaomi Watch 5 è pronto ...
Steam Deck è out of stock in dive...
Le migliori offerte Amazon del weekend, ...
PC più potente, meno spesa: su Amazon ta...
Amazon Haul: come fare acquisti 'pazzi' ...
Threads permetterà agli utenti di...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 08:12.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v