Quote:
Originariamente inviato da pabloski
Beh no, l'architettura c'entra eccome. Esempio banale: un tipo crea una rete logica non minimizzata. Stessa funzionalità di una rete minimizzata, ma molti più transistor e quindi maggiori consumi. E' un esempio stupido, ma aiuta a capire il concetto.
|
Ma si tratta di efficienza di specifiche implementazioni, non dell'architettura ad alto livello.
Se implementi AArch64 puoi farlo con microcodice, con singola pipeline scalare, superscalare, multithreading, ecc. implementare il renaming dei registri, dimensionare/partizionare in vario modo le cache ed i bus di connessione tra cpu, cache ed altri moduli, ecc.
E siamo ancora a livello relativamente alto, prima ancora di fare ottimizzazioni all'implementazione della rete logica (non solo minimizzandola ma valutando se vale la pena un implementazione pienamente statica o una dinamica in base alle esigenze) ed alla circuiteria di contorno (distribuzione del clock, alimentazione, massa, schermature varie, circuiti di controllo energetico, ecc.), poi in base al processo produttivo si possono ulteriormente ottimizzare le maschere fotolitografiche andando a fare ritocchi sulle linee di collegamento e sul dimensionamento dei singoli gate, ecc.
Anche con un reference design bello e pronto poi si possono fare ottimizzazioni alle maschere o decidere di usarle tali e quali e magari pure ridurre le prestazioni per non usare un processo produttivo più recente (in modo da ammortizzare più a lungo termine i mezzi di produzione di cui già si dispone).
Per questo sino ad ora non si è ancora visto cosa può fare davvero un ARM "progettato per la massima potenza di calcolo".
Pure i nuovi core A72 sono ancora pensati per dispositivi mobilie non per server.