View Single Post
Old 01-09-2003, 10:38   #22
leoneazzurro
Senior Member
 
Iscritto dal: Jan 2003
Messaggi: 10395
Quote:
Originariamente inviato da +Benito+
E' vero che le SSE danno una mano, ma non penso che i videogiochi, se non proprio gliultimi, implementino ottimizzazioni pro-SSE.

Dal 2002 tutti i giochi hanno ottimizzazioni SSE, senza contare che moltissime implementazioni sono da ricercarsi nelle librerie (Direct X su tutte, dalla versione 8 hanno le ottimizzazioni di cui si parla) e nei drivers.

Mi sembra tanto anche il ritardo di cui parli, anche considerando che alla fine le fonderie a cui si appoggiano Intel e AMD hanno dimostrato entrambe dia vere difficolta', UMC per alti volumi e TSMC con i noti problemi tecnologici di NV30.

? Questa mi è nuova: mai saputo che Intel e AMD facessero produrre i propri processori sa UMC e TSMC. Intel ha diversi stabilimenti in giro per il mondo, e AMD ha la nuovissima fabbrica di Dresda che produce quasi tutti i suoi processori. Al limite AMD può aver dato in subappalto la produzione di Chipset.


Non mi piace vedere la cosa dal punto di vista del miglio core......sono tutti e due ottimi prodotti, quella che ho descritto e' il mio modo di vedere quale sia il miglior approccio all'incremento di potenza in proiezione futura.

Se parliamo dell'Athlon XP, siamo d'accordo. Se parliamo dell'Athlon 64, le cose sono diverse, in quanto il controller integrato elimina moltissime delle latenze presenti in gioco e scala progressivamente con la frequenza del processore (e' l'eliminazione del concetto stesso di FSB). Non a caso gli Opteron, nonostante i loro problemi a salire di frequenza (il che dipende non solo da pipeline, ma anche da un effettiva mancanza di risorse da parte di AMD dedicabili all'ottimizzazione dei layout: per questo AMD ha chiesto l'aiuto di IBM) scala molto meglio dell'Athlon XP all'aumentare del clock.

la cache e' vero che non ha influenza sul verificarsi in senso stretto dello stallo, ma non fino in fondo. Avere piu' cache vuol dire avere piu' dati accessibili direttamente. Questi dati sono recuperati in anticipo mediante opportuni algoritmi, e avere piu' cache significa avere piu' dati. Finorapensavo che gli algoritmi di previsione lavorassero su piu' opzioni, per questo ho scritto che la cache aumentata diminuisce il rischio di stallo, ma leggendo quello che mi rispondi, mi viene un dubbio: in ogni caso viene prelevato un solo "dato", o un ventaglio di dati con simile probabilita' di essere richiesti nei passaggi successivi?

Il problema è che oltre un certo limite si richiederebbero quantitativi di cache inusitati per contrastare l'inefficienza di base.

d'accordo, ma l'ipc non e' misurabile, perche' si basa sulla statistica.

L'IPC medio è misurabile e non è una quantità astratta.
a parita' di processo tecnologico?
Mi sembra strano, la potenza dissipata da un P4 3 GHz non mi sembra molto superiore di un AthlonXP 3000+ [/quote]

Purtroppo lo è, e non di poco: un P4 a 3,2 GHz dissipa da 85 a 100 W, un Barton 3200+ da 60 a 77 W (min-max), il che significa il 30% di meno.
leoneazzurro è offline   Rispondi citando il messaggio o parte di esso
 
1