|
|
|
![]() |
|
Strumenti |
![]() |
#41 |
Senior Member
Iscritto dal: Oct 2002
Messaggi: 3111
|
cazzo 16 mb di cache
![]() |
![]() |
![]() |
![]() |
#42 |
Senior Member
Iscritto dal: Apr 2003
Città: Mantova
Messaggi: 1540
|
Io non credo che poi la ram sia cosi un collo di bottiglia per un sistema amulticore a 16 Processori, io credo che tra il 2006 e 2007 ci siano gia DDR2 capaci di funzionare benissimo a 1600 MHz (400x2x2)e quindi con un sistema a otto canali canali si otterrebbe un banda massima di 51.2 GB/s e dato il costo che questo processore avrà, non credo che chi sia intenzionato ad acquistarlo sti a speculare su qualche banco di ram!!! Piuttosto speriamo che per quel periodo gli HD serial ATA arrivino almeno a 0.5 GB/s, secondo i progetti della Silico Image e della Promise entro quella data dovremo avere HD capaci di operare realmente a 400 MB/s. Speriamo bene!
|
![]() |
![]() |
![]() |
#43 |
Senior Member
Iscritto dal: May 2003
Città: Ferentino (CIOCIARIA)-ROMA
Messaggi: 2085
|
previsione troppo ottimistica, secondo me la banda delle ram arriverà alla metà di quello che hai detto tu e lo stesso succederà per questa CPu, va a finire che se avrà veramente 16 core viaggerà a ferquenze molto basse. Di solito tra il dire e il fare c'è di mezzo il silicio. Il prescott seconodo le vecchie previoni molto rosee dell'intel doveva arrivare a 5ghz e il tejas a 7ghz e inoltre il tejas doveva avere 2mb di cache adesso dicono 1 e che alla fine dovrebbe arrivare a quasi 5ghz, perché intel sta incontrando chiari problemi nel salire di frequenza e sta rallentando la scalta delle mhz. Un altro esempio è l'Hammer che doveva uscire da un sacco di tempo e alla fine forse lo vedremo a ottobre sul mercato e le prestazioni non sono così esaltanti come doveva essere. Purtroppo è sempre stato così che quello che promettevano non si è mai riscontrato nella relatà, forse l'unico caso è l'r300 di ati al momento della presentazione.
|
![]() |
![]() |
![]() |
#44 |
Senior Member
Iscritto dal: Feb 2003
Città: (LC)
Messaggi: 975
|
temo che costeranno 10 volte tanto quelli attuali...
|
![]() |
![]() |
![]() |
#45 |
Senior Member
Iscritto dal: Apr 2003
Messaggi: 566
|
Futuro
1)Costeranno mila soldini?
2)E il frigorifero dove mettere il case lo regalano? |
![]() |
![]() |
![]() |
#46 |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Ho letto di tutto in questo thread (compreso delle fantomatiche cpu a 128 bit :rolleyes), ma il 2007 è molto lontano e quelle che vengono riportate sono, molto probabilmente, le previsioni che un'azienda può fare su come impiegare lo spazio disponibile con un certa tecnologia costruttiva. Vogliono integrare 16 core in die? Benissimo: ci facciano conoscere le frequenze che si potrebbero raggiungere, quanto dissiperà il "bestione", e quali soluzioni intendono adottare per l'opportuno raffreddamento del core (perché sarà molto caldo: questo è poco, ma sicuro).
Fino ad allora per me resteranno tutte fantasie... Un appunto sulle istruzioni x86 che sono "inefficienti": per quanto mi riguarda, contano sempre e soltanto le prestazioni "sul campo". Un'architettura può essere brutta quanto si vuole, ma se poi permette di macinare numeri, non vedo perché non si dovrebbe continuare ad utilizzarla. A maggior ragione se pensiamo che, ormai, quasi nessuno scrive codice assembly, ma ci affidiamo ai compilatori, per cui non ce ne può fregar di meno di come verrà eseguito il nostro codice e comunque alcune architetture RISC sono talmente complicate che è meglio lasciar perdere l'assembly e usare sempre il compilatore. Vedi Itanium/EPIC, ad esempio, mentre con gli 80x86 si può ancora pensare di poterlo fare, famiglia Hammer a 64 bit inclusa... Poi, proprio il fatto che gli x86 abbiano delle istruzioni "complesse", permette di "spalmare" su più stadi di pipeline il lavoro di decodifica e di generazione delle istruzioni RISC86, e poiché la tendenza di continuare ad alzare il clock porta con sé la necessità di aumentare le pipeline (di qualche stadio alla volta quasi ad ogni passaggio a una nuova tecnologia costruttiva), mi sembra che si instauri un eccellente connubbio. D'altra parte i limiti di un'architettura RISC vengono fuori proprio da questo: è difficile scalare in frequenza anche per loro, perché, eseguendo delle istruzioni più semplici, generalmente sono dotate di poche pipeline. Ecco che, anche per loro, è sopraggiunta la necessità di aumentare a dismisura il numero di pipeline per raggiungere frequenze decenti e globalmente delle prestazioni migliori delle precedenti generazioni (vedi Power4 -> PPC970/G5), che li portino ad essere più competitivi. Infine, se andiamo a dare un'occhiata alla nuova architettura x86-64, notiamo che nella modalità nativa a 64 bit sono sparite molte istruzioni "legacy" che sono estremamente complesse e che non sono quasi mai state ottimizzate da quando si è passati all'utilizzo di un core RISC per la loro esecuzione: è un chiaro segnale di come venga preso atto che parte della filosofia CISC debba necessariamente essere buttata via, in quanto sovradimensionata e limitante per quanto riguarda le prestazioni e la costruzione di un core efficiente. Rimane, in sostanza, quella che tempo addietro venne definita "architettura CRISP": poche istruzioni, ma che permettano anche di poter eseguire lavori complessi, come il contemporaneo accesso alla memoria (anche con indirizzamenti "complicati") e all'ALU per eseguire un'operazione, ma decisamente lontani dalla singola istruzione che arrivava fare anche il caffè. Questa mi sembra la soluzione che può mettere d'accordo la necessità di avere prestazioni migliori e di poter continuare a scalare in frequenza. Mi spiace solanto che da questa "corsa" sia rimasta tagliata fuori da tempo quella che considero la migliore architettura CRISP mai ideata: la famiglia Motorola 68000 e successivi...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
![]() |
![]() |
![]() |
#47 |
Senior Member
Iscritto dal: Nov 2002
Messaggi: 4329
|
pero mauro, sono d accordo.....il problema è che come dici tu dovrebbero rifare tutto (il crisp è chiaramente conveniente a patto che si sappia prendere il lato buono da entrambi ovviamente) ma mi sa che non cambieranno molto in fretta: in genere l uomo si da una scrollata solo quando batte la capa contro un ostacolo----->ergo continueremo a tenerci gli x86, x85-64, x86-xx(x?
![]() ![]() ![]() ![]() scherzi a parte anche io non ci do molto a sta news......vediamo un po di avere dei test o ancor meglio di vedere quando escono......tanto io mi dico: erano anni che spaccavano con doom3,doom3,doom3 e ti va a uscire in sordina hl2 che magari è pure meglio..........quindi diranno sta roba qua e magari fra un anno veramente ci puppiamo il 5 ghz!!
__________________
|18k+|slk800|a7n8x|1Gb/ddr400|Gf4mx440|Pio108|WD 160Gb|Case|Uni|Album|AnimeClick|OneManga| |ClassicThrash!|BNR Metal|TrueMetal|Dime|Chuck| |
![]() |
![]() |
![]() |
#48 |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Per quanto mi riguarda penso che l'architettura x86, con l'estensione a 64 bit, abbia non meno di un'altra decina d'anni di florido mercato davanti a sé, prima di lasciare il passo a qualche altra RISC-like, semmai ce ne sarà una che riuscirà ad essere interessante anche per il mercato desktop.
Sui 5Ghz, fra un anno ci starei attento: se il processo produttivo a 0,09u sarà raffinato, probabilmente ci andremo vicini. Resta comunque l'enorme problema dell'assorbimento e della dissipazione del calore generato dai cento e più milioni di transistor che lavorano a quelle frequenze (anche se con tensione di core ridotta), e impaccati in uno spazio molto più piccolo di quello attuale. La vedo dura, insomma, anche se è presto per poterne parlare, e ancor di più per i 16 core nello stesso die... ![]()
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
![]() |
![]() |
![]() |
#49 |
Senior Member
Iscritto dal: Jan 2003
Messaggi: 10395
|
Infatti uno dei problemi più grandi che si hanno quando si sale di frequenza è la dissipazione termica. Spesso si sente dire che il passaggio agli 0,09 consentirà di avere frequenze più alte perchè il processo a 0,09 "consuma di meno". Ma spesso molti si scordano di una cosa molto importante. Ossia la superfice del die (il nucleo del processore).
Esempio: sappiamo che Prescott dissiperà circa 100 Watt di potenza. Molti, vedendo che la cifra totale è all'incirca quella del P4 3,2 attuale, ma a una frequenza più alta, si sono subito a precipitati a dire che in effetti il problema non è così grave, anzi non esiste affatto. Ma c'è una cosa importante: a 0,09 il Prescott avrà solo l'80-85% della superficie di silicio del Northwood. La sua resistenza termica con l'esterno sarà dunque più alta, ergo necessiterà di una costruzione più accurata per poter dissipare il calore oppure raggiungerà temperature più elevate del suo predecessore. Vedremo cosa saranno in grado di fare gli ingegneri Intel (e Amd, che del resto ha gli stessi problemi) a riguardo nei prossimi anni. |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 21:40.