View Full Version : Sino a 16 core in una cpu nel 2007
Redazione di Hardware Upg
02-09-2003, 08:43
Link alla notizia: http://news.hwupgrade.it/10692.html
Queste sarebbero le specifiche di Tanglewood, evoluzione del progetto Itanium attesa in commercio per l'anno 2007
Click sul link per visualizzare la notizia.
dottorkame
02-09-2003, 08:50
Ma sara sempre a 32 bit x core o piu'?
Ovviamente il processo produttivo non potra' diminuire per sempre e questa prob. e' una delle alternative possibili a un continuo aumento delle prestazioni
Dopo tante discussioni sull'Hyper Trading e sulla possibilità di integrare 2 core in una CPU ecco qua Intel che ci mette tutti a tacere, non una, non due, ma bensì 16 core nella stessa CPU..........
AZZZZZZZZZZZZZZZZZZZZ!!!!!!!!!!!!!!!!!!
E' sempre un chip di carta...; inoltre generalmente
si ha la tendenza a "esagere" sui processori
futuri...anche perche' non svelerebbero altrimenti
i propri piani per la concorrenza con cosi'
largo anticipo...
BlackAndrew
02-09-2003, 09:07
:sbavvv: Niente male davvero, un aumento di prestazioni con Hyper-Threading effettivamente c'è, figuriamoci cosa potrebbero fare gioiellini di questo tipo...
ronthalas
02-09-2003, 09:16
e il radiatore criogenico per raffreddare il tutto... già con 0.13 abbiamo le stufe!
cristianox
02-09-2003, 09:16
cosa consumerà? 2 kilowatt? mi sa che dovremo avere un contatore solo per quel processore! :D
Ventolino
02-09-2003, 09:17
Conoscendo Intel non mi stupirei che, per gestire 16 core, la scheda madre debba integrare 16 chipsets :-)
Castellese
02-09-2003, 09:18
Guardate che parlavano di Itanium (64 bit). Per il momento mettetevi l'anima in pace, per noi x86 non ce ne sono multicore :D
stefanotv
02-09-2003, 09:18
x dottorkame
essendo il successore di itanium sicuramente sara' 64 bit.
asterix3
02-09-2003, 09:19
be siamo qui ad aspettare chi sa le prestazioni di questo processore quali saranno sarei curioso di conoscere il bus del proc. quale sara magari alla stessa frequenza del processore
MA se ho capito bene qui si parla di IA64, quindi di processori classe Itanium.
fabianoda
02-09-2003, 09:20
Direi assolutamente non male... sicuramente con più core che lavorano insieme le prestazioni saliranno rapidamente!!! Adesso aspettiamo la risposta di AMD (speriamo che venga presto)
Mah! è tutto cosi programmato.. si sa che ogni 6 mesi esce una scheda grafica nuova i processori futuri saranno tanto piu veloci di adesso... a me tutte queste notizie mi mettono un 'ansia quando devo acquistare un PC e penso e ripenso se e quanto conviene aspettare...
Cmq tornando al discorso del riscaldamento... una volta d'inverno avevo il termosifone lontano e avevo sempre freddo quando stavo di sera sul pc ora almeno sto caldo ! :D
ElDarbula
02-09-2003, 09:36
non mi piacciono molto queste previsioni a lungo termine....
forse perchè penso che non possano essere attendibili.... chissà, magari amd fra 2 anni tirerà fuori il 128-bit, e intel dovra cambiare tutta la sua programmazione!
o forse perchè mi da noia pensare che intel delle cose del genere ce le ha già belle pronte (magari a livello prototipo....costruite artigianalmente) ma noi dobbiamo aspettare fino al 2006 solo per una questione di mercato.....uffa! :rolleyes:
voi che dite? il procio a 16 core ce la fa a tenere testa al mio thunderbird 1200Mhz?:oink: :D :D :D
Zepelin_22
02-09-2003, 09:47
mahhahhhh..... io credo che invece di costruira processori mostruosi, dovrebbero prima preoccuparsi di farli funzionare senza la necessità di mega dissipatori con super ventolone che ti fanno venire il mal di testa.....sono proprio curioso di vedere come lo dissiperanno; già hanno problemi con i nuovi proci di prossima uscita....maaammhhhhaaaa.......:confused:
stefanotv
02-09-2003, 09:59
ragazzi qui si parla del sostituto dell'itanium,
il fatto che scaldi, consumi... a noi interessera' ben poco,
non penso ci sia gente disposta a spendere migliaia di euro solo per la cpu (senza contare tutto il resto dell'hardware),
questa è una cpu da server.
Bisognera' avere un inpianto criogenico per raffreddarlo :O
E per i consumi? Le grosse aziende si potranno permettere la bolletta dell'enel?
è uan delle solite mosse di intel ed hp per pubblicizzare itanium che non vende: il multicore comunque l'hp lo fa già con il pa-risc 8800 non avendo la tecnologia 3dtorus che invece è già presente nell'alpha: se così fosse credo avrebbero preso una strada diversa. Per Allora i processori x86 saranno oltre gli 8 ghz stando alle roadmap intel se non sbaglio. COmunque per utenti normali non esiste il problema, non sono e no saranno mai processori presenti su pc nè tantomeno su workstation abbordabili anche solo per utenti professionali low-end. In definitva queste notizzie servono solo a dimostrare che questo processore può crescere e che tecnologicamente è valido. In realtà Itanium è valido soo perchè costa poco e ha supporto multipiattaforma , ma per il resto ha un sacco di svantaggi e prestazioni finora non eccezzionali, anche se sembra che con l'ultima release da 1.5 ghz sia molto migliorato, ma come affrontare il fatto che bisognerebbe ricompilare ttuto il software esistente secondo lo standard Epic e che al contrario degli altri risc non ha un parco software pregresso ? Amd ha già risposto con una visione differente , la piena compatibilità x86 (opteron) e non credo si lancerà mai sui risc...
Per ora comunque il più veloce rimane il power4 IBM anche se costa abbastanza (10.000 $ a cpu).
suppostino
02-09-2003, 10:08
Con i problemi che hanno attualmente con la dissipazione del Prescott penso che nemmeno alla Intel sappiano cosa effettivamente riusciranno a realizzare nel 2006...
ElDarbula
02-09-2003, 10:08
non mi piacciono molto queste previsioni a lungo termine....
forse perchè penso che non possano essere attendibili.... chissà, magari amd fra 2 anni tirerà fuori il 128-bit, e intel dovra cambiare tutta la sua programmazione!
o forse perchè mi da noia pensare che intel delle cose del genere ce le ha già belle pronte (magari a livello prototipo....costruite artigianalmente) ma noi dobbiamo aspettare fino al 2006 solo per una questione di mercato.....uffa! :rolleyes:
voi che dite? il procio a 16 core ce la fa a tenere testa al mio thunderbird 1200Mhz?:oink: :D :D :D
Già attualmente mi semb ra che l'Itanium 2 raggiunga i 130 Watt o giù di lì... Già in passato altre CPU per server hanno superato i 150 Watt... Non è quindi una novità che consumino molto...
Riguardo all'architettura multicore... Se non sbaglio già l'IBM Power 4 è disponibile con 2 o 4 CPU on-die...e mi sembra che anche un'altra CPU per server sia multi core...
Tempo fa, quando si cercavano le prime notizie sul K8, venne fuori un patentino AMD, con relativo schema, che prevedeva un architettura dual core...ovviamente chissà se verrà mai implementato, ma in ogni caso sicuramente lo hanno previsto...
mordillone
02-09-2003, 10:21
Leggetevi questo articolo. nscoti ha detto gia' alcune cose interessanti. Qui si hanno altre informazioni in merito, magari un po' datate (del 2002), ma che rendono bene l' idea di cosa veramente stanno gia' facendo, non pero' per clienti poveracci come noi...
http://www.lithium.it/dream0009p1.htm
x mordillone
bell articolo e bel sitello, non lo conoscevo.....io mi sarei troppo fatto un power4 avendo soldi da buttare....ahahaha e fantasmagorico, io qui a combattere con pochi kb di cache e con un solo core/processore e li:2 proc per salti, 2 per floating poin, 2 per gli interi e 2 per load/store!!!!! ahahahahah 2 per gli interi!!!!! era per par condicio??? ma lol un procio cosi appena fo partire q3 mi si spacca lo schermo e fa come final destination che esplode e i cocci mi si conficcano nella gola!!!!
ma un giorno sara mio!!!
Dumah Brazorf
02-09-2003, 10:44
2006? Per me è fantascienza, previsioni troppo lontane.
Ciao.
HyperOverclockII
02-09-2003, 11:04
Non è fantascienza.
Se intel afferma una cosa del genere significa che già è in fase avanzata di sviluppo e quindi sono certi di poter raggiungere tale risultato.
Naturalmente consumeranno parecchio questi processori, ma ricordiamoci anche che hanno un processo produttivo avanzatissimo (0,065 micron), quindi per ora non possiamo sapere quanto potrebbe consumare.
E comunque ricordiamo che sono cpu per il mercato server di fascia molto alta, e quindi quando si acquista un processore del genere non si stanno a guardare i consumi ecc..
Io credo non sia mai una strada particolarmente elegante il multicore comunque: mentre l'alpha ha puntato tutto su una tecnologia di rete vera e propria (3dtorus) per interconnettere i vari processori, pur con tutti i problemi derivanti dal dover utilizzare ed indirizzare decine di processori paritetici simultaneamente conservando un bus non condiviso ma realmente sfruttabile, i multicore utilizzano un unico bus per tutti i core : pur ponendo che il bus sia molto ampio avere sedici core in una cpu finisce per essere per forza un collo di bottiglia. Questo presuppone probabilmente anche una cache sempre più grande = cpu ancora più dispendiosa e più costosa.
P.S: perdonate il pessimo italiano del mio precedente messaggio, non è ignoranza ma distrazione nello scrivere.....
nscoti: ma con un controller ram integrato l'utilizzo del bus si ridurrebbe di molto ;)
^TiGeRShArK^
02-09-2003, 12:22
nn è detto ke debbano x forza avere un unico bus per tutti e 16 i procio ... dipende da come è progettaqto il chip....
Certo che il 2006 è dietro l'angolo....cmq è chiaro che la linea evolutiva del mercato home consumer si muoverà sempre più verso sistemi multipli di elaborazione pur restando fisicamente singoli.....
X-ICEMAN
02-09-2003, 12:33
alpha o non alpha o " sono processori da server " è solo parte dell'evoluzione che attende il mondo dei pc nei prossimi anni... il multicore , come il passaggio ai 64 bit sono passi inevitabili che non solo toccheranno i server ma anche le workstation o i nostri pc, certo magari con meno core integrati o meno cache ma con la medesima tecnologia..
il puro aumento di mhz non è la soluzione migliore, piu parallelismo, architetture migliori, piu core e cosi via, soprattutto nei bus e nelle interfacce ci dovranno essere evoluzioni importanti, non si puo sempre rimanere ancorati alla retrocompatibilità e tecnologie vecchie di decenni solo upgradate e migliorate con il tempo
la retrocompatibilità non è sempre necessaria ma eliminare tutto il mondo x86 E il mondo risc per una nuova architettura non è cosa da tutti i giorni, nè molto intelligente. Hp con Intel sta tentando di definire un nuovo standard semplicemente fregandosene del pregresso: hai idea di cosa costi migrare soluzioni entrprise a una nuova (e non affermata )piattaforma? Con l'alpha intendevo solo dire che hanno già soluzioni tecnoligcamente molto più avanzate e le lasciano morire per ragioni commerrciali. Stesso discorso vale per il Vms, per il tru64 unix (l'unico con il vero cluster e non switch-over!!!) . I 64 bit arriveranno ma prima che ci sia qualcuno che investe nel mondo pc tagliando tutto il pregresso la vedo dura : Itanium esiste da quasi 10 anni, quanto software vi è stato migrato ? AMD ha fatto una scelta che sembra banale ma non è detto che non sia quella vincente. QUanto al multicore non è scritto da nessuna parte sia una soluzione: attualmente è usato principalmente per sopperire a limiti tecnolgici nella costruzione dei chip. Un architettura di rete elimina il problema. Anche con controller integrato deve esistere un coordinamento nell'accesso alla memoria e nello scambio dati tra processori e verso l'i/o, coll'aumento dei processori i problemi diventano sempre maggiori, ovvero scalbilità reale più bassa. QUanto ai mhz è vero, infatti tutti i più potenti processori no si basano sui mhz ma sul calcolo parallelo
alimatteo86
02-09-2003, 13:12
ma un prog. è ottimizzato per due o per multi processori?
nel senso, un programma che trae giovamento da un doppio processore avrà prestazioni (circa e teoricamente) uguali o di 8 volte maggiori:confused:
la calbilità del software non è mai lineare, in nessun caso: se fosse anche compilato appositamente ed ottimizzato comunque non vai oltre un miglioramento del 70-80 %
KAISERWOOD
02-09-2003, 13:48
Una cpu è composta da 16 core dovrà cosare 16 volte tanto e cmq una cpu del gnere sarà inidrizza per una elite molto particolare, i super computer per i centri di ricerca.
Il parallelismo di calcolo però non può risolvere tutti i problemi, i giochi hanno bisogno di reagire in modo lineare alle azioni del giocatore e non possono in alcun modo prevedere quali siano queste azioni, non possono altresì parallelizzare in alcun modo i calcoli!
Al limite un biprocessore potrebbe sfruttare il processore 1 per il SO e il processore 2 per il gioco, ma è una cosa molto difficile da realizzare I SUPPOSE!
the_joe: una CPU per il SO, una per il controllo del gioco e l'avanzamento degli stati, una per l'AI...e poi tutti i vari sottocompiti si potrebbero ancora suddividere... Chiaramente non sarà mai possibile che al raddoppiare delle CPU raddoppino anche le prestazioni (nemmeno un 50% in più), ma in ogni caso se volessero programmare un gioco veramente multithreaded lo potrebbero fare tranquillamente... Già Q3A ne è un buon esempio (guardate i risultati delal prova con il dual Opteron di ieri)...
Il problema è sempre lo stesso: rende di + una CPU sola con il doppio di MHz piuttosto che 2 con la metà quindi resta da vedere se realmente è meglio fare una cpu con 2 core piuttosto che una con un core performante il doppio (a parità circa di numero di transistor e quindi di prezzo) no so quale sarà la scelta comunque è chiaro che non si potrà andare avanti all'infinito con le istruzioni X86 che sono altamente inefficenti e di conseguenza con le CPU X86
Lud von Pipper
02-09-2003, 16:46
Credo che l'ottimizzazione del software sia paradossalmente un freno allo sviluppo dei computer:
Un sistema operativo generico sullo stile di Unix o anche altro potrebbe girare su piattaforme hardware molto differenti, rendendo il software indipendente dalla piattaforma, magari sulla base di un interfaccia software sullo stile delle DX per la grafica.
A quel punto starebbe ai progettisti stessi e all'azinenda produttrice produrre una serie di Driver che si interfaccino con il software invece che ai programmatori esterni.
Questo permetterebbe ai progettisti una libertà molto maggiore, senza essere costretti ad implementare retrocompatibilità hardware con il mondo X86 su processori che nell'architettura non hanno più nulla a che spartire con un 8086.
Ci sarebbe, e vero, un peggioramento generale nello sfruttamento di un hadware specifico rispetto ad un SO che si adatta direttamente ad esso, ma con le potenze che si potrebbero ottenere in questo modo il gap verrebbe rapidamente colmato e vedremmo finalmente delle vere novità nel mondo del hardware.
In questo modo qualsiasi idea origiale potrebbe facilmente essere sfruttata durante la progettazione e ci sarebbe più spazio anche per la concorrenza, non più vincolata a soluzione pluribrevettate che trasformano la progettazione dell'hardware in una specie di corsa ad ostacoli.
LvP
lucasantu
02-09-2003, 17:00
cazzo 16 mb di cache :D
newtechnology
02-09-2003, 22:32
Io non credo che poi la ram sia cosi un collo di bottiglia per un sistema amulticore a 16 Processori, io credo che tra il 2006 e 2007 ci siano gia DDR2 capaci di funzionare benissimo a 1600 MHz (400x2x2)e quindi con un sistema a otto canali canali si otterrebbe un banda massima di 51.2 GB/s e dato il costo che questo processore avrà, non credo che chi sia intenzionato ad acquistarlo sti a speculare su qualche banco di ram!!! Piuttosto speriamo che per quel periodo gli HD serial ATA arrivino almeno a 0.5 GB/s, secondo i progetti della Silico Image e della Promise entro quella data dovremo avere HD capaci di operare realmente a 400 MB/s. Speriamo bene!
KAISERWOOD
03-09-2003, 09:18
previsione troppo ottimistica, secondo me la banda delle ram arriverà alla metà di quello che hai detto tu e lo stesso succederà per questa CPu, va a finire che se avrà veramente 16 core viaggerà a ferquenze molto basse. Di solito tra il dire e il fare c'è di mezzo il silicio. Il prescott seconodo le vecchie previoni molto rosee dell'intel doveva arrivare a 5ghz e il tejas a 7ghz e inoltre il tejas doveva avere 2mb di cache adesso dicono 1 e che alla fine dovrebbe arrivare a quasi 5ghz, perché intel sta incontrando chiari problemi nel salire di frequenza e sta rallentando la scalta delle mhz. Un altro esempio è l'Hammer che doveva uscire da un sacco di tempo e alla fine forse lo vedremo a ottobre sul mercato e le prestazioni non sono così esaltanti come doveva essere. Purtroppo è sempre stato così che quello che promettevano non si è mai riscontrato nella relatà, forse l'unico caso è l'r300 di ati al momento della presentazione.
alimatteo86
03-09-2003, 17:00
temo che costeranno 10 volte tanto quelli attuali...
BlackBug
04-09-2003, 08:42
1)Costeranno mila soldini?
2)E il frigorifero dove mettere il case lo regalano?
cdimauro
06-09-2003, 06:58
Ho letto di tutto in questo thread (compreso delle fantomatiche cpu a 128 bit :rolleyes), ma il 2007 è molto lontano e quelle che vengono riportate sono, molto probabilmente, le previsioni che un'azienda può fare su come impiegare lo spazio disponibile con un certa tecnologia costruttiva. Vogliono integrare 16 core in die? Benissimo: ci facciano conoscere le frequenze che si potrebbero raggiungere, quanto dissiperà il "bestione", e quali soluzioni intendono adottare per l'opportuno raffreddamento del core (perché sarà molto caldo: questo è poco, ma sicuro).
Fino ad allora per me resteranno tutte fantasie...
Un appunto sulle istruzioni x86 che sono "inefficienti": per quanto mi riguarda, contano sempre e soltanto le prestazioni "sul campo". Un'architettura può essere brutta quanto si vuole, ma se poi permette di macinare numeri, non vedo perché non si dovrebbe continuare ad utilizzarla. A maggior ragione se pensiamo che, ormai, quasi nessuno scrive codice assembly, ma ci affidiamo ai compilatori, per cui non ce ne può fregar di meno di come verrà eseguito il nostro codice e comunque alcune architetture RISC sono talmente complicate che è meglio lasciar perdere l'assembly e usare sempre il compilatore. Vedi Itanium/EPIC, ad esempio, mentre con gli 80x86 si può ancora pensare di poterlo fare, famiglia Hammer a 64 bit inclusa...
Poi, proprio il fatto che gli x86 abbiano delle istruzioni "complesse", permette di "spalmare" su più stadi di pipeline il lavoro di decodifica e di generazione delle istruzioni RISC86, e poiché la tendenza di continuare ad alzare il clock porta con sé la necessità di aumentare le pipeline (di qualche stadio alla volta quasi ad ogni passaggio a una nuova tecnologia costruttiva), mi sembra che si instauri un eccellente connubbio.
D'altra parte i limiti di un'architettura RISC vengono fuori proprio da questo: è difficile scalare in frequenza anche per loro, perché, eseguendo delle istruzioni più semplici, generalmente sono dotate di poche pipeline. Ecco che, anche per loro, è sopraggiunta la necessità di aumentare a dismisura il numero di pipeline per raggiungere frequenze decenti e globalmente delle prestazioni migliori delle precedenti generazioni (vedi Power4 -> PPC970/G5), che li portino ad essere più competitivi.
Infine, se andiamo a dare un'occhiata alla nuova architettura x86-64, notiamo che nella modalità nativa a 64 bit sono sparite molte istruzioni "legacy" che sono estremamente complesse e che non sono quasi mai state ottimizzate da quando si è passati all'utilizzo di un core RISC per la loro esecuzione: è un chiaro segnale di come venga preso atto che parte della filosofia CISC debba necessariamente essere buttata via, in quanto sovradimensionata e limitante per quanto riguarda le prestazioni e la costruzione di un core efficiente. Rimane, in sostanza, quella che tempo addietro venne definita "architettura CRISP": poche istruzioni, ma che permettano anche di poter eseguire lavori complessi, come il contemporaneo accesso alla memoria (anche con indirizzamenti "complicati") e all'ALU per eseguire un'operazione, ma decisamente lontani dalla singola istruzione che arrivava fare anche il caffè.
Questa mi sembra la soluzione che può mettere d'accordo la necessità di avere prestazioni migliori e di poter continuare a scalare in frequenza. Mi spiace solanto che da questa "corsa" sia rimasta tagliata fuori da tempo quella che considero la migliore architettura CRISP mai ideata: la famiglia Motorola 68000 e successivi...
pero mauro, sono d accordo.....il problema è che come dici tu dovrebbero rifare tutto (il crisp è chiaramente conveniente a patto che si sappia prendere il lato buono da entrambi ovviamente) ma mi sa che non cambieranno molto in fretta: in genere l uomo si da una scrollata solo quando batte la capa contro un ostacolo----->ergo continueremo a tenerci gli x86, x85-64, x86-xx(x? :eek:) ancora fino a che non capiranno che facendo i proci con i cervelli di mukka riusciranno ad avere un superrisc che viaggia a impulsi elettrici veloci come la luce (ne serviranno di pipel. dunque!!) e potra girare a 25 ghz rock solid con un dissy bundle in alluminio............pero sara scomodo uguale perche cosi dovranno cambiare il socket (magari bio-socket 001 sai che sturia!!) e ci faranno upgradare per l ennesima volta........:sofico: ;) :D
scherzi a parte anche io non ci do molto a sta news......vediamo un po di avere dei test o ancor meglio di vedere quando escono......tanto io mi dico: erano anni che spaccavano con doom3,doom3,doom3 e ti va a uscire in sordina hl2 che magari è pure meglio..........quindi diranno sta roba qua e magari fra un anno veramente ci puppiamo il 5 ghz!!
cdimauro
08-09-2003, 08:01
Per quanto mi riguarda penso che l'architettura x86, con l'estensione a 64 bit, abbia non meno di un'altra decina d'anni di florido mercato davanti a sé, prima di lasciare il passo a qualche altra RISC-like, semmai ce ne sarà una che riuscirà ad essere interessante anche per il mercato desktop.
Sui 5Ghz, fra un anno ci starei attento: se il processo produttivo a 0,09u sarà raffinato, probabilmente ci andremo vicini. Resta comunque l'enorme problema dell'assorbimento e della dissipazione del calore generato dai cento e più milioni di transistor che lavorano a quelle frequenze (anche se con tensione di core ridotta), e impaccati in uno spazio molto più piccolo di quello attuale.
La vedo dura, insomma, anche se è presto per poterne parlare, e ancor di più per i 16 core nello stesso die... :D
leoneazzurro
08-09-2003, 09:13
Infatti uno dei problemi più grandi che si hanno quando si sale di frequenza è la dissipazione termica. Spesso si sente dire che il passaggio agli 0,09 consentirà di avere frequenze più alte perchè il processo a 0,09 "consuma di meno". Ma spesso molti si scordano di una cosa molto importante. Ossia la superfice del die (il nucleo del processore).
Esempio: sappiamo che Prescott dissiperà circa 100 Watt di potenza. Molti, vedendo che la cifra totale è all'incirca quella del P4 3,2 attuale, ma a una frequenza più alta, si sono subito a precipitati a dire che in effetti il problema non è così grave, anzi non esiste affatto. Ma c'è una cosa importante: a 0,09 il Prescott avrà solo l'80-85% della superficie di silicio del Northwood. La sua resistenza termica con l'esterno sarà dunque più alta, ergo necessiterà di una costruzione più accurata per poter dissipare il calore oppure raggiungerà temperature più elevate del suo predecessore. Vedremo cosa saranno in grado di fare gli ingegneri Intel (e Amd, che del resto ha gli stessi problemi) a riguardo nei prossimi anni.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.