View Full Version : Quad Core da AMD nel 2007
Redazione di Hardware Upg
17-11-2005, 10:31
Link alla notizia: http://www.hwupgrade.it/news/cpu/15810.html
Il produttore americano anticipa i propri piani di sviluppo per i prossimi anni, puntando fortemente sulle architetture multicore
Click sul link per visualizzare la notizia.
Michelangelo_C
17-11-2005, 10:42
Questa road map di amd mi piace molto, il multicore è a mio parere il futuro e l'implementazione di un numero sempre maggiore di cpu fisiche in un unico die è quanto di meglio si possa chiedere. Anche l'utilizzo di ddr3 mi ispira, anche se non so ancora che caratteristiche abbiano queste memorie; si parla comunque di 50% in più rispetto alle ddr2. Se le cose non cambiano molto il mio prossimo pc lo vorrei proprio basato su queste cpu: l'unica cosa che mi rammarica è che bisogna aspettare ancora due o tre anni!
Max Power
17-11-2005, 10:43
Quello ke mi preoccupa un po' è il fatto ke i parecchi programmi saranno "ottimizzati" x il MULTI CORE, utilizzando almeno 2 THREAD ciacuno, quindi se avrò aperto 2 programmi (pesanti) ottimizzati assieme , mi occuperà ampliamente il procio (4 core), allo stesso modo in cui 2 programmi single thread mi occupano il Dual CORE.
:O
Non è bello.
Preferirei tenere aperti 4 Programmi single thread su un quad core.
Michelangelo_C
17-11-2005, 10:55
Si ma un programma gestito da due processori separati su due thread dovrebbe girare teoricamente il doppio più velocemente o quasi, il che è bello eccome soprattutto con applicazioni molto pesanti o giochi che spesso sono cpu limited. Certo, più le applicazioni diventano multi thread e più il vantaggio di avere più core per aprire più programmi insieme diminuisce, questo è vero; però è anche vero che è questo il vero utilizzo dei multi core..
Comunque riguardo aspettare l'uscita di questi processori per cambiare il pc, leggendo la notizia intera su infoworld ho visto che il socket M2 supporterà queste cpu, quindi questo socket diventa sempre più appetibile (sperando che anche i chipset che utilizzeranno sulle schede madri siano poi compatibili con i quad core, avendo tra l'altro il controller ddr3 integrato).
Il problema è però sempre l'I/O. Avere anche 50 core,
ma se accedono allo stesso hard disk le prestazioni
sono sempre pessime...
E' curioso notare come i mainframe sono diventati
PC e come i PC stiano ritornando mainframe (multiprocessori,
virtualizzazione)...
non si doveva implementare anche il controller PCI-Express nei processori?
Peccato pero' che oramai gli unici avanzamenti proposti per le CPU sono mirati ad aumentare il parallelismo... la frequenza di clock non aumenta solo di pochissimo: dal 1996 al 2000 si e' passati da 133MHz a 1GHz (a memoria...), dal 2000 al 2006 e' a mala pena triplicata...
Lorents la bontà di un procio non sta solo nella frequenza ma nella sua architettura, amd docet no? :)
Michelangelo_C
17-11-2005, 11:15
Peccato pero' che oramai gli unici avanzamenti proposti per le CPU sono mirati ad aumentare il parallelismo... la frequenza di clock non aumenta solo di pochissimo: dal 1996 al 2000 si e' passati da 133MHz a 1GHz (a memoria...), dal 2000 al 2006 e' a mala pena triplicata...
Più che altro è che non si riesce a superare la soglia dei 4 GHz. Il rallentamento del progresso in termini di frequenza è più che comprensibile, ma il vero problema è l'arresto totale dell'incremento.
non si doveva implementare anche il controller PCI-Express nei processori?
Infatti.. qualcuno ha per caso qualche notizia al riguardo?
Il problema è però sempre l'I/O. Avere anche 50 core,
ma se accedono allo stesso hard disk le prestazioni
sono sempre pessime...
Domanda: non poterebbero innovare gli HD in modo da dotarli di più canali di I/O? Così potrebbero gestire molto meglio un sistema multi core..
ormai è chiaro che il vero problema sono gli hard disk... speriamo di potere avere presto una valida alternativa, il problema sono le meccaniche ormai giunte al limite serve qulcosa di innovativo anche se fossero solo chip di memoria..
magilvia
17-11-2005, 11:20
l'implementazione di un numero sempre maggiore di cpu fisiche in un unico die è quanto di meglio si possa chiedere.
Non direi proprio. Quello che direi è invece che l'implementazione di più core è l'unica strada percorribile perchè la frequenza non riesce più ad aumentare.
Se ci pensi bene infatti prendendo a riferimento un single core a 3Ghz, se avessi un single core che andasse a 6GHz avresti il doppio di prestazioni sia per programmi single threaded sia multi-threaded. Invece se avessi un bi-processore a 3GHz avresti il doppio di prestazioni solo in caso di programma multi-threaded (e non sempre), nessun incremento di prestazioni invece nei programmi single-threaded.
Previsioni troppo in la lasciano il tempo che trovano... chissà quante cose accadranno fino al 2007. Due anni in campo informatico sono un'eternità!
Domanda: non poterebbero innovare gli HD in modo da dotarli di più canali di I/O? Così potrebbero gestire molto meglio un sistema multi core..
Ehm ... guarda che a questo problema hanno già ovviato nel secolo scorso!
Basta avere più HD, eventualmente in RAID.
Il problema degli HD attuali nn sono i canali I/O ma la meccanica interna come è stato già detto da qualcuno. Infatti nessun HD in circolazione riesce a saturare i 300 MBs di banda a disposizione del SATAII
Sgt. Bozzer
17-11-2005, 11:27
Per questa è una bella notizia... mi tengo il mio 939 magari tra un pò con un bel fx57... e poi nel "2007".... il salto dal single core al quadcore con ddr3... senza passare dalle ddr2 :( del socket m2....
Se posso accettare la vita breve delle ddr 2 su desktop, mi lascia perplesso l'uscita di un opteron ddr2 che in pratica durerà solo un anno due da lato server forse e conveniente aspettare le ddr 3 diversamente dal desktop (molti dicono che dovrebbe aspettare pure lì ma IHMO AMD è già in ritardo con ddr2 aspettare le 3 su desk sarebbe un suicidio).
Se gli incrementi prestazionali con le DDR2 ci saranno, allora passerò all'M2 ma se non cambierà nulla, mi terrò il buon vecchio 3800+ X2
Peccato pero' che oramai gli unici avanzamenti proposti per le CPU sono mirati ad aumentare il parallelismo... la frequenza di clock non aumenta solo di pochissimo: dal 1996 al 2000 si e' passati da 133MHz a 1GHz (a memoria...), dal 2000 al 2006 e' a mala pena triplicata...
E per fortuna! Sai cosa significherebbe avere frequenze ancora più alte delle attuali? Consumo energetico spropositato, dissipazione di calore enorme e conseguente rumorosità alle stelle. :muro:
Io, al contrario, spero che aumentando il numero dei core venga ridotta la frequenza, per le ragioni di cui sopra.
Se ci pensi bene infatti prendendo a riferimento un single core a 3Ghz, se avessi un single core che andasse a 6GHz avresti il doppio di prestazioni sia per programmi single threaded sia multi-threaded.
Magari fosse così! :D
Invece se avessi un bi-processore a 3GHz avresti il doppio di prestazioni solo in caso di programma multi-threaded (e non sempre), nessun incremento di prestazioni invece nei programmi single-threaded.
Con una architettura biprocessore, se un OS (come Mac OS X) lo consente e la sa gestire, i due processori possono occuparsi ognuno di un processo diverso (anche se non ognuno di un thread dello stesso processo).
usotapioca
17-11-2005, 11:46
Bella roadmap però mi sembra strano che non si parli ancora di processori vettoriali o di un core vettoriale parallelo agli altri non so forse è una stronzata ma mi sembra che cell docet
Nn mi sembra che AMD sia in ritardo su DDR2, le mem sono uscite da un pezzo ma le prestazioni sono nn eclatanti come ci si attendeva. Migrare su DDR2 e piu una forzatura x ripagarsi il R&D ed avere qualcosa x il marcheting che dare un aumento di prestazioni a livello di sistema. Ho acquistato un Server con DDR2 xke glli opteron nessuno li fa e sun e veramente costosa 3 volte dell. Avrei preferito uno xeon con ddr, incece mi propinano uno con ddr2 dicendo che e meglio quando tutti noi sappiamo la verita. Nn avevo scelta...
AMD e costretta (a mio parere) a muoversi xke il marketing intel fa miracoli e ti dice che le DDR2 sono l'innovazione e la velocita. tutti gli utonti vogliono ddr2....
Io ne vedo di pubblicita al limite del legale e questo mi fa rabbia....
AMD avrebbe volentieri aspettato le DDR3 (penso)
samslaves
17-11-2005, 11:51
x Max Power
A come distribuire i threads ci pensa lo scheduler. Quindi non di devi preoccupare. Potresti capitare nella situazine in cui hai tutti gli N i thread di un task su di un processore e un task a singolo thread (main thread, task quindi) su di un altro. Non e' detto che se un thread parte sul processore 1, rimanga su questo per tutta la sua durata inoltre. Poi se il task te lo fai tu, puoi specificare se istanziarne 4 a singolo thread o 1 a 4 threads. I conteggi dei threads e dei core sono rilevanti solo se il task the lo sei fatto tu (e puoi schedulartelo come vuoi) e se il numero di threads e' pari al numero di processori. In ogni altro caso sono discorsi a perdere. Diciamo che lo sono, in quanto ci sono una miriade di tasks e therads in background anche se non fai nulla. Questo implica che i tuoi threads non riusciranno mai ad usare al 100% le cpu/cores.
samslaves
17-11-2005, 11:57
x Hard Disk
Ovvio che se ho una cpu multicore e la voglio sfruttare appieno punto piu' sulla ram che su un hard disk. Infatti se il mio scopo e' quello di usare appieno i cores creo un task che mi carichi i dati in memoria all'inizo e che salvi i risultati alla fine, magari i 64 bit servono anche a questo no? Mica continuo ad accedere all'HD! Anche con un solo processore a sigolo core avrei un'impatto sulle prestazioni. Se poi i task sono applicazioni generiche a questo punto recuperi il tempo perso dell'accesso ai dati nello switch tra una app e l'altra o ancora ti prendi molta piu' ram, sopratutto con quegli OS che hanno una pessima gestione della memoria e dello swap (sai gia' di cosa parlo ;) ).
Michelangelo_C
17-11-2005, 12:13
Ehm ... guarda che a questo problema hanno già ovviato nel secolo scorso!
Basta avere più HD, eventualmente in RAID.
Si ma intendo se è possibile farlo senza raid! Cioè con un unico HD. Non è che posso cmprarmi 4 HD solo per sfruttare i quattro core; poi se i cre aumentano ancora? Che faccio ne compro sempre di più? Direi che il miglioramento nel fare questo con un solo HD sarebbe enorme, sempre che sia possibile..
Dovrebbe inventare gli Hard Disk dual e multi-testina di lettura/scrittura. :sofico:
andrineri
17-11-2005, 12:19
bellissima notizia...
peccato che i processori multi-core saranno utilizzabili decentemente solo quando il software sarà seriamente compilato x il multi-threading...
Se i consumi per core rimangono quelli attuali, con un buon dissipatore ce la dovremmo cavare... e 4 core a... mettiamo 2,4GHz rullano tantissimo se fatti lavorare in parallelo!
mi sà che i miei futuri pc saranno tutti amd...
magilvia
17-11-2005, 12:42
Magari fosse così! :D
Vuoi dire *purtroppo* è così...
capitan_crasy
17-11-2005, 12:45
Si ma intendo se è possibile farlo senza raid! Cioè con un unico HD. Non è che posso cmprarmi 4 HD solo per sfruttare i quattro core; poi se i cre aumentano ancora? Che faccio ne compro sempre di più? Direi che il miglioramento nel fare questo con un solo HD sarebbe enorme, sempre che sia possibile..
hard disk più veloci chi sono ma sono tutti SCSI o i nuovi SaS... :mc:
Nessun produttore metterebbe in commercio hard disk più veloci o di ugulare prestazioni nel mercato consumer dato che il maggior guadagno arriva dal mercato Workstation/Server con hard disk da 10.000/15.000 giri.
SOLO WD ha osato mettere sul mercato desktop il raptor a 10.000 con collegamento SATA... :cry:
MiKeLezZ
17-11-2005, 13:01
hard disk più veloci chi sono ma sono tutti SCSI o i nuovi SaS... :mc:
Nessun produttore metterebbe in commercio hard disk più veloci o di ugulare prestazioni nel mercato consumer dato che il maggior guadagno arriva dal mercato Workstation/Server con hard disk da 10.000/15.000 giri.
SOLO WD ha osato mettere sul mercato desktop il raptor a 10.000 con collegamento SATA... :cry:
Esatto, e sapete perchè l'unica è stata Western Digital?
Perchè è l'unica che non ha dischi SCSI.
Comunque il multi-core all'inizio sarà molto di nicchia.
E' uscita l'xbox con 3 (o 4?) core, e i giochi son stati sviluppati solo in modo da sfruttarlo uno... gli altri si occupano di decode audio, caricamenti, e cose del genere. La gente non ha voglia di programmarli o proprio è poco utile..
Se ora ci uscisse un 4 core, che ce ne faremmo? Seriamente.. al massimo con uno ci fai partire il giochino, l'altro si occupa delle risorse del sistema.. e gli altri due?
AMD e costretta (a mio parere) a muoversi xke il marketing intel fa miracoli e ti dice che le DDR2 sono l'innovazione e la velocita. tutti gli utonti vogliono ddr2....
Io ne vedo di pubblicita al limite del legale e questo mi fa rabbia....
AMD avrebbe volentieri aspettato le DDR3 (penso)
Sono d'accordo per quanto riguarda la convenienza dal punto di vista prestazionale ad aspettare, purtroppo non è solo questione di marketing: le ddr2 sono più "convenienti" dal punto di vista dei costi (già da un po' costano meno delle ddr e non è questione di qualità). AMD proprio per questo si potrebbe permettere di aspettare le ddr3 solo nei server dove le memorie incidono in maniera diversa rispetto a desktop. IMHO ovviamente.
JohnPetrucci
17-11-2005, 13:15
Oramai la tecnologia informatica è poco attraente, si moltiplicano i core delle cpu, si fanno sli e crossfire, si introducono ddr2, ma alla fine le prestazioni non aumentano più come una volta, e prima o poi questa continua corsa alla frammentazione dei core delle cpu finirà, e magari si introdurrà il secondo socket cpu in modo massivo sui Pc desktop.
Insomma se penso che a livello di dischi fissi siamo quasi in stallo, e in attesa delle memorie statiche o simili tecnologie per lo storage, e considerando i software ottimizzati per il multicore ancora quasi inesistenti, è meglio tenersi il single core il più possibile, accoppiato magari a delle ottime ddr. :(
samslaves
17-11-2005, 13:18
>e gli altri due?<
delle stesse risorse di sistema.
Non e' che la gente non ha voglia di programmarli. Infatti non si programma il sistema SMP. Si deve solo guardare al codice in modo diverso, si programma il codice. Se non lo fanno e' perche' non lo sanno fare perche' hanno sempre scritto gochi o usato Visual Basic o perche' non vedono businness ma le cose stanno per cambiare, i soldi li fa chi fa il software che compie il suo lavoro in minor tempo e con la larga ditribuzione di sistemi multicore/smp si adatteranno.
jappilas
17-11-2005, 13:27
Dovrebbe inventare gli Hard Disk dual e multi-testina di lettura/scrittura. :sofico:
in realtà sono esistiti, pochissimi ma sono esistiti... dei modelli di Conner della metà degli anni 80, 20 MB , collegamento ATA pio-I, due braccetti con testine ai due lati della pila di piattelli, con conseguente maggiore lunghezza del "guscio" parallelepipedo dell' unità stessa, logica on board più sofisticata, prezzo parecchio superiore ai modelli standard della stessa classe
notare, la connessione host era sempre ATA, quindi assolutamente priva di qualsiavoglia "queing" o "pipelining" dei comandi, e sempre singola, lo scopo era più che altro ridurre il tempo medio di accesso che in quel periodo sfiorava i 50 millisecondi...
Ehm ... guarda che a questo problema hanno già ovviato nel secolo scorso!
Basta avere più HD, eventualmente in RAID.
Il fatto è che con i sistemi di virtualizzazione in cui in pratica puoi anche
avere OS indipendenti, anche i RAID si rivelano insufficienti, in ambito Desktop,
dove è necesaria avere prontezza di risposta, e per come
sono strutturati (e sparpagliati) i dati (comandi, librerie, applicativi), insufficienti.
O meglio, per avere I/O decenti dovresti andare su sistemi RAID al almeno una
ventina di dischi, totalmente impensabili, sia per costi che per ingombri,
comparati con i sistemi dual e quad core.
Avere anche dischi piu' veloci non aiuta piu' di tanto, passando anche a
20000 giri. O meglio dovrebbero essere decine e decine di volte piu' veloci.
E i sistemi con NCQ, etc., servono solo ad ottimizzare un po' l'I/O, ma non fanno
miracoli. Purtroppo però gli hard disk sono quelli che si sono evoluti meno.
Nel 1998 sui Deskstar IDE IBM misuravo 18MB/s (e i migliori
SCSI a 10000RPM erano sui 24MB/s). Ora sui migliori IDE
(lasciamo stare i Raptor) fai sui 56-58MB/s. Ossia triplicati. Ma le CPU
(nel '98 poteva essere il PII 400-450 il riferimento) sono andate ben oltre il triplo
delle prestazioni, siamo almeno a 10x. In proporzione gli hard disk dovrebbero
fare 250MB/s e avere tempi di accesso di 1ms.
x Hard Disk
Ovvio che se ho una cpu multicore e la voglio sfruttare appieno punto piu' sulla ram che su un hard disk. Infatti se il mio scopo e' quello di usare appieno i cores creo un task che mi carichi i dati in memoria all'inizo e che salvi i risultati alla fine, magari i 64 bit servono anche a questo no? Mica continuo ad accedere all'HD! Anche con un solo processore a sigolo core avrei un'impatto sulle prestazioni. Se poi i task sono applicazioni generiche a questo punto recuperi il tempo perso dell'accesso ai dati nello switch tra una app e l'altra o ancora ti prendi molta piu' ram, sopratutto con quegli OS che hanno una pessima gestione della memoria e dello swap (sai gia' di cosa parlo ;) ).
Qui non si sta parlando di ottimizzare manualmente le prestazioni...ma
delle problematiche che con 4 core si hanno: prova per esempio avendo
4 core a creare 4 immagini iso (peraltro in un'operazione del genere
una CPU non è mai impegnata per piu' del 5-20%) da 5GB ciascuna e
contemporaneamente sullo stesso hard disk. Dovresti avere 20GB di RAM, allora si che cacha...
MiKeLezZ
17-11-2005, 14:12
il discorso è semplice
se c'è una cpu l'hd fa quello che lei chiede
se ci sono due cpu.. l'hd fa prima quello che chiede una, poi quello che chiede l'altra
se ci sono tre cpu.. altra in coda
intanto la ram si riempie sempre più... ad un certo punto è satura.. e scrive le cose sull'HD
che mette ancora in coda
se non ottimizzano le cose, sarà perfettamente inutile
con l'HD si parla di ms, con gli altri componenti ns
il casino è lì :/
x Max Power
A come distribuire i threads ci pensa lo scheduler. Quindi non di devi preoccupare. Potresti capitare nella situazine in cui hai tutti gli N i thread di un task su di un processore e un task a singolo thread (main thread, task quindi) su di un altro. Non e' detto che se un thread parte sul processore 1, rimanga su questo per tutta la sua durata inoltre. Poi se il task te lo fai tu, puoi specificare se istanziarne 4 a singolo thread o 1 a 4 threads. I conteggi dei threads e dei core sono rilevanti solo se il task the lo sei fatto tu (e puoi schedulartelo come vuoi) e se il numero di threads e' pari al numero di processori. In ogni altro caso sono discorsi a perdere. Diciamo che lo sono, in quanto ci sono una miriade di tasks e therads in background anche se non fai nulla. Questo implica che i tuoi threads non riusciranno mai ad usare al 100% le cpu/cores.
quoto.
per chi volesse ulteriori info su pregi e difetti di soluzioni dual/multicore:
:read:
http://www.aceshardware.com/read.jsp?id=65000333
:eek:
in realtà sono esistiti, pochissimi ma sono esistiti... dei modelli di Conner della metà degli anni 80, 20 MB , collegamento ATA pio-I, due braccetti con testine ai due lati della pila di piattelli, con conseguente maggiore lunghezza del "guscio" parallelepipedo dell' unità stessa, logica on board più sofisticata, prezzo parecchio superiore ai modelli standard della stessa classe
notare, la connessione host era sempre ATA, quindi assolutamente priva di qualsiavoglia "queing" o "pipelining" dei comandi, e sempre singola, lo scopo era più che altro ridurre il tempo medio di accesso che in quel periodo sfiorava i 50 millisecondi...
mi pare di ricordare che ci fossero anche dei modelli SCSI, dei Barracuda della Seagate che fossero a bracci indipendenti. Li ricordo montati su delle SUN SparcStationIV.. attendo confereme o smentite :rolleyes:
silipaolix
17-11-2005, 15:32
Comunque per la cronaca, SAMSUNG sta sviluppano Hard Disk allo stato solido senza meccaniche del piffero, ma dotate di chip statici basati su tecnologia flash (che poi viene interfacciata SATA). Speriamo bene...in teoria li possono ottimizzare a iosa; non essendoci poi testine di lettura e scrittura, basta che i controller dell'unità siano predisposti a gestire più flussi di dati ed il problema dovrebbe essere ovviato, o no?!?
^TiGeRShArK^
17-11-2005, 15:38
Con una architettura biprocessore, se un OS (come Mac OS X) lo consente e la sa gestire, i due processori possono occuparsi ognuno di un processo diverso (anche se non ognuno di un thread dello stesso processo).
e perchè win xp secondo te ke fa?:rolleyes:
Kristall85
17-11-2005, 15:54
Finalmente i Quad core!!!!
Aspettavo da mesi questa notizia..... :read:
jappilas
17-11-2005, 15:55
Comunque per la cronaca, SAMSUNG sta sviluppano Hard Disk allo stato solido senza meccaniche del piffero, ma dotate di chip statici basati su tecnologia flash (che poi viene interfacciata SATA).
potenzialmente interessanti, basta che una volta installato il sistema e le applicazioni che servono, la partizione non venga più toccata...
Kristall85
17-11-2005, 16:03
Comunque per la cronaca, SAMSUNG sta sviluppano Hard Disk allo stato solido senza meccaniche del piffero, ma dotate di chip statici basati su tecnologia flash (che poi viene interfacciata SATA). Speriamo bene...in teoria li possono ottimizzare a iosa; non essendoci poi testine di lettura e scrittura, basta che i controller dell'unità siano predisposti a gestire più flussi di dati ed il problema dovrebbe essere ovviato, o no?!?
Ciao, davvero gran bella notizia!...mi potresti dire dove l'hai trovata?
Grazie 1000 :p
ma processori a 128bit fanno schifo? 2-4-6 core.... inutili....cominciate a sviluppare software per i 64 poi vediamo se c'e' ancora bisogno di 2 o piu' core.... anziche programmare meglio fanno cpu piu' potenti.... con 2 z80 sono andati sulla luna e noi necessitiamo di gigaflop per navigare in internet.... bah...
avvelenato
17-11-2005, 16:12
per gli hard disk ci sono diverse soluzioni:
ad esempio controller raid scsi con cache di supporto molto ampia, anche fino ad un gigabyte.
c'è l'iRam di gigabyte che a quanto pare a breve uscirà in versione pci-e 4x, e promette prestazioni sbalorditive, 100 volte il raptor.
infine, per i più sboroni, c'è sempre http://www.m-sys.com
:sbav: :sbav: :sbav: quando sarò multimiliardario un pc del genere me lo faccio fare :P
nudo_conlemani_inTasca
17-11-2005, 16:15
Sicuramente la situazione con il Quadri-Core sarà molto vantaggiosa in termini prestazionali
(mi chiedo anche quanto i sistemi operativi presenti e futuri)
saranno in grado di sfruttare queste tecnologie che riducono il tempo di calcolo delle applicazioni tanto quanti più Core avranno le future Cpu.
Mi chiedo anche (sicuramente lo schedure di Win XP NON lo è, come dimostrato dai test di gestire correttamente più Core e quindi la quantità di risorse da distribuire ad ognuno di essi).
Windows Vista, sarà votato per CPU Mlti-Core?
Se si lo implementerà bene?
Questo è quello che mi chiedo, perchè se l'OS funzionasse male.. o non gestisse in maniera efficiente la distribuzione delle risorse lavorerebbe 1 SOLO Core, e quindi andrebbe vanificata tutta la tecnologia messa a disposizione; In sostanza: il Sistema Operativo.. grande incognita, saprà sfruttare al meglio le risorse dei futuri µP??
Punto secondo, sempre il solito dilemma:
[+ Frequenza o + Core] = ?
Sembra che esistano solo 2 strade percorribili per aumentare la potenza computazionale di una CPU.. sarà realmente così?
Il buon senso direbbe che:
tra 1 µP 4 Core (fisici) e un µP @ 10 GHz..
il secondo consumerebbe una quantità MOSTRUOSA di corrente elettrica (I), rispetto al primo, come se non bastasse.. @ 10GHz con temperature prossime a quelle del Sole :D.
Con conseguente problema di disturbi (e.m.), correnti parassite (utilizzando sempre materiali e tecnologie attuali.. poi chissà il futuro cosa ci riserva).
Consumi in Watt da centrale elettrica ENEL, componentistica da 1 Milione di $ per reggere quelle frequenze..
Ecco dei buoni motivi per scartare la tecnologia sulla PURA frequenza (o accantonarla temporaneamente) in favore di quella Multi-Core..
il Multi-Core NON stimola la vostra fantasia tecnologica come soluzione vincente dell'intelletto umano come soluzione ingegnosa..
ma sembra semplicemente un surrogato di se stesso?
Beh, è così.. ma ci hanno dimostrato che funziona (e MOLTO bene) a scotto di un prezzo quasi doppio, ahimè.
(sempre con le tecnologie attuali -> grado di integrazione e materiali impiegati)
Ad ogni modo si accettano proposte per rivedere "il Calcolatore" nel senso più ampio del termine a partire dalla macchina di Von Neumann. :D
Poi magari rivederne la sua struttura, il suo modo di operare, i suoi compiti e la sua operatività, ecc. ecc..
Punto Terzo, serve tutta questa potenza per applicativi quotidiani o è sprecata o mal utilizzata? Assolutamente no.
Sicuramente è sprecata e mal utilizzata.. per navigare in internet o fare cose simili basta un Pentium3, soltanto chi fa uso intensivo di CPU per calcoli Scientifici e Editing.. ne potrebbe beneficiare.. in quel caso si.
A cosa serve tutta questa potenza, in buona parte è sprecata.. quindi se vi siete comprati il Ferrari per andare in vacanza ed impiegarci 2 ore invece di 10!!! E' cosa giusta.
Peccato che per il resto dell'anno dobbiate utilizzarla in città con oneri, costi e problematiche di varia natura che vi farà storcere il naso non poco.
Perchè...? perchè non risponde alle vostre esigenze.
Ciao. :cool:
P.S.) Vi ricordo che i Calcolatori attuali (8° Generazione), rispetto al resto delle altre periferiche girano 100.. 1000 VOLTE più velocemente!!!
Basterebbe che tutte le periferiche del calcolatore girassero alla sua stessa frequenza operativa e non ci sarebbe bisogno di nessun Quadri-Opto Core.
Più del 50% i Calcolatori odierni (se non di +) lo PASSANO con cicli di Wait.. non fanno nulla, hanno già finito: ASPETTANO CHE TUTTE LE ALTRE PERIFERICHE inizino NON a dare i risultati.. ma addirittura a RISPONDERE!!!
Non so se rendo l'idea, quando il µP ha finito le sue operazioni richieste (calcoli aritmetico-logici, il calcolatore sa fare SOLO quello e poche altre cosette) ASPETTA x 1 SECOLO che le periferiche leggano il suo comando.. è lui ha già finito.. "gli altri devono ancora leggere che cosa gli è stato inviato! Non hanno manco cominciato.."
avvelenato
17-11-2005, 16:15
ma processori a 128bit fanno schifo? 2-4-6 core.... inutili....cominciate a sviluppare software per i 64 poi vediamo se c'e' ancora bisogno di 2 o piu' core.... anziche programmare meglio fanno cpu piu' potenti.... con 2 z80 sono andati sulla luna e noi necessitiamo di gigaflop per navigare in internet.... bah...
non è che aumentando i bit aumentano le prestazioni.
Per quanto riguarda programmare meglio, il codice ha raggiunto una tale complicazione che non è più pensabile mettersi a programmare in assembler, sarebbe controproducente, gli errori di programmazione svaluterebbero di gran lunga i risicabili vantaggi rispetto ad una compilazione con un compilatore automatizzato, a partire da un linguaggio più ad alto livello.
capitan_crasy
17-11-2005, 16:16
ma processori a 128bit fanno schifo? 2-4-6 core.... inutili....cominciate a sviluppare software per i 64 poi vediamo se c'e' ancora bisogno di 2 o piu' core.... anziche programmare meglio fanno cpu piu' potenti.... con 2 z80 sono andati sulla luna e noi necessitiamo di gigaflop per navigare in internet.... bah...
avere un 4 core su un unico pezzo di silicio è tutt'altro che inutile!!!
Puoi fare server o workstation a 4 cpu con una sola scheda mamma... :D
Più piccole, più veloci e speriamo più economiche...
jappilas
17-11-2005, 16:18
ma processori a 128bit fanno schifo? 2-4-6 core.... inutili....cominciate a sviluppare software per i 64 poi vediamo se c'e' ancora bisogno di 2 o piu' core.... anziche programmare meglio fanno cpu piu' potenti.... con 2 z80 sono andati sulla luna e noi necessitiamo di gigaflop per navigare in internet.... bah...
edit- mentre scrivevo ti avevano già risposto :rolleyes: :read:
ma processori a 128bit fanno schifo? 2-4-6 core.... inutili....cominciate a sviluppare software per i 64 poi vediamo se c'e' ancora bisogno di 2 o piu' core.... anziche programmare meglio fanno cpu piu' potenti.... con 2 z80 sono andati sulla luna e noi necessitiamo di gigaflop per navigare in internet.... bah...
...E con una memoria flash da 256Mega sono andati su Marte... Il problema
è che i programmi e i sistemi operativi attuali (sia Windows che Linux)
si portano dietro 30anni di codice per la retrocompatibilità (i programmi per leggere i formati
vecchi) per cui è chiaro che in questo modo i programmi e i sistemi
operativi tendono a crescere a dismisura. Il fatto è che senza la
retrocompatibilità i produttori non vanno da nessuna parte e quindi
se ne guardano bene di alleggerire.
Mi chiedo anche (sicuramente lo schedure di Win XP non è in grado, come dimostrato dai test di gestire correttamente più Core e quindi la quantità di risorse da distribuire ad ogniuno di essi).
Che io sappia il Kernel di Xp e il suo scheduler sono in grado di sfruttare e ripartire il carico tra piu' unita' esecutive.
Xp semplicemente non e' in grado di distinguere le CPU fisiche da quelli virtuali (HyperThreaded) quindi alloca/assegna in maniera non ottimale i vari thread alle CPUs. :stordita:
e perchè win xp secondo te ke fa?:rolleyes:
Ho forse detto che XP non lo supporta? :ahahah: :rolleyes:
Yokoshima
17-11-2005, 18:04
Il quad-core gia nel 2007... ma abbiamo davvero bisogno di tutta questa potenza nei desktop? :confused:
Mi sembra che gli ingenieri delle architetture delle CPU non abbiano imparato poi molto dalla corsa sfrenata ai GHz.
jappilas
17-11-2005, 18:44
Il quad-core gia nel 2007... ma abbiamo davvero bisogno di tutta questa potenza nei desktop? :confused:
bisogna vedere se i quattro core integrati sono dello stesso livello di un singolo athlon o pentium, o piuttosto non stiano a quest' ultimo come un PWRficient sta ad un POWER ... due unità su un solo die, ma ognuna dotata di una FPU, una SIMD a 64 bit, una sola alu intera... quindi minore complessità per aumentare la capacità di calcolo sui problemi parallelizzabili, attraverso un' altissima replicazione di componenti più semplici
bisogna vedere se i quattro core integrati sono dello stesso livello di un singolo athlon o pentium, o piuttosto non stiano a quest' ultimo come un PWRficient sta ad un POWER ... due unità su un solo die, ma ognuna dotata di una FPU, una SIMD a 64 bit, una sola alu intera... quindi minore complessità per aumentare la capacità di calcolo sui problemi parallelizzabili, attraverso un' altissima replicazione di componenti più semplici
intendi dire due unita' esecutive asimmetriche? (entrambe in grado di gestire comunque codice general puorpose)
In un caso simile andrebbe alla branch-prediction unit il compito di dirottare il codice piu' "idoneo" all'unita' elaborativa opportuna o allo scheduler del SO? :confused:
jappilas
17-11-2005, 19:45
intendi dire due unita' esecutive asimmetriche? (entrambe in grado di gestire comunque codice general puorpose)
In un caso simile andrebbe alla branch-prediction unit il compito di dirottare il codice piu' "idoneo" all'unita' elaborativa opportuna o allo scheduler del SO? :confused:
non mi spingevo così avanti... a vedere la struttura del pwrficient dai whitepaper, sembrerebbe dotato di due unità di calcolo gemelle, con una cache L2 da 2 MB in comune (a' la P-D ), unità di calcolo caratterizzate da una "3-way-superscalarity" a livello di execute : laddove athlon esegue in parallelo 3 operazioni arimetico-logiche, 3 load/store, 3 operazioni floating point o SIMD , queste eseguono 3 operazioni, di cui una virgola mobile, una SIMD, e per deduzione una su interi o memoria: sono quindi MOLTO meno sofisticate di un ibm POWER o powerpc
e non potrebbe essere altrimenti, visto che apparentemente , il pwrficient deve, pur rimanendo compatto, di facile realizzazione e parco di risorse, integrare così tanta altra "roba" (crossbar, 2x ddr2 i/o, 8x 16-lane pci express i/o, 2x GbE, 1x 10GbE su fibra ottica ( :eek: ) ) che i core di calcolo siano quasi "il meno", e comunqe da vedere in ottica grid computing - dove un chip è affiancato ad altre decine di suoi simili per risolvere problemi computazionali ad alto parallelismo, o portare sotto i 100 KW il consumo di un rack capace di fare i 100 TeraFLOPS
il discorso sulla simmetria è comunque interessante: anche perchè creare una cpu multicore non simmetrico porta a qualcosa di simile al Cell (e come si sa , Cell, richiede un approccio diverso proprio per la creazione delle applicazioni, per trarne vantaggio), se le varie subunità eseguono codice specifico,
invece simile all' hyper thread se si vuole che ogni unità accetti tutti gli opcode del set di istruzioni standard : in questo caso in effetti è un' asimmetria "gerarchica" più che funzionale , che prevede un modello abbastanza assodato per l' implementazione del SW, il supporto del kernel per lo scheduling a livello di processi e il supporto della cpu (in forma di set di registri e scheduler) per il riiordino e l' esecuzione a livello di istruzioni in codice macchina
Hyperhread consiste nel tenere aperti due flussi di controllo aggiungendo delle tag alle istruzioni in modo tale che, pur facendo confluire tutte le istruzioni nello scheduler buffer, il thread di apparteneza sia identificabile univocamente, in ogni punto della pipeline
se non ricordo male c' era però la limitazione che i due flussi di controllo dovessero restare nell' ambito di uno stesso contesto, che era quello che distingueva HT da un' implementazione "alla Alpha" che integrando direttamente due cpu, permetteva il multithreading tanto quanto il "solito" multiprocessing
all' inizio del nuovo millennio un certo progetto promise di creare un processore per certi aspetti rivoluzionario, poi ripiegò sul costruire una variante più raffinata di una pipeline già esistente: Hammer doveva integrare due core mettendone in comune il set di ALU e AGU: per massimizzarne l' uso e allo stesso tempo bilanciare il carico di lavoro: ma probabilmente questo avrebbe richiesto di costruire una rete di bypass tra i registri e le unità esecutive, troppo intricata
X nudo_conlemani_inTasca: se hai paura che la cpu si giri i pollici fagli fare un po di ginnastica col boinc... :D
DioBrando
17-11-2005, 20:47
Il quad-core gia nel 2007... ma abbiamo davvero bisogno di tutta questa potenza nei desktop? :confused:
Mi sembra che gli ingenieri delle architetture delle CPU non abbiano imparato poi molto dalla corsa sfrenata ai GHz.
proprio perchè la miniaturizzazione del processo produttivo raggiungerà in breve il limite fisico del silicio, in attesa dell'impiego ( reale, e commerciale) di nuovi materiali, la strada dell'utilizzo di + core è quella ad ora la + praticabile per aumentare la potenza di calcolo dei processori e quindi in generale dei computer, qualunque sia lo scopo a cui sn destinati...
Ed in ogni caso IMHO i quadcore ecc. vanno visti in un'ottica non desktop, quanto server/workstation, supercocomputing, simulazioni scientifiche...lì la possibilità di destinare contemporaneamente + thread ripartiti per ciascuna unità d'elaborazione apre scenari molto interessanti...
E' chiaro poi che anche il SW e chi lo progetta dovrà fare la sua parte :)
non mi spingevo così avanti... a vedere la struttura del pwrficient dai whitepaper, sembrerebbe dotato di due unità di calcolo gemelle, con una cache L2 da 2 MB in comune (a' la P-D ), unità di calcolo caratterizzate da una "3-way-superscalarity" a livello di execute : laddove athlon esegue in parallelo 3 operazioni arimetico-logiche, 3 load/store, 3 operazioni floating point o SIMD , queste eseguono 3 operazioni, di cui una virgola mobile, una SIMD, e per deduzione una su interi o memoria: sono quindi MOLTO meno sofisticate di un ibm POWER o powerpc
chiaro
e non potrebbe essere altrimenti, visto che apparentemente , il pwrficient deve, pur rimanendo compatto, di facile realizzazione e parco di risorse, integrare così tanta altra "roba" (crossbar, 2x ddr2 i/o, 8x 16-lane pci express i/o, 2x GbE, 1x 10GbE su fibra ottica ( :eek: ) ) che i core di calcolo siano quasi "il meno" e comunqe da vedere in ottica grid computing - dove un chip è affiancato ad altre decine di suoi simili per risolvere problemi computazionali ad alto parallelismo
c'e' anche da dire che i processori POWER V, o meglio, gli MCM, hanno il package grande quanto un palmo..cosa che nessun prodotto, passami il termine, "piu' commerciale" si puo' permettere per via dei costi. Quindi da qualche parte bisogna pur togliere..
(a questo proposito la Sun fa un po' eccezione con Niagara)
il discorso sulla simmetria è comunque interessante: anche perchè creare una cpu multicore non simmetrico porta a qualcosa di simile al Cell (e come si sa , Cell, richiede un approccio diverso proprio per la creazione delle applicazioni, per trarne vantaggio), se le varie subunità eseguono codice specifico,
invece simile all' hyper thread se si vuole che ogni unità accetti tutti gli opcode del set di istruzioni standard : in questo caso in effetti è un' asimmetria "gerarchica" più che funzionale ,
infatti.. utilizzando quasi "alternativemente" le medesime unita'..
che prevede un modello abbastanza assodato per l' implementazione del SW, il supporto del kernel per lo scheduling a livello di processi e il supporto della cpu (in forma di set di registri e scheduler) per il riiordino e l' esecuzione a livello di istruzioni in codice macchina
Hyperhread consiste nel tenere aperti due flussi di controllo aggiungendo delle tag alle istruzioni in modo tale che, pur facendo confluire tutte le istruzioni nello scheduler buffer, il thread di apparteneza sia identificabile univocamente, in ogni punto della pipeline
se non ricordo male c' era però la limitazione che i due flussi di controllo dovessero restare nell' ambito di uno stesso contesto, che era quello che distingueva HT da un' implementazione "alla Alpha" che integrando direttamente due cpu, permetteva il multithreading tanto quanto il "solito" multiprocessing
mmmm questo mi manca, mi devo informare ;)
all' inizio del nuovo millennio un certo progetto promise di creare un processore per certi aspetti rivoluzionario, poi ripiegò sul costruire una variante più raffinata di una pipeline già esistente: Hammer doveva integrare due core mettendone in comune il set di ALU e AGU: per massimizzarne l' uso e allo stesso tempo bilanciare il carico di lavoro: ma probabilmente questo avrebbe richiesto di costruire una rete di bypass tra i registri e le unità esecutive, troppo intricata
chissa'. forse lo proporranno per il K9.
Proporre un prodotto troppo in anticipo perchhe' il mercato sia pronto a recepirlo e' un grosso rischio. (itanium insegna...) :rolleyes:
Byez
DioBrando
17-11-2005, 21:02
Se ci pensi bene infatti prendendo a riferimento un single core a 3Ghz, se avessi un single core che andasse a 6GHz avresti il doppio di prestazioni sia per programmi single threaded sia multi-threaded. Invece se avessi un bi-processore a 3GHz avresti il doppio di prestazioni solo in caso di programma multi-threaded (e non sempre), nessun incremento di prestazioni invece nei programmi single-threaded.
ma dato che le prestazioni di una macchina n si misurano mai su di un solo programma, nell'insieme avere +cpu o + core ( assimilabili a cpu anche se poi l'architettura ed il collegamento tra queste avviene in modo diverso) aiuta...aiuta perchè in un qls computer di oggi in qls ambiente tu voglia operare non avrai mai uno ed un solo processo attivo, ma ne avrai qlc decina solo contando quelli fondamentali per l'esecuzione dei processi che gestiscono il sistema e l'HW.
Senza contare gli applicativi che fai girare tu e che tu installi in questo ambiente; la possibilità di demandare parte di questi ad una unità d'elaborazione mentre l'altra si occupa del resto a seconda di come lo scheduler imposta le code, è fondamentale maggiore è il carico computazionale richiesto alla macchina.
Non a caso il Dual-Core ed i benchmark relativi ai vari test mostrano come proprio in situazioni di pesante carico la sua architettura risulti + efficace del Single core.
Non è necessario che il SW che gira sia per forza studiato in funzione di + processori e del multithread, "basta" che sia il SO e lo scheduler a gestire i vari processi (ipotizzando che ad ogni programma corrisponda solo un processo) e a ripartirli su + unità d'esecuzione...
Certo, questo per un utente X conun desktop...se ci spostiamo già verso clusters ed applicazioni distribuite le cose cambiano notevolmente.
DioBrando
17-11-2005, 21:06
OT
n mi ricordo se tu avevi chiesto info sul Niagara ( a proposito di multi-core :))...può essere? :wtf:
Hai visto le notizie dell'ultimo paio di mesi? :D
DioBrando
17-11-2005, 21:13
potenzialmente interessanti, basta che una volta installato il sistema e le applicazioni che servono, la partizione non venga più toccata...
se si riferisce alle NRAM ( che poi in realtà furono sviluppate da Nantero e la tecnologia riutilizzata e rivista da Samsung ed altri produttori di memorie NAND), nonostante le dichiarazioni del CEO Samsung di qlc tempo fà io sarei molto cauto...al di là del costo esorbitante per Giga ( contanto che con il Perpendicular, la capienza dei dischi dovrebbe aumentare n poco), resta sempre il problema del tempo di vita legato ai cicli che una memoria a stato solido è in grado di garantire.
Con accessi così frequenti come ve ne sn nei dischi, francamente la vedo dura...
n mi ricordo se tu avevi chiesto info sul Niagara ( a proposito di multi-core :))...può essere? :wtf:
puo' essere.. ho chiesto a mezzo mondo.. :)
Hai visto le notizie dell'ultimo paio di mesi? :D
ho visto, ho visto tnx! ;)
http://www.hwupgrade.it/forum/showthread.php?t=1064383
rdefalco
17-11-2005, 22:19
Inoltre un utonto che becca uno spyware o virus in tilt ;) manda al 99% solo un core, continuando così ad usare il pc senza avvertire nessun calo di prestazioni e continuando a diffondere virus! È fantastico! :doh:
[Leggermente OT]
A proposito di virtualizzazione...
Quando scenderanno di prezzo gli Athlon X2 ne prenderò uno per il mio server per farci girare sopra VMWare Player. L'incremento prestazionale dovuto al secondo core dovrebbe essere notevole. Visto che per forza di cose devo usare Windows come sistema principale, almeno posso tenere una macchina Linux sempre attiva (seppur virtuale)
[/OT]
magilvia
17-11-2005, 22:46
aiuta...aiuta perchè in un qls computer di oggi in qls ambiente tu voglia operare non avrai mai uno ed un solo processo attivo, ma ne avrai qlc decina solo contando quelli fondamentali per l'esecuzione dei processi che gestiscono il sistema e l'HW.
??? Ma lo sai che il processore è occupato quasi sempre al 95% da una singola applicazione e il restante 5% è sufficente per le decine di thread di cui parli ? Con un dual core normalmente avresti appunto un vantaggio del 5%...
Non metto in dubbio che se volessi giocare a quake4 e contemporanemanete masterizzare un cd e ricodificare un dvd avresti grossi vantaggi. per forza! Ma sinceramente quante volte vi capita di avere un'eventualità simile ?
Multicore.. non stimolano la vostra fantasia? ...
Comlpimenti nudo un discorso farcito di inesattezze :rolleyes:
Pare non sia stata notata l'ultima parte:
Per l'anno 2006, AMD introdurrà nuove versioni di processore Opteron dotate di supporto alla memoria DDR2. Per tali cpu verrà introdotto un nuovo Socket di connessione alla scheda madre, che stando a quanto dichiarato da AMD permetterà l'upgrade alle architetture Opteron Quad Core quando queste verranno presentate sul mercato.
Se così fosse, si potrebbe ipotizzare una compatibilità, a livello di controller, tra ddr2 e ddr3, il che potrebbe voler dire, sempre ipoteticamente, che i futuri processori desktop con controller per ddr3 potrebbero essere impiegati su socket M2 e potrebbero saltar fuori motherbord con slot per entrambe le memorie (a proposito, quanti pin dovrebbero avere le ddr3?). Resta da vedere quanti degli oltre duecento pin in più nel socket F siano destinati alla comunicazione con le ddr3 e quanti ad altre caratteristiche (linee di alimentazione, nuovo protocollo hyper transport, eventualmente virtualizzazione "avanzata" ( ? ) dei quattro core, eventualmente linee per connettere via hyper transport i core tra cpu - e socket - differenti quasi come se non fossero integrati sullo stesso die - ad esempio, come se fossero raggruppati a due a due ( ? ) - eventualmente qualcosa di simile per la gestione della memoria (?), eventualmente per funzioni diverse e specializzate di alcuni core - come si ipotizzava tempo fa, eventualmente - questo è l'ultimo, giuro :p - compatibilità del controller con memoria registered ed FBDIMM).
Forse, però, è più probabile che all'introduzione del supporto alle ddr3 nei desktop si abbia la migrazione verso un socket simile, e che la compatibilità (se dovesse essere confermata) sia stata introdotta in ambito server a causa dei diversi tempi di aggiornamento del parco macchine e dei diversi costi dei sistemi (l'opteron ha debuttato ad aprile 2003, il nuovo socket per i server arriverà a circa tre anni di distanza, e potrebbe essere controproducente cambiarlo di nuovo a meno di due).
Comunque, sul sito citato nella news, si parla genericamente di nuova tecnologia dei socket per rendere compatibili le schede madri per dual core con i quad core dopo aver menzionato il socket M2, anche se si passa immediatamente a citare gli opteron e il discorso non appare chiarissimo...
Inoltre un utonto che becca uno spyware o virus in tilt ;) manda al 99% solo un core, continuando così ad usare il pc senza avvertire nessun calo di prestazioni e continuando a diffondere virus! È fantastico! :doh:
[Leggermente OT]
A proposito di virtualizzazione...
Quando scenderanno di prezzo gli Athlon X2 ne prenderò uno per il mio server per farci girare sopra VMWare Player. L'incremento prestazionale dovuto al secondo core dovrebbe essere notevole. Visto che per forza di cose devo usare Windows come sistema principale, almeno posso tenere una macchina Linux sempre attiva (seppur virtuale)
[/OT]
VMware Player non sfrutterebbe il secondo core, visto che è solo il client per
accedere a un VMware che gira in una seconda macchina con un'altra CPU. Inoltre non puoi installare VMware e VMware Player sulla stessa macchina.
diabolik1981
18-11-2005, 08:31
Se così fosse, si potrebbe ipotizzare una compatibilità, a livello di controller, tra ddr2 e ddr3, il che potrebbe voler dire, sempre ipoteticamente, che i futuri processori desktop con controller per ddr3 potrebbero essere impiegati su socket M2 e potrebbero saltar fuori motherbord con slot per entrambe le memorie (a proposito, quanti pin dovrebbero avere le ddr3?). Resta da vedere quanti degli oltre duecento pin in più nel socket F siano destinati alla comunicazione con le ddr3 e quanti ad altre caratteristiche (linee di alimentazione, nuovo protocollo hyper transport, eventualmente virtualizzazione "avanzata" ( ? ) dei quattro core, eventualmente linee per connettere via hyper transport i core tra cpu - e socket - differenti quasi come se non fossero integrati sullo stesso die - ad esempio, come se fossero raggruppati a due a due ( ? ) - eventualmente qualcosa di simile per la gestione della memoria (?), eventualmente per funzioni diverse e specializzate di alcuni core - come si ipotizzava tempo fa, eventualmente - questo è l'ultimo, giuro :p - compatibilità del controller con memoria registered ed FBDIMM).
Non ricordo in quale articolo, ma non si era parlato di una compatibilità meccanica/elettrica tra DDR2 e DDR3 tale da permettere di upgradare nello stesso zoccolo dalla prima alla seconda?
ekerazha
18-11-2005, 09:13
Quello ke mi preoccupa un po' è il fatto ke i parecchi programmi saranno "ottimizzati" x il MULTI CORE, utilizzando almeno 2 THREAD ciacuno, quindi se avrò aperto 2 programmi (pesanti) ottimizzati assieme , mi occuperà ampliamente il procio (4 core), allo stesso modo in cui 2 programmi single thread mi occupano il Dual CORE.
:O
Non è bello.
Preferirei tenere aperti 4 Programmi single thread su un quad core.
E allora? Che c'entra? Dov'è il problema?
ekerazha
18-11-2005, 09:15
ormai è chiaro che il vero problema sono gli hard disk... speriamo di potere avere presto una valida alternativa, il problema sono le meccaniche ormai giunte al limite serve qulcosa di innovativo anche se fossero solo chip di memoria..
Già... quando vedo inserire nelle macchine fotografiche schedine Secure Digital da 4 GByte mi vengono i brividi... e pensare che fino a qualche anno fa nei PC desktop mettevono hard disk (quindi meccanici) da 400MB.
Il futuro sta nello sviluppo delle memorie programmabili elettricamente...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.