PDA

View Full Version : Il futuro dei processori è nel Dual Core


Redazione di Hardware Upg
18-05-2004, 09:11
Link alla notizia: http://news.hwupgrade.it/12441.html

AMD annuncia che il prossimo anno sarà caratterizzato da soluzioni Dual Core anche nel mercato Desktop. Maggiore potenza, Die più complessi ma minori problemi di consumo

Click sul link per visualizzare la notizia.

Jena Plinsky
18-05-2004, 09:34
se sono rose....le prenderemooooo!

task-
18-05-2004, 09:38
scalderanno anche di meno, ma non consumeranno il doppio?
Avanti di questo passo tra un annetto o 2 tra schede video a molex e proci 2dual core un PC non consumerà un pochino troppo?
Oltre che l'abbonamento adsl servirà pagare anche un abbonamento dedicato all' ENEL :D

Fan-of-fanZ
18-05-2004, 09:42
Credo che il processore bifronte sia il primo passo, poi la miniaturizzazione ci farà assistere a proci sempre più plurigemellari! :)

Ogni volta che qualcuno (in questo caso Intel) dice che il futuro di qualcosa è in una sua particolare forma, io penso che lo è il presente, e forse già il passato prossimo. Ahò, in informatica è cosi... il futuro, quello vero, di sicuro non è scritto nelle palle di cristallo di qualche grossa azienda! :cool:

Paolone87
18-05-2004, 10:07
Io credo che sia normale che per avere un incremento delle prestazioni ci debbano essere dei compromessi e visto che ormai è sicuro che la 6800 con il PCI Express richiederà un solo molex,credo che il dual core sia l'unica vera strada per il futuro.
Anche se adesso questa tecnologia è prevista solo per i sistemi server aspetto con impazienza l'arrivo di questa tecnologia anche su sistemi desktop.

midget
18-05-2004, 10:23
L'hardware va fortissimo ma il software arranca.
I programmatori non sono in grado di sfruttare tutta la potenza che i produttori gli mettono a disposizione.
Soluzioni ?

frankie
18-05-2004, 10:29
secondo me non è vero, fai come microzoz che con longhorn vuole succhiarsi tutta la potenza a disposizione per il SO, lasciala ai programmi.

e poi con word o ie non serve tutta sta potenza

cionci
18-05-2004, 10:45
Il problema è che la tecnologia di costruzione dei microprocessori raggiungera un limitazione ad ora invalicabile sotto ai 40 nanometri (ora siamo a 90)... Quindi fino a quando non ci saranno nuove invenzioni in tal proposito dovremo limitarci con le tecnologie attuali...
Il dual core non è altro che un modo per far aumentare la potenza dei nostri sistemi facendo, però, rallentare la corsa alla miniaturizzazione...
Uno stallo nella miniaturizzazione potrebbe portare a notevoli problemi economici per queste grosse aziende mantenendo un core per die...ed ecco che risolveranno questi problemi aumentando sia il numero di core nello stesso die che il numero di die nello stesso sistema... Sarà l'unico modo per continuare a vendere con lo stallo della miniaturizzazione previsto (visto come sta correndo Intel) fra il 2009 ed il 2010...

theBlooder
18-05-2004, 11:06
Il fatto è che per noi consumatori una "stallo" sarebbe in parte un gran beneficio :)
E' molto difficile per l'80% degli appassionati di PC stare dietro ai "nuovi arrivati", secondo me uno stallo per un breve periodo non sarebbe niente male, così finalmente i programmatori sfrutteranno seriamente tutto quello che hanno a disposizione!!

OverClocK79®
18-05-2004, 11:07
basta che inizino a fare qlk SO e qlk prg ottimizzato per dualcpu/dualcore
altrimenti siamo punto accapo

BYEZZZZZZZZZZZZZ

DevilsAdvocate
18-05-2004, 11:25
Ahahahah..... se l'unica soluzione per il futuro e' il dual core, difficilmente Longhorn girera' sui processori
del 2005, credo dovranno rimandarlo di qualche anno per consentire ai proci di aumentare le prestazioni......
in piu' non esiste attualmente nessun gioco( e probabilmente non esistera' mai) che sfrutti
il multithreading..... e come sappiamo i videogiochi
sono il maggiore elemento trascinante del mercato
(per il 95% delle altre applicazioni,se scritte bene,
(elimino quindi word excel e varie) basterebbe un pc
a 1,5ghz......... restano fuori codifica mp4 e grafica3d (ma la codifica mp4 sta pure diventando fuorilegge....)

OverClocK79®
18-05-2004, 11:32
Originariamente inviato da DevilsAdvocate

in piu' non esiste attualmente nessun gioco( e probabilmente non esistera' mai) che sfrutti
il multithreading.....

se nn sbaglio avevano fatto una versione di Q2 o Q3 per dual :)

cmq se il futuro è questo li faranno se vorranno farli girare

BYEZZZZZZZZZZZZZZZ

dins
18-05-2004, 11:42
Originariamente inviato da task-
scalderanno anche di meno, ma non consumeranno il doppio?



non si puo' scaldare di meno e consumare il doppio:
il consumo di potenza, espresso in watt, E' IL CALORE CHE VIENE PRODOTTO.

Se una cpu (single core o dual core poco importa) consuma il doppio vuol dire che produce il doppio del calore!

Il problema è che con 2 cpu (in linea teorica) hai doppio calore e prestazioni doppie.
Invece con 1 cpu non riesci a raddoppiare la potenza raddoppiando il consumo....lo triplichi o anche di più!!!
I prescott di ora consumano oltre 100watt e offrono solo pochi punti percentuali di prestazioni in più di un northwood ad esempio 2,4ghz che però consuma mooolto meno (66watt).

lasa
18-05-2004, 11:50
Secondo me il passaggio a soluzione desktop dual core non sarà così immediato se non altro perchè si cercherà di spremere al massimo le tecnologie attuali che credo abbiano ottimi margini di miglioramento......

plunderstorm
18-05-2004, 11:51
altro ke abbonamento dedicato all'enel... compro il cricetino lo faccio correre ^_^

DeMonViTo
18-05-2004, 12:38
Originariamente inviato da DevilsAdvocate
Ahahahah..... se l'unica soluzione per il futuro e' il dual core, difficilmente Longhorn girera' sui processori
del 2005, credo dovranno rimandarlo di qualche anno per consentire ai proci di aumentare le prestazioni......
in piu' non esiste attualmente nessun gioco( e probabilmente non esistera' mai) che sfrutti
il multithreading..... e come sappiamo i videogiochi
sono il maggiore elemento trascinante del mercato
(per il 95% delle altre applicazioni,se scritte bene,
(elimino quindi word excel e varie) basterebbe un pc
a 1,5ghz......... restano fuori codifica mp4 e grafica3d (ma la codifica mp4 sta pure diventando fuorilegge....)

in teoria e' un unico processore non due.. quindi non e' l'applicazione a dover fare la doppia chiamata, ma il chip di controllo della scheda madrem che divide il carico ai due core...

Se fossero due sarebbe un semplice un DUal Cpu ;)

fagozzi2003
18-05-2004, 12:39
Dual core.....double price?

xk180j
18-05-2004, 12:55
non sono sicuro che questa strada porti ad un reale aumento di prestazioni: lo sfruttamento della seconda cpu raramente supera il 50% quindi le frequenze non potranno abbassarsi di molto

pinius
18-05-2004, 13:12
Si parla tanto di Dual cpu etc etc
Ma se vi fossero dei programmi, scritti molto bene,
secondo voi con l'hardware a disposizione i nostri pc e lavori sarebbero in grado di viaggiare a velocità molto più elevate con meno carichi ??
Io nn vedo tutto questa necessità di fare macchine potenti quando poi nn vengono sfruttate.
E' inutile avere un motore ferrari quando poi la carrozzeria è di una 500 + di un TOT nn ci puoi andare e legge fiische se no si sfacia!! :-D

Opteranium
18-05-2004, 13:16
faccio un esempio di come la vedo io: se invece di un core a 4GHz ne metto due che lavorano a 2GHz, o non consumano e scaldano uguale a prima?

vero ?
falso ?
X ?

In caso di "vero", dove starebbe il beneficio?

Qualcuno mi illumini, danke.

saluti

cionci
18-05-2004, 13:18
Originariamente inviato da DeMonViTo
in teoria e' un unico processore non due.. quindi non e' l'applicazione a dover fare la doppia chiamata, ma il chip di controllo della scheda madrem che divide il carico ai due core...

Se fossero due sarebbe un semplice un DUal Cpu ;)
No...è proprio il programma che se vuole sfruttare due CPU deve essere progettato ad hoc... E' proprio come un dual processor...solamente in un solo chip ;)

biffuz
18-05-2004, 13:19
Non per dire, ma già 10 anni fa la Be Inc. vendeva macchine consumer biprocessore con un sistema operativo fatto ad arte... tanto per fare un esempio, ogni finestra gira in un thread separato, quindi non ci vuole un genio per sfruttare le due CPU.

Ma uno dei principali ostacoli allo sviluppo del software multithread sono gli attuali linguaggi di programmazione procedurali, che danno per scontato che i dati non vengono alterati dall'esterno; questo non può essere garantito in un sistema multithreading.
Con il paradigma a oggetti sarebbe già più semplice, ma l'implementazione non lo è.

cionci
18-05-2004, 13:21
Originariamente inviato da Opteranium
faccio un esempio di come la vedo io: se invece di un core a 4GHz ne metto due che lavorano a 2GHz, o non consumano e scaldano uguale a prima?

vero ?
falso ?
X ?

In caso di "vero", dove starebbe il beneficio?

Qualcuno mi illumini, danke.

saluti
Con lo stesso utilzizo dovrebbero comunque consumare di più di prima...quando una CPU è al 100% l'altra non è "spenta" ;)
Il vero beneficio è far salire la potenza elaborativa, ma sicuramente con consumi maggiori...

DeMonViTo
18-05-2004, 13:22
Originariamente inviato da cionci
No...è proprio il programma che se vuole sfruttare due CPU deve essere progettato ad hoc... E' proprio come un dual processor...solamente in un solo chip ;)

sei sicuro?

cavoli ma cosi' e' veramente una merd@


:muro:

cionci
18-05-2004, 13:23
Originariamente inviato da biffuz
ogni finestra gira in un thread separato, quindi non ci vuole un genio per sfruttare le due CPU.
Perchè...Windows come credic he faccia ? ;)

zerothehero
18-05-2004, 13:23
in effetti un ipotetico dothan dual core 4 giga consumerebbe 25+25 watt =50 w a 90 nanometri(ovviamente se faranno un dothan dual chore lo farebbero a 64 nanometri quindi consumerebbe anche di meno) mentre un prescott single core sempre con la medesima miniaturizzazione ne consuma 100 di watt...il problema è che bisognerà avere giochi, programmi...tutto scritto in modo da usufruire del dual core altrimenti non se ne vedranno i benefici..o sbaglio?

avvelenato
18-05-2004, 13:27
giusto, iniziamo ad abbassare i prezzi dei nuovi giochi, così che i programmatori siano costretti a lavorare su quelli del futuro! :sofico:

Opteranium
18-05-2004, 13:28
bè, ma allora mi sembra una caxxata, scusa. Se consuma anche più di prima che cavolo lo propongono a fare come "processore con requisiti di dissipazione termica non critici" ?

boh, continuo a non capire.. :-(

zerothehero
18-05-2004, 13:32
Potrei sbagliarmi ma da quello che so io in windows il multithreating è "simulato" nel senso che alla fine il processore mette in coda in processi ma ne esegue sempre uno alla volta (parte uno,lo interrompe momentaneamente..passa al secondo lo interrompe etc..) con gli attuali processori a single core si ha sempre l'esecuzione di un'operazione per volta e quindi si ha un tipo di programmazione...invece con i processori dual core si avrebbe la possibilità di eseguire realmente due thread per volta senza dover interrompere momentaneamente un processo per farne partire un altro...quindi se i programmi fossero scritti espressamente per un processore dual core (ipoteticamente un dothan 2giga+2giga) il programma potrebbe sfruttare soltanto il 2 giga...

zerothehero
18-05-2004, 13:34
quindi se i programmi NON(ho dimenticato la negazione) fossero scritti espressamente per un processore dual core (ipoteticamente un dothan 2giga+2giga) il programma potrebbe sfruttare soltanto il 2 giga...

Gauss75
18-05-2004, 13:34
Tenete presente che la potenza dissipata (consumo) è proporzionale al quadrato della frequenza operativa... percui un processore a 4 ghz consuma di + che 2 a 2 ghz

DioBrando
18-05-2004, 13:58
Si parla tanto di Dual cpu etc etc
Ma se vi fossero dei programmi, scritti molto bene,
secondo voi con l'hardware a disposizione i nostri pc e lavori sarebbero in grado di viaggiare a velocità molto più elevate con meno carichi ??
Io nn vedo tutto questa necessità di fare macchine potenti quando poi nn vengono sfruttate.
E' inutile avere un motore ferrari quando poi la carrozzeria è di una 500 + di un TOT nn ci puoi andare e legge fiische se no si sfacia!! :-D

la necessità si chiama legge di mercato e corsa all'upgrade/innovazione tecnologica

cosa che anche se a te e a me non ne può fregare di meno per i tempi espressi ( io aggiorno la cpu ogni 2-3 anni e non ogni 3 mesi come dovrei fare secondo i produttori), però manda l'economia avanti.

The show must go on

speriamo solo oltre si pensi anche ad ottimizzare le architetture e non solo alla frequenza come si è fatto fino a poco tempo fà

lucusta
18-05-2004, 15:24
per me e' la soluzione a cui si doveva arrivare ben prima, ma la stessa intel ha frenato da anni (cito il supporto a piu' cpu dei P3 celeron e P3 poi per garantire il mercato agli xeon).
Questo ha frenato a catena anche la produzione di chipset per AMD dual, che supportavano tutti il multi processore, prima degli MP, ma non c'erano chipset oltre che il costoso 740-750..
a catena perche':
il mercato consumer lo detiene intel, gli OS "consumer" non avevano bisogno di implementare il dual ed aumentare la complessita' (il costo sarebbe stato ugualmente alto, visto che per un OS consumer si DEVONO spendere 100 e passa euro), senza OS non si possono fare programmi adatti, e giu' a catena..

Ora la prospettiva e' differente:
primo il consumo, perche' 2 CPU a 2 ghz , come faceva osservare giustamente Gauss75, non consumano come una 4ghz, anche se in pratica non dovrebbero produrre come un 4ghz, secondo perche' la giusta implementazione del risparmio energetico del sistema puo' spengere totalmente uno dei due core nel momento in cui il carico e' minimo, abbassando considerevolmente il consumo, in quanto, anche in idle, i transistor da alimentare sono comunque molti ed il consumo finale e' piu' basso, ma non proporzionalmente piu' basso; cosi' invece se un core non serve non si alimeta proprio..
terzo perche' gli OS consumer sono minimo dual cpu (NT), percio' il supporto operativo e' gia' ora garantito;
quarto perche' il supporto garantisce gia' ora l'esecuzione di una famiglia di tread appartenenti ad un programma per l'esecuzione su una cpu, e nessuno vieta di usare l'altra per un altro programma; none' un vero multitread, ma il multitasking e piu' che garantito.
Quinto perche' con il memory controller on die le prestazioni sono superiori a quelle dei vecchi sistemi a piu' vie (stento e con ottimizzazioni si raggiungeva il 50%), dove il collo di bottiglia lo faceva il chipset e il bus unico che faceva da tunnel sulle ram ( e se intel non provvede a mettere il controller on die poco ci fa' nel raddopiare i segnali e ad alzare la frequenza!);
Sesto perche' comunque, anche abbassando il gate del transistor, ed il consumo generale, quest'ultimo sarebbe comunque elevato (vedi NW vs Prescot) e per garantire lo smaltimento del calore bisogna comunque avere una superficie adeguata, percio' il risparmio economico dato dalla miniaturizzazione per via della minor superficie e' assottigliato dal fatto che per smaltire tot watt e' necessaria una tot superficie; tanto vale provare ad occupare tutta la superfice con un erogazione di watt si uguale, ma con molte piu' prestazioni perche' con molti piu' transistor.

insomma, le premesse sono ottime, non solo buone, e piu' si andra' avanti piu' i core aumenteranno, ottenendo potenza a quanti, ossia a step di core utilizzati..
e poi verra' l'ottimizzazione degli OS e dei programmi..
dopo, molto dopo..

ilGraspa
18-05-2004, 16:16
In effetti un programma x sfruttare i dual core deve essere strutturato in almeno due thread distinti..
Altrimenti non si poò eseguire in parallelo un flusso di programma che di per suo è sequenziale: a=0, b=a+1, ecc..
In alcuni casi si può fare, ma c'è una quantità di controlli sulle variabili utilizzate da fare, e non è gestibile via hardware.
Già quando Intel ha introdotto l'hyperthreading molte applicazioni (vedi Photoshop) hanno ottimizzato il codice per poter essere eseguito in parallelo, e in futuro molti altri seguiranno (..dovranno seguire..) questa strada.

Ciao

cionci
18-05-2004, 16:21
Originariamente inviato da Opteranium
bè, ma allora mi sembra una caxxata, scusa. Se consuma anche più di prima che cavolo lo propongono a fare come "processore con requisiti di dissipazione termica non critici" ?

boh, continuo a non capire.. :-(
Parlavo rispetto alla stessa CPU in single core...e alla stessa frequenza, chiaramente se cambi CPU il discorso non vale più... Ad esempio... Un die con due core Pentium-M Dothan a 2 Ghz consumerà di emdia quasi il doppio di un singolo Pentium-M Dothan a 2 Ghz...ma probabilmente andrà in media meglio di una CPU Pentium 4 Prescott a 3.4 Ghz e consumerà circa la metà ;)

cionci
18-05-2004, 16:24
Originariamente inviato da ilGraspa
Già quando Intel ha introdotto l'hyperthreading molte applicazioni (vedi Photoshop) hanno ottimizzato il codice per poter essere eseguito in parallelo, e in futuro molti altri seguiranno (..dovranno seguire..) questa strada.

E conta che nei Pentium-M l'HyperThreading non ha senso di esistere visto che l'occupazione media delle unità di calcolo è molto meggiore...
Anche se probabilmente le stesse applicazioni costruite per l'HT potranno sfruttare il dual core...

Trabant
18-05-2004, 18:27
Mi chiedo - premetto: da ignorante in materia! - perchè invece di rincorrere ottimizzazioni sempre più spinte delle CPU, non si pensa ad introdurre delle piattaforme multiprocessore anche nel mercato consumer?

Da idealista, immagino un "mondo migliore" nel quale invece di spendere 1000€ per l'ultima CPU del tipo "EE turbo intercooler" uno possa equipaggiare il proprio sistema con 2-3..N CPU da diciamo 200€, in funzione delle applicazioni che usa e delle prestazioni che vuole ottenere. Questo con i vantaggi di:

1. scalabilità: la potenza elaborativa sarebbe dimensionata all'effettivo utilizzo, e upgradabile nel corso del tempo.
2. affidabilità: se si rompe un componente, rallentano le prestazioni ma il sistema non si ferma, oltretutto il costo di sostituzione sarebbe nettamente inferiore.
3. altri (che non mi vengono in mente ...)

Probabilmente (chiedo conforto ai più tecnici) per sfruttare al meglio questa impostazione dovrebbero essere progettati nuovi chipset, mb e sistemi operativi + sw ottimizzati, però ci sarebbe il vantaggio economico del basso costo di produzione delle CPU per le quali potrebbero essere sfruttati impianti già ammortizzati.

Se le cose stanno effettivamente così, non mi spiego se non con logiche folli di profitto la rincorsa ai Mhz e nm nei programmi dei produttori, così come non mi spiego perche i costruttori di mb e sviluppatori sw si adeguino al gioco al massacro.

Bah ...

Banus
18-05-2004, 18:29
Ottimo commento lucusta :D :D

Riguardo all'ipotetico dual Dothan, non mi sembra difficile implementare un sistema di risparmio energetico simile a quello del processore singolo, che tenga conto del carico di lavoro su entrambi i chip. Sarebbero alimentate prevalentemente le zone più utilizzate, se ne viene usato solo uno consumerà circa la metà...

Sui limiti del silicio... ho notizia di un trigate su cui sta lavorando Intel, e garatirebbe una tecnologia realizzabile a 35 nm. Però funziona su principi completamente diversi dai CMOS, cioè gli ingegneri dovrebbero perlomeno riscrivere intere parti dei loro software di progettazione.
Comunque non credo si riuscirà mai ad andare sotto i 10 nm, la corrente a quelle scale è fortemente quantizzata, la probabilità di malfunzionamenti diventa troppo alta.

Anche se probabilmente le stesse applicazioni costruite per l'HT potranno sfruttare il dual core...
L'HT è fatto in modo da essere completamente trasparente all'applicazione, è il processore a riordinare le istruzioni secondo una certa euristica e mandarle in unità separate... Non ho idea invece di come si potrebbe rendere trasparente a un processo non multithreaded l'uso simultaneo di 2 CPU... è estremamente complicato..

lucusta
18-05-2004, 20:34
Traban, in verita' nessuno ti vieta di avere gia' ora un prodotto consumer a piu' CPU, solo che lo sfrutteresti la meta' di un professionista per via del pacchetto software non ottimizzato; in piu' il problema e' quello descritto nel mio precedente post: ad intel non conveniva mischiare consumer con professionale, ecco perche' ci sono i P4 a singolo processore, e gli xeon a piu' vie e dal costo doppio (anche perche' avere MB e MB di caches per navigare in rete non serve).
Per quanto riguarda la pura tecnica hw non ci sono sostanziali differenze in cpu multi o singole, ma dai vari datasheet dei processori che possono essere usati a piu' vie, c'e' chiaramente scritto che e' conveniente non solo usare processori a piu' vie nati per essere cosi' (d'altronde intel ha giustamente usato 2 socket diversi, mentre gli MP ahtlon sono uguali agli XP solo che testati per questa modalita'), ma anche che le cpu dovrebbero essere dello stesso step e anche possibilmente dello stesso lotto ( credo che arrivi a dire anche la massima distanza che dovrebbe esserci tra le due cpu sul wafer, o che devono appartenere allo stesso quadrante, ma non sono sicuro); questo perche' le minime differenze di assorbimento potrebbero procurare dei problemi in quanto a stabilita'.. in un singolo die con due core, il tutto si annulla, essendo core adiacenti.
Invece, per qanto riguarda un possibile malfunzionamento di una cpu ed alla continuazione dell'esecuzione del lavoro a meta' potenza, questo e' quantomai improbabile farlo; non sono dischi in raid, sono unita' di calcolo, ed assorbono una 50ina di ampere, percio' se collassa uno ti devi ritenere fortunato che non si porti dietro non solo la seconda cpu, ma anche tutto il resto..
la soluzione sarebbe il clustering, ossia PC completamente separati collegati dal network dedicato, ma quella e' un'altra tecnica per ottenere elevate prestazioni (a basso costo), ma certo non e' pensabile adoperarla per sistemi con prestazioni raggiungibili da altre comuni cpu singole.
logicaente si puo' fare.. ad esempio una divx station a 4 o 8 schede madri a singolo processore entry livel che codificano 1/4 od 1/8 del video, che a conti fatti costerebbe meno di un dual xeon a 3 ghz e renderebbe certamente di piu', ma e' una stazione dedicata ad un singolo compito, ed e' questo il problema del clustering..

^TiGeRShArK^
18-05-2004, 22:32
cmq x un uso generale la soluzione ad n processori non porta ad un miglioramento pari ad n volte.
Invece, al crescere del numero di processori, il miglioramento tenderà a decsrescere, fino a quando, da un certo punto in poi si avrà addirittura un peggioramento delle prestazioni...
Se così non fosse due processori dovrebbero fornire il 100% di potenza in più, ma così non è dato ke nei casi migliori si assiste ad un miglioramento dell'80%....

Denton84
19-05-2004, 08:58
Originariamente inviato da task-
scalderanno anche di meno, ma non consumeranno il doppio?
Avanti di questo passo tra un annetto o 2 tra schede video a molex e proci 2dual core un PC non consumerà un pochino troppo?
Oltre che l'abbonamento adsl servirà pagare anche un abbonamento dedicato all' ENEL :D

non penso che sarà così, anzi secondo me l'introduzione del dual core ha come obiettivo principale anche il poter scalare maggiormente i consumi.

Del resto le applicazioni principali non sfruttano mai completamente la cpu, anzi una minima parte di quelle recenti, ma le cpu monocore non possono disattivare dei transistor ma al limite scalare di freqeunza, intel per sfruttarli maggiromente quindi ha introdotto l'ht.

Ma con una soluzione dual core penso sia possibile disattivare un core quando non serve delegando il compito all'altro, e si hanno consumi sensibilmente inferiori con due core da 2ghz rispetto a uno di 3ghz di pari architettura se si utilizzano in questo senso, dato che quando non c'è l'utilizzo massimo lavora solo uno di questi due.

Io penso agiranno in questo modo.

Alla fine tranne i giochi niente va a occupare la cpu completamente, anche con programmi pesanti c'è ingente richiesta di memoria, ma la cpu viene sfruttata appieno molto rararemente, forse all'avvio e in alcuni processi come la renderizzazione, ma non durante tutto l'utilizzo del programma.


edit, alla fine era stato tutto già detto sono arrivato tardi come al solito :D

sorry

cionci
19-05-2004, 09:51
Originariamente inviato da Trabant
Mi chiedo - premetto: da ignorante in materia! - perchè invece di rincorrere ottimizzazioni sempre più spinte delle CPU, non si pensa ad introdurre delle piattaforme multiprocessore anche nel mercato consumer?
E' quello che stanno cercando di fare con queste CPU multicore... Sono di fatto equivalenti ad un sistema dual CPU...l'unica differenza è che condividono lo stesso canale con la memoria...
Ed è un modo per far calare i costi di produzione delle schede madri dual (layout + semplice) e dei processori (costruire due CPU che condividono la circuiteria di interfaccia verso l'esterno ed il package costa meno di produrre due CPU separate in due package)...

cionci
19-05-2004, 09:58
Originariamente inviato da Banus
L'HT è fatto in modo da essere completamente trasparente all'applicazione, è il processore a riordinare le istruzioni secondo una certa euristica e mandarle in unità separate... Non ho idea invece di come si potrebbe rendere trasparente a un processo non multithreaded l'uso simultaneo di 2 CPU... è estremamente complicato..
Le rioridna, ma sono di fatto applicazioni multithreaded !!! Di fatto nella CPU ci sono due flussi di istruzioni separati (due thread) "mescolati" ad hoc per occupare in percentuale maggiore le unità di esecuzione ;)

cionci
19-05-2004, 10:06
Originariamente inviato da lucusta
e anche possibilmente dello stesso lotto ( credo che arrivi a dire anche la massima distanza che dovrebbe esserci tra le due cpu sul wafer, o che devono appartenere allo stesso quadrante, ma non sono sicuro); questo perche' le minime differenze di assorbimento potrebbero procurare dei problemi in quanto a stabilita'.. in un singolo die con due core, il tutto si annulla, essendo core adiacenti.
Guarda...questo è opinabile... Se leggi la recensione dell'Opteron 250 su Techreport vedrai che per sbaglio hanno ricevuto un sistema dual Xeon funzionante in cui una CPU lavorava a 3.2. Ghz e l'altra 3.06 Ghz !!! ;)

lucusta
19-05-2004, 10:40
se e' per questo, e' piu' che opinabile..
ricordo di esperimenti con p3 a differenti mhz (e funzionavano), con differenti tipi di cpu, come celeron mendocino e p3, e funzionavano, e con tutto il marasma che c'e' sulle mod per bp6 (che scheda!), dove si potevano montrare i mendocino anche a differenti moltiplicatori;
questo non significa che nei datasheet intel non c'era scritto quello che ti ho detto.
Intel ci tiene a puntualizzare certe cose..

di sicuro oggi le cose sono molto diverse, in quanto le schede dual hanno molte volte vrm separati, dovuto anche al consumo di un singolo processore.

BlackBug
19-05-2004, 12:04
Bella scoperta han fatto alla AMD...è come se venissero da me e mi dicessero dobbiamo aumentare la potenza di sto motore e io gli dicessi...aumentiamo la cilindrata!!!Ora con il costo del petrolio che abbiamo dovrebbero cercare di ottenere di + spendendo meno energia elettrica(che specialmente in italia arriva dal petrolio)...

Denton84
19-05-2004, 13:41
Originariamente inviato da BlackBug
Bella scoperta han fatto alla AMD...è come se venissero da me e mi dicessero dobbiamo aumentare la potenza di sto motore e io gli dicessi...aumentiamo la cilindrata!!!Ora con il costo del petrolio che abbiamo dovrebbero cercare di ottenere di + spendendo meno energia elettrica(che specialmente in italia arriva dal petrolio)...

è quello che stanno cercando di fare.
che a qualcuno appena sente parlare di due core senza conoscere niente in merito (come tutti o la maggiorparte del resto) sbotti con la sua idea che raddoppiano i consumi non vuol dire che sia la verità.

Sicuramente consumano il doppio di un sistema monocore di pari frequenza a regimi al massimo, ma:
1) non sappiamo come si comportano a regimi + bassi e quindi su tempi di utilizzo benm maggiori che quelli di regimi di occupazione cpu alta.

2) anche a regimi alti un sistema dual core non consuma probabilmente + corrente di un sistema monocore di PARI PRESTAZIONI anzichè pari frequenza.

è ovvio che due core consumano + di uno, ma vanno anche + di uno, quindi il confronto di consumi deve essere fatto con un monocore che va uguale, non con un monocore che va la metà

painlord2k
20-05-2004, 18:23
Locusta e gauss75 hanno fatto degli ottimi posts.

La soluzione multi-CPU, inoltre ha dei vantaggi non citati:

1) Minor tempo sprecato per passare da un processo ad un'altro sulla stessa CPU (ottimo se uno ha molti processi e programmi aperti nello stesso momento);

2) il S.O. non può venir bloccato da una applicazione che non rilascia il controllo della CPU.

3) C'è meno bisogno di usare gran parte della CPU per prevedere quali saranno le istruzioni che saranno eseguite, quindi meno tempi morti nei quali la CPU non fa nulla mentre le pipe si svuotano e si riempiono, e sopratutto pipe più corte di quelle follemente lunghe che ci sono ora.

3) Nello stesso silicio lasciato libero da questa circuiteria, si potra implementare qualche cosa di diverso, come ha fatto VIA con le sue ultime CPU:
AES, RSA, SHA-1, SHA-2 e un vero generatore di numeri casuali.
Oppure cominciare a implementare dei FPGA all'interno delle CPU, per poter elaborare istruzioni specifiche, altamente impegnative, all'interno della CPU, quando queste sono richieste e su richiesta del programma o del S.O. (per esempio, se il programma deve usare la CPU intensivamente per calcolare lo SHA-1 hash, l'FPGA viene programmato per calcolare lo SHA-1; un'altro programma potrebbe fare in seguito lo stesso per un'altra istruzione specifica).
L'approccio FPGA da molta più flessibilità, ma è più complesso da realizzare (non moltissimo, basterebbe avere delle librerie adatte) e meno performante di quello di implementare direttamente in HW le stesse funzioni (circa 10x).

cdimauro
21-05-2004, 06:17
Originariamente inviato da painlord2k
La soluzione multi-CPU, inoltre ha dei vantaggi non citati:

2) il S.O. non può venir bloccato da una applicazione che non rilascia il controllo della CPU.
A meno che non si trovi all'interno di sezioni critiche. ;)
3) C'è meno bisogno di usare gran parte della CPU per prevedere quali saranno le istruzioni che saranno eseguite, quindi meno tempi morti nei quali la CPU non fa nulla mentre le pipe si svuotano e si riempiono, e sopratutto pipe più corte di quelle follemente lunghe che ci sono ora.
Questo non c'entra nulla col fatto di avere sistemi dual-core.
3) Nello stesso silicio lasciato libero da questa circuiteria, si potra implementare qualche cosa di diverso, come ha fatto VIA con le sue ultime CPU:
AES, RSA, SHA-1, SHA-2 e un vero generatore di numeri casuali.
Un generatore di veri numeri casuali, caso mai... :)
Oppure cominciare a implementare dei FPGA all'interno delle CPU, per poter elaborare istruzioni specifiche, altamente impegnative, all'interno della CPU, quando queste sono richieste e su richiesta del programma o del S.O. (per esempio, se il programma deve usare la CPU intensivamente per calcolare lo SHA-1 hash, l'FPGA viene programmato per calcolare lo SHA-1; un'altro programma potrebbe fare in seguito lo stesso per un'altra istruzione specifica).
L'approccio FPGA da molta più flessibilità, ma è più complesso da realizzare (non moltissimo, basterebbe avere delle librerie adatte) e meno performante di quello di implementare direttamente in HW le stesse funzioni (circa 10x).
Non solo è più complesso e richiede un approccio diverso, ma bisogna vedere anche se effettivamente il guadagno computazionale è rilevante rispetto al costo aggiuntivo dovuto all'introduzione dell'FPGA.

lucusta
22-05-2004, 15:47
prima di vedere un FPGA o l'SHA-2, preferirei vedere integrati i controller, dentro al core, tipo quelli della memoria, ma anch i bus "lenti" e di comunicazione, in modo da riuscire ad ottenere una decisa riduzione dei chips totali su una scheda, oltre al significativo guadagno in stabilita' e velocita'.
Efficeon e Athlon-64 sono solo all'inizio, e confesso, e' un mio sogno vedere una CPU multicore con i sottosistemi video, audio, lan e di comunicazione integrati (sia verso il sistema, sia con link per ulteriori CPU), piuttosto che avere caches a volonta' e potenze esagerate e mal sfruttate..

cdimauro
22-05-2004, 16:32
Non sono d'accordo: integrare tutto richiede troppe risorse, e tarpa le ali agli aggiornamenti. Oltre a ciò, in caso di problemi di una sezione, potresti dover buttare l'intero chip.
Certamente l'integrazione del controller della memoria e l'adozione del controller HyperTransport per la comunicazione aiuta molto a limitare il numero di strati necessari per realizzare una scheda madre, ma se volessimo puntare su una maggior integrazione, preferirei che fossero inclusi su chip il controller degli interrupt, del DMA e di qualche periferica di I/O "legacy", lasciando tutto il resto all'esterno.
Magari una buona cosa sarebbe l'adozione di piccoli "moduli" da collegare direttamente al bus HT per avere il southbridge, la scheda audio, e la scheda video: in questo modo aggiornare una parte del sistema risulterebbe comoda ed economica.