|
|
|
![]() |
|
Strumenti |
![]() |
#21 | |
Senior Member
Iscritto dal: Apr 2000
Città: Vicino a Montecatini(Pistoia) Moto:Kawasaki Ninja ZX-9R Scudetti: 29
Messaggi: 53971
|
Quote:
![]() |
|
![]() |
![]() |
![]() |
#22 |
Senior Member
Iscritto dal: Jul 2001
Messaggi: 3481
|
Non per dire, ma già 10 anni fa la Be Inc. vendeva macchine consumer biprocessore con un sistema operativo fatto ad arte... tanto per fare un esempio, ogni finestra gira in un thread separato, quindi non ci vuole un genio per sfruttare le due CPU.
Ma uno dei principali ostacoli allo sviluppo del software multithread sono gli attuali linguaggi di programmazione procedurali, che danno per scontato che i dati non vengono alterati dall'esterno; questo non può essere garantito in un sistema multithreading. Con il paradigma a oggetti sarebbe già più semplice, ma l'implementazione non lo è. |
![]() |
![]() |
![]() |
#23 | |
Senior Member
Iscritto dal: Apr 2000
Città: Vicino a Montecatini(Pistoia) Moto:Kawasaki Ninja ZX-9R Scudetti: 29
Messaggi: 53971
|
Re: domanda
Quote:
![]() Il vero beneficio è far salire la potenza elaborativa, ma sicuramente con consumi maggiori... |
|
![]() |
![]() |
![]() |
#24 | |
Senior Member
Iscritto dal: Feb 2003
Città: Genova
Messaggi: 758
|
Quote:
cavoli ma cosi' e' veramente una merd@ ![]()
__________________
Case: Corsair Obsidian 750D PSU: SeaSonic Focus 750W MB: Asus PRIME x470-PRO CPU: AMD Ryzen 7 2700X AIO: NZXT Kraken x72 360mm Scheda Video: NVIDIA EVGARTX 3080TI FTW3 ULTRA HD: Samsung 970 EVO + Samsung 840 EVO + 4TB WD RED |
|
![]() |
![]() |
![]() |
#25 | |
Senior Member
Iscritto dal: Apr 2000
Città: Vicino a Montecatini(Pistoia) Moto:Kawasaki Ninja ZX-9R Scudetti: 29
Messaggi: 53971
|
Quote:
![]() |
|
![]() |
![]() |
![]() |
#26 |
Senior Member
Iscritto dal: Aug 2003
Città: milano
Messaggi: 14031
|
in effetti un ipotetico dothan dual core 4 giga consumerebbe 25+25 watt =50 w a 90 nanometri(ovviamente se faranno un dothan dual chore lo farebbero a 64 nanometri quindi consumerebbe anche di meno) mentre un prescott single core sempre con la medesima miniaturizzazione ne consuma 100 di watt...il problema è che bisognerà avere giochi, programmi...tutto scritto in modo da usufruire del dual core altrimenti non se ne vedranno i benefici..o sbaglio?
|
![]() |
![]() |
![]() |
#27 |
Senior Member
Iscritto dal: Aug 2003
Città: Legnano (MI)
Messaggi: 4901
|
giusto, iniziamo ad abbassare i prezzi dei nuovi giochi, così che i programmatori siano costretti a lavorare su quelli del futuro!
![]() |
![]() |
![]() |
![]() |
#28 |
Senior Member
Iscritto dal: Feb 2004
Messaggi: 5999
|
cionci
bè, ma allora mi sembra una caxxata, scusa. Se consuma anche più di prima che cavolo lo propongono a fare come "processore con requisiti di dissipazione termica non critici" ?
boh, continuo a non capire.. :-( |
![]() |
![]() |
![]() |
#29 |
Senior Member
Iscritto dal: Aug 2003
Città: milano
Messaggi: 14031
|
Potrei sbagliarmi ma da quello che so io in windows il multithreating è "simulato" nel senso che alla fine il processore mette in coda in processi ma ne esegue sempre uno alla volta (parte uno,lo interrompe momentaneamente..passa al secondo lo interrompe etc..) con gli attuali processori a single core si ha sempre l'esecuzione di un'operazione per volta e quindi si ha un tipo di programmazione...invece con i processori dual core si avrebbe la possibilità di eseguire realmente due thread per volta senza dover interrompere momentaneamente un processo per farne partire un altro...quindi se i programmi fossero scritti espressamente per un processore dual core (ipoteticamente un dothan 2giga+2giga) il programma potrebbe sfruttare soltanto il 2 giga...
|
![]() |
![]() |
![]() |
#30 |
Senior Member
Iscritto dal: Aug 2003
Città: milano
Messaggi: 14031
|
quindi se i programmi NON(ho dimenticato la negazione) fossero scritti espressamente per un processore dual core (ipoteticamente un dothan 2giga+2giga) il programma potrebbe sfruttare soltanto il 2 giga...
|
![]() |
![]() |
![]() |
#31 |
Member
Iscritto dal: Oct 2001
Città: Pisa
Messaggi: 85
|
Tenete presente che la potenza dissipata (consumo) è proporzionale al quadrato della frequenza operativa... percui un processore a 4 ghz consuma di + che 2 a 2 ghz
|
![]() |
![]() |
![]() |
#32 | |
Senior Member
Iscritto dal: Jan 2003
Città: Milano - Udine
Messaggi: 9418
|
Quote:
cosa che anche se a te e a me non ne può fregare di meno per i tempi espressi ( io aggiorno la cpu ogni 2-3 anni e non ogni 3 mesi come dovrei fare secondo i produttori), però manda l'economia avanti. The show must go on speriamo solo oltre si pensi anche ad ottimizzare le architetture e non solo alla frequenza come si è fatto fino a poco tempo fà |
|
![]() |
![]() |
![]() |
#33 |
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
per me e' la soluzione a cui si doveva arrivare ben prima, ma la stessa intel ha frenato da anni (cito il supporto a piu' cpu dei P3 celeron e P3 poi per garantire il mercato agli xeon).
Questo ha frenato a catena anche la produzione di chipset per AMD dual, che supportavano tutti il multi processore, prima degli MP, ma non c'erano chipset oltre che il costoso 740-750.. a catena perche': il mercato consumer lo detiene intel, gli OS "consumer" non avevano bisogno di implementare il dual ed aumentare la complessita' (il costo sarebbe stato ugualmente alto, visto che per un OS consumer si DEVONO spendere 100 e passa euro), senza OS non si possono fare programmi adatti, e giu' a catena.. Ora la prospettiva e' differente: primo il consumo, perche' 2 CPU a 2 ghz , come faceva osservare giustamente Gauss75, non consumano come una 4ghz, anche se in pratica non dovrebbero produrre come un 4ghz, secondo perche' la giusta implementazione del risparmio energetico del sistema puo' spengere totalmente uno dei due core nel momento in cui il carico e' minimo, abbassando considerevolmente il consumo, in quanto, anche in idle, i transistor da alimentare sono comunque molti ed il consumo finale e' piu' basso, ma non proporzionalmente piu' basso; cosi' invece se un core non serve non si alimeta proprio.. terzo perche' gli OS consumer sono minimo dual cpu (NT), percio' il supporto operativo e' gia' ora garantito; quarto perche' il supporto garantisce gia' ora l'esecuzione di una famiglia di tread appartenenti ad un programma per l'esecuzione su una cpu, e nessuno vieta di usare l'altra per un altro programma; none' un vero multitread, ma il multitasking e piu' che garantito. Quinto perche' con il memory controller on die le prestazioni sono superiori a quelle dei vecchi sistemi a piu' vie (stento e con ottimizzazioni si raggiungeva il 50%), dove il collo di bottiglia lo faceva il chipset e il bus unico che faceva da tunnel sulle ram ( e se intel non provvede a mettere il controller on die poco ci fa' nel raddopiare i segnali e ad alzare la frequenza!); Sesto perche' comunque, anche abbassando il gate del transistor, ed il consumo generale, quest'ultimo sarebbe comunque elevato (vedi NW vs Prescot) e per garantire lo smaltimento del calore bisogna comunque avere una superficie adeguata, percio' il risparmio economico dato dalla miniaturizzazione per via della minor superficie e' assottigliato dal fatto che per smaltire tot watt e' necessaria una tot superficie; tanto vale provare ad occupare tutta la superfice con un erogazione di watt si uguale, ma con molte piu' prestazioni perche' con molti piu' transistor. insomma, le premesse sono ottime, non solo buone, e piu' si andra' avanti piu' i core aumenteranno, ottenendo potenza a quanti, ossia a step di core utilizzati.. e poi verra' l'ottimizzazione degli OS e dei programmi.. dopo, molto dopo.. |
![]() |
![]() |
![]() |
#34 |
Member
Iscritto dal: Mar 2004
Città: Venezia
Messaggi: 158
|
In effetti un programma x sfruttare i dual core deve essere strutturato in almeno due thread distinti..
Altrimenti non si poò eseguire in parallelo un flusso di programma che di per suo è sequenziale: a=0, b=a+1, ecc.. In alcuni casi si può fare, ma c'è una quantità di controlli sulle variabili utilizzate da fare, e non è gestibile via hardware. Già quando Intel ha introdotto l'hyperthreading molte applicazioni (vedi Photoshop) hanno ottimizzato il codice per poter essere eseguito in parallelo, e in futuro molti altri seguiranno (..dovranno seguire..) questa strada. Ciao |
![]() |
![]() |
![]() |
#35 | |
Senior Member
Iscritto dal: Apr 2000
Città: Vicino a Montecatini(Pistoia) Moto:Kawasaki Ninja ZX-9R Scudetti: 29
Messaggi: 53971
|
Re: cionci
Quote:
![]() |
|
![]() |
![]() |
![]() |
#36 | |
Senior Member
Iscritto dal: Apr 2000
Città: Vicino a Montecatini(Pistoia) Moto:Kawasaki Ninja ZX-9R Scudetti: 29
Messaggi: 53971
|
Quote:
Anche se probabilmente le stesse applicazioni costruite per l'HT potranno sfruttare il dual core... |
|
![]() |
![]() |
![]() |
#37 |
Messaggi: n/a
|
... e perchè non dual-CPU?
Mi chiedo - premetto: da ignorante in materia! - perchè invece di rincorrere ottimizzazioni sempre più spinte delle CPU, non si pensa ad introdurre delle piattaforme multiprocessore anche nel mercato consumer?
Da idealista, immagino un "mondo migliore" nel quale invece di spendere 1000€ per l'ultima CPU del tipo "EE turbo intercooler" uno possa equipaggiare il proprio sistema con 2-3..N CPU da diciamo 200€, in funzione delle applicazioni che usa e delle prestazioni che vuole ottenere. Questo con i vantaggi di: 1. scalabilità: la potenza elaborativa sarebbe dimensionata all'effettivo utilizzo, e upgradabile nel corso del tempo. 2. affidabilità: se si rompe un componente, rallentano le prestazioni ma il sistema non si ferma, oltretutto il costo di sostituzione sarebbe nettamente inferiore. 3. altri (che non mi vengono in mente ...) Probabilmente (chiedo conforto ai più tecnici) per sfruttare al meglio questa impostazione dovrebbero essere progettati nuovi chipset, mb e sistemi operativi + sw ottimizzati, però ci sarebbe il vantaggio economico del basso costo di produzione delle CPU per le quali potrebbero essere sfruttati impianti già ammortizzati. Se le cose stanno effettivamente così, non mi spiego se non con logiche folli di profitto la rincorsa ai Mhz e nm nei programmi dei produttori, così come non mi spiego perche i costruttori di mb e sviluppatori sw si adeguino al gioco al massacro. Bah ... |
![]() |
![]() |
#38 | |
Senior Member
Iscritto dal: Nov 2002
Città: Singularity
Messaggi: 894
|
Ottimo commento lucusta
![]() ![]() Riguardo all'ipotetico dual Dothan, non mi sembra difficile implementare un sistema di risparmio energetico simile a quello del processore singolo, che tenga conto del carico di lavoro su entrambi i chip. Sarebbero alimentate prevalentemente le zone più utilizzate, se ne viene usato solo uno consumerà circa la metà... Sui limiti del silicio... ho notizia di un trigate su cui sta lavorando Intel, e garatirebbe una tecnologia realizzabile a 35 nm. Però funziona su principi completamente diversi dai CMOS, cioè gli ingegneri dovrebbero perlomeno riscrivere intere parti dei loro software di progettazione. Comunque non credo si riuscirà mai ad andare sotto i 10 nm, la corrente a quelle scale è fortemente quantizzata, la probabilità di malfunzionamenti diventa troppo alta. Quote:
|
|
![]() |
![]() |
![]() |
#39 |
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Traban, in verita' nessuno ti vieta di avere gia' ora un prodotto consumer a piu' CPU, solo che lo sfrutteresti la meta' di un professionista per via del pacchetto software non ottimizzato; in piu' il problema e' quello descritto nel mio precedente post: ad intel non conveniva mischiare consumer con professionale, ecco perche' ci sono i P4 a singolo processore, e gli xeon a piu' vie e dal costo doppio (anche perche' avere MB e MB di caches per navigare in rete non serve).
Per quanto riguarda la pura tecnica hw non ci sono sostanziali differenze in cpu multi o singole, ma dai vari datasheet dei processori che possono essere usati a piu' vie, c'e' chiaramente scritto che e' conveniente non solo usare processori a piu' vie nati per essere cosi' (d'altronde intel ha giustamente usato 2 socket diversi, mentre gli MP ahtlon sono uguali agli XP solo che testati per questa modalita'), ma anche che le cpu dovrebbero essere dello stesso step e anche possibilmente dello stesso lotto ( credo che arrivi a dire anche la massima distanza che dovrebbe esserci tra le due cpu sul wafer, o che devono appartenere allo stesso quadrante, ma non sono sicuro); questo perche' le minime differenze di assorbimento potrebbero procurare dei problemi in quanto a stabilita'.. in un singolo die con due core, il tutto si annulla, essendo core adiacenti. Invece, per qanto riguarda un possibile malfunzionamento di una cpu ed alla continuazione dell'esecuzione del lavoro a meta' potenza, questo e' quantomai improbabile farlo; non sono dischi in raid, sono unita' di calcolo, ed assorbono una 50ina di ampere, percio' se collassa uno ti devi ritenere fortunato che non si porti dietro non solo la seconda cpu, ma anche tutto il resto.. la soluzione sarebbe il clustering, ossia PC completamente separati collegati dal network dedicato, ma quella e' un'altra tecnica per ottenere elevate prestazioni (a basso costo), ma certo non e' pensabile adoperarla per sistemi con prestazioni raggiungibili da altre comuni cpu singole. logicaente si puo' fare.. ad esempio una divx station a 4 o 8 schede madri a singolo processore entry livel che codificano 1/4 od 1/8 del video, che a conti fatti costerebbe meno di un dual xeon a 3 ghz e renderebbe certamente di piu', ma e' una stazione dedicata ad un singolo compito, ed e' questo il problema del clustering.. |
![]() |
![]() |
![]() |
#40 |
Senior Member
Iscritto dal: Jul 2002
Città: Reggio Calabria -> London
Messaggi: 12103
|
cmq x un uso generale la soluzione ad n processori non porta ad un miglioramento pari ad n volte.
Invece, al crescere del numero di processori, il miglioramento tenderà a decsrescere, fino a quando, da un certo punto in poi si avrà addirittura un peggioramento delle prestazioni... Se così non fosse due processori dovrebbero fornire il 100% di potenza in più, ma così non è dato ke nei casi migliori si assiste ad un miglioramento dell'80%.... |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 21:14.