PDA

View Full Version : Intel, addio a Hyper Threading?


Redazione di Hardware Upg
07-03-2006, 07:39
Link alla notizia: http://www.hwupgrade.it/news/cpu/16638.html

Si fanno sempre più insistenti le voci circa l'abbandono da parte di Intel della tecnologia Hyper Threading; qual è la verità?

Click sul link per visualizzare la notizia.

avvelenato
07-03-2006, 08:01
ma l'hyper-threading non permetteva in sostanza di sfruttare al massimo il processore facendo lavorare contemporaneamente sezioni distinte di esso? Anche con un dual core, l'ht, se il SO fosse ottimizzato per gestire 2 core fisici e 4 logici, ci potrebbero essere degli aumenti prestazionali, forse anche maggiori: ad esempio, se la prima cpu è occupata da un thread, e un altro thread che non è gestibile dall'ht richiede l'elaborazione, viene passata alla seconda cpu, insomma, la schedulazione dei thread potrebbe tenere conto di quali thread inviare alla cpu 1 o 2 e quali invece alle cpu virtuali 3 e 4...

Forse gli ingegneri intel trovano che l'eliminazione delle complicazioni circuitali dell'ht possano aiutare a raggiungere clock maggiori... oppure semplicemente trovano più economico semplificare il design e raddoppiare i core... boh..

cionci
07-03-2006, 08:05
D'altronde era una cosa ampliamente prevedibile. Utilizzare Hyper-Threading su una CPU derivata dal Pentium-M avrebbe significato dover aumentare le unità di esecuzione...e di fatto la complessità del progetto (oltre alle unità di esecuzione stesse, basti pensare alle dispatch-unit), con probabile allungamento anche delle pipeline.

Riguardo al multi-core imho la strada per il futuro sarà una fusione dei vari core mettendo in evidenza unità in comune (come la fetch & decode unit, il register file e tutto quanto riguarda l'accesso alla memoria, sia cache che RAM)...per poi arrivare ad una semplificazione dei vari core di esecuzione (core semplici con poche unità di esecuzione), in questo modo il parallelismo si sposterebbe dalle unità di esecuzione ai core... Magari anche con più core che lavorano su istruzioni indipendenti dello stesso thread... Sicuramente una soluzione innovativa, ma con tremendi problemi di sincronizzazione...vediamo :)
Senza contare che i core di esecuzione potrebbero funzionare anche a frequenza più elevata delle altre unità, visto l'accorciamento del data path...

BrainScratch
07-03-2006, 08:37
Ma con 100 core la scheda grafica a cosa servira?Capisco che quando si arriverà ad avere 100 core nel pc di casa probabilmente ci saranno giochi con una grafica praticamente uguale alla realtà,meglio di un film,però sarebbe bello poter dedicare,per esempio 30 core al calcolo della grafica,10 all'intelligenza artificiale,10 alla fisica del gioco ecc...Fantascienza?spero di no....

UIQ
07-03-2006, 08:51
Si celebra il funerale di questa simil tecnologia, che nessuno certo rimpiangerà :D

neonato
07-03-2006, 09:07
Da quello che ricordo HT con il multi core nn crea vantaggi ma solo svantaggi.

I dual core al momento sono riconosciuti dall os come core 0 e core 1...

dual core con HT
si avra core 0 (fisico) core 1 (HT) core 2 (fisico) core 3 (HT).
L' OS nn e in grado di distinguere fisico e virtuale... quindi quando eseguira un'operazione usera i primi due core logici, quindi un solo core fisico.... conseguenza decadimento di prestazione xke il secondo core fisico si gira i pollici...

Spero di nn sbagliarmi...

jpjcssource
07-03-2006, 09:14
Ma quanti nanometri deve essere piccolo ogni core per poterne mettere 100 in un unico package? Mi sa che come miniaturizzazzione siamo oltre i limiti della tecnologia del silicio......

goldorak
07-03-2006, 09:24
Si celebra il funerale di questa simil tecnologia, che nessuno certo rimpiangerà :D


Prova ad usare windows xp con 9 applicazioni aperte su un processore p4 con HT ed un processore amd senza HT.
Ti accorgi subito benche' gli AMD 64 siano piu; veloci che il sistema risponde lentamente al contrario della piattaforma p4 HT.
L'HT ha un suo senso in ambienti multistasking pesanti.

Io invece vorrei vedere l'effettivo aumento di prestazioni tra un p4 northwood 3Ghz HT con un ipotectico dual core (senza HT) a 3 GHZ.
Credo che la differenza non sara' cosi' marcata, forse anche inferiore al 10%.

stefano25
07-03-2006, 09:25
100 core in un die= FantaTecnologia.
:mc:

gropiuz73
07-03-2006, 09:26
poco danno...

lo ricorderemo come una curiosità archeologica, fra qualche anno...

gropiuz73
07-03-2006, 09:28
però carino il grafico in stile fantascienza anni '60!

Dr3amer
07-03-2006, 09:32
Prova ad usare windows xp con 9 applicazioni aperte su un processore p4 con HT ed un processore amd senza HT.
Ti accorgi subito benche' gli AMD 64 siano piu; veloci che il sistema risponde lentamente al contrario della piattaforma p4 HT.
L'HT ha un suo senso in ambienti multistasking pesanti.

AHAHHAHAHAHAHAHHAHA :asd:

AndreaG.
07-03-2006, 09:34
Io ricordo che l'HT era utilissimo abbinato alle lunghissime pipeline del p4 netburst ma che non avrebbe portato benefici con architetture più conservative tipo Pentium M o AMD. Se intel abbandona il netburst, abbandona anche l'ht.... così ricordavo da vecchie news... ricordo male?

Duncan
07-03-2006, 09:38
No, è giusto, l'HT ha senso solo se ci sono lunghe pipeline, altrimenti la complessità/overhead che aggiunge non da benefici, morto il Pentium IV morto l'HT

Oltretutto col tempo ogni core avrà cache L1 e L2 locale, i SO sono già ora in grado di riassegnare Thread alsolito core in modo da minimizzare cche miss e caricamenti in cache di dati, L'HT complicherebbe solo la situazione sotto questo aspetto

beleno
07-03-2006, 09:39
beh mi sembra una soluzione quasi logica visto che se non ricordo male sul pentium 955EE l'HT si rivelava essere più un collo di bottiglia che un vantaggio, visto che il sistema operativo dava precedenza al core logico più che quello fisico.. poi correggetemi se sbaglio!
comunque tremo all'idea del giorno in cui, seguendo l'esempio delle cpu, dovremo avere 10 vga in superSLI o hyperCrossFire.. :doh:

goldorak
07-03-2006, 09:42
No, è giusto, l'HT ha senso solo se ci sono lunghe pipeline, altrimenti la complessità/overhead che aggiunge non da benefici, morto il Pentium IV morto l'HT

Oltretutto col tempo ogni core avrà cache L1 e L2 locale, i SO sono già ora in grado di riassegnare Thread alsolito core in modo da minimizzare cche miss e caricamenti in cache di dati, L'HT complicherebbe solo la situazione sotto questo aspetto

Hai ragione, ed e' per questo che ho parlato di HT per p4, non certo per architetture con pipeline corte.
Certo che se a parita' di frequenza, un ipotetico p5 con dual core dovessi essere a livello di prestazioni sullo stesso piano di un p4 con HT ci sarebbe da rimanere :mbe:

piottocentino
07-03-2006, 09:42
Si celebra il funerale di questa simil tecnologia, che nessuno certo rimpiangerà :D

Da quello che ricordo HT con il multi core nn crea vantaggi ma solo svantaggi.

poco danno...

...mai usato un P4 HT vero?

BrainScratch
07-03-2006, 09:44
magari avremo die che occupano 1/3 della scheda madre...socket 15000...spero solo ke nn sia una delle solite "sparate" di intel...Al momento me ne viene una in mente,in cui i tecnici di intel erano sicuri,entro il 2007,di avere processori a 10 ghz...Xò sarebbe bello,nanoprocessori,grandi qualche atomo quadrato,collegati come una rete neurale,intelligenza artificiale...Driiiin!Scusate mi sveglio e la pianto di sparare cavolate.....

FiLoxXx
07-03-2006, 09:51
Bè direi che era una cosa quasi scontata con l' arrivo dei proce multi-core

JohnPetrucci
07-03-2006, 09:53
Bè direi che era una cosa quasi scontata con l' arrivo dei proce multi-core
Infatti, l'Hyper Threading oramai non ha più senso, i multicore sono già di loro la migliore risposta al multitasking.

ShadowX84
07-03-2006, 09:54
Ma quanti nanometri deve essere piccolo ogni core per poterne mettere 100 in un unico package? Mi sa che come miniaturizzazzione siamo oltre i limiti della tecnologia del silicio......

100 core in un die= FantaTecnologia.
:mc:

Come ha accennato prima cionci, la domanda giusta per capire le reali "dimensioni" di un core non sarà "quanto saranno piccoli i transistor?" ma "da quanti transistor saranno composti tali core?"

Secondo me c'è da fare un pò di chiarezza, dopo di che vedrete che non sarà (per lo meno non del tutto) fanta tecnologia.

Mi spiego: Se pensate che quei cento core siano composti da 250 milioni di transitor l'uno, bhè è ovvio che sia a dir poco impraticabile quella via, perchè ci ritroveremmo con chip composti da 25 miliardi di transistor, e francamente mi sembrano eccessivi, anche con un processo litografico a 22nm.

Se invece pensiamo a dei "core-elementari" dotati di unità di esecuzione semplificate, e quindi non composti da una miriade di transistor, la strada diventa molto più percorribile e si giungerebbe ad un alto grado di parallelismo tra i core all'interno del processore, che potrebbero essere presenti in un numero molto elevato.

Un pò come accade con i "micro-core"(non mi ricordo come si chiamano :D ) all'interno del Cell(l'esempio con calza a pennello...però...rende l'idea).

neonato
07-03-2006, 09:56
per piotto....

ho avuto dual PIII 1Ghz x 4 anni, ancora rulla

ho usato P4 3.0GHz per 6 mesi e poi sono migrato a X2 4400+ x ragioni di prestazioni.

Uno dei problemi di avere 4 core logici con un os che nn sa riconoscere quali sono fisici , porta solo svantaggi xke il secondo core fisico si gira i pollici, da come sai un core fisico e piu veloce di uno logico...

ecco il xke della mia affermazione

samslaves
07-03-2006, 10:00
L'HT "muore" quando le pipeline vengono ridotte.

piottocentino
07-03-2006, 10:02
si ok ma l'unico che ha 4 core, due fisici e due logici è il 955EE... ovvio che un 4400+(vedi sign) è meglio di un 630 in tutte le applicazioni, ma un 630 confrontato con un 3200+ ti offre una maggiore rapidità nello scorrere tra varie applicazioni aperte, un sistema più reattivo insomma...ovvio che un 3200+ è più veloce poi in molte applicazioni, giochi in primis ;)

Dreadnought
07-03-2006, 10:03
Come sempre sull'HT vige l'ignoranza più totale: perchè si guarda solo all'HT come è stato implementato nel P4 e non all'idea generale di SMT.

siluro85
07-03-2006, 10:05
a quanto ne so l'ht era nato per ovviare al fiasco dell'architettura net burst...ossia...
tale architettura prevedeva pipeline lunghe qualcosa come 31 stadi (!!!) e quando il processore elaborava dati di un programma c'erano delle pipeline vuote per via della predizione e dei vari salti di codice presenti nella maggior parte deoi programmi che noi usiamo (il processore usava la predizione per intuire il codice da eseguire...ma se esso si sbagliava doveva svuotare tale pipeline e ricaricare la stessa od un altra...insomma il tallone d'achille dell'architettura netburst..)...in soldoni c'erano delle pipeline morte cioè inutilizzate e con pipeline di tale lunghezza associate al fatto che per ciclo di clock gestiva solo 3 istruzioni (invece la famiglia di yonah e derivati...conroe merom ecc... ne gestira 4 e le pipeline saranno di 14 stadi ( l'athlon 64 ha una pipeline da 17 stadi)) capite lo spreco di risorse che comportava l'architettura netburst...appunto l'ht era un secondo core (logico...) che utilizzava quando possibile tali pipeline vuote e morenti per eseguire il codice di un altro programma....questo a quanto ne so...
quindi è per questo che in ambito multitasking il p4 recuperava terreno ed in alcuni casi arriva a superare un athlon equiparabile fermorestando che l'architettura di amd rimaneva comunque superiore....questo in ambito single core...
in ambito dual core invece porta svantaggi (come è già stato detto) perchè la gestione multicore di xp non è proprio idilliaca...cioè non distingue tra core fisico e logico e al posto di usare come secondo core quello fisico usa quello logico e le prestazioni decadono....insomma anche qui ci vorrebbero delle patch apposite...ma intel escludendo tale tecnologia dai pentium D ne ha decretato la morte perchè se devo fare una patch per una gamma di processori posso anche sbattermi ma per un processorre solo (955 XE) non lo fa nessuno..almeno così la penso e per quanto riguarda l'ht mi sembra che sia così...

sbaffo
07-03-2006, 10:06
domanda da ignorante: ma perchè con le CPU non funziona come con le Gpu dove aumenta il numeto di pipeline ma il core resta uno solo?

Dreadnought
07-03-2006, 10:14
Perchè la CPU non va a 600MHz, ma a 3GHz, e tutti i transistor di una GPU sono un po' troppi per farli andare a quelle velocità.

Duncan
07-03-2006, 10:17
Hai ragione, ed e' per questo che ho parlato di HT per p4, non certo per architetture con pipeline corte.
Certo che se a parita' di frequenza, un ipotetico p5 con dual core dovessi essere a livello di prestazioni sullo stesso piano di un p4 con HT ci sarebbe da rimanere :mbe:


Difficilmente penso che possa accadere, basta vedere come vanno in Centrino, per rimanere in casa Intel, per farsene un'idea

^TiGeRShArK^
07-03-2006, 10:17
CVD...
sempre detto che era solo una pezza per permettere di sfruttare meglio i processori netburst...
in un architettura multi-core a pipeline corte è MOLTO + efficiente risparmiare transistor in modo da poter sfruttare piu' efficacemente lo spazio sul die.....

^TiGeRShArK^
07-03-2006, 10:18
ma l'hyper-threading non permetteva in sostanza di sfruttare al massimo il processore facendo lavorare contemporaneamente sezioni distinte di esso? Anche con un dual core, l'ht, se il SO fosse ottimizzato per gestire 2 core fisici e 4 logici, ci potrebbero essere degli aumenti prestazionali, forse anche maggiori: ad esempio, se la prima cpu è occupata da un thread, e un altro thread che non è gestibile dall'ht richiede l'elaborazione, viene passata alla seconda cpu, insomma, la schedulazione dei thread potrebbe tenere conto di quali thread inviare alla cpu 1 o 2 e quali invece alle cpu virtuali 3 e 4...

Forse gli ingegneri intel trovano che l'eliminazione delle complicazioni circuitali dell'ht possano aiutare a raggiungere clock maggiori... oppure semplicemente trovano più economico semplificare il design e raddoppiare i core... boh..
la seconda che hai detto...
è una complicazione inutile aggiungere dei transistor per l'HT che in un'architettura a pipe corte è meno efficiente che in una a pipe lunghe (almeno nella corrente implementazione di Intel)

A.L.M.
07-03-2006, 10:31
in ambito dual core invece porta svantaggi (come è già stato detto) perchè la gestione multicore di xp non è proprio idilliaca...cioè non distingue tra core fisico e logico e al posto di usare come secondo core quello fisico usa quello logico e le prestazioni decadono....
Scusate la digressione lievemente OT, ma qualcuno saprebbe spiegarmi come funziona la gestione delle cpu multicore in Windows XP? Tra Home e Pro, a parte il fatto che il secondo supporta fino a 2 processori, c'è qualche differenza in tal senso?
Comunque per quanto riguarda il topic, credo anch'io che l'HT fosse solamente una tecnologia di passaggio, utile per ovviare ai difetti dell'architettura del P4 e per traghettare le cpu Intel fino all'avvento del multicore.

siluro85
07-03-2006, 10:33
non è che l'ht è meno efficiente in un architettura a pipe corte...è proprio inutile...visto che l'ht è nata appositamente per la netburst...o meglio per ovviare alle sue lacune...però diciamo che almeno in ambito multitasking...l'ht può apportare qualche beneficio...è nata per accorciare i tempi morti che le pipeline da 31 stadi dei p4 comportano...almeno penso...perchè quelle pipeline che sono in attesa del codice o che sono state svuotate vengono utilizzate...

per alm: quello che ho detto riguardava il caso di intel....cioè xp non riconosce quale sia il core fisico e quale quello logico....li usa nell'ordine che gli vengono presentati....e l'ht con un dual core lì presenta così....
1-core fisico
2-core logico
3-core fisico
4-core logico...
quindi "il finestra" usa prima quello logico di quello fisico...e il perchè le prestazioni cadono lo sai anche tu...

neonato
07-03-2006, 10:37
piotto,

forse nn mi sono spiegato bene...

se leggi il mio post iniziale dico che un os nn riesce a distinguere core fisici da virtuali... quindi ha parita di clock una cpu con due core fisici e + veloce di una con un core fisico + HT...
altrimenti nn mi spiego la decisione di intel doi nn implementare HT in tutte le nuove CPU P4 dual core. Il fatto sta che nell'esecuzione di programmi, come ho detto prima, porta un decadimento delle prestazioni...

nn paragonare il vecchio 3.0GHz al 4400+, sono due mondi a parte... io ho messo in evidenza il xke dell'abbandono....
HT con l'avvento del multicore nn porta benefici...

nn ho trovato di meglio

http://www.xbitlabs.com/articles/cpu/display/presler_15.html

Qualche punto percentuale in qualche test x stare sopra al 4800 nn in tutto con 2 core fisici e due logici...

A mio parere HT con l'avvento del multicore nn porta vantaggi ma svantaggi....

May81
07-03-2006, 10:42
Dal punto di vista strategico il progetto P4 è stato un vero disastro!

- all'inizio ha dovuto portarsi dietro il fardello dell'HT non attivato rendendo i P4 lenti e avidi di corrente rispetto a l'XP

- attivato l'HT ha conquistato finalmente le prestazioni ma con maggiori consumi fino all'avvento dell'A64

- passato al dual core continua a portarsi dietro il fardello dell'HT non attivato...

Se continua a vendere è solo per la politica dei prezzi meno aggressiva di AMD (che a quanto pare non ha una capacità produttiva sufficiente) e per il brand INTEL molto più forte rispetto ad AMD.

^TiGeRShArK^
07-03-2006, 10:44
Prova ad usare windows xp con 9 applicazioni aperte su un processore p4 con HT ed un processore amd senza HT.
Ti accorgi subito benche' gli AMD 64 siano piu; veloci che il sistema risponde lentamente al contrario della piattaforma p4 HT.
L'HT ha un suo senso in ambienti multistasking pesanti.

Io invece vorrei vedere l'effettivo aumento di prestazioni tra un p4 northwood 3Ghz HT con un ipotectico dual core (senza HT) a 3 GHZ.
Credo che la differenza non sara' cosi' marcata, forse anche inferiore al 10%.
....bullshit
l'HT da un max di +20% di prestazioni...
il dual-core arriva tranquillamente ad un 50%-80% di boost prestazionale...

A.L.M.
07-03-2006, 10:44
@ siluro85:
Ma quindi non c'è alcun vantaggio nel multithreading (con uno Yonah, ad esempio) se si usa Pro anzichè Home?
Scusate per l'ignoranza e il mini-OT, e grazie per le risposte...

neonato
07-03-2006, 10:45
x piotto dimenticavo la nostra cara redazione....

http://www.hwupgrade.it/articoli/cpu/1408/10.html

guarda da solo i risultati in Multitasking e dimmi se ht porta benefici confrontato con i dual core senza HT....

^TiGeRShArK^
07-03-2006, 10:45
Hai ragione, ed e' per questo che ho parlato di HT per p4, non certo per architetture con pipeline corte.
Certo che se a parita' di frequenza, un ipotetico p5 con dual core dovessi essere a livello di prestazioni sullo stesso piano di un p4 con HT ci sarebbe da rimanere :mbe:
...
basta che contronti un PD 830 contro un P4 630...
come puoi vedere da TUTTI i grafici dei bench ottimizzati x il multi-threading semplicemente non c'è paragone...

leoneazzurro
07-03-2006, 10:51
non è che l'ht è meno efficiente in un architettura a pipe corte...è proprio inutile...visto che l'ht è nata appositamente per la netburst...o meglio per ovviare alle sue lacune...però diciamo che almeno in ambito multitasking...l'ht può apportare qualche beneficio...è nata per accorciare i tempi morti che le pipeline da 31 stadi dei p4 comportano...almeno penso...perchè quelle pipeline che sono in attesa del codice o che sono state svuotate vengono utilizzate...


Questo nell'implementazione Intel dell'SMT (Simultaneous Multi-Threading), dato che si dovevano sfruttare al meglio pipelines lunghe ma con un numero non elevatissimo di unità di esecuzione. Ci sono altri casi (come il Power5 ad esempio) dove con pipelines che sono decisamente più corte del Prescott, si utilizza comunque la tecnologia SMT perchè in quel caso si cerca di sfruttare al meglio le numerose unità di esecuzione di cui è dotato il core.

siluro85
07-03-2006, 10:54
ok....sorry l'errore...grazie per la puntualizzazione... :)

^TiGeRShArK^
07-03-2006, 10:56
Questo nell'implementazione Intel dell'SMT (Simultaneous Multi-Threading), dato che si dovevano sfruttare al meglio pipelines lunghe ma con un numero non elevatissimo di unità di esecuzione. Ci sono altri casi (come il Power5 ad esempio) dove con pipelines che sono decisamente più corte del Prescott, si utilizza comunque la tecnologia SMT perchè in quel caso si cerca di sfruttare al meglio le numerose unità di esecuzione di cui è dotato il core.
infatti...
ma visto che si parlava di HT mi sembra scontato che bisogna considerare l'implementazione intel ;)

piottocentino
07-03-2006, 11:03
A mio parere HT con l'avvento del multicore nn porta vantaggi ma svantaggi....

si probabilmente si, win scazza :p

siluro85
07-03-2006, 11:08
strano che win scazzi...è un sistema operativo così efficiente...sicuro...senza falle...


..................................................................................................


:rotfl: :rotfl: :rotfl: :rotfl: :rotfl:


:bsod:

darkquasar
07-03-2006, 11:14
ma l'hyper-threading non permetteva in sostanza di sfruttare al massimo il processore facendo lavorare contemporaneamente sezioni distinte di esso? Anche con un dual core, l'ht, se il SO fosse ottimizzato per gestire 2 core fisici e 4 logici, ci potrebbero essere degli aumenti prestazionali, forse anche maggiori: ad esempio, se la prima cpu è occupata da un thread, e un altro thread che non è gestibile dall'ht richiede l'elaborazione, viene passata alla seconda cpu, insomma, la schedulazione dei thread potrebbe tenere conto di quali thread inviare alla cpu 1 o 2 e quali invece alle cpu virtuali 3 e 4...
ah dottò, l'hyperthreading é stato introdotto per mettere una pezza ai grossi difetti di un'architettura "da sboroni" come la netburst.
Peraltro, non riusciva neanche a colmarne i difetti al 100%.
Essendo la netburst inferiore all'architettura della concorrenza (amd), dopo aver messo la piccola "pezza" dell'hyperthreading pensavano comunque alla lunga di superare la concorrenza salendo in maniera spaventosa di MHz, ma si son dovuti fermare per problemi di surriscaldamento (hanno toppato).
Quindi devono lasciar perdere la netburst e tornare ad un'architettura con una pipeline che abbia un numero di stadi ragionevole.
QUINDI l'hyperthreading diventa *INUTILE*, e *OVVIAMENTE* lo tolgono.

Altro che fantasticherie sull'hyperthreading con 16 core... ma fateme er piascere...

Sarebbe come dire di mettere le candele in un motore diesel...

bond_san
07-03-2006, 11:18
Si celebra il funerale di questa simil tecnologia, che nessuno certo rimpiangerà :D
...nessuno, e causare Flame, per l'uso che ne faccio io, onestamente la rimpiangerò trovo sia stata veramente un'innovazione: avendo a disposizione due macchine, una con pentium 4 HT (3,4 EE) e una con amd fx 57, onestamente intel è decisamente più prestazionale almeno nel mutitasking, rendering, ecc. :)

^TiGeRShArK^
07-03-2006, 11:22
...nessuno, e causare Flame, per l'uso che ne faccio io, onestamente la rimpiangerò trovo sia stata veramente un'innovazione: avendo a disposizione due macchine, una con pentium 4 HT (3,4 EE) e una con amd fx 57, onestamente intel è decisamente più prestazionale almeno nel mutitasking, rendering, ecc. :)
sbagli alla grande a rimpiangerlo dato hce il boost prestazionale che ti danno i dual-core è molto maggiore di quello dato dall'HT...

bond_san
07-03-2006, 11:34
...mai usato un P4 HT vero?

... e senza voler creare flame straquoto avendo 2 macchine, una con P4 3,4 EE e una con FX 57, mi spiace per chi ha le fette di salame sugli occhi, ma nel rendering, multitasking Intel dice nettamente la sua... :boxe:

^TiGeRShArK^
07-03-2006, 11:41
... e senza voler creare flame straquoto avendo 2 macchine, una con P4 3,4 EE e una con FX 57, mi spiace per chi ha le fette di salame sugli occhi, ma nel rendering, multitasking Intel dice nettamente la sua... :boxe:
fette di salame???:rolleyes:
mai provato ad un usare un fx60 dual-core al posto dell'fx-57??? :rolleyes:

v10_star
07-03-2006, 11:42
proprio ieri stavo facendo delle prove con Vmware Server su due macchine distinte:

la prima è un HP ml350 con uno Xeon EMT64 2mb L2 (con HT), 1gb di ram, dischi uscsi 160 in raid da 10000giri ecc, ecc (un server dell'azienda)

la seconda è il mio personal computer: opteron 146 @ 2900, 1gb di ram @ 240 con chip UTT, disco SATA2 samsung da 200gb ecc ecc.

Nella macchina con lo xeon ho subito attivato le macchine virtuali all'utilizzo dell'hyper threading, visto come una seconda cpu. Le macchine virtuali erano le stesse identiche, sistema operativo pulito da entrambe le parti, insomma: macchine tirate a lucido.

Sia nel caricare e nel passare da una macchina virtuale all'altra l'opteron si è rivelato decisamente + reattivo dello xeon, ma non di poco. Le prestazioni sono state completamente a pannaggio dell'opteron. A tirar su tutte e 2 le macchine virtuali l'opteron ci ha messo molto meno, (eppure un samsung da 200 sata2 dovrebbe essere ben + lento di dischi Compaq da 10000 giri uscsi160). Non vi dico che lentezza da passare a una macchina virtuale all'altra nello xeon, sembrava un pentium 2 con 64 mega di ram.

Ho disabilitato l'uso dell'ht e devo dire che lo xeon ha cominciato ad andare un pò meglio ed ha recuperato nei confronti dell'opteron.

Sono stato molto soddisfatto dalle performance dell'amd in ambito di virtualizzazione, cosa che non mi aspettavo sinceramente, in virtù della singola cpu. Lo xeon invece (anche per quel che costa rispetto ad un opty) mi ha deluso dato che ha ben il doppio di cache L2...

Ovviamente l'overlclock ha aiutato molto, sopratutto anche la ram spinta: ma sinceramente sto paragonando una macchina da 1000€ neanche con un server che costa 4 volte.

Questa è una mia fresca esperienza, ve la riporto per portare il mio contributo alla discussione, che poi eventuali fans di intel mi attacchino tirando fuori discorsi che il server non era configurato bene ecc, ecc non avranno da me la benchèminima considerazione.

P.s.

Io non sono fan ne di AMD, ne di Intel: prediligo sempre le soluzioni col miglior rapporto velocità/affidabilità/prezzo.

Rufus86
07-03-2006, 12:16
HT ha senso in un architettura con molti stadi nelle pipeline, come nel NetBurst dei Prescott in cui sono ben 31. Nella nuova architettura che uscirà a breve (Conroe), in cui sono, per fortuna, solo 14, non ha granché ragione di esistere.

S3pHiroTh
07-03-2006, 12:33
@ siluro85:
Ma quindi non c'è alcun vantaggio nel multithreading (con uno Yonah, ad esempio) se si usa Pro anzichè Home?
Scusate per l'ignoranza e il mini-OT, e grazie per le risposte...

Da quel che mi ricordo Windows Xp Home può gestire al max un processore fisico, mentre con il Professional massimo 2... quindi con l'avvento del multicore si dovrebbe passare tutti a Windows Professional

raptus
07-03-2006, 12:35
.. chi si ricorda il sistema ad ipercubo della INMOS che si programmava in OCCAM?

^TiGeRShArK^
07-03-2006, 12:39
Da quel che mi ricordo Windows Xp Home può gestire al max un processore fisico, mentre con il Professional massimo 2... quindi con l'avvento del multicore si dovrebbe passare tutti a Windows Professional
i dual core in windows xp home vengono considerati come un processore fisico a livello di licenza.
I problemi se non sbaglio c'erano con oracle o con qualche altra applicazione entrprise, ora non ricordo, ma non certo con windows xp home...

leoneazzurro
07-03-2006, 13:16
infatti...
ma visto che si parlava di HT mi sembra scontato che bisogna considerare l'implementazione intel ;)

Si discuteva se HT (o SMT) avesse senso nelle CPU con pipelines relativamente corte. Nell'architettura X86 (almeno per ora) no, un domani chissà.

leoneazzurro
07-03-2006, 13:19
E per favore evitiamo di trascendere nella solita polemica AMD vs Intel...

leptone
07-03-2006, 13:41
LINUX,BSD,MCOSX,SOLARIS, OPENS-OLARIS,DARWIN,HP-UX,IBM AIX, NOVEL ECC....
RICONOSCONO LA DIFFERENZA TRA CORE FIFICI O LOGICI.

P.S. L'UNICO KERNEL CHE NON GESTISCE LA DIFFERENZA È NT IN TUTTE LE SUE VARIANI (TRANNE QUELLE IN BETA)

hornet75
07-03-2006, 15:39
a quanto ne so l'ht era nato per ovviare al fiasco dell'architettura net burst...ossia...
tale architettura prevedeva pipeline lunghe qualcosa come 31 stadi (!!!)


L'HT non è nato per il fiasco di netburst ma è nato con il netburst ovvero era presente già dai primi P4 ma non era attivo sicuramente era presente nel core northwood. Willamette fu gettato nella mischia perchè intel stava perdendo la battaglia dei mhz con AMD che l'aveva preceduta di pochissimo nel presentare la prima cpu da oltre 1000 MHz e l'architettura P6 (pentium-3) era al limite col processo produttivo a 0,18 micron. Molti concordano nel dire che il vero Pentium-4 era il northwood. l'architetura netburst inoltre non prevedeva 31 stadi almeno non all'inizio visto che willamette e northwood avevano un max di 20 stadi. Oltretutto i P4C Northwood FSB800 avevano raggiunto un ottimo compromesso tra prestazioni e consumi risultano complessivamente superiore ai corrispettivi AthlonXP anche grazie alla tecnologia HT. Il problema consumi è nato con Prescott e i famigerati 31 stadi e comunque prima dell'avvento dei dual core l'HT ha tenuto a galla l'agonizzante Prescott perlomeno in ambito multitasking nei confronti dei single core AMD.


in ambito dual core invece porta svantaggi (come è già stato detto) perchè la gestione multicore di xp non è proprio idilliaca...cioè non distingue tra core fisico e logico e al posto di usare come secondo core quello fisico usa quello logico e le prestazioni decadono....insomma anche qui ci vorrebbero delle patch apposite...ma intel escludendo tale tecnologia dai pentium D ne ha decretato la morte perchè se devo fare una patch per una gamma di processori posso anche sbattermi ma per un processorre solo (955 XE) non lo fa nessuno..almeno così la penso e per quanto riguarda l'ht mi sembra che sia così...

questa seconda parte mi trova decisimante d'accordo con quanto da te affermato, in effetti con l'avvento dei dual core l'HT non ha + motivo di esistere.

Quello che volevo puntualizzare è che l'hyper threading non era affatto inutile con i single core e ha dato una marcia in + ad un progetto che fondamentalmente è nato "male". Chi nega ciò non ha mai posseduto ne provato un Northwood-C in ambiente multitasking "pesante" dove non c'era Amd single core superiore a parità di "rating/frequenza".

samslaves
07-03-2006, 16:27
>
.. chi si ricorda il sistema ad ipercubo della INMOS che si programmava in OCCAM?
<

Mi ricordo della CM5 con C*.

MenageZero
07-03-2006, 16:37
.. chi si ricorda il sistema ad ipercubo della INMOS che si programmava in OCCAM?
scusa, come è fatto un sistema ad "ipercubo" ? :confused:
(dev'essere un faticaccia trovare una sistemazione in un spazio tridimesionale per un "cubo" ad, almeno, 4 dimensioni.... :D )

bs82
07-03-2006, 16:45
a me dan ridere ste cose qua dell'intel...mi sembrano delle arrampicate sugli specchi....

liviux
07-03-2006, 16:55
Dal punto di vista strategico il progetto P4 è stato un vero disastro!
In che senso "strategico"? Considerando quanti ne hanno venduti e quanto ci hanno guadagnato, è difficile considerarlo un "disastro" da un punto di vista aziendale. L'aspetto tecnologico è secondario rispetto allo scopo primario di Intel (come di tutte le altre aziende): fare profitto.

sirus
07-03-2006, 17:00
Con un'architettura come quella P6+ degli attuali Pentium M/Core Duo e Core Solo era prevedibile che Intel decidesse di togliere HT che non avrebbe sicuramente portato benefici tangibili ed avrebbe introdotto un maggior numero di circuiti di controllo per avere un risultato non certamente eclatante...

liviux
07-03-2006, 17:00
LINUX,BSD,MCOSX,SOLARIS, OPENS-OLARIS,DARWIN,HP-UX,IBM AIX, NOVEL ECC....
RICONOSCONO LA DIFFERENZA TRA CORE FIFICI O LOGICI.

P.S. L'UNICO KERNEL CHE NON GESTISCE LA DIFFERENZA È NT IN TUTTE LE SUE VARIANI (TRANNE QUELLE IN BETA)
Se non ricordo male, MS ci aveva messo una pezza dopo che il problema si era manifestato sugli Xeon biprocessore. Credo che sia questa (http://support.microsoft.com/?id=896256).

bond_san
07-03-2006, 17:12
fette di salame???:rolleyes:
mai provato ad un usare un fx60 dual-core al posto dell'fx-57??? :rolleyes:
...fette di salame grandi così :sofico: ...ma cosa dici !?...Ma ti ricordi che quando intel ha tirato fuori HT, amd non sapeva neanche cos'era un dual core e neanche Intel all'epoca ? Vogliamo provare a prendere un P4 con HT e uno senza e vedere quello che ti fa girare meno le balle ?? Grazie al cavolo che l'fx-60 adesso viaggia bene, come magari anche un dual core di Intel (magari anche meno, ma non sente la necessità di HT)....ma perche fate sempre gli sboroni ? perchè volete sempre aver ragione e prendere le constatazioni altrui come cosa da cestinare ridicolizzando ?...e ovvio che poi uno come me scrive "fette di salame" :D certo che l'obbiettività è raramente di questo forum, e quando qualcuno viene toccato nel suo BRAND più caro, ne fa subito un flame :rolleyes:

liviux
07-03-2006, 17:19
Mi stupisce che l'"Instruction Level Parallelism" (cioè il SIMD) sia presentato come una cosa superata. Io penso che vada recuperata in qualche misura, se si vuole arrivare a sfruttare veramente decine e decine di core. O, meglio, decine e decine e decine di pipelines.

.. chi si ricorda il sistema ad ipercubo della INMOS che si programmava in OCCAM?

Forse la Connection Machine? Comunque, grazie per aver tirato in ballo un tema importante: la programmazione con linguaggi che rendono esplicito il parallelismo. Server a parte, non faremo mai un buon uso di 32 o più core senza superare il paradigma sequenziale con il quale programmiamo da 60 anni. IBM sta lavorando a strumenti di compilazione che semi-automatizzino la parallelizzazione del codice, ma penso che ci si debba spingere più in là per sfruttare veramente le macchine che verranno: adottare linguaggi di programmazione pensati da zero per un uso non sequenziale. A quel punto può occuparsi il compilatore (un signor compilatore, forse bisognerebbe chiamarlo in qualche altro modo, più probabilmente una macchina virtuale) a smistare istruzioni e dati fra diverse "unità di esecuzione" che possono essere dati paralleli in un flusso sequenziale SIMD, pipeline, core di una CPU multicore, CPU fisicamente distinte, nodi di un cluster o di un Grid distribuito su scala geografica. Il software esporrebbe tutte queste risorse in modo omogeneo, distinguendole intelligentemente sulla base della latenza necessaria a passare da una all'altra (dai nanosecondi delle pipeline ai secondi del Grid). Credo che ci sia molta ricerca in corso in questa direzione.

^TiGeRShArK^
07-03-2006, 17:20
...fette di salame grandi così :sofico: ...ma cosa dici !?...Ma ti ricordi che quando intel ha tirato fuori HT, amd non sapeva neanche cos'era un dual core e neanche Intel all'epoca ? Vogliamo provare a prendere un P4 con HT e uno senza e vedere quello che ti fa girare meno le balle ?? Grazie al cavolo che l'fx-60 adesso viaggia bene, come magari anche un dual core di Intel (magari anche meno, ma non sente la necessità di HT)....ma perche fate sempre gli sboroni ? perchè volete sempre aver ragione e prendere le constatazioni altrui come cosa da cestinare ridicolizzando ?...e ovvio che poi uno come me scrive "fette di salame" :D certo che l'obbiettività è raramente di questo forum, e quando qualcuno viene toccato nel suo BRAND più caro, ne fa subito un flame :rolleyes:
si certo...tu ti metti a ridicolizzare un fx 57 e ce le abbiamo noi le fette di salame sugli occhi....:rolleyes:
siamo noi i tifosi attaccati ad un brand...:rolleyes:
cmq io non dirò + una sola parola dato che non serve sprecare fiato con chi si diverte a guardare la pagliuzza nell'occhio degli altri senza guardare la trave che ha nei suoi....
e inoltre leone ha già detto di non scendere nel solito flame...
au revoir....:O

)(Dj-DvD)(
07-03-2006, 17:32
...bhè sembra un bel progetto...però ci sn delle cose a sfavore

il costo... 100 core nn sn mica pochi...

il calore prodotto...

le dimensioni del die...

e poi come vengono gestiti 100 core da un os??? su win ce ne possono essere al max 30... teoriche

e poi che bisogno ci sarebbe della scheda grafica.... cmq nel '90 bill gates prevedeva che i computer avrebbero avuto un unico core che faceva tutto.... più o meno c'ha azzeccato...

Duncan
07-03-2006, 17:36
Mi stupisce che l'"Instruction Level Parallelism" (cioè il SIMD) sia presentato come una cosa superata. Io penso che vada recuperata in qualche misura, se si vuole arrivare a sfruttare veramente decine e decine di core. O, meglio, decine e decine e decine di pipelines.



Forse la Connection Machine? Comunque, grazie per aver tirato in ballo un tema importante: la programmazione con linguaggi che rendono esplicito il parallelismo. Server a parte, non faremo mai un buon uso di 32 o più core senza superare il paradigma sequenziale con il quale programmiamo da 60 anni. IBM sta lavorando a strumenti di compilazione che semi-automatizzino la parallelizzazione del codice, ma penso che ci si debba spingere più in là per sfruttare veramente le macchine che verranno: adottare linguaggi di programmazione pensati da zero per un uso non sequenziale. A quel punto può occuparsi il compilatore (un signor compilatore, forse bisognerebbe chiamarlo in qualche altro modo, più probabilmente una macchina virtuale) a smistare istruzioni e dati fra diverse "unità di esecuzione" che possono essere dati paralleli in un flusso sequenziale SIMD, pipeline, core di una CPU multicore, CPU fisicamente distinte, nodi di un cluster o di un Grid distribuito su scala geografica. Il software esporrebbe tutte queste risorse in modo omogeneo, distinguendole intelligentemente sulla base della latenza necessaria a passare da una all'altra (dai nanosecondi delle pipeline ai secondi del Grid). Credo che ci sia molta ricerca in corso in questa direzione.


IBM con Blue gene fa già una cosa del genere credo, infatti sul grid computing penso che sia l'azienda più avanti

cionci
07-03-2006, 17:38
Mi stupisce che l'"Instruction Level Parallelism" (cioè il SIMD) sia presentato come una cosa superata. Io penso che vada recuperata in qualche misura, se si vuole arrivare a sfruttare veramente decine e decine di core. O, meglio, decine e decine e decine di pipelines.
Istruction Level Parallelism non è la stessa cosa di SIMD (Single Instruction Multiple Data, che possono essere le varie istruzioni che lavorano sui vettori come le SSE & C., ma in generale è una macchina con diversi data processor ed un solo instruction processor che "comanda" i data processor che lavorano su dati diversi, ad esempio gli array/vector processor)...
L'Instruction Level Parallelism è presente in IA64 di Itanium...e serve a specificare alla CPU come deve allocare le varie unità di esecuzione in modo da far eseguire parallelamente il maggior numero possibile di sitruzioni...
Per sfruttare la quantità di core di cui si parla sicuramente da qualche parte deve venir fuori...senza ombra di dubbio... Il problema è che ormai la strada della compatibilità x86 sembra essere quella che verrà percorsa anche in futuro... Quello che mi viene in mente è che oltre ad unità di fetch & decode in comune questi core avranno anche una unità che analizzerà le dipendenze e specifichera (nelle micro-(o macro)-ops) come le istruzioni dovranno essere allocate nei vari core... Una specie di out-order execution, ma in cui non è più l'ordine di presentazione a determinare l'ordine di esecuzione, ma istruzioni presentate sequenzialmente dovranno essere eseguite parallelamente su più core...
Inoltre in questo modo, con l'aiuto di un register file adeguato, si potrebbero anche risolvere alla base i problemi di predizione dei salti...semplicemente eseguendo entrambi i branch...

cionci
07-03-2006, 17:43
...bhè sembra un bel progetto...però ci sn delle cose a sfavore

il costo... 100 core nn sn mica pochi...

il calore prodotto...

le dimensioni del die...

e poi come vengono gestiti 100 core da un os??? su win ce ne possono essere al max 30... teoriche

Come stiamo supponendo...non saranno core completi come sono adesso i P-M o gli A64, ma core sicuramente più semplici e quindi più piccoli...

Inoltre ora che ci penso la gestione che ho proposto sopra è molto simile al SMT...

Ed i core ritornerebbero ad essere visti come logici dal sistema operativo...

YYD
07-03-2006, 18:03
Chi si aspetta miracoli dai Core Duo o Conroe su desktop sarà forse deluso. Tra pochi giorni potrò riferire i risultati delle mie prove sul Core Duo su mobo desktop. Nel frattempo ci si può togliere qualche curiosità leggendo la preview su Tomshardware dedicata ad un sistema Core Duo a 2.16 GHz alle prese con un peso massimo Pentium 955. Dal confronto, anche considerando le differenze tra piattaforme, il "duo" esce malconcio riguardo le aspettative, l'unica nota positiva è il basso consumo. Si fa anche notare che il processo produttivo delle cpu Intel da 65nm prossime venture basta sì e no ad uguagliare il consumo energetico dei prossimi Athlon 64 a basso consumo da 90nm... ( non dei Turion! ) . E' tutto molto interessante, non vedo l'ora di poter valutare le effettive capacità dei "nuovi campioni" di AMD e Intel che, ricordo, viste le notevoli differenze architetturali non si confrontano in base al clock ma alla fascia di appartenenza. E l'Hyper Threading?... Adieu, non serve più!

desmacker
07-03-2006, 18:37
prima o poi doveva accadere, HT non serve se hai il Multicore.

^TiGeRShArK^
07-03-2006, 18:48
Mi stupisce che l'"Instruction Level Parallelism" (cioè il SIMD) sia presentato come una cosa superata. Io penso che vada recuperata in qualche misura, se si vuole arrivare a sfruttare veramente decine e decine di core. O, meglio, decine e decine e decine di pipelines.
e cosa c'entra con l'HT???
l'HT è un implementazione del SMT non c'entra niente col SIMD.....
L'Hyper-treading simula due processori logici all'interno di uno fisico...
le istruzioni MMX, SSE, 3dnow, sse2, sse3, altivec invece sono istruzioni SIMD ovvero eseguono una singola istruzione su dati multipli (infatti guarda caso SIMD significa proprio Single Instruction Multiple Data)

quartz
07-03-2006, 20:31
Chi si aspetta miracoli dai Core Duo o Conroe su desktop sarà forse deluso. Tra pochi giorni potrò riferire i risultati delle mie prove sul Core Duo su mobo desktop. Nel frattempo ci si può togliere qualche curiosità leggendo la preview su Tomshardware dedicata ad un sistema Core Duo a 2.16 GHz alle prese con un peso massimo Pentium 955. Dal confronto, anche considerando le differenze tra piattaforme, il "duo" esce malconcio riguardo le aspettative, l'unica nota positiva è il basso consumo. Si fa anche notare che il processo produttivo delle cpu Intel da 65nm prossime venture basta sì e no ad uguagliare il consumo energetico dei prossimi Athlon 64 a basso consumo da 90nm... ( non dei Turion! ) . E' tutto molto interessante, non vedo l'ora di poter valutare le effettive capacità dei "nuovi campioni" di AMD e Intel che, ricordo, viste le notevoli differenze architetturali non si confrontano in base al clock ma alla fascia di appartenenza. E l'Hyper Threading?... Adieu, non serve più!
Potresti postare il link?
Grazie!

MiKeLezZ
07-03-2006, 22:40
L'HT è la tecnologia migliore mai sviluppata su CPU single core e dal canto mio resterà per sempre nella mia memoria accanto alle più grandi evoluzioni, quelle evoluzioni così semplici eppur efficaci.
Ora sono con un AMD quasi il doppio più potente e rimpiango la vecchia piattaforma, da molti ottusi di voi così criticata... dico solo: vergogna!!
Ogni volta che apro due applicazioni insieme c'è da spararsi nei cog.. emh.. per fortuna che ora si passa tutti al dual core e questi saran solo ricordi del passato.

MiKeLezZ
07-03-2006, 23:16
Chi si aspetta miracoli dai Core Duo o Conroe su desktop sarà forse deluso. Tra pochi giorni potrò riferire i risultati delle mie prove sul Core Duo su mobo desktop. Nel frattempo ci si può togliere qualche curiosità leggendo la preview su Tomshardware dedicata ad un sistema Core Duo a 2.16 GHz alle prese con un peso massimo Pentium 955. Dal confronto, anche considerando le differenze tra piattaforme, il "duo" esce malconcio riguardo le aspettative, l'unica nota positiva è il basso consumo. Si fa anche notare che il processo produttivo delle cpu Intel da 65nm prossime venture basta sì e no ad uguagliare il consumo energetico dei prossimi Athlon 64 a basso consumo da 90nm... ( non dei Turion! ) . E' tutto molto interessante, non vedo l'ora di poter valutare le effettive capacità dei "nuovi campioni" di AMD e Intel che, ricordo, viste le notevoli differenze architetturali non si confrontano in base al clock ma alla fascia di appartenenza. E l'Hyper Threading?... Adieu, non serve più!
AHAHAHAHAHAHAHAHAHAHAHAHAHAHAHAHAHAHAHAHAHAHAHAHA -> +oo

http://www.anandtech.com/tradeshows/showdoc.aspx?i=2713&p=2

cionci
07-03-2006, 23:53
Sicuramente se i risultati venissero confermati la differenza sarebbe clamorosa :eek:

piottocentino
08-03-2006, 00:08
già, sono impressionanti!!

quartz
08-03-2006, 07:19
Ogni volta che apro due applicazioni insieme c'è da spararsi nei cog.. emh.. per fortuna che ora si passa tutti al dual core e questi saran solo ricordi del passato.
Cosa intendi, scusa? Che ti si bloccano i programmi?

IMHO potrebbe essere anche un problema di OS. Per dirti, io sto con un G5 e OS X, e in genere ho sempre 4-5 programmi aperti, ma non ho mai un minimo rallentamento.

Spesso mi capita di stare a masterizzare un disco, scaricare file e nello stesso tempo giocare ad esempio a Call of Duty (Con nel frattempo iTunes che riproduce musica). :)

YYD
08-03-2006, 07:30
I test sono interessanti ma privi di significato essendo di parte, e di che parte poi! Certamente le prestazioni saranno più alte del solito, ma ho qualche dubbio che i numeri siano proprio quelli, confrontare delle cpu su due sistemi messi a punto da un competitor molto interessato a far figurare la buona qualità dei suoi prodotti non mi pare possa portare a risultati obiettivi. Aspetto ulteriori conferme.

edit: @ Quartz - Il link della preview Core Duo desktop vs PD 955 è questo
http://www.tomshardware.com/2006/03/07/aopen_releases_core_duo_to_the_desktop/

cionci
08-03-2006, 07:34
I test sono interessanti ma privi di significato essendo di parte, e di che parte poi! Certamente le prestazioni saranno più alte del solito, ma ho qualche dubbio che i numeri siano proprio quelli, confrontare delle cpu su due sistemi messi a punto da un competitor molto interessato a far figurare la buona qualità dei suoi prodotti non mi pare possa portare a risultati obiettivi. Aspetto ulteriori conferme.
Questo è sicuro...i numeri probabilmente non saranno quelli, ma il test fa ben sperare per Conroe...

hornet75
08-03-2006, 07:39
Se fossero confermati sarebbe un risultato sbalorditivo, sarebbe stato interessante il dato sui consumi vera croce di intel degli ultimi due anni. Comunque è ancora troppo presto e aspetto l'uscita ufficiale delle cpu sia intel che AMD. Personalmente faccio il tifo per "conroe" nel senso che spero risalga la china perchè mi piacerebbe poter decidere fra due competitor quasi alla pari. Al momento invece non ci sono alternative o un bell'A64 oppure un fornelletto di Pentium-D la cui miglior attrattiva e il prezzo.

diabolik1981
08-03-2006, 08:44
Cosa intendi, scusa? Che ti si bloccano i programmi?

IMHO potrebbe essere anche un problema di OS. Per dirti, io sto con un G5 e OS X, e in genere ho sempre 4-5 programmi aperti, ma non ho mai un minimo rallentamento.

Spesso mi capita di stare a masterizzare un disco, scaricare file e nello stesso tempo giocare ad esempio a Call of Duty (Con nel frattempo iTunes che riproduce musica). :)

Situazione analoga con A64 3500+ (0.13) e Win XP.

hornet75
08-03-2006, 09:09
edit: @ Quartz - Il link della preview Core Duo desktop vs PD 955 è questo
http://www.tomshardware.com/2006/03/07/aopen_releases_core_duo_to_the_desktop/


anche questi sono test da prendere con le molle (faccio notare che il "core duo T2600" ha FSB667 mentre "conroe" arriva a 1066 di FSB) come quello di anandtech, la piattaforma usata non è il massimo (le mainboard desk adattate per l'uso di processori mobile non lo sono mai state). Un dato che mi piacerebbe fosse confermato è quello sui consumi, praticamente meno della metà di un 955

ciolla2005
08-03-2006, 10:58
Che ignoranza in questo THread..... :rolleyes:

E' da anni che sono in laboratorio, e l'ht lo "senti" già con l'installazione di + programmi contemporaneamente, con l'editing video, encoding audio...

Anche in multiplayer è utilie quando sotto c'è un pesante firewall e antivirus, evita parecchi fastidiosi scatti.

Provate a zippare mantre convertite un cd in mp3 con un A64 o ancor peggio un Athlon XP con lo stesso moddelling number (p4 3ghz, A 3000+, A64 3000).

Rende il PC + veloce anche quando ci sono parecchie "icone" attive sulla barra applicazioni.

Ultimamente ci sono pure dei vantaggi prestazionali legati ai driver, come alcune patch che rendono + veloci certi giochi.

diabolik1981
08-03-2006, 11:18
Fino ad ora l'unica applicazione in cui ho riscontrato un vantaggio dell'HT è DustBuster, che sul portatile cone P4 3.2 GHZ viaggia mostruosamente meglio dell'A64 3500+.

MiKeLezZ
08-03-2006, 11:28
Sono anni che sento questa nenia che chi nota benefici nell'HT è un pazzo visionario e che "tu non puoi capire perchè devi provarlo".
Ma ora che ho un A64 avete tutti ben poco da aprire bocca.. e quello che ho davvero capito, è che ci sono solo tanti, tanti fanboy (o piccoli borg, dipende dai punti di vista) che parlano per sentito dire ed autoconvincimento.
Ho pure sentito teorie astruse su pipeline e efficienza interna, teorie che poi in pratica valevano meno di zero.

I test con il portatile per favore lasciamoli fare a mago zurlì.. anche solo perchè hanno HD da 4200rpm che mi chiedo per quale motivo esistano ancora.. quando uso quella della mia ragazza che ha un 3.0 Ghz mi chiedo se in realtà non sia un PII rinominato, da tanto che mi viene il latte alle ginocchia per la lentezza..

cionci
08-03-2006, 13:41
MiKeLezZ: per favore datti una calmata...

LukeHack
08-03-2006, 14:25
mikelezz ha ragione: l'HT si sente eccome, ovvimanete su un ambiente SP, non c'è Athlon che regga nel confronto di applicazioni..
in ambito SIngle Core è da anni il solito discorso: se uno ha 16 anni e deve usare il pc come console colla tastiera,allora AMD va benissimo :asd:

tutto il contrario in SMP: li intel suka alla grande,ma non venitemi a dire che che un 3400+ va meglio del piu sfigato P4 con HT :rolleyes:

Max Power
08-03-2006, 16:50
Sono anni che sento questa nenia che chi nota benefici nell'HT è un pazzo visionario e che "tu non puoi capire perchè devi provarlo".
Ma ora che ho un A64 avete tutti ben poco da aprire bocca.. e quello che ho davvero capito, è che ci sono solo tanti, tanti fanboy (o piccoli borg, dipende dai punti di vista) che parlano per sentito dire ed autoconvincimento.
Ho pure sentito teorie astruse su pipeline e efficienza interna, teorie che poi in pratica valevano meno di zero.

I test con il portatile per favore lasciamoli fare a mago zurlì.. anche solo perchè hanno HD da 4200rpm che mi chiedo per quale motivo esistano ancora.. quando uso quella della mia ragazza che ha un 3.0 Ghz mi chiedo se in realtà non sia un PII rinominato, da tanto che mi viene il latte alle ginocchia per la lentezza..

Intel RELOADED:

Sono anni che sento questa nenia che chi nota benefici nei 64bit è un pazzo visionario e che "tu non puoi capire perchè devi provarlo".
Ma ora che ho un P4 HT avete tutti ben poco da aprire bocca.. e quello che ho davvero capito, è che ci sono solo tanti, tanti fanboy (o piccoli borg, dipende dai punti di vista) che parlano per sentito dire ed autoconvincimento.
Ho pure sentito teorie astruse su pipeline e efficienza interna, teorie che poi in pratica valevano meno di zero.

I test con il portatile per favore lasciamoli fare a mago zurlì.. anche solo perchè hanno HD da 4200rpm che mi chiedo per quale motivo esistano ancora.. quando uso quella della mia ragazza che ha un A64 2.0 Ghz mi chiedo se in realtà non sia un K5 rinominato, da tanto che mi viene il latte alle ginocchia per la lentezza.

Par-Condicio

:doh: :doh: :doh: :doh: :doh: :doh:

Purtroppo a certi utenti bisogna rispondere così. :rolleyes:

OverClocK79®
08-03-2006, 18:09
l'HT muore ora che forse se ne sente piu' il bisogno.....
adesso che i programmi si stanno spostando verso il Multi thread
sia i game che i programmi in genere....

era stato introdotto in un periodo in cui forse il parco utenti non ne sentiva la necessita' e che solo pochi potevano apprezzare....
introdotto come pezza alle lunghe pipe del P4 si e' invece trasformato in qualcosa di utile, per alcuni indispensabile.....

frasi di questo tipo...
lasciano il tempo che trovano...e credo dipendano da una NON conoscenza dell'argomento trattato......

Si celebra il funerale di questa simil tecnologia, che nessuno certo rimpiangerà

e pure questo credo sia un commento un po' azzardato......

nfatti, l'Hyper Threading oramai non ha più senso, i multicore sono già di loro la migliore risposta al multitasking

in quanto e' proprio adesso che il soft inizia ad essere ottimizzato per i multy core che anche l'HT ne trae vantaggio.....

BYEZZZZZZZZZz

quartz
08-03-2006, 19:43
l'HT muore ora che forse se ne sente piu' il bisogno.....
adesso che i programmi si stanno spostando verso il Multi thread
sia i game che i programmi in genere....

era stato introdotto in un periodo in cui forse il parco utenti non ne sentiva la necessita' e che solo pochi potevano apprezzare....
introdotto come pezza alle lunghe pipe del P4 si e' invece trasformato in qualcosa di utile, per alcuni indispensabile.....

frasi di questo tipo...
lasciano il tempo che trovano...e credo dipendano da una NON conoscenza dell'argomento trattato......



e pure questo credo sia un commento un po' azzardato......


in quanto e' proprio adesso che il soft inizia ad essere ottimizzato per i multy core che anche l'HT ne trae vantaggio.....

BYEZZZZZZZZZz
Come è stato spiegato, CON I DUAL CORE L'HT PORTA SOLO SVANTAGGI.
Specie in sistemi operativi arretrati come XP che, ricordiamolo, è un OS del 2001.

Le prestazioni di due core logici non sono nemmeno lontanamente paragonabili a quelle di due fisici.

Fortunatamente si è tornati all'architettura P6+, che non ha bisogno di questi mezzi per avere un'efficienza decente.


Da Wikipedia: http://it.wikipedia.org/wiki/Hyper-Threading :read:

"Stando ad Intel, tale tecnologia avrebbe dovuto garantire un miglioramento delle prestazioni del 24% a prescindere dalla velocità di clock, ma i fatti hanno poi dimostrato che seppure ci sia effettivamente un certo miglioramento nelle prestazioni, tale aumento è di gran lunga più contenuto rispetto a quanto auspicato.

[...]

In realtà tutti questi miglioramenti non sono molto evidenti per l'utente medio, e certamente sono molto meno eclatanti di quelli analoghi che si possono notare con i nuovi processori dual core Pentium D. In questo caso il sistema operativo non vede due core "logici" ma due core "fisici" analogamente a quanto accadrebbe se si fosse in presenza di un sistema biprocessore. In questo caso i benefici sul multitasking sono nettamente evidenti e anche le applicazioni sviluppate per il calcolo parallelo traggono diversi vantaggi."

MiKeLezZ
08-03-2006, 19:48
Intel RELOADED:

Sono anni che sento questa nenia che chi nota benefici nei 64bit è un pazzo visionario e che "tu non puoi capire perchè devi provarlo".
Ma ora che ho un P4 HT avete tutti ben poco da aprire bocca.. e quello che ho davvero capito, è che ci sono solo tanti, tanti fanboy (o piccoli borg, dipende dai punti di vista) che parlano per sentito dire ed autoconvincimento.
Ho pure sentito teorie astruse su pipeline e efficienza interna, teorie che poi in pratica valevano meno di zero.

I test con il portatile per favore lasciamoli fare a mago zurlì.. anche solo perchè hanno HD da 4200rpm che mi chiedo per quale motivo esistano ancora.. quando uso quella della mia ragazza che ha un A64 2.0 Ghz mi chiedo se in realtà non sia un K5 rinominato, da tanto che mi viene il latte alle ginocchia per la lentezza.

Par-Condicio

:doh: :doh: :doh: :doh: :doh: :doh:

Purtroppo a certi utenti bisogna rispondere così. :rolleyes:
non l'ho capita :confused: :stordita:

leoneazzurro
08-03-2006, 19:53
Come è stato spiegato, CON I DUAL CORE L'HT PORTA SOLO SVANTAGGI.
Specie in sistemi operativi arretrati come XP che, ricordiamolo, è un OS del 2001.

Le prestazioni di due core logici non sono nemmeno lontanamente paragonabili a quelle di due fisici.

Fortunatamente si è tornati all'architettura P6+, che non ha bisogno di questi mezzi per avere un'efficienza decente.


Da Wikipedia: http://it.wikipedia.org/wiki/Hyper-Threading :read:

"Stando ad Intel, tale tecnologia avrebbe dovuto garantire un miglioramento delle prestazioni del 24% a prescindere dalla velocità di clock, ma i fatti hanno poi dimostrato che seppure ci sia effettivamente un certo miglioramento nelle prestazioni, tale aumento è di gran lunga più contenuto rispetto a quanto auspicato.

[...]

In realtà tutti questi miglioramenti non sono molto evidenti per l'utente medio, e certamente sono molto meno eclatanti di quelli analoghi che si possono notare con i nuovi processori dual core Pentium D. In questo caso il sistema operativo non vede due core "logici" ma due core "fisici" analogamente a quanto accadrebbe se si fosse in presenza di un sistema biprocessore. In questo caso i benefici sul multitasking sono nettamente evidenti e anche le applicazioni sviluppate per il calcolo parallelo traggono diversi vantaggi."


Beh, no, HT porta svantaggi con i dual core direi SOLO su Windows, perchè è lo scheduler ad avere un problema, non l'HT in sè. Comunque in multitasking si sente, non certo come un secondo core fisico, ovviamente.

LukeHack
09-03-2006, 00:06
Beh, no, HT porta svantaggi con i dual core direi SOLO su Windows, perchè è lo scheduler ad avere un problema, non l'HT in sè. Comunque in multitasking si sente, non certo come un secondo core fisico, ovviamente.
giusto!

cionci
09-03-2006, 07:11
Insomma...nessuno che vuole parlare con me di come potrebbe essere strutturata una CPU con 100 core... :cry: :D
Secondo me la notizia più interessante è quella :)

leoneazzurro
09-03-2006, 08:41
Insomma...nessuno che vuole parlare con me di come potrebbe essere strutturata una CPU con 100 core... :cry: :D
Secondo me la notizia più interessante è quella :)

Potremmo cominciare a parlare dell'esempio-Niagara, se ti fa piacere (TLP estremamente spinto ma bassa complessità del singolo core) :D

Duncan
09-03-2006, 08:44
Con 100 core avremo un computer alla Minority report :)

bjt2
09-03-2006, 08:46
Io stavo pensando, qualche giorno fa, leggendo un thread di GPU, una cosa fattibile... Non mi ricordo se poi effettivamente ho postato, ma il succo è questo:

Una GPU ha N unità FP. Se si aggiungono uno o più scheduler sul die, che interpretano codice x86, si possono far concorrere per queste unità FP (che possono anche fare calcoli interi) sia istruzioni di una CPU, che quelle grafiche. Una moderna GPU ha qualcosa come 48 ALU addirittura SIMD. Una CPU bene che vada ne ha 2 FP e 6 intere... Dedicare parte di quelle ALU (da stabilire le priorità) a codice GP, considerando la banda stratosferica delle schede grafiche, potrebbe essere l'inizio di una GPU / CPU "multicore"... Si può usare una cache condivisa, la RAM è condivisa e si può mettere un controller secondario (magari per DDR2 o 3 normalissima) per sfondare la barriera del GByte. Si potrebbero fare delle SSE4 che mettano a disposizione della CPU caratteristiche che le pipeline di una GPU normalmente fanno, per esempio istruzioni per il lookup filtrato di una texture o una singola istruzione per applicare una matrice di trasformazione ad un vertice... Potrebbe addirittura significare che non ci sia bisogno più di scriovere programmi shader: si scriverebbero in codice x86, sfruttando tutto il know-how degli attuali compilatori. Si potrebbero fare simulazioni fisiche senza schede aggiuntive, si espanderebbe enormente la capacità di calcolo... Insomma... Basta un parser di codice x86 per ogni CPU che si vuole inserire e una ritoccata allo scheduler delle microistruzioni della GPU...

luciano81
09-03-2006, 09:05
Ho studiato che, se le attuali previsioni di scaling dei dispositivi verranno rispettate, nel 2020 avremo già raggiunto i limiti di miniaturizzazione impostici dalla natura.
In sostanza, per aumentare le prestazioni dei nostri microprocessori, non potremo più puntare su una ulteriore miniaturizzazione perchè saremo già a dimensioni paragonabili a quelle atomiche con insormontabili problemi di natura fisico-quantistica.

Cosa pensate potrà accadere?
Bisognerà rivoluzionare completamente il modo di progettare per poter riuscire a mantenere questi trend di crescita.
In che direzione dobbiamo guardare?

cionci
09-03-2006, 15:16
Potremmo cominciare a parlare dell'esempio-Niagara, se ti fa piacere (TLP estremamente spinto ma bassa complessità del singolo core) :D
Niagara è molto interessante...volevo segnalare a tal proposito questo interessante articolo: http://www.aceshardware.com/read.jsp?id=65000292

leoneazzurro
09-03-2006, 15:20
Articolo molto carino (mi sa che siamo andati OT).
Il problema è come sempre che per sfruttare molti core devi avere SO e applicazioni con elevato livello di parallelismo.

mjordan
09-03-2006, 22:28
Ma con 100 core la scheda grafica a cosa servira?Capisco che quando si arriverà ad avere 100 core nel pc di casa probabilmente ci saranno giochi con una grafica praticamente uguale alla realtà,meglio di un film,però sarebbe bello poter dedicare,per esempio 30 core al calcolo della grafica,10 all'intelligenza artificiale,10 alla fisica del gioco ecc...Fantascienza?spero di no....

Prima o poi dovranno pur arrivare unità dedicate. E' anche vero che ci sono campi in cui non ha senso avere delle unità dedicate. Per esempio, grafica e fisica (per fisica intendo dinamica dei fluidi, softbodies e dinamica dei corpi rigidi) alla fine sono pesanti applicazioni di calcoli floating-point. Avere delle unità separate per l'una o per l'altra ha senso fino ad un certo punto, considerando che anche nella grafica, molto spesso, ci sono concetti che appartengono alla fisica, come ad esempio l'ottica, la luce e altra roba. Forse oggi hanno senso per contenere i costi, un domani magari una GPU farà entrambi. I processori per cellulari già oggi, infatti, oltre a gestire la grafica fanno tante altre cosette carine in un sigolo chip. Le moderne GPU oggi si occupano anche dei flussi video. Non vedo perchè in un prossimo futuro non si possano occupare di fisica.

mjordan
09-03-2006, 22:34
Articolo molto carino (mi sa che siamo andati OT).
Il problema è come sempre che per sfruttare molti core devi avere SO e applicazioni con elevato livello di parallelismo.

Certo, ma nulla che debba far preoccupare piu' di tanto. A livello di programmazione sono uguali 2 core quanti averne 100. Con le moderne architetture, fortemente basate sul parallelismo di esecuzione, ha senso utilizzare OpenMP. Ormai thread e processi sono un concetto "vecchio" (nel senso di piu' basso livello), quasi non piu' idoneo per programmare efficientemente su architetture multicore. Con OpenMP è possibile utilizzare delle semplici direttive "pragma" in modo da identificare le sezioni di codice su cui si vuole il parallelismo (detto molto semplicisticamente). Grazie a queste direttive, è il compilatore che si occupa di generare un codice efficiente per sostenere scheduling, dispatch e sincronizzazione, in modo da mettere thread e processi ad un livello inferiore. OpenMP può essere visto come una programmazione parallela di alto livello.
Anche Microsoft (incredibile dictu) in un recente paper che avevo letto da qualche parte, incoraggiava all'uso di OpenMP.
Semplice, geniale e soprattutto sgrava da complesse operazioni di debugging sui thread. In questo caso anche i calcoli non parallelizzabili vengono gestiti dal compilatore. Io sto aspettando GCC 4.2 con ansia, includerà un progetto che si chiama GOMP (GNU OpenMP) e finalmente darà il via alla programmazione parallela semplificata... Dovrebbe essere compratibile pienamente con le specifiche OpenMP 2.5 (che sono un'unificazione della versione 2.0 per C e Fortran). Ma secondo me prima dei dieci mesi non esce... :stordita:

mjordan
09-03-2006, 22:43
100 core in un die= FantaTecnologia.
:mc:

Mica tanto... Questi mi sa che parlavano serio... :rotfl: