Intel, addio a Hyper Threading?

Intel, addio a Hyper Threading?

Si fanno sempre più insistenti le voci circa l'abbandono da parte di Intel della tecnologia Hyper Threading; qual è la verità?

di pubblicata il , alle 08:39 nel canale Processori
Intel
 
105 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
OverClocK79®08 Marzo 2006, 19:09 #91
l'HT muore ora che forse se ne sente piu' il bisogno.....
adesso che i programmi si stanno spostando verso il Multi thread
sia i game che i programmi in genere....

era stato introdotto in un periodo in cui forse il parco utenti non ne sentiva la necessita' e che solo pochi potevano apprezzare....
introdotto come pezza alle lunghe pipe del P4 si e' invece trasformato in qualcosa di utile, per alcuni indispensabile.....

frasi di questo tipo...
lasciano il tempo che trovano...e credo dipendano da una NON conoscenza dell'argomento trattato......

Si celebra il funerale di questa simil tecnologia, che nessuno certo rimpiangerà


e pure questo credo sia un commento un po' azzardato......
nfatti, l'Hyper Threading oramai non ha più senso, i multicore sono già di loro la migliore risposta al multitasking


in quanto e' proprio adesso che il soft inizia ad essere ottimizzato per i multy core che anche l'HT ne trae vantaggio.....

BYEZZZZZZZZZz
quartz08 Marzo 2006, 20:43 #92
Originariamente inviato da: OverClocK79®
l'HT muore ora che forse se ne sente piu' il bisogno.....
adesso che i programmi si stanno spostando verso il Multi thread
sia i game che i programmi in genere....

era stato introdotto in un periodo in cui forse il parco utenti non ne sentiva la necessita' e che solo pochi potevano apprezzare....
introdotto come pezza alle lunghe pipe del P4 si e' invece trasformato in qualcosa di utile, per alcuni indispensabile.....

frasi di questo tipo...
lasciano il tempo che trovano...e credo dipendano da una NON conoscenza dell'argomento trattato......



e pure questo credo sia un commento un po' azzardato......


in quanto e' proprio adesso che il soft inizia ad essere ottimizzato per i multy core che anche l'HT ne trae vantaggio.....

BYEZZZZZZZZZz

Come è stato spiegato, CON I DUAL CORE L'HT PORTA SOLO SVANTAGGI.
Specie in sistemi operativi arretrati come XP che, ricordiamolo, è un OS del 2001.

Le prestazioni di due core logici non sono nemmeno lontanamente paragonabili a quelle di due fisici.

Fortunatamente si è tornati all'architettura P6+, che non ha bisogno di questi mezzi per avere un'efficienza decente.


Da Wikipedia: http://it.wikipedia.org/wiki/Hyper-Threading

[I]"Stando ad Intel, tale tecnologia avrebbe dovuto garantire un miglioramento delle prestazioni del 24% a prescindere dalla velocità di clock, ma i fatti hanno poi dimostrato che seppure ci sia effettivamente un certo miglioramento nelle prestazioni, tale aumento è di gran lunga più contenuto rispetto a quanto auspicato.

[...]

In realtà tutti questi miglioramenti non sono molto evidenti per l'utente medio, e certamente sono molto meno eclatanti di quelli analoghi che si possono notare con i nuovi processori dual core Pentium D. In questo caso il sistema operativo non vede due core "logici" ma due core "fisici" analogamente a quanto accadrebbe se si fosse in presenza di un sistema biprocessore. In questo caso i benefici sul multitasking sono nettamente evidenti e anche le applicazioni sviluppate per il calcolo parallelo traggono diversi vantaggi."
[/I]
MiKeLezZ08 Marzo 2006, 20:48 #93
Originariamente inviato da: Max Power
Intel RELOADED:

Sono anni che sento questa nenia che chi nota benefici nei 64bit è un pazzo visionario e che "tu non puoi capire perchè devi provarlo".
Ma ora che ho un P4 HT avete tutti ben poco da aprire bocca.. e quello che ho davvero capito, è che ci sono solo tanti, tanti fanboy (o piccoli borg, dipende dai punti di vista) che parlano per sentito dire ed autoconvincimento.
Ho pure sentito teorie astruse su pipeline e efficienza interna, teorie che poi in pratica valevano meno di zero.

I test con il portatile per favore lasciamoli fare a mago zurlì.. anche solo perchè hanno HD da 4200rpm che mi chiedo per quale motivo esistano ancora.. quando uso quella della mia ragazza che ha un A64 2.0 Ghz mi chiedo se in realtà non sia un K5 rinominato, da tanto che mi viene il latte alle ginocchia per la lentezza.

Par-Condicio



Purtroppo a certi utenti bisogna rispondere così.

non l'ho capita
leoneazzurro08 Marzo 2006, 20:53 #94
Originariamente inviato da: quartz]Come è
http://it.wikipedia.org/wiki/Hyper-Threading[/url]

[I]"Stando ad Intel, tale tecnologia avrebbe dovuto garantire un miglioramento delle prestazioni del 24% a prescindere dalla velocità di clock, ma i fatti hanno poi dimostrato che seppure ci sia effettivamente un certo miglioramento nelle prestazioni, tale aumento è di gran lunga più contenuto rispetto a quanto auspicato.

[...]

In realtà tutti questi miglioramenti non sono molto evidenti per l'utente medio, e certamente sono molto meno eclatanti di quelli analoghi che si possono notare con i nuovi processori dual core Pentium D. In questo caso il sistema operativo non vede due core "logici" ma due core "fisici" analogamente a quanto accadrebbe se si fosse in presenza di un sistema biprocessore. In questo caso i benefici sul multitasking sono nettamente evidenti e anche le applicazioni sviluppate per il calcolo parallelo traggono diversi vantaggi."
[/I]


Beh, no, HT porta svantaggi con i dual core direi SOLO su Windows, perchè è lo scheduler ad avere un problema, non l'HT in sè. Comunque in multitasking si sente, non certo come un secondo core fisico, ovviamente.
LukeHack09 Marzo 2006, 01:06 #95
Originariamente inviato da: leoneazzurro
Beh, no, HT porta svantaggi con i dual core direi SOLO su Windows, perchè è lo scheduler ad avere un problema, non l'HT in sè. Comunque in multitasking si sente, non certo come un secondo core fisico, ovviamente.

giusto!
cionci09 Marzo 2006, 08:11 #96
Insomma...nessuno che vuole parlare con me di come potrebbe essere strutturata una CPU con 100 core...
Secondo me la notizia più interessante è quella
leoneazzurro09 Marzo 2006, 09:41 #97
Originariamente inviato da: cionci
Insomma...nessuno che vuole parlare con me di come potrebbe essere strutturata una CPU con 100 core...
Secondo me la notizia più interessante è quella


Potremmo cominciare a parlare dell'esempio-Niagara, se ti fa piacere (TLP estremamente spinto ma bassa complessità del singolo core)
Duncan09 Marzo 2006, 09:44 #98
Con 100 core avremo un computer alla Minority report
bjt209 Marzo 2006, 09:46 #99
Io stavo pensando, qualche giorno fa, leggendo un thread di GPU, una cosa fattibile... Non mi ricordo se poi effettivamente ho postato, ma il succo è questo:

Una GPU ha N unità FP. Se si aggiungono uno o più scheduler sul die, che interpretano codice x86, si possono far concorrere per queste unità FP (che possono anche fare calcoli interi) sia istruzioni di una CPU, che quelle grafiche. Una moderna GPU ha qualcosa come 48 ALU addirittura SIMD. Una CPU bene che vada ne ha 2 FP e 6 intere... Dedicare parte di quelle ALU (da stabilire le priorità a codice GP, considerando la banda stratosferica delle schede grafiche, potrebbe essere l'inizio di una GPU / CPU "multicore"... Si può usare una cache condivisa, la RAM è condivisa e si può mettere un controller secondario (magari per DDR2 o 3 normalissima) per sfondare la barriera del GByte. Si potrebbero fare delle SSE4 che mettano a disposizione della CPU caratteristiche che le pipeline di una GPU normalmente fanno, per esempio istruzioni per il lookup filtrato di una texture o una singola istruzione per applicare una matrice di trasformazione ad un vertice... Potrebbe addirittura significare che non ci sia bisogno più di scriovere programmi shader: si scriverebbero in codice x86, sfruttando tutto il know-how degli attuali compilatori. Si potrebbero fare simulazioni fisiche senza schede aggiuntive, si espanderebbe enormente la capacità di calcolo... Insomma... Basta un parser di codice x86 per ogni CPU che si vuole inserire e una ritoccata allo scheduler delle microistruzioni della GPU...
luciano8109 Marzo 2006, 10:05 #100

Le nanotecnologie

Ho studiato che, se le attuali previsioni di scaling dei dispositivi verranno rispettate, nel 2020 avremo già raggiunto i limiti di miniaturizzazione impostici dalla natura.
In sostanza, per aumentare le prestazioni dei nostri microprocessori, non potremo più puntare su una ulteriore miniaturizzazione perchè saremo già a dimensioni paragonabili a quelle atomiche con insormontabili problemi di natura fisico-quantistica.

Cosa pensate potrà accadere?
Bisognerà rivoluzionare completamente il modo di progettare per poter riuscire a mantenere questi trend di crescita.
In che direzione dobbiamo guardare?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^