Intel, addio a Hyper Threading?
Si fanno sempre più insistenti le voci circa l'abbandono da parte di Intel della tecnologia Hyper Threading; qual è la verità?
di Alessandro Bordin pubblicata il 07 Marzo 2006, alle 08:39 nel canale ProcessoriIntel










Recensione vivo X300 Pro: è ancora lui il re della fotografia mobile, peccato per la batteria
Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'' per spingere gli handheld gaming PC al massimo
AWS re:Invent 2025: inizia l'era dell'AI-as-a-Service con al centro gli agenti
La capsula SpaceX Dragon CRS-33 ha acceso i motori per modificare la quota della Stazione Spaziale Internazionale
La NASA è sempre più vicina al lancio della missione Artemis II intorno alla Luna
Crisi delle memorie: ASUS torna al passato e prepara il ritorno delle DDR4
Le console next-generation potrebbero essere posticipate: la colpa è della crisi delle memorie
Gemini cresce ancora: la quota di mercato di ChatGPT è crollata nell'ultimo anno
Samsung sfida TSMC: la capacità produttiva di chip a 2 nm aumenterà considerevolmente
Iliad alza il prezzo della fibra ottica ma aggiunge il servizio Cafeyn
Il prossimo low cost di POCO sarà il più sottile e leggero del suo segmento
The Elder Scrolls VI: ecco le ultime sul titolo, meccaniche di gioco e periodo di uscita
Ecco i saldi di fine anno Amazon, 34 offerte per chiudere in bellezza risparmiando
iPhone Fold: scorte limitate al lancio ma prezzo più basso rispetto alle attese, ecco le ultime
OpenAI porterà la pubblicità in ChatGPT ma non vuole far perdere di credibilità il suo chatbot
TSMC aumenterà ancora i prezzi: nel 2026 produrre chip costerà di più
Marvel pubblica anche il secondo teaser di Avengers: Doomsday | Video









105 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoNiagara è molto interessante...volevo segnalare a tal proposito questo interessante articolo: http://www.aceshardware.com/read.jsp?id=65000292
Il problema è come sempre che per sfruttare molti core devi avere SO e applicazioni con elevato livello di parallelismo.
Prima o poi dovranno pur arrivare unità dedicate. E' anche vero che ci sono campi in cui non ha senso avere delle unità dedicate. Per esempio, grafica e fisica (per fisica intendo dinamica dei fluidi, softbodies e dinamica dei corpi rigidi) alla fine sono pesanti applicazioni di calcoli floating-point. Avere delle unità separate per l'una o per l'altra ha senso fino ad un certo punto, considerando che anche nella grafica, molto spesso, ci sono concetti che appartengono alla fisica, come ad esempio l'ottica, la luce e altra roba. Forse oggi hanno senso per contenere i costi, un domani magari una GPU farà entrambi. I processori per cellulari già oggi, infatti, oltre a gestire la grafica fanno tante altre cosette carine in un sigolo chip. Le moderne GPU oggi si occupano anche dei flussi video. Non vedo perchè in un prossimo futuro non si possano occupare di fisica.
Il problema è come sempre che per sfruttare molti core devi avere SO e applicazioni con elevato livello di parallelismo.
Certo, ma nulla che debba far preoccupare piu' di tanto. A livello di programmazione sono uguali 2 core quanti averne 100. Con le moderne architetture, fortemente basate sul parallelismo di esecuzione, ha senso utilizzare OpenMP. Ormai thread e processi sono un concetto "vecchio" (nel senso di piu' basso livello), quasi non piu' idoneo per programmare efficientemente su architetture multicore. Con OpenMP è possibile utilizzare delle semplici direttive "pragma" in modo da identificare le sezioni di codice su cui si vuole il parallelismo (detto molto semplicisticamente). Grazie a queste direttive, è il compilatore che si occupa di generare un codice efficiente per sostenere scheduling, dispatch e sincronizzazione, in modo da mettere thread e processi ad un livello inferiore. OpenMP può essere visto come una programmazione parallela di alto livello.
Anche Microsoft (incredibile dictu) in un recente paper che avevo letto da qualche parte, incoraggiava all'uso di OpenMP.
Semplice, geniale e soprattutto sgrava da complesse operazioni di debugging sui thread. In questo caso anche i calcoli non parallelizzabili vengono gestiti dal compilatore. Io sto aspettando GCC 4.2 con ansia, includerà un progetto che si chiama GOMP (GNU OpenMP) e finalmente darà il via alla programmazione parallela semplificata... Dovrebbe essere compratibile pienamente con le specifiche OpenMP 2.5 (che sono un'unificazione della versione 2.0 per C e Fortran). Ma secondo me prima dei dieci mesi non esce...
Mica tanto... Questi mi sa che parlavano serio...
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".