View Full Version : Processori sino a 1.000 core tra le ricerche di Intel
Redazione di Hardware Upg
28-12-2010, 14:22
Link alla notizia: http://www.businessmagazine.it/news/processori-sino-a-1000-core-tra-le-ricerche-di-intel_34903.html
L'azienda americana prosegue la propria iniziativa di ricerca Terascale Computing puntando l'attenzione sull'infrastruttura, soprattutto software, necessaria per architetture multicore spinte
Click sul link per visualizzare la notizia.
supertigrotto
28-12-2010, 14:25
le interconnessioni e la gestione della memoria,molto difficile con un elevato numero di core......
Sarà una bella sfida per intel....
Opteranium
28-12-2010, 14:27
SOFTWARE ci vuole, altro che storie..
Ventresca
28-12-2010, 14:32
grazie yoda!
Non mi dispiacerebbe farci girare sopra Boinc!!!
www.boincitaly.org/
SOFTWARE ci vuole, altro che storie..
infatti...
fraussantin
28-12-2010, 15:11
su,su che fate in tempo....... sta per uscire crysis 2 !!!!:asd:
sidewinder
28-12-2010, 15:25
A parte i collegamenti core-ram, i maggiori problemi saranno dalle applicazioni e dai problemi di licenze di alcune applicazioni (esempio le applicazioni enterprise)
jappino147
28-12-2010, 15:30
mah.....
imho sono previsione che lasciano il tempo che trovano
intel prevedeva anche freq sino a 10GHz per i pentium 4.........
Beh, in ogni caso sono ben indietro se, come dice l'articolo, Intel "sta studiando l'intenzione di". :-D
Spero che un giorno finirà questa ormai inutile corsa dei processori.
Quando la legge di Moore si sarà finalmente esaurita e la potenza dei processori non sarà più aumentabile, sarà un grande giorno per l'informatica.
Finalmente ci si potrà concentrare sull'ottimizzazione del software, i computer diverranno ogni anno il doppio più veloci (legge di Moore applicata al software) e si potranno recuperare 30 anni di tempo perduto...
So che è solo un sogno ma è fin troppo evidente che il software è il vero collo di bottiglia dei sistemi attuali.
Quando il software è ottimizzato, anche il processore di un cellulare potrebbe bastare...
Effettivamente c'è moltissimo software scritto da schifo... però da qui a teorizzare un progresso pari alla legge di Moore ce ne va un sacco ;)
Metti anche che limando ovunque (e a caro costo) si ottimizzi tutto, non credo si andrebbe oltre un aumento di 10x delle prestazioni...
Meglio puntare su architetture ad altissimo parallelismo e reti neurali.
coschizza
28-12-2010, 16:58
Quando il software è ottimizzato, anche il processore di un cellulare potrebbe bastare...
Ottimizzare il software ha molti piu limiti di ottimizzare l'hardware. Ci sono tanti software ottimizzati oggi ma su un processore di un cellulare non potresti nemmeno lanciarli altro che usarli.
Ottimizzare il software oltre a un cero limite porta solo l'aumento dei costi di sviluppo senza pero portare vantaggi all'utentre finale.
Io non la vedo cosi male con i software moderni hanno recuperato molto da quando hanno iniziato a usare (dove serve) un multithread piu spinto. Va detto che solo una piccola parte dei software puo essere modificata per trarre vantaggio dei core multipli nelle cpu moderne per tutti gli altri fare questo lavoro porterebbe vantaggi minimi ma costi esorbitanti.
CharlieManson
28-12-2010, 17:13
notizia assolutamente falsa.
conosco personalmente Tim Mattson di Intel e si è lamentato di come i media abbiano stravolto completamente il suo lavoro (presentato a SC2010) nel progetto Terascale/Exascale.
Lui ha semplicemente ipotizzato quali possano essere le caratteristiche di un'architettura a 1000 core per funzionare (da cui il progetto SCC http://techresearch.intel.com/ProjectDetails.aspx?Id=1 )
Spero che un giorno finirà questa ormai inutile corsa dei processori.
Quando la legge di Moore si sarà finalmente esaurita e la potenza dei processori non sarà più aumentabile, sarà un grande giorno per l'informatica.
Finalmente ci si potrà concentrare sull'ottimizzazione del software, i computer diverranno ogni anno il doppio più veloci (legge di Moore applicata al software) e si potranno recuperare 30 anni di tempo perduto...
So che è solo un sogno ma è fin troppo evidente che il software è il vero collo di bottiglia dei sistemi attuali.
Quando il software è ottimizzato, anche il processore di un cellulare potrebbe bastare...
mancano i veri programmatori... quelli che con 1 mb di ram..sapevano fare i miracoli... (Amiga).
ho appena dato l'esame di calcolatori elettronici e abbiamo affrontato quindi questo genere di problematiche, ottimizzare software va bene quando si ha a che fare con istruzioni che hanno un alto livello di parallelismo intrinseco ad esempio un ciclo for con migliaia / milioni di iterazioni e se vi è indipendenza di dati tra un'iterazione e l'altra (come la somma di 2 vettori).
il concetto è che se in uno stadio della pipeline hardware sto usando un certo componente hw (tipo sommatore) e nell'istruzione successiva ho bisogno ancora di quel componente, l'istruzione va in stallo, a meno che non ho 2 sommatori, quindi aumenta la complessità e la grandezza del circuito...
e poi i moderni processori effettuano da soli speculazione hardware e scheduling delle istruzioni, quindi ottimizzano loro stessi le istruzioni per avere il minor numero di stalli, cosa che avviene anche a livello di compilatore, non dimentichiamocelo...
si può dire che per l'hardware attuale, al processore arrivano istruzioni già abbastanza ottimizzate...
come dice il mio prof (che ha lavorato alla intel e ha dei brevetti registrati per la intel) aumentare il numero di core non è la soluzione, va bene solo per applicazioni vettoriali.
Gnubbolo
28-12-2010, 17:35
mancano i veri programmatori... quelli che con 1 mb di ram..sapevano fare i miracoli... (Amiga).
questi programmatori lavorano alla intel, hanno creato icc che fa lo stesso lavoro, probabilmente meglio.
CharlieManson
28-12-2010, 17:35
aumentare il numero di core all'infinito non ha senso, si sbatte sempre contro la legge di Amdahl, per non parlare della quantità di RAM necessaria.
La soluzione sarebbe attualmente creare un know how lato software di parallelizzazione, vettorizzazione e ottimizzazione dei codici già scritti che manca completamente.
CharlieManson
28-12-2010, 17:39
vero, icc vettorizza dove gcc ancora non è arrivato
e l'IPO oggi fa veramente miracoli
Stech1987
28-12-2010, 20:19
...progetto dell'Ing. Cane ("MILLE!")
:lol:
le soluzioni multicore ci sono già, il chip nvidia fermi è un esempio lampante e le nuove cpu+gpu amd saranno il futuro tra 4 o 5 anni....
quindi intel in realtà ha bisogno di una gpu e non di un cpu....
tra 20 anni non so cosa ci sarà ma certo la tecnologia ottica porterebbe a prestazioni nell'ordine del teraherz ossia 1000 volte la velocità attuale
CORROSIVO
29-12-2010, 00:11
Cpu Intel, Cpu Intel
Cpu Intel, Cpu Intel
Si trasforma in un razzo missile con circuiti di mille valvole
fra le stelle sprinta e và...
Con "core" al posto di valvole non suonava bene...
coschizza
29-12-2010, 09:21
le soluzioni multicore ci sono già, il chip nvidia fermi è un esempio lampante e le nuove cpu+gpu amd saranno il futuro tra 4 o 5 anni....
quindi intel in realtà ha bisogno di una gpu e non di un cpu....
tra 20 anni non so cosa ci sarà ma certo la tecnologia ottica porterebbe a prestazioni nell'ordine del teraherz ossia 1000 volte la velocità attuale
stiamo parlando di core non di gpu, il chip fermi non è un esempio di nulla visto che non ha nessun core e non puo fare nemmeno quello che faceva un core intel 8086 20 anni fa cioè poter gestire un sistema operativo non ha il controllo della memoria di sistema e del bus insomma stai confrontando 2 tecnologie differenti.
Inoltre su un fermi puoi utuilizzare solo una frazione dei software moderni a prescindere chi siano sviluppati per utilizzarla mentre un core classico di oggi puo gestire tutto seppur con livelli di performance variabili in base all'applicazione. la gpu è una scheda di espansione non un componente base come la cpu.
Oenimora
31-12-2010, 18:36
mancano i veri programmatori... quelli che con 1 mb di ram..sapevano fare i miracoli... (Amiga).
Ci sono ancora ;)
http://www.assembly.org/summer10/gallery/4k-intro
Ci sono però altre logiche su cosa e come convenga sviluppare, poi ci sono layer d'astrazione, wrappers, i bytecode... tutto bello e comodo, ma ovviamente ha i suoi contro. Però più che software da ottimizzare, c'è del software "bloated" (gonfiato) da morire, dei veri pachidermi che arrancano sui vecchi pc, quando poi esistono alternative nettamente più snelle o software che non si sa come occupa dei gigabyte, quando altri che fanno lo stesso occupando pochi megabyte.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.