View Full Version : Intel Knights Corner, 50 core per confermare Moore
Redazione di Hardware Upg
31-05-2010, 16:12
Link alla notizia: http://www.hwupgrade.it/news/business/intel-knights-corner-50-core-per-confermare-moore_32763.html
Intel presenta Knights Corner, proposta per centri di ricerca in grado di presentare fino a 50 core all'interno dello stesso processore
Click sul link per visualizzare la notizia.
danyroma80
31-05-2010, 16:44
ci girerà crysis? penso di sì, un nemico per core
MAH...non son sfruttate al massimo neancora le core 2 duo in ambito home e in campo scientifico spesso cercan le gpu per un miglior rapporto prezzo/potenza... la vedo nera per questo esercizio di stile intel (oltre al fatto che mi sorge spontaneo chiedermi se le raffreddano direttamente ad azoto visto il calore che potrebbero generare 50core in una singola piastra di silicio) mi sembra tanto una stentata corsa per dimostrare che la legge di moore è ancora valida...
El Bombastico
31-05-2010, 17:01
A dire il vero, un po' mi manca quell'irrefrenabile corsa al Mhz che caratterizzava il mondo delle CPU di qualche annetto fà.
Ancora mi ricordo i tempi del 486 e di quando una ventina di Mhz in più faceva sembrare un processore una belva.
Bei ricordi.
questa soluzione se nn erro dovrebbe consumare sui 125-150W, quindi ad aria si raffredda benissimo.
Secondo me stanno riciclando Larrabee. Per la grafica non era performante, ma essendo un x86 a tutti gli effetti, con le ottimizzazioni giuste, potrebbe far paura.
Hanno iniziato a distribuirlo a pochi, così da iniziare a creare interesse ed applicazioni, per quando uscirà a 22 nm.
La vedo come un riciclo, e come preparazione x il terreno x i prossimi anni...
Hanno capito ke senza software Larrabee non avrebbe attirato nessuno, quindi prima invoglieranno a creare soft ottimizzati, poi lo spacceranno come rivoluzione x il calcolo parallelo x86... e nel mezzo avranno tempo x ottimizzare i software anche per la grafica.
Superboy
31-05-2010, 17:11
@StyleB
Avercene di tali progetti di ricerca! Se a te non serve o non ne vedi l'utilità non vuol dire che il mondo sia tutto li. Seconda cosa, non si è parlato di consumo nè di architettura, secondo il tuo ragionamento una gpu ati (che ha 800core) dovrebbe consumare come una piccola città.
Presto nei nostri PC avremo CPU a 48core da 4GHZ con multi-GPU integrata con consumi sotto i 100W e TDP glaciali.
Beh per i 4Ghz ci si potrebbe benissimo già arrivare...
qual'è il numero di core necessario per rendersi conto che l'approccio multicore è ridicolo? voglio dire, fino a 10 possiamo pure tirare avanti questa architettura... ma andare a 50 o 100 mi pare una sciochezza siceramente.
-=W1S3=-
31-05-2010, 18:09
e l'approccio giusto quale sarebbe? la corsa al GHz? mi sa che più core ci sono e meglio è, soprattutto se il software sarà fatto girare in parallelo e in multithreading... mi sa che il cervello umano funziona più o meno così, con i neuroni al posto dei core!
e l'approccio giusto quale sarebbe? la corsa al GHz? mi sa che più core ci sono e meglio è, soprattutto se il software sarà fatto girare in parallelo e in multithreading... mi sa che il cervello umano funziona più o meno così, con i neuroni al posto dei core!
l'approccio giusto va studiato ma bisognerebbe ripensare tutta l'architettura. qui stiamo esasperando sempre la stessa cosa... invece di costruire una macchina da corsa da zero, continuiamo a modificare una fiat punto... questo per mantenere sempre il più possibile compatibilità e portabilità quando possibile. forse sarebbe l'ora di pensare a qualcosa di diverso, o no? la corsa ai GH è pure peggio da questo punto di vista... allora si che è meglio più core. neuroni al posto dei core. allora il mio PC ha 4 neuroni? poraccio ;)
B|4KWH|T3
31-05-2010, 18:56
Nei centri di ricerca cercano le GPU?
Ma se sono mosche bianche e solo ora stanno COMINCIANDO A PENSARE di farci qualcosa.
devil_mcry
31-05-2010, 19:05
questa soluzione se nn erro dovrebbe consumare sui 125-150W, quindi ad aria si raffredda benissimo.
Secondo me stanno riciclando Larrabee. Per la grafica non era performante, ma essendo un x86 a tutti gli effetti, con le ottimizzazioni giuste, potrebbe far paura.
Hanno iniziato a distribuirlo a pochi, così da iniziare a creare interesse ed applicazioni, per quando uscirà a 22 nm.
La vedo come un riciclo, e come preparazione x il terreno x i prossimi anni...
Hanno capito ke senza software Larrabee non avrebbe attirato nessuno, quindi prima invoglieranno a creare soft ottimizzati, poi lo spacceranno come rivoluzione x il calcolo parallelo x86... e nel mezzo avranno tempo x ottimizzare i software anche per la grafica.
possibile alla fine nn si cestina anni di ricerca cosi
cmq cpu del genere erano in cantiere già da molto tempo, forse sono un lavoro parallelo
ventuc86
31-05-2010, 19:22
Nei centri di calcolo non si cercano ancora GPU. Probabilmente ci si sposterà lentamente in quella direzione, ma programmare per GPU è ancora difficilissimo, e per alcune applicazioni le prestazioni sono addirittura peggiori. Ad es. le prime Tesla (non so ora) avevano prestazioni pessime nei calcoli con floating point double.
Comunque bisogna scollarsi di dosso l'idea che il programmatore deve creare a mano più thread per sfruttare più core. Esistono librerie (vedi OpenMP) che permettono ad esempio di parallelizzare i loop semplicemente con delle direttive del preprocessore. Ovvio, ancora non esistono equivalente per tutti i linguaggi, e soprattutto per i programmatori è difficile cambiare.
l'approccio giusto va studiato ma bisognerebbe ripensare tutta l'architettura. qui stiamo esasperando sempre la stessa cosa... invece di costruire una macchina da corsa da zero, continuiamo a modificare una fiat punto... questo per mantenere sempre il più possibile compatibilità e portabilità quando possibile. forse sarebbe l'ora di pensare a qualcosa di diverso, o no? la corsa ai GH è pure peggio da questo punto di vista... allora si che è meglio più core. neuroni al posto dei core. allora il mio PC ha 4 neuroni? poraccio ;)
Concordo.
probabilmente non avete ben presente il vantaggio per boinc di poter sfruttare un maggior numero di core....
ilmassa1
31-05-2010, 19:55
Mi piace più l'idea delle APU.
Cioè è giusto percorrere 2 rami, come sta facendo ATI/AMD.
Migliorare il supporto ai classici processori (che resteranno ancora per un bel po di anni).
Creare nuovi dispositivi che integrino CPU e GPU.
Anche perchè se ATI/AMD supera pure la intel sono cavoli amari per noi consumatori.
Già ha passato la Nvidia, e non è da poco.
probabilmente non avete ben presente il vantaggio per boinc di poter sfruttare un maggior numero di core....
Che io ricordi boinc, all'aumentare del numero di core, aumenta il numero di lavori in contemporanea, e basta... :stordita:
Che io ricordi boinc, all'aumentare del numero di core, aumenta il numero di lavori in contemporanea, e basta... :stordita:
e ti sembra poco ?
in 1 giorno , calcoli eseguiti per 1 moltiplicato il numero di core.....50 core = 50 giorni di lavoro in un giorno solo....
e ti sembra poco ?
in 1 giorno , calcoli eseguiti per 1 moltiplicato il numero di core.....50 core = 50 giorni di lavoro in un giorno solo....
Dipende se ci sono abbastanza WU e se la velocità di upload è sufficiente per stare dietro alla capacità di calcolo... :asd:
world community grid ha wu per tutti i gusti e una normale adsl ha upload a sufficenza per soddisfare i pochi kb di ogni wu
Spantegu
31-05-2010, 22:23
qual'è il numero di core necessario per rendersi conto che l'approccio multicore è ridicolo? voglio dire, fino a 10 possiamo pure tirare avanti questa architettura... ma andare a 50 o 100 mi pare una sciochezza siceramente.
si ok..
ARARARARARARA
31-05-2010, 22:43
ci girerà crysis? penso di sì, un nemico per core
Se, se, ti piacerebbe, li ci vuole anche una super scheda video, invece questa soluzione ce la vedo bne per un extreme multi account in qualche server wow sfigato, con questo ti puoi loggare con 10.000 personaggi e muoverli contemporaneamente avanzando come un'unica orda assassina in grado di agnentare tutto e tutti!
PS: questo fa parte dei 1001 modi di usare nel modo più stupido una cosa strafiga! Ma insomma non è lontano dall'inutilità di usare un pc magari da migliaia di euro e la corrente per giocare a spider quando con 0,5€ dal tabacchino ti compri un mazzo di carte e giochi senza consumare corrente!
superbau
31-05-2010, 23:08
EH? 0,5€ PER Un mazzo di carte? and do stai, sicuramente non in italia, qui le vendono minimo a 10€ in su :)
ARARARARARARA
31-05-2010, 23:12
EH? 0,5€ PER Un mazzo di carte? and do stai, sicuramente non in italia, qui le vendono minimo a 10€ in su :)
siamo OT, cmq si, un mazzo di quelli non di marca costa 50 centesimi, quelli più belli, del negro e amici costano sui 2 €
Se, se, ti piacerebbe, li ci vuole anche una super scheda video, invece questa soluzione ce la vedo bne per un extreme multi account in qualche server wow sfigato, con questo ti puoi loggare con 10.000 personaggi e muoverli contemporaneamente avanzando come un'unica orda assassina in grado di agnentare tutto e tutti!
...
Non serve, basta loggarsi in 300
@SuperBoy: è solo un esercizio di stile per compier studi sul multicore nulla di + oltre al fatto che
1- io ho parlato di TEMPERATURE (anche se di sicuro i consumi non scherzerebbero neanche se fossero 50 snap o 50 arm) e per inciso della temperatura che può scaturire da 50 core in un unica piastra di silicio (non credo che basti un sistema a liquido classico... forse uno ad evaporazione ma forse)
2- le gpu vengono usate nei centri di ricerca per raggiungere potenze computazionali elevate.. fatti una ricerchina va... :D
Superboy
01-06-2010, 09:23
1- io ho parlato di TEMPERATURE (anche se di sicuro i consumi non scherzerebbero neanche se fossero 50 snap o 50 arm) e per inciso della temperatura che può scaturire da 50 core in un unica piastra di silicio (non credo che basti un sistema a liquido classico... forse uno ad evaporazione ma forse)
2- le gpu vengono usate nei centri di ricerca per raggiungere potenze computazionali elevate.. fatti una ricerchina va... :D
Ti contraddici tutto da solo :D il calore non è un indicatore, in quanto è una misura di energia (J), quello che conta nei dimensionamenti è la potenza (J/s).
Poi ripeto, affermi che 50 core (di cui ignori architettura e frequenza, processo prod etc) "scaldino da morire" mentre la tua gpu oggi a 800 core funziona pure bene. Usi due pesi e due misure, traendo conclusioni campate in aria senza informazioni di alcun tipo.
Poi che centra un sistema di raffreddamento con un prototipo? Qua si salta di palo in frasca.
Questi progetti son fatti per STUDIARE architetture altamente parallele (ma soprattutto la comunicazione tra le parti), cercare soluzioni software adeguate PRIMA della commercializzazione. Io critico il tuo giudicare vani iprogetti di ricerca e sviluppo.
So benissimo dove vengono usate le GPU oggi, e conosco anche quali problemi sono in grado di eseguire perchè altamente parallelizzabili.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.