PDA

View Full Version : IDF Fall 2008 Day 1: SSD, Nehalem e Larrabee


Redazione di Hardware Upg
20-08-2008, 12:32
Link all'Articolo: http://www.hwupgrade.it/articoli/cpu/2022/idf-fall-2008-day-1-ssd-nehalem-e-larrabee_index.html

Primo giorno di apertura ufficiale dell'IDF, Intel Developer Forum, in corso a San Francisco. Una giornata dai toni altalenanti, in cui notizie già note si sono alternate ad altre più interessanti. Fra queste, qualche notizia in più su Larrabee, la microarchitettura tuttofare di Intel, nonché maggiori informazioni sul progetto Nehalem

Click sul link per visualizzare l'articolo.

angel110
20-08-2008, 12:41
Finalmente si danno da fare sul fronte ssd. Sarà vero?
Io di certo non mi aspetto prezzi bassi da internet!
Infine voglio far notare che nell'articolo si dice che le prestazioni degli hard disk rotanti tradizionali siano aumentate solo di 1,3 volte rispetto a quelli prodotti 13 anni fa.
Ciò è una fandonia colossale, voglio sperare sia un errore di stampa o traduzione.

bio82
20-08-2008, 13:18
Finalmente si danno da fare sul fronte ssd. Sarà vero?
Io di certo non mi aspetto prezzi bassi da internet!
Infine voglio far notare che nell'articolo si dice che le prestazioni degli hard disk rotanti tradizionali siano aumentate solo di 1,3 volte rispetto a quelli prodotti 13 anni fa.
Ciò è una fandonia colossale, voglio sperare sia un errore di stampa o traduzione.

questo penso sia un giochetto di marketing per cui hanno misurato prodotti diversi in ambiti particolari per far risultare quel 1,3 in confronto agli ssd di intel..

di cose interessanti per i comuni mortali non ne ho viste, tutte evoluzioni ben sperate...

la cosa interessante è notare che durante la demo sugli ssd c'è sia sul portatile hp che sui lenovo windows vista...

alla faccia di chi dice che intel non vuole vista :D

bio

demon77
20-08-2008, 14:52
Quindi se non ho capito male.. larrabee è un chip ad immagine e somiglianza di una gpu ma fatto coi "pentium" e quindi con set di istruzioni x86..
L'idea di base non è tanto quella di fargli fare la scheda video ma gli ambiti GP-GPU?

E in che forma apparirà questo chip? Come scheda aggiuntiva a supporto della normale cpu (ad uso Nvidia Tesla) o potrebbe andare a rimpiazzare direttamente la cpu?

HW-MLCR
20-08-2008, 14:55
Dall'altra, esistono molti più programmatori esperti per architetture x86, che si troveranno fra le mani uno strumento nuovo, pilotabile con il codice che utilizzano da sempre.

Ma perchè alla Intel pensano che gli sviluppatori per PC programmino ancora in assembly? Serve ben a poco che Intel sottolinei che il loro Larrabee ha l'x86 mentre le GPU Nvidia/Ati-Amd no, è una feature in larga parte irrilevante.

brugi
20-08-2008, 15:00
la cosa interessante è notare che durante la demo sugli ssd c'è sia sul portatile hp che sui lenovo windows vista...

alla faccia di chi dice che intel non vuole vista :D

bio

forse perchè Vista te lo impongono ormai? è preinstallato su TUTTI i portatili in commercio...
forse perchè microsoft ha deciso di non vendere più XP?

si ci sarebbe sicuramente stato meglio un bell'ubuntu installato sopra :D

LMCH
20-08-2008, 15:12
I Nehalem sulla carta sembrano molto buoni, ma apparentemente
sono l'evoluzione finale del percorso evolutivo iniziato con
i Core, e proseguito con Core 2.

Il fatto che abbiamo reintrodotto l'hyperthreading sembra
piu che altro un passaggio preparatorio per spianare
la strada ai Larrabee (che per avere prestazioni soddisfacenti
avranno bisogno di software gia ottimizzato per operare
con un elevato numero di thread, perche per roba
single-thread avranno prestazioni decisamente basse).

E' invece il Larrabee che mi lascia parecchio dubbioso
perche per singolo core dovrebbe avere prestazioni simili
a quelle di un singolo core Atom, e le unita SIMD "potenziate"
non potra' fare miracoli visto che in teorria avra' in carico
il lavoro che normalmente verrebbe svolto da una GPU.

Altro punto critico saranno le cache, perche mentre
i Nehalem avranno 8MB di cache L3 (nella version quad core)
il Larrabee dovrebbe avere 256KB di cache L2 per core
(nel senso di avere un link "diretto" ) con la possibilita
di usare il bus ad anello per accedere alle L2 degli altri core
"come se fossero una pseudo-L3".

Quindi un Larrabee con 16 core, dal punto di vista di uno
dei suoi core e' come se avesse 256KB di cache L2
e 3840KB di cache "pseudo-L3".

Quindi la "pseudo-L3" oltre ad essere nell'ipotesi migliore
grossa la meta rispetto ai Nehalem, statisticamente
dovrebbe essere molto piu trashata (causa i 16 core
che qualcosa dovranno pur fare tra componente x86
e componente SIMD).

Viene da chiedersi se i Larrabee verranno almeno inizialmente lanciati
come successori degli Atom e solo in un secondo tempo
(quando sara' economico produrre versioni con un numero
veramente elevato di core) diventeranno i successori di
Nehalem/Westmere/Sandy Bridge.

Lanfi
20-08-2008, 15:35
L'architettura Nehalem mi sembra sempre più interessante...mi piace la reintroduzione dell'HT, la via ormai è quella di aumentare sempre più i core (fisici o no) ed è ora che i produttori di software si sveglino e si diano una mossa. Per chi invece non si muove da questo punto di vista c'è il turbo mode che dà una mano...ma diciamo che è una soluzione temporanea: i nehalem necessitano di programmi ottimizzati per architetture multicore. Interessante anche la funzione power gates per ottimizzare il risparmio energetico in situazioni di idle...

Per quanto riguarda gli ssd sono molto contento che intel si sia lanciata in questo ramo....ma dire che le prestazioni degli hd normali siano cresciute così poco rispetto a 10 anni fà mi sembra una castroneria :)!

La questione gpu invece la vedo piuttosto fumosa...

Wilfrick
20-08-2008, 15:36
Mmm... che forse anche i programmatori di sw 3d così si decidano finalmente ad indirizzare il rendering non più sulla classica "cpu"? Forse sarà più facile programmare qualcosa per processori con istruzioni fondamentalmente compatibili con x86 piuttosto che cimentarsi con cuda e cugini, anche se dubito che in valori assoluti intel riesca ad avvicinarsi prestazionalmente alle gpu nvidia, ma tanto, dato che oltre al limitato gelato nessun altro vuole spremere la gpu, sempre meglio qualcosa di lento piuttosto che niente.
Poi vabbé, sembra che interessino solo i giochi, di tutto il resto che può fare una "gpu" si dà solo un accenno.

que va je faire
20-08-2008, 16:55
che le prestaiozni degli hd tradizionali siano aumentate di 1.3 volte in 13 anni è una cavolata, saranno aumentate di 1.3 nel giro degli ultimi 5 anni: un maxtor dm9 non arrivava a 50 mb/s di picco ora i samsung F1 wd aaks e seagate 7200.11 arrivano tutti + o - a 115 mb/s max.

per i nehalem speriamo di vedere qualche benchmark nei prossimi giorni. quelli che ho visto fin ora non mi hanno proprio entusiasmato..

interssante il fatto che dischiarino un minimo di 1,2 milioni di ore di mtbf per gli ssd..

LMCH
20-08-2008, 17:20
la via ormai è quella di aumentare sempre più i core (fisici o no) ed è ora che i produttori di software si sveglino e si diano una mossa.

Il problema e' che a parte il software che da molti anni
e' gia ottimizzato per girare su architetture a processori multipli
tutto il resto e' relativamente difficile da parallelizzare in modo decente
specialmente quando non ci sono tool di sviluppo adeguati
o se il S.O. "non ti aiuta a sufficienza" e devi usare librerie
specifiche per il multithreading facendo attenzione a non
eseguire chiamate a funzioni del S.O. a cui la cosa potrebbe
creare problemi se non gestita con molta attenzione.

Non parliamo poi del debug di applicazioni multithread in cui
vari thread che svolgono funzioni distinte devono cooperare
"sincronizzati" per svolgere delle operazioni relativamente
complicate, di solito si fa molto prima a codificare il tutto
in un unico thread debuggabile da normali esseri umani.

Stormblast
20-08-2008, 17:21
mi lollo sempre a leggere ste roadmap pensando al fatto che il 90% degli utilizzatori mondiali di pc oltre ad aprire word/explorer/mplayer/visualizzatore d'immagini e mal che vada il gestionale dell'azienda, non fa.
roba che tipo un pentium III basta e avanza.... :asd:

Visron
20-08-2008, 17:52
che le prestaiozni degli hd tradizionali siano aumentate di 1.3 volte in 13 anni è una cavolata, saranno aumentate di 1.3 nel giro degli ultimi 5 anni: un maxtor dm9 non arrivava a 50 mb/s di picco ora i samsung F1 wd aaks e seagate 7200.11 arrivano tutti + o - a 115 mb/s max.

..

il transfer rate e' aumentato perche' hanno aumentato la Density in Gbit x pollice quadrato per avere piatti con sempre piu' capienza ed arrivare a 750GB etc ...cosi' facendo si e' pero' "peggiorato" l' Average Access Time che e' importante..preferisco minor transfer rate in MB/sec ma con access time piu' bassi

il 7200.11 ha access time ( che e' la somma del Seek time + Latency Time) peggiorati rispetti ai modelli precedenti sempre a 7200rpm ..quindi come vedi sui piatti ti danno da una parte ( la capienza ) e nello stesso tempo peggiorano dall'altra ovvero l'Access Time ....come si vede si e' arrivati al limite

ghiltanas
20-08-2008, 21:18
alla redazione:

è possibile sapere quando vedremo i primi test con la serie nehalem? bisogna attendere sempre molto? ( a me interessano soprattutto le prestazioni nei giochi e la possibilità di overclock)

que va je faire
21-08-2008, 07:31
il transfer rate e' aumentato perche' hanno aumentato la Density in Gbit x pollice quadrato per avere piatti con sempre piu' capienza ed arrivare a 750GB etc ...cosi' facendo si e' pero' "peggiorato" l' Average Access Time che e' importante..preferisco minor transfer rate in MB/sec ma con access time piu' bassi

il 7200.11 ha access time ( che e' la somma del Seek time + Latency Time) peggiorati rispetti ai modelli precedenti sempre a 7200rpm ..quindi come vedi sui piatti ti danno da una parte ( la capienza ) e nello stesso tempo peggiorano dall'altra ovvero l'Access Time ....come si vede si e' arrivati al limite

non è vero! un maxtor dm9 5 anni fà faceva 13.5 ms di latenza, + o meno quanto un samsung F1 oggi, mentre gli aaks arrivano addirittura a 12.

questo perchè oltre all'incremento di densità, che di per sè può portare latenze maggiori, c'è da considerare la bontà dell'architettura interna dell'hd e gli altri accorgimenti presi e tecnologie usate per migliorare le prestaizoni... se tutto dipendesse solo dalla densità dei piatti, avremmo avuto tutti hd identici.

cignox1
21-08-2008, 08:11
"Ma perchè alla Intel pensano che gli sviluppatori per PC programmino ancora in assembly? Serve ben a poco che Intel sottolinei che il loro Larrabee ha l'x86 mentre le GPU Nvidia/Ati-Amd no, è una feature in larga parte irrilevante."

Beh, irrilevant eproprio non direi, visto che sono non soltanto set di istruzioni, ma anche modalita' di programmazione del tutto differenti. Per esempio, un tool pseudo C per le GPU esiste da pochissimo tempo e non e' standard.
Di fatto, adesso come adesso l'architettura delle GPU e' estremamente inefficente con qualsiasi cosa non abbia a che fare con DirectX e OpenGL. Se avete visto il test in raytracing della nVidia, avrete notato che quello che loro hanno ottenuto con una scheda video sulla carta decine di volte piu' potente di un processore comune, lo si puo' ottenere anche (con le stesse prestazioni) su una cpu di fascia alta. Ecco perche' a parte Gelato (che usa le stesse tecniche dei videogiochi), nel mondo della CG nessuno usa la GPU: tantissimo lavoro per incrementi modesti di performance...

ekerazha
21-08-2008, 08:18
Il problema e' che a parte il software che da molti anni
e' gia ottimizzato per girare su architetture a processori multipli
tutto il resto e' relativamente difficile da parallelizzare in modo decente
specialmente quando non ci sono tool di sviluppo adeguati
o se il S.O. "non ti aiuta a sufficienza" e devi usare librerie
specifiche per il multithreading facendo attenzione a non
eseguire chiamate a funzioni del S.O. a cui la cosa potrebbe
creare problemi se non gestita con molta attenzione.

Non parliamo poi del debug di applicazioni multithread in cui
vari thread che svolgono funzioni distinte devono cooperare
"sincronizzati" per svolgere delle operazioni relativamente
complicate, di solito si fa molto prima a codificare il tutto
in un unico thread debuggabile da normali esseri umani.

... per chi ha meno pazienza, c'è sempre OpenMP:

http://openmp.org
http://en.wikipedia.org/wiki/OpenMP

cignox1
21-08-2008, 08:20
Continuo da post piu' sopra...
Sono molto curioso di conseguenza di vedere questo Larrabee in funzione. Sono scettico sulle sue possibilita' nel campo di videogiochi (continuo a fare qualche stima sulla sua possibile potenza, ma anche le piu' positive non possono competere con quanto AMD e NVidia ci mostreranno tra un anno e mezzo), ma per certe cose dovrebbe essere molto piu' veloce della CPU, e gli utilizzi sono molteplici (non mi dispiacerebbe implementarci un raytracer).

Sono anche contento per Nehalem: un buon salto di prestazioni, dalle poche recensioni che ho letto (si parlava del 25% a parita' di frequenza).

E un EVVIVA anche ai solid state disks: Dal mio primo pc (tredici anni fa) tutto e' aumentato di velocita' o capienza di diverse decine o centinaia di volte, ma i progressi in fatto di prestazioni degli HD sono stati di gran lunga i piu' modesti. Speriamo che l'assenza di parti meccaniche mobili porti ad una velocita' e affidabilita' in crescita continua come per tutto il resto del sistema...

Visron
21-08-2008, 11:14
non è vero! un maxtor dm9 5 anni fà faceva 13.5 ms di latenza, + o meno quanto un samsung F1 oggi, mentre gli aaks arrivano addirittura a 12.

questo perchè oltre all'incremento di densità, che di per sè può portare latenze maggiori, c'è da considerare la bontà dell'architettura interna dell'hd e gli altri accorgimenti presi e tecnologie usate per migliorare le prestaizoni... se tutto dipendesse solo dalla densità dei piatti, avremmo avuto tutti hd identici.

Sui 7200 Seagate ho notato cio' che ti ho scritto..su altre marche non lo so perche' non le ho testate..e di quello che scrivono i produttori non mi fido perche' i dati reali con "prova su strada" poi sono sempre diversi dal dichiarato

spartacus85
21-08-2008, 12:26
mi sa che l'incremento 1,3 lo abbiano solo calcolato tenendo conto del passaggio generale dai 5400rpm ai 7200rpm (l'incremento è di circa x1.34 ma lo hanno arrotondato a loro comodo!) ovviamente senza considerare le decine di tecnologie introdotte nel frattempo e senza considerare la "mossa" che si stanno dando i produttori da un' anno a questa parte, ovvero da quando gli SSD stanno arrivando sul mercato.
Ho idea che entro 12 mesi ci sarà una bella accelerata anche per gli hard disk classici, magari qualcuno si inventerà un disco con doppia unità testina(diametralmente opposta a quelle attualmente presente) x accelerare notevolmente i tempi di accesso e il transfer rate.

Eccezionale esempio di come usare unicamente le informazioni "utili" per fare marketing a proprio favore

PS: un dm9 è comunque molto più recente di 15anni e all'epoca erano dei dischi niente male(rapportati al prezzo)

PPS:a memoria direi che 15 anni fa in 5200rpm non erano troppo diffusi ed erano proprio il top;il confronto era da fare sugli attuali Raptor da 10000rpm

fabietto10bis
21-08-2008, 13:17
Per AMD si Profila l'estinzione: il Nahalem è di un altro pianeta

http://www.tomshw.it/news.php?newsid=15098

bio82
21-08-2008, 13:34
PPS:a memoria direi che 15 anni fa in 5200rpm non erano troppo diffusi ed erano proprio il top;il confronto era da fare sugli attuali Raptor da 10000rpm

il confronto sarebbe da fare con dei sas da 15k giri...a questo punto diventa ridicolo il confronto..

bio

Armage
21-08-2008, 18:46
finalmente quel johnny lee è diventato qualcuno, giravano i video su internet da un po'... la sua idea è davvero geniale e ha grandi potenzialità