View Full Version : [THREAD UFFICIALE] Aspettando "Nehalem" 45nm.
Pagine :
1
2
3
4
5
6
7
[
8]
9
10
11
12
13
14
15
16
17
18
19
20
La P6T deluxe sarà una fascia medio/alta giusto?
F1R3BL4D3
23-08-2008, 12:34
La P6T deluxe sarà una fascia medio/alta giusto?
Queste schede sono tutte di fascia alta perchè si possono montare solo CPU EE. Per le CPU "normali" bisogna aspettare più avanti nel 2009 e nuovi socket.
A quanto dice Nordic non ha coldbug a -120°C anche se non hanno testato per molto. Beh buona cosa che riesca ad arrivare a -120°C.
che stronzata però fare vari socket...
Queste schede sono tutte di fascia alta perchè si possono montare solo CPU EE. Per le CPU "normali" bisogna aspettare più avanti nel 2009 e nuovi socket.
A quanto dice Nordic non ha coldbug a -120°C anche se non hanno testato per molto. Beh buona cosa che riesca ad arrivare a -120°C.
Dice anche che le frequenze raggiungibili sono comparabili a yorkfield
F1R3BL4D3
23-08-2008, 13:05
Dice anche che le frequenze raggiungibili sono comparabili a yorkfield
:D spero almeno il QX9650! :stordita:
:D spero almeno il QX9650! :stordita:
Non intendeva in overclock?:stordita:
F1R3BL4D3
23-08-2008, 13:16
che stronzata però fare vari socket...
:D come socket 940 vs 754/939.
Secondo me poi cercheranno la convergenza.
Non intendeva in overclock?:stordita:
:D per quello dico che almeno debba essere come la serie QX.
La P6T deluxe sarà una fascia medio/alta giusto?
Alta, con al meno 6 layer.
Intel: X58 motherboards - apparently cost-intensive
http://www.pcgameshardware.com/aid,651913/News/Intel_X58_motherboards_-_apparently_cost-intensive/
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8434&Itemid=37
Per ora nessuna di queste proposte mi soddisfa e spero vivamente che prossimamente ve ne sia una adatta per workstation.
Asus batti un colpo se ci sei.:help:
:D come socket 940 vs 754/939.
Secondo me poi cercheranno la convergenza.
:D per quello dico che almeno debba essere come la serie QX.
5Ghz non sarebbero affatto male:asd:
Insomma chi usa il pc per videogames fa prima a farsi un E8400 o Q9x50 ? :D
primi timidi benchmarks....
http://www.pcgameshardware.com/aid,656840/IDF_San_Francisco_2008_New_Nehalem_benchmarks
goldorak
23-08-2008, 17:03
:D come socket 940 vs 754/939.
Secondo me poi cercheranno la convergenza.
Nessuna convergenza, l'architettura Nehalem e' nata proprio per poter segmentare al meglio il mercato.
Quindi due socket, uno per la fascia medio/medio bassa e un altro meccanicamente incompatibile per la fascia alta.
F1R3BL4D3
23-08-2008, 18:56
Quindi due socket, uno per la fascia medio/medio bassa e un altro meccanicamente incompatibile per la fascia alta.
era così anche per AMD all'inizio. Poi cambiò la situazione.
ekerazha
23-08-2008, 19:11
era così anche per AMD all'inizio. Poi cambiò la situazione.
Penso che anche all'Intel ne siano a conoscenza... ma hanno comunque fatto questa scelta.
Penso che anche all'Intel ne siano a conoscenza... ma hanno comunque fatto questa scelta.
secondo me intel sta sbagliando assai con questi processori e ste piattaforme dalle premesse ......mi aspettavo molto ma molto di piu.......
ekerazha
23-08-2008, 19:18
secondo me intel sta sbagliando assai con questi processori e ste piattaforme dalle premesse ......mi aspettavo molto ma molto di piu.......
Sarà... io non vedo l'ora di poter mettere le mani su un Intel i7 + Intel X58 :D ovvero Nehalem di fascia alta.
F1R3BL4D3
23-08-2008, 19:28
Penso che anche all'Intel ne siano a conoscenza... ma hanno comunque fatto questa scelta.
:D beh direi, bisogna vedere come risponderà il mercato. Escluderlo a priori non direi però
Quello ke temo...Anke Amd presentò una cpu di fascia alta di fatto un Opteron "mono" sul suo stesso socket. Quanto durò quel socket su "mono" cpu ? Tre mesi ? Poi tutto il mercato Amd desktop si spostò su 939. Non dico ke debba succedere cosi', ma la faccenda mi puzza, troppe cose non tornano. Un conto era presentare una piattaforma X Lynnfield verso Febbraio 2009 un conto dopo l' estate 2009. Qst significa ke il P45 e X48 hanno ankora lunga vita davanti, Nehalem ke penetra solo su una ristretta fascia di makkine ultra-hig end dedicate agli appassionati ? La vedo dura, non ha senso. Piastre madri troppo complesse e costose, X penetrare in massa. Pensate anke adesso : la > parte dei sistemi Intel é basata su X38-X48 o P35-P45 ?
Ovvio, porebbe essere una strategia di Intel. Mettere in giro false informazioni X confondere i consumatori.
-Adesso pochi appassionati acquisteranno Bloomfield su X58
-La > parte degli utenti continuerà ad acquistare makkine basate su P45
-Arrivati a settembre/ottobre 2009, si comincia a parlare di Westmere, ke arriverà fino a 6 core e consumerà di - (I Bloomfield sono davvero troppo energivori)
Hip 1
A qst punto non ci sarà + spazio X 3 socket. Morte del 775 dopo una lunga e onorata carriera, 1160 X la > parte dei sistemi e 1366 X gli entusiast.
Hip 2
Le piattaforme X58, vendute in pochi esemplari, si sono rivelate un fallimento. Arriva il P55 (Kiamiamolo cosi') ke gestisce cpu ke integrano 2 "soli" controller X la ram,(Qpi ancora un mistero) ke accetta cpu dai 2 ai 6 core a seconda delle esigenze e ke , a fronte di prestazioni leggermente inferiori costa molto - dell' ormai vetusto X58, sia come cpu ke come main, + facili ed economiche da produrre
Cut...
Hip 2
Le piattaforme X58, vendute in pochi esemplari, si sono rivelate un fallimento. Arriva il P55 (Kiamiamolo cosi') ke gestisce cpu ke integrano 2 "soli" controller X la ram,(Qpi ancora un mistero) ke accetta cpu dai 2 ai 6 core a seconda delle esigenze e ke , a fronte di prestazioni leggermente inferiori costa molto - dell' ormai vetusto X58, sia come cpu ke come main, + facili ed economiche da produrre
Temo che andrà a finire così e che il 1366 serva solo ad attirare l'attenzione verso il nuovo step tecnologico.
I numeri maggiori li si fanno sempre sul mercato mainstream e di certo Intel non intende cambiare questa tendenza che fino ad ora le ha fruttato molto.
ekerazha
23-08-2008, 21:37
Hip 1
A qst punto non ci sarà + spazio X 3 socket. Morte del 775 dopo una lunga e onorata carriera, 1160 X la > parte dei sistemi e 1366 X gli entusiast.
Probabile... il socket 1366 sarà anche la base delle future CPU server e sembra anche dello shrink a 32 nm di Nehalem (Westmere). Oltretutto il socket 1366 etc. garantisce l'utilizzo di QPI e triple channel, perchè mai Intel dovrebbe abbandonare l'utilizzo delle tecnologie più sofisticate in favore di piattaforme meno evolute? Suicidio tecnologico? No... il socket 1366 contraddistinguerà la piattaforma d'avanguardia, mentre il socket 1160 rimarrà per la fascia medio-bassa. Gli utenti più evoluti passeranno a Nehalem su socket 1366, gli altri abbandoneranno man mano il socket 775 passando gradualmente alla piattaforma Nehalem su socket 1160.
Sono meglio di mago merlino :D
scusate ma a me non quadrano i tempi. queste macchine non verranno di certo vendute al mediaword (avete mai visto pc acer/asus/sony etc con un x48 o un qx qualsiasi? si fa fatica a trovare gli e8500, al massimo si arriva all'8200!) e le vendite maggiori oggi si fanno nei centri commerciali con pc di fascia 400/500€ e con portatili.
ora.. intel presenta core i7 per chi? per i gamers no, per la maggior parte del mercato no... le aziende che fanno sviluppo etc non è cambiano pc ogni mese... e qui ti aspetteresti a breve i lynnfield... che invece arriveranno tra 1 ANNO!!!!!!
e poi ovviamente usciranno quelli di mascia media, mica le fasce basse. lynnfield sostituirà i vari q6600, q9300 e q9400 (i q9450,9550,qx etc sono sostituiti da bloomfield CHE NON E' TUTTO EXTREME, ma è di fascia alta. come era il q9550 etc), mentre l'altro, mi pare havenqualkosa, sostituirà finalmente la serie e8000 e sarà probabilmente la cpu per i gamers, che però per la prima volta si troveranno un po' spiazzati in quanto la loro piattaforma non sarà quella "top". a sto punto avremo 3 socket in commercio :muro:
oggi ti compri un pc con un celeron 400 e poi se vuoi ci metti su un qx9650.
il socket 775 sarà duro a morire, basta pensare che OGGI vengono venduti ancora computer con dei pentium D serie 800...e poi cmq la fascia celeron ci metterà un po' a passare a nehalem (vi ricordo che nehalem non è un processore ma un'architettura... i processori sono bloomfield, lynnfield etc). quanto ci ha messo il celeron ad avere l'architettura core??
insomma. quando si passò dal 478 al 775 nel giro di poco tutte le cpu cambiarono. ora si dovrà stare per quasi un'anno con 2 socket per passare poi a 3...
per chi invece crede ancora nel multithread... beh... ha ragione chi ha detto che sembra la corsa ai mhz... tutta roba inutile. un dual core oggi basta e avanza e alle volte basterebbe un single core, magari a frequenze in oc tipo di 5/6 ghz e consumi a 5ghz di 60-70w. sviluppare software in multithread non è cosa facile.
da quanto esistono i dual core? ormai da un bel po'... quanti giochi nuovi e completamente riscritti sono usciti? tantissimi. eppure nessuno è stato programmato per sfruttare più di 1 core. come mai?
altra cosa: spero che abbiano fatto una cosa un po' più furba rispetto ai vecchi dual core con ht: se devi sfruttare 2 thread, non ha senso sfruttare 1 core fisico e 1 logico! quindi spero che abbiano fatto in modo di usare prima i 4 fisici e poi i 4 logici sennò andranno peggio dei vecchi quad!
ekerazha
24-08-2008, 03:22
per chi invece crede ancora nel multithread... beh... ha ragione chi ha detto che sembra la corsa ai mhz... tutta roba inutile. un dual core oggi basta e avanza e alle volte basterebbe un single core, magari a frequenze in oc tipo di 5/6 ghz e consumi a 5ghz di 60-70w. sviluppare software in multithread non è cosa facile.
da quanto esistono i dual core? ormai da un bel po'... quanti giochi nuovi e completamente riscritti sono usciti? tantissimi. eppure nessuno è stato programmato per sfruttare più di 1 core. come mai?
Sempre a pensare che il mondo ruoti attorno ai giochetti :rolleyes:
Sempre a pensare che il mondo ruoti attorno ai giochetti :rolleyes:
vedremo che successo avra sta piattaforma allora....intanto come hai visto come pubblicità han messo i giochetti......;)
goldorak
24-08-2008, 08:41
Sempre a pensare che il mondo ruoti attorno ai giochetti :rolleyes:
Eh gia', l'utente medio a casa dispone di un server sul quale gira oracle che gestisce db da svariate TB e ha bisogno di un sistema multisocket con nehalem. :sofico:
Fattene una ragione, non si sopravvive senza il mercato di massa. Non a caso la Intel sta spingendo ATOM, anche nei posti piu' impensabili. E stiamo parlando di una cpu che e' peggio di un celeron. :p
I nehalem di fascia alta nascono per sistemi server, vanno a fara concorrenza alle configurazioni multisocket con opteron.
letsmakealist
24-08-2008, 10:29
da quanto esistono i dual core? ormai da un bel po'... quanti giochi nuovi e completamente riscritti sono usciti? tantissimi. eppure nessuno è stato programmato per sfruttare più di 1 core. come mai?
secondo me, per una questione puramente commerciale.
ancora troppo alta la percentuale di parco macchine con processori single core per potersi permettere di fare del software realmente multithread e affossarne le prestazioni (dimezzate o ridotte ad un quarto se viene rispettata la scalabilità dei core). prima di tutto bisogna vendere, con buona pace degli enthusiast...
ekerazha
24-08-2008, 10:36
vedremo che successo avra sta piattaforma allora....intanto come hai visto come pubblicità han messo i giochetti......;)
Possono metterla come per tante altre cose, come il Pentium III che era "il processore per Internet". Si chiama marketing...
ekerazha
24-08-2008, 10:41
Eh gia', l'utente medio a casa dispone di un server sul quale gira oracle che gestisce db da svariate TB e ha bisogno di un sistema multisocket con nehalem. :sofico:
Fattene una ragione, non si sopravvive senza il mercato di massa. Non a caso la Intel sta spingendo ATOM, anche nei posti piu' impensabili. E stiamo parlando di una cpu che e' peggio di un celeron. :p
I nehalem di fascia alta nascono per sistemi server, vanno a fara concorrenza alle configurazioni multisocket con opteron.
No... l'utente medio usa il PC per lavorare, per servizi e per svago (che non significa necessariamente passare le ore su un videogioco 3D dell'ultima generazione). Tra quelli che ci lavorano ci sono anche quelli che necessitano di potenza di calcolo (sviluppo software, cg, cad, video editing etc.). Infine ci sono anche buontemponi con i videogiochi, ma come già detto il mondo non ruota attorno a loro (fortunatamente).
No... l'utente medio usa il PC per lavorare, per servizi e per svago (che non significa necessariamente passare le ore su un videogioco 3D dell'ultima generazione). Tra quelli che ci lavorano ci sono anche quelli che necessitano di potenza di calcolo (sviluppo software, cg, cad, video editing etc.). Infine ci sono anche buontemponi con i videogiochi, ma come già detto il mondo non ruota attorno a loro (fortunatamente).
io infatti ho detto che la maggior parte delle vendite si fai nei centri commerciali o simili dove si vendono computer da 400/500 euro e la potenza serve a far girare internet e scaricare le foto dalla digitale.
se intel dicesse cosa vende di più come processori, penso sarebbe la fascia compresa tra i c2d serie 2000 e 4000. guarda anche i notebook.... se guardi i listini la maggior parte monta la serie 5000 e la 9000 non la compra quasi nessuno.
e poi chi fa sviluppo software, video editing etc sono per la maggior parte aziende non comprano di certo pc con MB da 300€ e processore da 500 + annessi e connessi!
se poi intel ha scritto "il processore per giocare" è perchè vuol vendere quel processore in quella fascia... sennò scriveva "il processore per compilare". no?
secondo me, per una questione puramente commerciale.
ancora troppo alta la percentuale di parco macchine con processori single core per potersi permettere di fare del software realmente multithread e affossarne le prestazioni (dimezzate o ridotte ad un quarto se viene rispettata la scalabilità dei core). prima di tutto bisogna vendere, con buona pace degli enthusiast...
non ha molto senso scusa... sviluppare giochi come crysis pensando che lo comprerà ancora gente coi p4 che senso ha, sapendo che tanto non ci gira? il parco macchine sarà ancora vecchio, ma con quel parco macchine di giochi ultima generazione ce ne fai girare ben pochi. se però i giochi sfruttassero il dual o quad core, uno potrebbe comprarsi anche un pc modesto da 400-500€ con un serie 2000 o 4000 e metterci su una 4850 da meno di 200€ e giochi tranquillo! e probabilmente venderebbero più giochi perchè anche l'utente medio potrebbe permettersi di giocare, mentre oggi se non spendi più di 1200€ per un pc, coi giochi devi "accontentarti"
non ha molto senso scusa... sviluppare giochi come crysis pensando che lo comprerà ancora gente coi p4 che senso ha, sapendo che tanto non ci gira? il parco macchine sarà ancora vecchio, ma con quel parco macchine di giochi ultima generazione ce ne fai girare ben pochi. se però i giochi sfruttassero il dual o quad core, uno potrebbe comprarsi anche un pc modesto da 400-500€ con un serie 2000 o 4000 e metterci su una 4850 da meno di 200€ e giochi tranquillo! e probabilmente venderebbero più giochi perchè anche l'utente medio potrebbe permettersi di giocare, mentre oggi se non spendi più di 1200€ per un pc, coi giochi devi "accontentarti"
non è assolutamente vero, con 500/600 euro ci si fa un buon pc per giocare fino a risoluzioni medie.
ekerazha
24-08-2008, 13:09
io infatti ho detto che la maggior parte delle vendite si fai nei centri commerciali o simili dove si vendono computer da 400/500 euro e la potenza serve a far girare internet e scaricare le foto dalla digitale.
se intel dicesse cosa vende di più come processori, penso sarebbe la fascia compresa tra i c2d serie 2000 e 4000. guarda anche i notebook.... se guardi i listini la maggior parte monta la serie 5000 e la 9000 non la compra quasi nessuno.
Infatti i Nehalem "Bloomfield" non sono dedicati a questa fascia di mercato e nemmeno ai server, sono per i sistemi high-end (workstation ad alte prestazioni, utenti "enthusiast" etc.).
e poi chi fa sviluppo software, video editing etc sono per la maggior parte aziende non comprano di certo pc con MB da 300€ e processore da 500 + annessi e connessi!
Ci sono anche molti liberi professionisti, hobbysti o aziende che investono in sistemi ad alte prestazioni.
se poi intel ha scritto "il processore per giocare" è perchè vuol vendere quel processore in quella fascia... sennò scriveva "il processore per compilare". no?
Stai riducendo il tutto ad una singola immagine che hai visto su un sito e che sembra essere stata presa dal "Games Convention 08" (secondo te di cosa possono parlare al "Games Convention", di compilazione?). Comunque volendo essere pignoli, Nehalem "Bloomfield" (in preview con BIOS preview etc.) ha battuto il Penryn quad-core di pari frequenza anche nel test sui videogiochi, meno che in quello a risoluzione più elevata.
500/600 monitor escluso xo :D
non è assolutamente vero, con 500/600 euro ci si fa un buon pc per giocare fino a risoluzioni medie.
ma lo vuoi capire che non tutti usano il pc per giocare, per overcloccare, per cazzeggiare? :asd:
con nehalem basta cazzeggio basta overclock basta giochi solo rendering editing video e programmazione ole che bella notizia!!!!!
il tutto per 6000 euro
ekerazha
24-08-2008, 13:33
ma lo vuoi capire che non tutti usano il pc per giocare, per overcloccare, per cazzeggiare? :asd:
con nehalem basta cazzeggio basta overclock basta giochi solo rendering editing video e programmazione ole che bella notizia!!!!!
il tutto per 6000 euro
Già... era molto meglio una CPU che andasse bene solo per i software mal progettati e poco parallelizzati come la maggior parte dei videogiochi attuali. Attenzione però a non avere WLM aperto in background mentre si gioca... solo un task/thread per volta se possibile :D
se poi intel ha scritto "il processore per giocare" è perchè vuol vendere quel processore in quella fascia... sennò scriveva "il processore per compilare". no?
nehalem il processore per compilare.....suona bene :asd:
magari ti fanno anche un corso di programmazione che cosi almeno utilizzi il pc
ekerazha
24-08-2008, 14:00
non è assolutamente vero, con 500/600 euro ci si fa un buon pc per giocare fino a risoluzioni medie.
Con ancora meno passi qualche serata al luna park, luogo consono ai giochi :D
Con ancora meno passi qualche serata al luna park, luogo consono ai giochi :D
cooler master elite 330 - 30 euro
e8400 - 120 euro
p5q pro - 100
hd4850 - 120 euro
seagate barracuda 500gb - 55euro
2gb di ram value - 40 euro esagerando
totale 465 euro...a questi aggiungici 20 euro di spedizione e magari altri 30/40 tra ventole e dissi nuovo per il procio
in sostanza con 550 euro esagerando hai un pc che ti permette di giocare a 1680*1050 con filtri e dattagli al massimo
ekerazha
24-08-2008, 14:41
cooler master elite 330 - 30 euro
e8400 - 120 euro
p5q pro - 100
hd4850 - 120 euro
seagate barracuda 500gb - 55euro
2gb di ram value - 40 euro esagerando
totale 465 euro...a questi aggiungici 20 euro di spedizione e magari altri 30/40 tra ventole e dissi nuovo per il procio
in sostanza con 550 euro esagerando hai un pc che ti permette di giocare a 1680*1050 con filtri e dattagli al massimo
Guarda che era ironico :D
cooler master elite 330 - 30 euro
e8400 - 120 euro
p5q pro - 100
hd4850 - 120 euro
seagate barracuda 500gb - 55euro
2gb di ram value - 40 euro esagerando
totale 465 euro...a questi aggiungici 20 euro di spedizione e magari altri 30/40 tra ventole e dissi nuovo per il procio
in sostanza con 550 euro esagerando hai un pc che ti permette di giocare a 1680*1050 con filtri e dattagli al massimo
il monitor non è un optional :D, quindi + 200 euro di monitor 750, che cmq non son tanti...
il monitor non è un optional :D, quindi + 200 euro di monitor 750, che cmq non son tanti...
io contavo che il monitor già lo aveste. :asd:
DarthFeder
24-08-2008, 15:12
il monitor non è un optional :D, quindi + 200 euro di monitor 750, che cmq non son tanti...
io contavo che il monitor già lo aveste. :asd:
vi ricordate del monitor, ok....ma a cosa lo attaccate??? manca la vga!!!!
HD4850 circa 150€...
EDIT EDIT EDIT!!!!!!!!!!!!!!!! scusate ho letto di fretta non l'avevo vista nell'elenco scusate..... figuraccia LOL!
EDIT EDIT EDIT!!!!!!!!!!!!!!!! scusate ho letto di fretta non l'avevo vista nell'elenco scusate..... figuraccia LOL!
:asd:
DarthFeder
24-08-2008, 15:16
in ogni caso io:
e8400 + p5kc + 4gb ram kingston 800mhz -4*1gb- (ora cambiate con 4gh corsair dominator 1066) + hd3870x2+centurion 5+ master dvd samsung + hd wd 320gb 7200rpm 32mb cache = circa 600/700€ (notate che la 3870x2 costava 360€ abbondanti)...monitor acer p223w 23" 250€
e non dimentichiamo un sistema 5.1 con adeguata scheda audio, sono almeno altri 100 euro
DarthFeder
24-08-2008, 15:21
e non dimentichiamo un sistema 5.1 con adeguata scheda audio, sono almeno altri 100 euro
mah....sono un po optional x me...io vado alla grande con un 2.1 (anche per problemi di spazio) e l'audio realtek integrato (la p5kc monta un alc883hd).
con un pc così faccio più di 17000 su 3dmark06
vi ricordate del monitor, ok....ma a cosa lo attaccate??? manca la vga!!!!
HD4850 circa 150€...
EDIT EDIT EDIT!!!!!!!!!!!!!!!! scusate ho letto di fretta non l'avevo vista nell'elenco scusate..... figuraccia LOL!
120, non 150 :D
e non dimentichiamo un sistema 5.1 con adeguata scheda audio, sono almeno altri 100 euro
si ma questi li devi spendere anche se hai un nehalem sola edition da 1000 euro (solo il processore)...
poi detto fra noi con 100 euro che 5.1 compri??? :asd:
se hai 100 euro o vai di 2.1 o molto meglio li spendi per delle buone cuffie 5.1. :)
simoorta
24-08-2008, 15:40
e non dimentichiamo un sistema 5.1 con adeguata scheda audio, sono almeno altri 100 euro
5.1 con le palle-> logitech z5500...costo->sopra ai 300euri:sofico: altro che 100 euri:ciapet:
come ha detto mafio, con 100euri ti fai un bel 2.1 con le palle..o spendi qualcosina in più e ti fai le barracuda della razer...:)
ekerazha
24-08-2008, 16:26
Il mio prossimo PC (quest'inverno), non potrà prescindere da CPU Intel i7, 6 GB di DDR3 (in triple channel) e unità SSD (Solid-State Drive).
Thermalright, Zalman, ArcticCooling, ecc... non ci hanno ancora provato; qualcun altro SI (http://informaticaeasy.net/altro/164-npowertek-progetta-il-primo-dissipatore-per-nehalem.html) :)
5.1 con le palle-> logitech z5500...costo->sopra ai 300euri:sofico: altro che 100 euri:ciapet:
come ha detto mafio, con 100euri ti fai un bel 2.1 con le palle..o spendi qualcosina in più e ti fai le barracuda della razer...:)
le z5500 stanno sui 260 :D, io parlavo del x-530 cmq, che non è malaccio dai.
Thermalright, Zalman, ArcticCooling, ecc... non ci hanno ancora provato; qualcun altro SI (http://informaticaeasy.net/altro/164-npowertek-progetta-il-primo-dissipatore-per-nehalem.html) :)
a me pare solo un dissi stock con la ventola colorata. :D
a me pare solo un dissi stock con la ventola colorata. :D
meglio di niente :sofico:
simoorta
24-08-2008, 19:13
Thermalright, Zalman, ArcticCooling, ecc... non ci hanno ancora provato; qualcun altro SI (http://informaticaeasy.net/altro/164-npowertek-progetta-il-primo-dissipatore-per-nehalem.html) :)
nulla di speciale, per dissi seri aspettiamo zalman, thermalricht, zerotherm e compagnia bella...:p
nulla di speciale, per dissi seri aspettiamo zalman, thermalricht, zerotherm e compagnia bella...:p
Certo, niente di "extreme", però almeno si sono dati una mossa a rilasciare un dissy per Nehalem :O
Le altre case più "importanti" non ne hanno neppure minimamente parlato...
Certo, niente di "extreme", però almeno si sono dati una mossa a rilasciare un dissy per Nehalem :O
Le altre case più "importanti" non ne hanno neppure minimamente parlato...
si ma bisogna vedere quanto scaldano e poi se si occano senno a che serve il dissipatore non boxed ;)
si ma bisogna vedere quanto scaldano e poi se si occano senno a che serve il dissipatore non boxed ;)
potrebbe anche darsi... ma in quest'ottica a lungo andare grosse aziende di heatsink fallirebbero! :asd:
potrebbe anche darsi... ma in quest'ottica a lungo andare grosse aziende di heatsink fallirebbero! :asd:
non esiste solo intel come produttore di processori......;)
non esiste solo intel come produttore di processori......;)
si ma è impensabile che le aziende di dissipatori smettano di produrre dissipatori per il colosso Intel...
si ma è impensabile che le aziende di dissipatori smettano di produrre dissipatori per il colosso Intel...
vedremo.....comunque ribadisco il mio scenario: questi intel floppano perche destinati a un uso troppo professionale, credo che un tente desktop richieda un processore multi uso non solo destinato a rendering editing programmazione.........
goldorak
24-08-2008, 19:58
vedremo.....comunque ribadisco il mio scenario: questi intel floppano perche destinati a un uso troppo professionale, credo che un tente desktop richieda un processore multi uso non solo destinato a rendering editing programmazione.........
Un bel quadcore penryn a 3 Ghz a prezzo da saldi e tanti saluti a nehalem. :O
Un bel quadcore penryn a 3 Ghz a prezzo da saldi e tanti saluti a nehalem. :O
quoto:)
io l'ho gia :asd:
per chi ha penryn credo sia assurdo passare a nehalem :)
per chi ha penryn credo sia assurdo passare a nehalem :)
io voglio fusion!!!!!!
ekerazha
24-08-2008, 20:14
vedremo.....comunque ribadisco il mio scenario: questi intel floppano perche destinati a un uso troppo professionale, credo che un tente desktop richieda un processore multi uso non solo destinato a rendering editing programmazione.........
Sono multiuso tanto quanto i quad-core attuali... ma con prestazioni incrementate in praticamente tutti i campi. L'unico problema sarà probabilmente il costo più elevato delle piattaforme Bloomfield-based.
Sono multiuso tanto quanto i quad-core attuali... ma con prestazioni incrementate in praticamente tutti i campi. L'unico problema sarà probabilmente il costo più elevato delle piattaforme Bloomfield-based.
ti dimentichi del campo principale!!!!! :muro: :muro: :muro: :muro:
gaming gaming gaming
io mi prendo il q9650, lo occo a 4gigi e tanti saluti a nehalem
goldorak
24-08-2008, 20:21
Sono multiuso tanto quanto i quad-core attuali... ma con prestazioni incrementate in praticamente tutti i campi. L'unico problema sarà probabilmente il costo più elevato delle piattaforme Bloomfield-based.
Alt, la preview di anandtech racconta un'altra storia. Le scelte architetturali di nehalem sono state dettate al 99% per fare concorrenza agli opteron della AMD. E questo ha portato a certe involuzioni per quanto riguarda determinate applicazioni come i giochi. Gia' si vede che i nehalem non daranno nessun vantaggio rispetto a penryn per i giochi, e caso mai ci fosse non sara' dell'ordine del 20-30% come alcuni speravano ma di qualche punto percentuale.
CoolBits
24-08-2008, 20:23
io voglio fusion!!!!!!
e cosa te ne fai? prima parli di gaming gaming gaming e poi citi fusion che è un progetto destinato alla fascia bassa del mercato....
Mercuri0
24-08-2008, 20:32
Fattene una ragione, non si sopravvive senza il mercato di massa.
Il discorso è, che al mercato di massa non serve nehalem. lntel è anche impegnata a trovare *usi* per i suoi processori. Infatti ha presentato un programma di gestione foto in grado di mettere in ginocchio anche un nehalem. (poi sulla utilità di quel programma, è un altro discorso).
Anche il successo di Atom è stata la controprova. Atom ha scoperchiato il fatto che alla gente non servono CPU potenti: credo che lntel si stia mangiando le mani per averlo tirato fuori.
In effetti AMD aveva detto apertamente qualcosa di simile qualche tempo fa: dobbiamo trovare usi per i nostri prodotti,
ancora troppo alta la percentuale di parco macchine con processori single core per potersi permettere di fare del software realmente multithread e affossarne le prestazioni (dimezzate o ridotte ad un quarto se viene rispettata la scalabilità dei core).
Normalmente un programma "per multi-core" gira sui processori monocore senza alcun calo di prestazioni rispetto a un programma "per mono-core".
vedremo.....comunque ribadisco il mio scenario: questi intel floppano perche destinati a un uso troppo professionale, credo che un tente desktop richieda un processore multi uso non solo destinato a rendering editing programmazione.........
Un utente desktop richiede un processore multi nonuso, ormai.
ti dimentichi del campo principale!!!!! :muro: :muro: :muro: :muro:
gaming gaming gaming
Il "gaming" attualmente non è legato alla potenza di calcolo della CPU, ma della GPU. E per i giochi futuri non è detto che le cose cambino (cioè non è detto che servano CPU più potenti).
A me ogni volta che sento "pc-gaming" mi si accapona la pelle... non so perché, mi sembra più legato al "3dmark" che non a "GuildWars" :rolleyes:
Il mio vecchio maestro Zen diceva sempre:
"Olmai ci sono tle tipi di utenti: quelli a cui una CPU potente non selve, che sono la maggiol palte, quelli a cui la CPU potente selve, e poi gli "enthusiast" o "pc-gamel", a cui la CPU potente non selve, ma gli piace avella pel falci gilale benchmalk" :D
A me sembra ovvio che lntel e AMD progettino per la seconda categoria, e facciano pubblicità per la terza (perché la terza influenza in qualche modo gli acquisti della prima categoria).
p.s. il Fusion è un'altro "uso" (portatili più freschi, piccoli ed economici) non è altra "potenza".
simoorta
24-08-2008, 20:49
per chi ha penryn credo sia assurdo passare a nehalem :)
Io sto sotto Merom, ma aspetto Westmere, Nehalem lo salto a piè pari..:sofico:
io voglio una risposta convincente da parte di AMD ;)
Io sto sotto Merom, ma aspetto Westmere, Nehalem lo salto a piè pari..:sofico:
:D
io voglio una risposta convincente da parte di AMD ;)
aspetta e spera :stordita: o meglio, spero per AMD che riesca a tornare competitiva come un tempo... però... mah... :fagiano:
:D
aspetta e spera :stordita: o meglio, spero per AMD che riesca a tornare competitiva come un tempo... però... mah... :fagiano:
tutti dovrebbero sperarlo, anche però monopolio vuol dire prezzi alti. ;)
tutti dovrebbero sperarlo, anche però monopolio vuol dire prezzi alti. ;)
eh lo so... però io ho il forte presentimento che con Nehalem il distacco verso AMD si sentirà ancora di più...
simoorta
24-08-2008, 20:55
:D
aspetta e spera :stordita: o meglio, spero per AMD che riesca a tornare competitiva come un tempo... però... mah... :fagiano:
OT: ma il sito in firma "informaticaeasy" è il tuo?, se si complimentoni, davvero ben fatto...ottimi articoli;)
OT: ma il sito in firma "informaticaeasy" è il tuo?, se si complimentoni, davvero ben fatto...ottimi articoli;)
Si è una mia piccola creazione :)
Ti ringrazio davvero per i complimenti ;)
simoorta
24-08-2008, 20:57
eh lo so... però io ho il forte presentimento che con Nehalem il distacco verso AMD si sentirà ancora di più...
beh non ne sono certo, AMD sta sperimentando ed in parte utilizzando, la LITOGRAFIA AD IMMERSIONE, che non è roba da niente, è stata IBM ad aiutarla a sperimentare questa nuova tecnica, per diminuire ancor di più il processo produttivo dei loro proci, e rispetto ad Intel, AMD su questo campo ha la strada spianata a quanto pare..:D
Ps: grandissimo per il sito...lo seguo ogni giorno, anche prima che sapessi che eri te il creatore...mi sono permesso di postare qualche link qua e la su vari forum dei tuoi articoli..:p
beh non ne sono certo, AMD sta sperimentando ed in parte utilizzando, la LITOGRAFIA AD IMMERSIONE, che non è roba da niente, è stata IBM ad aiutarla a sperimentare questa nuova tecnica, per diminuire ancor di più il processo produttivo dei loro proci, e rispetto ad Intel, AMD su questo campo ha la strada spianata a quanto pare..:D
Spero davvero che AMD si dia una mossa... anche perchè finora quel protipo 80-core di Intel è davvero difficilmente pareggiabile :eek:
Ps: grandissimo per il sito...lo seguo ogni giorno, anche prima che sapessi che eri te il creatore...mi sono permesso di postare qualche link qua e la su vari forum dei tuoi articoli..:p
Sono contento che segui il sito! :)
Ti ringrazio per i link postati... advertising helps development :sofico:
simoorta
24-08-2008, 21:05
Spero davvero che AMD si dia una mossa... anche perchè finora quel protipo 80-core di Intel è davvero difficilmente pareggiabile :eek:
Sono contento che segui il sito! :)
Ti ringrazio per i link postati... advertising helps development :sofico:
80core!?!?!:eek: :eek:
cavolo il die che dimensioni avrà avuto...immagino comunque che i vari transistors siano a 32nm per forza di cose, ammeno chè il procio abbia dimensioni parecchio grandi!:sofico:
piccolo ot fusion mi sembrava che fosse il progetto amd che accoppiava cpu e gpu assieme cosa che potrebbe portare grossi benefici...
80core!?!?!:eek: :eek:
cavolo il die che dimensioni avrà avuto...immagino comunque che i vari transistors siano a 32nm per forza di cose, ammeno chè il procio abbia dimensioni parecchio grandi!:sofico:
No non era molto grande... però alla dimostrazione in pubblico il super microprocio era raffreddato a liquido :D
Pensa che ciascuno degli 80 core è stato overcloccato a 5 o 6 GHz se non sbaglio, reggendo tranquillamente lo sforzo. Inoltre, un grafico mostrava in tempo reale l'incredibile incremento dei teraflop in funzione dell'incremento di frequenza :ave:
<^MORFEO^>
24-08-2008, 22:10
Nehalem mi convince sempre meno... Visto anche il fatto che il mio utilizzo principale sarebbe proprio il gaming!
Si è una mia piccola creazione :)
Ti ringrazio davvero per i complimenti ;)
OT: Veramente bello! Ma con che programma l'hai fatto il sito? :stordita: /OT
fanculium
24-08-2008, 22:28
io mi prendo il q9650, lo occo a 4gigi e tanti saluti a nehalem
OT:
Ciao!
Senti ma si sa la data di uscita di questo processore??
Perchè su trovaprezzi ancora non me lo trova..:stordita:
Ciao!:)
Nehalem mi convince sempre meno... Visto anche il fatto che il mio utilizzo principale sarebbe proprio il gaming!
OT: Veramente bello! Ma con che programma l'hai fatto il sito? :stordita: /OT
no gaming no party :asd:
cooler master elite 330 - 30 euro
e8400 - 120 euro
p5q pro - 100
hd4850 - 120 euro
seagate barracuda 500gb - 55euro
2gb di ram value - 40 euro esagerando
totale 465 euro...a questi aggiungici 20 euro di spedizione e magari altri 30/40 tra ventole e dissi nuovo per il procio
in sostanza con 550 euro esagerando hai un pc che ti permette di giocare a 1680*1050 con filtri e dattagli al massimo
si certo. tu lo compri a quel prezzo. cercamene uno "vendibile". e poi manca il sistema operativo e l'alimentatore, mettici altri 150€. cmq nessuno vende pc del genere a quel prezzo perchè si trovano solo su internet e devi essere uno che ci smanetta un po'.
la maggior parte del mercato resta su macchine "di marca", che quelle cose te le sogni. le macchine gaming che ha presentato asus e acer sono su altri prezzi. e se te la compri da uno che assembla pc, a quel prezzo devi aggiungere l'iva e il guadagno perchè quelli sono prezzi che chi assembla pc paga al proprio rivenditore al netto. che su internet vendano a quel prezzo al pubblico è un'altro discorso.
e poi mi date un sito dove si compra una 4850 a 120€? con 240€ mi faccio un crossfire di 4850 sulla mia p5q pro e mando in pensione la 8800gt pagata 240€ appena uscita
<^MORFEO^>
25-08-2008, 00:26
no gaming no party :asd:
Vero :O
e..... no gaming no Nehalem! :bsod:
x.vegeth.x
25-08-2008, 01:57
Il discorso è, che al mercato di massa non serve nehalem. lntel è anche impegnata a trovare *usi* per i suoi processori. Infatti ha presentato un programma di gestione foto in grado di mettere in ginocchio anche un nehalem. (poi sulla utilità di quel programma, è un altro discorso).
che programma è?
ekerazha
25-08-2008, 03:13
Alt, la preview di anandtech racconta un'altra storia. Le scelte architetturali di nehalem sono state dettate al 99% per fare concorrenza agli opteron della AMD. E questo ha portato a certe involuzioni per quanto riguarda determinate applicazioni come i giochi. Gia' si vede che i nehalem non daranno nessun vantaggio rispetto a penryn per i giochi, e caso mai ci fosse non sara' dell'ordine del 20-30% come alcuni speravano ma di qualche punto percentuale.
"Architetturali"? Tu mi sapresti illustrare dettagliatamente la microarchitettura dei Nehalem e Opteron?
Nei benchmark in circolazione Nehalem vince praticamente in ogni test, anche con i giochetti tranne che alle risoluzioni più elevate... e ricordiamo che la piattaforma testata è sempre una preview. Forse un giorno anche i giochetti per i bimbi verranno progettati e sviluppati in modo più parallelizzato e meno arretrato... nel frattempo le CPU progrediscono comunque.
alucard82
25-08-2008, 08:48
Nehalem mi convince sempre meno... Visto anche il fatto che il mio utilizzo principale sarebbe proprio il gaming!
OT: Veramente bello! Ma con che programma l'hai fatto il sito? :stordita: /OT
al 99% è fatto con Joomla, uno dei cms ormai più famosi al mondo!
Vero :O
e..... no gaming no Nehalem! :bsod:
diglielo a ekerazha :asd: l'unico difensore di nehalem
letsmakealist
25-08-2008, 09:12
"Architetturali"? Tu mi sapresti illustrare dettagliatamente la microarchitettura dei Nehalem e Opteron?
Nei benchmark in circolazione Nehalem vince praticamente in ogni test, anche con i giochetti tranne che alle risoluzioni più elevate... e ricordiamo che la piattaforma testata è sempre una preview. Forse un giorno anche i giochetti per i bimbi verranno progettati e sviluppati in modo più parallelizzato e meno arretrato... nel frattempo le CPU progrediscono comunque.
che poi, sarei curioso di sapere quant'è il peso percentuale della cpu nelle prestazioni di una gaming machine oggi... a parte a risoluzioni limite tipo 800x600 o 1024x768.
OT: Veramente bello! Ma con che programma l'hai fatto il sito? :stordita: /OT
Joomla :)
al 99% è fatto con Joomla, uno dei cms ormai più famosi al mondo!
;)
ekerazha
25-08-2008, 09:44
diglielo a ekerazha :asd: l'unico difensore di nehalem
E lo difenderò ancora di più quando lo acquisterò e mi permetterà di svolgere determinate operazioni in quasi la metà del tempo rispetto ai quad-core attuali :asd:
simoorta
25-08-2008, 10:15
No non era molto grande... però alla dimostrazione in pubblico il super microprocio era raffreddato a liquido :D
Pensa che ciascuno degli 80 core è stato overcloccato a 5 o 6 GHz se non sbaglio, reggendo tranquillamente lo sforzo. Inoltre, un grafico mostrava in tempo reale l'incredibile incremento dei teraflop in funzione dell'incremento di frequenza :ave:
ah si ora ricordo...era forse quel procio raffreddato a liquido internamente? o m i sbaglio?
:D
ah si ora ricordo...era forse quel procio raffreddato a liquido internamente? o m i sbaglio?
:D
no, quella è un'altra delle mirabolanti stramberie Intel :sofico: Questo mostro aveva un super waterblock :D
simoorta
25-08-2008, 10:25
no, quella è un'altra delle mirabolanti stramberie Intel :sofico: Questo mostro aveva un super waterblock :D
ah ecco....:)
astroimager
25-08-2008, 10:30
Nei benchmark in circolazione Nehalem vince praticamente in ogni test, anche con i giochetti tranne che alle risoluzioni più elevate... e ricordiamo che la piattaforma testata è sempre una preview. Forse un giorno anche i giochetti per i bimbi verranno progettati e sviluppati in modo più parallelizzato e meno arretrato... nel frattempo le CPU progrediscono comunque.
Se lo straordinario risultato del Cinebench R10 è attendibile, considerando che questo è compilato con codice non certo recente, non si può certo dire che per il rendering Nehalem debba attendere troppe ottimizzazioni software!
Credo che Intel abbia messo a punto un'architettura semplicemente mostruosa per applicazioni multi-th, e mi sembra che già dal lancio non debba attendere un immediato adeguamento software in ambito workstation, perché prima di tutto sono loro che hanno lavorato per avere il massimo con il software professionale attuale.
Diverso è il discorso desktop, dove i GHz contano molto più dei core, e dove sia gli appassionati che i pre-assemblatori guardano scrupolosamente il discorso costo, o le differenze di costo in rapporto all'incremento di prestazioni.
Un esempio stupido: la mia ragazza usa massicciamente il PC solo con Photoshop. Le ho fatto provare la differenza fra un E2180 a default, quello che usa normalmente, e un E6600 ockato a 2.7 GHz. Quindi, 700 MHz di clock in più e cache L2 quadrupla.
Ebbene: mi dice che le sembra un pelo più veloce di prima, ma non si tratta certo di una differenza che fa esultare... piuttosto, si è lamentata di temperature più alte. :asd:
Se lo straordinario risultato del Cinebench R10 è attendibile, considerando che questo è compilato con codice non certo recente, non si può certo dire che per il rendering Nehalem debba attendere troppe ottimizzazioni software!
Credo che Intel abbia messo a punto un'architettura semplicemente mostruosa per applicazioni multi-th, e mi sembra che già dal lancio non debba attendere un immediato adeguamento software in ambito workstation, perché prima di tutto sono loro che hanno lavorato per avere il massimo con il software professionale attuale.
Diverso è il discorso desktop, dove i GHz contano molto più dei core, e dove sia gli appassionati che i pre-assemblatori guardano scrupolosamente il discorso costo, o le differenze di costo in rapporto all'incremento di prestazioni.
Un esempio stupido: la mia ragazza usa massicciamente il PC solo con Photoshop. Le ho fatto provare la differenza fra un E2180 a default, quello che usa normalmente, e un E6600 ockato a 2.7 GHz. Quindi, 700 MHz di clock in più e cache L2 quadrupla.
Ebbene: mi dice che le sembra un pelo più veloce di prima, ma non si tratta certo di una differenza che fa esultare... piuttosto, si è lamentata di temperature più alte. :asd:
l'e6600 si tiene a 3.7, non 2.7. :asd:
PhoEniX-VooDoo
25-08-2008, 10:37
Un esempio stupido: la mia ragazza usa massicciamente il PC solo con Photoshop. Le ho fatto provare la differenza fra un E2180 a default, quello che usa normalmente, e un E6600 ockato a 2.7 GHz. Quindi, 700 MHz di clock in più e cache L2 quadrupla.
Ebbene: mi dice che le sembra un pelo più veloce di prima, ma non si tratta certo di una differenza che fa esultare... piuttosto, si è lamentata di temperature più alte. :asd:
Si ma in PS puoi fare cose dove il divario e nullo e altre dove la differenza tra quelle due CPU è un abisso...
Cmq non ho capito cosa vuoi dire, prima hai parlato di come Nehalem sia performante in multi-th, poi dici che su desktop però quello che conta sono i Mhz e concludi con un'esperienza sul campo (della tua ragazza) dove non si sono notate differenze tra 1.6Ghz/1 MB e 2.7Ghz/4MB.
Uhmz? :confused:
ekerazha
25-08-2008, 10:43
Se lo straordinario risultato del Cinebench R10 è attendibile, considerando che questo è compilato con codice non certo recente, non si può certo dire che per il rendering Nehalem debba attendere troppe ottimizzazioni software!
Credo che Intel abbia messo a punto un'architettura semplicemente mostruosa per applicazioni multi-th, e mi sembra che già dal lancio non debba attendere un immediato adeguamento software in ambito workstation, perché prima di tutto sono loro che hanno lavorato per avere il massimo con il software professionale attuale.
Il multi-threading è quello, non ci sono molte ottimizzazioni da fare. Le ottimizzazioni le puoi fare al limite per sfruttare nuove istruzioni (es. SSE 4.2).
Diverso è il discorso desktop, dove i GHz contano molto più dei core, e dove sia gli appassionati che i pre-assemblatori guardano scrupolosamente il discorso costo, o le differenze di costo in rapporto all'incremento di prestazioni.
Un esempio stupido: la mia ragazza usa massicciamente il PC solo con Photoshop. Le ho fatto provare la differenza fra un E2180 a default, quello che usa normalmente, e un E6600 ockato a 2.7 GHz. Quindi, 700 MHz di clock in più e cache L2 quadrupla.
Ebbene: mi dice che le sembra un pelo più veloce di prima, ma non si tratta certo di una differenza che fa esultare... piuttosto, si è lamentata di temperature più alte. :asd:
"Desktop" vuol dire tutto e nulla. Non vuol dire necessariamente "uso solo applicazioni a thread singolo" o "apro il minor numero possibile di processi" o "uso solo Photoshop". Potrebbe essere benissimo un "eMule sta facendo l'hashing di un file voluminoso, contemporaneamente sto decomprimendo un file ZIP e non mi si paralizza il PC". Gli scenari possono essere più banali di quello che molti pensano.
ekerazha
25-08-2008, 10:44
Si ma in PS puoi fare cose dove il divario e nullo e altre dove la differenza tra quelle due CPU è un abisso...
Anche
<^MORFEO^>
25-08-2008, 10:46
Joomla :)
ma che è sta roba? :eek:
Non l'avevo mai sentita... :mbe:
ekerazha
25-08-2008, 10:48
Joomla :)
OT: Meglio Drupal :D
PhoEniX-VooDoo
25-08-2008, 10:48
ma che è sta roba? :eek:
Non l'avevo mai sentita... :mbe:
è un CMS in PHP per realizzare siti Web... (nn chiedermi perche dovrebbe mettere in ginocchio un nehalem...)
astroimager
25-08-2008, 10:51
l'e6600 si tiene a 3.7, non 2.7. :asd:
Beh, non puoi pretendere di più da una mobo da 30 euro, non certo specifica per OC ;)
A meno che non polacchizzi la CPU...
ma che è sta roba? :eek:
Non l'avevo mai sentita... :mbe:
:eek: :banned:
vai qui per maggiori info www.joomla.it :)
astroimager
25-08-2008, 11:11
Si ma in PS puoi fare cose dove il divario e nullo e altre dove la differenza tra quelle due CPU è un abisso...
Cmq non ho capito cosa vuoi dire, prima hai parlato di come Nehalem sia performante in multi-th, poi dici che su desktop però quello che conta sono i Mhz e concludi con un'esperienza sul campo (della tua ragazza) dove non si sono notate differenze tra 1.6Ghz/1 MB e 2.7Ghz/4MB.
Apparte che l'E2180 ha una frequenza di 2 Ghz, e non 1.6...
Ovvio che in PS puoi fare di tutto, ma io sto parlando di applicazioni tipiche, non professionali, dove una delle fasi più pesanti è magari l'applicazione di filtri su immagini non RAW da 10 Mpixel ca.
Il discorso è semplice: la potenza attualmente disponibile è così insufficiente per la maggior parte degli usi da richiedere il rinnovo dell'HW una volta l'anno?
Un PC attuale da 5-600 euro è davvero così limitate per la maggior parte degli usi che vale la pena attendere questo autunno e spendere magari il 50% di più, se va bene?
ekerazha
25-08-2008, 11:15
Il discorso è semplice: la potenza attualmente disponibile è così insufficiente per la maggior parte degli usi da richiedere il rinnovo dell'HW una volta l'anno?
Un PC attuale da 5-600 euro è davvero così limitate per la maggior parte degli usi che vale la pena attendere questo autunno e spendere magari il 50% di più, se va bene?
Se col PC ci navighi su Internet, controlli la posta, scrivi qualche lettera con Word e togli gli occhi rossi dalle foto, sicuramente non ha senso aspettare. Se come me sfrutteresti pesantemente il multithreading, allora ha molto senso.
che poi, sarei curioso di sapere quant'è il peso percentuale della cpu nelle prestazioni di una gaming machine oggi... a parte a risoluzioni limite tipo 800x600 o 1024x768.
lo credevo anche io prima di passarci sopra con la mia pelle... p5b-vm + e6320 + 8800gt = gochi tipo need for speed pro street al massimo non andava.
p5k-pro + e8500 + la stessa 8800gt = tutto a manetta senza problemi.
a risoluzione 1280x1024, che è il massimo su un 19"
prova a mettere una 4870x2 su un p4 531 (3 ghz) e fammi sapere...
cmq... nehalem in versione bloomfield avrà poco mercato di sicuro, troppo costoso per la massa, inutile per i gamers. avrà le sue nicchiette tipo skulltrail.
vedremo i 1160 l'anno prossimo cosa diranno
astroimager
25-08-2008, 11:35
Il multi-threading è quello, non ci sono molte ottimizzazioni da fare. Le ottimizzazioni le puoi fare al limite per sfruttare nuove istruzioni (es. SSE 4.2).
Quindi tutte le novità architetturali di Nehalem, compresa L3 e la relativa gestione logica, che non necessariamente è identica agli Xeon attuali o Agena/Deneb, non richiedono un'opportuna ottimizzazione per ottenere ancora di più?
"Desktop" vuol dire tutto e nulla. Non vuol dire necessariamente "uso solo applicazioni a thread singolo" o "apro il minor numero possibile di processi" o "uso solo Photoshop". Potrebbe essere benissimo un "eMule sta facendo l'hashing di un file voluminoso, contemporaneamente sto decomprimendo un file ZIP e non mi si paralizza il PC". Gli scenari possono essere più banali di quello che molti pensano.
Se la distribuzione dei carichi è automatica o programmata, ovviamente i core supplementari danno un grosso boost, o impediscono appunto un blocco del sistema.
Ci metto in mezzo anche le possibilità di virtualizzazione, sempre più appetibili e chiaramente favorite da CPU multi-core.
Bisogna capire se la maggior parte degli utenti desktop mainstream o entry level sfrutta al max la capacità parallela dei PC.
IMHO ci sono in giro una valanga di PC che per la maggior parte del tempo sono in idle, poi vengono usati ogni tanto per qualche applicazione non certo massiccia... infine può capitare ogni tanto la situazione di stallo, ma non è certo questo che ti induce spararti minimo mezzo stipendio su un PC nuovo.
Poi c'è anche da vedere quanta gente in giro sa usare il proprio cervello in multi-th prima ancora che il PC. :asd:
Infatti...guardate un po' ke desktop ho in sign e X quanto riguarda internet, Openoffice, databank etc etc va benissimo. Solo mi sono ridotto a usare il portatile, X ora saltuariamente, X la modellazione e il rendering, il ke non é molto piacevole, specie con qst temperature. Visto ke a parità di frequenza Nehalem negli applicativi multithread é + veloce dal 20% al 40%, direi ke non c' é storia. E' X qst ke mi riesce difficile oggi andare a configurare un pc basandolo su main tipo p5q-ws
Ottima mobo, ma dalle caratteristiche già antiquate, del tipo
-Ram DDR2
-Bus X controller sata/sas su Pci X 133 mhz
-Socket 775
Mentre la P6T Deluxe avrebbe tutto quello ke serve, e sicuramente + moderno, a un prezzo però decisamente superiore
-Ramm DDR3
-Bus X controller sata/sas su Pci-Express 4X
-Socket 1366
-Controller sas integrato
Per quanto cerchi di convincermi non riesco, non ce la faccio a ordinare una configurazione già superata (X lo - X certi utilizzi)
Tenete conto ke la potenza della cpu mi serve quasi esclusivamente X il rendering, non faccio overclock, praticamente non gioco col pc e mi fa comodo un BUON controller raid 0 onde salvare/spostare spesso file di qlc centinaio di Mb pensavo ke Nehalem su P6T sarebbe stata una buona sol. :cool:
l'e6600 si tiene a 3.7, non 2.7. :asd:
:asd:
astroimager
25-08-2008, 11:47
Se col PC ci navighi su Internet, controlli la posta, scrivi qualche lettera con Word e togli gli occhi rossi dalle foto, sicuramente non ha senso aspettare. Se come me sfrutteresti pesantemente il multithreading, allora ha molto senso.
Per le operazioni che hai elencato è un signore anche il mio portatile, che ha 5 anni e mezzo sulle spalle.
Per togliere semplicemente gli occhi rossi, poi, non credo che perdi nemmeno tempo a spostare la freccia sull'icona di PS.
Se fai un'elaborazione molto complessa, e non conosci perfettamente nemmeno la strada da percorrere, il tempo lo perdi più a pensare o smanettare, che nell'attendere a braccia incrociate davanti all'applicazione di un filtro.
Mercuri0
25-08-2008, 12:02
piccolo ot fusion mi sembrava che fosse il progetto amd che accoppiava cpu e gpu assieme cosa che potrebbe portare grossi benefici...
Nell'immediato i benefici sono solo in termini di costi e spazio (uno potrebbe anche dire "ho la CPU che è una scheggia nella la decodifica video" :asd:)
L'idea in prospettiva di sfruttare la CPU+GPU in maniera sinergica dipende molto dal software, e comunque potrebbe essere attuata anche con le attuai GPU discrete, che saranno sempre più potenti di una integrata in una CPU, a causa dei diversi limiti di TDP.
"Fusion" potrebbe avere dei vantaggi nel passaggio dei dati tra GPU e CPU. Mi sembra che AMD abbia un brevetto per condividere la cache, ma è una cosa che vedremo tra qualche anno, se va bene.
p.s. anche lntel ha in programma il suo "fusion", anche se il core GPU sarà senza troppe pretese (un core PowerVR)
Nell'immediato i benefici sono solo in termini di costi e spazio (uno potrebbe anche dire "ho la CPU che è una scheggia nella la decodifica video" :asd:)
L'idea in prospettiva di sfruttare la CPU+GPU in maniera sinergica dipende molto dal software, e comunque potrebbe essere attuata anche con le attuai GPU discrete, che saranno sempre più potenti di una integrata in una CPU, a causa dei diversi limiti di TDP.
"Fusion" potrebbe avere dei vantaggi nel passaggio dei dati tra GPU e CPU. Mi sembra che AMD abbia un brevetto per condividere la cache, ma è una cosa che vedremo tra qualche anno, se va bene.
p.s. anche lntel ha in programma il suo "fusion", anche se il core GPU sarà senza troppe pretese (un core PowerVR)
tra qualche anno sara nel 2012......si puo aspettare fino a quella data secondo me con un penryn quad core visto che gli octo core usciranno nel 2010 e bisogna vedere anche come sono....
ekerazha
25-08-2008, 12:13
Quindi tutte le novità architetturali di Nehalem, compresa L3 e la relativa gestione logica, che non necessariamente è identica agli Xeon attuali o Agena/Deneb, non richiedono un'opportuna ottimizzazione per ottenere ancora di più?
Aridai con 'sto "architetturali" :D
Puoi provare qualche diversa microscopica loop nest optimization e simili, ma nulla di sconvolgente.
Se la distribuzione dei carichi è automatica o programmata, ovviamente i core supplementari danno un grosso boost, o impediscono appunto un blocco del sistema.
C'è lo scheduler del sistema operativo.
ekerazha
25-08-2008, 12:14
Per le operazioni che hai elencato è un signore anche il mio portatile, che ha 5 anni e mezzo sulle spalle.
[...]
Infatti
astroimager
25-08-2008, 12:34
Aridai con 'sto "architetturali" :D
Puoi provare qualche diversa microscopica loop nest optimization e simili, ma nulla di sconvolgente.
Allora spiegami per quale motivo, in proporzione, i Conroe (quindi no SSE4) vanno più veloci degli Athlon64 con Cine R10 rispetto al 9.5. La differenza non è trascurabile.
C'è lo scheduler del sistema operativo.
Non hai capito.
C'è una bella differenza fra un rendering di diverse ore, che una volta partito non devi più intervenire, e lavorare magari con due programmi di elaborazione grafica, dove magari è richiesto un'interazione quasi continua dell'utente, per cui risulta difficile saturare la potenza, a meno che non ha il dual-head, non solo nel PC ma anche fisico... :asd:
ekerazha
25-08-2008, 12:54
Allora spiegami per quale motivo, in proporzione, i Conroe (quindi no SSE4) vanno più veloci degli Athlon64 con Cine R10 rispetto al 9.5. La differenza non è trascurabile.
Se fosse open-source si potrebbe guardare il codice, purtroppo non ho la sfera di cristallo e si possono solo fare ipotesi.
Probabilmente c'è una concomitanza di fattori... si potrebbe cominciare con il fatto che i Conroe supportano le istruzioni SSSE3 mentre gli Athlon64 no.
Non hai capito.
C'è una bella differenza fra un rendering di diverse ore, che una volta partito non devi più intervenire, e lavorare magari con due programmi di elaborazione grafica, dove magari è richiesto un'interazione quasi continua dell'utente, per cui risulta difficile saturare la potenza, a meno che non ha il dual-head, non solo nel PC ma anche fisico... :asd:
Dipende da quello che fai... se fai operazioni che si esauriscono in pochi istanti, allora come già detto potrebbe bastare il suddetto portatile di 5 anni fa. Non dico rendering di diverse ore... ma magari per applicare un filtro complesso ad una immagine potrebbe passare qualche minuto, durante il quale il PC potrebbe non rispondere adeguatamente.
Infatti...guardate un po' ke desktop ho in sign e X quanto riguarda internet, Openoffice, databank etc etc va benissimo. Solo mi sono ridotto a usare il portatile, X ora saltuariamente, X la modellazione e il rendering, il ke non é molto piacevole, specie con qst temperature. Visto ke a parità di frequenza Nehalem negli applicativi multithread é + veloce dal 20% al 40%, direi ke non c' é storia. E' X qst ke mi riesce difficile oggi andare a configurare un pc basandolo su main tipo p5q-ws
Ottima mobo, ma dalle caratteristiche già antiquate, del tipo
-Ram DDR2
-Bus X controller sata/sas su Pci X 133 mhz
-Socket 775
Mentre la P6T Deluxe avrebbe tutto quello ke serve, e sicuramente + moderno, a un prezzo però decisamente superiore
-Ramm DDR3
-Bus X controller sata/sas su Pci-Express 4X
-Socket 1366
-Controller sas integrato
Per quanto cerchi di convincermi non riesco, non ce la faccio a ordinare una configurazione già superata (X lo - X certi utilizzi)
Tenete conto ke la potenza della cpu mi serve quasi esclusivamente X il rendering, non faccio overclock, praticamente non gioco col pc e mi fa comodo un BUON controller raid 0 onde salvare/spostare spesso file di qlc centinaio di Mb pensavo ke Nehalem su P6T sarebbe stata una buona sol. :cool:
Qui molto dipende anche dalle mobo che proporranno perchè quelle 4 che ad oggi si sono viste sono indecenti per un uso professionale. Nella P6T, Asus avrà pur messo un controller SAS, ma sarebbe stato preferibile una migliore gestione delle linee PCI-Ex. Tra un controller SAS integrato di origine ignota ed un controller Adaptec/Areca preferisco questi ultimi, il problema è dove inserilo.
La serie Core2 ha contribuito ad un certo cambiamento che pare se ne siano accorti in pochi. Fino a qualche anno fa il mio punto di riferimento per le mobo erano Supermicro e Tyan. A seguito dell'avvento dei Core2 mi sono spostato sulla serie WS di ASUS e come me molti altri ottenendo grande versatilità e un ottimo rapporto prezzo prestazioni. Basta leggere i forum o le liste di compatibilità di hw proprietario per rendersene conto. Credo che questo non abbia giovato molto ad Intel così come a Supermicro che si sta orientando solo verso il mercato server.
Ora quello che a me sembra è che Intel voglia usare il 1366 per riportare la fascia consumer e quella prosumer/professionale su due binari separati e stia spingendo sull'aspetto gaming del Nehalem per puro e semplice marketing.
Di conseguenza temo che una mobo x Nehalem per uso WStation la vedremo solo nel 2009, ma almeno supporteranno il die shrink a 32nm.
La Asus PT6 ha sezione di alimentazione con 16+2 fasi.:eek:
Ragazzi,
in definitiva quanto bisognerà aspettare per l'uscita dei Core i7? Ho rinunciato a prendere un Q6600 (o il modello superiore), per questa nuova tecnologia.
Se il cambio euro-dollaro sarà rispetto il Core i7
[email protected] dovrebbe costare non più di 200 euro :eek:
Il Core
[email protected] invece 380 :eek:
Ma quanto devo ancora aspettare?
Ragazzi,
in definitiva quanto bisognerà aspettare per l'uscita dei Core i7? Ho rinunciato a prendere un Q6600 (o il modello superiore), per questa nuova tecnologia.
Se il cambio euro-dollaro sarà rispetto il Core i7
[email protected] dovrebbe costare non più di 200 euro :eek:
Il Core
[email protected] invece 380 :eek:
Ma quanto devo ancora aspettare?
settembre/ottobre, il tempo di farli e distribuirli. il cambio euro/dollaro non è mai rispettato rispetto ai prezzi che vedi in giro. il core i7 a 2.9 è dato per 500$, che diventano su per giù 450€. per mille motivi. primo perchè i 500$ sono per lotti di 1000 e poi perchè in italia ci sono tasse etc
astroimager
25-08-2008, 14:45
Se fosse open-source si potrebbe guardare il codice, purtroppo non ho la sfera di cristallo e si possono solo fare ipotesi.
Probabilmente c'è una concomitanza di fattori... si potrebbe cominciare con il fatto che i Conroe supportano le istruzioni SSSE3 mentre gli Athlon64 no.
Capisco.
Però da più di un utente avevo letto che Conroe ha un sistema di processare i dati molto diverso rispetto alle architteture AMD, e qualcuno ha azzardato anche un parallelo in campo GPU, non so se corretto perché non conosco questo mondo... se ritrovo le discussioni...
Dipende da quello che fai... se fai operazioni che si esauriscono in pochi istanti, allora come già detto potrebbe bastare il suddetto portatile di 5 anni fa. Non dico rendering di diverse ore... ma magari per applicare un filtro complesso ad una immagine potrebbe passare qualche minuto, durante il quale il PC potrebbe non rispondere adeguatamente.
Credo che la situazione più comune per la grande massa sia quella di tante operazioni con carico medio o alto, in media, compiute in intervalli di tempo breve, con qualche picco di carico magari dilatato nel tempo, ma tutto sempre su una singola applicazione per volta, anche con una moltitudine di processi attivi e magari altre applicazioni in background, che certamente quel 3-5% di prestazioni lo portano via.
Oppure ci sono i giochi, abbastanza stressanti per la CPU, ma ancora lontani dallo sfruttare veramente bene un'architettura multi-core moderna, a parte qualche caso isolato.
La tua situazione credo sia molto meno tipica di quanto pensi, e il livello di potenza offerto da un dual Penryn di fascia media, specie se ben ockato e con minimi colli di bottiglia in I/O, oltre a costare meno e consumare meno rispetto a un quad, copre ampiamente le necessità della stragrande maggioranza degli utenti, che infatti ormai si accontentano tranquillamente delle soluzione mobile.
simoorta
25-08-2008, 14:53
Ragazzi,
in definitiva quanto bisognerà aspettare per l'uscita dei Core i7? Ho rinunciato a prendere un Q6600 (o il modello superiore), per questa nuova tecnologia.
Se il cambio euro-dollaro sarà rispetto il Core i7
[email protected] dovrebbe costare non più di 200 euro :eek:
Il Core
[email protected] invece 380 :eek:
Ma quanto devo ancora aspettare?
anche dopo i prezzi...
si si, nehalem lo salto a piè pari...westmere ti aspetto...:sofico:
se salti nehalem xo, è d'obbligo un quad
simoorta
25-08-2008, 15:05
se salti nehalem xo, è d'obbligo un quad
mah mi tengo il mio 6320, capirai nn muoio mica senza un quad...:D
al ma, quando arranca gli faccio i 3.3ghz in daily e bon...me lo tengo fino a westmere...:rolleyes:
ekerazha
25-08-2008, 15:13
Capisco.
Però da più di un utente avevo letto che Conroe ha un sistema di processare i dati molto diverso rispetto alle architteture AMD, e qualcuno ha azzardato anche un parallelo in campo GPU, non so se corretto perché non conosco questo mondo... se ritrovo le discussioni...
Bisogna vedere se le "differenze" sono proficuamente sfruttabili a livello di programmazione.
Credo che la situazione più comune per la grande massa sia quella di tante operazioni con carico medio o alto, in media, compiute in intervalli di tempo breve, con qualche picco di carico magari dilatato nel tempo, ma tutto sempre su una singola applicazione per volta, anche con una moltitudine di processi attivi e magari altre applicazioni in background, che certamente quel 3-5% di prestazioni lo portano via.
Oppure ci sono i giochi, abbastanza stressanti per la CPU, ma ancora lontani dallo sfruttare veramente bene un'architettura multi-core moderna, a parte qualche caso isolato.
La tua situazione credo sia molto meno tipica di quanto pensi, e il livello di potenza offerto da un dual Penryn di fascia media, specie se ben ockato e con minimi colli di bottiglia in I/O, oltre a costare meno e consumare meno rispetto a un quad, copre ampiamente le necessità della stragrande maggioranza degli utenti, che infatti ormai si accontentano tranquillamente delle soluzione mobile.
E' difficile generalizzare... sicuramente ad utenti con poche pretese bastano CPU con poche pretese. Gli Intel i7 "Bloomfield" di prossima uscita sono per il mercato più esigente.
I videogiochetti possono essere un'incognita, attualmente la maggior parte dei giochini non fa un grande uso del multi-threading... però le cose potrebbero cambiare, magari in tempi non troppo lontani. Starei anche molto attento nel dire che i videogiochi vanno peggio su Nehalem... magari non si ha un enorme guadagno di prestazioni, che è cosa ben diversa. Come già detto, dai benchmark che si trovano in giro su Nehalem in preview, sembra comportarsi meglio dei Penryn meno che a risoluzioni molto elevate con i dettagli al massimo... bisognerebbe avere sottomano una piattaforma Nehalem-based definitiva e testare più di un videogioco per poter trarre conclusioni a riguardo.
ekerazha
25-08-2008, 15:19
[doppio]
per chi ha un qx credo (e sopero) che non si accorga nemmeno dell'arrivo dei Nehalem...
per chi ha un qx credo (e sopero) che non si accorga nemmeno dell'arrivo dei Nehalem...
chi lo sa....forse si forse no
astroimager
25-08-2008, 15:56
E' difficile generalizzare... sicuramente ad utenti con poche pretese bastano CPU con poche pretese. Gli Intel i7 "Bloomfield" di prossima uscita sono per il mercato più esigente.
La maggior parte degli utenti, se non ci fosse di mezzo Vista e altro sw inutilmente pesante, sarebbero pienamente soddisfatti del livello di potenza delle cpu che tu chiami di poche pretese.
I videogiochetti possono essere un'incognita, attualmente la maggior parte dei giochini non fa un grande uso del multi-threading... però le cose potrebbero cambiare, magari in tempi non troppo lontani. Starei anche molto attento nel dire che i videogiochi vanno peggio su Nehalem... magari non si ha un enorme guadagno di prestazioni, che è cosa ben diversa. Come già detto, dai benchmark che si trovano in giro su Nehalem in preview, sembra comportarsi meglio dei Penryn meno che a risoluzioni molto elevate con i dettagli al massimo... bisognerebbe avere sottomano una piattaforma Nehalem-based definitiva e testare più di un videogioco per poter trarre conclusioni a riguardo.
Personalmente non l'ho mai affermato, anzi sostengo il contrario.
Per almeno 2 motivi:
- a default l'architettura è più dinamica, adattandosi automaticamente alla richiesta delle applicazioni e alle varie situazioni di carico;
- la potenza di calcolo specifica di ogni core non può essere diminuita rispetto a Conroe/Penryn, anzi sarà aumentata!
Probabilmente all'inizio i Nehalem "soffriranno" un po' in ambito gaming per il discorso della cache e forse anche per le frequenze. Su questo ultimo punto ho comunque qualche dubbio, perché i Penryn quad non hanno certo brillato per OC stratosferici, QX esclusi...
Il punto è proprio questo: per utenti non particolarmente esigenti, quanto vale la pena investire su questa nuova archiettura, nel prossimo autunno?
Un utente che ha un buon dual/quad, un bel kit DDR2 e una mobo più che soddisfacente, acquistati negli ultimi 12-18 mesi, perché dovrebbe svendere tutto per correre appresso a Nehalem?
IMHO è meglio attendere Westmere, però ribadisco che un mio parere. L'elenco dei vantaggi non si riduce certo a 2-3 punti...
Comunque sarà molto interessante vedere cosa accadrà il prossimo anno, quando usciranno le soluzioni meanstream, magari con tecnologie più mirate per le applicazioni desktop, le quali a sua volta saranno state migliorate per sfruttare al massimo la nuova architettura. Però a quel punto saremo molto vicini al nodo successivo, e allora si faranno gli stessi discorsi, anche se meno estremizzati... :asd:
ekerazha
25-08-2008, 16:09
La maggior parte degli utenti, se non ci fosse di mezzo Vista e altro sw inutilmente pesante, sarebbero pienamente soddisfatti del livello di potenza delle cpu che tu chiami di poche pretese.
Perchè hanno appunto poche pretese. Gli utenti più evoluti hanno spesso esigenze diverse.
Probabilmente all'inizio i Nehalem "soffriranno" un po' in ambito gaming per il discorso della cache e forse anche per le frequenze. Su questo ultimo punto ho comunque qualche dubbio, perché i Penryn quad non hanno certo brillato per OC stratosferici, QX esclusi...
Come già detto, il discorso della cache ha molte sfaccettature.
Il punto è proprio questo: per utenti non particolarmente esigenti, quanto vale la pena investire su questa nuova archiettura, nel prossimo autunno?
Non molto, come già detto.
IMHO è meglio attendere Westmere, però ribadisco che un mio parere. L'elenco dei vantaggi non si riduce certo a 2-3 punti...
Dovendo scegliere io preferisco le CPU della fase "tock", in quanto portano una maggiore evoluzione.
astroimager
25-08-2008, 16:24
Perchè hanno appunto poche pretese. Gli utenti più evoluti hanno spesso esigenze diverse.
Sembra che stiamo discutendo del cane che si morde la coda.
Proviamo con un ragionamento di questo tipo:
a) la maggior parte degli utenti hanno poche pretese
b) i Penryn soddisfano ampiemente queste "poche pretese"
c) la maggior parte degli utenti continuerà ad acquistare Penryn
Quindi Nehalem avrà diffusione solo in un mercato di nicchia, con tutti gli svantaggi che ne conseguono.
Per invertire quest'ordine naturale delle cose, Intel dovrebbe buttare nel cesso tutta la produzione attuale di chipset per 775 e rendere davvero sconveniente l'acquisto dei Penryn. Cosa che contraddice le dichiarazioni ufficiali e farebbe un pochettino incazzare i produttori di mobo.
Dovendo scegliere io preferisco le CPU della fase "tock", in quanto portano una maggiore evoluzione.
Il tock di Nehalem non sarà da meno rispetto al Penryn, anzi... ;)
ekerazha
25-08-2008, 16:26
La vera domanda è quanto deve essere esigente, l'utente, affinché l'upgrade possa considerarsi sensato?
Probabilmente il maggior vantaggio lo si ha se si usano applicazioni multi-threading, se si utilizzano contemporaneamente programmi che fanno un intenso uso della CPU o programmi che accedono frequentemente alla memoria centrale.
astroimager
25-08-2008, 16:35
La vera domanda è quanto deve essere esigente, l'utente, affinché l'upgrade possa considerarsi sensato?
La risposta può essere qui:
http://www.hwupgrade.it/articoli/cpu/2025/amd-phenom-x4-9950-e-phenom-x4-9350e_9.html
Un quad che costa 5 volte di più del mio 5600+, e che ha all'incirca la stessa frequenza, va mediamente il 60% più veloce.
Quel 60% può essere decisivo per chi lavora, ma per chi usa il PC per diletto la potenza del 5600+ già a default - magari in un SO decente - può bastare.
Se non basta ci sono ottimi dual Intel che dominano nettamente sui quad nel moneybench, e siamo a default.
ekerazha
25-08-2008, 16:36
Sembra che stiamo discutendo del cane che si morde la coda.
Proviamo con un ragionamento di questo tipo:
a) la maggior parte degli utenti hanno poche pretese
b) i Penryn soddisfano ampiemente queste "poche pretese"
c) la maggior parte degli utenti continuerà ad acquistare Penryn
Quindi Nehalem avrà diffusione solo in un mercato di nicchia, con tutti gli svantaggi che ne conseguono.
Per invertire quest'ordine naturale delle cose, Intel dovrebbe buttare nel cesso tutta la produzione attuale di chipset per 775 e rendere davvero sconveniente l'acquisto dei Penryn. Cosa che contraddice le dichiarazioni ufficiali e farebbe un pochettino incazzare i produttori di mobo.
Come già detto Intel i7 (Nehalem "Bloomfield") sarà per gli utenti più evoluti. Gli altri continueranno con Penryn. Quando usciranno le versioni di Nehalem per le fasce più basse (nel 2009 inoltrato), queste andranno man mano a rimpiazzare Penryn sulla restante fascia di mercato. Magari chi ha già un Penryn e non è un utente particolarmente evoluto, non sentirà l'estremo bisogno di passare a Nehalem... ma chi ha intenzione di sostituire sistemi più vecchi con CPU più vecchie, inevitabilmente sbarcherà su Nehalem.
Il tock di Nehalem non sarà da meno rispetto al Penryn, anzi... ;)
Il salto c'è stato con Conroe più che con Penryn... come ci sarà con Nehalem più che con Westmere, con Sandy Bridge più che con Ivy Bridge e con Haswell più che con il suo successore. Le nuove architetture vengono introdotte nella fase "tock", in quella "tick" c'è solo il die shrink e qualche affinamento.
astroimager
25-08-2008, 17:00
Il salto c'è stato con Conroe più che con Penryn... come ci sarà con Nehalem più che con Westmere, con Sandy Bridge più che con Ivy Bridge e con Haswell più che con il suo successore. Le nuove architetture vengono introdotte nella fase "tock", in quella "tick" c'è solo il die shrink e qualche affinamento.
Azz, che mòna... mi ero confuso con i termini, mi sembrava di aver letto in passato che la tock fosse il die-shrink, invece è il contrario :doh:
Vabbé, non cambia nulla, se non che tu preferisci la tock, io la tick :D
Perché? Semplicemente perché in 1 anno c'è un incremento di performance/watt e soprattutto performance/costo secondo me più interessante di quello che avverrà fra due mesi, senza contare i benefici della diffusione e della varietà di soluzioni che ovviamente non può esserci nella tock. Oltretutto in questo caso c'è il cambio obbligato di socket e di ram...
Sappiamo tutti quanto si specula sulle novità, specie in alcuni periodi dell'anno, e che i primi step non sempre riescono con il buco, i successivi possono essere decisamente migliori.
Poi non si può fare un confronto fra la disgraziata Netburst vs Conroe, e Penryn vs Nehalem... in ambito server la differenza è paragonabile, anzi forse ancora più accentuata fra Penryn e Nehalem, ma in campo desktop non ne sono così convinto. Facciamo un +40%, a voler essere ottimisti? Fra Netburst e Conroe mi pare ci fosse molto di più...
ekerazha
25-08-2008, 17:05
Azz, che mòna... mi ero confuso con i termini, mi sembrava di aver letto in passato che la tock fosse il die-shrink, invece è il contrario :doh:
Vabbé, non cambia nulla, se non che tu preferisci la tock, io la tick :D
Perché? Semplicemente perché in 1 anno c'è un incremento di performance/watt e soprattutto performance/costo secondo me più interessante di quello che avverrà fra due mesi, senza contare i benefici della diffusione e della varietà di soluzioni che ovviamente non può esserci nella tock. Oltretutto in questo caso c'è il cambio obbligato di socket e di ram...
Sappiamo tutti quanto si specula sulle novità, specie in alcuni periodi dell'anno, e che i primi step non sempre riescono con il buco, i successivi possono essere decisamente migliori.
Già (probabilmente sul performance/costo... sul performance/watt non direi) ma sotto il puro incremento di performance e di funzionalità, è decisamente più interessante la tock.
Poi non si può fare un confronto fra la disgraziata Netburst vs Conroe, e Penryn vs Nehalem... in ambito server la differenza è paragonabile, anzi forse ancora più accentuata fra Penryn e Nehalem, ma in campo desktop non ne sono così convinto. Facciamo un +40%, a voler essere ottimisti? Fra Netburst e Conroe mi pare ci fosse molto di più...
Fidati che quando è uscito Conroe, l'utente poco evoluto col Pentium 4/D andava benissimo :D
astroimager
25-08-2008, 17:18
Già (probabilmente sul performance/costo... sul performance/watt non direi) ma sotto il puro incremento di performance e di funzionalità, è decisamente più interessante la tock.
Beh, performance/watt è aumentato non poco con Penryn... le CPU sono arrivate a livello di consumo quasi ridicolo!...
Fidati che quando è uscito Conroe, l'utente poco evoluto col Pentium 4/D andava benissimo :D
La mia ragazza 6 mesi prima che uscisse Conroe aveva già voglia di buttare dalla finestra il suo aborto di portatile con Pentium 4 inside.
ekerazha
25-08-2008, 17:34
Beh, performance/watt è aumentato non poco con Penryn... le CPU sono arrivate a livello di consumo quasi ridicolo!...
Intendendo sempre con "Penryn" le CPU Penryn-like (il Penryn vero e proprio sarebbe una CPU mobile), un recente Core 2 Quad "Yorkfield" ha un TDP di 95 W ed un Core 2 Extreme "Yorkfield XE" arriva anche a 150 W. Gli Intel i7 dovrebbero avere un TDP di 130 W... considerando che in alcuni scenari è quasi il 50% più veloce della generazione precedente, non vedo molto svantaggioso il rapporto performance/watt rispetto all'alternativa Penryn.
La mia ragazza 6 mesi prima che uscisse Conroe aveva già voglia di buttare dalla finestra il suo aborto di portatile con Pentium 4 inside.
Tu calcola che uno dei miei sistemi è un Pentium III 933 Mhz con 512 MB di RAM PC133 e, con un po' di pazienza, lo uso anche per grafica, sviluppo software etc. non so che esigenze abbia la tua ragazza, ma avercelo un Pentium D al posto di quel Pentium III :D
Intendendo sempre con "Penryn" le CPU Penryn-like (il Penryn vero e proprio sarebbe una CPU mobile), un recente Core 2 Quad "Yorkfield" ha un TDP di 95 W ed un Core 2 Extreme "Yorkfield XE" arriva anche a 150 W. Gli Intel i7 dovrebbero avere un TDP di 130 W... considerando che in alcuni scenari è quasi il 50% più veloce della generazione precedente, non vedo molto svantaggioso il rapporto performance/watt rispetto all'alternativa Penryn.
Tu calcola che uno dei miei sistemi è un Pentium III 933 Mhz con 512 MB di RAM PC133 e, con un po' di pazienza, lo uso anche per grafica, sviluppo software etc. non so che esigenze abbia la tua ragazza, ma avercelo un Pentium D al posto di quel Pentium III :D
Se vuoi te lo vendo..:asd:
Cmq sembra di capire che i nahalem sono delle ottime cpu per multi-th e che quindi ne è consigliato appunto chi ha esigenze sotto questo punto di vista!
Io appunto che ho un pentium D e non me ne lamento..penso che passare ad un quad core penry per me è sempre un salto "generazionale", ma sopratutto a prezzi contenuti, anche se il quad cmq non lo sfrutterei a dovere, visto che ogni tanto faccio encoding di file HD!;)
ekerazha
25-08-2008, 19:55
Se vuoi te lo vendo..:asd:
Se vuoi lo barattiamo :D
Mah, forse hai ragione. Tra un algoritmo e uno pseudocodice ci ho ripensato anke sto pomeriggio.
-Se prendo una main con Nehalem avrò si una piattaforma molto potente, ma troppo "pesante" in termini di costi, di configurazione in generale. Ke vuol dire ? Ke, al di la' del controller ext sas/sata, e ke cmq penso continueranno a venderli su pci-x X diverso tempo, anke Xkè, a parte i server, X le workstation lo standard é ankora quello ke va X la >, una makkina basata su P5Q Ws e Peryn é si' + antiquata e - potente, ma anche - costosa. Quindi, mettiamo ke nel 2010/2001 arrivi il Pci express 3.0, porte sata 3.0, usb 3.0, e mettiamoci pure memoria DDR4 o XDR, a quel punto mi sarà + semplice "separarmi" da componenti di < valore , magari riciclandoli X altri scopi, un pò kome la makkina ke sto usando adesso : un patcwork di componenti ke avevo e qlc pezzo usato ke il mio assemblatore di fiducia aveva in laboratorio e un Pc ke si difende ankora bene in relazione agli anni ke ha e i programmi ke ci fo girare :cool:
A quel punto potrò cmq recuperare, almeno temporaneamente, una buona sk video e magari un paio di Hd sas da mettere in raid, nonkè ovviamente monitor, masterizzatore, cabinet...:cool:
Tanto se un pc é destinato a diventare COMUNQUE obsoleto, meglio spenderci - in modo da rendere + agile un futuro upgrade.
squall_seed
25-08-2008, 21:35
Non so perche ma questo i7 mi puzza di p4....
multi th... bus fbs 133 molti a 20....
ma solo io noto le somiglianze? Secondo me questa architettura deriva dal passato e fonde in piu il multi core...
Non dico che sia male anzi... penso che saranno molto potenti
ma aspetto di vedere i bench seri e quando sara sugli scaffali contro i bus a 500/550 dei penrin di oggi o seri dubbi sui limiti in overclock (cosa che a me interessa di piu)
esempio se arrivano solo alla meta dei bus degli attuali prevedo dei motri di OC ma se ad esempio avrenno il molti bloccato anche in basso credo saranno da evitare..
astroimager
25-08-2008, 21:55
Non so perche ma questo i7 mi puzza di p4....
multi th... bus fbs 133 molti a 20....
ma solo io noto le somiglianze? Secondo me questa architettura deriva dal passato e fonde in piu il multi core...
Non dico che sia male anzi... penso che saranno molto potenti
ma aspetto di vedere i bench seri e quando sara sugli scaffali contro i bus a 500/550 dei penrin di oggi o seri dubbi sui limiti in overclock (cosa che a me interessa di piu)
esempio se arrivano solo alla meta dei bus degli attuali prevedo dei motri di OC ma se ad esempio avrenno il molti bloccato anche in basso credo saranno da evitare..
Beh, il discorso è semplice: se rende mediamente un 40% in più di un Penryn, ma si ocka un 20% in meno, per chi deve fare un sistema nuovo conviene comunque. Certo overclockare potrebbe non essere una passeggiata, ma chissà che non mettano a punto un'utility spedicifica come l'AOD di AMD.
Gli Yorkfield, escludendo i QX, con le limitazioni di molti e FSB wall non hanno certo brillato in overclock, anche se ho visto un ES di Q9650 del nuovo step a 4.5 GHz con 1.44V...
Comunque, se ci mettiamo in mezzo il discorso OC, le cose si complicano troppo. Bisogna avere dati più affidabili, ovvero prove eseguite sugli esemplari che saranno in commercio fra qualche settimana, montati su piattaforme stabili, con BIOS già suffcientemente maturi.
Finora il record in frequenza con un quad nativo a 65nm lo detiene un Phenom 9950 che è stato portato a 4050 MHz. Vedremo i 45nm e queste nuove bestie Intel che numeri saranno in grado di sfoderare questo autunno!
Ma no, ma no, Nehalem riunisce il meglio dell' architettura Core (l' efficienza) e Netburst(il multi threating), contando poi ke é il primo step a 45 nm a 4 core, e ke seguiranno proci a 6 e 8 core a 32 nm sicuramente é una buona strada. Mi puzza solo di...socket 940. :D Capite quello ke voglio dire ? Il P4 a parità di frequenza andava -, qst va di + : non é il procio ke non mi convince, é...la piattaforma ke lo supporta ! Socket 1366 a triple channel Qpi, a seguire dopo la metà del 2009 (!!!) socket 1160 dual channel senza qpi...ma ke si torna, indietro ? Non vorrei ke a fine 2009 di 3 soket ne resti uno solo, e cioè il...ahem, tranquilli, entro un paio d' anni vi rispondo :D
K Reloaded
25-08-2008, 22:39
ragazzi una domandina ma Nehalem sarà rivoluzionario rispetto Penryn? oppure si tratta di un 'semplice' upgrade come tra Conroe e Penryn?
ekerazha
25-08-2008, 23:00
oppure si tratta di un 'semplice' upgrade come tra Conroe e Penryn?
No, è una nuova "architettura" :D
comunque se bloomfield sta facendo discutere, lynnfield e havendale rischiano di essere scandalosi... bloomfield conta su qpi e triple channel per evitare il problema detto poco prima della cache troppo grossa e lenta. lynnfield che fa? a sto punto havendale, che dovrebbe essere a logica il processore migliore per chi gioca e fa operazioni "normali" come la maggior parte degli utenti, rischia di essere peggio di peryn, sempre che non esca di default a 4ghz (che sarebbe anche plausibile, visto che all'esordio bloomfield esce già a 3.2 e che il top wolfdale di adesso è già a 3.33)...
cmq... per la fascia umana di computer, cioè quelli che compreranno la maggior parte, che saranno venduti nei centri commerciali etc, si prevedono tempi dubbi.
ekerazha
26-08-2008, 18:58
L'Intel i7 da 3.2 Ghz, sembra sia overclockabile abbastanza agilmente, ad aria, fino ai 4 Ghz e forse oltre.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=9074&Itemid=1
L'Intel i7 da 3.2 Ghz, sembra sia overclockabile abbastanza agilmente, ad aria, fino ai 4 Ghz e forse oltre.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=9074&Itemid=1
ci mancherebbe, è un dannato extreme...
squall_seed
26-08-2008, 22:11
L'Intel i7 da 3.2 Ghz, sembra sia overclockabile abbastanza agilmente, ad aria, fino ai 4 Ghz e forse oltre.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=9074&Itemid=1
quall'articolo potevo sciverlo pure io senza nemmeno averlo mai visto da lontano il nehalem :mbe:
non c'e ombra ne di test ne di bench ne di nient :O
ripropongo il questito secondo voi perche hanno riabbasto l'fbs e aumentato il molti?
133 x 20 non lo vedo dai tempi degli atholn xp 1800 anzi prima (vabbe il molti non arrivava a 20 ma il concetto e quello)
Io noto una chiara inversione di tendenza siamo arrivati a fbs altissimi da 33 a 550 ora si torna a 133 non capisco l'unica cosa che mi viene in mente e che si sia arrivati ai limiti.... e tocca ripartire pompando sul moltiplicatore.
Comunque un motivo tecnico ci deve essere spero che quando usciranno si sveli l'arcano....
Non so perche ma questo i7 mi puzza di p4....
multi th... bus fbs 133 molti a 20....
A me sa di P4 + Phenom + core2 :D
A me sa di P4 + Phenom + core2 :D
quoto! :D
squall_seed
27-08-2008, 02:28
Pentium 4 505 Prescott
21/giu/2004
775
20x 133MHz (2,667 GHz)
90 nm 125 mil.
1,4 V 84 W 533
MHz L1=16KB
L2=1MB
L3=0KB
Tra l'altro e risaputo che nehalem e un progetto vecchio....
"Nel 2001 Intel annunciò lo sviluppo del core Nehalem, destinato ad essere uno dei nomi in codice più "abusati" da parte del produttore americano. Gli annunci, spesso contrastanti tra loro, su questo processore infatti si sono susseguiti fino al 2004 e poi non se ne è saputo più nulla fino al 2006 quando venne annunciata con questo nome la futura architettura di nona generazione: non più un singolo processore quindi, ma un'architettura completa che abbraccerà tutti i settori di mercato dalla fine del 2008."
Nehalem è un nome in codice utilizzato più volte da Intel, a partire dal 2001, per indicare diversi progetti dedicati allo sviluppo di nuovi microprocessori.
"Nel corso degli anni si susseguirono innumerevoli indiscrezioni riguardanti a prodotti identificabili con il nome in codice Nehalem, spesso non completamente esaurienti e di conseguenza anche discordanti tra loro; tutto questo era dovuto anche al fatto che ogni volta che emergevano notizie riguardo ad un "fantomatico" processore Nehalem, queste si riferivano comunque sempre ad un prodotto ancora distante nel tempo e sul quale le informazioni erano ancora molto scarse.
A complicare ulteriormente il quadro delle ipotesi si aggiunse anche il fatto che il progetto Nehalem nel tempo subì varie revisioni, fino alla sua cancellazione e poi al riutilizzo del nome per indicare un progetto completamente rivisto, e molto più importante."
"I primi progetti: Nehalem sarebbe dovuto essere un processore
Le prime notizie riguardanti lo sviluppo di Nehalem trapelarono nel corso del 2001, e si riferivano ad un'architettura a 32 bit che sarebbe dovuta arrivare nel corso del 2004 per sostituire gradualmente quella NetBurst alla base del Pentium 4, andando probabilmente a succedere al core Northwood (ovvero la seconda generazione di Pentium 4).
Successivamente, Intel decise di proseguire lo sviluppo dell'architettura NetBurst anche dopo il core Northwood introducendo nel 2004 la terza generazione, conosciuta come Prescott e iniziando lo sviluppo del successore, Tejas. A questo punto, nuove precisazioni posticipavano l'arrivo di Nehalem al 2005 e lo indicavano come un processore erede di Tejas, che sarebbe dovuta quindi essere l'ultima CPU NetBurst, ma che non è mai arrivato sul mercato in quanto Intel nel corso del 2004 decise di cessarne lo sviluppo a causa di diversi problemi di stabilità operativa, primo fra tutti l'elevata dissipazione termica richiesta dall'alto clock di esercizio previsto da tale progetto.
Dato che Tejas avrebbe dovuto superare i 6 GHz, era previsto che Nehalem oltrepassasse decisamente tale frequenza utilizzando il processo produttivo a 65 nm già introdotto con le ultime evoluzioni di Tejas arrivando addirittura a 10,20 GHz con un BUS ad almeno 1200 MHz (ma alcune voci ne indicavano uno innovativo da addirittura 3 GHz). Molto probabilmente questa nuove incarnazione del progetto Nehalem poggiava le sue basi sul progetto Tejas e non stupisce quindi che dopo la cancellazione di quest'ultimo, Intel abbia ridotto ulteriormente le notizie riguardanti il processore Nehalem; inoltre, data la prevista collocazione temporale, molte voci volevano addirittura sospeso tale progetto.
Verso la fine del 2004 sembrava invece che Nehalem fosse tornato nella roadmap Intel, probabilmente in una versione decisamente modificata rispetto a quella originariamente prevista: si parlava infatti del 2006 come data di arrivo di questo nuovo processore che adesso sarebbe stato di tipo dual core e con estensioni EM64T (mai citate in precedenza per questa CPU) per eseguire calcoli a 64 bit.
Questa fu l'ultima notizia riguardante il processore Nehalem, dopodiché non se ne seppe più nulla per quasi 2 anni, tant'è vero che è altamente probabile, sebbene mai dichiarato espressamente, che il progetto fosse stato completamente sospeso."
adesso si scopre che nehalem eredita direttamente dallo sfortunato pentium pro... ma per favore :mbe:
NEHALEM E' un nome. il fatto che intel l'abbia usato anche 10.000 volte non vuol dire che facesse riferimento alla stessa roba.
NEHALEM NON E' UN PROCESSORE, ma un'architettura, un progetto
al momento stiamo parlando di Bloomfield, processore con tecnologia nehalem. lo stesso dicasi per lynnfield e havendale.
nehalem=peryn=core=netburst. i proci sono bloomfield, conroe, wolfdale, northwood etc
inoltre, il QPI con l'FSB non ha niente a che vedere, dire che "scende" a soli 133mhz non vuol dire peggioramento, anzi... piuttosto mi incuriosisce sapere cosa utilizzera lynnfield.
probabilmente l'fsb a 1600 cominciava a essere troppo per un chip come il northbridge, andare oltre, tipo a 2ghz, avrebbe richiesto raffreddamenti più pesanti, schede madri più complesse etc. intel avrà quindi deciso di sfruttare un'altra strada tecnologica, piuttosto che aumentare le frequenze.
un po' come il sata rispetto al pata. da che sono al mondo mi avevano sempre detto che le connessioni parallele sono, ovviamente, + veloci. concetto semplice: più bit viaggiano insieme. e poi magicamente ti trovi il SATA, il SAS... che vanno molto di più.
gaglia_1988
27-08-2008, 03:17
Si sà qualcosa di più preciso sulla data di uscita?
Ma al debutto sarà sresente anche il modello da 2.66 Ghz?
K Reloaded
27-08-2008, 10:04
No, è una nuova "architettura" :D
si certo, ma considerando i prezzi a cui uscirà e considerato il fatto che bisognerà prendere una mobo da 250€ e 3gb di ram a 300€ ...
vale la pena?
88diablos
27-08-2008, 10:10
si certo, ma considerando i prezzi a cui uscirà e considerato il fatto che bisognerà prendere una mobo da 250€ e 3gb di ram a 300€ ...
vale la pena?
a mio avviso subito no, bisogna aspettare mobo serie e se ne riparlerà
gli attuali 45nn di intel sono gia ottimi
Quote:
X58 Extreme will have four PCI-E 2.0 x16 slots but there is a bit of a story to tell here. The PCI-E slots are paired in groups of two – if you use just the two blue x16 slots (one from each group), they will operate electronically at x16. If you use one x16 and one orange x16 slot in the same group, each will operate at x8 electronically. If you use all four x16 slots, they will all operate electronically at x8. The top two PCI-E x4 slots always run at x4 electronically, no matter what type of setup is in use.
E' così la questione slot...
Stavo rileggendo questo post di Fire e riguardando lo schema di Intel sul x58, credo di aver capito come sia la gestione delle linee PCI-e. L'uso contemporaneo degli slot x16 non dimezzerebbe la velocità ad x8 a tutti, ma solo quegli agli slot che condividono le linee PCI-e. Si potrebbe quindi inserire una scheda video nel primo slot x16 del primo gruppo (colore blu nella mobo qui sotto)
http://images.tweaktown.com/imagebank/news_tpe-gigabytex58-aug08-012l.png
lasciare libero il primo slot del secondo gruppo (colore arancione) e sfruttare i due slot secondari del primo (blu) e secondo gruppo (arancione) per usare controller SAS o schede Gigabit x8 lasciando invariata l'operabilità elettrica del primo slot (colore blu) a x16.
Se così fosse, ciò farebbe felici alcuni utenti di questo forum, me compreso, che cercano una mobo dove infilare carte x8.
Speriamo bene.:D
Ma anke con le attuali mobo X48 é possibile utilizzare una sk pci-express 16X 2.0 (a piena velocità, insomma) sul 1° solt e usare il 2° slot pci express ke so, X un controller sas a 4 o 8 linee ? Xkè se fose cosi' mi aiuterebbe a decidere ke sk comprare :cool:
K Reloaded
27-08-2008, 11:33
L'altro eventuale problema è che se i 3GB non ti bastano devi andare ai 6GB, e parlando di DDR3 ancora sono bei soldini in più...
ah ecco, un altro motivo in + allora ...
88diablos
27-08-2008, 11:37
L'altro eventuale problema è che se i 3GB non ti bastano devi andare ai 6GB, e parlando di DDR3 ancora sono bei soldini in più...
beh 3 gb in triple channel penso che bastano eccome:D
K Reloaded
27-08-2008, 11:38
beh 3 gb in triple channel penso che bastano eccomi:D
:sofico:
squall_seed
27-08-2008, 11:38
adesso si scopre che nehalem eredita direttamente dallo sfortunato pentium pro... ma per favore :mbe:
......
:D :stordita: lol
il pentium pro non era poi tanto sfigato poverino.... :sofico:
Ma anke con le attuali mobo X48 é possibile utilizzare una sk pci-express 16X 2.0 (a piena velocità, insomma) sul 1° solt e usare il 2° slot pci express ke so, X un controller sas a 4 o 8 linee ? Xkè se fose cosi' mi aiuterebbe a decidere ke sk comprare
Io fossi in te aspetterei l'uscita dei Nehalem e poi comprei il medio/Top dell'attuale che sicuramente scendera drasticamente di prezzo nell'arco di 2 mesi dall'uscita delle nuove cpu tra un paio di anni aggiornerei di nuovo...
Mah, a qst punto mi accontenterò di un vecchio Pci-X su P5Q Ws:cool: Aspettare X acquistare una mobo di fascia consumer costosa, con dell' altrettanto costosa ram per poi sostituire tutto tra 2/3 anni non m pare una buona idea. Tanto non potrai mai mettere insieme il pc "definitivo" da cui tanto meglio spenderci -, no ? Dopotutto ho a disposizione un quantitativo di € limitati, e tra acquistare un nuovo pc, sostituire gli ammortizzatori posteriori alla moto e se ci rientro andare a sciare non mi bastano, quindi tra le 3 cose il pc é la prima ke sacrifico :cool:
E' così la questione slot...
Ma anke con le attuali mobo X48 é possibile utilizzare una sk pci-express 16X 2.0 (a piena velocità, insomma) sul 1° solt e usare il 2° slot pci express ke so, X un controller sas a 4 o 8 linee ? Xkè se fose cosi' mi aiuterebbe a decidere ke sk comprare :cool:
Sulle x48 si è limitati a x4 elettronicamente effettive e lo stesso vale per la serie WS di Asus che usa un chip simile a quello delle Ati x2 per ridistribuire automaticamente le linee disponibili a seconda delle richieste. Tutto ciò per via del numero inferiore di linee PCI-e.
Aspettare le x58 e prendere una x48?
Se non si hanno necessità particolari penso che sarà una scelta azzeccata e condivisa da molti. Il Penrym associato al x48 è un ottima soluzione che regalerebbe soddisfazioni sia ai gamer che ai deskoppettari per ancora qualche anno. Basterà solo cambiare la sk video con buona pace del portafogli e un bel chi se ne frega di SATA 3 e USB 3.0. Per un uso senza pretese particolari, i controller SATA2 del ICH9R e del ICH10R sono più che soddisfacenti. E poi, detto tra noi, non si vive solo di benchmarks!:D
Mah, a qst punto mi accontenterò di un vecchio Pci-X su P5Q Ws:cool: Aspettare X acquistare una mobo di fascia consumer costosa, con dell' altrettanto costosa ram per poi sostituire tutto tra 2/3 anni non m pare una buona idea. Tanto non potrai mai mettere insieme il pc "definitivo" da cui tanto meglio spenderci -, no ? Dopotutto ho a disposizione un quantitativo di € limitati, e tra acquistare un nuovo pc, sostituire gli ammortizzatori posteriori alla moto e se ci rientro andare a sciare non mi bastano, quindi tra le 3 cose il pc é la prima ke sacrifico :cool:
Infatti il prossimo hanno dovrebberro essere disponibili i nuovi controller SAS2! :D
E noi a correre dietro la carota!:eek: :rotfl:
goldorak
27-08-2008, 13:32
Oggi molti hanno 4GB, perché non contenti di 2GB. Di questi quanti vorranno tornare indietro?
:asd: io sono prossimo al passaggio a xp 64 e metto il massimo di ram supportata sulla mia mobo 8 GB ddr2 ecc senza prociugarmi il conto in banca.
Fin quando non sara' possibile fare la stessa cosa (in termini di prezzi) con le ddr3 niente Nehalem. :D
Aspettare le x58 e prendere una x48?
Se non si hanno necessità particolari penso che sarà una scelta azzeccata e condivisa da molti. Il Penrym associato al x48 è un ottima soluzione che regalerebbe soddisfazioni sia ai gamer che ai deskoppettari per ancora qualche anno. Basterà solo cambiare la sk video con buona pace del portafogli e un bel chi se ne frega di SATA 3 e USB 3.0. Per un uso senza pretese particolari, i controller SATA2 del ICH9R e del ICH10R sono più che soddisfacenti. E poi, detto tra noi, non si vive solo di benchmarks!:D
infatti la gente si impalla a guardare i benchmarcks...invece di vedere l'utilizzo pratico del pc che è una cosa completamente differente, assolutamente agli antipodi!! :O
Aspettare le x58 e prendere una x48?
Se non si hanno necessità particolari penso che sarà una scelta azzeccata e condivisa da molti. Il Penrym associato al x48 è un ottima soluzione che regalerebbe soddisfazioni sia ai gamer che ai deskoppettari per ancora qualche anno. Basterà solo cambiare la sk video con buona pace del portafogli e un bel chi se ne frega di SATA 3 e USB 3.0. Per un uso senza pretese particolari, i controller SATA2 del ICH9R e del ICH10R sono più che soddisfacenti. E poi, detto tra noi, non si vive solo di benchmarks!:D
è quello che faro ;)
astroimager
27-08-2008, 16:09
quall'articolo potevo sciverlo pure io senza nemmeno averlo mai visto da lontano il nehalem :mbe:
non c'e ombra ne di test ne di bench ne di nient :O
ripropongo il questito secondo voi perche hanno riabbasto l'fbs e aumentato il molti?
133 x 20 non lo vedo dai tempi degli atholn xp 1800 anzi prima (vabbe il molti non arrivava a 20 ma il concetto e quello)
Io noto una chiara inversione di tendenza siamo arrivati a fbs altissimi da 33 a 550 ora si torna a 133 non capisco l'unica cosa che mi viene in mente e che si sia arrivati ai limiti.... e tocca ripartire pompando sul moltiplicatore.
Comunque un motivo tecnico ci deve essere spero che quando usciranno si sveli l'arcano....
Fudzilla, se non spara cazzate, spesso dice ovvietà. Vorrei pur vedere che un procio extreme da 1000$ con frequenza def di 3.2 non arriva a 4 GHz. :asd:
Comunque, per il tuo dubbio, basta osservare un attimo le architetture AMD per scoprire che la base dei tempi è ferma a 200 MHz da 5 anni.
Tecnicamente Nehalem non sarà molto diverso dal K10, quindi le prestazioni vengono soprattutto dall'incremente della frequenza* della CPU e del NB interno alla CPU.
Nei Phenom attuali, per esempio, è possibile overclockare il NB del 30%, e questo porta a un incremento tutt'altro che trascurabile in alcune applicazioni!
Per le prestazioni verso le GPU e SB, tutto dipende dalla bontà del QPI, ma non credo che abbia problemi a gestire i flussi in ambito non-server.
Però non ho capito che bus sarà utilizzato per le piattaforme mainstream del prossimo anno... si sa qualcusa?
* questo ovviamente lo puoi ottenere, se possibile, agendo su moltiplicatori e voltaggi, o direttamente sul bus (in AMD si chiama più propriamente HTT), sempre regolando opportunamente i voltaggi.
Difficile dire fino a che punto saranno stabili i moltiplicatori e quando sarà necessario salire di bus. O, nelle versioni non extreme, capire fino a che punto è possibile alzare la base dei tempi mantenendo stabile il sistema.
Queste incognite potrebbero aver generato la notizia che le CPU di fascia media e bassa, non disponendo di molti sbloccati, sarebbero limitate in OC: più che voluto da Intel, potrebbe essere un limite fisiologico dell'architettura.
squall_seed
27-08-2008, 17:09
Mah, a qst punto mi accontenterò di un vecchio Pci-X su P5Q Ws:cool: Aspettare X acquistare una mobo di fascia consumer costosa, con dell' altrettanto costosa ram per poi sostituire tutto tra 2/3 anni non m pare una buona idea. Tanto non potrai mai mettere insieme il pc "definitivo" da cui tanto meglio spenderci -, no ? Dopotutto ho a disposizione un quantitativo di € limitati, e tra acquistare un nuovo pc, sostituire gli ammortizzatori posteriori alla moto e se ci rientro andare a sciare non mi bastano, quindi tra le 3 cose il pc é la prima ke sacrifico :cool:
Forse non ci siamo capit oi mi sono espresso male io....
Io dicevo di aspettare che esca neha-laden :D ciò buttera ancor di più giù i prezzi delle varie ddr2 e forse anche le 3
inoltre ammazzera le varie asus- dfi- gigabyte x38 x48 e 790i per via dei socket "vecchi" paradossalmente potresti trovare una asus extreme 2 a 100 €
o una gigabyte x48 q46t o una diamond msi anche a meno... perche ormai per cpu "VECCHIE"
squall_seed
27-08-2008, 17:17
Mah, a qst punto mi accontenterò di un vecchio Pci-X su P5Q Ws:cool: Aspettare X acquistare una mobo di fascia consumer costosa, con dell' altrettanto costosa ram per poi sostituire tutto tra 2/3 anni non m pare una buona idea. Tanto non potrai mai mettere insieme il pc "definitivo" da cui tanto meglio spenderci -, no ? Dopotutto ho a disposizione un quantitativo di € limitati, e tra acquistare un nuovo pc, sostituire gli ammortizzatori posteriori alla moto e se ci rientro andare a sciare non mi bastano, quindi tra le 3 cose il pc é la prima ke sacrifico :cool:
Non ci siamo capiti dicevo aspetta neha-laden :cool:
ciò buttera i prezzi già parecchio bassi di cpu motherboard e ddr2 (e forse 3)
gia i q9450 si trovano a 220 € 4G di DDR2 a 1222 MHZ le trovi per 200 € (trovi anche ddr3 2000 Mhz non per tantissimo)
quindi potresti comprartu paradossalmente una asus extreme 2 per 100 € perche avente un socket "VECCHIO" per cpu "VECCHIE" :rolleyes:
OPPURE UNA GIGABYTE x48 xqt o una msi diamond o una dfi quello che ti pare insomma per 100 €
i q9450 se oggi sono a 220 con l'uscita di bin-nehalem arriveranno subito a non più di 150 € (ed e un signor processore) e le ddr2 non ne parliamo nemmeno.
Poi punti su una bella sckeda video hd 4870 x2 della shappire che rulla un casino e oppia e la trovi già a 380€ (se vuoi giocare) tra 3-4 mesi forse si trovera per 310/320€, vai con un po di overclock in generale e con 600 euro ti ritrovi un carroarmato tra le gambe... che va sia con giochi che col multitasking e video (se ne fai) e per 2 tre anni vedrai che rullera con qualsiasi soft uscira
ecco cosa penso (considerando che non sei uno che butta i soldi a quanto
capito
è la cosa + giusta da fare, comprare penryn proprio quando uscirà nehalem, quindi saltarlo e passare a westmere o sandy bridge...
ekerazha
27-08-2008, 18:23
è la cosa + giusta da fare, comprare penryn proprio quando uscirà nehalem, quindi saltarlo e passare a westmere o sandy bridge...
O magari era giusto comprare Conroe, saltare Penryn e passare a Nehalem :D
sapevo che qualcuno l'avrebbe detto :asd:
astroimager
27-08-2008, 19:01
O magari era giusto comprare Conroe, saltare Penryn e passare a Nehalem :D
Dipende se dài maggiore peso alla potenza o all'efficienza energetica / costi, sostanzialmente.
Però c'è comunque una bella differenza fra Conroe e Nehalem. I C2D sono stati dei piccoli mostri di IPC e OC, fin da subito. "Core" è stato un virus che ha infettato prima il settore mobile, poi Apple, quindi desktop e workstation, infine server, per invadere tutto il mercato, con grande soddisfazione di tutti.
Nehalem parte dall'alto, non dal basso: mostrerà i muscoli solo in applicazioni e ambienti fortemente favorevoli a questa architettura. Il percorso è al contrario: i costi e la convenienza saranno ben differenti.
Westmere is better! Più scelta e chiarezza di socket/mobo, superamento di eventuali colli di bottiglia, applicazioni più ottimizzate per la nuova architettura, costi e consumi notevolmente inferiori grazie ai 32nm e alla litografia ad immersione.
Forse non ci siamo ENTRAMBI capiti.
Allora : il desktop lo uso x internet,fogli elettronici, matlab e quando capita X lavoro, utilizzando software tipo Autocad, 3DsMax etc etc. L' unico gioco installato é...Warcraft_2 :ahahah: il quale non ha bisogno di sk grafiche tanto dedicate. Specie nel rendering, mi farebbero davvero comodo le capacità multi-treating di Nehalem Bloomfield, ma ho dubbi sui costi e sull' effettiva upgradabilità del socket quando usciranno i westmere. Sk grafiche Ati non se ne parla, proveò una ge-force di fascia media, magari addirittura usata se la trovo, tanto X vedere kome vanno i driver prima di spendere X una Quadro (ke sul laptop rulla una meraviglia).
Viste le dimensioni dei file ke salvo e sposto un BUON sistema raid 0 sarebbe l' ottimo, da cui necessità di controller dedicato su bus Pci-X o Pci-Express ALMENO 4X (come quello della P6T Deluxe tra l' altro). Nein X i controller integrati, ho brutte esperienze coi Promise e altri ce l' hanno con l' Ich10r, specie col s.o. che andrei a utilizzare : Xp Pro X64.
ekerazha
27-08-2008, 19:44
Westmere is better! Più scelta e chiarezza di socket/mobo, superamento di eventuali colli di bottiglia, applicazioni più ottimizzate per la nuova architettura, costi e consumi notevolmente inferiori grazie ai 32nm e alla litografia ad immersione.
Westmere è solo lo step "tick" di Nehalem, non aspettarti rivoluzioni. Il salto maggiore è tra Penryn e Nehalem, non tra Nehalem e Westmere. Che poi Westmere sarà better non c'è dubbio, come Sandy Bridge sarà better di Westmere.
Inoltre di certo nella vita vi è solo la morte, ma Westmere dovrebbe uscire per socket 1366 mentre non si sa ancora se uscirà mai una versione di Westmere per il socket 1160.
squall_seed
27-08-2008, 22:33
Forse non ci siamo ENTRAMBI capiti.
Allora : il desktop lo uso x internet,fogli elettronici, matlab e quando capita X lavoro, utilizzando software tipo Autocad, 3DsMax etc etc. L' unico gioco installato é...Warcraft_2 :ahahah: il quale non ha bisogno di sk grafiche tanto dedicate. Specie nel rendering, mi farebbero davvero comodo le capacità multi-treating di Nehalem Bloomfield, ma ho dubbi sui costi e sull' effettiva upgradabilità del socket quando usciranno i westmere. Sk grafiche Ati non se ne parla, proveò una ge-force di fascia media, magari addirittura usata se la trovo, tanto X vedere kome vanno i driver prima di spendere X una Quadro (ke sul laptop rulla una meraviglia).
Viste le dimensioni dei file ke salvo e sposto un BUON sistema raid 0 sarebbe l' ottimo, da cui necessità di controller dedicato su bus Pci-X o Pci-Express ALMENO 4X (come quello della P6T Deluxe tra l' altro). Nein X i controller integrati, ho brutte esperienze coi Promise e altri ce l' hanno con l' Ich10r, specie col s.o. che andrei a utilizzare : Xp Pro X64.
Ora ho capito fai un utilizzo molto settoriale ti serve capacita elaborativa e una sk video da lavoro e non per gioco...
in questo caso l'ideale sarebbe il nehalem + quadro ma credo che anche con un buon penryn come capacita elaborativa non saresti messo male... e tutto da rapportare all'utilizzo effettivo, carichi di lavoro e prezzo...
astroimager
27-08-2008, 23:28
Westmere è solo lo step "tick" di Nehalem, non aspettarti rivoluzioni. Il salto maggiore è tra Penryn e Nehalem, non tra Nehalem e Westmere. Che poi Westmere sarà better non c'è dubbio, come Sandy Bridge sarà better di Westmere.
L'abbandono della litografia a secco non è una cosa da poco. Inoltre l'architettura è abbastanza complessa, e decisamente sperimentale per Intel: secondo me i margini di miglioramento saranno maggiori rispetto a Conroe/Penryn. Ora la CPU include tre livelli di cache, un memory controller, una logica di gestione nativa...
L'unica cosa che innalza a dismisura Nehalem rispetto a Penryn è la potenza in multi-th.
Per il resto, la vecchia piattaforma sarà concorrenziale ancora per molto tempo...
Inoltre di certo nella vita vi è solo la morte, ma Westmere dovrebbe uscire per socket 1366 mentre non si sa ancora se uscirà mai una versione di Westmere per il socket 1160.
Si prospetta veramente longevo questo 1160, complimenti! Rimanere con gran parte della produzione non mobile su litografia classica è proprio una furbata...
ekerazha
28-08-2008, 00:13
L'abbandono della litografia a secco non è una cosa da poco.
Non è una cosa da poco per i produttori di microprocessori... per l'utente finale è abbastanza irrilevante come vengono prodotti :D Per me possono stampare i chip pure con con l'imposizione delle mani se ci riescono :D
Inoltre l'architettura è abbastanza complessa, e decisamente sperimentale per Intel: secondo me i margini di miglioramento saranno maggiori rispetto a Conroe/Penryn. Ora la CPU include tre livelli di cache, un memory controller, una logica di gestione nativa...
Non c'è nulla di innovativo in una cache L3 e non vedo quali incredibili cambiamenti possano essere apportati al controller di memoria integrato. La microarchitettura di Westmere (tick) sarà sempre la Nehalem, la nuova microarchitettura la si avrà appunto con Sandy Bridge (tock).
skusate una domanda: quali saranno i socket server? mi è venuto un dubbio... secondo me il 1366 sostituisce il 771, non il 775...
vista così avrebbe forse più senso.
ekerazha
28-08-2008, 00:27
skusate una domanda: quali saranno i socket server? mi è venuto un dubbio... secondo me il 1366 sostituisce il 771, non il 775...
vista così avrebbe forse più senso.
Alcune versioni server useranno il 1366, altre sembra un presunto "1567".
:muro:
spero che sia riservato alla serie 7000...
anche perchè ho letto che l'attuale serie di xeon 3000 andrà su piattaforma 1160...
quindi sembrerebbe
3000: 1160
5000: 1366
7000: 1567
così sarebbe ok
Che macello con sti nuovi socket :D
Che macello con sti nuovi socket :D
3 socket è da pazzi...
cmq very strange... finora l'LGA775 è durato moltissimo ed è stato l'unico e "universale"... ora invece pare si vada in controtendenza: forse i nuovi socket non saranno compatibili con 32nm e ce n'è più di uno per nehalem... bah...
cmq very strange... finora l'LGA775 è durato moltissimo ed è stato l'unico e "universale"... ora invece pare si vada in controtendenza: forse i nuovi socket non saranno compatibili con 32nm e ce n'è più di uno per nehalem... bah...
a me non piace...così se uno vuole cambiare procio deve cambiare anche mobo...
benvenga il nuovo socket, però che ne facessero 1 per le postazioni single socket e uno per quelle dual/quad socket.
astroimager
28-08-2008, 10:24
Non è una cosa da poco per i produttori di microprocessori... per l'utente finale è abbastanza irrilevante come vengono prodotti :D Per me possono stampare i chip pure con con l'imposizione delle mani se ci riescono :D
Certo, certo... rese più elevate e costi più bassi non ti dicono niente?
Non c'è nulla di innovativo in una cache L3 e non vedo quali incredibili cambiamenti possano essere apportati al controller di memoria integrato. La microarchitettura di Westmere (tick) sarà sempre la Nehalem, la nuova microarchitettura la si avrà appunto con Sandy Bridge (tock).
L3: incremento dimensioni, diminuzione della latenza e logica di accesso migliorata
Mem. controller: supporto a memorie sempre più veloci
Già la possibilità di avere un clock elevato del NB, o poterlo alzare a piacimento, porta a incrementi tutt'altro che trascurabili. Nel Phenom, alzarlo da 2.0 a 2.6 GHz (+30%) porta a un incremento del 5% nelle prestazioni.
Chi ti dice che Nehalem sia pienamente ottimizzato, al debutto, e sia "elastico" come potrebbe essere Westmere? Cosa ne sai a cosa può portare l'ottimizzazione di "un'orchestra" come quella che sta dentro queste nuove CPU?
Guarda che Conroe prima del debutto aveva alle spalle 5 anni di continui aggiustamenti, Nehalem no. Ma tu ti ostini a dire che è la stessa cosa, perché magicamente ora Intel stampa microarchitetture ogni 2 anni con incrementi del 50% a botta :rolleyes:
Foglia Morta
28-08-2008, 10:35
Con X58 lo SLI sarà possibile anche senza NF200.
Devo ancora leggerlo tutto l'articolo ma pare sia dovuto al fatto che nVidia non ha ottenuto la licenza QPI
http://techreport.com/discussions.x/15405
ekerazha
28-08-2008, 10:43
[messaggio doppio incompleto]
ekerazha
28-08-2008, 10:49
Certo, certo... rese più elevate e costi più bassi non ti dicono niente?
Questo può essere (anche se ho la sensazione che il costo delle CPU per l'utente finale non dipenda esattamente dal costo di produzione... ma che ci sia un buon ricarico di prezzo :D ), ma sarebbe comunque una conseguenza indiretta... non ho preferenze sulle tecniche litografiche in sè :D
L3: incremento dimensioni, diminuzione della latenza e logica di accesso migliorata
Mem. controller: supporto a memorie sempre più veloci
Già la possibilità di avere un clock elevato del NB, o poterlo alzare a piacimento, porta a incrementi tutt'altro che trascurabili. Nel Phenom, alzarlo da 2.0 a 2.6 GHz (+30%) porta a un incremento del 5% nelle prestazioni.
Ripeto: sul fatto che Westmere avrà dei miglioramenti non c'è dubbio ed è lapalissiano, come Sandy Bridge avrà miglioramenti rispetto a Westmere etc. etc. ma ripeto: Westmere è la CPU della fase tick ed utilizzerà sempre l'architettura Nehalem, quindi i cambiamenti e miglioramenti saranno sempre marginali rispetto a quelli tra Penryn e Nehalem (o a quelli che ci saranno tra Westmere e Sandy Bridge).
Cache più grande e veloce? Può essere, ma sia per Westmere che per Sandy Bridge sono sempre previsti 2-3 MB di cache L3 per numero di core (nel caso di Sandy Bridge, con una cache L3 più veloce rispetto a Nehalem ma comunque non velocissima e sempre più lenta della L2 di Penryn), quindi la tendenza sembra immutata.
Supporto a memorie più veloci in Westmere? Può essere (anche se le DDR3 1333 o 1600 mi sembrano già valide a breve termine), ma anche questo non sembrerebbe previsto.
Per Westmere si prevede più che altro il die shrink a 32 nm e l'aggiunta di istruzioni ottimizzate per l'utilizzo dell'algoritmo di crittografia AES.
Chi ti dice che Nehalem sia pienamente ottimizzato, al debutto, e sia "elastico" come potrebbe essere Westmere? Cosa ne sai a cosa può portare l'ottimizzazione di "un'orchestra" come quella che sta dentro queste nuove CPU?
Perchè la microarchitettura rimarrà la stessa e non ci saranno sconvolgimenti.
Guarda che Conroe prima del debutto aveva alle spalle 5 anni di continui aggiustamenti, Nehalem no. Ma tu ti ostini a dire che è la stessa cosa, perché magicamente ora Intel stampa microarchitetture ogni 2 anni con incrementi del 50% a botta :rolleyes:
Anche Conroe usava una nuova microarchitettura (la "Core", che anche se il nome potrebbe trarre in inganno, è stata usata sui Core 2 e non sui Core "1"). Non so se ogni 2 anni si avranno incrementi del 50%, resta il fatto che, come già detto, i maggiori cambiamenti si hanno al cambiamento dell'architettura (fase "tock").
simoorta
28-08-2008, 12:43
Questo può essere (anche se ho la sensazione che il costo delle CPU per l'utente finale non dipenda esattamente dal costo di produzione... ma che ci sia un buon ricarico di prezzo :D ), ma sarebbe comunque una conseguenza indiretta... non ho preferenze sulle tecniche litografiche in sè :D
Ripeto: sul fatto che Westmere avrà dei miglioramenti non c'è dubbio ed è lapalissiano, come Sandy Bridge avrà miglioramenti rispetto a Westmere etc. etc. ma ripeto: Westmere è la CPU della fase tick ed utilizzerà sempre l'architettura Nehalem, quindi i cambiamenti e miglioramenti saranno sempre marginali rispetto a quelli tra Penryn e Nehalem (o a quelli che ci saranno tra Westmere e Sandy Bridge).
Cache più grande e veloce? Può essere, ma sia per Westmere che per Sandy Bridge sono sempre previsti 2-3 MB di cache L3 per numero di core (nel caso di Sandy Bridge, con una cache L3 più veloce rispetto a Nehalem ma comunque non velocissima e sempre più lenta della L2 di Penryn), quindi la tendenza sembra immutata.
Supporto a memorie più veloci in Westmere? Può essere (anche se le DDR3 1333 o 1600 mi sembrano già valide a breve termine), ma anche questo non sembrerebbe previsto.
Per Westmere si prevede più che altro il die shrink a 32 nm e l'aggiunta di istruzioni ottimizzate per l'utilizzo dell'algoritmo di crittografia AES.
Perchè la microarchitettura rimarrà la stessa e non ci saranno sconvolgimenti.
Anche Conroe usava una nuova microarchitettura (la "Core", che anche se il nome potrebbe trarre in inganno, è stata usata sui Core 2 e non sui Core "1"). Non so se ogni 2 anni si avranno incrementi del 50%, resta il fatto che, come già detto, i maggiori cambiamenti si hanno al cambiamento dell'architettura (fase "tock").
la microarchitettura dei conroe è MEROM...
comuqnue dopo queste informazioni mi sto convincendo sempre più su westmere, ma anche sandy bridge mi alletta, ma prevedo che prima del 2010/2011 non la vedremo...:rolleyes:
ekerazha
28-08-2008, 12:49
la microarchitettura dei conroe è MEROM...
No. Merom è il nome in codice della prima versione mobile di Core 2. La microarchitettura si chiama "Intel Core" ed è alla base di tutte e solo le CPU "Core 2" (non le Core "1" che come già detto, a dispetto del nome, utilizzavano una versione evoluta della microarchitettura P6, molto simile a quella del Pentium M).
guardate questo
http://www.techpowerup.com/69705/Phenom_FX_in_the_Works_AMD_to_take_Another_shot_at...Kentsfield.html
Si l'avevo letto... stavo giusto per pubblicare un articolo tu-sai-dove in merito :D
Cmq finchè i proci AMD ci metteranno il doppio del tempo al SuperPI (rispetto ad Intel, a parità di frequenza) non li degnerò di uno sguardo
goldorak
28-08-2008, 13:04
Si l'avevo letto... stavo giusto per pubblicare un articolo tu-sai-dove in merito :D
Cmq finchè i proci AMD ci metteranno il doppio del tempo al SuperPI (rispetto ad Intel, a parità di frequenza) non li degnerò di uno sguardo
Sei uno che ha capito tutto del SuperPi. :sofico:
astroimager
28-08-2008, 13:25
Si l'avevo letto... stavo giusto per pubblicare un articolo tu-sai-dove in merito :D
Cmq finchè i proci AMD ci metteranno il doppio del tempo al SuperPI (rispetto ad Intel, a parità di frequenza) non li degnerò di uno sguardo
Ma perché usi applicazioni che utilizzano il sistema di computazione di SPI?
Penso che i metri di valutazione nella scelta di una CPU siano ben altri...
Ma perché usi applicazioni che utilizzano il sistema di computazione di SPI?
Penso che i metri di valutazione nella scelta di una CPU siano ben altri...
Contento tu... io credo che AMD stia toppando ancora. OK, il SPI non è nell'uso quotidiano, però dai... c'è una differenza abissale! +100% di performance in più con Intel rispetto ad AMD... non sono mica noccioline! :fagiano:
goldorak
28-08-2008, 13:37
Contento tu... io credo che AMD stia toppando ancora. OK, il SPI non è nell'uso quotidiano, però dai... c'è una differenza abissale! +100% di performance in più con Intel rispetto ad AMD... non sono mica noccioline! :fagiano:
Sai quanto puoi guadagnare impostando delle ottimizzazioni a livello di compilazione ? Inoltre il SP serve solo a confrontare prestazioni all'interno delle stessa architettura. Anche restando in casa Intel, confrontare un P3 con un P4 o un C2D sulla base del SP e' una idiozia grande quanto una casa.
Pensa poi quando vuoi confrontare due microarchitetture completamente diverse, AMD e Intel. :rolleyes:
Credo che gli slides dell'articolo pubblicato oggi dalla redazione (http://www.hwupgrade.it/articoli/skmadri/2029/supporto-nativo-sli-per-schede-madri-intel-x58_index.html) (in particolare questo)
http://www.hwupgrade.it/articoli/skmadri/2029/1.jpg
vadano a confermare quanto avevo ipotizzato in un mio post precedente (http://www.hwupgrade.it/forum/showpost.php?p=23830926&postcount=1942) e ciò farebbe felice non pochi ed una piattaforma come quella di Gigabyte (http://images.tweaktown.com/imagebank/news_tpe-gigabytex58-aug08-012l.png) potrebbe rivelarsi un ottima soluzione presentanto sia l'altamente probabile supporto a Westmere sia la flessibilità di slot, con un bel chi se ne frega del prossimo ICH11R (?) con supporto SATA3.
Per non parlare della possibilità di riciclare negli anni a venire una mobo del genere per creare un portentoso file server.
I contorni della mia prossima workstation si fanno sempre più netti. :D
bisogna vedere però come andranno i westmere su questa mobo
ekerazha
28-08-2008, 14:01
Sai quanto puoi guadagnare impostando delle ottimizzazioni a livello di compilazione ? Inoltre il SP serve solo a confrontare prestazioni all'interno delle stessa architettura. Anche restando in casa Intel, confrontare un P3 con un P4 o un C2D sulla base del SP e' una idiozia grande quanto una casa.
Pensa poi quando vuoi confrontare due microarchitetture completamente diverse, AMD e Intel. :rolleyes:
In realtà SuperPI serve banalmente a calcolare pi-greco utilizzando se non sbaglio qualcosa di simile all'algoritmo di Gauss-Legendre. Per fare ciò credo che SuperPI utilizzo gli interi e non i floating-point (pi è un numero irrazionale quindi non è ovviamente possibile farlo stare in un registro della CPU :D quindi le cifre decimali vanno in un certo senso "emulate" e di solito ci si appoggia agli interi).
Quindi concludendo... con SuperPI misuri principalmente la velocità di calcolo con gli interi in single-thread, in parte influenzata anche dalla cache della CPU e dalla memoria centrale. Ci puoi confrontare qualsiasi CPU tu voglia e alla fine puoi sapere quale CPU è più veloce nel calcolo di pi-greco effettuato con questo criterio e quindi presumibilmente nella gestione degli interi... che non è una cosa proprio irrilevante, anche se ovviamente non si può generalizzare troppo il risultato ottenuto dal solo SuperPI, che contempla solo uno dei molti possibili scenari.
ok visto che di SPI non vi fidate, aspettiamo benchmark più corposi. Aspettiamo di vedere nehalem vs amd super-overclocked e poi ne riparliamo :D
goldorak
28-08-2008, 14:09
In realtà SuperPI serve banalmente a calcolare pi-greco utilizzando se non sbaglio qualcosa di simile all'algoritmo di Gauss-Legendre. Per fare ciò credo che SuperPI utilizzo gli interi e non i floating-point (pi è un numero irrazionale quindi non è ovviamente possibile farlo stare in un registro della CPU :D quindi le cifre decimali vanno in un certo senso "emulate" e di solito ci si appoggia agli interi).
Quindi concludendo... con SuperPI misuri principalmente la velocità di calcolo con gli interi in single-thread, in parte influenzata anche dalla cache della CPU e dalla memoria centrale. Ci puoi confrontare qualsiasi CPU tu voglia e alla fine puoi sapere quale CPU è più veloce nel calcolo di pi-greco effettuato con questo criterio e quindi presumibilmente nella gestione degli interi... che non è una cosa proprio irrilevante, anche se ovviamente non si può generalizzare troppo il risultato ottenuto dal solo SuperPI, che contempla solo uno dei molti possibili scenari.
Sai che sarebbe interessante fare un test SuperPi sia su un Nehalem che Penryn di pari frequenza ? Penso che ne escano delle belle, vantaggio per Penryn dico io, in grande parte a causa dell'enorme quantitativo di cache L2. Cosa ne deduciamo allora, che Penryn e' meglio di Nehalem ? :asd: Vedi come le tue considerazioni cadono nel vuoto.
Il SP per confrontare processori appartenenti a famiglie diverse vale meno di zero. Ma tanto, a chi vive di benchmark non glielo farai mai capire questo. :O
ekerazha
28-08-2008, 14:19
Sai che sarebbe interessante fare un test SuperPi sia su un Nehalem che Penryn di pari frequenza ? Penso che ne escano delle belle, vantaggio per Penryn dico io, in grande parte a causa dell'enorme quantitativo di cache L2. Cosa ne deduciamo allora, che Penryn e' meglio di Nehalem ? :asd: Vedi come le tue considerazioni cadono nel vuoto.
Il SP per confrontare processori appartenenti a famiglie diverse vale meno di zero. Ma tanto, a chi vive di benchmark non glielo farai mai capire questo. :O
Per quello Nehalem ha una cache L3 più grande della cache L2 di Penryn, oltre all'interfaccia QPI verso la memoria centrale, quindi non sono così sicuro che vincerebbe Penryn ;) Detto questo... se vincesse Penryn (ma non ne sarei così sicuro ;) ) otterresti che in quello specifico scenario Penryn è più veloce: non ci sono dietrologie da cercare ;)
goldorak
28-08-2008, 14:30
Per quello Nehalem ha una cache L3 più grande della cache L2 di Penryn, oltre all'interfaccia QPI verso la memoria centrale, quindi non sono così sicuro che vincerebbe Penryn ;) Detto questo... se vincesse Penryn (ma non ne sarei così sicuro ;) ) otterresti che in quello specifico scenario Penryn è più veloce: non ci sono dietrologie da cercare ;)
Appunto, il SP denota uno specifico scenario di utilizzo ne piu' ne meno.
Da qui a dire che un architettura nel suo complesso fa schifo solo perche' non rende bene al SP ce ne passa di acqua sotto i ponti. :sofico:
ekerazha
28-08-2008, 14:41
Appunto, il SP denota uno specifico scenario di utilizzo ne piu' ne meno.
Da qui a dire che un architettura nel suo complesso fa schifo solo perche' non rende bene al SP ce ne passa di acqua sotto i ponti. :sofico:
Ovvio... certo che se si va bene o disastrosamente in un determinato scenario (che può essere più o meno comune a più di una applicazione, non riguarda necessariamente il solo SuperPI, perchè una situazione simile potrebbe presentarsi anche in altri software), si può già avere una prima indicazione. Nella migliore delle ipotesi (ovvero che in tutti gli altri scenari abbia invece prestazioni da record) ne ricaverò comunque che la CPU non è ben "bilanciata" e ha un comportamento da Mr. Hyde in alcune circostanze.
ekerazha
28-08-2008, 14:55
Il SPI non rappresenta nessuno scenario di utilizzo reale. Quindi è inutile e qualunque risultato ne esca è del tutto irrilevante e non rappresenta le prestazioni della CPU né in assoluto né relativamente ad altre CPU, nemmeno della stessa architettura.
Quindi secondo te SuperPI è l'unica applicazione ad eseguire calcoli con gli interi? Mi sa che hai un po' di confusione in testa.
ekerazha
28-08-2008, 15:02
Elencami le applicazioni che certo conosci in cui si ottengono differenze di prestazioni fra le varie CPU uguali a quelle riscontrate con il SuperPI.
Non hai risposto alla domanda.
Quindi secondo te SuperPI è l'unica applicazione ad eseguire calcoli con gli interi?
ekerazha
28-08-2008, 15:09
Mentre ci pensi ti dò qualche aiutino... software di filtraggio (es. SpamAssassin etc.), software di compressione (es. codec H.264), software di parsing (es. parser XML) etc.
ekerazha
28-08-2008, 15:11
Ti ho già anticipato.
ekerazha
28-08-2008, 15:13
Non ho detto che non ci sono applicazioni che fanno calcoli interi, ho detto che il tipo di lavoro (del tutto sprecato) che fa una CPU con SPI non rappresenta nessun ambito applicativo reale.
Quindi ti contraddici, proprio perchè la tipologia di calcolo eseguita da SuperPI può essere appunto comune ad altre applicazioni.
ekerazha
28-08-2008, 15:14
Non vedo tabelle...
Ciccio io ho 4 esami da dare la settimana prossima, le tabelle vai a fartele... ti assicuro che non mi viene in tasca nulla nel convincerti di cose che io so già :D
Dopo le tabelle cosa vuoi, il filmato dell'esecuzione dei test perchè la tabella potrebbe essere falsata? Ma magari anche il video è stato modificato... vuoi venire a casa mia? :D
ekerazha
28-08-2008, 15:27
No, non mi contraddico, ma capisco anche che l'italiano è una lingua difficile da padroneggiare.
Non sarà dell'ironia spicciola a risolvere le tue contraddizioni.
P.S.
Che l'italiano sia
Le tabelle non me le faccio perché non ho tempo né voglia di perdere del tempo per cercare di dimostrare una tua tesi che so già essere sbagliata.
Dimenticavo che tu dici cose giuste a priori :D
Ti ho argomentato le motivazioni, ti ho anche citato dei software per farti contento... direi che può bastare. Come già detto a me non viene in tasca nulla... lascio volentieri crogiuolare le persone nella propria ignoranza ;)
:asd: Basta qualche link, con tutti i fanatici del SPI nessuno ha fatto articoli su internet per dimostrarne la grande utilità? :asd:
Se "basta qualche link" sono certo che sarai in grado di trovarlo da solo (valgono anche quelli che mi smentiscono se preferisci), ora dovrei tornare a studiare per gli esami :)
astroimager
28-08-2008, 15:34
... ora dovrei tornare a studiare per gli esami :)
Ecco va, così poi ci illumini con la tua saccen... ops, sapienza.
Ecco va, così poi ci illumini con la tua saccen... ops, sapienza.
:asd:
ekerazha
28-08-2008, 15:56
:asd:
Occhio che ti giochi DeltaPi :asd:
P.S.
Ma che voglia che ho di tornare a studiare per gli esami :asd:
ekerazha
28-08-2008, 16:29
No ti sei dimenticato solo di accompagnare dei fatti alla tua affermazione iniziale per cui se una CPU è lenta al SuperPI allora è lenta nel mondo reale.
Io ti ho risposto che non ci credo né ci ho mai creduto perché nessun fatto mi ha mai indicato il contrario.
Ammettendo come hai ammesso tu stesso che SuperPI non sia l'unica applicazione ad affettuare massicci calcoli sugli interi, sostenere che SuperPI non abbia nulla a che fare con il mondo reale, come affermi sempre tu... è una pura contraddizione.
Te lo spiego in altro modo: se Grande Puffo fa cose che fanno anche altri puffi, non puoi dire che quello che fa Grande Puffo non ha nulla a che fare con il villaggio dei puffi (perchè sono cose che fanno appunto anche altri puffi), altrimenti ti contraddiresti (come per l'appunto ti sei contraddetto).
L'argomentazione si fa con i dati, non con le chiacchiere e ancora tu dati non ne hai mostrato alcuno.
L'argomentazione si fa con le conoscenze techiche delle quali io dispongo... e delle quali tu apparentemente non disponi.
Basterebbe se ci fosse, ma sono certo che non c'è, perché nessuno è in grado di dimostrare il falso a partire dai dati. Per quanto cercherai non troverai una recensione del genere :asd:
Giusto per pietà cito un esempio, così chiudiamo la questione definitivamente e puoi studiare che ne hai bisogno:
H.264 da te citato: http://www.anandtech.com/showdoc.aspx?i=2795&p=12
http://images.anandtech.com/graphs/core2duolaunch_07130680720/12585.png
Ed ecco lo SPI: http://www.legitreviews.com/article/362/10/
http://www.legitreviews.com/images/reviews/362/sp1.jpg
L'E6700 è il 55% più veloce dell'FX-62 nello SPI ma nella codifica H.264 è più veloce del 24%. Questo dimostra che lo SPI, utilizzato per stimare le prestazioni di una CPU in ambito reale non è un metodo attendibile. Infatti in questo scenario che tu consideri aderente alla natura del SuperPI (la codifica H.264) introduce un errore che scientificamente verrebbe definito "tirare a caso".
Direi che possiamo tornare a parlare di cose utili.
Da queste tabelle risulta chiaramente che le CPU più veloci nel SuperPI sono anche le più veloci nell'encoding H.264 (pure nello stesso ordine), quindi la mia tesi, tecnicamente argomentata, è anche perfettamente confermata da queste tabelle (che non ho fatto io).
Ovviamente, non volendo insultare la tua intelligenza, sono sicuro che non ti aspettassi anche identiche percentuali nelle differenze... si tratta di software diversi che utilizzano algoritmi diversi e trattano moli di dati diverse, pur avendo come massimo comun denominatore il fatto di utilizzare massicciamente il calcolo con gli interi.
Insomma, si delinea una situazione ben diversa da quella che affermavi tu, ovvero:
"Il SPI non rappresenta nessuno scenario di utilizzo reale. Quindi è inutile e qualunque risultato ne esca è del tutto irrilevante e non rappresenta le prestazioni della CPU né in assoluto né relativamente ad altre CPU, nemmeno della stessa architettura."
A me sembra proprio che la valenza relativa ci sia tutta, dato che come già detto le CPU più veloci nel SuperPI sono anche le più veloci nell'encoding, in questo caso addirittura nello stesso preciso ordine.
In questo caso mi è anche andata di lusso sopra ogni previsione, perchè non pretendo che le prestazioni con SuperPI siano sempre esattamente indice delle prestazioni nell'encoding video, ma sicuramente una buona indicazione la possiamo avere.
Bye?
Ammettendo come hai ammesso tu stesso che SuperPI non sia l'unica applicazione ad affettuare massicci calcoli sugli interi, sostenere che SuperPI non abbia nulla a che fare con il mondo reale, come affermi sempre tu... è una pura contraddizione.
Te lo spiego in altro modo: se Grande Puffo fa cose che fanno anche altri puffi, non puoi dire che quello che fa Grande Puffo non ha nulla a che fare con il villaggio dei puffi (perchè sono cose che fanno appunto anche altri puffi), altrimenti ti contraddiresti (come per l'appunto ti sei contraddetto).
L'argomentazione si fa con le conoscenze techiche delle quali io dispongo... e delle quali tu apparentemente non disponi.
Da queste tabelle risulta chiaramente che le CPU più veloci nel SuperPI sono anche le più veloci nell'encoding H.264 (pure nello stesso ordine), quindi la mia tesi, tecnicamente argomentata, è anche perfettamente confermata da queste tabelle (che non ho fatto io).
Ovviamente, non volendo insultare la tua intelligenza, sono sicuro che non ti aspettassi anche identiche percentuali nelle differenze... si tratta di software diversi che utilizzano algoritmi diversi e trattano moli di dati diverse, pur avendo come massimo comun denominatore il fatto di utilizzare massicciamente il calcolo con gli interi.
Insomma, si delinea una situazione ben diversa da quella che affermavi tu, ovvero:
"Il SPI non rappresenta nessuno scenario di utilizzo reale. Quindi è inutile e qualunque risultato ne esca è del tutto irrilevante e non rappresenta le prestazioni della CPU né in assoluto né relativamente ad altre CPU, nemmeno della stessa architettura."
A me sembra proprio che la valenza relativa ci sia tutta, dato che come già detto le CPU più veloci nel SuperPI sono anche le più veloci nell'encoding, in questo caso addirittura nello stesso preciso ordine.
In questo caso mi è anche andata di lusso sopra ogni previsione, perchè non pretendo che le prestazioni con SuperPI siano sempre esattamente indice delle prestazioni nell'encoding video, ma sicuramente una buona indicazione la possiamo avere.
Bye?
secondo me stai continuando a scrivere "cavolate" e nemmeno di fronte alla tabella postata vuoi ammettere di avere torto.
Il superpi e' un test nel quale l'architettura Intel si trova avvantaggiata incredibilmente, come in nessun applicativo reale (dato che non credo qualcuno passi il tempo o acquisti un pc per farci girare il superpi).
Quindi e' un test non attendibile, perche' se credi che il core duo 6700 vada il 55% piu' veloce del fx-62 athlon, ti fai una idea sbagliata, perche' in nessun vero applicativo avra' un simile vantaggio (e cmq mai superiore al 30%) anzi in alcuni applicativi stara' sotto.Quindi a cosa serve questo superpi?
Hai mai visto una recensione seria di cpu dove usano come software per la comparativa il superpi?
A volte bastarebbe dire "ho sbagliatoo" o al max tacere quando si e' in torto.
I test non sono sempre affidabili, basta ricordare l'uscita della Radeon2900: al 3DMark faceva sfracelli, ma all'atto pratico la 8800 nei giochi andava molto più veloce.
Ciao :)
ekerazha
28-08-2008, 17:02
Bel sillogismo:
1. Grande Puffo è un Puffo e non un modello sbagliato che cerchi di rappresentare un Puffo qualsiasi.
2. Io non ho detto che Grande Puffo non ha nulla a che fare gli altri Puffi, bensì ho detto che non puoi conoscere il comportamento di Puffetta osservando quello di Grande Puffo.
1. Grande Puffo, svolgendo attività da puffo, può dare buone indicazioni sul comportamento dei puffi.
2. Invece puoi trarne appunto una buona indicazione in quanto svolgono entrambi attività da puffo, certo... magari Puffetta ogni tanto si specchia, ma entrambi vivono al villaggio dei puffi, mangiano le puffragole e scappano da Gargamella e Birba.
L'argomentazione si fa con la conoscenza tecnica e mostrando i dati derivanti da essa.
Infatti ti devo ringraziare per aver cercato e mostrato dei dati che confermano pure troppo bene quanto io abbia affermato :D
In ambito scientifico quando un modello spadella del 100% rispetto alla situazione reale che dovrebbe rapresentare si parla non più di errore ma di "tirare a caso".
Quindi se vuoi dare una qualche valenza scientifica al SuperPI parti perdente. Se invece è un gioco di società in cui vince chi ha il numero più basso allora si può dire tutto, ma rimane un sistema di misura che semplicemente non funziona, stravolgendo completamente i risultati in termini di prestazioni relative.
Molto semplicemente, leggendo lo SPI come benchmark potrei pensare "uh guarda che figa sta CPU, va il 55% in più di quest'altra. Sì costa il 60% in più ma vuoi mettere la differenza?" Per poi aver in realtà comprato una cCPU che costa il 60% in più ma che va il 20% più veloce, in quello specifico ambito per cui l'ho comprata.
Bye.
:mc:
Spadella? :confused:
Ti ho già risposto ma forse non hai letto bene, te lo ripropongo:
Da queste tabelle risulta chiaramente che le CPU più veloci nel SuperPI sono anche le più veloci nell'encoding H.264 (pure nello stesso ordine), quindi la mia tesi, tecnicamente argomentata, è anche perfettamente confermata da queste tabelle (che non ho fatto io).
Ovviamente, non volendo insultare la tua intelligenza, sono sicuro che non ti aspettassi anche identiche percentuali nelle differenze... si tratta di software diversi che utilizzano algoritmi diversi e trattano moli di dati diverse, pur avendo come massimo comun denominatore il fatto di utilizzare massicciamente il calcolo con gli interi.
Insomma, si delinea una situazione ben diversa da quella che affermavi tu, ovvero:
"Il SPI non rappresenta nessuno scenario di utilizzo reale. Quindi è inutile e qualunque risultato ne esca è del tutto irrilevante e non rappresenta le prestazioni della CPU né in assoluto né relativamente ad altre CPU, nemmeno della stessa architettura."
A me sembra proprio che la valenza relativa ci sia tutta, dato che come già detto le CPU più veloci nel SuperPI sono anche le più veloci nell'encoding, in questo caso addirittura nello stesso preciso ordine.
In questo caso mi è anche andata di lusso sopra ogni previsione, perchè non pretendo che le prestazioni con SuperPI siano sempre esattamente indice delle prestazioni nell'encoding video, ma sicuramente una buona indicazione la possiamo avere.
Cosa in particolare non ti è chiaro? :)
ekerazha
28-08-2008, 17:11
I test non sono sempre affidabili, basta ricordare l'uscita della Radeon2900: al 3DMark faceva sfracelli, ma all'atto pratico la 8800 nei giochi andava molto più veloce.
Ciao :)
Dipende da quale scenario modellizza 3DMark, oltretutto 3DMark non fornisce un dato "tangibile" come può essere un lasso di tempo, ma assegna un punteggio pesato, quindi bisogna anche vedere quanti punti e quale valore assegna alle varie situazioni che va a valutare.
Qui è diverso... qui si parla di un programma, SuperPI, che rappresenta uno scenario di calcolo intensivo su interi e quindi, come ho già detto, possiamo avere una discreta indicazione su quali potrebbero essere le prestazioni utilizzando software "reali" che fanno un uso analogo della CPU. E' una situazione molto più specifica e definita di quella ottenibile con 3DMark.
Non mi sembra difficile come concetto. Non c'è nulla di mistico, irreale e trascendente in SuperPI.
squall_seed
28-08-2008, 17:36
Un buon metodo per calcora la effettiva capacità di calcolo (apparte super PI) ci sarebbe...
nulla ca che vedere con l'econding video o render che dipendono anche da altre cose a partire dalle stesse istruzioni ottimizzate o meno o dei motori di render....
io utilizzo un metodo molto semplice basta usare un buon propramma scacchistico (quello che uso io versione di 1,5 anni fa) supporta vino a 16 core/threads in parallelo per il calcolo.
basta vedere i nodi al sencondo che riesce a raggiungere l'una o l'altra cpu ed sfuttando tutti i core e anche molto reale del massimo ottenibile i potenza di calcolo puro.
tra un phenom e un peryn di differenza c'e ne parecchia (ripeto in pura potenza di calcolo) un po come in super pi...
poi il fatto che una cpu sia meno potente in calcoli in virgola mobile ma più ottimizzata in una dato ambito specifico (es video) più portare anche ad un equilibrio per via di ottimizzazioni a livello di istruzioni veddi ss4 ed encoding (es.).
Cio non vuol dire che la potenza elaborativa e simile ma solo che in quel compito si eguagliano (una piu capoacita di calcolo l'alytra piu ottimizzata).
Mentre in test di calcolo (tipo quello scacchistico) si vede bene la divverenza di calcolo)
Un altro test e quello della decriptazione di chiavi e richiede pura potenza di calcolo.
Quindi se la domanda e quale ha piu potenza elaborativa la risposta e una ma se la domanda e qual'e piu ottimizzato per certi lavori la risposta puo cambiare.
Non so se mi sono spiegato bene
Aggiungo infine una cosa per smorzare le inutili polemiche penso sia FUORI OGNI DISCUSSIONE che gli intel attuali sono superiori agli amd attuali a prescindere dall'ambito ossia superiori e basta che sia in OC che sia in render che sia in calcolo ( e le amd sono piu economiche) fine dei discorsi inutili. Spero vivamente che l'amd arrivi presto a colmare il gap e fare cpu alla pari della intel cosi ne beneficeremo tutti a partire dai prezzi vedi ATI-NVIDIA APPENA USCITA LA 4870 X2 LA 280 GTX E SCESA SOTTO I 400 $ IN UN LAMPO .... GUARDA UN PO FINO A TRE GIORNI PRIOMA LA VENDEVANO A + DI 600 $ STI STRONZONI
ekerazha
28-08-2008, 17:51
Un buon metodo per calcora la effettiva capacità di calcolo (apparte super PI) ci sarebbe...
nulla ca che vedere con l'econding video o render che dipendono anche da altre cose a partire dalle stesse istruzioni ottimizzate o meno o dei motori di render....
io utilizzo un metodo molto semplice basta usare un buon propramma scacchistico (quello che uso io versione di 1,5 anni fa) supporta vino a 16 core/threads in parallelo per il calcolo.
basta vedere i nodi al sencondo che riesce a raggiungere l'una o l'altra cpu ed sfuttando tutti i core e anche molto reale del massimo ottenibile i potenza di calcolo puro.
tra un phenom e un peryn di differenza c'e ne parecchia (ripeto in pura potenza di calcolo) un po come in super pi...
Infatti gli engine per il gioco degli scacchi (p.s. io sono stato campione provinciale di scacchi :p), solitamente usano anch'essi calcoli sugli interi :D
poi il fatto che una cpu sia meno potente in calcoli in virgola mobile ma più ottimizzata in una dato ambito specifico (es video) più portare anche ad un equilibrio per via di ottimizzazioni a livello di istruzioni veddi ss4 ed encoding (es.).
Qua dipende... le istruzioni ottimizzate tipo SSE etc. solitamente sono appunto istruzioni o registri ottimizzati per gestire una determinata tipologia di dati (ad esempio i registri MMX se non ricordo male gestiscono float a 128 bit). Personalmente ritengo che sarebbe buona cosa contemplare anche questi dove possibile, dopotutto se la CPU le mette a disposizione ha senso usarli. Altra scuola di pensiero potrebbe essere comunque quella di non sfruttare istruzioni ottimizzate per voler vedere in un certo senso la "forza bruta" senza appoggiarsi a registri/istruzioni che potessero dare eccessivi vantaggi.
squall_seed
28-08-2008, 17:55
Comunque visto che e da un po che pensavo di rifarmi il pc io faro cosi:
aspettero che esca il Bloomfield (il quale non credo apporti cosi tanta differenza con i penryn attuali)
a quel punto i negozi dovrenno "svendere" le "vecchie sk madri" e vecchi processori...
mettero su un pc potente con poco piu di 700/800 euro (oggi per lo stesso ne spenderei almeno 1300/1400...
con buona pace del portafoglio e quando uscira il sandy beach passero alla
Westmere a 6 core che nel frattendo si svendera (come al solito) a ogni cambio) rimande pero al passo coi tempi con le prestazioni e con la BUSTA PAGA.
Insomma per fregarli secondo me bisogna comprare l'ultimo pezzo appena entrato il nuovo capito si perde un po in prestazioni ma si risparmia tanto...
Perche che senso avrebbe spendere 3000 euro o piu per comprare subito il top del Bloomfield a 4 core (PER FARE I FIGHI) se tra un anno forse gente che spendera 2000 euro si comprera il Westmere a 6 core E TI SFRECCERANNO DAVANTI FACENDOTI CIAO CON LA MANINA insomma fregato due volte sul prezzo e sulle prestazioni... tanto il massimo assoluti non si fa in tempo a goderlo che esce qualcosa dopo e questo l'approccio tic-toc... (anche detto approccio per spennare i polli)
ekerazha
28-08-2008, 17:59
Comunque visto che e da un po che pensavo di rifarmi il pc io faro cosi:
aspettero che esca il Bloomfield (il quale non credo apporti cosi tanta differenza con i penryn attuali)
a quel punto i negozi dovrenno "svendere" le "vecchie sk madri" e vecchi processori...
mettero su un pc potente con poco piu di 700/800 euro (oggi per lo stesso ne spenderei almeno 1300/1400...
con buona pace del portafoglio e quando uscira il sandy beach passero alla
Westmere a 6 core che nel frattendo si svendera (come al solito) a ogni cambio) rimande pero al passo coi tempi con le prestazioni e con la BUSTA PAGA.
Insomma per fregarli secondo me bisogna comprare l'ultimo pezzo appena entrato il nuovo capito si perde un po in prestazioni ma si risparmia tanto...
Questo discorso ha molto senso, però personalmente attendo Nehalem perchè io faccio uso intensivo del multi-threading ed il boost dato dall'MTT non è indifferente.
astroimager
28-08-2008, 18:04
Questo discorso ha molto senso, però personalmente attendo Nehalem perchè io faccio uso intensivo del multi-threading ed il boost dato dall'MTT non è indifferente.
Non l'avevamo capito, grazie della precisazione.
squall_seed
28-08-2008, 18:04
Qua dipende... le istruzioni ottimizzate tipo SSE etc. solitamente sono appunto istruzioni o registri ottimizzati per gestire una determinata tipologia di dati (ad esempio i registri MMX se non ricordo male gestiscono float a 128 bit). Personalmente ritengo che sarebbe buona cosa contemplare anche questi dove possibile, dopotutto se la CPU le mette a disposizione ha senso usarli. Altra scuola di pensiero potrebbe essere comunque quella di non sfruttare istruzioni ottimizzate per voler vedere in un certo senso la "forza bruta" senza appoggiarsi a registri/istruzioni che potessero dare eccessivi vantaggi.
infatti entriamo in un campo troippo complicato del RISC vs CISC e se già i progettisti si scornano su come cosa sia meglio a livello di registri e istruzioni e non si capisce chi abbia ragione figuriamoci se c'e ne possiamo mettere a discutere tra di noi... limitamoci ad altro che e meglio...
squall_seed
28-08-2008, 18:15
Questo discorso ha molto senso, però personalmente attendo Nehalem perchè io faccio uso intensivo del multi-threading ed il boost dato dall'MTT non è indifferente.
Ripeto e ovvio se tu ai esigenze particolari e non hai problemi di spesa compra tutto e subito...
se non avessi problemi economici anche io mi fare tutte le extreme appena escono ed anche le dual cpu se potessi... solo per il gusto di farlo (ripeto se avessi i soldi) e comunque non le spremerei a dovere per quello che e il mio uso.
se dovessi lavorarci col multi th allora aspetterei di vedere che vantaggio portano le mainstream delle nehalem rispetto le top performace dei penryn e poi deciderei e tutto legato prima al potere economico e poi all'utilizzo che si fa...
"Per la cronaca a tutti quelli che dicevano che il mio fidato e2160 sarebbe fuso in mese... e fiumi di inchiostro digitale e cazzate sui voltaggi ecc. volevo solo dire che e vivo e vedeto a 3,5 Ghz e lavora una bellezza meglio di x6800...")
ekerazha
28-08-2008, 18:35
Non l'avevamo capito, grazie della precisazione.
Melius abundare quam deficere. (cit.) :D
ekerazha
28-08-2008, 18:36
infatti entriamo in un campo troippo complicato del RISC vs CISC e se già i progettisti si scornano su come cosa sia meglio a livello di registri e istruzioni e non si capisce chi abbia ragione figuriamoci se c'e ne possiamo mettere a discutere tra di noi... limitamoci ad altro che e meglio...
Oddio quello è un discorso ancora un po' diverso :D
squall_seed
28-08-2008, 18:54
Oddio quello è un discorso ancora un po' diverso :D
Ma si chi se ne frega facciamo un bel minestrone..... :D
tanto alla fine basta che il sapore sia buono...:stordita:
a volte mi fisso perche si deprezza il lavoro dei programmatori che non viene capito quanto esso sia importante per le cpu a parteil lavoro degli ingegneri....
ma non tutti masticano l'assembly e quindi capire....
basta pensare che la differenza tra un q 6600 e un q9450 a pari frequenza nell'encoding video i secondi quadgnati dal q9450 sono quasi completamente ed unicamente diovuti alle istruzioni...
lasciamo perdere che uno e a 65 e uno a 45 la grande differenza tra core duo e penrym a parte la chace sono le istruzioni in piu o in meno...
il problema del superpi è che non ha "salti" nel codice e quindi alla fine fa una serie di calcoli in sequenza e basta.
provate a fare il superpi di un p4 EE da 3.8ghz. sarà molto vicino se non superiore ai primi c2d conroe. eppure i conroe gli danno la paga.
il superpi è utile solo per capire certe situazioni poco reali
Mercuri0
29-08-2008, 02:33
Qua dipende... le istruzioni ottimizzate tipo SSE etc. solitamente sono appunto istruzioni o registri ottimizzati per gestire una determinata tipologia di dati (ad esempio i registri MMX se non ricordo male gestiscono float a 128 bit). Personalmente ritengo che sarebbe buona cosa contemplare anche questi dove possibile, dopotutto se la CPU le mette a disposizione ha senso usarli. Altra scuola di pensiero potrebbe essere comunque quella di non sfruttare istruzioni ottimizzate per voler vedere in un certo senso la "forza bruta" senza appoggiarsi a registri/istruzioni che potessero dare eccessivi vantaggi.
Il futuro precidibile delle CPU (e della microelettronica in generale!) sono istruzioni come SSE e parenti. Quindi sarà impossibile non considerarle nella valutazione di un processore.
Ovviamente, le prestazioni di un programma dipendono da come il programma è scritto, questo vale sempre, e al solito dimostra soltanto che bisogna considerare i vari scenari di utilizzo e scegliere la soluzione più appropriata alle proprie esigenze.
Io trovo veramente ridicolo che si usi ancora SuperPI come "benchmark", che non è neanche multicore. Per qualche dettaglio sul perché si possono leggere i post di Albuquerque su questo thread
http://forum.beyond3d.com/showthread.php?p=1200917
Il futuro precidibile delle CPU (e della microelettronica in generale!) sono istruzioni come SSE e parenti. Quindi sarà impossibile non considerarle nella valutazione di un processore.
Ovviamente, le prestazioni di un programma dipendono da come il programma è scritto, questo vale sempre, e al solito dimostra soltanto che bisogna considerare i vari scenari di utilizzo e scegliere la soluzione più appropriata alle proprie esigenze.
Io trovo veramente ridicolo che si usi ancora SuperPI come "benchmark", che non è neanche multicore. Per qualche dettaglio sul perché si possono leggere i post di Albuquerque su questo thread
http://forum.beyond3d.com/showthread.php?p=1200917
Quoto tutto :)
ekerazha
29-08-2008, 08:08
il problema del superpi è che non ha "salti" nel codice e quindi alla fine fa una serie di calcoli in sequenza e basta.
provate a fare il superpi di un p4 EE da 3.8ghz. sarà molto vicino se non superiore ai primi c2d conroe. eppure i conroe gli danno la paga.
il superpi è utile solo per capire certe situazioni poco reali
La cosa dei salti è solo in parte vera (non del tutto: l'algoritmo esegue delle sommatorie quindi ci sono dei cicli e se c'è un ciclo, al termine del ciclo, per poterlo rieseguire c'è per forza un salto), ma comunque non è necessariamente una situazione isolata a SuperPI bensì a qualsiasi programma che faccia prettamente uso di calcoli matematici senza l'inserimento di troppe condizioni nel codice.
ekerazha
29-08-2008, 08:12
Io trovo veramente ridicolo che si usi ancora SuperPI come "benchmark", che non è neanche multicore. Per qualche dettaglio sul perché si possono leggere i post di Albuquerque su questo thread
http://forum.beyond3d.com/showthread.php?p=1200917
Proprio per porre rimedio a questa limitazione sto sviluppando un programma simile che faccia uso del multi-threading: http://www.hwupgrade.it/forum/showpost.php?p=23839598&postcount=712 ;)
Se riesco (devo vedere quanto sia fattibile), penso di inserire oltre al calcolo attraverso gli interi, anche il calcolo attraverso i float (anche se temo che gli interi in parte servirebbero comunque, quindi non sarebbe una situazione di puri float... devo vedere).
A ME PIACE DI + WPRIME DI SUPER PI
(srà perchè in wprime do la paga agli 8600 con il q6600:D )
ragazzi, una domandina tecnica:
i Core i7 a 4 core assomiglieranno agli attuali quad core, ovvero 2 core in 2 die, o saranno quad core nativi?
i quad core di adesso secondo me sono una fregatura... :muro:
letsmakealist
29-08-2008, 10:12
ragazzi, una domandina tecnica:
i Core i7 a 4 core assomiglieranno agli attuali quad core, ovvero 2 core in 2 die, o saranno quad core nativi?
i quad core di adesso secondo me sono una fregatura... :muro:
4 core su unico die.
4 core su unico die.
ottimo, davvero ottimo :)
ottimo, davvero ottimo :)
:gluglu:
Ritorno volentieri sull'argomento dei 4 e 4.4GHz di AMD :asd:
AMDisti, mi spiace ma nulla di fatto... http://informaticaeasy.net/cpu/174-smentita-amd-a-4-e-44ghz-assolutamente-falso.html :sofico:
88diablos
29-08-2008, 10:55
Ritorno volentieri sull'argomento dei 4 e 4.4GHz di AMD :asd:
AMDisti, mi spiace ma nulla di fatto... http://informaticaeasy.net/cpu/174-smentita-amd-a-4-e-44ghz-assolutamente-falso.html :sofico:
scusa ma che centra con questo 3d?:mbe:
scusa ma che centra con questo 3d?:mbe:
se avessi letto le pagine precedenti... :O In particolare a partire dal post #1983 :O
se ne è discusso parecchio, molti affermavano che questi nuovi amd avrebbero superato nehalem...
Ritorno volentieri sull'argomento dei 4 e 4.4GHz di AMD :asd:
AMDisti, mi spiace ma nulla di fatto... http://informaticaeasy.net/cpu/174-smentita-amd-a-4-e-44ghz-assolutamente-falso.html :sofico:
D`altronde il sito stesso che ha publicato la notizia non e` che sia molto affidabile.... :asd: :asd:
Ora mi chiedo .... alla luce anche di questa notizia di anandtech :
www.hwupgrade.it/forum/showthread.php?t=1767611&page=21
Per chi vuole usare il PC prevalentemente per giocare al massimo e visto che i quad core per tale scopo sono al momento inutili , non e` meglio adesso come adesso prendersi un bel dual core (magari l`E8600 che si overclocca MOLTO di piu` di un quad e nei giochi attuali si sa` che va` MOLTO meglio una frequenza piu` spinta..) magari abbinato ad una Asus Rampage Extreme o una Foxxconn Blackops ed un ottimo dissi (IFX 14 per es...) e andari avanti ancora due annetti e attendere direttamente la nuova microarchitettura del 2010 a 32nm Sandy Bridge (e con USB 3.0 e PCiex 3.0) ??
Secondo me` e` un ragionamento piu` che sensato....;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.