Torna indietro   Hardware Upgrade Forum > Componenti Hardware > Processori

Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Basato su piattaforma Qualcomm Snapdragon X Plus a 8 core, il nuovo Microsoft Surface Pro 12 è un notebook 2 in 1 molto compatto che punta sulla facilità di trasporto, sulla flessibilità d'uso nelle differenti configurazioni, sul funzionamento senza ventola e sull'ampia autonomia lontano dalla presa di corrente
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Il REDMAGIC Astra Gaming Tablet rappresenta una rivoluzione nel gaming portatile, combinando un display OLED da 9,06 pollici a 165Hz con il potente Snapdragon 8 Elite e un innovativo sistema di raffreddamento Liquid Metal 2.0 in un form factor compatto da 370 grammi. Si posiziona come il tablet gaming più completo della categoria, offrendo un'esperienza di gioco senza compromessi in mobilità.
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2
Dopo un mese di utilizzo intensivo e l'analisi di oltre 50 scatti, l'articolo offre una panoramica approfondita di Nintendo Switch 2. Vengono esaminate le caratteristiche che la definiscono, con un focus sulle nuove funzionalità e un riepilogo dettagliato delle specifiche tecniche che ne determinano le prestazioni
Tutti gli articoli Tutte le news

Vai al Forum
Discussione Chiusa
 
Strumenti
Old 11-09-2008, 11:21   #12861
paolo.oliva2
Senior Member
 
L'Avatar di paolo.oliva2
 
Iscritto dal: Jan 2002
Città: Urbino (PU)
Messaggi: 31732
Quote:
Originariamente inviato da Scrambler77 Guarda i messaggi
E' diverso. Io non sto dicendo che hanno migliorato "solo" il silicio. Sicuramente (mi auguro) hanno migliorato i materiali, anche per dare a Phenom qualche mhz in più, ma i bugs funzionali non si risolvono SOLO migliorando i materiali utilizzati.

Nel mio post originale, col termine "progettazione ad capocchiam" intendevo proprio la "traduzione" dell'architettura K10 in un disegno geometrico da portare sul silicio, evidentemente sbagliata (ad capocchiam).

Infatti ho aggiunto che, (seppur non sia convinto in quale fase della realizzazione si collochi la progettazione del layout della cpu), se i disegni della cpu li fornisce AMD, la vendita delle fabs non serve a nulla se poi fornisce disegni "bacati" al produttore... anzi...

Non ho mai detto che, seppur deludente, l'archiettura K10 sia a "ad capocchiam".
Premetto che non voglio fare polemica.
Vedi... io faccio delle distinzioni ben precise.
L'architettura P4 di per sé non era sbagliata, se Intel fosse arrivata ai 5GHz sul silicio come prevedeva, ma un procio con IPC inferiore (che non necessariamente si traduce in architettura sbagliata) se non lo aiuti con un clock maggiore, è chiaro che può solo perdere. Il P4 ha perso con il K8 non per un'architettura sbagliata da sola, ma nell'integrazione del silicio, che non è riuscito a dare quel clock sufficente a sopperire il minor IPC.
Chiaramente la differenza di IPC era di gran lunga superiore a quella degli A64... perché neanche ad arrivare a 4GHz è servito.
Però anche se fosse arrivata a 5GHz con il P4, di fondo comunque l'architettura aveva dei limiti propri.
Il Phenom è da considerare in modo molto diverso, perché si il clock basso non ha certo contribuito, ma il silicio di sé per sé non ha permesso di sfruttare il procio come l'architettura poteva... ma non stiamo parlando di frequenze da capogiro, ma di frequenze in linea con il silicio.
L'IPC che si incrementa nel 45nm non è solo per la L3 (e lo vedremo con il Deneb a 45nm senza L3), ma per tutta una serie di mancanze di silicio che hanno introdotto un vallo di bug e sicuramente latenze molto alte. Ma è sbagliato attribuire l'IPC basso del Phenom 65nm con la progettazione.
Io per architettura considero le potenzialità di elaborazione del procio date dai registri, la cache, e tutto l'interfacciamento verso l'esterno.
Da questo punto di vista, tutta l'architettura del K10 è uguale al Deneb, ma il 45nm permette TDP inferiori, L3 più grande e un'insieme di latenze inferiori che nel complesso aumentano l'IPC. E qui riscopriamo le potenzialità del Phenom, appunto nato in cattiva luce per problemi del 65nm di AMD.
Le potenzialità dell'architettura del Phenom le vediamo in tutto e per tutto in ambito server, e che il progetto Phenom è stato premiato come progetto dell'anno, è già una riprova a ciò che dico.
Poi se consideri il Nehalem, ha molte più cose in comune con il Phenom che con il Core2... e specialmente tutta la parte I/O del procio non ha nulla a che vedere con il Core2 e invece molto con il Phenom.
Infatti io reputo il Nehalem la risposta Intel nel mercato server, in quanto, e qui è proprio problema di limiti di progettazione, con il Core2 anche a 3,2GHz con sistemi a 4 proci non c'era possibilità di contrastare AMD appunto per i limiti di I/O, di un progetto che è per desktop ma per la sua natura non si accosta facilmente all'ambiente server.
Da questa ottica, se il Deneb arrivasse ad un IPC uguale al Penryn e con un clock almeno in linea, l'architettura del Deneb verrebbe fuori, perché già che il progetto si dimostri polivalente, cioé ottimi risultati in ambito server e almeno uguali in ambito desktop, è senz'altro meglio di un Penryn ottimo in desktop e deludente in ambito server.
Qui non sto parlando di chi è primo, secondo, terzo... si sta parlando solo di architettura. Per questo architettura "ad capocchiam" non la digerisco.... . Ed anche "deludente", come hai riscritto, ti torno a ripetere che non è l'architettura, quanto il silicio... non confondiamo le pere con le mele. Se Io mettessi un Nehalem con silicio che mi dasse latenze superiori e clock massimo a 1,5GHz, sarebbe un procio deludente, si, ma per architettura o per silicio?

Ultima modifica di paolo.oliva2 : 11-09-2008 alle 11:32.
paolo.oliva2 è online  
Old 11-09-2008, 11:26   #12862
Mercuri0
Senior Member
 
Iscritto dal: Jan 2006
Messaggi: 4414
Quote:
Originariamente inviato da Scrambler77 Guarda i messaggi
Ovvio... ma leggevo tempo addietro che il software di simulazione utilizzato da nvidia è particolarmente potente rispetto ai classici ADS...
Nah, stupidaggini. E se ne sono sentite tante stupidaggini su questa storia (toms lasciava intendere che ATI non l'avesse e usasse dei laboratori di prototipazione )

I simulatori sono tanti comunque: cad e simulatori di sistema, cad e simulatori di architettura, cad e simulatori di logica, cad e simulatori di circuito, cad e simulatori di layout (disegno).

Dal layout poi viene generato un circuito che considera e schematizza i componenti parassiti (per esempio la lunghezza di un collegamento), e si verifica e si risimula a ciclo modificando dove serve al livello che serve.
Oggi questi parametri possono essere infilati anche nel simulatore di logica, una volta estratti dal simulatore di layout.

Va da sé che il simulatore di layout ha bisogno di dati dalla fonderia: non è che nVidia può fare un simulatore da sola.

Ultima modifica di Mercuri0 : 11-09-2008 alle 11:34.
Mercuri0 è offline  
Old 11-09-2008, 11:31   #12863
Mercuri0
Senior Member
 
Iscritto dal: Jan 2006
Messaggi: 4414
Quote:
Originariamente inviato da paolo.oliva2 Guarda i messaggi
Ma è sbagliato attribuire l'IPC basso del Phenom 65nm con la progettazione.
Nella progettazione entrano anche i limiti del silicio. Il Pentium4 è fallito sostanzialmente perché lntel ha sbagliato la previsione sui suoi futuri processi tecnologici.

Anche l'architettura è subordinata ai limiti della costruzione.
Altrimenti si progetterebbero processori senza cache

Nel Phenom AMD ha privilegiato i server nell'architettura. Ad esempio il TLB, che non è un bug ma una funzione, serve per la virtualizzazione, dove gli Opteron eccellono.. Di sicuro se avessero pensato ai desktop avrebbero tirato fuori qualcosa di diverso.

Ultima modifica di Mercuri0 : 11-09-2008 alle 11:34.
Mercuri0 è offline  
Old 11-09-2008, 11:31   #12864
Scrambler77
Senior Member
 
L'Avatar di Scrambler77
 
Iscritto dal: Nov 2005
Città: Bari
Messaggi: 3993
Quote:
Originariamente inviato da Mercuri0 Guarda i messaggi
Nah, stupidaggini. E se ne sono sentite tante stupidaggini su questa storia (toms lasciava intendere che ATI non l'avesse e usasse dei laboratori di prototipazione )

I simulatori sono tanti comunque: cad e simulatori di sistema, cad e simulatori di architettura, cad e simulatori di logica, cad e simulatori di circuito, cad e simulatori di layout (disegno).

Dal layout poi viene generato un circuito che considera e schematizza i componenti parassiti (per esempio la lunghezza di un collegamento), e si verifica e si risimula a ciclo modificando dove serve al livello che serve.
Oggi questi parametri possono essere infilati anche nel simulatore di logica.

Va da sé che il simulatore di layout ha bisogno di dati dalla fonderia: non è che nVidia può fare un simulatore da sola.
Infatti, il simulatore di cui si sta dotando è di terzi, un software capace di calcolare...:

"...impedance mismatch, reflections, electromagnetic coupling, crosstalk, and microwave frequency attenuation due to the skin effect and dielectric loss tangent ecc..."

per ottenere...:

"fast "what-if" design-space exploration using circuit-level models that can be verified against measured data and EM simulation of the artwork"

Tutto ciò si dice consumare parecchie risorse computazionali, al punto di necessitare di interi sistemi Tesla impegnati full-time per giorni...

In ogni caso, una simulazione del genere dovrebbe dare l'opportunità ai progettisti di scovare e risolvere in fase progettuale bugs come il TLB e gli altri emersi in questi giorni...

Per chi fosse interessato: http://www.electronicsweekly.com/Art...-simulator.htm
Scrambler77 è offline  
Old 11-09-2008, 11:39   #12865
Mercuri0
Senior Member
 
Iscritto dal: Jan 2006
Messaggi: 4414
Quote:
Originariamente inviato da Scrambler77 Guarda i messaggi
Infatti, il simulatore di cui si sta dotando è di terzi, un software capace di calcolare...:

"...impedance mismatch, reflections, electromagnetic coupling, crosstalk, and microwave frequency attenuation due to the skin effect and dielectric loss tangent ecc..."

per ottenere...:

"fast "what-if" design-space exploration using circuit-level models that can be verified against measured data and EM simulation of the artwork"
Questo lo fanno tutti: se devi progettare ad alta frequenza non puoi farne a meno.

La novità di quell'articolo che citi è che la versione personalizzata per nvidia dovrebbe poter girare accelerata dalle GPU.
(l'articolo deve venir fuori da una press-release pubblicitaria per CUDA)

Quote:
In ogni caso, una simulazione del genere dovrebbe dare l'opportunità ai progettisti di scovare e risolvere in fase progettuale bugs come il TLB e gli altri emersi in questi giorni...
Nah. Questi tipi di bug non vengono fuori non perché i simulatori non siano in grado di simularli, ma perché nessuno in fase di test pensa a mettere il procio nelle condizioni in cui il bug si verifica. Sono cose estremamente sottili.
Mercuri0 è offline  
Old 11-09-2008, 11:40   #12866
paolo.oliva2
Senior Member
 
L'Avatar di paolo.oliva2
 
Iscritto dal: Jan 2002
Città: Urbino (PU)
Messaggi: 31732
Quote:
Originariamente inviato da Mercuri0 Guarda i messaggi
Nella progettazione entrano anche i limiti del silicio. Il Pentium4 è fallito sostanzialmente perché lntel ha sbagliato la previsione sui suoi futuri processi tecnologici.

Anche l'architettura è subordinata ai limiti della costruzione.
Altrimenti si progetterebbero processori senza cache

Nel Phenom AMD ha privilegiato i server nell'architettura. Ad esempio il TLB, che non è un bug ma una funzione, serve per la virtualizzazione, dove gli Opteron eccellono.. Di sicuro se avessero pensato ai desktop avrebbero tirato fuori qualcosa di diverso.
Però c'è una differenza di fondo... Intel con i Pentium4 si aspettava di arrivare ad un traguardo che si è rivelato irreale... Se Intel con i 65nm è in grado di arrivare a quanto a Vcore def? 3,4-3,5GHz? Beh... AMD non puntava a 4-5GHz, ma almeno a 3GHz, ma non è stata così brava...
Che poi non è tutto legato solo al clock, ma ad un insieme di cose... sicuramente se il silicio fosse stato più "elastico", molti bug non si sarebbero presentati, come pure probabilmente l'NB sarebbe stata più alta di clock, tante cose. Ma quelle tante cose hanno contribuito a bug, clock bassi, L3 non perfomanti... Probabilmente chi faceva progettazione, ha chiesto delle specifiche al reparto silicio che a sua volta aveva assicurato di poterci arrivare... e qui è nato il casino.
paolo.oliva2 è online  
Old 11-09-2008, 11:43   #12867
bjt2
Senior Member
 
L'Avatar di bjt2
 
Iscritto dal: Apr 2005
Città: Napoli
Messaggi: 6808
Quote:
Originariamente inviato da paolo.oliva2 Guarda i messaggi
ci provo.

[imghttp://www.pctunerup.com/up/results/_200809/20080911110830_varisettaggi.JPG[/img]

eh eh eh, direi che è andato su di brutto... e le DDR2 sono a 1GHz e non a 1066...
Very, very good... Sarebbe interessante un confronto con test multithreading pesanti come cinebench e magari fare anche un test a 1200, visto che hai detto che ci arrivano...
__________________
0 A.D. React OS
La vita è troppo bella per rovinarsela per i piccoli problemi quotidiani...
IL MIO PROFILO SOUNDCLOUD! IL MIO CANALE YOUTUBE! IL MIO PLUGIN VST PROGRAMMABILE!
bjt2 è offline  
Old 11-09-2008, 11:45   #12868
Mercuri0
Senior Member
 
Iscritto dal: Jan 2006
Messaggi: 4414
Quote:
Originariamente inviato da paolo.oliva2 Guarda i messaggi
Però c'è una differenza di fondo... Intel con i Pentium4 si aspettava di arrivare ad un traguardo che si è rivelato irreale...
Corre voce che quando AnandTech abbia chiesto ad lntel di commentare l'architettura di Barcellona con quad core nativo, il tipo abbia risposto:

"Seh, a 65nm è impossibile per noi, che come tutti sanno abbiamo i migliori transistor, figurati per loro".

Forse non è un caso che lntel abbia aspettato i 45nm per i Nehalem. Forse AMD ha osato un pò troppo, ma un'azienda nella posizione di AMD deve sempre osare. A volte va bene (hypertransport, GDDR5 nelle rv770...), a volte va meno bene.
Mercuri0 è offline  
Old 11-09-2008, 11:50   #12869
Scrambler77
Senior Member
 
L'Avatar di Scrambler77
 
Iscritto dal: Nov 2005
Città: Bari
Messaggi: 3993
Quote:
Originariamente inviato da Mercuri0 Guarda i messaggi
"Seh, a 65nm è impossibile per noi, che come tutti sanno abbiamo i migliori transistor, figurati per loro".
Vero, ma la considerazione di Intel non era ristretta solo al processo produttivo ed alla qualità dei componenti, ma anche all'utilità concreta del "quad nativo" rispetto ai software del momento, e l'inutilità di un investimento prematuro di risorse così elevato, quando 2 dual affiancati vanno meglio di un quad nativo.

Probabilmente i 45nm sono lo spunto per Nehalem, anche se secondo me Intel non ha finora investito nel quad nativo per una pura questione di marketing.
Scrambler77 è offline  
Old 11-09-2008, 11:52   #12870
paolo.oliva2
Senior Member
 
L'Avatar di paolo.oliva2
 
Iscritto dal: Jan 2002
Città: Urbino (PU)
Messaggi: 31732
Quote:
Originariamente inviato da bjt2 Guarda i messaggi
Very, very good... Sarebbe interessante un confronto con test multithreading pesanti come cinebench e magari fare anche un test a 1200, visto che hai detto che ci arrivano...
Guarda... ora ho problemi di pasta termica, ma come mi arriva la DFI FXb, con 5 scatolette di pasta , prometto che lo tiro di brutto.
Anche perché quando elaboravo le WU di seti, avevo detto che sopra i 3,2GHz avevo un guadagno di minor tempo di elaborazione maggiore in rapporto dei 50-100MHz in più di clock.
Se la DFI si comporta bene, spero di fare dei super bench almeno a 3,4-3,5GHz, uniti all'NB massima ottenibile, e credo che ci saranno delle sorprese.

paolo.oliva2 è online  
Old 11-09-2008, 11:58   #12871
Mercuri0
Senior Member
 
Iscritto dal: Jan 2006
Messaggi: 4414
Quote:
Originariamente inviato da Scrambler77 Guarda i messaggi
Vero, ma la considerazione di Intel non era ristretta solo al processo produttivo ed alla qualità dei componenti, ma anche all'utilità concreta del "quad nativo" rispetto ai software del momento, e l'inutilità di un investimento prematuro di risorse così elevato, quando 2 dual affiancati vanno meglio di un quad nativo.

Probabilmente i 45nm sono lo spunto per Nehalem, anche se secondo me Intel non ha finora investito nel quad nativo per una pura questione di marketing.
Non saprei, il fatto di essere "quad nativo" (che penso si riduca a "avere la L3 condivisa"), può darsi sia la chiave che rende gli Opteron tanto buoni nella virtualizzazione.

lntel non ha fatto i quad nativi perché aspettava i 45nm, come al solito per un discorso economico. lntel non ha bisogno di rischiare, se in tecnologia pareggia o perde di poco, vince comunque.
Mercuri0 è offline  
Old 11-09-2008, 12:01   #12872
bjt2
Senior Member
 
L'Avatar di bjt2
 
Iscritto dal: Apr 2005
Città: Napoli
Messaggi: 6808
Quote:
Originariamente inviato da Scrambler77 Guarda i messaggi
E' diverso. Io non sto dicendo che hanno migliorato "solo" il silicio. Sicuramente (mi auguro) hanno migliorato i materiali, anche per dare a Phenom qualche mhz in più, ma i bugs funzionali non si risolvono SOLO migliorando i materiali utilizzati.

Nel mio post originale, col termine "progettazione ad capocchiam" intendevo proprio la "traduzione" dell'architettura K10 in un disegno geometrico da portare sul silicio, evidentemente sbagliata (ad capocchiam).

Infatti ho aggiunto che, (seppur non sia convinto in quale fase della realizzazione si collochi la progettazione del layout della cpu), se i disegni della cpu li fornisce AMD, la vendita delle fabs non serve a nulla se poi fornisce disegni "bacati" al produttore... anzi...

Non ho mai detto che, seppur deludente, l'archiettura K10 sia a "ad capocchiam".

Ps: @Mercurio o Ratatosk - che voi sappiate, il disegno (destinato alla litografia) della cpu (o delle gpu, non penso cambi granchè) viene fornito dalle aziende fabless o se ne occupa l'azienda che possiede la fab (TSMC ad esempio)?
Concordo con te. L'implementazione delle specifiche ha dei bug, ossia non funziona esattamente come da specifica. Se fosse un problema del silicio in senso stretto, alcuni esemplari lo avrebbero e altri no. Invece è proprio nel DISEGNO del circuito che implementa le specifiche che si è commesso l'errore. Le specifiche sono un algoritmo per risolvere dei problemi. Questo algoritmo è implementato in hardware. Come tutti i software può avere bugs. Ma per correggerli occorre fare modifiche al DISEGNO.
__________________
0 A.D. React OS
La vita è troppo bella per rovinarsela per i piccoli problemi quotidiani...
IL MIO PROFILO SOUNDCLOUD! IL MIO CANALE YOUTUBE! IL MIO PLUGIN VST PROGRAMMABILE!
bjt2 è offline  
Old 11-09-2008, 12:01   #12873
Scrambler77
Senior Member
 
L'Avatar di Scrambler77
 
Iscritto dal: Nov 2005
Città: Bari
Messaggi: 3993
Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
E' chiaro che visto che un Core 2 Duo va meglio di un Phenom x2 anche il quad accrocchio di due Core 2 Duo va meglio del Phenom x4, ma non è un confronto fra i due approcci al quad, bensì fra le due architetture
Giusto, mi sono espresso male io. Intendevo "quando 2 core2-duo affiancati vanno meglio di un quad nativo".
Scrambler77 è offline  
Old 11-09-2008, 12:03   #12874
paolo.oliva2
Senior Member
 
L'Avatar di paolo.oliva2
 
Iscritto dal: Jan 2002
Città: Urbino (PU)
Messaggi: 31732
Quote:
Originariamente inviato da Scrambler77 Guarda i messaggi
Vero, ma la considerazione di Intel non era ristretta solo al processo produttivo ed alla qualità dei componenti, ma anche all'utilità concreta del "quad nativo" rispetto ai software del momento, e l'inutilità di un investimento prematuro di risorse così elevato, quando 2 dual affiancati vanno meglio di un quad nativo.

Probabilmente i 45nm sono lo spunto per Nehalem, anche se secondo me Intel non ha finora investito nel quad nativo per una pura questione di marketing.
In ambito desk, ma, come si è visto, non sicuramente in ambito server.
Ma comunque sono andati meglio non tanto per bravure di Intel, in quanto, se vogliamo fare una similitudine, hanno messo il motore di una ferrari (2 dual) conservando i copertoni di una berlina 2000 (I/O). E' chiaro che in questo contesto AMD con performances inferiori l'ha aiutata. Pensa allo Shanghai in ambito server a 3GHz contro gli Xeon a 3,2GHz che pareggiavano con proci con 1 GHz inferiore....

Ultima modifica di paolo.oliva2 : 11-09-2008 alle 12:14.
paolo.oliva2 è online  
Old 11-09-2008, 12:11   #12875
Scrambler77
Senior Member
 
L'Avatar di Scrambler77
 
Iscritto dal: Nov 2005
Città: Bari
Messaggi: 3993
Quote:
Originariamente inviato da paolo.oliva2 Guarda i messaggi
In ambito desk, ma, come si è visto, non sicuramente in ambito server.
Il fatto è che tu, come tanti altri, così come tutto il mercato mainstream, non compri phenom in ambito server...

A sto punto poteva benissimo fare K10 "quad-nativo" per i server e K10 "dual-affiancato" per il mercato mainstream, magari risparmiando un bel po' di soldi senza sacrificare le prestazioni.

Quote:
Originariamente inviato da paolo.oliva2 Guarda i messaggi
Ma comunque sono andati meglio non tanto per bravure di Intel, in quanto, se vogliamo fare una similitudine, hanno messo il motore di una ferrari (2 dual) conservando i copertoni di una berlina 2000 (I/O).
Dai questa è una forzatura. Intel ha garantito il supporto al socket 775 dal Pentium 640 (single core) al Core2-Quad (quad core). Sulla mia P5WDG2-WS Pro ho montato una decina di cpu diverse, dal Pentium-D all'attuale penryn q9300... Era ovvio che dovesse conservare tutta la struttura esterna.

Ultima modifica di Scrambler77 : 11-09-2008 alle 12:13.
Scrambler77 è offline  
Old 11-09-2008, 12:14   #12876
bjt2
Senior Member
 
L'Avatar di bjt2
 
Iscritto dal: Apr 2005
Città: Napoli
Messaggi: 6808
Quote:
Originariamente inviato da paolo.oliva2 Guarda i messaggi
Guarda... ora ho problemi di pasta termica, ma come mi arriva la DFI FXb, con 5 scatolette di pasta , prometto che lo tiro di brutto.
Anche perché quando elaboravo le WU di seti, avevo detto che sopra i 3,2GHz avevo un guadagno di minor tempo di elaborazione maggiore in rapporto dei 50-100MHz in più di clock.
Se la DFI si comporta bene, spero di fare dei super bench almeno a 3,4-3,5GHz, uniti all'NB massima ottenibile, e credo che ci saranno delle sorprese.

[imghttp://www.pctunerup.com/up/results/_200809/20080911125203_articsilver.JPG[/img]
Vabbeh... Anche senza tirare il collo ai core (già 3.1, 3.2 va bene), l'importante è tirare il collo a NB e RAM (molto più facile in termini di consumi e dissipazione)... Giusto per sapere cosa aspettarci rispettivamente da un NB del deneb finalmente cloccato alto e da ram molto vicine alle DDR3...
__________________
0 A.D. React OS
La vita è troppo bella per rovinarsela per i piccoli problemi quotidiani...
IL MIO PROFILO SOUNDCLOUD! IL MIO CANALE YOUTUBE! IL MIO PLUGIN VST PROGRAMMABILE!
bjt2 è offline  
Old 11-09-2008, 12:28   #12877
Mercuri0
Senior Member
 
Iscritto dal: Jan 2006
Messaggi: 4414
Quote:
Originariamente inviato da Scrambler77 Guarda i messaggi
Il fatto è che tu, come tanti altri, così come tutto il mercato mainstream, non compri phenom in ambito server...
Ma non compri neanche Quad: secondo le stime di lntel i quad core saranno un 13% del mercato per tutto il prossimo anno e oltre.

Nel progetto di una nuova CPU, ci sta riferirsi al mercato server. lntel ha fatto così anche per Nehalem.

Come dico sempre ormai si progettano CPU per server e CPU per notebook. Anche il core è venuto fuori così.

Sui desktop si monta quella delle due che ci sta meglio, tra le CPU per notebook "venute male" (con consumi maggiori) o le CPU per server "venute male"

Quote:
A sto punto poteva benissimo fare K10 "quad-nativo" per i server e K10 "dual-affiancato" per il mercato mainstream, magari risparmiando un bel po' di soldi senza sacrificare le prestazioni.
Non c'è "risparmiando un bel pò di soldi" in quello che dici. I costi sarebbero raddoppiati.

edit :Tra l'altro AMD ha impegnato risorse -ma guarda un pò- per la versione specifica per i portatili (il "Griffin"), il dual core K8 con le funzioni di risparmio energetico k10.

Ultima modifica di Mercuri0 : 11-09-2008 alle 12:40.
Mercuri0 è offline  
Old 11-09-2008, 12:32   #12878
paolo.oliva2
Senior Member
 
L'Avatar di paolo.oliva2
 
Iscritto dal: Jan 2002
Città: Urbino (PU)
Messaggi: 31732
Quote:
Originariamente inviato da Scrambler77 Guarda i messaggi
Il fatto è che tu, come tanti altri, così come tutto il mercato mainstream, non compri phenom in ambito server...
Mi sembra che parlavamo di architettura... quindi nel discorso architettura io ci ho visto le qualità per entrambi i settori... D'altronde... gli Xeon con l'architettura Core2 con 12MB di cache li vende Intel in mercato server no?
E poi se volessimo puntualizzare, come io non compro opteron, di quad il mercato al momento non ne ha bisogno e neanche l'anno prossimo e l'anno venturo, di qui tutti i vari Q6600 venduti, di esigenza effettiva non ne vedo. Anche perché, visto che in single-core vanno meno dei rispettivi dual, di per sé sarebbero il contrario di ciò che il mercato chiede.

Quote:
A sto punto poteva benissimo fare K10 "quad-nativo" per i server e K10 "dual-affiancato" per il mercato mainstream, magari risparmiando un bel po' di soldi senza sacrificare le prestazioni.
Questo non ti so dire... A vedere come va il K10 dual.... a sto punto avrei fatto tutte le modifiche ma anziché fare 4 core e tagliarne 2, lo avrei fatto solo con 2 core di partenza e poi accrocchiato sullo stile Intel aspettando il 45nm. Da come sta andando in IPC il K10 dual... una volta portato sul 45nm e con clock stock più alti, le cose cambieranno parecchio.
E comunque non è confrontabile AD Intel... a tutti gli effetti un 9950, anche se quad, va di più di un K8 anche in esecuzione di single-core... cosa che invece l'Intel non riesce a fare.

Comunque meglio aver passato 1 anno di croci su 65nm che ad AMD sono serviti a farsi le ossa, e vedere ora un 45 che viaggia, anziche avere un altro anno di tribolazione e rivederci nel 2010, se non avesse preso la strada sul quad nativo. In fin dei conti i problemi a partire dall'MC integrato e quant'altro, per AMD sono una cosa passata, mentre Intel con il Nehalem ci si sta scornando ora.

Ma è giusto, secondo me, che AMD debba guardare al futuro. Intel non ha interessi a farlo, se non quando è costretta dai concorrenti. Tutte e due le ditte chiaramente guardano i soldi, ma AMD è sempre comunque portata a cercare di darti di più e farti spendere di meno, già per la natura del mercato, mentre Intel cerca di darti il minimo per chiederti il massimo.
Nessuno mi toglie dalla testa che senza AMD, i Core2 sarebbe l'ultimo procio progettato per i prossimi 10 anni.

Ultima modifica di paolo.oliva2 : 11-09-2008 alle 12:35.
paolo.oliva2 è online  
Old 11-09-2008, 12:46   #12879
paolo.oliva2
Senior Member
 
L'Avatar di paolo.oliva2
 
Iscritto dal: Jan 2002
Città: Urbino (PU)
Messaggi: 31732
Quote:
Originariamente inviato da Scrambler77 Guarda i messaggi
Dai questa è una forzatura. Intel ha garantito il supporto al socket 775 dal Pentium 640 (single core) al Core2-Quad (quad core). Sulla mia P5WDG2-WS Pro ho montato una decina di cpu diverse, dal Pentium-D all'attuale penryn q9300... Era ovvio che dovesse conservare tutta la struttura esterna.
Io intendo dire che l'I/O del Core2 è un problema... e che sicuramente lo stesso I/O che deve alimentare 4 core al posto di 2, è certamente una forzatura.

Fra 2 mesi lo vedremo... è chiaro che Intel ha capitalizzato il Core2 per far spendere di più ai clienti con la minor spesa possibile, ma ripeto... la scelta giusta o sbagliata l'ha data AMD con un procio basso in clock... con il Deneb vedremo se la stessa scelta sarebbe stata valida nel caso che il B3 fosse arrivato a clock alti.

E' una mia idea... non solo mia comunque, che l'IPC del Core2 non può reggere oltre a determinati clock se non aumentando la cache L2.... ma porterebbe a costi di produzione troppo alti, in quanto aumenterebbe la dimensione del die a scapito del guadagno. Il Penryn non ha un IPC superiore tale da giustificare il raddoppio della cache. Da qui ne deduco, anche per la logica in cui Intel ha ingrandito le cache, sempre accompagnate ad un aumento di clock, proprio la ragione della L2 grande... avere più spazio per tenere i dati che chiederà il procio.

Se un Deneb arrivasse a 4GHz in OC, vorrei vedere le differenze di IPC con il Penryn... perché un I/O studiato per un dual a 3,2GHz, non può mantenere 4 core a 4GHz... neanche montandoci le DDR3 a 1600MHz.

Ultima modifica di paolo.oliva2 : 11-09-2008 alle 12:56.
paolo.oliva2 è online  
Old 11-09-2008, 12:53   #12880
Athlon 64 3000+
Bannato
 
Iscritto dal: Dec 2003
Città: Monteveglio(Bo)
Messaggi: 10006
Quote:
Originariamente inviato da bjt2 Guarda i messaggi
Concordo con te. L'implementazione delle specifiche ha dei bug, ossia non funziona esattamente come da specifica. Se fosse un problema del silicio in senso stretto, alcuni esemplari lo avrebbero e altri no. Invece è proprio nel DISEGNO del circuito che implementa le specifiche che si è commesso l'errore. Le specifiche sono un algoritmo per risolvere dei problemi. Questo algoritmo è implementato in hardware. Come tutti i software può avere bugs. Ma per correggerli occorre fare modifiche al DISEGNO.
Quindi magari grazie anche ai 45 nm e mettendo mano all'architettura c'è la possibilità che i 4-5 bug gravi di cui soffre il Phenom B3 possano essere risolti definitivamente.
Athlon 64 3000+ è offline  
 Discussione Chiusa


Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso Microsoft Surface Pro 12 è il 2 in 1 pi&u...
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet! Recensione REDMAGIC Astra Gaming Tablet: che spe...
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2 Dopo un mese, e 50 foto, cosa abbiamo capito del...
Gigabyte Aero X16 Copilot+ PC: tanta potenza non solo per l'IA Gigabyte Aero X16 Copilot+ PC: tanta potenza non...
vivo X200 FE: il top di gamma si è fatto tascabile? vivo X200 FE: il top di gamma si è fatto ...
Netflix porta l'AI sul set: effetti spec...
Pawnix sono le bizzarre (ma utili) cuffi...
Zuckerberg non testimonierà: salt...
SPID usato per anni con un documento ann...
I migliori produttori di tecnologia? Fac...
Il padre di The Elder Scrolls ha un male...
NIO lancia la nuova Onvo: batteria scamb...
La Cina blocca l'export della tecnologia...
Nuovi dazi USA: +93% sulla grafite anodi...
Acer Predator Helios Neo 16S AI e Aspire...
Xiaomi entra nel tennis: sarà for...
Follie su Amazon: OLED a metà pre...
iPhone 17 Pro in arrivo in quattro varia...
A soli 104€ il robot Lefant M330Pro che ...
Zuckerberg costruisce datacenter... nell...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 20:38.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v