PDA

View Full Version : CPU... vanno meglio gli AMD o gli INTEL?


GT82
03-12-2007, 20:29
Siccome devo fare un nuovo sistema, guardando meglio i tempi nel thread relativo a Spinhenge gli Athlon X2 vanno meglio dei vari E6400 ed E6600 se fate una proporzione tra le velocità di clock...

però in giro si sente dire ovunque che gli Intel vanno di più (a parità di frequenza)

dove sta la verità? :mbe:

Il Capitano
03-12-2007, 21:10
Siccome devo fare un nuovo sistema, guardando meglio i tempi nel thread relativo a Spinhenge gli Athlon X2 vanno meglio dei vari E6400 ed E6600 se fate una proporzione tra le velocità di clock...

però in giro si sente dire ovunque che gli Intel vanno di più (a parità di frequenza)

dove sta la verità? :mbe:
Vox Populi, vox dei :O

inq uesto thread trovi la prova fatta su Wu solo di spionhenge, ma devi anche vedere gli altri progetti. Di solito i core 2 sono più migliori degli AMD :D

gabi.2437
03-12-2007, 22:24
Ahia, prevedo un giù botte da orbi....

Cavalcate ora, cavalcate per la rovina e la fine del mondo!!!!

Effelle
04-12-2007, 01:04
Penso che questa pagina faccia pensare.
http://punto-informatico.it/p.aspx?i=2119287

GT82
04-12-2007, 14:05
Penso che questa pagina faccia pensare.
http://punto-informatico.it/p.aspx?i=2119287

Che è meglio prendere un Intel dici..

GT82
06-12-2007, 09:26
Il benchmark interno del programma rispecchia anche le prestazioni reali di calcolo oppure no?

IllidanRulez
06-12-2007, 11:56
Il benchmark interno del programma rispecchia anche le prestazioni reali di calcolo oppure no?
solitamente no

il più delle volte viene eseguito a insaputa dell'utente, che magari sta facendo altre cose e quindi viene influenzato negativamente

ti consiglio di dare uno sguardo a questo thread:
http://www.hwupgrade.it/forum/showthread.php?t=1582061

GT82
06-12-2007, 13:21
solitamente no

il più delle volte viene eseguito a insaputa dell'utente, che magari sta facendo altre cose e quindi viene influenzato negativamente

ti consiglio di dare uno sguardo a questo thread:
http://www.hwupgrade.it/forum/showthread.php?t=1582061

Da quella classifica si evince che gli Intel e gli AMD hanno le stesse identiche prestazioni come numero di calcoli per clock

si può dire quindi che nel calcolo distribuito l'architettura K8 tiene testa alla grande alla Core 2?

IllidanRulez
06-12-2007, 13:31
Da quella classifica si evince che gli Intel e gli AMD hanno le stesse identiche prestazioni come numero di calcoli per clock

si può dire quindi che nel calcolo distribuito l'architettura K8 tiene testa alla grande alla Core 2?
nella maggiorparte dei casi si tratta di applicazioni NON ottimizzate (e se sono uguali mi viene da pensare che neanche spinhenge lo sia) per sfruttare tutte le caratteristiche del processore
in questo caso, a parità di clock, e logico pensare che le prestazioni siano uguali

però esistono diverse app ottimizzate (soprattutto, o forse solo per seti) che invece in base alle istruzioni che un processore può eseguire aumentano di parecchio le prestazioni
ma anche in questo caso, se sia un intel che un amd supportano quel particolare set di istruzioni, credo che le prestazioni non varino di molto

in conclusione: alla fin fine come prestazioni sono simili se non uguali, ti conviene di più guardare aspetti come dissipazione del calore, possibilità di overclock e consumi ;)

GT82
06-12-2007, 15:02
in conclusione: alla fin fine come prestazioni sono simili se non uguali, ti conviene di più guardare aspetti come dissipazione del calore, possibilità di overclock e consumi ;)

Infatti adesso guarderò proprio quegli aspetti, soprattutto il rapporto overclock/consumo :D :D

iuccio
06-12-2007, 18:51
Overclock e consumo non vanno per nulla d'accordo.

All'aumentare della frequenza i consumi aumentano in modo più che lineare.

Io personalmente tengo la mia CPU a default (athlon 3200+ ma con 1.175V invece che 1.4V) e consuma molto di meno così.

Il top sarebbe un quad core ben downvoltato su una MB con chipset tranquillo, senza grafica (nemmeno integrata), senza HD e con un solo banco di RAM.

Ovvio che se il PC vuoi anche usarlo questa config non è fattibile..

GT82
06-12-2007, 19:30
Infatti sto seriamente pensando ad una scheda G33 con sopra un bel Q6600, il consumo se non si overvolta varia linearmente con la frequenza (molto spesso anche meno che linearmente), quasi sempre il Vcore di default dei processori permette di alzare la frequenza in tutta stabilità

solo così si massimizza l'efficienza, cioè il rapporto prestazioni/consumo

fantalorenzo
10-12-2007, 10:26
ciao, mi unisco alla discussione per ampliare un attimo l'argomento ovvero: a parità di processore (indipendentemente intel o amd), quanto influiscono

1) la velocita delle RAM?
2) il chipset?

infatti, sopratutto per le RAM, sono indeciso. Attualmente ho la configurazione in firma (ma per via della scheda madre limitata, la ram è settata a 667 anzichè sfruttare gli 800 mhz), e fra un mesetto cambio pc. Pertanto domando ai più esperti: quanto influenza lo scaccolo l'avere 800mhz di ram o 1.066mhz? In parole povere: vale la pena spendere una maggiore cifra oppure la differenza è irrilevante?

grazie per i chiarimenti.

Matrixbob
10-12-2007, 18:57
Non ho caito alla fine le due scuole di pensiero.
Chi riassume?

Il Capitano
10-12-2007, 19:10
ciao, mi unisco alla discussione per ampliare un attimo l'argomento ovvero: a parità di processore (indipendentemente intel o amd), quanto influiscono

1) la velocita delle RAM?
2) il chipset?

infatti, sopratutto per le RAM, sono indeciso. Attualmente ho la configurazione in firma (ma per via della scheda madre limitata, la ram è settata a 667 anzichè sfruttare gli 800 mhz), e fra un mesetto cambio pc. Pertanto domando ai più esperti: quanto influenza lo scaccolo l'avere 800mhz di ram o 1.066mhz? In parole povere: vale la pena spendere una maggiore cifra oppure la differenza è irrilevante?

grazie per i chiarimenti.

Per il calcolo distribuito ciò che conta è il processore e la sua frequenza. Le ram e il chipset influiscono molto poco.

iuccio
10-12-2007, 20:05
Non ho caito alla fine le due scuole di pensiero.
Chi riassume?

ASD se intendi per la discussione dell'overclock, riassumo io:

I consumi aumentano (a parità di processore) in due modi:

- all'aumentare della frequenza

- all'aumentare del voltaggio

Ossia, volendo porla matematicamente,

z=ax+by+c

dove

z = consumo

ax = funzione che descrive l'aumento di consumo legato alla frequenza

by= funzione che descrive l'aumento di consumo legato al voltaggio

c = consumo non evitabile

Bon, semplicemente ax cresce MENO VELOCEMENTE di by

Quindi, all'aumentare della frequenza il consumo cresce meno che all'aumentare del voltaggio.

Inoltre entrambe crescono in modo NON lineare.

Quindi ad esempio se il delta del consumo tra la frequenza x e la frequenza x1, delta(ax) = (ax1 - ax), è pari a un certo tot di consumo in più, il delta del consumo tra la frequenza x1 e la frequenza x2, delta(ax) = (ax2 - ax1), è maggiore. Di poco magari, ma maggiore.

Quello che dico io quindi è che conviene mantenere il clock standard e abbassare il voltaggio in modo da diminuire il consumo il più possibile senza ridurre la frequenza.

Al contrario GT82 dice che conviene lasciare il voltaggio standard e alzare la frequenza il più possibile per aumentare le prestazioni aumentando il consumo il meno possibile.

Se devo dirtela tutta, nessuna delle due scuole di pensiero rispecchia il metodo "migliore" IMHO.

Bisognerebbe calcolare il rapporto prestazioni/consumo a default e poi studiarne la funzione per vedere dove si colloca il massimo.
Si tratta quindi di capire quale dei due fattori cresce più velocemente, se il consumo o le prestazioni. Allo stesso modo bisognerebbe vedere quale decresce più velocemente.

Personalmente (senza calcoli) credo che il consumo cresca molto più velocemente e quindi la soluzione ottimale dovrebbe essere diminuire il voltaggio il più possibile e forse anche la frequenza.

A questo punto però, se devo proprio dirla tutta (e ormai... tanto vale...) preferisco il metodo delle funzioni di utilità tratto dall'economia, ossia:

fai come preferisci :sofico:

Spero ti sia tutto chiaro (seeeeee come no)

GT82
11-12-2007, 13:52
Quello che dico io quindi è che conviene mantenere il clock standard e abbassare il voltaggio in modo da diminuire il consumo il più possibile senza ridurre la frequenza.

Al contrario GT82 dice che conviene lasciare il voltaggio standard e alzare la frequenza il più possibile per aumentare le prestazioni aumentando il consumo il meno possibile.

Se devo dirtela tutta, nessuna delle due scuole di pensiero rispecchia il metodo "migliore" IMHO.

Bisognerebbe calcolare il rapporto prestazioni/consumo a default e poi studiarne la funzione per vedere dove si colloca il massimo.
Si tratta quindi di capire quale dei due fattori cresce più velocemente, se il consumo o le prestazioni. Allo stesso modo bisognerebbe vedere quale decresce più velocemente.

Personalmente (senza calcoli) credo che il consumo cresca molto più velocemente e quindi la soluzione ottimale dovrebbe essere diminuire il voltaggio il più possibile e forse anche la frequenza.

A questo punto però, se devo proprio dirla tutta (e ormai... tanto vale...) preferisco il metodo delle funzioni di utilità tratto dall'economia, ossia:

fai come preferisci :sofico:

Spero ti sia tutto chiaro (seeeeee come no)


Io ho fatto questo ragionamento:
mettiamo di avere una piattaforma AM2 con un moderno 5000+ Brisbane 65 nm stepping G2 (il meglio che si può avere per socket AM2)

il processore in questione alla frequenza e voltaggio di default consuma 67 watt (fonte Tom's Hardware)
ipotizziamo un consumo in full di una piattaforma così composta pari a 150 watt (in realtà si potrebbe scendere di altri 30-40 watt scegliendo una MB con video integrato)

da molti benchmark effettuati sembra che il calcolo distribuito sia fortemente dipendente dalla velocità di clock e poco dall'architettura (lo dimostra il fatto che le prestazioni dei K8 X2 e dei Core 2 Duo sono uguali a parità di frequenza)
questo vale per le due architetture qui sopra, chiaro che un K7 o un Pentium 4 a parità di frequenza vanno meno

cmq considerando le moderne architetture si può allora dire che il numero di WU elaborate (o cmq di dati elaborati visto che le WU sono uguali solo per alcuni progetti) varia linearmente con la frequenza, quindi si può affermare che le prestazioni nel calcolo distribuito sono proporzionali alla frequenza del processore

default: perciò prendendo il sistema sopra abbiamo 2600 Mhz/150 watt= 17.333 Mhz x watt

underclock: dato che un Brisbane a 2.1 ghz in full richiede 1.075-1.1 V e come vedete tra poco a 3100 regge con 1.3 V si può ipotizzare con buona approsimazione che a velocità di default (2.6 Ghz) richieda 1.15-1-175
quindi nell'ipotesi migliore il consumo del sistema scende a 135 watt (la cpu è passata a 52 watt)
il rapporto prestazioni/consumo è quindi 2600 Mhz/135 watt= 19.18 Mhz x watt

overclock: il 5000 a 3.1 Ghz il consumo della cpu sale a 75 watt, grazie al fatto che il Vcore è rimasto quello di default (fonte Tom's Hardware) in piena stabilità ovviamente (sembra che solo lo stepping G2 consenta un tale risultato, in linea con ciò che accade con i Core 2 Duo insomma)

il consumo dell'intero sistema sale a 158 watt, il rapporto prestazioni/consumo passa quindi a 3100 Mhz/158 watt= 19.62 watt

quindi la conclusione è: le due soluzioni (underclock a frequenza default, overclock a Vcore default) sembrano equivalersi in buona sostanza

insomma qualunque strada scegliate, non lasciate la CPU in configurazione di default!!! :D :D

le stesse considerazioni in linea di massima valgono anche nel caso si scelga di fare una piattaforma Intel

eleonora390
11-12-2007, 13:58
A mio avviso Intel è la migliore.

Marco71
14-12-2007, 10:42
...problema "attuale" del calcolo distribuito su piattaforma B.O.I.N.C è la mancanza per molti dei progetti di:

1) rilascio del codice sorgente del client di analisi dati

2) utilizzo di compilatori (c/c++ in primis) subottimali, soprattutto per i processori Intel

Il punto 2 è ancora più "grave" stante il fatto che Intel dispone ad oggi della migliore dotazione di compilatori e librerie di primitive (le Intel Integrated Performance Primitives I.P.P giunte alla versione odierna 5.3; le M.K.l di solito non vengono utilizzate nemmeno dai migliori client per S.e.t.i@home).
E' ormai appurato che la suite di compilatori G.N.U non è in grado di estrarre "tutto il parallelismo" possibile dalle circuiterie S.I.M.D integrate nei processori Intel x86 (tutto il discorso però si applica anche ad i processori di Advanced.Micro.Devices)...
Intel rilascia per sistemi operativi Linux sia i compilatori c/c++, Fortran e sia le librerie I.P.P/M.K.L con licenza "gratuita".
In pratica per moltissimi progetti di calcolo distribuito che non siano l'eccezione S.e.t.i@home e per sistemi dotati di processori x86 (con sistemi operativi a 32 o 64 bit) la analisi dei dati viene ad oggi ancora condotta con client subottimali dal punto di vista dell'efficienza del codice prodotto dai compilatori.
Grazie.

Marco71.

GT82
14-12-2007, 11:13
La domanda sorge spontanea quindi:

perchè non fanno nulla? perchè il codice di Rosetta non lo rendono pubblico tanto per fare un esempio...

IllidanRulez
14-12-2007, 11:42
La domanda sorge spontanea quindi:

perchè non fanno nulla? perchè il codice di Rosetta non lo rendono pubblico tanto per fare un esempio...
mi pare ci fosse stata una discussione parecchio tempo fa sul forum di rosetta quando lo seguivo, ma gli admin hanno deciso di non rilasciarlo

i motivi proprio non me li ricordo, puoi provare a fare un post tu :stordita:

Il Capitano
14-12-2007, 11:49
...problema "attuale" del calcolo distribuito su piattaforma B.O.I.N.C è la mancanza per molti dei progetti di:

1) rilascio del codice sorgente del client di analisi dati

2) utilizzo di compilatori (c/c++ in primis) subottimali, soprattutto per i processori Intel

Il punto 2 è ancora più "grave" stante il fatto che Intel dispone ad oggi della migliore dotazione di compilatori e librerie di primitive (le Intel Integrated Performance Primitives I.P.P giunte alla versione odierna 5.3; le M.K.l di solito non vengono utilizzate nemmeno dai migliori client per S.e.t.i@home).
E' ormai appurato che la suite di compilatori G.N.U non è in grado di estrarre "tutto il parallelismo" possibile dalle circuiterie S.I.M.D integrate nei processori Intel x86 (tutto il discorso però si applica anche ad i processori di Advanced.Micro.Devices)...
Intel rilascia per sistemi operativi Linux sia i compilatori c/c++, Fortran e sia le librerie I.P.P/M.K.L con licenza "gratuita".
In pratica per moltissimi progetti di calcolo distribuito che non siano l'eccezione S.e.t.i@home e per sistemi dotati di processori x86 (con sistemi operativi a 32 o 64 bit) la analisi dei dati viene ad oggi ancora condotta con client subottimali dal punto di vista dell'efficienza del codice prodotto dai compilatori.
Grazie.

Marco71.

Ecco, è proprio quello che dico sempre io :O






































:sofico: :sofico: :sofico: :sofico:

platini
14-12-2007, 17:50
Credo che se amd impieghi quasi il doppio a parita di freq ad eseguire un test del superpi rispetto a un intel un motivo ci sara , anche se i fanboy amd non lo ritengono un benchmark significativo penso si ripercuota anche sulla manipolazione delle wu.
Poi scusate , basta vedere la classifica per host ...
Se poi ci aggiungiamo che gli intel si overclocckano da paura , non credo ci sia da pensarci su nel voler mettere su un sistema prettamente dedito allo scaccolo.
Bye

Marco71
14-12-2007, 18:46
Ecco, è proprio quello che dico sempre io :O






































:sofico: :sofico: :sofico: :sofico:



...ipse dixit...

:ave: :ave: :ave: :ave: :ave: :ave: :ave:

Grazie.

Marco71.

GT82
14-12-2007, 23:08
Credo che se amd impieghi quasi il doppio a parita di freq ad eseguire un test del superpi rispetto a un intel un motivo ci sara , anche se i fanboy amd non lo ritengono un benchmark significativo penso si ripercuota anche sulla manipolazione delle wu.
Poi scusate , basta vedere la classifica per host ...
Se poi ci aggiungiamo che gli intel si overclocckano da paura , non credo ci sia da pensarci su nel voler mettere su un sistema prettamente dedito allo scaccolo.
Bye

I claimed credit sono esattamente gli stessi a parità di frequenza, non è una questione di fan-boy o meno, quello è un dato oggettivo :read:

x l'overclock chiaramente sono favoriti i Core 2 rispetto ai K8

cmq nel confronto con le architetture precedenti AMD a parità di clock disintegra le cpu Intel

un Athlon XP a parità di frequenza fa esattamente il doppio di FLOPS rispetto ad un Pentium 4, nemmeno con l'Hyperthreading recupera il gap

su Rosetta dove conta moltissimo il float le cose stanno così, su altri progetti non so

SickBoy88
15-12-2007, 14:41
Stai forse dicendo che il mio barton 2800+ su rosetta (il progetto dove scaccolo di più.. anzi.. scaccolo quasi solo li) non è poi tanto un cesso? :D






:sofico:

GT82
15-12-2007, 15:54
Stai forse dicendo che il mio barton 2800+ su rosetta (il progetto dove scaccolo di più.. anzi.. scaccolo quasi solo li) non è poi tanto un cesso? :D






:sofico:

Cesso, stai scherzando?
Guarda i dati del bench interno di BOINC e paragonali ai Pentium 4... :D

SickBoy88
15-12-2007, 23:56
Mah.. nn lo so come siano i bench del pentium 4 :p
Cmq.. che dire.. è una buona notizia questa :D

GT82
16-12-2007, 00:15
Ti do qualche dato dei miei pc:

- Athlon XP 2400+ (2000 Mhz) FSB=266 RAM=266...............FPU=2003.....IU=3318

- Pentium 4 Northwood (2000 Mhz) FSB=400 RAM=400............FPU=1050.....IU=1950

- Pentium 4 Prescott 2 Mb (3000 Mhz) FSB=800 RAM=400.........FPU=1364.....IU=1823


sono dati che si commentano da soli

SickBoy88
16-12-2007, 00:23
:eek: :eek:
Ma.. ma.. cioè! Un athlon 2000 di frequenza fa 3318 ed in pentium 3000 solo 1823?? :eek:

Ma.. viva gli AMD!!!!!!!!!!!! :sofico:
Questi dati sono veramente scioccanti :D


16/12/2007 1.24.42||Running CPU benchmarks
16/12/2007 1.24.43||Suspending computation - running CPU benchmarks
16/12/2007 1.25.14||Benchmark results:
16/12/2007 1.25.14|| Number of CPUs: 1
16/12/2007 1.25.14|| 1894 floating point MIPS (Whetstone) per CPU
16/12/2007 1.25.14|| 3111 integer MIPS (Dhrystone) per CPU
16/12/2007 1.25.15||Resuming computation


Ecco il mio bench da BOINC. quel "IU" che avevi scritto.. a quale corrisponde di questi?

GHz
16-12-2007, 01:23
Ti do qualche dato dei miei pc:

- Athlon XP 2400+ (2000 Mhz) FSB=266 RAM=266...............FPU=2003.....IU=3318

- Pentium 4 Northwood (2000 Mhz) FSB=400 RAM=400............FPU=1050.....IU=1950

- Pentium 4 Prescott 2 Mb (3000 Mhz) FSB=800 RAM=400.........FPU=1364.....IU=1823


sono dati che si commentano da soli

Se questi dati si riferiscono al bench di BOINC sono per CPU, quindi il prescott è HT e ne ha 2

SickBoy88
16-12-2007, 09:01
Se questi dati si riferiscono al bench di BOINC sono per CPU, quindi il prescott è HT e ne ha 2
Cioè.. dici che BOINC ti dice le prestazioni per 1 CPU e nel caso sia HT devi moltiplicare per 2? :confused:
Può darsi. Nel caso sia così il prescott farebbe 2728 FPU ed ora si spiegherebbe tutto :cry: mi sembrava strano che il mio piccolo barton fosse così buono :stordita:

Marco71
16-12-2007, 09:39
...ha ragione il Maestro GHz...
Le due unità "logiche" dei Pentium 4 HyperThreading quando utilizzate assieme, conducono a ridotti valori di benchmarking in B.O.I.N.C.
L'HyperThreading, come moltissime delle applicazioni "in hardware reale" delle ricerche condotte negli anni '50-60-70 nella computer science e nell'elettronica, è stato implementato da Intel prima di arrivare tecnologicamente (per quello che al pubblico è dato sapere) a compiutezza implementativa.
Purtroppo l'Hyper Threading dei Pentium 4 non replica tutte le unità esecutive (A.L.U, F.P unit ecc.) ma solo lo stato architetturale del processore unitamente agli A.P.I.C che servono in qualsiasi ambiente a multiprocessing simmetrico sia esso in forma di unità logiche multiple interne (H.T.),multi nucleo come nei Core Duo 2 /Quad oppure in sistemi multi via.
D'altronde l'algoritmo F.F.T più noto risale ad uno storico studio ci Cooley & Tuckey del 1965 che però solo anni dopo ha potuto essere implementato da un processore a circuito integrato.
Grazie.

Marco71.

GT82
16-12-2007, 09:55
Sì chiaramente ha l'Hyperthreading, ma non so se basti a farsì che le prestazioni siano esattamente il doppio (per i motivi appena detti da Marco... insomma non è come avere un dual core)

ciò non toglie che anche con l'HT a parità di clock gli Athlon son più forti lo stesso, se girasse a 3 Ghz il Thoroughbred sopra farebbe 3000 punti all'FPU, probabilmente un Barton con 512 Kb di cache L2 fa ancora meglio

IllidanRulez
16-12-2007, 10:14
attivando l'HT, come ha detto ghz, un p4 da 3ghz risulta come 2 processori da 1,5ghz, e manda 2 WU alla volta invece che una
ve lo posso confermare dato che ho provato con il p4 2,8 che ho in casa

direi che è logico pensare che sia quasi esattamente il doppio, come prestazioni

che poi come ho già detto prendere il bench di boinc con le pinze, il RAC è piu attendibile

Marco71
16-12-2007, 10:39
...interni alla backbone B.O.I.N.C sono anche passibili di essere molto finemente ottimizzati per le varie architetture di processore x86 Intel (tramite i suoi compilatori c/c++ in primis)...
Architetturalmente parlando la Netburst (per motivi sicuramente anche di disponibilità di un processo di integrazione adeguato) è molto inefficiente proprio nei due sottosistemi che interessano ai fini dei risultati ottenibili dai classici benchmark Dhrystone e Whetstone.

1) floating point unit

2) integer units

A.M.D era da questo punto di vista largamente molto più efficiente...
E comunque sia l'uso dello stack di f.p.u x87 ad oggi è sempre meno frequente...
Per moltissime ragioni...e B.O.I.N.C con i suoi clients di analisi non fa eccezione...
I clients più efficienti, tra i quali sicuramente quello per S.e.t.i@home specialmente se ri-ottimizzato a partire dal codice sorgente per l'uso delle suite Intel, si affidano in toto sotto architettura x86 32 bit ma anche x86 64 bit, alle possibilità offerte dai sottosistemi S.S.Ex (soprattutto l'S.S.E2).
Con le f.p.u x87 I.E.E.E 754 (e seguenti) ad esempio, le funzioni trascendenti (Log, LN, Sin,Cos,CosSin ecc.ecc.ecc.) hanno una latenza di "produzione risultati" troppo elevata che non è più adeguatamente mascherabile come si faceva quando i processori e le loro A.L.U per interi ed istruzioni logiche, erano proporzionalmente "più lente" rispetto ad oggi...
Poi c'è da tenere in conto che oggi B.O.I.N.C esegue periodicamente i benchmark suddetti solo per calibrare il carico di lavoro assegnabile...
Grazie.

P.S: il raddoppio in senso matematico "x2" nella realtà fisica e nei computer è mera chimera...l'HyperThreading di Netburst non fa eccezione...
Cmq. sia lo speedup ottenibile con istanze multiple di S.e.t.i@home tramite l'uso dell'H.T è vantaggioso ben oltre la maggiore efficienza A.M.D...

Marco71.

GT82
17-12-2007, 00:22
Marco sai dire perchè gli Athlon X2 a parità di frequenza vanno come i Core 2 Duo? (parlo di Rosetta e Spinhenge, gli altri non so)

perchè non c'è quel gap in termini di IPC che mediamente si aggira sul 20-30%? :confused:

Marco71
17-12-2007, 08:57
...a causa di alcuni fattori...

1) possibile utilizzo della suite di compilatori c/c++/assembly G.N.U G.C.C che non riesce a mettere in luce "le doti" ad esempio delle unità S.I.M.D S.S.E2 a ciclo singolo da 128 bit degli Intel Core (oltre che una nutrita serie di altre ottimizzazioni possibili ad oggi solo tramite l'uso dei compilatori Intel)

2) può anche darsi che i clients di analisi che tu hai citato siano stati prodotti facendo uso, in proporzione, di più istruzioni appartenenti al set x87 dove "storicamente" A.M.D ha "sempre" avuto il suo punto di forza...

Per meglio conoscere il perché di questo delta si potrebbe utilizzare un programma di tuning come VTune di Intel per vedere quali sono i "colli di bottiglia" messi in luce dai clients...
Questo per dire che come diceva un noto redattore su MCMicrocomputer negli anni '80 e '90, non esiste una architettura hardware "buon per tutte le stagioni" (parafrasando il titolo di un film).
Grazie.

Marco71.

iuccio
18-12-2007, 10:06
http://www.hwupgrade.it/news/cpu/prezzi-al-ribasso-per-le-cpu-phenom_23652 (http://www.hwupgrade.it/news/cpu/prezzi-al-ribasso-per-le-cpu-phenom_23652.html).html

Per chi se la fosse persa... quad al prezzo dei dual :ave: AMD

SickBoy88
18-12-2007, 10:10
Ahahaha! io l'avevo già letto quel post.. quasi non ci credevo :eek:
Però ho anche letto che c'è un bug nei proci.. e potranno uscire solo dopo la metà del 2008 :stordita: Peccato.. volevo comprarmelo.. con il mio pc attuale scaccolo poco :cry:

iuccio
18-12-2007, 10:56
Il bug c'è ma da quel che si è capito non è importante dato che crea problemi solo in situazioni davvero particolari.

I proci dovrebbero già essere sul mercato...

Edit: dimenticavo... hai la firma irregolare ;) Max 3 righe a 1024*768

SickBoy88
18-12-2007, 11:10
Bhe.. si.. capisco che si manifesta solo in situazioni davvero particolari.. però comprare un procio quando so che c'è un bug che si potrebbe manifestare.. beh..mi fa un po storcere il naso.
Cmq non so.. tanto devo aspettare ancora come minimo 6 mesi per prendermi il pc nuovo.. quindi di tempo ce n'è. Per ora scaccolo quanto posso con questo :(
P.S modifico subito la firma, pardon! :D

dinigio63
04-02-2008, 11:01
Ciao a tutti, al momento ho 2 pc (da ieri),dedicati nei tempi morti ovvero il 99% al SETI, un opteron 165@2500 (mannaggia alla A8V che non sale...) ed un A64-2800@2400.
Per un pacchetto da 64 crediti (63.98 per la precisione), ho un tempo sul primo pc di circa 3h45m
(2 pacchetti in contemporanea), mentre sul secondo circa 4h
il bench di BOINC mi dice:
opteron165
Measured floating point speed 2457.8 million ops/sec
Measured integer speed 4459.98 million ops/sec
chiaramente per ogni core
A64 2800
Measured floating point speed 2378.31 million ops/sec
Measured integer speed 4329.19 million ops/sec
da quello che vedo sui tempi, il dual core fa esattamente il doppio di pacchetti a parità di frequenza nello stesso tempo.
Grazie a Iuccio per il benvenuto!
P.S.
domani appronto anche un A64 3500 che và a 3000 senza batter ciglio :)

iuccio
04-02-2008, 11:21
Bel parco macchine!

Hai messo i client ottimizzati?

dinigio63
04-02-2008, 11:55
Cosa sono i client ottimizzati? scusami se sono niubbo... :(

iuccio
04-02-2008, 13:42
Sono dei client compilati per funzionare meglio con certe CPU.

Leggiti questo topic
http://www.boincitaly.org/index.php?option=com_fireboard&Itemid=2&func=view&id=561&catid=19

Trovi lì anche i link per scaricarteli e come installarli

dinigio63
04-02-2008, 14:07
Wawww sono senior member da 1 post.....
il migliore che ho trovato implementa le SSE2 su amd,ho Vista, ma voglio provare su XP per vedere le differenze di velocità, però mi ha fatto uno scherzo strano, mi ha cancellato tutti i WU in lista eseguendoli o facendo finta di eseguirli in 3 secondi netti, poi quelli nuovi caricati, sembra li stia facendo bene, ora proverò a misurare tempo e crediti per vedere se è migliorato, ti saprò dire, grazie!
:)

dinigio63
04-02-2008, 19:48
Niente da fare, il tempo di elaborazione è risultato identico a prima, ed in più sulla lista dei WU elaborati mi dà compute error, ho dovuto disinstallare tutto e reinstallare(3 minuti...)
:)

Aut0maN
04-02-2008, 22:06
sto aspettando ansiosamente i nuovi quad penryn, vedo troppi q6600 che in poco tempo mi devastano :D
Ci sono già esemplari in giro?

Avrei anche preso in considerazione i phenom, ma non mi convincono molto :rolleyes:

SickBoy88
05-02-2008, 09:30
No no.. lascia stare i phenom :D Prenditi un quad intel :sofico:

djtux
05-02-2008, 10:18
No no.. lascia stare i phenom :D Prenditi un quad intel :sofico:


Ehm... perché scusa? >> http://www.amd.com/us-en/Processors/ProductInformation/0,,30_118_15331_15332%5E15346,00.html

SickBoy88
06-02-2008, 08:15
Ehm... perché scusa? >> http://www.amd.com/us-en/Processors/ProductInformation/0,,30_118_15331_15332%5E15346,00.html
Perchè io un quad intel ce l'ho.. e posso proprio dire che spendere quei 203 euro ne è valsa proprio la pena :D

gabi.2437
06-02-2008, 08:25
Bhe.. si.. capisco che si manifesta solo in situazioni davvero particolari.. però comprare un procio quando so che c'è un bug che si potrebbe manifestare.. beh..mi fa un po storcere il naso.
Cmq non so.. tanto devo aspettare ancora come minimo 6 mesi per prendermi il pc nuovo.. quindi di tempo ce n'è. Per ora scaccolo quanto posso con questo :(
P.S modifico subito la firma, pardon! :D

Tutti i processori hanno decine di bug però lì compri tranquillamente

Ma quello no perchè di quel bug ne han parlato tanti? :rolleyes:

SickBoy88
06-02-2008, 08:59
Bhe.. alla fine però ho deciso di comprarmi un intel. Ed adesso ho un Q6600 ovecloccato con lo stock del 33% ovvero a 3.2
E posso anche portarlo più su..