View Full Version : Comparativa tra cpu: 48 processori a confronto
Redazione di Hardware Upg
19-10-2007, 11:18
Link all'Articolo: http://www.hwupgrade.it/articoli/cpu/1826/comparativa-tra-cpu-48-processori-a-confronto_index.html
Da un minimo di 37 dollari sino a 999 dollari: questo l'intervallo di prezzo che corre, alla luce dei listini ufficiali di Intel e AMD, tra i 48 processori posti a confronto in questa analisi comparativa. Un prezzo di 27 volte superiore a quello della cpu Sempron 3.400+ permetterà al processore Core 2 Extreme QX6850 di essere sino a 27 volte più veloce?
Click sul link per visualizzare l'articolo.
I link alle tabelle riparametrate sono sbagliati.
I link creati dinamicamente dallo script puntano alla root mentre le immagini sono nella directory dell'articolo.
semi OT: ma se i sistemi completi assorbono in full load da 125 a 318W (il max) con media indicativamente 180-200W (media tra tutti i proc), considerando che sono sistemi completi con HD, mem, audio, sk video più che discreta, un alimentatore da 600W a cosa lo uso?!? Devo metterlo solo quando ho 2 schede 8800 in SLI?
una domanda sulla rilevazione dei consumi dei processori intel in idle:
oltre al moltiplicatore, viene abbassato anche il voltaggio?
Ottima review.
Beh alla fine AMD non ne esce male pur avendo una architettura più vecchia, in particolare ottimi i risultati sui consumi delle cpu meno potenti, il sempron va come o meglio del celeron, è conveniente e si trova con buone mobo, sulla fascia media si difende ma gli manca un vero top di gamma, che sta arrivando. Aspettiamo...
giaballante
19-10-2007, 11:35
Grazie e complimenti per lo sforzo, ci sarà voluta una montagna di tempo...
Nella mia classifica personale al primo posto per uso casalingo c'è l'E2180: pochi euro, pochi watt, moltiplicatore 10x, overclock potenziale 100%.
Aggiungi una giga p35-ds3r ed hai un pc con rapporto prezzo/prestazioni imbattibile.
Paolo Corsini
19-10-2007, 11:40
una domanda sulla rilevazione dei consumi dei processori intel in idle:
oltre al moltiplicatore, viene abbassato anche il voltaggio?
Certamente; questo accade anche con le cpu AMD.
Paolo Corsini
19-10-2007, 11:41
Grazie e complimenti per lo sforzo, ci sarà voluta una montagna di tempo...
Il progetto è iniziato a Luglio, con la raccolta dei primi processori. Ci è voluto più tempo del previsto in quanto alcuni processori non erano disponibili dai produttori e li abbiamo dovuti acquistare, con alcuni ritardi ulteriori in questo.
Il progetto è iniziato a Luglio, con la raccolta dei primi processori. Ci è voluto più tempo del previsto in quanto alcuni processori non erano disponibili dai produttori e li abbiamo dovuti acquistare, con alcuni ritardi ulteriori in questo.
Complimentoni, appena ho letto il numero 48 sul titolo della news ho fatto sta faccia: :eek:
Gran bel lavoro...
paulgazza
19-10-2007, 11:47
alcuni processori non erano disponibili dai produttori e li abbiamo dovuti acquistare, con alcuni ritardi ulteriori in questo.
quelli che non vi servono li rivendete nel mercatino? :D
E dove sono le prove in overclock??? :confused:
:stordita:
:D :asd:
scherzo ovviamente :angel:
Gran lavoro. Complimenti alla redazione.
Dopo aver eseguito alcuni dei test (WinRAR, CPUMark) sul mio E2140 overcloccato al 60%, ho scoperto che va quanto un E6600. Perchè spendere di più? :D
lo_straniero
19-10-2007, 11:50
ottima rece.
ho letto che avete comprato dei cpu .......quindi presumo che fare delle rece abbia dei costi :D?una volta testati i cpu che fine fanno?
Paolo Corsini
19-10-2007, 11:55
quelli che non vi servono li rivendete nel mercatino? :D
ottima rece.
ho letto che avete comprato dei cpu .......quindi presumo che fare delle rece abbia dei costi :D?una volta testati i cpu che fine fanno?
I processori che acquistiamo, e lo stesso vale per qualsiasi altro componente che comperiamo per il nostro lavoro, resta in redazione a disposizione per altre analisi.
Non vendiamo nulla di quello che viene acquistato, detto in altro modo.
"La presenza, in alcuni giochi, di frames al secondo identici ad una specifica risoluzione per la maggior parte dei processori in prova indica che con quelle specifiche impostazioni i frames generati sono limitati dalla potenza di elaborazione della scheda video, e non dal tipo di processore utilizzato. In questo caso l'utilizzo di una scheda video più potente avrebbe permesso di osservare superiore variabilità delle prestazioni passando da un processore all'altro."
Come mai allora, per poter "osservare superiore variabilità delle prestazioni passando da un processore all'altro" , non avete usato una 8800GTX e magari in SLI ? :confused:
Ciao :)
manca un grafico... quello prezzo/ prestazioni
Kharonte85
19-10-2007, 12:02
Io adoro le comparative cosi'...:flower:
Ottimo lavoro!
L'unico punto che mi sento di non condividere è la scelta della 7900gtx al posto di una piu' moderna (ES: 8800gts)
A quando una cosa simile per le schede video? :mc:
Diz-Buster
19-10-2007, 12:02
Veramente Complimenti.
Una ulteriore conferma che per i giochi il rapporto Prestazioni/Prezzo cala in maniera esponenziale al crescere del prezzo.
200-250 euro di budget complessivo per entrambi danno un risultato super soddisfacente.
Mettono a tacere i tanti che se ne escono dicendo
"Vorrei sostituire il mio vecchio Athlon 4000. Cosa mi consigliate???"
Come sempre viene confermato che a risoluzioni "serie" una cpu da 50€ è utile quanto quella da 999..:D speriamo che tutti sti core si inizi ad usarli sul serio anche nei giochi..è divertente vedere come ci sia gente con 500€ di processore che si vede incollati i poverelli che con gli stessi soldi si sn presi sia cpu che scheda video e magari pure altro..:sofico:
ATTENTI A ATHLON X2 5600+ -> Vecchia cpu a 90 nm che costa 100 euro in meno del core 2 duo E6850 e rende solo un 10% in meno!!!
AHAHHAHA VAI PHENOM BRUCIALI TUTTI !!!!!
ottima recensione......
........forse un cpu chart sarebbe da pensare
Kharonte85
19-10-2007, 12:10
Come sempre viene confermato che a risoluzioni "serie" una cpu da 50€ è utile quanto quella da 999..:D speriamo che tutti sti core si inizi ad usarli sul serio anche nei giochi..è divertente vedere come ci sia gente con 500€ di processore che si vede incollati i poverelli che con gli stessi soldi si sn presi sia cpu che scheda video e magari pure altro..:sofico:
Imho questo è uno dei motivi per cui il 3D Mark 2006 ha introdotto il calcolo del punteggio della CPU sul totale...cosi' possono continuare a fare a gara a chi ce l'ha piu' lungo :asd:
Kharonte85
19-10-2007, 12:12
ottima recensione......
........forse un Gpu chart sarebbe da pensare
Quoto :fiufiu:
ma l'athlon x2 5200+ è con processo produttivo a 90 nm, è come quello che ho in firma, e così dovrebbe essere anche per gli athlon LE, giusto?
Imho questo è uno dei motivi per cui il 3D Mark 2006 ha introdotto il calcolo del punteggio della CPU sul totale...cosi' possono continuare a fare a gara a chi ce l'ha piu' lungo :asd:
:D lo penso anch'io.. e intanto mi tocca tirare avanti con un misero E2180..povero me!:cry:
;)
paulgazza
19-10-2007, 12:26
ottima recensione......
........forse un cpu chart sarebbe da pensare
Rilancio con un bel diagramma incrociato: GPU chart con 5 processori di varie fasce...
gianni1879
19-10-2007, 12:29
Decisamente interessante, articolo che rende piuttosto evidente come un A64 5.000+ o un E4500 siano più che sufficienti per giocare a risoluzioni da 1280x1024 senza necessità di spendere più di 150€ nella CPU.
P.S.: attendo impaziente che si passi a Vista 64 per i test
già non vorrei dire ma credo che un Amd 6400+ dia delle batoste al E6850 usando i 64bit, sarebbe interessante vedere appunto le differenze tra i 32 e e 64bit.
cmq notavo prendendo come riferimento le cpu dual core di punta di entrambe le case, E6850 e 6400+ x2, come in idle la cpu amd (riferita ovviamente all'intero sistema) consumi la metà e in full poco di più.
bhe la differenza di consumo sta nel clock.. c'è scritto nell'articolo
Camelvam
19-10-2007, 12:59
:mad: BASTAAAAA!!
AMD!! VOGLIO IMMEDIATAMENTE UN 6400+ X2 939 O SINNO SEI BANNATA!!
:banned:
Comparativa molto interessante.
Complimenti per l'ottimo lavoro!!!
ATTENTI A ATHLON X2 5600+ -> Vecchia cpu a 90 nm che costa 100 euro in meno del core 2 duo E6850 e rende solo un 10% in meno!!!
AHAHHAHA VAI PHENOM BRUCIALI TUTTI !!!!!
un pò pesante come affermazione..... poi vuoi mettere come si Oc un amd o un intel.....
Lavoro notevole!
Questi comparativi sono utilissimi. Particolarmente interessante comparare "nuovo" e "vecchio" (forse non per i venditori, ma per gli utenti sì)
Un suggerimento per rendere lo sforzo effettuato ancira meglio comprensibile: nei grafici riassuntivi (barre monocrome) si potrebbero colorare le barre in base al prezzo della CPU (ad es: fascia fino a 100€, 200€, 400€, oltre) così da evidenziare le differenze. Potrebbe essere ancora più indicativo del money bench, che fa capire la convenienza di una CPU, ma non qual è il miglior prezzo per il livello di prestazioni che io richiedo.
goldorak
19-10-2007, 13:09
Il progetto è iniziato a Luglio, con la raccolta dei primi processori. Ci è voluto più tempo del previsto in quanto alcuni processori non erano disponibili dai produttori e li abbiamo dovuti acquistare, con alcuni ritardi ulteriori in questo.
Beh che dire, ottima recensione. :)
Finalmente si puo' avere una visione d'insieme sui diversi processori usciti nell'ultimo anno.
un lavoro notevole certo qualche notizia sulle prestazioni a 64 bit non ci sarebbe stata male...
Davvero ottimo lavoro.
Adesso chi ha un minimo di senso davvero 'critico-tecnologico-professionale' può effettivamente capire le prestazioni, i consumi 'overall' di sistemi completi, e il rapporto col prezzo d'acquisto di ogni singolo pezzo di silicio...
e questo sia che giocate sia che ci lavorate col pc.
Motto del giorno:
"Evviva la scelta e le concorrenze!" ;)
bonzuccio
19-10-2007, 13:21
Ma sbaglio o più passa il tempo più gli amd vanno meglio?
Sono come il buon vino che invecchia :asd:
Visti i risultati si potrebbe anche sostenere che overclockarlo è inutile :>
imho il vantaggio che ha intel in overclock non lo si vede certo sui processori di fascia alta...perchè come giustamente fatto notare in molti casi è praticamente inutile..diverso può essere il discorso se prendo una cpu da meno di 100€ e con poca fatica la porto a livelli prestazionali dei top gamma..un bel E2XX portato a oltre 2,5Ghz( mi sono tenuto basso appositamente) ti garantisce prestazioni più che eccellenti in tutti gli ambiti, con una spesa minima..:O
Visti i risultati si potrebbe anche sostenere che overclockarlo è inutile :>
io passando da un x2 4400+ a 2700 al mio vekkio e6600 a 3300 avevo fatto un test e avevo guadagnato x esempio in tomb raider 10fps. e alzando di frequenza migliorava la situazione, quindi non dire che è inutile overcloccare xè non è vero
AbarthSS
19-10-2007, 13:28
scusate una curiosita, ma i processori tipo celeron e pentium 631 che nel gioco fear vanno agli stessi frame con le due diverse risoluzioni sono dovuti al cpu limited quindi il collo di bottiglia e quello. Perche' anche a me succede con un p4 3.0ghz e 1950xt agp.
E' per quello che qualunque risoluzione imposto ho sempre gli stessi frame. ciao e grazie
Ma sbaglio o più passa il tempo più gli amd vanno meglio?
Sono come il buon vino che invecchia :asd:
:asd:
da felicissimo possessore di X2 939 di quasi 2 anni fa in una macchina da lavoro e viste le attuali prestazioni per le mie esigenze penso proprio di si.
Upgrade con Phenom AM3 :Prrr: ;)
Ottimo lavoro complimenti: una recensione così estesa si è vista raramente sulla rete.
Vedo che il mio Opteron 165 @ 2.7Ghz, che ha appena compiuto 2 anni, galoppa ancora :-)
Restano le mie perplessità sulle modalità di test di consumo, così come ho già fatto notare con la prima recensione dell'X2 6400+
Non ha molto senso scrivere: "...abbiamo scelto di utilizzare schede madri basate su chipset NVIDIA così da potenzialmente equiparare il consumo dei chipset; sono disponibili in commercio soluzioni ben più economiche, in termini di consumi complessivi, sia per processori Intel che AMD che garantiscono risultati complessivamente più bassi in termini di consumi sia in idle che a pieno carico, e una possibile differente distribuzione dei processori tra di loro all'interno del quadro dei risultati."
Se poi non vi è noto il consumo della sola Mb 590i vs 680i Sli.
In pratica quel quadro consumi è inutile 'per fare confronti incrociati Amd vs Intel.
Noto che la Mb incide pochissimo sulle prestazioni della cpu se non in rari test sintetici, io condurrei il test usando le 2 piattaforme migliori per entrambe, in termini di consumi, cioè 690G vs G35 (così decidete se lasciare una 8800 o meno).
Penso che sia più importante avere, per l'utente no overclocker, una Mb che consuma in meno 20 o 50W in idle /full load, piuttosto che un 2% (ma esagero, il 5%) di prestazioni in più.
io passando da un x2 4400+ a 2700 al mio vekkio e6600 a 3300 avevo fatto un test e avevo guadagnato x esempio in tomb raider 10fps. e alzando di frequenza migliorava la situazione, quindi non dire che è inutile overcloccare xè non è vero
bisogna vedere se i 10fps in più sono da 50 a 60 o da 100 a 110..:O
è lampante dai test dell'articolo che a 1600x1200 gli fps sn dettati praticamente solo dalla vga..o sono orbo io o in tutti i test su videogame le differenze tra cpu amd e intel sono, partendo in molti casi dagli athlon 64 single core:eek: , praticamente nulle??
alberto87
19-10-2007, 13:36
a questo punto mi aspetterei un calo di prezzo delle cpu intel
bisogna vedere se i 10fps in più sono da 50 a 60 o da 100 a 110..:O
è lampante dai test dell'articolo che a 1600x1200 gli fps sn dettati praticamente solo dalla vga..o sono orbo io o in tutti i test su videogame le differenze tra cpu amd e intel sono, partendo in molti casi dagli athlon 64 single core:eek: , praticamente nulle??
era da 57 a 67
era da 57 a 67
a che res? con filtri o senza?
a che res? con filtri o senza?
ai tempi avevo un 19" quindi a 1280x1024 con aa 4x e af 16x tutto a palla.
Feanortg
19-10-2007, 13:51
bella recensione. Come si voleva dimostrare anche una CPU di vecchio stampo non va mai sotto i 40 fps al secondo.
Questo giustifica l'uscita eventuale di schede AGP directx 10.
gianni1879
19-10-2007, 13:52
bhe la differenza di consumo sta nel clock.. c'è scritto nell'articolo
nn è solo questione di frequenza, ma proprio ad una migliore gestione energetica in idle
AsusP7131Dual
19-10-2007, 14:01
Articolo fatto piuttosto bene e non si discute tuttavia alcune critiche mi vengono... Nella pagina dei consumi si è ripetuto più volte che E6750 e E6600 hanno la stessa frequenza ma o mi sono perso qualche riga di spiegazione o a me risulta che E6750 va a 2.67 GhZ mentre E6600 va a 2.40 GhZ quindi ci sono 3 o 4 considerazioni che partono da presupposti sbagliati! :mbe:
Altra piccola domanda... Il mondo dei codec video si sta dirigendo sempre più verso i codec della famiglia MPEG4-AVC, c'è una valida motivazione sul perchè per i test venga usato un Codec (H.264 MainConcept) dal costo di 500€ quando in realtà è disponibile in forma gratuita ed Open Sourceun codec performante almeno tanto quanto il MainConcept? Sto chiaramente parlando di x264, credo che per tutti quelli che come me si dilettano in encoding video sia di gran lunga più interessante una tipica encodata con x264 usando il solito MeGUI piuttosto che un encoding in un codec che è di gran lunga meno usato tra gli utenti "normali". Non è assolutamente difficile usare MeGUI, bastano 10 minuti per imparare, io fossi in voi un pensierino ce lo farei! ;)
Grazie ancora per l'ottima rece! :)
Bluknigth
19-10-2007, 14:02
DEvo dire che a parte il rendering (che guadagna molto dal numero di core) in effetti le vecchieCPU AMD si difendono ancora molto bene.
Anche il 6400X2 non è malvagio tutto sommato, considarando cheè probabilmente il canto del cigno dell'archittettura K9.
Vediamo sti Phenom se ci daranno qualcosa in più?
Io penso che ci sorprenderanno....
MiKeLezZ
19-10-2007, 14:02
Avete cannato in pieno i test sul consumo.
Ci sono degli evidenti problemi con la scheda madre usata per il sistema Intel, che si perpetrano da 3 articoli.
Posso capire che un quad-core Intel consumi un -pochino- di più rispetto a un dual-core AMD, ma evidentemente non può consumare 100W in più rispetto al 6400+, oltretutto sia in idle che in load.
Moltiplici altre recensioni, fra cui quella dell'autorevolissimo Tech Report mostrano come il divario NON SOLO SIA INESISTENTE, MA ADDIRITTURA A FAVORE DI INTEL!!!
http://techreport.com/articles.x/13375/15
VOI:
IL QX6850 CONSUMA 103W IN PIU' IN IDLE RISPETTO AL 6400+
TECH REPORT:
IL QX6850 CONSUMA 12W IN PIU' IN IDLE RISPETTO AL 6400+
(10 VOLTE MENO!!!)
VOI:
IL QX6850 CONSUMA 102W IN PIU' IN FULL RISPETTO AL 6400+
TECH REPORT:
IL QX6850 CONSUMA 10W --IN MENO-- IN FULL RISPETTO AL 6400+
(11 VOLTE MENO!!!)
E' chiaro che qualcuno sta sparando una bomba modello Hiroshima. Quel qualcuno è hwupgrade.
Totti 88
19-10-2007, 14:18
Ma possibile che io con un pentium d 935 a default al 3d mark 2006 cpu test faccio 1602 pt con memorie più lente (667 contro le 800 usate nel test) mentre in questo test lo stesso processore fa 1462 pt?
Kralizek
19-10-2007, 14:20
mi unisco ai complimenti per l'articolo. unica critica: ora tocca farmi il money bench a mano...
Totti 88
19-10-2007, 14:26
Aggiungo che col mio pentium d 935 anche nel benchmark di winrar faccio 750 invece di 647. Mi pare una bella differenza...
Complimenti un lavoro pauroso :)
kronos2000
19-10-2007, 14:31
Non mi infilo nella questione "questo è meglio di quello" ma faccio un paio di considerazioni..
1) Il Sempron consuma meno di un Core2Duo ma poichè impiega un sacco di tempo in più per terminare un compito secondo me conviene un core2Duo comq...perchè poi il processore ritorna a basso regime mentre il Sempron sta ancora al massimo consumo.
2) Serve a poco, se non per confondere le idee, una tabella dei consumi come quella presentata in questo articolo. Occorre una media con benchmark di riferimento..ovvio che un processore con clock superiore o con un numero di transistor superiore consumi di più (scoperta dell'acqua calda) per la durata in cui è al massimo di frequenza. Ma se in un tempo T un processore potente ha già finito il task e l'altro spacciato per meno affamato di energia ha bisogno di un altro lunghissimo DeltaT per completare lo stesso task....beh, il consumo medio può essere a favore del processore con clock più alto!
3) Il Moneybench è un OTTIMO strumento ma, aggiungerei, alla luce dei primi due punti, un ulteriore parametro di valutazione: la bolletta elettrica. E per valutare quest'ultima variabile nell'equazione del Moneybench occorre il consumo MEDIO, non quello -inutile lo ripeto - di picco.
turbo974
19-10-2007, 14:32
io ci avrei messo un procio di fascia media tipo un e6300 clockkato a 3ghz...
Avete cannato in pieno i test sul consumo.
Ci sono degli evidenti problemi con la scheda madre usata per il sistema Intel, che si perpetrano da 3 articoli.
Posso capire che un quad-core Intel consumi un -pochino- di più rispetto a un dual-core AMD, ma evidentemente non può consumare 100W in più rispetto al 6400+, oltretutto sia in idle che in load.
Moltiplici altre recensioni, fra cui quella dell'autorevolissimo Tech Report mostrano come il divario NON SOLO SIA INESISTENTE, MA ADDIRITTURA A FAVORE DI INTEL!!!
http://techreport.com/articles.x/13375/15
VOI:
IL QX6850 CONSUMA 103W IN PIU' IN IDLE RISPETTO AL 6400+
TECH REPORT:
IL QX6850 CONSUMA 12W IN PIU' IN IDLE RISPETTO AL 6400+
(10 VOLTE MENO!!!)
VOI:
IL QX6850 CONSUMA 102W IN PIU' IN FULL RISPETTO AL 6400+
TECH REPORT:
IL QX6850 CONSUMA 10W --IN MENO-- IN FULL RISPETTO AL 6400+
(11 VOLTE MENO!!!)
E' chiaro che qualcuno sta sparando una bomba modello Hiroshima. Quel qualcuno è hwupgrade.
Occhio, il problema non è nei numeri ma nei componenti.
HU testa gli intel su 680i (IMHO scelta sciagurata), il test linkato usa (IMHO più saggiamente) chipset Intel.
Pochi sanno che il 680i consuma da solo 50W in più di un 975/965/P35 ecc :eek: (in full ovviamente ma riesce a consumare 30W in più in idle.........è un chipset-forno)
E' ovvio che così facendo gli intel fanno una figura barbina. ;)
Unasola parola: TITANICO!
Ma quanto ci è voluto per fare tutti sti test???
gianni1879
19-10-2007, 14:42
Occhio, il problema non è nei numeri ma nei componenti.
HU testa gli intel su 680i (IMHO scelta sciagurata), il test linkato usa (IMHO più saggiamente) chipset Intel.
Pochi sanno che il 680i consuma da solo 50W in più di un 975/965/P35 ecc :eek: (in full ovviamente ma riesce a consumare 30W in più in idle.........è un chipset-forno)
E' ovvio che così facendo gli intel fanno una figura barbina. ;)
però in questo caso sono state usate due piattaforme con chipset Nvidia per entrambi i produttori. Teoricamente il consumo dovrebbe essere simile
Matrixbob
19-10-2007, 14:46
Ma il Moneybench che fine ha fatto?
Paolo Corsini
19-10-2007, 14:57
Come mai allora, per poter "osservare superiore variabilità delle prestazioni passando da un processore all'altro" , non avete usato una 8800GTX e magari in SLI ? :confused:
Ciao :)
Tempo: se avessi rieseguito tutti i test con schede di quel tipo non ne sarei più uscito. Quel tipo di configurazione verrà utilizzata per i prossimi test di processori (Penryn e Phenom, tanto per dirla chiaramente).
In quei test ritorneremo a O.S. a 64bit
supercomparativa!! :eek:
ormai nei giochi i processori sono tutti uguali.. inutile l'oc
come mai l'e6600 costa più dell'e6750? :mbe:
però in questo caso sono state usate due piattaforme con chipset Nvidia per entrambi i produttori. Teoricamente il consumo dovrebbe essere simile
Teoricamente si...........in pratica no :)
Il 680i consuma molto di più a causa di un memory controller fatto con i piedi (con tutto il rispetto ma è la verità anche se a prestazioni è un ottimo chipset), gli AMD lo hanno integrato : il risultato è che il 590 consuma "pochissimo" e il 680i consuma un botto. (spesso consuma più lui della CPU :D )
La scelta (IMHO) dei componenti per raffrontare i consumi è sbagliata, mentre per il resto del test è una scelta valida come poteva esserla un'altra.
Comunque il 95% della rece è ottima.
tanto per farsi un idea -> http://www.xbitlabs.com/articles/chipsets/display/nforce-680i-sli_12.html
E' evidente che togliendo anche solo 20-30W dai consumi delle CPU Intel si avrebbero per esempio gli E6600 che consumano come un sempron e ovviamente le conclusioni sarebbero completamente ribaltate.
Ognuno la pensa come vuole ma resto fermamente convinto che i consumi non si possano paragonare con questi componenti. :boh: (chi compra un Core2 ed è interessato ai consumi non compra di certo il 680i ;) , chi compra AMD gli frega poco del chipset dato che consumano tutti "poco", merito di AMD in questo caso)
Sono daccordo con Mike che da questa rece sembra che gli Intel consumino di più di AMD quandi invece è vero il contrario (in full perchè in idle con il risparmio energetico attivato AMD è leggermente avanti, il molti 6x è estremamente limitante per i proci Intel)
Moneybench?
Avete cannato in pieno i test sul consumo.
Ci sono degli evidenti problemi con la scheda madre usata per il sistema Intel, che si perpetrano da 3 articoli.
Posso capire che un quad-core Intel consumi un -pochino- di più rispetto a un dual-core AMD, ma evidentemente non può consumare 100W in più rispetto al 6400+, oltretutto sia in idle che in load.
Moltiplici altre recensioni, fra cui quella dell'autorevolissimo Tech Report mostrano come il divario NON SOLO SIA INESISTENTE, MA ADDIRITTURA A FAVORE DI INTEL!!!
http://techreport.com/articles.x/13375/15
VOI:
IL QX6850 CONSUMA 103W IN PIU' IN IDLE RISPETTO AL 6400+
TECH REPORT:
IL QX6850 CONSUMA 12W IN PIU' IN IDLE RISPETTO AL 6400+
(10 VOLTE MENO!!!)
VOI:
IL QX6850 CONSUMA 102W IN PIU' IN FULL RISPETTO AL 6400+
TECH REPORT:
IL QX6850 CONSUMA 10W --IN MENO-- IN FULL RISPETTO AL 6400+
(11 VOLTE MENO!!!)
E' chiaro che qualcuno sta sparando una bomba modello Hiroshima. Quel qualcuno è hwupgrade.
mi dispiace dirlo ma hai ragione......
basterebbe fare la stessa prova su 965p o p35 per dimostrare come gli intel arrivino addirittura a consumare meno...anche perchè reggono meglio il downvolt del vcore...il celeron 420 di downvolta a vcore 1 senza problemi arrivando sui 18watt di consumo...ed ho detto tutto ;)
Teoricamente si...........in pratica no :)
Il 680i consuma molto di più a causa di un memory controller fatto con i piedi (con tutto il rispetto ma è la verità anche se a prestazioni è un ottimo chipset), gli AMD lo hanno integrato : il risultato è che il 590 consuma "pochissimo" e il 680i consuma un botto. (spesso consuma più lui della CPU :D )
La scelta (IMHO) dei componenti per raffrontare i consumi è sbagliata, mentre per il resto del test è una scelta valida come poteva esserla un'altra.
Comunque il 95% della rece è ottima.
tanto per farsi un idea -> http://www.xbitlabs.com/articles/chipsets/display/nforce-680i-sli_12.html
E' evidente che togliendo anche solo 20-30W dai consumi delle CPU Intel si avrebbero per esempio gli E6600 che consumano come un sempron e ovviamente le conclusioni sarebbero completamente ribaltate.
Ognuno la pensa come vuole ma resto fermamente convinto che i consumi non si possano paragonare con questi componenti. :boh: (chi compra un Core2 ed è interessato ai consumi non compra di certo il 680i ;) , chi compra AMD gli frega poco del chipset dato che consumano tutti "poco", merito di AMD in questo caso)
Sono daccordo con Mike che da questa rece sembra che gli Intel consumino di più di AMD quandi invece è vero il contrario (in full perchè in idle con il risparmio energetico attivato AMD è leggermente avanti, il molti 6x è estremamente limitante per i proci Intel)
un altro che la pensa come noi :D
DevilsAdvocate
19-10-2007, 15:26
C'e' un errore nella tabella finale coi valori normalizzati al sempron
dell'editing video, la tabella è "schiacciata": guardando l'analisi coi valori
assoluti il Q6600 è almeno 4-5 volte più veloce del 3400+ e non solo 1,77:
H624 : 73 secondi contro 360
WME9 : 354 secondi contro 1431
WMM : 345 secondi contro 1452
.....
Comunque, considerato che il 3400+ costa 37 dollari + sk madre antiquata =
circa 80 dollari, e che il Q6600 costa 266 + scheda madre valida circa 380 dollari,
si può davvero pensare che offra più di quello che costa in paragone,
specialmente in editing video e rendering dove va dalle 3,5 alle 9 volte più veloce.
(ovvio che chi fa solo dell'editing audio farà meglio a prendere un AMD)
In pratica lo stesso costo della sk mamma, che un annetto fa era uno svantaggio
per il core 2 duo, oggi è un vantaggio o poco ci manca.
Usare 2 chipset dello stesso produttore su socket diversi (590i vs 680i), non significa affatto che consumino uguale, fino a prova contraria.
Ecco perchè ritengo più opportuno usare i chipset col miglior risparmio energetico, almeno per ora, come il 690G ed il G35, che d'altronde si distaccano pochissimo in prestazioni su quelli Nvidia.
Miglioreranno i consumi degli Amd, ma anche quelli degli Intel, ed almeno si potrà dire che si è fatto tutto il possibile.
IlNiubbo
19-10-2007, 15:29
Quindi a frequenze di default sono meglio gli AMD anche in fascia "medio-alta"
Sentendo i commenti di molti utenti sembrava che gli amd non riuscissero a far partire il pc ... invece sembra vadano bene :)
Bello il 6000+ voi cosa dite?
DevilsAdvocate
19-10-2007, 15:34
Quindi a frequenze di default sono meglio gli AMD anche in fascia "medio-alta"
Huh? forse per editing audio e compressione di archivi, là dove servono
i muscoli (rendering e encoding video che possono richiedere ore)
i processori di intel sono sempre in testa sia a pari prezzo che a pari
frequenza....
(occhio ad esempio a non far paragoni con l'E6700, una persona informata
compra l'E6750 che costa e consuma meno del 6400+, per offrire prestazioni
di poco inferiori, oppure l'E6850 che costa un po' di più e va un pò di più)
E magari mettere l'Athlon 64 su una 690G e siamo da capo... :rolleyes:
stai scherzando...
Usare 2 chipset dello stesso produttore su socket diversi (590i vs 680i), non significa affatto che consumino uguale, fino a prova contraria.
Ecco perchè ritengo più opportuno usare i chipset col miglior risparmio energetico, almeno per ora, come il 690G ed il G35, che d'altronde si distaccano pochissimo in prestazioni su quelli Nvidia.
Miglioreranno i consumi degli Amd, ma anche quelli degli Intel, ed almeno si potrà dire che si è fatto tutto il possibile.
soldi di scommessa un q6600 go su g33 consuma meno di un dual core amd dal x2 5000 in su scegli tu il chipset che preferisci per amd....
bonzuccio
19-10-2007, 15:36
Scusate ma che c'entra?
Avrebbero potuto mettere un chipset Intel e uno Amd da 8W, se si sceglie Nvidia lo si fa per tutti e due no?
Anzi credo che sia più penalizzante per amd avere un chipset che consuma molto come per intel
Occhio, il problema non è nei numeri ma nei componenti.
HU testa gli intel su 680i (IMHO scelta sciagurata), il test linkato usa (IMHO più saggiamente) chipset Intel.
Pochi sanno che il 680i consuma da solo 50W in più di un 975/965/P35 ecc :eek: (in full ovviamente ma riesce a consumare 30W in più in idle.........è un chipset-forno)
E' ovvio che così facendo gli intel fanno una figura barbina. ;)
è un test falsato...
Scusate ma che c'entra?
Avrebbero potuto mettere un chipset Intel e uno Amd da 8W, se si sceglie Nvidia lo si fa per tutti e due no?
Anzi credo che sia più penalizzante per amd avere un chipset che consuma molto come per intel
ti faccio un'esempio...io decido di farmi un muletto o un pc di fascia bassa il tutto con gpu integrata per consumare meno e leggo questa comparativa e mi oriento sul sempron perchè c'è scritto che consuma meno.....
io prendo un e2140 e lo monto per esempio su una gigabyte g33 vado il doppio + veloce e consumo quanto un sempron se non di meno diminuendo il vcore da bios.....questo è il discorso....
bonzuccio
19-10-2007, 15:44
ti faccio un'esempio...io decido di farmi un muletto o un pc di fascia bassa il tutto con gpu integrata per consumare meno e leggo questa comparativa e mi oriento sul sempron perchè c'è scritto che consuma meno.....
io prendo un e2140 e lo monto per esempio su una gigabyte g33 vado il doppio + veloce e consumo quanto un sempron se non di meno diminuendo il vcore da bios.....questo è il discorso....
Si ma pure su un sempron potresti mettere il southbridge sb600 o addirittura aspettare l'sb700 da 8W.. :boh:
Le ultime immagini mostrano come nei giochi il divario sia molto meno sensibile che con altre applicazioni.
Per giocare basta spendere poco.
goldorak
19-10-2007, 15:45
supercomparativa!! :eek:
ormai nei giochi i processori sono tutti uguali.. inutile l'oc
come mai l'e6600 costa più dell'e6750? :mbe:
Per incentivare il passaggio ai nuovi processori. :)
DevilsAdvocate
19-10-2007, 15:51
ti faccio un'esempio...io decido di farmi un muletto o un pc di fascia bassa il tutto con gpu integrata per consumare meno e leggo questa comparativa e mi oriento sul sempron perchè c'è scritto che consuma meno.....
io prendo un e2140 e lo monto per esempio su una gigabyte g33 vado il doppio + veloce e consumo quanto un sempron se non di meno diminuendo il vcore da bios.....questo è il discorso....
Concordo in parte con quello che dici ma c'e' da aggiungere che a volte
basta un chip difettoso o una differente marca/implementazione di
sk. mamma con lo stesso chipset per avere una differenza di 10 Watt e
rotti (si veda cosa non è successo durante i primi test dell'ASUS P5K liscia..),
Inoltre dal test emerge chiaro e limpido che il Q6600 in load consuma solo una frazione in più
(o in meno, sempre a causa delle tolleranze) dell' X2 6400+, scusa se è poco....
Si ma pure su un sempron potresti mettere il southbridge sb600 o addirittura aspettare l'sb700 da 8W.. :boh:
790g esce a gennaio...ed a ogni caso il celeron 420 consuma meno...è risaputo
ad oggi secondo IMHO conviene però prendere un e2140 (visto che si prende con meno di 60euro...e si overclocca e downvolta contemporanemente molto bene )su un g31 o g33....
Per incentivare il passaggio ai nuovi processori. :)
esatto :D
Avete cannato in pieno i test sul consumo.
Ci sono degli evidenti problemi con la scheda madre usata per il sistema Intel, che si perpetrano da 3 articoli.
Posso capire che un quad-core Intel consumi un -pochino- di più rispetto a un dual-core AMD, ma evidentemente non può consumare 100W in più rispetto al 6400+, oltretutto sia in idle che in load.
Moltiplici altre recensioni, fra cui quella dell'autorevolissimo Tech Report mostrano come il divario NON SOLO SIA INESISTENTE, MA ADDIRITTURA A FAVORE DI INTEL!!!
http://techreport.com/articles.x/13375/15
VOI:
IL QX6850 CONSUMA 103W IN PIU' IN IDLE RISPETTO AL 6400+
TECH REPORT:
IL QX6850 CONSUMA 12W IN PIU' IN IDLE RISPETTO AL 6400+
(10 VOLTE MENO!!!)
VOI:
IL QX6850 CONSUMA 102W IN PIU' IN FULL RISPETTO AL 6400+
TECH REPORT:
IL QX6850 CONSUMA 10W --IN MENO-- IN FULL RISPETTO AL 6400+
(11 VOLTE MENO!!!)
E' chiaro che qualcuno sta sparando una bomba modello Hiroshima. Quel qualcuno è hwupgrade.
Scusa l'intromissione ma leggo praticamente tutte le news, articoli e relativi commenti e non capisco proprio perche' ogni qual volta si tocchi l'integrita morale oppure si cerchi di intaccare o di dissentire sul regime totalitario Intel(CPU)-Nvidia(GeForce) arriva puntuale un tuo commento abbastanza polemico, o come si dice da noi spari la classica frecciatina....
Volevo rispondere sulla news dell' ati di un paio di giorni fa dove anche li' eri presente con un uscita infelice.
A questo punto volevo chiederti cosa c'e' che non va in questa recensione? Gli intel consumano troppo? Non penso che Paolo Corsini di notte abbia sparato numeri a caso per calcolare il Wattaggio delle piattaforme, e' stato spiegato che sicuramente e' meglio calcolare l' intero sistema e per renderlo piu' simile evidenziando solo l' aspetto processore si usano i chipset NVIDIA che tra modello Intel e modello AMD il consumo e' uguale.
Non capisco la tua affermazio puntuale non so sei arrabbiato perche' Intel in 2 anni e' riuscita a tirare fuori solo 15fps e una manciata di secondi da qualche rendering ampiamente ottimizzato rispetto ad una architettura vecchia di 3 anni come quella del K9 che oltretutto ormai con i prezzi di oggi quasi la regalano?
Scusa l'intervento non ne faccio mai di questo tipo ma non mi piacciono le persone polemiche, sopratutto persone che hanno piu' di 15.000post alle spalle
Senza offesa anche io ho detto la mia ;)
Byez
gianni1879
19-10-2007, 16:00
Teoricamente si...........in pratica no :)
Il 680i consuma molto di più a causa di un memory controller fatto con i piedi (con tutto il rispetto ma è la verità anche se a prestazioni è un ottimo chipset), gli AMD lo hanno integrato : il risultato è che il 590 consuma "pochissimo" e il 680i consuma un botto. (spesso consuma più lui della CPU :D )
La scelta (IMHO) dei componenti per raffrontare i consumi è sbagliata, mentre per il resto del test è una scelta valida come poteva esserla un'altra.
Comunque il 95% della rece è ottima.
tanto per farsi un idea -> http://www.xbitlabs.com/articles/chipsets/display/nforce-680i-sli_12.html
E' evidente che togliendo anche solo 20-30W dai consumi delle CPU Intel si avrebbero per esempio gli E6600 che consumano come un sempron e ovviamente le conclusioni sarebbero completamente ribaltate.
Ognuno la pensa come vuole ma resto fermamente convinto che i consumi non si possano paragonare con questi componenti. :boh: (chi compra un Core2 ed è interessato ai consumi non compra di certo il 680i ;) , chi compra AMD gli frega poco del chipset dato che consumano tutti "poco", merito di AMD in questo caso)
Sono daccordo con Mike che da questa rece sembra che gli Intel consumino di più di AMD quandi invece è vero il contrario (in full perchè in idle con il risparmio energetico attivato AMD è leggermente avanti, il molti 6x è estremamente limitante per i proci Intel)
beh che i chipset nvidia consumassero un botto lo si sapeva dai tempi dei primi nforce, io mi sono subito tre serie (nf2/3/4) e so cosa significa.
Però tutta sta differenza tra i chipset per intel e per amd è un pò esagerata, la cosa infatti che mi ha colpito sono i consumi in idle.
Ci sarebbero da fare dei test con diversi chipset per vedere l'incidenza dei consumi (idle/full) sul totale del sistema esaminato.
Effettivamente chi sceglie Intel non prende di certo chipset Nvidia, tranne in rari casi ovviamente, dire che cmq il test è sbagliato nemmeno si può dire, perchè effettivamente quel chipset consuma tanto, semmai quello che lascia perplessi è il paragone con Amd.
Magari un chiarimento da parte della redazione su questa faccenda sarebbe doveroso a questo punto dopo tutti questi dubbi.
X tutti:
Basterebbe che la gente li leggesse anche gli articoli e non guardasse solo i grafici.
Cito da pagina 9 di questo articolo :
"abbiamo scelto di utilizzare schede madri basate su chipset NVIDIA così da potenzialmente equiparare il consumo dei chipset; sono disponibili in commercio soluzioni ben più economiche, in termini di consumi complessivi, sia per processori Intel che AMD che garantiscono risultati complessivamente più bassi in termini di consumi sia in idle che a pieno carico, e una possibile differente distribuzione dei processori tra di loro all'interno del quadro dei risultati."
realista
19-10-2007, 16:24
scritto da Malek86:Dopo aver eseguito alcuni dei test (WinRAR, CPUMark) sul mio E2140 overcloccato al 60%, ho scoperto che va quanto un E6600
sicuro che un processore a 1 mega di cache che sfiora i 3000 lo paragoni ad un 4 mega a soli 2400 mhz?.... qualcuno ci faccia luce xfavore!io sapevo che un 4 mega era in media solo del 6 o 7% piu veloce di un processore da 1 o 2 mega.
mah, che questo test non potesse accontentare tutti era più che ovvio, non capisco perchè vi impuntiate....c'è scritto chiaramente che le due piattaforme di test sono quanto di più simile si possa trovare attualmente...forse un confronto più realistico lo si avrà soltanto con nforce 780i e nforce 680a ( l'nforce 780i è un 680i con in più un chip bridge per gestire il pci-ex 2.0, quindi siamo veramente molto vicini) ma comunque allo stato attuale hanno fatto del loro meglio, e bisogna solo ringaziarli...testare 48 processori, anche a 2 alla volta, non deve essere stato nè facile nè breve...tutti i test sono stati fatti cercando di ricreare un utilizzo tipico, quindi niente overclock, ne overvolt/downvolt...cpu rigorosamente a default, con vcore stock e dissi boxati...perchè per chi ne capisce poco, e non ha la conoscenza/la voglia/la capacità di fare tweaking, è l'unico modo per districarsi...poi come è evidente chi vuole fare downvolt e fare a gara col lidlometro a chi consuma di meno non sceglie nforce, ma non è questo il posto per discuterne
pps a titolo informativo, il mio sempron 3000+ 939 ( quindi con stepping più vecchio di quelli provati) con rmclock sta a 800 mhz a 0,8volt( perchè meno di 0,8 non è predisposto), per un consumo stimato da amonra in 9w...i nuovi sempron scendono fino a 0,6 volt, se volete apriamo un thread col sistema che consuma di meno...ma teniamolo fuori da questa discussione :D
X tutti:
Basterebbe che la gente li leggesse anche gli articoli e non guardasse solo i grafici.
Cito da pagina 9 di questo articolo :
"abbiamo scelto di utilizzare schede madri basate su chipset NVIDIA così da potenzialmente equiparare il consumo dei chipset; sono disponibili in commercio soluzioni ben più economiche, in termini di consumi complessivi, sia per processori Intel che AMD che garantiscono risultati complessivamente più bassi in termini di consumi sia in idle che a pieno carico, e una possibile differente distribuzione dei processori tra di loro all'interno del quadro dei risultati."
su 1000 persone che prendono intel quanti sono quelli che prendono quel chipset...1-2 :rolleyes:
Ha ragione Kronos2000: per capire quale CPU consuma meno, si deve moltiplicare l'assorbimento in watt per il tempo che dura tale assorbimento.
L'elettricità che paghiamo si misura in kilowattora (kWh), che si calcolano proprio con tale moltiplicazione.
@manga81
e cosa centra quello che hai detto tu,nell'articolo non c'e' scritto abbiamo scelto gli Nvidia xchè i + utilizzati.
yume the ronin
19-10-2007, 16:53
bho, ne capisco poco poco eh, ma da giocatore, indipendentemente da tutto, sono ultrafelice di aver preso nei games quarantasei frame al secondo in più ( :eek: ) cambiando il mio amd 4400+ con il qx6850 e in più passando da 1680*1050 con tutto disattivato a 1920 * 1200 tutto a manetta
nn ci credevo quando l' ho visto, si ok che anche la ram fa tanto, ma una differenza così abissale, senza cambiare scheda video, sinceramente nn me l' aspettavo
probabile dimostrazione per cui i nuovi giochi che escono dipendono tantissimo anche dal processore e non solo dalla vga
da semiprofano chiedo: ma ha senso confrontare dei processori a 64bit con quelli a 32 su un os a 32?
gianni1879
19-10-2007, 16:54
X tutti:
Basterebbe che la gente li leggesse anche gli articoli e non guardasse solo i grafici.
Cito da pagina 9 di questo articolo :
"abbiamo scelto di utilizzare schede madri basate su chipset NVIDIA così da potenzialmente equiparare il consumo dei chipset; sono disponibili in commercio soluzioni ben più economiche, in termini di consumi complessivi, sia per processori Intel che AMD che garantiscono risultati complessivamente più bassi in termini di consumi sia in idle che a pieno carico, e una possibile differente distribuzione dei processori tra di loro all'interno del quadro dei risultati."
molto sostengono che il chipset preso in esame prodotto da Nvidia per piattaforme intel consuma più di quello per piattaforme Amd. Per alcuni problemi legati al controller di memoria.
Ora quale sarà la verità?
Cmq resta ovviamente la considerazione, che come per i processori Intel si possa scegliere un chipset che consumi decisamente meno di questo nella comparativa, lo stesso si può dire anche di Amd che ha diversi chipset che consumano meno di questo provato nei test.
Dalla recensione io capisco che chi prende un processore extreme quad per giocare è un pazzo scatenato o uno non propriamente informato. Vedere prestazioni allineate con il core duo a 3 ghz che costa 266 cartamonete, non puo che far contenti chi vuole costruirsi un pc senza buttare per il gioco 1000 dollaroni per un extreme quad.
Jon_Snow
19-10-2007, 17:03
Mi ha stupito i consumi del Q6600! In idle fa solo 10W in più del E6850. Sicuramente spengono uno dei due chip. Non è da sottovalutare perché una grossa percentuale del tempo il processore è questa condizione ed in oltre a pieno carico la differenza non si assesta sopra i 30W che rimangono del tutto ragionevoli considerando il doppio dei core.
Alla luce di questi fatti devo rivedere i miei piani e puntare sul quadcore, fortuna che questa comparativa è arrivata pochi giorni prima del mio ordine. Grazie HWU. :)
Complimenti per il mega lavoro che sarà costato montare e smontare 40 processori!!!!
bho, ne capisco poco poco eh, ma da giocatore, indipendentemente da tutto, sono ultrafelice di aver preso nei games quarantasei frame al secondo in più ( :eek: ) cambiando il mio amd 4400+ con il qx6850 e in più passando da 1680*1050 con tutto disattivato a 1920 * 1200 tutto a manetta
nn ci credevo quando l' ho visto, si ok che anche la ram fa tanto, ma una differenza così abissale, senza cambiare scheda video, sinceramente nn me l' aspettavo
probabile dimostrazione per cui i nuovi giochi che escono dipendono tantissimo anche dal processore e non solo dalla vga
da semiprofano chiedo: ma ha senso confrontare dei processori a 64bit con quelli a 32 su un os a 32?
credo proprio che tutte le cpu in esame siano siano sia a 32 che a 64 bit...
IMHO la scelta di utilizzare chipset nvidia per queste recensioni non è stata molto azzeccata.
Gli nForce sono sempre stati dei fornetti, me lo ricordo bene quando avevo la DFI Lanparty nf4, il chipset scaldava più del processore. Sono buoni per l'overclock, ma la redazione non prova spesso le cpu fuori specifica (giustamente per ragioni di tempo), inoltre pensare che 590 e 680 abbiano un consumo simile è sbagliato, vista la diversa architettura con e senza memory controller integrato (test effettuati sui consumi delle schede madri da altre testate lo dimostrano).
Io avrei usato p35 per Intel e 690 per AMD, i chipset mainstream di riferimento, sicuramente ora avremmo un quadro più realistico sui rispettivi consumi dell'intero sistema, con prestazioni equivalenti.
X tutti:
Basterebbe che la gente li leggesse anche gli articoli e non guardasse solo i grafici.
Cito da pagina 9 di questo articolo :
"abbiamo scelto di utilizzare schede madri basate su chipset NVIDIA così da potenzialmente equiparare il consumo dei chipset; sono disponibili in commercio soluzioni ben più economiche, in termini di consumi complessivi, sia per processori Intel che AMD che garantiscono risultati complessivamente più bassi in termini di consumi sia in idle che a pieno carico, e una possibile differente distribuzione dei processori tra di loro all'interno del quadro dei risultati."
Il fatto è che 590 e 680 non sono neanche lontamente paragonabili sul lato consumo; è come paragonare la Mazda 2 e la RX8: sono della stessa casa, sono entrambe 1300cc benzina però.............................non consumano proprio allo stesso modo :sofico: (che esempio lampante mi faccio i complimeti da solo :mano: )
@manga81
e cosa centra quello che hai detto tu,nell'articolo non c'e' scritto abbiamo scelto gli Nvidia xchè i + utilizzati.
quel test svantaggia gli intel ed è chiarissimo... perchè è raro che chi compra intel prenda quel chipset....
bho, ne capisco poco poco eh, ma da giocatore, indipendentemente da tutto, sono ultrafelice di aver preso nei games quarantasei frame al secondo in più ( :eek: ) cambiando il mio amd 4400+ con il qx6850 e in più passando da 1680*1050 con tutto disattivato a 1920 * 1200 tutto a manetta
nn ci credevo quando l' ho visto, si ok che anche la ram fa tanto, ma una differenza così abissale, senza cambiare scheda video, sinceramente nn me l' aspettavo
probabile dimostrazione per cui i nuovi giochi che escono dipendono tantissimo anche dal processore e non solo dalla vga
da semiprofano chiedo: ma ha senso confrontare dei processori a 64bit con quelli a 32 su un os a 32?
questo a dimostrazione che la cpu conta mentre in quel test sembra di no...
Mi ha stupito i consumi del Q6600! In idle fa solo 10W in più del E6850. Sicuramente spengono uno dei due chip. Non è da sottovalutare perché una grossa percentuale del tempo il processore è questa condizione ed in oltre a pieno carico la differenza non si assesta sopra i 30W che rimangono del tutto ragionevoli considerando il doppio dei core.
Alla luce di questi fatti devo rivedere i miei piani e puntare sul quadcore, fortuna che questa comparativa è arrivata pochi giorni prima del mio ordine. Grazie HWU. :)
Complimenti per il mega lavoro che sarà costato montare e smontare 40 processori!!!!
i q6600 step g0 consumano se ricordo bene max 95w.......se hai i soldi compralo avrai una buona longevità ;)
IMHO la scelta di utilizzare chipset nvidia per queste recensioni non è stata molto azzeccata.
Gli nForce sono sempre stati dei fornetti, me lo ricordo bene quando avevo la DFI Lanparty nf4, il chipset scaldava più del processore. Sono buoni per l'overclock, ma la redazione non prova spesso le cpu fuori specifica (giustamente per ragioni di tempo), inoltre pensare che 590 e 680 abbiano un consumo simile è sbagliato, vista la diversa architettura con e senza memory controller integrato (test effettuati sui consumi delle schede madri da altre testate lo dimostrano).
Io avrei usato p35 per Intel e 690 per AMD, i chipset mainstream di riferimento, sicuramente ora avremmo un quadro più realistico sui rispettivi consumi dell'intero sistema, con prestazioni equivalenti.
senza dubbio l'ideale sarebbe stato 690g e g33
IMHO la scelta di utilizzare chipset nvidia per queste recensioni non è stata molto azzeccata.
Gli nForce sono sempre stati dei fornetti, me lo ricordo bene quando avevo la DFI Lanparty nf4, il chipset scaldava più del processore. Sono buoni per l'overclock, ma la redazione non prova spesso le cpu fuori specifica (giustamente per ragioni di tempo), inoltre pensare che 590 e 680 abbiano un consumo simile è sbagliato, vista la diversa architettura con e senza memory controller integrato (test effettuati sui consumi delle schede madri da altre testate lo dimostrano).
Io avrei usato p35 per Intel e 690 per AMD, i chipset mainstream di riferimento, sicuramente ora avremmo un quadro più realistico sui rispettivi consumi dell'intero sistema, con prestazioni equivalenti.
il fatto è che fino a che intel non integrerà il MCH nella cpu, i chip amd e intel avranno sempre la differenza del memory controller....mi chiedo, perchè quando si parla di TDP della sola cpu il memory controller integrato di amd non viene quasi mai tenuto in considerazione , mentre quando si parla dell'intero sistema intel è penalizzata dall'avere il memory controller nel chipset? anche amd ha il memory controller, mica l'hanno lasciato a casa...per cui finiamola di tirar fuori il discorso memory controller solo quando fa comodo...
ps per mikelezzz, il test che hai postato nell'altra pagina confronta un sistema intel con chipset p35 contro uno amd con la stessa scheda madre usata da hwup e una 8800gtx al posto della 7900gtx dei nostri... il sistema intel consuma 15w meno del sistema di hwup, mentre il sistema amd consuma 77w di più...se 77w sono imputabili alla differenza 7900gtx/8800gtx il consumo del sistema intel di techreport con una ipotetica 7900gtx sarebbe di altri 77w più basso...quindi un sistema su p35 consuma 77+15=92w in meno di un sistema su nforce680i? qua il test falsato è un altro, mi sembra...
DevilsAdvocate
19-10-2007, 17:39
Mi ha stupito i consumi del Q6600! In idle fa solo 10W in più del E6850. Sicuramente spengono uno dei due chip. Non è da sottovalutare perché una grossa percentuale del tempo il processore è questa condizione ed in oltre a pieno carico la differenza non si assesta sopra i 30W che rimangono del tutto ragionevoli considerando il doppio dei core.
Alla luce di questi fatti devo rivedere i miei piani e puntare sul quadcore, fortuna che questa comparativa è arrivata pochi giorni prima del mio ordine. Grazie HWU. :)
Complimenti per il mega lavoro che sarà costato montare e smontare 40 processori!!!!
Se ti interessano i consumi ti consiglierei inoltre di non prendere una
scheda col chipset Nvidia 680i ma col 9x5 oppure P35 (occhio che anche alcune
delle prime Asus p5k "lisce" son riportate aver problemi di consumi alti),
come evidenziato da più persone qua.
MiKeLezZ
19-10-2007, 17:41
Scusa l'intromissione ma leggo praticamente tutte le news, articoli e relativi commenti e non capisco proprio perche' ogni qual volta si tocchi l'integrita morale oppure si cerchi di intaccare o di dissentire sul regime totalitario Intel(CPU)-Nvidia(GeForce) arriva puntuale un tuo commento abbastanza polemico, o come si dice da noi spari la classica frecciatina....
Volevo rispondere sulla news dell' ati di un paio di giorni fa dove anche li' eri presente con un uscita infelice.Regime totalitario mi sembra sia più ATI/AMD, che non Intel/NVIDIA, visto che queste, al contrario delle prime, sono due aziende distinte...
Poi, l'uscita sarà "infelice", ma ricordati che lo è secondo i tuoi canoni di giudizio, e non necessariamente questi sono giusti.
Meglio quindi tenersi dentro certe affermazioni fini a se stesse... come giustamente hai fatto sulla news di ATI.
A questo punto volevo chiederti cosa c'e' che non va in questa recensione? Gli intel consumano troppo? Non penso che Paolo Corsini di notte abbia sparato numeri a caso per calcolare il Wattaggio delle piattaformeNon lo credo neppure io, però mi sembra anche chiaro che ci siano dei problemi, e questi problemi non sono attribuibili alle CPU Intel, come invece questo articolo spinge a credere.
Se il sig. Corsini mi vuole fare un prospetto in cui misurare il consumo del sistema per arrivare al consumo delle CPU, mi deve anche garantire che questo sia giusto... e non è certo trovando giustificazioni per un errore più grande, che questo errore viene risolto.
Perchè è quello che serve il grafico, a dare un'idea se consuma meno un 6400+ o un Q6600. Non mi sembra serva a altro.
Se si vuole salvare capra e cavoli, allora facciamo due grafici distinti AMD e Intel, che non siano confrontabili, e via tutte le mezze giustificazioni al risultato farlocco.
e' stato spiegato che sicuramente e' meglio calcolare l' intero sistema e per renderlo piu' simile evidenziando solo l' aspetto processore si usano i chipset NVIDIA che tra modello Intel e modello AMD il consumo e' uguale.Guarda che quelle spiegazioni spesso sono "rimpastamenti" di quello che viene detto qua sul forum, in ogni caso questo non è certamente il modus operandi migliore per fare un qualsivoglia test di consumo, per tutta una serie di fattori. Come:
a. meglio guardare la quantità di W assorbiti dalla CPU, piuttosto che da tutto il sistema. se ciò non è possibile, meglio quindi testare con il meno possibile di periferiche attive (in modo da limitare errori esterni)
b. in quanto la CPU AMD ha un controller di memoria integrato e quindi soffre meno di dipendenza dal chipset, è più corretto usare per il sistema Intel un corrispettivo chipset Intel, dotato di controller di memoria Intel. oltre a essere il setup usato nel 90% dei casi.
c. il fatto che i due sistemi, in quanto usino due chipset dello stesso produttore, possano esser equiparabili, è qualcosa di assolutamente non gratuito, anzi. oltretutto i due chipset sono diversi anche come modello, il che rende un confronto ancora più improbabile.
d. considera inoltre che, anche solo a parità di chipset, cpu, memoria, esistono differenze anche percettibili fra diversi modelli di scheda madre
e. non viene detto come è effettuata la misurazione, se è sempre il modo che ricordo io, è quanto di più spreciso possa esserci, visto che si calcolano solo gli A assorbiti, facendo una serie di approssimazioni su tensione, fattore di sfasamento.
f. oltretto nell'articolo si afferma che la tensione sia 220V, quando ormai sono anni che ENEL ha provveduto ad innalzarla nelle nostre città (in particolar modo al Nord) a 230V, se il mattino si vede dal buongiorno
ecc
Ma avevo già fatto un reply chiarissimo con esaustive motivazioni, basta solo sforzarsi a leggerlo, al limite rispondi a quello, non con un inutile attacco.
Non capisco la tua affermazio puntuale non so sei arrabbiato perche' Intel in 2 anni e' riuscita a tirare fuori solo 15fps e una manciata di secondi da qualche rendering ampiamente ottimizzato rispetto ad una architettura vecchia di 3 anni come quella del K9 che oltretutto ormai con i prezzi di oggi quasi la regalano?Dici che mando le frecciatine, poi mi fai una domanda assolutamente retorica.
Ti rispondo solo dicendo che da questa e altre comparative la CPU migliore è il Q6600... e che il mio A64, in mancanza di concorrenza, l'ho pagato fior di soldoni all'epoca (come qualsiasi acquirente dei primi Dual Core X2 ti può confermare).
Scusa l'intervento non ne faccio mai di questo tipo ma non mi piacciono le persone polemiche, sopratutto persone che hanno piu' di 15.000post alle spalle'azzi tuoi...
Cmq resta ovviamente la considerazione, che come per i processori Intel si possa scegliere un chipset che consumi decisamente meno di questo nella comparativa, lo stesso si può dire anche di Amd che ha diversi chipset che consumano meno di questo provato nei test.Questo è indubbiamente vero, ma mentre per Intel la scelta sia solo una, e quindi tutti i restanti bene o male siano "copie", ovvero difficilmente paragonabili all'originale (non ho garanzie che NFORCE abbia un'implementazione corretta degli stati di riposo della CPU, facendola consumare meno), AMD è da sempre stata affiancata dai chipset di NVIDIA, e oltretutto ha un elemento di disturbo in meno, che sicuramente funziona bene, il controller di memoria (che, essendo di nanometria uguale a quello della CPU, consuma spesso pure meno che non uno esterno).
Magari un chiarimento da parte della redazione su questa faccenda sarebbe doveroso a questo punto dopo tutti questi dubbi.Io posso capire un errore di 5W. Thò, 10W in più o in meno. Giusto. Ma CENTO WATT, -100 WATT-, OVVERO DUE E4400 IN FULL LOAD DI DIFFERENZA fra una recensione e un'altra sono un pochino troppo...
Credo che basti che il sig. Corsini prenda una bella GigaByte DQ6 con il nostro amato P35 e una simpatica CPU, magari di quelle che consumano di più, come il QX6850, e ripeta i vari test.
Così è anche più simile a quella di TechReport e vediamo subito se pure qui c'è un altro errorino o meno.
DevilsAdvocate
19-10-2007, 17:52
Già che ci siamo, ho il link ad un altro test sui consumi del Q6600 (http://www.pctuner.net/forum/showthread.php?threadid=86208),
dove in full load cpu si parla di 266 W (con pompa di raffreddamento e due HD),
Mentre a questo link (http://www.hardware.info/en-UK/productdb/bGRkZZiWmJHK/viewproduct/AMD_Athlon_64_X2_5600/) suggeriscono una power consumption del 5600+
che in full load va da 236 a 245 W.
A questo indirizzo invece affermano che (http://www.sharkyextreme.com/hardware/cpu/article.php/3261_3699421__9)
un Q6600 in full load consuma quasi esattamente quanto un 6000+
(il 6400+ ancora non c'era ed il Q6600 del test potrebbe non essere G0,
ma anche supponendolo un G0 c'e' comunque una differenza di 15 Watts
almeno rispetto a questa prova)
può servire magari a fare un poco di chiarezza.
MiKeLezZ
19-10-2007, 17:59
ps per mikelezzz, il test che hai postato nell'altra pagina confronta un sistema intel con chipset p35 contro uno amd con la stessa scheda madre usata da hwup e una 8800gtx al posto della 7900gtx dei nostri... il sistema intel consuma 15w meno del sistema di hwup, mentre il sistema amd consuma 77w di più...se 77w sono imputabili alla differenza 7900gtx/8800gtx il consumo del sistema intel di techreport con una ipotetica 7900gtx sarebbe di altri 77w più basso...quindi un sistema su p35 consuma 77+15=92w in meno di un sistema su nforce680i? qua il test falsato è un altro, mi sembra...Hai capito bene!
Questa è la loro strumentazione di test:
http://www.tequipment.net/Extech380803.asp
700$
Non penso siano dei coglionazzi che falsificano i test; ci sono pure i grafici di consumo disegnati dalla strumentazione stessa.
Sono altre le domande che devi farti... :rolleyes:
Il fatto è che 590 e 680 non sono neanche lontamente paragonabili sul lato consumo; è come paragonare la Mazda 2 e la RX8: sono della stessa casa, sono entrambe 1300cc benzina però.............................non consumano proprio allo stesso modo :sofico: (che esempio lampante mi faccio i complimeti da solo :mano: )
Già che ci siamo, ho il link ad un altro test sui consumi del Q6600 (http://www.pctuner.net/forum/showthread.php?threadid=86208),
può servire magari a fare un poco di chiarezza.
è stato il primo sito a pubblicare una recensione q6600 in italiano...mi sono iscritto in quel sito solo per quel post :D
http://www.pctuner.net/forum/showthread.php?threadid=86208
Jon_Snow
19-10-2007, 18:03
i q6600 step g0 consumano se ricordo bene max 95w.......se hai i soldi compralo avrai una buona longevità ;)
Considera che in mente avevo di prendere un E6850 il cui costo è praticamente identico al QuadCore, ergo rientra nel mio budget. :)
Se ti interessano i consumi ti consiglierei inoltre di non prendere una
scheda col chipset Nvidia 680i ma col 9x5 oppure P35 (occhio che anche alcune
delle prime Asus p5k "lisce" son riportate aver problemi di consumi alti),
come evidenziato da più persone qua.
Non sapevo questi "problemi" di consumi da parte delle asus. Scusa l'OT, ma anche la versione con il WiFi ha di problemi simili?
@MikeLeZz: in genere non mi piace il tuo modo di attaccare AMD, talvolta mi è parso eccessivo, ma questa volta non posso fare a meno di quotarti.
il fatto è che fino a che intel non integrerà il MCH nella cpu, i chip amd e intel avranno sempre la differenza del memory controller....mi chiedo, perchè quando si parla di TDP della sola cpu il memory controller integrato di amd non viene quasi mai tenuto in considerazione , mentre quando si parla dell'intero sistema intel è penalizzata dall'avere il memory controller nel chipset? anche amd ha il memory controller, mica l'hanno lasciato a casa...per cui finiamola di tirar fuori il discorso memory controller solo quando fa comodo...
MA che discorsi fai? Stiamo parlando di consumi dell'intero sistema, che centra il MCH? Il mio discorso sugli nforce era riferito alla frase: "abbiamo scelto di utilizzare schede madri basate su chipset NVIDIA così da potenzialmente equiparare il consumo dei chipset..."
Mentre parlando di architetture diverse il 590 e il 680 non possono essere equiparati, come il discorso che faceva qualcuno sulle Mazda...
Io sostenevo che doveva essere scelto un chipset più idoneo per ENTRAMBE le piattaforme.
Ognuno abbinato al suo giusto chipset, e non al fornetto Nvidia...
DevilsAdvocate
19-10-2007, 18:10
Non sapevo questi "problemi" di consumi da parte delle asus. Scusa l'OT, ma anche la versione con il WiFi ha di problemi simili?
Se non ricordo male uscirono fuori quando anandtech o qualche altro
sitazzo americano fece la recensione del P35, dissero che consumava
moltissimo e quando poi scoprirono che con le altre marche non succedeva
dovettero ricorreggersi. Comunque auspicabilmente dovrebbe esser stato
un problema delle prime revision e sicuramente non dei modelli deluxe
(quindi la risposta alla tua domanda è "no").
Consumi reali delle CPU misurati attraverso socket modificati e quindi inconfutabili.
http://www.xbitlabs.com/images/cpu/core2extreme-qx6700/idle.png
http://www.xbitlabs.com/images/cpu/core2extreme-qx6700/burn.png
Ovviamente le CPU AMD hanno il controller di memoria integrato però la differenza è così abbissale.
Purtroppo non esiste nessun modo per misuare il consumo dei chipset ma il full un 680i può consumare davvero 50W in più dei chipset Intel (con i quad core si parla addirittura di oltre 70W :eek: )
Lascio parlare i numeri. Ognuno tiri da solo le suo considerazioni. Saluti.
EDIT : sbagliato grafici, quelli misurati dal socket sono di un altro sito :muro: :muro:
Se lo trovo bene altrimenti beccatevi questa approsimazione (può sgarrare del +-15% e bisogna considerare che dal vero consumano di più perchè non viene calcolata la perdita di potenza sulla circuiteria di alimentazione ma quella è uguale per AMD e Intel)
DevilsAdvocate
19-10-2007, 18:18
altro giro, altro link (http://www.silentpcreview.com/forums/viewtopic.php?t=42198)
contenente prove di
X-BITLABS (questa è micidiale, leggetela bene guardando l' X2 6000+ ed il Q6700-G0 che è un QUAD core) (http://www.xbitlabs.com/articles/cpu/display/core2extreme-qx6850_12.html#sect0) :
http://www.xbitlabs.com/images/cpu/core2extreme-qx6850/idle.png
http://www.xbitlabs.com/images/cpu/core2extreme-qx6850/burn.png
ed Hexus (http://www.hexus.net/content/item.php?item=9323&page=9)
the E6750 turns in considerably lower (power consumption) results than the 6000+ at idle and peak load, all the while offering faster performance
... Direi che a questo punto affermare che il chipset 680 ha dei grossi problemi di consumi è
la maniera più carina ed elegante per chiudere la questione.
altro giro, altro link (http://www.silentpcreview.com/forums/viewtopic.php?t=42198)
contenente prove di
X-BITLABS (questa è micidiale, leggetela bene) (http://www.xbitlabs.com/articles/cpu/display/core2extreme-qx6850_12.html#sect0) :
http://www.xbitlabs.com/images/cpu/core2extreme-qx6850/idle.png
http://www.xbitlabs.com/images/cpu/core2extreme-qx6850/burn.png
ed Hexus (http://www.hexus.net/content/item.php?item=9323&page=9)
:read:
ecco come la scelta che feci tempo fa di acquistare l'e6750 a 170 euro si rivelò la scelta migliore sia per longevità che come prestazioni. sono contentissimo di possedere questa cpu e vedere come in alcuni giochi supera addirittura un quad core e altri processori ben più costosi.
leoneazzurro
19-10-2007, 18:46
ATTENTI A ATHLON X2 5600+ -> Vecchia cpu a 90 nm che costa 100 euro in meno del core 2 duo E6850 e rende solo un 10% in meno!!!
AHAHHAHA VAI PHENOM BRUCIALI TUTTI !!!!!
Evitiamo questi post da stadio, per piacere. Ammonizione
leoneazzurro
19-10-2007, 18:55
Effettivamente, per il discorso consumi, si poteva scegliere un chipset differente, ad esempio Intel su Intel e AMD su AMD e utilizzare eventualmente Crossfire invece di SLI (e i chipset di ATI, ora AMD, consumano decisamente meno anche loro rispetto a quelli che troviamo in questa recensione). Vero anche che trovare al momento mainboard basate su chipset AMD è un pò più difficile, soprattutto se si cercano MB di fascia alta.
Jon_Snow
19-10-2007, 19:00
Se non ricordo male uscirono fuori quando anandtech o qualche altro
sitazzo americano fece la recensione del P35, dissero che consumava
moltissimo e quando poi scoprirono che con le altre marche non succedeva
dovettero ricorreggersi. Comunque auspicabilmente dovrebbe esser stato
un problema delle prime revision e sicuramente non dei modelli deluxe
(quindi la risposta alla tua domanda è "no").
Ti ringrazio per le delucidazioni. :)
Effettivamente, per il discorso consumi, si poteva scegliere un chipset differente, ad esempio Intel su Intel e AMD su AMD e utilizzare eventualmente Crossfire invece di SLI (e i chipset di ATI, ora AMD, consumano decisamente meno anche loro rispetto a quelli che troviamo in questa recensione). Vero anche che trovare al momento mainboard basate su chipset AMD è un pò più difficile, soprattutto se si cercano MB di fascia alta.
x intel si potrebbero testare queste 2 ad esempio:
4Core1333-FullHD
abit Fatal1ty F-I90HD
x amd:
M2A-VM HDMI
GA-MA69GM-S2H (rev. 1.0)
così partono realmente alla pari...
strano che che la redazione ha messo il sempron 3400! di solito in queste comparative le cpu low cost vengono eclissate come se non esistessero.....e ce ne vuole a dimenticarsi il celly420 con 48 cpu sul banco!..bah non capiro mai!!
edit:
ops ho appena visto che cè il celly 440! mi scuso con la redazione per la malafede ^_^
Nei test giochi, la 7900 e' vga limited a 1600x1200 ( da un x2 3800+ in su ). Mi piacerebbe vedere prossimamente questi test con vista64, crysis dx10, 8800ultra.:O
Per vedere a che punto si alza, con la vga top, il punto di vga limited
Consumi reali delle CPU misurati attraverso socket modificati e quindi inconfutabili.
...scusa...non è assolutamente malafede...ma esiste mica una foto di questo test?...agganciarsi a tutti i pin di alimentazione di un socket delle moderne cpu deve essere un operazione decisamente impegnativa...
...ciao...
..qua dentro bazzica ancora gente che crede che gli intel siano meno onerosi dal lato energetico.... -_-
Vi spetta di diritto il premio per la recensione più utile del mondo! complimenti!
ottimo lavoro, era da un po che attendevo una rticolo in pieno stile Old School :)
Caspita ma se uno gioca (tra le altre cose), allora non serve a niente un dual core, alla fin fine con un 3500+ si hanno le prestazioni di un dualcore medio o poco inferiori....penso non cambiero cpu a favore di un x2 o un opteron :(
DevilsAdvocate
19-10-2007, 20:51
..qua dentro bazzica ancora gente che crede che gli intel siano meno onerosi dal lato energetico.... -_-
Si tratta mica di crederci, ma di aver letto già svariate altre prove
che hanno dato proprio quel risultato (AMD meno onerosi solo nella fascia
bassissima, e 6000+ molto oneroso).
Del resto a questo punto nei commenti c'è il link originale messo da MikeLezz
e ci sono almeno 5 links messi da me che affermano proprio questo, mentre
nessuno sembra aver trovato niente a dimostrazione del contrario...
Finalmente un articolo che mi ricorda gli albori di hwupgrade.
Ora dopo la cpu spero di leggere una comparativa simile per le schede madri.
Si tratta mica di crederci, ma di aver letto già svariate altre prove
che hanno dato proprio quel risultato (AMD meno onerosi solo nella fascia
bassissima, e 6000+ molto oneroso).
Del resto a questo punto nei commenti c'è il link originale messo da MikeLezz
e ci sono almeno 5 links messi da me che affermano proprio questo, mentre
nessuno sembra aver trovato niente a dimostrazione del contrario...
in realtà anche gli intel di fascia bassa consumano quanto o meno di amd
il celeron 420 consuma meno del sempron diretto...il celeron 420 a svariati utenti del forum va anche sotto i 20w...
quoto , l'architettura core solo consuma sui 20watt
...scusa...non è assolutamente malafede...ma esiste mica una foto di questo test?...agganciarsi a tutti i pin di alimentazione di un socket delle moderne cpu deve essere un operazione decisamente impegnativa...
...ciao...
A ricordarsi il sito sarebbe un attimo (erano sicuramente russi).
Comunque i grafici di Xbit anche se approssimati vanno benissimo e sono più che chiari. (hanno misurato tensione e corrente sulla linea a 12V a monte dei circuiti di alimentazione della CPU, leva un 20% e piu o meno il consumo è quello) lo fanno da molti anni e sono molto più che affidabili.
La misura di Xbit la può fare chiunque con un paio di multimetri, non è che sia sto gran problema. (a dire il vero è una cretinata alla portata di tutti ;) )
Il metodo usato da Xbit è questo -> http://www.silentpcreview.com/article313-page4.html e se leggi la pagina scoprirai che il kit per il socket modificato esiste e costa 3000 $ (+ 3000 per ogni socket) .............se vuoi, fa la spesa, e racconta i risultati. (sono uguali a quelli di Xbit)
PS. al link del test col socket modificato ci si arriva dal forum di SPCR ma sinceramente non ho ne voglia ne tempo di starlo a cercare. (o di spendere 9000 $ per fare il test di persona :sofico: )
bonzuccio
19-10-2007, 23:21
Aprile 2006 eravamo non dico agli albori che in questo campo un anno è un'eternità per le rese e la qualità
ma ai 90nm stavamo, pure gli fx62 sono risbucati fuori per dimostrare chissacchè..
ma si può stare qua a quotare e a confutare.. makkeppale
si sappia che amd ottimizza all'osso le produzioni avendo la tecnologia per migliorare molto nel medio-lungo periodo
mentre intel spinge subito con rese iniziali ottime per poi stabilizzarsi puntando subito sul nuovo processo produttivo
guardatevi i test di hwupgrade e credeteci
non credo proprio che il Corsini o altri si siano messi a cercare di far consumare meno gli amd
che, tra l'altro, nei 65nm ha avuto risultati ottimi da subito e quindi ancora presumibilmente con grossi margini in queste cpu e nelle prossime anche se coi quad e i 65nm hanno avuto tutti i problemi immaginabili e non
bellissimo lavoro. me lo stampo e lo faro' vedere ai colleghi dove si trova il mio Q6600. Cioè dove non si gtrova visto che lo tengo a 3.6Ghz. :asd:
Ne approfitto per dire una cosa. è da anni e anni ,che non vedo recensioni di schede audio. (lasciamo stare le X-fi).
eppure anche loro fanno la loro porca figura.
ci sarebbe la Asus Xonar D2, auzentech Prelude e magari anche la Razor Barracuda. una bella rece completa di queste 3 e via. :stordita:
Kicco_lsd
20-10-2007, 00:43
Complimenti articolo spettacolare... spece se come me dovete scegliere un processore per assemblare un nuovo sistema ;)
Bellissima comparativa :)
come mai niente moneybench? :)
Bellissima recensione... Basta linkare immagini da fuori e' inutile farlo visto che il grafico senza spiegazione e senza nota delle configurazione dei pc vale nulla..
Poi nei vari siti il confronto tra amd e intel avviene sempre con cpu intel su chipset intel e gli amd su chipset nvidia.. fanno sempre il confronto tra quelli che offrono maggior prestazioni e ovviamente il consumo e' a sfavore di amd..
Cmq per colpa del discorso consumi 3/4 del totale del topic;) si sono perse quelle che sono le vere prestazioni.. Rispetto alla vecchia comparativa fatta su xp gli amd sembrano mantenere le prestazioni mentre gli intel in linea di massima sembrano perdere qualcosina.. Inoltre vedere un 6400+ stare in vetta su tutti i dual core e dietro ai quad fa un certo effetto che denota tutta la bonta dei k8..
Interessante sarebbe vedere sui 64bit dove le istruzioni amd sembrano essere migliori.. oc astenuto dato che il 93% dei pc rimane a default..
link vecchia comaprativa consumi http://www.hwupgrade.it/articoli/cpu/1665/amd-athlon-64-x2-6000+-ora-a-3-ghz_9.html
Paolo Corsini
20-10-2007, 08:07
Prendo atto del fatto che la mia scelta di chipset non fa dormire sonni tranquilli a molte persone. Ricordo che tempo fa, in un articolo simile, venni criticato nei commenti perché non avevo utilizzato nel confronto sui consumi chipset prodotti dallo stesso produttore.
Il mondo è bello perché è vario, mi viene da tirare come conclusione.
Mi permetto di far notare tre cose:
1) nella parte di analisi dei consumi c'è chiaramente specificato il perché escono quei dati, e quali possono essere i parametri che fanno incrementare maggiormente il consumo rispetto ad altri, generando alcune differenze significative;
2) non è MAI stato indicato che quei dati sono del consumo dei processori, bensì dell'intero sistema: chi ci vuole vedere approssimazioni dei consumi dei processori sbaglia, perché altre variabili incidono in misura significativa. Ci si può vedere, per molti versi, una variazione dei consumi tra cpu con medesima architettura e medesima frequenza di bus ed è per questo motivo che le soluzioni Athlon 64 scalano senza particolari variazioni, ma con quelle Intel è evidente che la componente data dal consumo del chipset al variare della frequenza di bus incida sensibilmente sul consumo finale dell'intero sistema.
3) belle le analisi dei consumi dei singoli processori, ma un po' fini a se stesse: ognuno di voi interessato al consumo, infatti, verifica il consumo del proprio sistema, cioè di quanto l'alimentatore prelevi dalla presa della corrente (che è proprio il valore in Watt che abbiamo indicato), e non tanto quanto incida sulla bolletta un singolo componente.
Detto questo, avevo già intenzione di sviluppare un'analisi dei consumi in idle e pieno carico al variare di processore, tipologia di chipset, hard disk e scheda video. Non fisso date per questo articolo in quanto a spanne le analisi non sono poche e nelle prossime settimane avremo parecchio da lavorare su nuovi lanci di prodotti da parte di Intel, NVIDIA e AMD.
DevilsAdvocate
20-10-2007, 10:59
io sarei curioso, secondo voi settando come potenza di valore 1 quella di un 3800+ 64 x2 skt 939 un q6600 è circa 2.5 volte + potente? e come consumi? quanto consumerebbe d+? grazie!
No, se fai una media pesata (perchè la conversione audio e quella di
archivi sono molto più veloci degli altri test e quindi meno influenti)
direi che un Q6600 è tra 3,5 e 4,5 volte più potente di un Sempron 3400+,
mentre diventa meno interessante se quello che fai col computer è
solo codificare con iTunes e compattare in formato RAR (con zip e p7z le cose
tornano circa normali).
Quanto ai consumi dipende dal tuo sistema, la cpu da sola consuma tra 2,5
e 4 volte di più, ma in realtà tu hai come minimo anche una motherboard
ed una scheda video, etc.etc. e quindi finisci con l'avere un sistema che consuma
tra 1,5 e 2,5 volte di più (1,5 se usi una scheda video grossa mentre 2,5 se usi
un sistema ridotto all'osso con scheda video piccina picciò.)
In definitiva il sempron è la scelta definitiva se metti su un mulo o un server,
(nel qual caso scheda video integrata, HD e niente lettore ottico sono un must)
se invece pensi di essere presente e di farlo lavorare quando lo tieni acceso,
allora il Q6600 è probabilmente più vantaggioso.
Resta comunque il fatto che se ci giochi soltanto, quello che fa la differenza è la scheda
video più del processore, nel qual caso la soluzione ideale è spendere i tuoi soldi
-prima per una scheda video di fascia media o medio alta almeno
-e poi semmai mettere qualcosa per il processore
(diciamo per ogni 2 euro messi nel processore metterne almeno 3 per la scheda video...)
No, se fai una media pesata (perchè la conversione audio e quella di
archivi sono molto più veloci degli altri test e quindi meno influenti)
direi che un Q6600 è tra 3,5 e 4,5 volte più potente di un Sempron 3400+,
mentre diventa meno interessante se quello che fai col computer è
solo codificare con iTunes e compattare in formato RAR (con zip e p7z le cose
tornano circa normali).
Quanto ai consumi dipende dal tuo sistema, la cpu da sola consuma tra 2,5
e 4 volte di più, ma in realtà tu hai come minimo anche una motherboard
ed una scheda video, etc.etc. e quindi finisci con l'avere un sistema che consuma
tra 1,5 e 2,5 volte di più (1,5 se usi una scheda video grossa mentre 2,5 se usi
un sistema ridotto all'osso con scheda video piccina picciò.)
In definitiva il sempron è la scelta definitiva se metti su un mulo o un server,
(nel qual caso scheda video integrata, HD e niente lettore ottico sono un must)
se invece pensi di essere presente e di farlo lavorare quando lo tieni acceso,
allora il Q6600 è probabilmente più vantaggioso.
Resta comunque il fatto che se ci giochi soltanto, quello che fa la differenza è la scheda
video più del processore, nel qual caso la soluzione ideale è spendere i tuoi soldi
-prima per una scheda video di fascia media o medio alta almeno
-e poi semmai mettere qualcosa per il processore
(diciamo per ogni 2 euro messi nel processore metterne almeno 3 per la scheda video...)
come mulo tra il sempron 3400 ed il celeron 420 io credo sia meglio il secondo ma la differenza credo sia solo di pochi watt...
cioè è meglio il celeron con un 945g-965g-g31-g33
se no prenderei sempron 3400+Asrock Alivenf6g-vsta Am2
Diabolik.cub
20-10-2007, 13:53
Sezione consumi a parte, mi sembra davvero un ottimo articolo, complimenti! Volevo solo avere una delucidazione per quanto riguarda la frequenza della ram: è fissa a 800 mhz o è impostata in modo da essere sincrona al fsb, e quindi a 400 | 533 | 667 mhz?
Grazie
Ottimo articolo,lasciate perdere le critiche,al 99% dell utenza le info che interessano ci sono tutte :sofico:
Pancho Villa
20-10-2007, 15:52
Una cosa è certa; spendere più di 200€ di CPU per avere migliori prestazioni nei giochi è inutile...
Una cosa è certa; spendere più di 200€ di CPU per avere migliori prestazioni nei giochi è inutile...
dipende...
io ho una gigabyte ds3 che non può montare i peryn...
al momento monto un e4300 ma quando vedrò un q6600 a circa 180euro lo prendo prima che finiscano completamente visto che ormai sono fuori produzione...
a roma si trova già a 225...
chi invece compra oggi una nuova scheda madre p35 che potrà supportare in seguito i peryn può prendere tranquillamente un e2140 ed overcloccarlo...
...poi in futuro potrà prendere senza problemi il quadcore che sarà sceso a poco prezzo...
spazzolone76
20-10-2007, 16:17
dipende...
io ho una gigabyte ds3 che non può montare i peryn...
al momento monto un e4300 ma quando vedrò un q6600 a circa 180euro lo prendo prima che finiscano completamente visto che ormai sono fuori produzione...
a roma si trova già a 225...
chi invece compra oggi una nuova scheda madre p35 che potrà supportare in seguito i peryn può prendere tranquillamente un e2140 ed overcloccarlo...
...poi in futuro potrà prendere senza problemi il quadcore che sarà sceso a poco prezzo...
quello che ho fatto io :D ;
in futuro vedrò il da farsi ma sicuramente spenderò per le cpu tipo e2140 che si overcloccano del 70-80% con dissy stock e senza ulteriore spesa (60 Euro e prestazioni del e6750)
Ciao
Una cosa è certa; spendere più di 200€ di CPU per avere migliori prestazioni nei giochi è inutile...
A chi la pensa come te (anch'io fino a poco fa) segnalo che le cose stanno cambiando: dai un'occhiata a questo bellissimo articolo: http://www.anandtech.com/video/showdoc.aspx?i=3127&p=4
è il test di processori con la nuova demo di UT3, dove (finalmente) si vede una differenza abissale tra i single e dual core "and promising improvements when moving to four cores."
Pancho Villa
20-10-2007, 17:46
A chi la pensa come te (anch'io fino a poco fa) segnalo che le cose stanno cambiando: dai un'occhiata a questo bellissimo articolo: http://www.anandtech.com/video/showdoc.aspx?i=3127&p=4
è il test di processori con la nuova demo di UT3, dove (finalmente) si vede una differenza abissale tra i single e dual core "and promising improvements when moving to four cores."Ah beh, se intendi il multithreading nei giochi allora ci può anche stare. Comunque quello che intendo dire è che, numero di core a parte, la potenza della CPU è abbastanza irrilevante, meglio risparmiare soldi là e investirli sulla GPU.
A chi la pensa come te (anch'io fino a poco fa) segnalo che le cose stanno cambiando: dai un'occhiata a questo bellissimo articolo: http://www.anandtech.com/video/showdoc.aspx?i=3127&p=4
è il test di processori con la nuova demo di UT3, dove (finalmente) si vede una differenza abissale tra i single e dual core "and promising improvements when moving to four cores."
è logico che i giochi che usciranno da oggi in poi saranno ottimizzati per i multicore...ci si può giocare gli attributi...;)
quel test però dimostra che almeno per il momento la scelta migliore qualità-prezzo potrebbe essere il dualcore... in fin dei conti tra un e2160 con 1mb di cache ed il fratello maggiore e4300 la differenza sta a circa il 6%
quindi se uno ha pochi soldi gli direi prendi un e2160...se mi dice ho abbastanza soldi gli direi di prendere direttamente il q6600, poi dipende da cosa farà col pc...
ci sono persone che mentre rippano un film contemporaneamente scaricano con emule e torrent e vogliono poter giocare a crysis...questi lo sfruttano il q6600
certo non direi mai ad uno che usa solo il pc per usare emule prendi il q6600...a questi gli direi prendi il celeron 420 o al max un e2140...
Ah beh, se intendi il multithreading nei giochi allora ci può anche stare. Comunque quello che intendo dire è che, numero di core a parte, la potenza della CPU è abbastanza irrilevante, meglio risparmiare soldi là e investirli sulla GPU.
si il tuo ragionamento è sensato fino ad un certo punto...
cioè mi spiego meglio:
se uno mi dice io il pc lo uso per giocare e di tutto un po e per cpu+gpu sono disposto a spendere circa 500euro
io oggi gli farei comprare
q6600 step g0 OC 333x9 (niente di che...)euro 230
2900pro OC a xt 230
tu
e2140 60euro
8800GTX 768MB GDDR3 euro 460 o 570euro per il modello ultra...
però secondo IMHO è meglio la mia scelta...
morpheus89
20-10-2007, 23:33
una curiosità: ma il processori intel della serie E6550, E6750 ed E6850 non dovrebbero avere un TDP di 65W??? eppure pare consumino di più dei Core 2 "vecchia serie"...
que va je faire
21-10-2007, 09:45
ahaha il moneybench quando ce lo mettevate era criticatissimo, ora che non ce l'avete messo tutti a richiederlo :D
cmq mi congratulo con la redazione per l'articolo, una sola parte da migliorare, quella sui test dei consumi...
V4n{}u|sH
21-10-2007, 15:46
Piccolo errorino in penultima pagina:
"il processore Core 2 Duo E6750 e quello Core 2 Duo E6600 hanno a pieno carico la stessa frequenza di clock, pari a 2,67 GHz"
Per il resto davvero un ottimo articolo, complimenti sinceri :)
una curiosità: ma il processori intel della serie E6550, E6750 ed E6850 non dovrebbero avere un TDP di 65W??? eppure pare consumino di più dei Core 2 "vecchia serie"...
I consumi maggiori degli E6X50 sono da imputare esclusivamente al chipset Nvidia, che per funzionare a 1333Mhz di bus invece di 1066 richiede un tributo di watt non indifferente.
by_xfile™
22-10-2007, 00:58
quoto
ottimo lavoro ;)
Tutto bellissimo ed interessante, peccato che non ci sia il Moneybench or una cosa simile... Ho sperimentato un po' facendo dei grafici a partire dai dati della recensione, in particolare ho fatto un plot dell'indice di velocita' contro velocita'/prezzo (=value for money) per alcune delle CPU... se qualcuno lo vuole vedere e' qua: http://www.homepages.ucl.ac.uk/~ucapllo/Image3.gif
(Se la redazione ha problemi per ragioni di copyright etc. lo tolgo subito!)
Ottimo lavoro, complimenti!
Spero in una simile recensione anche per le schede video!
Bello vedere che nei videogiochi a 1600x1200 non fa differenza avere un Q6700 piuttosto che un AMD64 3800+ :D
l'ho sempre pensato
Ho pensato di rimediare alla mancanza di un Moneybench ufficiale realizzando una tabella che indichi il rapporto prestazioni/prezzo dei processori confrontati da Hardware Upgrade.
La trovate qui: http://www.radiorock.org/flx/altro/mb48cpu.php
sasyultrasnapoli
22-10-2007, 12:25
Madonna mia che recensione... :eek:
Kissa quano soldi sono stati spesi :eekk: :eekk:
Complimentoni ad Hwupgrade :cool:
V4n{}u|sH
22-10-2007, 13:27
Madonna mia che recensione... :eek:
Kissa quano soldi sono stati spesi :eekk: :eekk:
Complimentoni ad Hwupgrade :cool:
La maggior parte delle CPU credo che erano in prestito ;)
Sarei curioso di sapere quali processori ha adottato Apple per la sua linea di MacBook e MacBook Pro
Complimenti per il magnifico lavoro.
Siete stati Grandi!
La maggior parte delle CPU credo che erano in prestito ;)
corsini ha detto che erano loro e che non venivano neanche rivendute ma che vengono conservate per futuri test ;)
morpheus89
22-10-2007, 15:50
I consumi maggiori degli E6X50 sono da imputare esclusivamente al chipset Nvidia, che per funzionare a 1333Mhz di bus invece di 1066 richiede un tributo di watt non indifferente.cioè praticamente TUTTI i processori che supportano il bus a 1333MHz consumeranno di più??? :eek:
ma non dovevano consumare di meno i penryn???
MiKeLezZ
22-10-2007, 15:52
cioè praticamente TUTTI i processori che supportano il bus a 1333MHz consumeranno di più??? :eek:
ma non dovevano consumare di meno i penryn???Questo articolo, per più motivi, non rispecchia la realtà dei fatti. Core 2 Duo consumano molto meno di quanto è scritto, e Penryn consumeranno decisamente meno ancora.
V4n{}u|sH
22-10-2007, 15:54
Sarei curioso di sapere quali processori ha adottato Apple per la sua linea di MacBook e MacBook Pro
Complimenti per il magnifico lavoro.
Siete stati Grandi!
Intel Core 2 Duo ;)
corsini ha detto che erano loro e che non venivano neanche rivendute ma che vengono conservate per futuri test ;)
Corsini ha detto che buona parte delle CPU erano loro, non tutte (e lo credo bene :D) ;)
Intel Core 2 Duo ;)
Corsini ha detto che buona parte delle CPU erano loro, non tutte (e lo credo bene :D) ;)
:D
suppaman
23-10-2007, 09:35
A che pro inventare un termine quando esiste "normalizzato" che viene utilizzato comunemente nei calcoli scientifici?
certo che con un E2180 da 80 euro ci fai girare già tutto.. figuriamoci se overcloccato..
Cmq per colpa del discorso consumi 3/4 del totale del topic;) si sono perse quelle che sono le vere prestazioni.. Rispetto alla vecchia comparativa fatta su xp gli amd sembrano mantenere le prestazioni mentre gli intel in linea di massima sembrano perdere qualcosina.. Inoltre vedere un 6400+ stare in vetta su tutti i dual core e dietro ai quad fa un certo effetto che denota tutta la bonta dei k8..
Interessante sarebbe vedere sui 64bit dove le istruzioni amd sembrano essere migliori.. oc astenuto dato che il 93% dei pc rimane a default..
link vecchia comaprativa consumi http://www.hwupgrade.it/articoli/cpu/1665/amd-athlon-64-x2-6000+-ora-a-3-ghz_9.html
Infatti! quello che mi ha colpito di questi test è proprio il recupero degli amd!
credevo che fosse così solo per vista 64 bit, invece a quanto pare anche sul 32 gli amd sono spesso a ridosso degli intel di pari frequenza.
ma come mai accade ciò? forse vista è stato ottimizzato per gli amd?
V4n{}u|sH
23-10-2007, 17:07
Infatti! quello che mi ha colpito di questi test è proprio il recupero degli amd!
credevo che fosse così solo per vista 64 bit, invece a quanto pare anche sul 32 gli amd sono spesso a ridosso degli intel di pari frequenza.
ma come mai accade ciò? forse vista è stato ottimizzato per gli amd?
Non credo proprio :asd:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.