PDA

View Full Version : Phenom II X4: le cpu AMD ritornano competitive


Pagine : 1 [2]

blackshard
13-01-2009, 14:06
Grazie, vediamo se ho capito o se sono proprio un pirla.
In pratica questo tipo di istruzioni (SIMD) permettono un "teorico" incremento prestazionale in quanto permettono al processore di fare più operazioni con una singola istruzione. Quindi ogni livello (SSE1, SSE2, SSE3, SSS3, SSE4.1, SSE4.2) è un passo avanti.
E quindi è meglio avere un processore che supporti più istruzioni possibili.
Se fin qui ho capito allora mi vien da fare una domanda...
Quindi all'utente medio non frega niente! In quanto è sfruttato solamente in ambienti particolari, presumo che anche i rendering o alcune compressioni effettuate a livello professionale possano usare queste istruzioni. O forse servono?

Si usano solo in ambiti particolari perchè solo lì possono essere usate. Questi ambiti riguardano più che altro settori in cui i calcoli sono di tipo a flusso, come compressione/decompressione video e audio, elaborazioni matriciali (tipo il setup dei poligoni di una scena 3d), calcoli scientifici, rendering di scene in raytracing... quindi non sempre è possibile utilizzarle perchè si tratta di istruzioni specializzate, ma quando si possono utilizzare in genere si ottengono notevoli incrementi nelle prestazioni.
Ogni versione di SSE introduce nuove istruzioni e non modifica assolutamente i set precedenti sia dal punto di vista prestazionale che da quello comportamentale.

Il primo set di istruzioni di questo tipo sono le MMX, introdotte da Intel per i calcoli interi, a cui poi sono seguite le 3dNow! di AMD per i calcoli floating point, a cui poi Intel ha seguito con le SSE.

Free Gordon
13-01-2009, 14:09
quando superi i 30fps(nei giochi) non cambia nulla o meglio l'occhio umano non lo nota se sei a 35/40/45/50/60 fps

Allora il mio occhio non deve essere umano!!! :D

L'uomo può vedere differenze di frame rate, anche oltre i 60fps.

E' cmq una questione soggettiva, alcuni notano differenze fino agli 80fps...

Cmq TUTTI, con l'opportuno allenamento, possono riconoscere la palese differenza che passa tra 30 e 60 fps. ;)

Capozz
13-01-2009, 14:10
Il bello è che sono gli stessi identici processori di prima, che già consumavano meno del tdp dichiarato.
Se qualcuno dovesse dar via un quad attuale a 45nm per prendersi unodi questi con tdp 65watt ci sarebbe da stingergli la mano :asd:
Tra parentesi per intel il tdp non è una misura di consumo ma di calore dissipato....basta guardare il q9550 ed il phenom II 920 per vedere che la differenza di consumo dell'intero sistema in full load, a parità di clock, è di 14watt nonostante il tdp sia 95w contro 125 (quindi 30 watt)
I phenom II poi hanno il controller di memoria integrato, è normale che consumino qualcosa di più, basta vedere quanto consumano gli i7

Capozz
13-01-2009, 14:12
Allora il mio occhio non deve essere umano!!! :D

L'uomo può vedere differenze di frame rate, anche oltre i 60fps.

E' cmq una questione soggettiva, alcuni notano differenze fino agli 80fps...

Cmq TUTTI, con l'opportuno allenamento, possono riconoscere la palese differenza che passa tra 30 e 60 fps. ;)

tra 30 e 60 si vede la differenza, oltre i 60 è impossibile percepire differenze, a meno di non avere un occhio bionico o che il counter degli fps sia sballato :D

sniperspa
13-01-2009, 14:17
quando superi i 30fps(nei giochi) non cambia nulla o meglio l'occhio umano non lo nota se sei a 35/40/45/50/60 fps

oltretutto sopra 60 bisogna attivare il v-sync per problemi di refresh del monitor ed evitare il fenomeno Tearing

leggi qui:
http://www.hwupgrade.it/forum/showthread.php?t=1319188

prendere una scheda che supera i 60fps è come prendere una ferrari e doverla fare camminare in città a 40km/ora(perchè dovrai attivare il vsync per farla andare sotto i 60fps se no l'immagine scatta...una cosa obrobriosa...:muro: ) ma consumare 4 a litro e pagarla un occhio della testa, è pur vero che agli amici puoi dire però cammino col ferrari :asd:



nei film bastano invece solo 25fps

Hai mai pensato che non tutti amano cambiare pc ogni 6 mesi?:asd:

Cmq che sia inutile spendere il 50% in più per avere un pc che va il 10% in più questo è indubbio(sto sparando percentuali a caso) ma secondo me bisogna trovare il giusto equilibrio tra le cose in modo da avere un prodotto che sia longevo il più possibile al giusto prezzo :O
e se uno deve giocare i dual core penso possano tirare avanti ancora per un bel pò di tempo.non sento il bisogno di un quad ora come ora,in futuro chi lo sa.

s12a
13-01-2009, 14:21
tra 30 e 60 si vede la differenza, oltre i 60 è impossibile percepire differenze, a meno di non avere un occhio bionico o che il counter degli fps sia sballato :D

E` lo stesso discorso della differenza fra profondita` di colore a 16 bit e 24 bit, sui monitor che riescono a visualizzarli (oramai con l'avvento degli lcd, pochi): i singoli colori non si possono chiaramente distinguere, ma nell'insieme l'immagine a 24 bit appare migliore.

Tornando ai video, nei film, i 24/25/30 fps sembrano bastare perche' e` sempre applicato un temporal antialiasing delle immagini che da' senzazione di fluidita` e sopperisce al relativamente basso framerate. Uno dei motivi per i quali molti dicono che piu` di 25/30 fps l'occhio umano non distingue (falsita`).
Nei giochi invece oramai, sempre a causa del'avvento degli lcd, andare oltre i 60 fps e` inutile (o meglio non porta a benefici sulla fluidita`) perche' oltre quelli il monitor non e` generalmente in grado di visualizzare, visto che vanno quasi tutti a 60 hz.

majorebola
13-01-2009, 14:34
Si usano solo in ambiti particolari perchè solo lì possono essere usate. Questi ambiti riguardano più che altro settori in cui i calcoli sono di tipo a flusso, come compressione/decompressione video e audio, elaborazioni matriciali (tipo il setup dei poligoni di una scena 3d), calcoli scientifici, rendering di scene in raytracing... quindi non sempre è possibile utilizzarle perchè si tratta di istruzioni specializzate, ma quando si possono utilizzare in genere si ottengono notevoli incrementi nelle prestazioni.
Ogni versione di SSE introduce nuove istruzioni e non modifica assolutamente i set precedenti sia dal punto di vista prestazionale che da quello comportamentale.

Il primo set di istruzioni di questo tipo sono le MMX, introdotte da Intel per i calcoli interi, a cui poi sono seguite le 3dNow! di AMD per i calcoli floating point, a cui poi Intel ha seguito con le SSE.

Grazie mille

E` lo stesso discorso della differenza fra profondita` di colore a 16 bit e 24 bit, sui monitor che riescono a visualizzarli (oramai con l'avvento degli lcd, pochi): i singoli colori non si possono chiaramente distinguere, ma nell'insieme l'immagine a 24 bit appare migliore.

Tornando ai video, nei film, i 24/25/30 fps sembrano bastare perche' e` sempre applicato un temporal antialiasing delle immagini che da' senzazione di fluidita` e sopperisce al relativamente basso framerate. Uno dei motivi per i quali molti dicono che piu` di 25/30 fps l'occhio umano non distingue (falsita`).
Nei giochi invece oramai, sempre a causa del'avvento degli lcd, andare oltre i 60 fps e` inutile (o meglio non porta a benefici sulla fluidita`) perche' oltre quelli il monitor non e` generalmente in grado di visualizzare, visto che vanno quasi tutti a 60 hz.

Il fatto è proprio questo: i monitor LCD hanno un limite a 60hz (in realtà a ris inferiori aumentano, ma se si può evitare :D)
Comunque in via teorica l'occhio umano percepisce al massimo 20 fps, infatti se si gioca per un po' a 25fps si avrà la sensazione di fluidità... basta poi andare a 40 per notare la differenza. Onestamente però tra 40 e 60 non noto differenze...

M@tteo79
13-01-2009, 15:41
Cavolo il Q9950 è un bellissimo processore, nessuno lo mette in dubbio... ma mi sembra troppo caro. A quel punto vale quasi la pena di prendere un i7!


Io per la mia gioia mi tengo lo Xeon dual core e sto benissimo così senza regalare ad intel altri 350€

Il Q9550 costa 249€ IVA INCLUSA quindi evitiamo di sparare cifre a caso solo perchè mancano le argomentazioni per controbattere quello che è stato affermato.

Credete davvero che per passare ad i7 siano sufficienti 250€?? In caso affermativo chiudo subito qui il discorso in quanto sarebbe palesemente inutile avere un dialogo con utenti come voi.

Essere contento e manifestare la propria gioia per un azienda che mi propone una CPU Quad Core che consuma solo 65W (contro i 95W iniziali) e che si presta facilmente ad Overclock molto spinti mantenendo la piena stabilità.. il tutto permettendomi di spendere non più di 250€ (evitando dunque di fare un upgrade totale) e garantendomi prestazioni doppie rispetto a quelle attuali che l'E6600 (ottima CPU) mi sta fornendo non credo che si possa definire un comportamento di parte... soprattutto a fronte dell'utilizzo (rendering e videoediting) che comunemente faccio del PC.


P.s. Aggiungo che con 250€ avrò una CPU più veloce del Top di gamma offerto da AMD in questo momento e con maggiori possibilità di Overclock. Credo che non ci sia altro da dire.

M@tteo79
13-01-2009, 15:44
A me risulta che i vecchi Quad core Intel avessero gia` un consumo massimo effettivo minore di 65watt.

Ti risulta male: http://www.hwupgrade.it/news/cpu/nuove-cpu-core-2-quad-a-basso-consumo-da-intel_27682.html


P.s. Ricordo a tutti coloro che non l'avessero notato che i prezzi sono espressi in DOLLARI $$$$$ e non EURO.

sniperspa
13-01-2009, 15:45
Grazie mille



Il fatto è proprio questo: i monitor LCD hanno un limite a 60hz (in realtà a ris inferiori aumentano, ma se si può evitare :D)
Comunque in via teorica l'occhio umano percepisce al massimo 20 fps, infatti se si gioca per un po' a 25fps si avrà la sensazione di fluidità... basta poi andare a 40 per notare la differenza. Onestamente però tra 40 e 60 non noto differenze...

Secondo quale teoria scusa??:wtf:

E cmq dipende perchè se gioco a crysis i 25fps mi bastano se gioco a farcry2 me ne servono almeno 30 per giocare decentemente...

unnilennium
13-01-2009, 15:50
Secondo quale teoria scusa??:wtf:

E cmq dipende perchè se gioco a crysis i 25fps mi bastano se gioco a farcry2 me ne servono almeno 30 per giocare decentemente...

si parla di media di fps,nn di fps max.crisis da questo punto di vista fa schifo,xché ha dei cali pazzeschi,mentre fc2 é molto più avanti,e scala meglio

M@tteo79
13-01-2009, 15:59
Secondo quale teoria scusa??

Anche se la domanda non era diretta a me cerco di spiegartelo:

Le immagini rimangono impresse sulla retina per un certo periodo (tempo di persistenza) che puoi valutare per esempio guardando una lampadina per un po'e poi spegnendo la luce... continuerai per un po' a vedere una macchia nella posizione in cui si trovava la fonte luminosa nel tuo campo visivo.
Il cinema si avvale di questa particolaritá della vista umana ricrenado il movimento a partire da una serie di immagini fisse che si suseguono alla velocitá di 24 fps. La televisione usa invece 50 semiquadri interlacciati, percui la velocitá dei singoli fotogrammi é di 25 fps (con il sistema PAL, invece con l'NTSC americano sono 30 fps)
I vecchi filmini in super8 andavano ad una velocitá di 18 fps, e qui siamo al limite della nostra vista. Per frequenze piú basse, la persistenza sulla retina non é sufficiente ad amalgamare i quadri e quindi le immagini sfarfallano dando fastidio.
Come limite superiore al di sotto di 1/50 di secondo l'occhio non riesce a percepire una informazione diversa come nel caso ad esempio di un susseguirsi di quadri bianchi in cui ne viene intercalato uno nero. Al di sotto di questo valore il cervello non riesce a registrare l'informazione (almeno a livello cosciente, e questo é sfruttato per esempio dai messaggi subliminali nascosti fra i fotogrammi).

In conclusione l'occhio umano percepisce 25 fotogrammi al secondo... sebbene il valore ottimale nei videogiochi (soprattutto FPS) dovrebbe assestarsi sui 60fps per vari motivi.

sniperspa
13-01-2009, 16:00
si parla di media di fps,nn di fps max.crisis da questo punto di vista fa schifo,xché ha dei cali pazzeschi,mentre fc2 é molto più avanti,e scala meglio

Non centra niente....io intendo che visivamente i 25fps di crysis mi fanno apparire le scene più fluide dei 30fps di farcry2....è una questione di motore grafico...
Era solo per sottolineare che non contano solo i numeri...e ai 25fps non semre corrisponde una senzazione di fluidità :)

!fazz
13-01-2009, 16:00
Il Q9550 costa 249€ IVA INCLUSA quindi evitiamo di sparare cifre a caso solo perchè mancano le argomentazioni per controbattere quello che è stato affermato.

Credete davvero che per passare ad i7 siano sufficienti 250€?? In caso affermativo chiudo subito qui il discorso in quanto sarebbe palesemente inutile avere un dialogo con utenti come voi.

Essere contento e manifestare la propria gioia per un azienda che mi propone una CPU Quad Core che consuma solo 65W (contro i 95W iniziali) e che si presta facilmente ad Overclock molto spinti mantenendo la piena stabilità.. il tutto permettendomi di spendere non più di 250€ (evitando dunque di fare un upgrade totale) e garantendomi prestazioni doppie rispetto a quelle attuali che l'E6600 (ottima CPU) mi sta fornendo non credo che si possa definire un comportamento di parte... soprattutto a fronte dell'utilizzo (rendering e videoediting) che comunemente faccio del PC.


P.s. Aggiungo che con 250€ avrò una CPU più veloce del Top di gamma offerto da AMD in questo momento e con maggiori possibilità di Overclock. Credo che non ci sia altro da dire.
a parte che quel processore al cambio odierno costa 278€ e non 250 a cui forse va da aggiungersi il vat (sei sicuro che i prezzi siano iva inclusa? di solito nei prezzi in dollari il vat non è mai inserito perchè cambia da stato a stato
e cmq di gioire per questo non mi pare proprio il caso. e sulle possibiltà di overclock vedremo dopo come si presteranno, così come vedremo l'overclock dei 940 be ( a chi interessa, io prediligo la stabilità quindi se la cpu non mi basta la cambio, non faccio overclock)

sniperspa
13-01-2009, 16:03
Anche se la domanda non era diretta a me cerco di spiegartelo:
-cut-


Ma quindi anche aumentando il numero di fps nella televisione,non si avrebbero scene più gradevoli?

s12a
13-01-2009, 16:04
Ti risulta male: http://www.hwupgrade.it/news/cpu/nuove-cpu-core-2-quad-a-basso-consumo-da-intel_27682.html

Parlavo infatti di consumi effettivi, non di TDP:

http://www.behardware.com/art/imprimer/739/

http://www.behardware.com/medias/photos_news/00/24/IMG0024933.gif

majorebola
13-01-2009, 16:16
Il Q9550 costa 249€ IVA INCLUSA quindi evitiamo di sparare cifre a caso solo perchè mancano le argomentazioni per controbattere quello che è stato affermato.

Credete davvero che per passare ad i7 siano sufficienti 250€?? In caso affermativo chiudo subito qui il discorso in quanto sarebbe palesemente inutile avere un dialogo con utenti come voi.

Essere contento e manifestare la propria gioia per un azienda che mi propone una CPU Quad Core che consuma solo 65W (contro i 95W iniziali) e che si presta facilmente ad Overclock molto spinti mantenendo la piena stabilità.. il tutto permettendomi di spendere non più di 250€ (evitando dunque di fare un upgrade totale) e garantendomi prestazioni doppie rispetto a quelle attuali che l'E6600 (ottima CPU) mi sta fornendo non credo che si possa definire un comportamento di parte... soprattutto a fronte dell'utilizzo (rendering e videoediting) che comunemente faccio del PC.


P.s. Aggiungo che con 250€ avrò una CPU più veloce del Top di gamma offerto da AMD in questo momento e con maggiori possibilità di Overclock. Credo che non ci sia altro da dire.

Innanzitutto ho detto "Quasi"... perché secondo me tra un paio di mesi i costi dell'acquisto di una postazione i7 con tanto di RAM triple channel costerà moolto meno (o almeno lo spero! :D )
Poi... che il Q9550 costi 250€ non è in dubbio (forse qualcosina di più, ma dipende dal negozio...)
Poi, si parlava di Q9550s che dovrebbe costare di più... 370$ = 280€ al cambio attuale (0.65%), e credo che manchi ancora il 20% d'IVA = 280+56 = 336€ :D e ci siamo direi (anche oltre al costo di un i7 920 che si trova, tra l'altro a 260!)...
Vuoi non prendere almeno una BELLA scheda madre da almeno 150€ con questo processore? Che magari supporti SLI/Crossfire?
Poi RAM: almeno 4GB @1066mhz (che costano come un triple-channel)

E alla fine della fiera siamo lì: ovviamente la configurazione con i7 sarà più cara (nessuno credo possa sostenere l'economicità della configurazione nehalem), ma forse come rapporto qualità-prezzo ci siamo avvicinati... O no?

Ma tutto ciò e OT!!!! Qui si parlava di Phenom2... e io voglio avere indiscrezioni sugli AM3! Visto che la mia mamma li supporta! E magari non costano così cari :D e vanno anche decentemente!

Secondo quale teoria scusa??:wtf:

E cmq dipende perchè se gioco a crysis i 25fps mi bastano se gioco a farcry2 me ne servono almeno 30 per giocare decentemente...

A me risultava che la sensibilità dell'occhio umano fosse di circa 20fps, studiato in fisica...
Poi ovviamente tra 20fps e 40fps si percepisce la differenza, ma a 20fps il gioco non va "a scatti"... semplicemente "non è fluido"... o sto dicendo solo castronerie?

sniperspa
13-01-2009, 16:18
A me risultava che la sensibilità dell'occhio umano fosse di circa 20fps, studiato in fisica...
Poi ovviamente tra 20fps e 40fps si percepisce la differenza, ma a 20fps il gioco non va "a scatti"... semplicemente "non è fluido"... o sto dicendo solo castronerie?

A bè si non parlavo di scatti chiaramente :D

majorebola
13-01-2009, 16:22
A bè si non parlavo di scatti chiaramente :D

:D si lo so.... :D

Comunque non credo che ci sarebbero migliorie ad aumentare il formato PAL (25fps) a qualche frame in più...

In realtà se il framerate è costante non ti accorgi neanche che va a scatti... a me succedeva con Test Drive... che avevo un costante 25fps e non mi sembrava neanche "non fluido"... poi ho cambiato vga :D e sono arrivato a40fps e... è decisamente più fluido :D (anche se non è che muoio per la differenza! :D)

Free Gordon
13-01-2009, 16:23
tra 30 e 60 si vede la differenza, oltre i 60 è impossibile percepire differenze, a meno di non avere un occhio bionico o che il counter degli fps sia sballato :D


La differenza si vede ancora fino agli 80... ;) dipende dall'occhio che hai.


Ps.
come vedi in firma, io ho un crt.

majorebola
13-01-2009, 16:32
La differenza si vede ancora fino agli 80... ;) dipende dall'occhio che hai.


Ps.
come vedi in firma, io ho un crt.

24" CRT??? dove lo tieni? sul balcone? :sofico:

Comunque anche a me manca il mio 17" CRT... ma dai tempo agli LCD che i primi CRT erano curvi e gialli :D

AgonizedPhobos
13-01-2009, 16:46
24" CRT??? dove lo tieni? sul balcone? :sofico:

Comunque anche a me manca il mio 17" CRT... ma dai tempo agli LCD che i primi CRT erano curvi e gialli :D

la differenza tra un crt e un lcd è tanca,io avevo un crt 24 pollici e adesso l'asus 24 pollici e la differenza è notevole:sofico:

Xeus32
13-01-2009, 20:27
Grazie, vediamo se ho capito o se sono proprio un pirla.
In pratica questo tipo di istruzioni (SIMD) permettono un "teorico" incremento prestazionale in quanto permettono al processore di fare più operazioni con una singola istruzione. Quindi ogni livello (SSE1, SSE2, SSE3, SSS3, SSE4.1, SSE4.2) è un passo avanti.
E quindi è meglio avere un processore che supporti più istruzioni possibili.
Se fin qui ho capito allora mi vien da fare una domanda...
Quindi all'utente medio non frega niente! In quanto è sfruttato solamente in ambienti particolari, presumo che anche i rendering o alcune compressioni effettuate a livello professionale possano usare queste istruzioni. O forse servono?


Diciamo che è una mezza verità. Le SSE servono, al CINECA me ne hanno fatto una testa quadra. Si possono fare tante cose utili, ad esempio con le mmx si può fare analisi di stringe, con le sse si potrebbe ottimizzare gli antivirus per migliorarne le prestazioni in hashing (firma). Il Firefox potrebbe decodificare più velocemente le immagini. I campi di applicazione ci sono e abbondanti.
In realtà il problema non è SSE, il problema è la vastità di piattaforme (cpu con diversi subset) che sono disponibili! Un generico Codec video come DIVX non potrebbe funzionare se avesse abilitate di base le SSE2 perchè in tutti gli athlon xp non sono supportate. Questo dipende da vari problemi ma in particolare il sistema di distribuzione che ha windows (in formato binario precompilato), problema risolto con Gentoo e FreeBSD dove i programmi vengono compilati al momento della installazione sulle specifiche della cpu. Io ho visto codice ottimizzato SSE avere incrementi di prestazioni superiori alle 5 volte, ma sono casi rari.
A mio avviso la cosa sta persino degenerando causa framework (ambienti di lavoro) tipo Java e .NET.
I programmi scritti in java o .net vengono compilati per una macchina virtuale. Quando si esegue il programma, la virtual machine, ricompila il codice per la cpu reale ma visto che nelle macchine virtuali non sono previste istruzioni tipo SIMD non si ottiene codice SIMD e quindi non si sfrutta neppure una di queste cose utili.
SUN e MS non possono implementare istruzioni SIMD sulle macchine virtuali altrimenti la loro universalità andrebbe smarrita oppure emulare queste istruzione avrebbe un impatto negativo sulle prestazioni.
Infatti come tutti ben sanno A*A+A*B+C non è la stesa cosa di scrivere A*(A+B)+C (esempio banale). L'ordine delle operazioni matematiche soprattutto complesse non è prevedibile da un compilatore ma deve essere un programmatore a farlo!
Io sono molto contento che finalmente inizieranno a vendere portatili basati su architettura ARM ( architettura progettata per essere semplice, economica e con un ottimo rapporto potenza/consumo ma non performante) così la gente capirà cosa sono gli applicativi ottimizzati!
Non ci si rende conto quanto sangue si può tirare fuori da un core 2 o da una qualsiasi hw!

Aggiunta:
Per darti una idea di che vuol dire ottimizzazione ti racconto un aneddoto che mi è capitato mentre lavoravo alla tesi.
Per tesi ho lavorato su gas in alta pressione in fase supercritica per lo studio di aggregati. Era il tempo delle vacanze di natale e ho deciso di portarmi parte del lavoro a casa per continuare e laurearmi prima.
Il mio lavoro si articolava in simulare circa 10'000 molecole di CO2 con varie altre cose all'interno. Io poi eseguivo analisi statistiche spinte sulle traittorie di ogni singola molecola. Per darti un'idea gli out erano da 50GB. Sono passato da un quadri opteron con 16gb di ram (macchina universitaria ) a un vecchio P4 3.2ghz con 1gb di ram.
Arrivo a casa e genere un sistema di studio + piccolo cosi da poter avere dei dati velocemente e proseguire su il programma per l'analisi statistica.
Decido di installarmi una mini distro Linux basata su Gentoo e ottimizzando al max tutto. Avevo installato il minimo per un totale di 70mb di disco. Avevo un kernel minimale dove erano presenti solamente le cose che servivano e il resto non c'era. Una ottima configurazione da High Performanc Computing. Lancio il mio applicativo, ovviamente ottimizzato al max, e dopo 15 minuti mi si riavviava la macchina perchè la cpu era troppo calda. Peccato che avevo su un dissipatore da OC. Se facevo girare lo stesso programma (sempre ottimizzato per l'architettura del processore) sotto windows non notavo nessun blocco della macchina. Peccato che perdevo qualcosa come il 10% di prestazioni.
Morale della favola: Non ostante l'installazione di windows fosso nuova e non vi fosse nulla di installato, windows non è così ottimizzato da spingere sti proci al reale limite. I programmi di stress per le cpu fanno un ottimo lavoro ma si può fare di più! Alla fine mi sono arreso e ho eseguito il programma sotto windows! Con questo voglio dire che il TPD che dichiarano per me è tanto na cagata! Per i produttori basta sottodimensionare il dissipatore e in 2 sec entra in funzione le protezione per la sovra temperatura che taglia gli hertz.

majorebola
13-01-2009, 20:37
Diciamo che è una mezza verità. Le SSE servono, al CINECA me ne hanno fatto una testa quadra. Si possono fare tante cose utili, ad esempio con le mmx si può fare analisi di stringe, con le sse si potrebbe ottimizzare gli antivirus per migliorarne le prestazioni in hashing (firma). Il Firefox potrebbe decodificare più velocemente le immagini. I campi di applicazione ci sono e abbondanti.
In realtà il problema non è SSE, il problema è la vastità di piattaforme (cpu con diversi subset) che sono disponibili! Un generico Codec video come DIVX non potrebbe funzionare se avesse abilitate di base le SSE2 perchè in tutti gli athlon xp non sono supportate. Questo dipende da vari problemi ma in particolare il sistema di distribuzione che ha windows (in formato binario precompilato), problema risolto con Gentoo e FreeBSD dove i programmi vengono compilati al momento della installazione sulle specifiche della cpu. Io ho visto codice ottimizzato SSE avere incrementi di prestazioni superiori alle 5 volte, ma sono casi rari.
A mio avviso la cosa sta persino degenerando causa framework (ambienti di lavoro) tipo Java e .NET.
I programmi scritti in java o .net vengono compilati per una macchina virtuale. Quando si esegue il programma, la virtual machine, ricompila il codice per la cpu reale ma visto che nelle macchine virtuali non sono previste istruzioni tipo SIMD non si ottiene codice SIMD e quindi non si sfrutta neppure una di queste cose utili.
SUN e MS non possono implementare istruzioni SIMD sulle macchine virtuali altrimenti la loro universalità andrebbe smarrita oppure emulare queste istruzione avrebbe un impatto negativo sulle prestazioni.
Infatti come tutti ben sanno A*A+A*B+C non è la stesa cosa di scrivere A*(A+B)+C (esempio banale). L'ordine delle operazioni matematiche soprattutto complesse non è prevedibile da un compilatore ma deve essere un programmatore a farlo!
Io sono molto contento che finalmente inizieranno a vendere portatili basati su architettura ARM ( architettura progettata per essere semplice, economica e con un ottimo rapporto potenza/consumo ma non performante) così la gente capirà cosa sono gli applicativi ottimizzati!
Non ci si rende conto quanto sangue si può tirare fuori da un core 2 o da una qualsiasi hw!

In parole povere: per colpa del fatto che non tutte le CPU dispongono di queste istruzioni le software house non producono software specificamente programmato per queste istruzioni in quanto perderebbero troppe compatibilità...
Dall'altro lato però si avrebbero incrementi prestazionali incredibili giusto?

Questo potrebbe spiegare perché Mac è così più veloce di Windows :D? Potrebbe essere sviluppato meglio da questo punto di vista?

Xeus32
13-01-2009, 21:10
In parole povere: per colpa del fatto che non tutte le CPU dispongono di queste istruzioni le software house non producono software specificamente programmato per queste istruzioni in quanto perderebbero troppe compatibilità...
Dall'altro lato però si avrebbero incrementi prestazionali incredibili giusto?

Questo potrebbe spiegare perché Mac è così più veloce di Windows :D? Potrebbe essere sviluppato meglio da questo punto di vista?

Estatto!
Anche windows vista 64bit dovrebbe avere degli incrementi notevoli visto che di base tutte le cpu 64bit sono sse2 (Athlon 64). Anche se il mac dovendo supportare solo core 2 parte di base con le sse3!
In più Vista usa in modo molto spinto il framework .Net perchè gli consente agilità nella migrazione di applicativi 64bit e 32bit. Questo a mio avviso impatta negativamente sulle prestazioni globali dell'os anche se lo rende intrinsecamente più sicuro.
Sono pochi gli applicativi che realmente usano qualcosa di + delle sse2 . Add esempio Photoshop di base richiede solo sse2 quindi di conseguenza (è poco probabile) che supporti anche sse3-4 anche se dovrebbero granatigli prestazioni migliori.

majorebola
13-01-2009, 21:16
Estatto!
Anche windows vista 64bit dovrebbe avere degli incrementi notevoli visto che di base tutte le cpu 64bit sono sse2 (Athlon 64). Anche se il mac dovendo supportare solo core 2 parte di base con le sse3!
In più Vista usa in modo molto spinto il framework .Net perchè gli consente agilità nella migrazione di applicativi 64bit e 32bit. Questo a mio avviso impatta negativamente sulle prestazioni globali dell'os anche se lo rende intrinsecamente più sicuro.
Sono pochi gli applicativi che realmente usano qualcosa di + delle sse2 . Add esempio Photoshop di base richiede solo sse2 quindi di conseguenza (è poco probabile) che supporti anche sse3-4 anche se dovrebbero granatigli prestazioni migliori.

Quindi, parlando un po' per assurdo, se io volessi acquistare un processore che mi duri qualcosa come 10 anni (o anche più, ad esempio in una configurazione HTPC) mi conviene assolutamente prendere un c2duo in quanto implementa più istruzioni e, a quanto ho capito, queste istruzioni vengono piano piano (molto effettivamente) implementate dagli applicativi...?

PS: Grazie, oggi ho imparato una cosa nuova! :D

Xeus32
13-01-2009, 21:40
Quindi, parlando un po' per assurdo, se io volessi acquistare un processore che mi duri qualcosa come 10 anni (o anche più, ad esempio in una configurazione HTPC) mi conviene assolutamente prendere un c2duo in quanto implementa più istruzioni e, a quanto ho capito, queste istruzioni vengono piano piano (molto effettivamente) implementate dagli applicativi...?

PS: Grazie, oggi ho imparato una cosa nuova! :D

Ni, il tuo ragionamento funziona benino! Per adesso siamo ancora nella fase spreco! fiche ci sono risorse da buttare tutti faranno la cosa più economica da fare! Non ottimizzare e l'utente cambia la cpu!
Ti ho cercato fuori un vecchio esperimento che ho fatto il mio ATOM ( processore di merda, ma che rende bene l'idea)
Blender Benchmark (http://www.eofw.org/bench/)
Atom 1.6ghz 1gb ram codice originale senza ottimizzazioni (18m 09sec)
Atom 1.6ghz 1gb ram con compilatore intel ottimizzato sse3 (11m 09sec)
Stessa macchina, stesso windows , stessa giornata, stessi 2 watt della cpu!
Faccio notare che questo è guadagno mostruoso dovuto fondamentalemente al fatto che l'atom è una cpu in order e quindi la scrittura di un buon codice permette di raggiungere risultati migliori! Guardato un vetusto Q6600
Q6600 2.4ghz 4gb ram non ottimizzato (31.55sec)
Q6600 2.4ghz 4gb ram ottimizzato sse3 (38.xx sec circa)
fa te ...
quanto non cambia una buona ottimizzazione!

majorebola
13-01-2009, 23:44
Ni, il tuo ragionamento funziona benino! Per adesso siamo ancora nella fase spreco! fiche ci sono risorse da buttare tutti faranno la cosa più economica da fare! Non ottimizzare e l'utente cambia la cpu!
Ti ho cercato fuori un vecchio esperimento che ho fatto il mio ATOM ( processore di merda, ma che rende bene l'idea)
Blender Benchmark (http://www.eofw.org/bench/)
Atom 1.6ghz 1gb ram codice originale senza ottimizzazioni (18m 09sec)
Atom 1.6ghz 1gb ram con compilatore intel ottimizzato sse3 (11m 09sec)
Stessa macchina, stesso windows , stessa giornata, stessi 2 watt della cpu!
Faccio notare che questo è guadagno mostruoso dovuto fondamentalemente al fatto che l'atom è una cpu in order e quindi la scrittura di un buon codice permette di raggiungere risultati migliori! Guardato un vetusto Q6600
Q6600 2.4ghz 4gb ram non ottimizzato (31.55sec)
Q6600 2.4ghz 4gb ram ottimizzato sse3 (38.xx sec circa)
fa te ...
quanto non cambia una buona ottimizzazione!

Si parla dello stesso test ovviamente tra Q6600 e Atom?
Quindi però questo un po' conferma la mia idea, cioè, che tra 10 anni SE i codici venissero ottimizzati e il mio processore li supportasse andrebbe discretamente... E soprattutto potrebbe adoperare programmi che altrimenti (in quanto senza istruzioni) non potrebbe neanche iniziare... o dico ca--ate?

Tralasciando il fatto che tanto non ottimizzano perché all'Intel non conviene ;)

M@tteo79
13-01-2009, 23:54
Vuoi non prendere almeno una BELLA scheda madre da almeno 150€ con questo processore? Che magari supporti SLI/Crossfire?
Poi RAM: almeno 4GB @1066mhz (che costano come un triple-channel)

Purtroppo ancora una volta si scrive senza prima leggere. Non vedi forse nella mia firma una BELLA scheda madre e 4Gb di BELLA Ram ?? Oltre a tutta la BELLEZZA del resto....

E' stato chiaramente esplicitato che si parlava di passaggio da Core2 Duo E6600 a Core2 Quad Q9550s... non serve cambiare un BEL niente xchè c'è già tutto e che tutto!

Dunque la spesa è "minima" (virgolettato perchè si tratta pur sempre di 500.000 delle vecchie lire).

!fazz
14-01-2009, 00:47
Purtroppo ancora una volta si scrive senza prima leggere. Non vedi forse nella mia firma una BELLA scheda madre e 4Gb di BELLA Ram ?? Oltre a tutta la BELLEZZA del resto....

E' stato chiaramente esplicitato che si parlava di passaggio da Core2 Duo E6600 a Core2 Quad Q9550s... non serve cambiare un BEL niente xchè c'è già tutto e che tutto!

Dunque la spesa è "minima" (virgolettato perchè si tratta pur sempre di 500.000 delle vecchie lire).

diciamo più di 550'000 a cui forse và aggiunto il vat quindi diciamo fra i 556'000 lire e i 667'000 lire

majorebola
14-01-2009, 01:03
Purtroppo ancora una volta si scrive senza prima leggere. Non vedi forse nella mia firma una BELLA scheda madre e 4Gb di BELLA Ram ?? Oltre a tutta la BELLEZZA del resto....

E' stato chiaramente esplicitato che si parlava di passaggio da Core2 Duo E6600 a Core2 Quad Q9550s... non serve cambiare un BEL niente xchè c'è già tutto e che tutto!

Dunque la spesa è "minima" (virgolettato perchè si tratta pur sempre di 500.000 delle vecchie lire).

con tutto rispetto io parlavo almeno di una P5Q... comunque chiedo scusa perché mi ero perso il passaggio dell'upgrade, in tal caso non c'è dubbio che convenga... ma non sarebbe meglio un Q9550 normale? questa "s" che fa risparmiare pochi Watt... conviene sul serio?

manga81
14-01-2009, 07:55
Allora il mio occhio non deve essere umano!!! :D

L'uomo può vedere differenze di frame rate, anche oltre i 60fps.

E' cmq una questione soggettiva, alcuni notano differenze fino agli 80fps...

Cmq TUTTI, con l'opportuno allenamento, possono riconoscere la palese differenza che passa tra 30 e 60 fps. ;)


hai ragione tu :asd:

il mio professore di fisica ha detto tempo fa a lezione in natura non si può dire impossibile ma non si è mai verificato.

evidentemente questo unico caso sei tu :asd:

80fsp per l'occhio umano :doh:


Hai mai pensato che non tutti amano cambiare pc ogni 6 mesi?:asd:

Cmq che sia inutile spendere il 50% in più per avere un pc che va il 10% in più questo è indubbio(sto sparando percentuali a caso) ma secondo me bisogna trovare il giusto equilibrio tra le cose in modo da avere un prodotto che sia longevo il più possibile al giusto prezzo :O
e se uno deve giocare i dual core penso possano tirare avanti ancora per un bel pò di tempo.non sento il bisogno di un quad ora come ora,in futuro chi lo sa.


a me sa una frase del tipo io ce l'ho 25cm ma sembra piccolo forse sarebbe meglio averne 40/50cm
:D


E` lo stesso discorso della differenza fra profondita` di colore a 16 bit e 24 bit, sui monitor che riescono a visualizzarli (oramai con l'avvento degli lcd, pochi): i singoli colori non si possono chiaramente distinguere, ma nell'insieme l'immagine a 24 bit appare migliore.

Tornando ai video, nei film, i 24/25/30 fps sembrano bastare perche' e` sempre applicato un temporal antialiasing delle immagini che da' senzazione di fluidita` e sopperisce al relativamente basso framerate. Uno dei motivi per i quali molti dicono che piu` di 25/30 fps l'occhio umano non distingue (falsita`).
Nei giochi invece oramai, sempre a causa del'avvento degli lcd, andare oltre i 60 fps e` inutile (o meglio non porta a benefici sulla fluidita`) perche' oltre quelli il monitor non e` generalmente in grado di visualizzare, visto che vanno quasi tutti a 60 hz.

Grazie mille



Il fatto è proprio questo: i monitor LCD hanno un limite a 60hz (in realtà a ris inferiori aumentano, ma se si può evitare :D)
Comunque in via teorica l'occhio umano percepisce al massimo 20 fps, infatti se si gioca per un po' a 25fps si avrà la sensazione di fluidità... basta poi andare a 40 per notare la differenza. Onestamente però tra 40 e 60 non noto differenze...

La differenza si vede ancora fino agli 80... ;) dipende dall'occhio che hai.

Ps.
come vedi in firma, io ho un crt.

http://blogs.ugidotnet.org/AlexP/archive/2007/01/18/67584.aspx

L’occhio elabora un’immagine ogni 1/10 di secondo (tempo minimo 1/15 di secondo) e non riesce a percepire scatti tra un frame e l’altro dai 25 fps in su.



Da questi calcoli ne consegue che, vengono percepite immagini alla velocità di 12 MPixel /secondo (1.25 MPixel * 10 frame al secondo).



Quindi l’occhio percepisce ed elabora immagini a (1280 * 1024) pixel * 10 Frame/sec.

diciamo che sbagliano del 10/20% in ogni caso oltre i 35/40fps sarebbe tutto inutile

M@tteo79
14-01-2009, 09:28
No.

E in ogni caso "convenga" a chi? Immagino che chi ha oggi un C2D abbia ritenuto inutile per i propri scopi un Q6600 quando ha scelto la CPU, quindi perché dovrebbe comprare un C2Q ora? Un quad ha pochi scenari di utilizzo in cui è veramente utile, e chi ne ha veramente bisogno lo aveva già comprato a suo tempo. Un Q9550 ha molto più senso come upgrade di chi abbia già un C2Q Q6600 (e l'abbia comprato perché gli serve, non per dire ho il quad) che non per chi ha un C2D come sostiene M@tteo79 ;)


Ragionamento che non sta ne in cielo ne in terra. Quando ho acquistato l'E6600 non esistevano le CPU Quad Core.... quindi tutto ciò che hai detto non ha senso.

Xeus32
14-01-2009, 09:43
Si parla dello stesso test ovviamente tra Q6600 e Atom?

Si

Quindi però questo un po' conferma la mia idea, cioè, che tra 10 anni SE i codici venissero ottimizzati e il mio processore li supportasse andrebbe discretamente... E soprattutto potrebbe adoperare programmi che altrimenti (in quanto senza istruzioni) non potrebbe neanche iniziare... o dico ca--ate?

Tralasciando il fatto che tanto non ottimizzano perché all'Intel non conviene ;)

in teoria si ma tra 10 anni, quando sarà il momento che non potranno più avanzare sulla tecnologia (il limite fisico è intorno ai 22nm) ci saranno le sse7, tu avrai un altro procio e le esigenze globali cambieranno!
Mi aspetto almeno altri 2 anni di race e poi un lento rallentamento.

M@tteo79
14-01-2009, 12:51
E con l'uso intensivo di programmi multithreading che fai com'è che non ti sei preso un Q6600 a prezzi di svendita, fin'ora?


Perchè ho preferito aspettare che scendessero i prezzi dei Penryn i quali includono istruzioni in grado di dimezzare determinate operazioni che compio. Purtroppo nell'ottimo Q6600 G0 queste istruzioni non sono presenti (oltre a non essere presente lo stesso quantitativo di cache).
A breve procederò con l'upgrade pianificato: Q9550s (che porterò a 3.6Ghz con Vcore a default) il quale ad occhio e croce mi permetterà (in alcuni ambiti specifici) di eseguire le stesse operazioni in 1/4 del tempo.

majorebola
14-01-2009, 14:23
in teoria si ma tra 10 anni, quando sarà il momento che non potranno più avanzare sulla tecnologia (il limite fisico è intorno ai 22nm) ci saranno le sse7, tu avrai un altro procio e le esigenze globali cambieranno!
Mi aspetto almeno altri 2 anni di race e poi un lento rallentamento.

Interessante questa cosa del limite fisico, ma non so quanto sia vera... cioè, una volta che arriveranno a 22nm non voglio neanche pensare a quante decine di core ci venderanno ma che rimarranno inutilizzate... :D

Forse però se esiste questo limite fisico si bloccheranno per un po' e miglioreranno i software...

Poi piuttosto che fermarsi faranno un altro balzo :D

!fazz
14-01-2009, 14:32
Interessante questa cosa del limite fisico, ma non so quanto sia vera... cioè, una volta che arriveranno a 22nm non voglio neanche pensare a quante decine di core ci venderanno ma che rimarranno inutilizzate... :D

Forse però se esiste questo limite fisico si bloccheranno per un po' e miglioreranno i software...

Poi piuttosto che fermarsi faranno un altro balzo :D

io penso che semplicemente abbandoneranno il silicio

majorebola
14-01-2009, 14:43
io penso che semplicemente abbandoneranno il silicio

Uh fico... cioè, anche il silicio prima o poi finirà :D
E l'informatica non è molto riciclo!:D

Comunque... cosa useranno?

!fazz
14-01-2009, 15:17
Uh fico... cioè, anche il silicio prima o poi finirà :D
E l'informatica non è molto riciclo!:D

Comunque... cosa useranno?

stanno facendo studi su altri semiconduttori (forse gallio? non mi ricordo bene) e su nanotubi in carbonio.

tranquillo che il silicio non finisce è uno dei materiali maggiormente presenti sulla faccia della terra

Free Gordon
14-01-2009, 15:51
hai ragione tu :asd:
il mio professore di fisica ha detto tempo fa a lezione in natura non si può dire impossibile ma non si è mai verificato.

Fammelo conoscere questo sapiente, potrei farmici un sacco di soldi... :sbonk:


ps. ma davvero quì dentro non c'è nessuno che nota differenze fra 30 e 60fps?? :eek: E' sconcertante... :)

Grey 7
14-01-2009, 16:18
Fammelo conoscere questo sapiente, potrei farmici un sacco di soldi... :sbonk:


ps. ma davvero quì dentro non c'è nessuno che nota differenze fra 30 e 60fps?? :eek: E' sconcertante... :)

no io concordo con te al 100% e le differenze che dici il mio occhio le nota eccome...solo che ormai ho "abbandonato la crociata", c'è troppa disinformazione su questo argomento quindi meglio limitarsi a leggere :)

sniperspa
14-01-2009, 16:34
no io concordo con te al 100% e le differenze che dici il mio occhio le nota eccome...solo che ormai ho "abbandonato la crociata", c'è troppa disinformazione su questo argomento quindi meglio limitarsi a leggere :)

Non penso sia tanto un questione di disinformazione quanto aver mai provato con mano..anzi con occhio...

Poi non me ne intendo io di certe cose quindi non mi intrigo più di tanto...so solo che la differenza la percepisco(fino ad un certo limite chiaramente)

A.L.M.
14-01-2009, 16:59
Allora il mio occhio non deve essere umano!!! :D

L'uomo può vedere differenze di frame rate, anche oltre i 60fps.

E' cmq una questione soggettiva, alcuni notano differenze fino agli 80fps...

Cmq TUTTI, con l'opportuno allenamento, possono riconoscere la palese differenza che passa tra 30 e 60 fps. ;)

Secondo me dipende molto da gioco a gioco. Ci sono giochi in cui tra 30fps fissi e 60 fps non si nota alcuna differenza di fluidità. Se uno in un first person shooter fissa un muro a 5fps, non noterà alcuna differenza con 60fps, perchè il muro rimane sempre fermo. Nei giochi in cui la velocità è importante, la sensazione di velocità sarà maggiore a 60fps.
Le differenze oltre i 60fps sono impossibili da notare con la maggior parte degli schermi in commercio, che fanno solo 60 refresh al secondo (60Hz). Al massimo uno può notare la differenza di fluidità senza Vsync attivato, perchè ovviamente se si fanno 80fps di media, la possibilità di rallentamenti è inferiore rispetto a chi fa 60fps di media.

sniperspa
14-01-2009, 17:31
Secondo me dipende molto da gioco a gioco. Ci sono giochi in cui tra 30fps fissi e 60 fps non si nota alcuna differenza di fluidità. Se uno in un first person shooter fissa un muro a 5fps, non noterà alcuna differenza con 60fps, perchè il muro rimane sempre fermo. Nei giochi in cui la velocità è importante, la sensazione di velocità sarà maggiore a 60fps.
Le differenze oltre i 60fps sono impossibili da notare con la maggior parte degli schermi in commercio, che fanno solo 60 refresh al secondo (60Hz). Al massimo uno può notare la differenza di fluidità senza Vsync attivato, perchè ovviamente se si fanno 80fps di media, la possibilità di rallentamenti è inferiore rispetto a chi fa 60fps di media.

Dipende anche dall'engine grafico imho
Cmq di solito i giochi fps sono quelli che guadagnano maggiormente dai frame rate alti,soprattutto giocando online con un certa foga :D
Poi va bè trovi gente che gioca a risoluzioni basse ma a 250 fps o cose simili come se potessero esserci normalmente cali di 200fps :doh:

majorebola
14-01-2009, 17:35
Non ho detto che "non noto" differenze tra 30 e 60... ma devo dire che, mentre tra 30 e 40-50 la differenza la percepisco (e mi rode viaggiare a 30 fps, e magari tolgo qualche filtro per fare pochi fps in più e avere maggiore fluidità)... oltre i 45-50 non mi cambia nulla... Cioè, si forse si "percepisce"... ma nulla più, a me i 45 fps van già benone... sono abbastanza da permettermi di giocare bene e non troppi da non farmi tirar fuori paccate di soldi per una VGA... :D (ora come ora ho 60€ di Vga su un 22" e anche 45fps tutto attivo mi stanno bene!)

Grey 7
14-01-2009, 17:38
Dipende anche dall'engine grafico imho
Cmq di solito i giochi fps sono quelli che guadagnano maggiormente dai frame rate alti,soprattutto giocando online con un certa foga :D
Poi va bè trovi gente che gioca a risoluzioni basse ma a 250 fps o cose simili come se potessero esserci normalmente cali di 200fps :doh:

si l'engine conta parecchio. Faccio sempre l'esempio del cryengine infatti crysis a 25 fps da una sensazione di fluidità che altri motori grafici non riescono a dare.

sniperspa
14-01-2009, 17:46
si l'engine conta parecchio. Faccio sempre l'esempio del cryengine infatti crysis a 25 fps da una sensazione di fluidità che altri motori grafici non riescono a dare.

Quello che ho detto qualche post/pagina addietro :read:
;)

Xeus32
14-01-2009, 18:33
io penso che semplicemente abbandoneranno il silicio

In ogni caso un atomo è circa 0.1 nm e di li non ci si scappa! in più ovviamente gli atomi non collassano uno cotro l'altro e quindi vi è una distanza minima!

Idomeneo
14-01-2009, 20:30
Domanda, considerando che mi dovrò fare un personal nuovo da zero: quanto potranno guadagnare i Phenom II con mobo AM3 nel confronto col i7? Un margine risicatissimo?

Idomeneo

majorebola
14-01-2009, 20:37
Domanda, considerando che mi dovrò fare un personal nuovo da zero: quanto potranno guadagnare i Phenom II con mobo AM3 nel confronto nei confronti col i7? Un margine risicatissimo?

Idomeneo

Temo che per te ci siano brutte notizie... non credo che i Phenom II possano andare meglio degli i7... il 940 black edition dovrebbe essere il più potente, come riportato da questa tabella (http://www.hwupgrade.it/news/cpu/i-primi-prezzi-italiani-dei-processori-amd-phenom-ii-x4_27298.html)... :D

ciau

Idomeneo
14-01-2009, 20:44
Temo che per te ci siano brutte notizie... non credo che i Phenom II possano andare meglio degli i7... il 940 black edition dovrebbe essere il più potente, come riportato da questa tabella (http://www.hwupgrade.it/news/cpu/i-primi-prezzi-italiani-dei-processori-amd-phenom-ii-x4_27298.html)... :D

ciau
Questo non l'ho mai pensato nemmeno! :D
Mi chiedevo solo quanto poteva diminuire (ulteriormente) il gap rispetto all'i7 (entry-level).

Idomeneo

manga81
15-01-2009, 07:57
Interessante questa cosa del limite fisico, ma non so quanto sia vera... cioè, una volta che arriveranno a 22nm non voglio neanche pensare a quante decine di core ci venderanno ma che rimarranno inutilizzate... :D

Forse però se esiste questo limite fisico si bloccheranno per un po' e miglioreranno i software...

Poi piuttosto che fermarsi faranno un altro balzo :D




io penso che semplicemente abbandoneranno il silicio


il limite non era 15n :stordita:

15 o 22 ci metteranno almeno 3-4 anni

3-4 anni sono un'era informatica :asd:

:D


Nei campi in cui l'i7 da il massimo i Phenom II non hanno speranze di competere, in quelli in cui vanno come i Penryn ovviamente sì.

Ovviamente tenuto conto che con AM3 intendi abbinati a memorie DDR3, che continuo a considerare non preferibili.

La competitività di un sistema AM2+ è massima nei confronti di i7 in considerazione del costo dell'intera piattaforma (con 200€ hai una mobo più che decente e ottima ram), mentre un sistema AM3 sarà penalizzato sul fronte RAM riavvicinandosi di prezzo più di quanto lo farà in prestazioni...

200euro non sono pochi, sono i soldi necessari che da febbraio con il taglio ati sulle gpu farebbero comprare la 4850x2 a 214euro

sarebbe cpu+mobo+gpu di unico produttore con max compatibilità ;)

!fazz
15-01-2009, 08:53
il limite non era 15n :stordita:

15 o 22 ci metteranno almeno 3-4 anni

3-4 anni sono un'era informatica :asd:

:D




200euro non sono pochi, sono i soldi necessari che da febbraio con il taglio ati sulle gpu farebbero comprare la 4850x2 a 214euro

sarebbe cpu+mobo+gpu di unico produttore con max compatibilità ;)

anche meno, 160€ per un'ottima mobo 790gx e delle ottime ram cas4
così si ha una anche hd3300 igp da mettere in hybrid crossfire

MMC12
31-01-2009, 00:12
Io a questo giro passo ad AMD, non sono un fan boy, ma cmq è un marchio che mi inspira simpatia, poi la 940 per il suo prezzo è ottima, come alternativa a pari prezzo avrei preso una q9400, ma AMD sta ancora un poco sopra! :D
L'i7 mi gustava molto, ma poi sarei andato a spendere troppo, invece con 1100€ alla fine mi son fatto un bel PC regalandomi anche una 4870, inizialmente non preventivata e ciò mi gusta parecchio :D
E ora mi concedo ad un commento un pò da fan boy: "Dai AMD! Questa è la strada giusta! Fai il botto come ATI l'ha fatto con le 48XX e siamo a cavallo! E direi che questi Phenom II X4 siano la giusta via per rilanciarsi!"
Saluti a Tutti! ;-)

AgonizedPhobos
03-02-2009, 15:58
Io a questo giro passo ad AMD, non sono un fan boy, ma cmq è un marchio che mi inspira simpatia, poi la 940 per il suo prezzo è ottima, come alternativa a pari prezzo avrei preso una q9400, ma AMD sta ancora un poco sopra! :D
L'i7 mi gustava molto, ma poi sarei andato a spendere troppo, invece con 1100€ alla fine mi son fatto un bel PC regalandomi anche una 4870, inizialmente non preventivata e ciò mi gusta parecchio :D
E ora mi concedo ad un commento un pò da fan boy: "Dai AMD! Questa è la strada giusta! Fai il botto come ATI l'ha fatto con le 48XX e siamo a cavallo! E direi che questi Phenom II X4 siano la giusta via per rilanciarsi!"
Saluti a Tutti! ;-)

seno d'accordo con te che dici che con 1100€ ti seri rifatto il pc però se uno vuole il massino in fatto di prestazioni va per INTEL e nVIDIA anche se costano tanto...:sofico:

Sir.Jerry
03-02-2009, 19:26
seno d'accordo con te che dici che con 1100€ ti seri rifatto il pc però se uno vuole il massino in fatto di prestazioni va per INTEL e nVIDIA anche se costano tanto...:sofico:

Non per contraddirti ma per ora il top delle schede video è la 4870x2 di Ati :D considerando il rapporto prezzo/prestazioni direi che tutta sta superiorità di nVidia non esiste proprio...

Cmq di certo se uno vuole il massimo di prestazioni non può spendere solo 1100€ per un pc... di sicuro supera i 2500€ e la scelta non si basa unicamente sul processore e scheda video :)

Sgt.Pepper89
03-02-2009, 19:41
Non per contraddirti ma per ora il top delle schede video è la 4870x2 di Ati :D considerando il rapporto prezzo/prestazioni direi che tutta sta superiorità di nVidia non esiste proprio...

Cmq di certo se uno vuole il massimo di prestazioni non può spendere solo 1100€ per un pc... di sicuro supera i 2500€ e la scelta non si basa unicamente sul processore e scheda video :)

Una gtx295 è più veloce a basse risoluzioni o con aa non 8x...peccato che comprarla per usarla cosi non ha senso quindi possiamo dire che la scheda enthusiast migliore sia la 4870x2

majorebola
03-02-2009, 21:07
Anch'io phenom2...

Attendo domani che dovrebbe arrivarmi e mi son giocato il jolly... 220€ per il 940be... speruma :D che valga... e che mi duri... fino ai 15nm !!!

!fazz
04-02-2009, 09:35
Anch'io phenom2...

Attendo domani che dovrebbe arrivarmi e mi son giocato il jolly... 220€ per il 940be... speruma :D che valga... e che mi duri... fino ai 15nm !!!

dipende sempre che ci devi fare, per lavoro a me già non basta un doppio xeon quad core 3 ghz :D :D :D :D


cmq è un ottima cpu, già in preordine per me dal mio fornitore

MMC12
04-02-2009, 20:06
Bè gente, con 1100€ mica era mia intenzione farmi una configurazione bomba, se no avrei speso 2000€ e passa come da Voi precedentemente detto, ma poi non l'avrei sfruttato, infatti io con il PC ci lavoro parecchio, ma fotoritocco e un quad come il 940 basta e avanza, poi lavoro anche un poco con i filmati, anche fullHD, ma per puro diletto e neanche frequentemente, quindi metto in pratica un vecchio proverbio: "chi si acconteta gode" eheh :-D
La 4870 alla fine l'ho presa perchè ho un sistema a due monitor, di cui uno un 24" professionale e poichè nei 1100€ ci ho fatto stare anche un lettore bluray, vorrei godermi i film belli fluidi e poi va bò qualche gioco ci scapperà ahah :D
Siete grandi, saluti ;-)

manga81
24-02-2009, 23:45
Utilizzando un sistema di raffreddamento ad aria e incrementando il voltaggio di alimentazione Core il nostro sample di processore Phenom II X4 940 BE ha raggiunto la frequenza di clock di 3,9 GHz; lasciando invariato il voltaggio di alimentazione il processore ha operato stabilmente sino alla frequenza di clock di 3,6 GHz. Utilizzando sistemi di raffreddamento a liquido è possibile spingersi oltre la frequenza di clock di 4 GHz, anche se con margini di incremento così elevati i margini di successo sono legati alla tolleranza dello specifico sample di processore utilizzato. Se con i processori Phenom X4 AMD non ha mai potuto vantare margini di overloccabilità allineati a quelli delle soluzioni Core 2 Quad di Intel, con le nuove cpu Phenom II X4 lo scenario tende a riequilibrarsi in buona parte: anche con queste cpu un utente appassionato può ottenere, con una certa facilità, elevati margini di overclock sfruttando la tolleranza del processo produttivo a 45 nanometri.

ma OC a 3,6 si può ottenere su qualsiasi mobo am2+?
io penso di si perchè si parla di moltiplitore sbloccato :D


Consumi e overclock

Per analizzare il consumo dei sistemi basati su processore AMD Phenom, a confronto con configurazioni simili dotate di cpu Intel Core 2 Quad e Core i7, abbiamo misurato il consumo complessivo del sistema a monte dell'alimentatore: i valori in Watt forniti si riferiscono quindi al consumo dell'interno sistema e non al solo processore. Di seguito i componenti adottati per le configurazioni Socket LGA 1366, Socket 775 e Socket AM2+:

* scheda madre cpu Intel Core i7: Intel Desktop Board DX58SO Extreme Series (chipset Intel X58);
* scheda madre cpu Intel Core 2: Gigabyte GA-X48T-DQ6 (chipset Intel X48 Express);
* scheda madre cpu AMD: MSI DKA790GX Platinum (chipset AMD 790GX);
* scheda video: Zotac GeForce GTX 280 AMP! Edition (clock GPU 700 MHz; clock stream processors 1.400 MHz; clock memoria video 2.300 MHz);
* hard disk: 2 dischi Seagate Barracuda 7200.10 SATA, in configurazione Raid 0;
* memoria sistema Core i7: 3 moduli Corsair DDR3-1333 da 2 Gbytes ciascuno, timings 9-9-9-24;
* memoria sistema Core 2: 4 moduli Corsair DDR3-1333 da 1 Gbytes ciascuno, timings 8-8-8-22;
* memoria sistema AMD: 2 moduli GSkill DDR2-1066 da 2 Gbytes ciascuno, timings 5-5-5-15;
* alimentatore Cooler Master 1.000 Watt.


http://www.hwupgrade.it/articoli/cpu/2116/consumo_2.png

questi consumi così irrisori si possono ottenere solo col 790gx o anche con un 780g?

unnilennium
25-02-2009, 11:43
La potenzialità di oc della cpu varia,anche prendendo lo stesso modello.i3.6 son facili da raggiungere con un be,e cui si può variare tutto,ma magari cambia il voltaggio,o l'ht,o la eseguenza della ram.questi parametri si possono configurare a puntino con tutte le schede,anche se il top x oc é l'accoppiata 790gx+sb750..che offre più opzioni.x quanto riguarda i consumi,tra 780g e 790gx cambia poco,le poche differenze potrebbero essere dovute alle fasi di alimentazione,o a qualche sistema proprietario x ridurre i consumi di alcuni modelli asus o gigabyte,ma in linea di massima son quelli,anche perché dipendono sempre dal cool'n quiet e quello nn cambia da mobo a mobo

majorebola
25-02-2009, 12:27
Bè gente, con 1100€ mica era mia intenzione farmi una configurazione bomba, se no avrei speso 2000€ e passa come da Voi precedentemente detto, ma poi non l'avrei sfruttato, infatti io con il PC ci lavoro parecchio, ma fotoritocco e un quad come il 940 basta e avanza, poi lavoro anche un poco con i filmati, anche fullHD, ma per puro diletto e neanche frequentemente, quindi metto in pratica un vecchio proverbio: "chi si acconteta gode" eheh :-D
La 4870 alla fine l'ho presa perchè ho un sistema a due monitor, di cui uno un 24" professionale e poichè nei 1100€ ci ho fatto stare anche un lettore bluray, vorrei godermi i film belli fluidi e poi va bò qualche gioco ci scapperà ahah :D
Siete grandi, saluti ;-)

complimentoni!! (invidia grrr :D)

ma OC a 3,6 si può ottenere su qualsiasi mobo am2+?
io penso di si perchè si parla di moltiplitore sbloccato :D

Io sono arrivato senza problemi a 3,4 (RS senza toccare il vcore, ma se hai culo lo porti a 3,6 senza toccare vcore).... potrei portarlo a 3,5 senza toccare vcore... e con voltaggio a 1,440 lo porti tranquillamente a 3,7-3,8... il problema è riuscire a farlo salire dopo... :D a me manca un dissipatore ben fatto, quindi... sto con vcore def...


http://www.hwupgrade.it/articoli/cpu/2116/consumo_2.png

questi consumi così irrisori si possono ottenere solo col 790gx o anche con un 780g?

secondo me consuma meno il 780g, ma loro hanno usato un 790gx... io con 790fx (e gtx260 :D ) sono tra i 140 e i 170 in idle (dipende in realtà da quanto il pc è sotto sforzo!) e non vado mai oltre i 220-250... a cosa servono alimentatori da 500+? già col mio potrei mettere uno sli! :D

blackshard
25-02-2009, 12:52
Io posso dire che dai miei test con il multimetro, un phenom II 920 a 2.8 Ghz in idle su una asrock aod780gxe con 780g + ddr2 800 + disco fisso consuma in idle 60VA circa, che sono meno di 60W se si considera che il multimetro misura potenza attiva e reattiva. Il tutto a default. L'IES di asrock praticamente non seve assolutamente a niente, attivandolo ho ottenuto un decremento talmente risibile dei consumi (2 Watt) che non posso nemmeno dire se sia davvero dovuto all'IES o meno.

AgonizedPhobos
25-02-2009, 19:23
complimentoni!! (invidia grrr :D)


Io sono arrivato senza problemi a 3,4 (RS senza toccare il vcore, ma se hai culo lo porti a 3,6 senza toccare vcore).... potrei portarlo a 3,5 senza toccare vcore... e con voltaggio a 1,440 lo porti tranquillamente a 3,7-3,8... il problema è riuscire a farlo salire dopo... :D a me manca un dissipatore ben fatto, quindi... sto con vcore def...



secondo me consuma meno il 780g, ma loro hanno usato un 790gx... io con 790fx (e gtx260 :D ) sono tra i 140 e i 170 in idle (dipende in realtà da quanto il pc è sotto sforzo!) e non vado mai oltre i 220-250... a cosa servono alimentatori da 500+? già col mio potrei mettere uno sli! :D

x chi non lo sapesse l'alimentatore è una cosa fondamentale x un ottimo pc...serve e come:confused:

s12a
25-02-2009, 19:32
Un buon alimentatore non e` necessariamente un alimentatore potente.

unnilennium
25-02-2009, 22:32
Un buon alimentatore non e` necessariamente un alimentatore potente.

quoto in pieno.un buon ali é quello con la migliore corrispondenza tra i dati di targa e quelli reali.c'é un bellissimo thread che parla proprio di queste cose.

majorebola
25-02-2009, 23:45
x chi non lo sapesse l'alimentatore è una cosa fondamentale x un ottimo pc...serve e come:confused:

Non ho detto questo però :D
parlavo di potenza...

infatti...
Un buon alimentatore non e` necessariamente un alimentatore potente.
quoto...

AgonizedPhobos
27-02-2009, 08:41
Non ho detto questo però :D
parlavo di potenza...

infatti...

quoto...

infatti io non ho detto che deve essere x forza potete...dove lo avete letto:confused: ...ribadisco solo che è un pezzo fondamentale per chi vuole essere alla fascia top:sofico: