View Full Version : [Thread Ufficiale] CPU serie FX: AMD Bulldozer/Piledriver - Aspettando Steamroller
capitan_crasy
03-01-2012, 14:03
Ragazzi niente consigli per gli acquisti...
wolverine
03-01-2012, 20:23
Ma la domanda era "Meglio un FX4100 o un Phenom II x4" ?
Phenom II X4
senza pensare troppo alla teoria.
a che giochi vuoi giocare?
che scheda video, che risoluzione?
dopodichè guardati un pò di bench e di review e vedi i risultati nei giochi che ti interessano e alla risoluzione a cui giochi.
googla amd fx 4100 review
http://www.legitreviews.com/article/1766/
http://www.guru3d.com/article/amd-fx-8150--8120-6100-and-4100-performance-review/
http://www.xbitlabs.com/articles/cpu/display/amd-fx-8120-6100-4100.html
http://www.legionhardware.com/articles_summary/amd_fx_8150fx_8120fx_6100_and_fx_4170.html
ci stava una review focalizzata sui giochi che ora non riesco a cercare ma era abbastanza eloquente, cioè che nella maggior parte dei casi phenom x4 > fx 4100
edit
http://www.legionhardware.com/articles_pages/amd_fx_8150fx_8120fx_6100_and_fx_4170,6.html
qui considera che è testato il 4170..
Da questi test devo dire che il 4100 ci fa un ottima figura! il 4170 diventa davvero interessante :)
SaintSeiya
03-01-2012, 21:48
Invece meglio un 4100 o un 3850?
Lo chiedo perchè c'è molta confusione (almeno nella mia testa) tra tutte queste cpu di mamma amd.
ma perchè non ci facciamo un favore e consideriamo:
4100 = 2 cores + 2 "AMD Hyper threading" cores
6100 = 3 cores + 3 "AMD Hyper threading" cores
81X0 = 4 cores + 4 "AMD Hyper threading" cores
dove "AMD hyper threading" significa un HT che ha (semplicisticamente mi perdonerete l'approssimazione spero):
- un vantaggio hardware (più parti fisiche rispetto a quello Intel)
- uno svantaggio software (cioè non è riconosciuto correttamente nemmeno dallo scheduler Windows, figuriamoci dai software 3rd party - HT Intel ora funziona perfettamente ma esordì PENOSAMENTE 10 anni fa a marzo, e ora nessuno sembra ricordarsene).
Chi, da qui, taccia AMD di abusare del marketing "8 core" ha ragione secondo me. Ma ha torto a trarre da questo ulteriori conclusioni, non legate in alcun modo a questo aspetto (che tra l'altro è sicuramente dettato da legittime necessità di sopravvivenza di una compagnia grossa 1/10 di quella dominante).
Al momento FX soffre di 2 problemi principalmente IMHO: prezzo e consumi, entrambi ovviabili con nuove politiche di prezzo e con le nuove generazioni all'orizzonte (Piledriver il primo).
Chi ha preso l'attuale FX innanzitutto è un appassionato (e va rispettato perchè è tra i pochi che contribuiscono al thread, insieme a chi scova le notizie) e in secondo luogo si sta già facendo le ossa sulle cpu AMD che verranno, essendo questa l'alba dell'architettura (stile HD2900 per quelle che sono le schede di OGGI, e a buon intenditor......)
Per gli altri invece non vedo le ragioni (se non avere, come risultato, meno concorrenza e prezzi più alti) per sparare a zero su una cpu che al momento non regge il confronto prezzo/prestazioni con sti benedetti 2500k/2600k con i quali sono stati frantumati tutti i possibili
http://3.bp.blogspot.com/_kHIAswCIlk4/SUjgdzKhWsI/AAAAAAAALBA/e6NxQvLTsH4/s400/IMGA1299.jpg
Sono tanto fuori dal mondo? Cmq smetto di postare e resterò in attesa di quei pochi post di news ed esperienze INERENTI il topic.
Saluti da Parigi,
tmx
guarda io ce l'ho da vari mesi FX8150 e chissà come mai indietro non torno.....(indietro per me vuol dire rimettere su il 2600k visto che arrivo da quello)
sono d'accordo che i veri grossi problemi della serie 8 sono i consumi...per quanto....sul prezzo (considerando i casi in cui tutti e 4 i moduli sono in load che le perf sono molto simili al 2600k) non lo considero così fuori mercato...anche perchè cmq devono rifarsi degli investimenti fatti....e avere AMD in buona salute economica è solo un vantaggio per la concorrenza.....e non è un atom :D:D
in merito ai consumi anche qui spesso ci si dimentica o si fa finta di dimenticarsi che BD è la prima incarnazione di un'architettura nuova...
quanto era il TDP dei primi i7 (il 920 aveva un tdp di 130W...http://ark.intel.com/products/37147/Intel-Core-i7-920-Processor-%288M-Cache-2_66-GHz-4_80-GTs-Intel-QPI%29
e anche qui di nuovo in nehalem c'erano solo la cache di 8 mb con hyperthreading e IMC.....queste le grandi novità introdotte....guardate le perf single core di nehalem confrontate con penryn quad..oltre al fatto che avendolo avuto era un mezzo fornellino a microonde, nel senso che scaldava molto...mentre BD come temp non è alto)... lo dico solo per far notare che quando un'architettura è nuova, non così rodata come architettura core, ci può stare che consumi così....almeno IMHO...
vedremo i margini di miglioramento con il PP migliorato e + raffinato...e le varie modifiche/ottimizzazioni ai moduli.....
e vedremo come la nuova dirigenza AMD si comporterà in merito agli sviluppi futuri.....
daniluzzo
04-01-2012, 08:47
prezzi minimo su trova prezz
fx 4100 a 84 euro
phenom x4 965 a 106 euro
phenom x4 980 a 149 euro
quindi dipende da quanto vuoi spendere.
Grazie a tutti, ora ho le idee più chiare.
Rispondo solo al discorso prezzi; dovendo prendere anche scheda madre, ram, alimentatore e case (la 6950 ce l'ho già) vedere dove la cpu costa meno ha un senso abbastanza relativo, perchè poi vedi che gli altri pezzi costano forse uguali ma forse di più, quindi alla fine guardo dove il totale mi viene meno includendo le spese di spedizione (oltre che alla reale disponibilità). ;)
guarda io ce l'ho da vari mesi FX8150 e chissà come mai indietro non torno.....(indietro per me vuol dire rimettere su il 2600k visto che arrivo da quello)
Beh, il come mai non torni indietro l'hai gia' spiegato piu' volte.
Hai gia' detto che il 2600K è superiore sotto tutti gli aspetti, ma che ti va bene
e vivi felice anche con l'8150.
Visto che sei un fanboy AMD, resti con l'8150.
Confermi no?
AceGranger
04-01-2012, 09:38
guarda io ce l'ho da vari mesi FX8150 e chissà come mai indietro non torno.....(indietro per me vuol dire rimettere su il 2600k visto che arrivo da quello)
sono d'accordo che i veri grossi problemi della serie 8 sono i consumi...per quanto....sul prezzo (considerando i casi in cui tutti e 4 i moduli sono in load che le perf sono molto simili al 2600k) non lo considero così fuori mercato...anche perchè cmq devono rifarsi degli investimenti fatti....e avere AMD in buona salute economica è solo un vantaggio per la concorrenza.....e non è un atom :D:D
in merito ai consumi anche qui spesso ci si dimentica o si fa finta di dimenticarsi che BD è la prima incarnazione di un'architettura nuova...
quanto era il TDP dei primi i7 (il 920 aveva un tdp di 130W...http://ark.intel.com/products/37147/Intel-Core-i7-920-Processor-%288M-Cache-2_66-GHz-4_80-GTs-Intel-QPI%29
e anche qui di nuovo in nehalem c'erano solo la cache di 8 mb con hyperthreading e IMC.....queste le grandi novità introdotte....guardate le perf single core di nehalem confrontate con penryn quad..oltre al fatto che avendolo avuto era un mezzo fornellino a microonde, nel senso che scaldava molto...mentre BD come temp non è alto)... lo dico solo per far notare che quando un'architettura è nuova, non così rodata come architettura core, ci può stare che consumi così....almeno IMHO...
vedremo i margini di miglioramento con il PP migliorato e + raffinato...e le varie modifiche/ottimizzazioni ai moduli.....
e vedremo come la nuova dirigenza AMD si comporterà in merito agli sviluppi futuri.....
* All'epoca Nahalem aveva migliorato l'efficienza rispetto ai Penryn, ed erano entrambi sullo stesso PP
* AMD all'epoca offriva l'X4 955 come modello di punta che consumava uguale al 920 ma era inferiore come prestazioni.
* Il cambio di architettura aveva portato a un miglioramentento di circa il 15% in ST a parita di frequenza ( che è lo stesso portato da SB e che sara lo stesso che portera IB )
cit. dalla recensione di HWU
"Gli incrementi prestazionali della nuova architettura Nehalem, a confronto con quella delle cpu Core 2 Quad, sono notevoli anche con tecnologia Hyper-Threading disabilitata."
http://www.hwupgrade.it/articoli/cpu/2189/amd-phenom-ii-x4-955-3-2-ghz-su-socket-am3_2.html
http://www.hwupgrade.it/articoli/cpu/2075/intel-core-i7-prestazioni-delle-prime-cpu-nehalem_4.html
* L'efficienza di BD rispetto al Phenom è altalenante e sono 2 processi produttivi differenti
* il cambio di architettura ha portato a un IPC inferiore
* la concorrenza offre prestazioni superiori a consumi inferiori.
A me pare che la situazione sia un tantino diversa da come l'hai descritta tu.
CHe l'architettura sia nuova è una scusa, perchè è nuova anche l'architettura della nuove VGA AMD pero li hanno fatto un ottimo lavoro, il problema sono le scelte che hanno fatto; e non dimentichiamoci che BD doveva uscire al posto dei Phenom II X6
* All'epoca Nahalem aveva leggermente migliorato l'efficienza rispetto ai Penryn, ed erano entrambi sullo stesso PP
* AMD all'epoca offriva l'X4 955 come modello di punta che consumava uguale al 920 ma era inferiore come prestazioni.
* Il cambio di architettura aveva portato a un miglioramentento di circa il 15% in ST a parita di frequenza ( che è lo stesso portato da SB e che sara lo stesso che portera IB )
cit. dalla recensione di HWU
"Gli incrementi prestazionali della nuova architettura Nehalem, a confronto con quella delle cpu Core 2 Quad, sono notevoli anche con tecnologia Hyper-Threading disabilitata."
http://www.hwupgrade.it/articoli/cpu/2189/amd-phenom-ii-x4-955-3-2-ghz-su-socket-am3_2.html
http://www.hwupgrade.it/articoli/cpu/2075/intel-core-i7-prestazioni-delle-prime-cpu-nehalem_4.html
* L'efficienza di BD rispetto al Phenom è altalenante e sono 2 processi produttivi differenti
* il cambio di architettura ha portato a un IPC inferiore
* la concorrenza offre prestazioni superiori a consumi inferiori.
A me pare che la situazione sia un tantino diversa da come l'hai descritta tu.
CHe l'architettura sia nuova è una scusa, perchè è nuova anche l'architettura della nuove VGA AMD pero li hanno fatto un ottimo lavoro, il problema sono le scelte che hanno fatto.
1) in merito alle perf in ST, intendo dire clock per clock.....con penryn....
http://www.anandtech.com/show/2542/7 leggiti quello che dicono in single thread tra penryn e nehalem....dai l'ho capito che per te Intel tutta la vita....:D
cito: 'Cinebench shows us only a 2% increase in core-to-core performance from Penryn to Nehalem at the same clock speed. For applications that don't go out to main memory much and can stay confined to a single core, Nehalem behaves very much like Penryn. Remember that outside of the memory architecture and HT tweaks to the core, Nehalem's list of improvements are very specific (e.g. faster unaligned cache accesses).' di questo stavo parlando......:muro:
e avevo letto un'altra recensione su nehalem che diceva esattamente la stessa cosa...appena me la ricordo la posto...:D
le altre tue affermazioni non c'entrano con quello che ho detto io....
e su HWU..onestamente preferisco leggere altre testate che io 'preferisco'
e che reputo più approfondite....
Phenomenale
04-01-2012, 10:23
con l'uscita di BD si continuano a consigliare Phenom x4 e Phenom x6
Premi il tasto dolente... in un altro topic in questa sezione una ragazza ha scritto di aver comprato in un e-shop un FX-8150 a 269 Euro, mentre a soli 185 avrebbe potuto avere un 1100T con uguali prestazioni medie... od allo stesso prezzo dell' FX farsi un I7-2600 più veloce.
E' il posizionamento di mercato che non funziona, l' 8-core FX potrà anche dara soddisfazioni a chi lo sta usando: ma dove è finita la famosa "convenienza" di AMD?
PS. sono i miei soliti 2 cents... :)
* All'epoca Nahalem aveva migliorato l'efficienza rispetto ai Penryn, ed erano entrambi sullo stesso PP
* AMD all'epoca offriva l'X4 955 come modello di punta che consumava uguale al 920 ma era inferiore come prestazioni.
* Il cambio di architettura aveva portato a un miglioramentento di circa il 15% in ST a parita di frequenza ( che è lo stesso portato da SB e che sara lo stesso che portera IB )
cit. dalla recensione di HWU
"Gli incrementi prestazionali della nuova architettura Nehalem, a confronto con quella delle cpu Core 2 Quad, sono notevoli anche con tecnologia Hyper-Threading disabilitata."
http://www.hwupgrade.it/articoli/cpu/2189/amd-phenom-ii-x4-955-3-2-ghz-su-socket-am3_2.html
http://www.hwupgrade.it/articoli/cpu/2075/intel-core-i7-prestazioni-delle-prime-cpu-nehalem_4.html
* L'efficienza di BD rispetto al Phenom è altalenante e sono 2 processi produttivi differenti
* il cambio di architettura ha portato a un IPC inferiore
* la concorrenza offre prestazioni superiori a consumi inferiori.
A me pare che la situazione sia un tantino diversa da come l'hai descritta tu.
CHe l'architettura sia nuova è una scusa, perchè è nuova anche l'architettura della nuove VGA AMD pero li hanno fatto un ottimo lavoro, il problema sono le scelte che hanno fatto; e non dimentichiamoci che BD doveva uscire al posto dei Phenom II X6
Dimentichi una cosa fondamentale e che molto spesso sfugge a tutti..... BD è un'architettura COMPLETAMENTE nuova e non un rimaneggio di come è avvenuto sino ad ora per INTEL e questo è stato detto anche da tecnici cazzuti in qualche reviews tecnica...... quindi a mio avviso ci stà che ora come ora abbiamo questo tipo di prodotto non eccelso e difficilmente competitivo....
Randa non è fanboy AMD, RANDA al CONTRARIO DI TE, li ha provati entrambi e parla per esperienza personale cosa che almeno al giorno d'oggi bisognerebbe avere la coscienza di rispettare visto che nessuno qua (o pochi) li hanno entrambi.... ed è stato sempre obbiettivo nelle sue considerazioni, ammettendo che a prestazioni brute intel è ancora lontana, ma che a gestione del carico intenso BD và meglio rispetto al 2600K come ha potuto verificare con le applicazioni e giochi (correggimi se sbaglio)....
Beh, il come mai non torni indietro l'hai gia' spiegato piu' volte.
Hai gia' detto che il 2600K è superiore sotto tutti gli aspetti, ma che ti va bene
e vivi felice anche con l'8150.
Visto che sei un fanboy AMD, resti con l'8150.
Confermi no?
no non confermo.
non confermo che sono fanboy AMD...perchè non lo sono.
ho detto il 2600k è superiore, ma non nella gestione del carico....
esiste un mondo fatto di persone che non sono sempre o da una parte o dall'altra..scegliere una CPU NON significa a casa mia essere fanboy...mi sembra un ragionamento molto infantile il tuo...
ma come sempre siamo qui a ridire le solite cose, e appena si posta che FX8150 non fa schifo parte l'armata Intel.....
AceGranger
04-01-2012, 10:52
dai l'ho capito che per te Intel tutta la vita....:D
per me contano i soldi, non i marchi; quando era conveniente acquistare i 1055T ho acquistato quelli, quando è uscito BD ho dovuto sostituirli con i 2600K.
le altre tue affermazioni non c'entrano con quello che ho detto io....
e su HWU..onestamente preferisco leggere altre testate che io 'preferisco'
e che reputo più approfondite....
basta fare una media fra piu recensioni e fra i test della medesima recensione e non guardare il singolo caso, visto che sempre in quella recensione in 3D max guadagna un 40%, che è impossibile da raggiungere con un 2% di IPC in ST.
234 pagine: quasi le stesse cose/concetti in tutte le varie combinazioni possibili e immaginabili.....:mbe:
carlottoIIx6
04-01-2012, 11:06
Premi il tasto dolente... in un altro topic in questa sezione una ragazza ha scritto di aver comprato in un e-shop un FX-8150 a 269 Euro, mentre a soli 185 avrebbe potuto avere un 1100T con uguali prestazioni medie... od allo stesso prezzo dell' FX farsi un I7-2600 più veloce.
E' il posizionamento di mercato che non funziona, l' 8-core FX potrà anche dara soddisfazioni a chi lo sta usando: ma dove è finita la famosa "convenienza" di AMD?
PS. sono i miei soliti 2 cents... :)
forse dovresti chiederti nello stesso negozio quanto costa un 2600k
per me contano i soldi, non i marchi; quando era conveniente acquistare i 1055T ho acquistato quelli, quando è uscito BD ho dovuto sostituirli con i 2600K.
basta fare una media fra piu recensioni e fra i test della medesima recensione e non guardare il singolo caso, visto che sempre in quella recensione in 3D max guadagna un 40%, che è impossibile da raggiungere con un 2% di IPC in ST.
immagino che il 40% in più sia una somma di fattori che vanno dall'HT, passando per la cache di 3° livello per finire all'IMC...
mentre con cinebench in ST, questi fattori sono molto meno determinanti....quindi che in ST nehalem sia > del 15 rispetto a penryn quad% per me non è vero...ma non è questo l'oggetto del thread....Nehalem lo avevo citato solo come esempio di un'architettura RELATIVAMENTE nuova, non come BD che è SOSTANZIALMENTE nuova, che consumava quanto consuma se non di + BD. questo era il senso del mio discorso
AceGranger
04-01-2012, 11:16
Dimentichi una cosa fondamentale e che molto spesso sfugge a tutti..... BD è un'architettura COMPLETAMENTE nuova e non un rimaneggio di come è avvenuto sino ad ora per INTEL e questo è stato detto anche da tecnici cazzuti in qualche reviews tecnica...... quindi a mio avviso ci stà che ora come ora abbiamo questo tipo di prodotto non eccelso e difficilmente competitivo....
bè sinceramente io sono un consumatore, poco mi frega se è nuovissima, se è riscaldata o se ci sono 2 criceti che fanno i conti, mi interessa quanto va e quanto consuma;
Se in un futuro migliorera ricevera i miei soldi come è successo con i Phenom II, ora la commento per quello che è, perchè ad oggi nessuno puo dire se potra o meno colmare il gap perseguendo questa strada o se dopo Piledriver vera abbandonata.
Randa non è fanboy AMD, RANDA al CONTRARIO DI TE, li ha provati entrambi e parla per esperienza personale cosa che almeno al giorno d'oggi bisognerebbe avere la coscienza di rispettare visto che nessuno qua (o pochi) li hanno entrambi.... ed è stato sempre obbiettivo nelle sue considerazioni, ammettendo che a prestazioni brute intel è ancora lontana, ma che a gestione del carico intenso BD và meglio rispetto al 2600K come ha potuto verificare con le applicazioni e giochi (correggimi se sbaglio)....
magari rileggi i post e quota qualcun'altro, visto che:
non ho dato io del fanboy a Randa
non ho minimamente commentato o messo in dubbio le sue prove su BD
il mio post parlava di altro
Quindi nel caso Penryn->Nehalem sono il 2% in più, clock to clock
Mentre nel caso Stars->BD sono il 10% in meno, con il 10% in più di clock
http://images.anandtech.com/graphs/graph4955/41694.png
Dici che è la stessa situazione, ma ripeterlo fino alla noia non lo renderà vero...
L'architettura nuova sono sempre e solo chiacchiere e scuse. Non compri l'innovazione, compri prestazioni e consumi, nient'altro. E qualunque rapporto tu voglia fare con prestazioni, consumi e prezzo, BD non vince mai. Potrà farlo in futuro? Dubito ma quando il futuro sarà il presente si vedrà, per ora è così.
si continuano a dire sempre le stesse cose ovvie e scontate...dette forse solo per fare polemiche o alimentare flames... Ho forse detto che BD va di + di Stars in single?
non ho mai detto che le perf in ST di BD sono ottime....ho sempre detto il contrario...trovami un post mio dove dico che le perf di BD in ST sono ottime...quindi cosa vuoi dimostrare? che hai ragione che le perf in single di BD non sono competitive?
mi sembra una cosa ovvia e scontata....
Nehalem è un esempio di una cpu relativamente nuova che consumava quanto consuma adesso BD......mentre adesso dopo vari anni di affinamenti produttivi e non solo dell'architettura i7 consuma quasi la metà.....questo il senso del mio discorso...
non mi sembra di aver tirato in ballo o di aver detto che nehalem andava molto molto meno di penryn....mah...
carlottoIIx6
04-01-2012, 11:23
Quindi nel caso Penryn->Nehalem sono il 2% in più, clock to clock
Mentre nel caso Stars->BD sono il 10% in meno, con il 10% in più di clock
http://images.anandtech.com/graphs/graph4955/41694.png
Dici che è la stessa situazione, ma ripeterlo fino alla noia non lo renderà vero...
L'architettura nuova sono sempre e solo chiacchiere e scuse. Non compri l'innovazione, compri prestazioni e consumi, nient'altro. E qualunque rapporto tu voglia fare con prestazioni, consumi e prezzo, BD non vince mai. Potrà farlo in futuro? Dubito ma quando il futuro sarà il presente si vedrà, per ora è così.
randa71 ha la fortuna di aver provato le due architetture di persona e non soltando guardando bench.
quindi la testimonianza di randa71 vale molto e non capisco perchè accusarlo di "malafede" visto che il suo discorso è a mio avviso realistico.
PEnso che nell'uso pratico AMd ha fornito storicamente una maggiore "vivacità"
idea che mi viene dalle testimonianze di chi ha avuto entrambe le architetture a cui si aggiunge anche paolo oliva, che ha avuto l'apu e intel e si trova meglio con l'apu, nonostante magari intel è più veloce bench, perchè alla fine l'uso odierno non è fatto di bench.
.....;
Se in un futuro migliorera ricevera i miei soldi come è successo con i Phenom II, ora la commento per quello che è, perchè ad oggi nessuno puo dire se potra o meno colmare il gap perseguendo questa strada o se dopo Piledriver vera abbandonata.
su questo sono d'accordo....voglio vedere anche io se AMD crederà in questa architettura o se tornerà sui suoi passi
AceGranger
04-01-2012, 11:45
Premi il tasto dolente... in un altro topic in questa sezione una ragazza ha scritto di aver comprato in un e-shop un FX-8150 a 269 Euro, mentre a soli 185 avrebbe potuto avere un 1100T con uguali prestazioni medie... od allo stesso prezzo dell' FX farsi un I7-2600 più veloce.
E' il posizionamento di mercato che non funziona, l' 8-core FX potrà anche dara soddisfazioni a chi lo sta usando: ma dove è finita la famosa "convenienza" di AMD?
PS. sono i miei soliti 2 cents... :)
em... quello si chiama sbagliare shop
da trovprezzi il prezzo medio di un 8150 è 245-250 euro....
imho è comunque alto, pero non sono le 270 chieste da quello shop...
no non confermo.
non confermo che sono fanboy AMD...perchè non lo sono.
ho detto il 2600k è superiore, ma non nella gestione del carico....
esiste un mondo fatto di persone che non sono sempre o da una parte o dall'altra..scegliere una CPU NON significa a casa mia essere fanboy...mi sembra un ragionamento molto infantile il tuo...
Io invece trovo molto infantile dire che "BD è superiore nella gestione del carico"
senza produrre alcun benchmark.
carlottoIIx6
04-01-2012, 12:40
em... quello si chiama sbagliare shop
da trovprezzi il prezzo medio di un 8150 è 245-250 euro....
imho è comunque alto, pero non sono le 270 chieste da quello shop...
sono comunque prezzi che sono destinati a scendere
4100 e 6100 sono scesi tanto
Phenomenale
04-01-2012, 13:10
forse dovresti chiederti nello stesso negozio quanto costa un 2600kNon la versione "K", ho scritto I7-2600 liscio ;)
Ma poi il senso del mio post era proprio che deve scendere di prezzo per diventare competitivo!
marchigiano
04-01-2012, 13:17
ma perchè non ci facciamo un favore e consideriamo:
4100 = 2 cores + 2 "AMD Hyper threading" cores
6100 = 3 cores + 3 "AMD Hyper threading" cores
81X0 = 4 cores + 4 "AMD Hyper threading" cores
dove "AMD hyper threading" significa un HT che ha (semplicisticamente mi perdonerete l'approssimazione spero):
- un vantaggio hardware (più parti fisiche rispetto a quello Intel)
- uno svantaggio software (cioè non è riconosciuto correttamente nemmeno dallo scheduler Windows, figuriamoci dai software 3rd party - HT Intel ora funziona perfettamente ma esordì PENOSAMENTE 10 anni fa a marzo, e ora nessuno sembra ricordarsene).
assolutamente no, intel usa il HT per riempire i vuoi che i programmi lasciano nelle pipeline (nonostante l'ottima cache e prefetcher), amd ha una marea di pipeline ma sfruttate malissimo, ne è controprova quando converti con X264, se forzi più threads dei reali presenti nella cpu con il BD ottieni ottimi aumenti prestazionali, con una cpu intel senza HT discreti, con HT quasi niente
Io invece trovo molto infantile dire che "BD è superiore nella gestione del carico"
senza produrre alcun benchmark.
effettivamente...
giuliojiang
04-01-2012, 13:54
guarda io ce l'ho da vari mesi FX8150 e chissà come mai indietro non torno.....(indietro per me vuol dire rimettere su il 2600k visto che arrivo da quello)
sono d'accordo che i veri grossi problemi della serie 8 sono i consumi...per quanto....sul prezzo (considerando i casi in cui tutti e 4 i moduli sono in load che le perf sono molto simili al 2600k) non lo considero così fuori mercato...anche perchè cmq devono rifarsi degli investimenti fatti....e avere AMD in buona salute economica è solo un vantaggio per la concorrenza.....e non è un atom :D:D
in merito ai consumi anche qui spesso ci si dimentica o si fa finta di dimenticarsi che BD è la prima incarnazione di un'architettura nuova...
quanto era il TDP dei primi i7 (il 920 aveva un tdp di 130W...http://ark.intel.com/products/37147/Intel-Core-i7-920-Processor-%288M-Cache-2_66-GHz-4_80-GTs-Intel-QPI%29
e anche qui di nuovo in nehalem c'erano solo la cache di 8 mb con hyperthreading e IMC.....queste le grandi novità introdotte....guardate le perf single core di nehalem confrontate con penryn quad..oltre al fatto che avendolo avuto era un mezzo fornellino a microonde, nel senso che scaldava molto...mentre BD come temp non è alto)... lo dico solo per far notare che quando un'architettura è nuova, non così rodata come architettura core, ci può stare che consumi così....almeno IMHO...
vedremo i margini di miglioramento con il PP migliorato e + raffinato...e le varie modifiche/ottimizzazioni ai moduli.....
e vedremo come la nuova dirigenza AMD si comporterà in merito agli sviluppi futuri.....
tu che hai un 8150, perché non provi a fare benchmark, così vediamo come se la cava comparandolo con altri processori posseduti dagli utenti. Nella sezione Benchmark del forum ci sono parecchi benchmark anche derivati da applicazioni di uso quotidiano, ma nelle varie classifiche non ho trovato praticamente nessuno con un BD.
potresti iniziare da quelli che ho in firma ;)
giuliojiang
04-01-2012, 14:44
vi segnalo che il prezzo del 8120 sta velocemente calando
ecco una ricerca sul trovaprezzi:
http://www.google.it/products/catalog?hl=it&safe=off&q=amd+8120&gs_upl=2255l2494l0l2774l2l2l0l0l0l0l243l395l0.1.1l2l0&bav=on.2,or.r_gc.r_pw.,cf.osb&biw=1920&bih=964&um=1&ie=UTF-8&tbm=shop&cid=1818912849505647192&sa=X&ei=Q2UET-LFGKaD4gTNlcyNCA&ved=0CEoQgggwAA#scoring=p
questo invece il 2500k:
http://www.google.it/products/catalog?q=intel+2500k&hl=it&um=1&ie=UTF-8&tbm=shop&cid=6241366433756866403&sa=X&ei=lGUET4iqMeX_4QTo5NCNCA&ved=0CEwQ8wIwAA#scoring=p
entrambi hanno un prezzo di listino di 157€ ora.
ivano444
04-01-2012, 14:51
ma piledriver quando esce????
cut... l'architettura è chiaramente sbagliata e da ripensare da capo
addirittura...
ma perchè non ci facciamo un favore e consideriamo:
4100 = 2 cores + 2 "AMD Hyper threading" cores
6100 = 3 cores + 3 "AMD Hyper threading" cores
81X0 = 4 cores + 4 "AMD Hyper threading" cores
dove "AMD hyper threading" significa un HT che ha (semplicisticamente mi perdonerete l'approssimazione spero):
- un vantaggio hardware (più parti fisiche rispetto a quello Intel)
- uno svantaggio software (cioè non è riconosciuto correttamente nemmeno dallo scheduler Windows, figuriamoci dai software 3rd party - HT Intel ora funziona perfettamente ma esordì PENOSAMENTE 10 anni fa a marzo, e ora nessuno sembra ricordarsene).
le mele vanno con le mele e le pere con le pere
HT non ha nemmeno il pelo del testicolo destro vicino al CMT, parliamo di due concetti e approcci nettamente differenti. Non si assomigliano nemmeno se ti sforzi a farlo.
E comunque, gli svantaggi abissali software sull'architettura li avete solo sulle vostre macchine, ci possono anche essere ma ti assicuro ( e te lo firmo con il sangue) che se ti riferisci a os, la pecentuale non supera il -3%. Su linux va un massimo del 5% in piu, ossia briocioline.
Non la versione "K", ho scritto I7-2600 liscio
Ma poi il senso del mio post era proprio che deve scendere di prezzo per diventare competitivo!
si che poi, anche se parli della versione K, il 2600k non è che costa molto piu del 8150FX. E comunque la spesa li vale tutti. E sono un amdista. ;)
carlottoIIx6
04-01-2012, 15:39
- va meno della precedente;
- scalda più della precedente;
- occupa più area della precedente;
- consuma più della precedente.
Tecnicamente è una tragedia senza se e senza ma.
BD è una architettura a moduli, che permette di avere a disposizione più core.
quindi per me è avanti non dietro.
migliramenti del silicio, ottimizzazioni, aumento ipc faranno il resto.
piledriver secondo me è questo.
Phenomenale
04-01-2012, 15:47
Vabbè, ma adesso non seppelliamolo questo povero FX... vediamo:
- va meno della precedente (solo in single, in multithread è uguale al 1100T)
- scalda più della precedente (OK)
- occupa più area della precedente (NO, il chip è leggermente più piccolo di un 1100T)
- consuma più della precedente (OK)
- costa più degli esacore precedenti (è questo il guaio...)
:)
carlottoIIx6
04-01-2012, 16:00
Più core che come risultato vanno meno consumando di più e costando di più. Un peggioramento su tutta la linea.
Questi sono "se". Anche BD doveva risolvere il problema dei problemi, doveva consumare meno perché era architetturalmente pensato per essere più efficiente grazie all'architettura a moduli ed essere più veloce, con un IPC maggiore. Ma non è successo. Se poi ad un certo punto uscirà un'evoluzione di BD che si collochi in modo concorrenziale sul mercato tanto meglio per AMD e per noi, ma ad oggi BD è certamente e dimostratamente un passo indietro.
secondo me il tuo ragionamento è inesatto.
prima bisogna distinguere il silicio dal progetto.
il 45nm era ottimo, il 32nm si è dimostrato buono ma non quanto il 45nm in proporzione.
siamo sicuri che un k10 su 32nm non consumi di più?
risolti i problemi di silicio, rimane aumentare l'ipc, questo non sono "se" ma semplice evoluzione annunciata dalla stessa AMD.
inoltre io personalmente spero, e pretenderei anche come consumatore e per la competizione, che il software faccia la sua aprte.
carlottoIIx6
04-01-2012, 16:04
Va circa uguale in MT ma meno in ST, significa che va meno, un uso unicamente MT non esiste per una CPU.
Riguardo la dimensione è a 32nm contro 45nm, grazie che è più piccolo, ci mancava solo che ottenesse questi risultati con un die grande come come quello del thuban ma a 32nm :eek:
cut
ma offre anche due core in più
considere inoltre la quantita enorme di cache.
secondo te va ridisegnato, secondo me è questione solo di ottimizzazioni, il progetto è validissimo.
tu che hai un 8150, perché non provi a fare benchmark, così vediamo come se la cava comparandolo con altri processori posseduti dagli utenti. Nella sezione Benchmark del forum ci sono parecchi benchmark anche derivati da applicazioni di uso quotidiano, ma nelle varie classifiche non ho trovato praticamente nessuno con un BD.
potresti iniziare da quelli che ho in firma ;)
ho provato con linux 64 il luxrender 0.8 a e il valore era 302 se non ricordo male.
cmq appena ho tempo lo posto.
La CPU è a default.
ero curioso di sapere un esa 1090t o 1100t a def quanto faceva
Vabbè, ma adesso non seppelliamolo questo povero FX... vediamo:
- va meno della precedente (solo in single, in multithread è uguale al 1100T)
- scalda più della precedente (OK)
- occupa più area della precedente (NO, il chip è leggermente più piccolo di un 1100T)
- consuma più della precedente (OK)
- costa più degli esacore precedenti (è questo il guaio...)
:)
l'avete provato un 1100T?
appena posso posto le differenze di temp...
ma da quanto mi ricordo il phenom 1100t in full load (prime95) con ultra120 case chiuso arrivava sui 47-48° (su HWMONITOR, non coretemp)
BD mi sembra su questi livelli
non è vero che in multi va come il precedente perchè va di più:
http://www.legitreviews.com/article/1741/6/
1) in sandra va di +;
2) x264 multicore va di +;
3) ciberlink leggermente di + ;
4) handbrake va di +;
5) povray va di +;
6) cinebench leggermente di + (in multi);
7) in pcmark 7 va di +;
8) 3d mark cpuscore va di +;
9) resident evil 5 va leggermente di +;
10)HAWK2 va di +;
non aggiungo 7zip e WINRAR
se poi consideriamo solo i giochi....è inutile che continuiamo a menarcela....ma forse è meglio comprarsi una console
certo che ogni volta che si posta qualcosa, alla fine si finisce sempre a riempire il thread di contro affermazioni e di contro contro affermazioni, per affermare non si sa bene la ragione di chi...
capitan_crasy
04-01-2012, 17:33
Va circa uguale in MT ma meno in ST, significa che va meno, un uso unicamente MT non esiste per una CPU.
Riguardo la dimensione è a 32nm contro 45nm, grazie che è più piccolo, ci mancava solo che ottenesse questi risultati con un die grande come come quello del thuban ma a 32nm :eek:
Guardando le dimensioni con le differenze di processo un thuban rifatto a 32nm sarebbe stato più piccolo pur mantenedo e anzi migliorando tutti gli altri vantaggi. Pensa ai risultati di questo confronto già impietoso così se potessimo avere un Thuban 32nm da inserire nella prova. Questo dovrebbe dirla più che lunga su quanto la direzione di sviluppo intrapresa sia sbagliata...
Discorso ST a parte dicevano le stesse identiche cose sul K10 a 65nm!:rolleyes:
andiamo avanti:
8718 il punteggio...
http://www.xtremeshack.com/immagine/t128395_perf64.jpg (http://www.xtremeshack.com/scheda/128395_perf64.jpg.html)
http://www.xtremeshack.com/immagine/t128390_cpu.jpg (http://www.xtremeshack.com/scheda/128390_cpu.jpg.html)
a default
http://www.cpubenchmark.net/cpu.php?cpu=AMD+FX-8150+Eight-Core
ecco per quelli che continuano a raccontare che in multi va uguale al 1100t..
ma sicuramente questo benchmark non vale....
ps: ma questi sono dei matti...addirittura dicono che è economicamente + vantaggioso del 2600k :D:D
almeno un bench dove rende...dal cine a vray, bulldozzer esce asfaltato :)
Phenomenale
04-01-2012, 19:51
non è vero che in multi va come il precedente perchè va di più:
http://www.legitreviews.com/article/1741/6/
Bella suite di test comparativi.
Ho visto che nei test dove conta la larghezza di banda ram il BD si prende un buon vantaggio sul K10: ottimo, li si è migliorato. Nei test sulle nuove istruzioni AES/SSE4.1 il BD risplende doppiando gli score del K10: a dimostrare che le nuove istruzioni servono quando usate.
E' vero, in certi ambiti l'FX-8150 è ben superiore al 1100T. :p
Ma nei bench più tradizionali? Pur con 2 core in più e 300MHz in più, il vecchio 1100T lo pareggia o supera ben di poco, IMHO troppo poco per una nuova architettura (che dovrebbe servire ad andare meglio, non come alcuni scrivono che dato che l'architettura è nuova è giustificato che vada peggio XD).
Concludendo: Piledriver, siamo nelle tue mani !!! :read:
liberato87
04-01-2012, 20:06
l'avete provato un 1100T?
test fatto col 1090t a 4ghz con circa 23-24 gradi in casa..
http://img600.imageshack.us/img600/2204/prime95.png
considera che però il limite dei thuban era 62 gradi (sulla cpu).
----
per il resto la discussione è sempre la solita.. per me è difficile vederci di buono a tutti i costi, ormai è rimasto solo carletto a difendere bd a spada tratta (senza manco averlo tra le mani).
oggi un mio amico ha venduto il 1090t per prendere un fx 6100, mettendoci anche 50euro di differenza.. io non l'avrei MAI fatto!
oggi un mio amico ha venduto il 1090t per prendere un fx 6100, mettendoci anche 50euro di differenza.. io non l'avrei MAI fatto!
DEHIHIHOHOH
Va MOLTO di meno il 6100 del 1090t, secondo me.
ArteTetra
04-01-2012, 21:45
http://www.cpubenchmark.net/cpu.php?cpu=AMD+FX-8150+Eight-Core
Impressionante vedere un processore mobile quad-core con 45 W di TDP superare il top di gamma 6 core AMD da 125 W! È possibile? :eek:
A breve forse prenderò un amd fx 8120.. siete avvisati :O
paolo.oliva2
04-01-2012, 22:25
...
Io sinceramente quoto quanto scrivi e mi associo a chi ti giudica imparziale, soprattutto sulla base di essere uno dei pochi ad aver provato entrambi i sistemi.
===================
Secondo me, lunica possibilità di AMD con BD è su GF che risolva i problemi sul silicio 32nm.
Dal mio punto di vista, lincremento di IPC atteso con Piledriver da solo non puo bastare a risolvere i prb di competitività già misurandosi con il 32nm Intel, figuriamoci con il 22nm.
Per assurdo, anche se il divario tra BD ed un X6 Intel è enorme, i possibili margini di incremento sono tutti a favore di AMD, TDP a parte considerando il 22nm Intel.
Un X6 Intel supera di poco i 5GHz sia che si parli di raffreddamenti umani o azoto/elio, quindi, parlando di un silicio allultimo stadio di sviluppo, dovremmo essere ai limiti architetturali.
A parte i WR ad azoto/elio, un BD è inferiore pure in OC nonostante la sua architettura sia propensa a clock alti.
Io rimango della mia idea... allarchitettura BD è mancato 1GHz in più di clock allo stesso TDP per essere vincente. Se GF non riuscirà a risolvere i prb sul 32nm, Piledriver da solo non puo riuscire a riolvere i prb AMD.
digieffe
04-01-2012, 22:30
Bella suite di test comparativi.
Ho visto che nei test dove conta la larghezza di banda ram il BD si prende un buon vantaggio sul K10: ottimo, li si è migliorato. Nei test sulle nuove istruzioni AES/SSE4.1 il BD risplende doppiando gli score del K10: a dimostrare che le nuove istruzioni servono quando usate.
E' vero, in certi ambiti l'FX-8150 è ben superiore al 1100T. :p
Ma nei bench più tradizionali? Pur con 2 core in più e 300MHz in più, il vecchio 1100T lo pareggia o supera ben di poco, IMHO troppo poco per una nuova architettura (che dovrebbe servire ad andare meglio, non come alcuni scrivono che dato che l'architettura è nuova è giustificato che vada peggio XD).
Concludendo: Piledriver, siamo nelle tue mani !!! :read:
IMHO, Piledriver è stato progettato molti mesi fa e porterà la maggior parte dei difetti di BD, non credo proprio che "ci abbiano messo mani" in questi pochi mesi...
se ci dobbiamo affidare a qualcuno sarà steamroller... le cui modifiche le staranno pensando ora...
EDIT: a riguardo di Piledriver, la cosa migliore sarà il silicio, metallizzazione ecc... molto poco il resto.
Io sinceramente quoto quanto scrivi e mi associo a chi ti giudica imparziale, soprattutto sulla base di essere uno dei pochi ad aver provato entrambi i sistemi.
===================
Secondo me, lunica possibilità di AMD con BD è su GF che risolva i problemi sul silicio 32nm.
Dal mio punto di vista, lincremento di IPC atteso con Piledriver da solo non puo bastare a risolvere i prb di competitività già misurandosi con il 32nm Intel, figuriamoci con il 22nm.
Per assurdo, anche se il divario tra BD ed un X6 Intel è enorme, i possibili margini di incremento sono tutti a favore di AMD, TDP a parte considerando il 22nm Intel.
Un X6 Intel supera di poco i 5GHz sia che si parli di raffreddamenti umani o azoto/elio, quindi, parlando di un silicio allultimo stadio di sviluppo, dovremmo essere ai limiti architetturali.
A parte i WR ad azoto/elio, un BD è inferiore pure in OC nonostante la sua architettura sia propensa a clock alti.
Io rimango della mia idea... allarchitettura BD è mancato 1GHz in più di clock allo stesso TDP per essere vincente. Se GF non riuscirà a risolvere i prb sul 32nm, Piledriver da solo non puo riuscire a riolvere i prb AMD.
vero...
anche perchè qui se la CPU fosse stata clokkata a 4.5 gli esiti dei bench sarebbero stati differenti
http://www.guru3d.com/article/amd-fx-8150-processor-review/12
qui è abbastanza palese la cosa...a 4.6 ghz
e concordo con te sul fatto di piledriver...molti lo aspettano come la manna dal cielo...ma non penso che IPC in ST cambierà radicalmente....se non salgono di clock...
anche perchè si paragonano mele con pere...
Intel è talmente forte in ST che si può permettere di far processare 2 thread...
AMD ha scelto un'altra strada....raddoppiando le unità interne sugli interi....quindi non ci credo che miglioreranno talmente tanto in ST da raggiungere Intel...è fisicamente impossibile almeno IMHO
quello che penso possano fare è migliorare un po' IPC e salire di clock tale da essere saldamente meglio in multi
tra l'altro, ma qui sono ignorante io, pensi che risolvendo i problemi di PP tirino su di 1 GHZ??? Non è poco 1 GHZ...
o altra strada, aggiungono un altro modulo...quindi 10 thread...ma qui siamo in fantainformatica :D però in multi sarebbe una bella botta..
vedremo gli sviluppi e la nuova dirigenza che vorrà fare.....AMD penso che sicuramente conosca i limiti di BD....quindi nei prossimi mesi riusciremo a capire che hanno intenzione di fare...e se loro stessi la considerano un'architettura valida quindi da sviluppare oppure no...
A breve forse prenderò un amd fx 8120.. siete avvisati :O
ottimo!
carlottoIIx6
04-01-2012, 22:43
vero...
anche perchè qui se la CPU fosse stata clokkata a 4.5 gli esiti dei bench sarebbero stati differenti
http://www.guru3d.com/article/amd-fx-8150-processor-review/12
qui è abbastanza palese la cosa...a 4.6 ghz
cut
qui si vede che l'efficenza precipita a 4,6Ghz
ma non così tanto a 4,5.
http://www.tomshardware.com/reviews/bulldozer-efficiency-overclock-undervolt,3083-19.html
qui si vede che l'efficenza precipita a 4,6Ghz
ma non così tanto a 4,5.
http://www.tomshardware.com/reviews/bulldozer-efficiency-overclock-undervolt,3083-19.html
si considera che quel test lo hanno fatto con le CPU di adesso con questo PP.....mi aspetto che se salgono di clock è perche hanno risolto in tutto o in parte i limiti del PP di adesso.
quindi quel grafico potrebbe essere diverso...e almeno i consumi dovrebbero essere diversi
digieffe
04-01-2012, 22:47
Secondo me, lunica possibilità di AMD con BD è su GF che risolva i problemi sul silicio 32nm.
Dal mio punto di vista, lincremento di IPC atteso con Piledriver da solo non puo bastare a risolvere i prb di competitività già misurandosi con il 32nm Intel, figuriamoci con il 22nm.
Condivido perfettamente :)
Io rimango della mia idea... allarchitettura BD è mancato 1GHz in più di clock allo stesso TDP per essere vincente. Se GF non riuscirà a risolvere i prb sul 32nm, Piledriver da solo non puo riuscire a riolvere i prb AMD. 1 GHZ no... ma 700Mhz si :D
Secondo me, lunica possibilità di AMD con BD è su GF che risolva i problemi sul silicio 32nm.
Dal mio punto di vista, lincremento di IPC atteso con Piledriver da solo non puo bastare a risolvere i prb di competitività già misurandosi con il 32nm Intel, figuriamoci con il 22nm.
Io rimango della mia idea... allarchitettura BD è mancato 1GHz in più di clock allo stesso TDP per essere vincente. Se GF non riuscirà a risolvere i prb sul 32nm, Piledriver da solo non puo riuscire a riolvere i prb AMD.
Bingo !
Silicio assolutamente migliorato (perchè quello di adesso è meno affascinante di un cesso turco) + qualche miglioramento all'architettura = un BD con buoni 800mhz in piu di clock, un lieve incremento in ST, un consumo mediamente inferiore, potrebbe farlo posizionare ben sopra un 2600k e se pompato a dovere farlo avvicinare (ma non credo superare) in performance anche ad un IB (consumi a parte).
Piledriver non sarà il miracolo di BD, ma dara un rigido aiuto a questo ottimo approcio di architettura.
Sono d'accordo con Fabio, piledriver risolvera buona parte del nostro attuale bd, ma in questo momento anche secondo me amd sta studiando steamroller. Ormai piledriver al massimo lo starà solo ripassando per posizionarlo in maniera piu sexy possibile alle piattaforme enthusiast (volan/vishera).
pensi che risolvendo i problemi di PP tirino su di 1 GHZ??? Non è poco 1 GHZ...
o altra strada, aggiungono un altro modulo...quindi 10 thread...ma qui siamo in fantainformatica però in multi sarebbe una bella botta..
Anche +800mhz + altri miglioramenti di poco conto, potrebbero attribuirgli una posizione differente dall'attuale.
Non credo che siano previsti X10 per piledriver, vedo 2cluster x 5moduli piu verso il periodo steamroller.
quindi nei prossimi mesi riusciremo a capire che hanno intenzione di fare...e se loro stessi la considerano un'architettura valida quindi da sviluppare oppure no...
naaaa non credo che l'abbandonino....
naaaa non credo che l'abbandonino....
Come ho gia' scritto, secondo me hanno gia' trashato tutto. Ci sarà piledriver dopo l'estate, ma non steamroller.
Secondo me stanno gia' sviluppando una nuova architettura con il target performance/watt.
E non serve la sfera di cristallo per prevedere questo.
assolutamente no sencondo me... l'architettura BD è buona; come detto dall'uscita e ripetuto sino ad ora ha dei problemi progettuali per via del fatto che pare sia stato fatto da ing non particolarmente arguti nella progettistica manuale e troppo ottimistici nell'usare progammi automatici di progettazione, il che ha portato al BD che abbiamo ora, che ha dei problemi, non lo si nega ma cmq sia funziona e và, non è un trabiccolo..... A mio avviso Piledriver migliorerà sostanzialmente il processo produttivo, le rese, le temperature e piccoli trick dove si può intervenire facilmente per aumentare sostanzialmente la frequenza/ipc in single; steamroller invece per me avrà una rivisitazione dell'architettura rimpicciolendola e rendendola migliore anche in ST aumentando l'ipc in maniera spero sostanziale senza far perdere la capacità di salire di frequenza, insomma ottimizzandola..... e in +, avrà la predisposizione per integrare la nuova architettura di SIMD presenti ora nella serie 7970 di ati.....
Athlon 64 3000+
05-01-2012, 09:45
Io la vedo cosi riguardo l'architettura BD:
-La sua prima incarnazione alias Zambezi è stata un completo fallimento tanto che il K10 è più veloce in diversi ambiti.
-Dire che l'architettura sia un fallimento totale mi sembra attualmente una sparata grossa perchè voglio vedere nelle sue prossime incarnazioni come andrà con i dovuto aggiustamenti architetturali.
Se anche con Piledriver e Streamroller continuerà ad andare male allora si potrà dire che è stato un fallimento questo tipo di architettura.
Se anche con Piledriver e Streamroller continuerà ad andare male allora si potrà dire che è stato un fallimento questo tipo di architettura.
Il punto è che, concorderai, in AMD hanno gia' deciso se è un fallimento o no.
Ummm inizio ad avere sempre meno fiducia in Piledriver , non so perchè ma inizia a vagarmi per la testa pure a me l'idea che cambieranno architettura a breve .
Piledriver si sa gia' quanto va.
Anche stavolta non serve la sfera di cristallo.
Da slide ufficiali AMD,
10-15% di miglioramento dell' IPC/Watt per anno.
Quindi, siccome sono slide AMD, probabilmente il miglioramento sarà minore.
In ogni caso, non sarà certo una rivoluzione.
lupocattivo89
05-01-2012, 10:11
voglio dire una eresia perdonatemi se la sparo grossa però è una cosa che mi è balzata in testa. E se piledriver risultasse dalla sommatoria di come doveva essere BD sin dalla sua prima incarnazione con in più i miglioramenti che già di suo doveva portare piledriver cioè quel 10%+o-?
assolutamente no sencondo me... l'architettura BD è buona; come detto dall'uscita e ripetuto sino ad ora ha dei problemi progettuali per via del fatto che pare sia stato fatto da ing non particolarmente arguti nella progettistica manuale e troppo ottimistici nell'usare progammi automatici di progettazione, il che ha portato al BD che abbiamo ora, che ha dei problemi, non lo si nega ma cmq sia funziona e và, non è un trabiccolo..... A mio avviso Piledriver migliorerà sostanzialmente il processo produttivo, le rese, le temperature e piccoli trick dove si può intervenire facilmente per aumentare sostanzialmente la frequenza/ipc in single; steamroller invece per me avrà una rivisitazione dell'architettura rimpicciolendola e rendendola migliore anche in ST aumentando l'ipc in maniera spero sostanziale senza far perdere la capacità di salire di frequenza, insomma ottimizzandola..... e in +, avrà la predisposizione per integrare la nuova architettura di SIMD presenti ora nella serie 7970 di ati.....
Secondo me AMD non ha interesse alcuno a migliorare sostanzialmente le performance in single, ha scelto la via del muticore e imho spingerà su quello, migliorando i consumi.
Io ho analizzato a fondo le performance gaming di FX, e si vede chiaramente che all'aumentare dei processi multipli, ottiene poi ottimi risultati, nei pochi games pensati da principio per utilizzare più cores dei soliti 2, si vede il vantaggio prestazionale che può ottenere, e tutti i motori nuovi, dal nuovo unreal engine al futuro crytech 4, o anche semplici motori proprietari abbastanza evoluti, non possono più essere pensati diversamente.
Che poi il singolo nucleo, nel processo di parallelizzazione, sia meno performante di soluzioni con un minor numero di nuclei è una naturale conseguenza che si è visto anche nelle VGA, ma penso che sia anche la strada da seguire come aveva dimostrato ai tempi 2900xt ;)
Phenomenale
05-01-2012, 10:36
Io ci vado con i piedi di piombo prima di supporre quali CPU verranno cestinate e quali sviluppate, aspetto gli annunci di febbraio (il ProjectWin).
Per Zambesi, mi piacerebbe (sadicamente XD) pensare che i tecnici AMD lo abbiano pattumierato e stiano già assemblando la nextgen sui loro simulatori di porte logiche... però fare una nuova architettura non è cosa da poco, ricordo che il progetto Bulldozer era cominciato addirittura nel 2006, per poi essere cancellato nel 2008 e sostituito dai PhenomII nel 2009. Il fatto che lo abbiano riaperto nel 2010 mi rende dubbioso che lo abbiano nuovamente chiuso nel 2011. Gli mettono una cerniera-lampo allo Zambesi? :asd:
Athlon 64 3000+
05-01-2012, 10:46
Per sviluppare una nuova architettura ci vogliono anni e quindi un eventuale CPU/APU prima che arrivi sul mercato ci vorrà del tempo,a meno che come già detto sapendo che BD era già fallimentare abbiano già iniziato da tempo a sviluppare una nuova architettura per rimediare.
Però mi sembra che sia Piledriver che Streamroller saranno basati su architettura BD.
capitan_crasy
05-01-2012, 10:49
Prima di parlare prematuramente di epitaffi e usare aggettivi poco simpatici vi ricordo che a febbraio AMD presenterà al Financial Analyst Day le nuove roadmap a lungo termine per quanto riguarda le CPU/APU...
Questa cosa si leggeva pari pari quando ancora mancavano 6 mesi all'uscita di Crysis...
La realtà è che la quantità di parallelizzazione che puoi mettere in software desktop ha dei limiti per lo più già raggiunti e che la corsa al numero di core si sta scontrando con risultati sempre peggiori contro diminishing returns e sarà sempre peggio, e l'unica via è migliorare l'efficienza architetturale e quando il processo lo consente aumentare di qualcosa le frequenze, che è esattamente la via opposta a quella intrapresa da AMD con BD. Ma loro se ne sono già accorti da molti molti mesi, su questo non ci sono dubbi.
Ma questa sinceramente è una logica preistorica, tra porgetti multi spinti e progetti di vecchia concezione (che so, come il motore di Skyrim) c'è veramente un abisso, la corsa a parallelizzare è solo all'inzio, si vede solo la punta dell'iceberg, e tra i vari software che sfruttano fino a 8-16 core in modo scalare e progetti che si fermano a 1-2 come potrà esserci confronto?
Inoltre se qualche volta qualcuno ha il coraggio di pensare l'architettura diversamente, andando incontro a diverse difficoltà, ma comunque osando, come si fa a restare fermi all'aumento di clock e l'ottimizzazione dell'architettura? Questo semmai viene dopo che hai sviluppato un progetto, se no si resta fermi come con gli HD al disco magnetico per 20 anni...
capitan_crasy
05-01-2012, 12:21
Vista l'attendibilità delle roadmap AMD da sempre non ci vedo niente di positivo in qualche slide in più.
Ve le ricordate tutti le slide e le roadmap prima di Barcelona/Agena e prima di BD, vero?
Quali?
Quelli ufficiali oppure quelle sotto NDA pubblicate a sbaffo da altri siti?
Il Financial Analyst Day è l'evento molto importante (forse il più importante) per AMD e storicamente vengono rilasciate roadmap per le future strategie a lungo termine per quanto riguarda le CPU...
Secondo me AMD non ha interesse alcuno a migliorare sostanzialmente le performance in single, ha scelto la via del muticore e imho spingerà su quello, migliorando i consumi.
Io ho analizzato a fondo le performance gaming di FX, e si vede chiaramente che all'aumentare dei processi multipli, ottiene poi ottimi risultati, nei pochi games pensati da principio per utilizzare più cores dei soliti 2, si vede il vantaggio prestazionale che può ottenere, e tutti i motori nuovi, dal nuovo unreal engine al futuro crytech 4, o anche semplici motori proprietari abbastanza evoluti, non possono più essere pensati diversamente.
Che poi il singolo nucleo, nel processo di parallelizzazione, sia meno performante di soluzioni con un minor numero di nuclei è una naturale conseguenza che si è visto anche nelle VGA, ma penso che sia anche la strada da seguire come aveva dimostrato ai tempi 2900xt ;)
assolutissimamente d'accordo se non che cmq sia l'aumento di performance in single thread ovvero quanto un "core" è veloce da solo penso sia indice anche di quanto lo siano messi a lavorare tutti insieme, ovvero migliorando le performance del singolo sicuramente aumentano anche quando lavorano tutti insieme :)
Eppoi concordo che cmq sia i bench di oggi rendono poco onore all'architettura BD, usare programmi vecchi per testare qualcosa di nuovo che stravolge la logica di funzionamento rispetto alla vecchia generazione è un limite, limite giusto poiché i programmi di oggi non sono compilati per BD, però quando si parla di BF3 e programmi che sfruttano l'architettura mi sembra che la musica cambi e non si parli + di CESSO di CPU.....
BD è destinato a durare almeno a piledriver, d'altronde Trinity è già pronto per il mercato e da lì alla versione desktop non c'è moltissima differenza
In questo scenario quanto è utile continuare a cercare di aumentare ulteriormente il numero di core invece di renderli più efficienti e potenti?
E' la strada maestra, secondo me, avere 1 core più potente e efficiente non pareggerà mai i vantaggi di averne 2 o 4 magari meno performanti, l'ideale è fare entrambe le cose.
Che poi BD necessiti di minori consumi, soprattutto, è palese.
AMD sulla carta ha un ottimo progetto, è un po' la stessa cose che si è vista con gli sp di 2900xt (320) contro quelli di 8800 (128), vedremo in futuro, certo essersi svincolata da certe logiche con i moduli secondo me pagherà.
Gli Hd ssd attuali nascono già vecchi, ci sono almeno 5 tecnologie, alcune pensate negli anni 60, che offrono molta più durata e molte più performance che possono, quando saranno prodotte in volumi, spazzare via nuovamente tutto, eppure per altri 5-6 anni ci diranno che esistono solo celle flash ;)
assolutissimamente d'accordo se non che cmq sia l'aumento di performance in single thread ovvero quanto un "core" è veloce da solo penso sia indice anche di quanto lo siano messi a lavorare tutti insieme, ovvero migliorando le performance del singolo sicuramente aumentano anche quando lavorano tutti insieme :)
Eppoi concordo che cmq sia i bench di oggi rendono poco onore all'architettura BD, usare programmi vecchi per testare qualcosa di nuovo che stravolge la logica di funzionamento rispetto alla vecchia generazione è un limite, limite giusto poiché i programmi di oggi non sono compilati per BD, però quando si parla di BF3 e programmi che sfruttano l'architettura mi sembra che la musica cambi e non si parli + di CESSO di CPU.....
BD è destinato a durare almeno a piledriver, d'altronde Trinity è già pronto per il mercato e da lì alla versione desktop non c'è moltissima differenza
Anche il motore di metro 2033 è stato pensato per elaborare operazioni multiple lato cpu, addirittura fino a 16 in parallelo, e le performance, guarda caso, in quell'ambito sono da primo della classe anche a 1024x768.
digieffe
05-01-2012, 14:15
cut
Sicuramente AMD non si è accorta al lancio che quest'architettura non funziona, ma molto prima (e ovviamente dopo aver investito non si bene quante centinaia di milioni nel progetto non potevano trasharlo prima di uscire, guarda Barcelona...) e quindi il processo di cambiamento è già iniziato. Che poi ciò significhi un totale ritorno indietro ad evolvere Stars o una modifica pesantissima di Bulldozer lo sapremo fra due-tre anni.
non posso che concordare... e io immagino che opteranno per modifiche pesantissime di Bulldozer...
spero che lo sapremo per autunno 2013 con ciò che sarebbe dovuto essere steamroller a 28nm...
E' la strada maestra, secondo me, avere 1 core più potente e efficiente non pareggerà mai i vantaggi di averne 2 o 4 magari meno performanti, l'ideale è fare entrambe le cose.
Che poi BD necessiti di minori consumi, soprattutto, è palese.
dipende dal tipo di carico che dai a questi core... esatto l'ideale è fare entrabem le cose...
AMD sulla carta ha un ottimo progetto, è un po' la stessa cose che si è vista con gli sp di 2900xt (320) contro quelli di 8800 (128), vedremo in futuro, certo essersi svincolata da certe logiche con i moduli secondo me pagherà.
Non sono affatto d'accordo con il paragone... il lavoro di una gpu è ben diverso da quello di una cpu...
la prima tratta dati che per loro natura sono paralleli e scala bene all'aumentare del parallelismo, la seconda (in genere) su carico desktop tratta pochi dati paralleli e comunque risentirebbe della legge di amdahl http://it.wikipedia.org/wiki/Legge_di_Amdahl ossia scalerebbe malissimo rispetto ad una gpu per via dei dati e del codice trattato.
Gli Hd ssd attuali nascono già vecchi, ci sono almeno 5 tecnologie, alcune pensate negli anni 60, che offrono molta più durata e molte più performance che possono, quando saranno prodotte in volumi, spazzare via nuovamente tutto, eppure per altri 5-6 anni ci diranno che esistono solo celle flash ;)
potresti darmi qualche dettaglio in più, grazie :)
Piu' che sulla parallelizzazione,
la partita del futuro è sulle Performance/Watt.
Questa è la partita del futuro,
e infatti Intel ci sta andando giu' pesantemente
in questa direzione.
A casa AMD hanno capito che BD non è la via.
e come hai capito che hanno capito? :D
carlottoIIx6
05-01-2012, 14:35
Piu' che sulla parallelizzazione,
la partita del futuro è sulle Performance/Watt.
Questa è la partita del futuro,
e infatti Intel ci sta andando giu' pesantemente
in questa direzione.
A casa AMD hanno capito che BD non è la via.
ma no!
AMD si sta giocando la carte delle perfomance per watt già ora!
con ottimi prodotti APU.
Evitiamo di generalizzare, soltanto perchè questa sformata di BD non è efficace.
vedremo le altre.
ArteTetra
05-01-2012, 14:46
e come hai capito che hanno capito? :D
http://media.wired.it/uploads/599x337/201141/sfera_di_cristallo_1950.jpg
Ti permette di navigare a piacere nello spazio-tempo.
ma no!
AMD si sta giocando la carte delle perfomance per watt già ora!
con ottimi prodotti APU.
Evitiamo di generalizzare, soltanto perchè questa sformata di BD non è efficace.
vedremo le altre.
C'è qualcosa in Bd che non è del tutto chiaro.
Credo che il consumo non sia da addebbitare esclusivamente al pp, questa situazione mi ricorda tanto gli xp core Thoroughbred che avevano problemi a salire di frequenza per poi essere risolti con la rev B che aveva soltando una densità inferiore (con relativa area die maggiore).
Sulla carta BD è un'architettura vincente (sopratutto in chiave futura), bisogna aspettare la prossima incarnazione.
e come hai capito che hanno capito? :D
Non serve la sfera di cristallo neanche qui.
Nella famosa slide dell'evoluzione di BD 15% all'anno hanno plottato le Performance/Watt,
che è il punto piu' dolente di BD,
quindi hanno veramente capito che è il parametro piu' importante.
e come hai capito che hanno capito? :D
ma come non lo sapete? in AMD, Aldoo è il capo progetto della nuova architettura di CPU. Quindi lo saprà ben bene. :D :D :D :D :D :D. quante certezze che hai...vorrei averne la metà delle certezze che hai tu
ma no!
AMD si sta giocando la carte delle perfomance per watt già ora!
con ottimi prodotti APU.
Evitiamo di generalizzare, soltanto perchè questa sformata di BD non è efficace.
vedremo le altre.
Al contrario, in AMD non la stanno sfruttando per niente. La Intel ha dei processori da 95W MASSIMI per le fasce più "intelligenti" del mercato, le uniche che reputo giusto considerare (un processore a 999€ mi sembra assurdo).
Con Ivy Bridge si passerà ai 77W. Dopo non sapremo quale sarà la mossa di Intel, ma o rimangono ai 77W oppure tornano ai 95W, basano il discorso sulla teoria Intel:
(Aumento consumi) <= (Aumento prestazionale).
Alla Intel hanno ben chiaro che in futuro i miglioramenti saranno questi, evitando l'aumento dei core fin quando non strettamente necessario, aumentando l'IPC e introducendo vari miglioramenti all'architettura sia per i consumi che per le prestazioni. Il tutto mantenendo i clock quasi invariati.
In AMD invece si pensa ad aumentare continuamente i core, diminuendo l'IPC ma aumentando la parallellizzazione.
Io sono dell'idea che un misero die shrink dei Phenom X6 con un aumento dei transistor avrebbe creato un processore più parsimonioso e prestante.
niubbo69
05-01-2012, 15:19
ma no!
AMD si sta giocando la carte delle perfomance per watt già ora!
con ottimi prodotti APU.
Evitiamo di generalizzare, soltanto perchè questa sformata di BD non è efficace.
vedremo le altre.
Le APU finora in produzione (Llano) sono buonissime come utilizzo general purpose ma il valore perfomance/watt è assolutamente deficitario nei confronti della concorrenza. E la situazione peggiorerà ancora con la prossima uscita di IB.
Quindi non è assolutamente vero quello che hai affermato, ad AMD serve una sterzata pesante in ambito consumi per TUTTE le piattaforme ora esistenti.
Piu' che sulla parallelizzazione,
la partita del futuro è sulle Performance/Watt.
Questa è la partita del futuro,
e infatti Intel ci sta andando giu' pesantemente
in questa direzione.
.
Si si.
hai proprio ragione:
1)http://newsroom.intel.com/community/it_it/blog/2011/09/15/il-futuro-%C3%A8-pi%C3%B9-vicino-il-multi-core-diventa-mainstream-e-il-computing-%C3%A8-spinto-agli-estremi
2)http://www.adalta.it/Pages/PDF_Intel/Adalta_CorsiIntel.pdf
3)http://www.tomshardware.com/news/intel-knights-corner-mic-co-processor,14002.html
è in secondo piano per Intel il parallelismo del codice...è troppo concentrata sul discorso perf/watt :muro:
come mi ricordo bene bene che Intel per innumerevoli anni ha sostenuto che il clock era tutto. Netburst docet. Mentre AMD usciva con architetture K8/K10...:muro:
che poi sia necessario che i consumi siano contenuti è verissimo e in questo BD sfora e deve essere corretto è anche vero....ma per piacere non raccontiamoci troppe barzellette
carlottoIIx6
05-01-2012, 15:50
Si si.
hai proprio ragione:
1)http://newsroom.intel.com/community/it_it/blog/2011/09/15/il-futuro-%C3%A8-pi%C3%B9-vicino-il-multi-core-diventa-mainstream-e-il-computing-%C3%A8-spinto-agli-estremi
2)http://www.adalta.it/Pages/PDF_Intel/Adalta_CorsiIntel.pdf
3)http://www.tomshardware.com/news/intel-knights-corner-mic-co-processor,14002.html
è in secondo piano per Intel il parallelismo del codice...è troppo concentrata sul discorso perf/watt :muro:
come mi ricordo bene bene che Intel per innumerevoli anni ha sostenuto che il clock era tutto. Netburst docet. Mentre AMD usciva con architetture K8/K10...:muro:
che poi sia necessario che i consumi siano contenuti è verissimo e in questo BD sfora e deve essere corretto è anche vero....ma per piacere non raccontiamoci troppe barzellette
ma perche finite sempre in questi discorsi
è chiaro che parallelismo e performance/w vanno insieme
puoi mettere più core solo se riduci il loro consumo.
penso che amd lo sappia, l'efficenza delle APU è superiore a quella intel
perchè nell'APU conta anche la GPU.
Guardache GPU è riiuscita AMD a mettere le E-450 che va in turbo anche.
Le apu hanno una 6550, belle bestie in 100w totali!
perchè quando si afferma che il futuro è perf/watt più che la parallelizzazione, mettendolo in secondo piano, non è vero...sono entrambi importanti....al 50%, Intel non mette core aggiuntivi non perchè non creda nel parallelismo o perchè lo reputi secondario: semplicemente perchè non ce ne è bisogno. (8 thread bastano e avanzano nei desktop)
http://www.anandtech.com/show/5174/why-ivy-bridge-is-still-quad-core
ma che la strada sia questa mi sembra palese...
Mi ricordo le affermazioni di quando dicevano che la lotta si sarebbe fatta non + sul clock ma sul numero di core inseriti nelle CPU.
blackshard
05-01-2012, 16:07
penso che amd lo sappia, l'efficenza delle APU è superiore a quella intel
perchè nell'APU conta anche la GPU.
Dove? Nei sogni forse.
niubbo69
05-01-2012, 16:14
OT
Dove? Nei sogni forse.
Lascia perdere, è una battaglia persa.
Consiglio a tutti di leggere la recensione di Xbitlabs dalla quale si desume che l'efficenza (rapporto performance per watt) delle GPU Intel ed AMD è identica (confrontare i3-2125 ed A4-3300).
Lato CPU invece la situazione è nettamente a favore di Intel.
http://www.xbitlabs.com/articles/cpu/display/amd-fusion-intel-core-i3_8.html#sect0
Fine OT
perchè quando si afferma che il futuro è perf/watt più che la parallelizzazione, mettendolo in secondo piano, non è vero...sono entrambi importanti....
NO! PRIMA le performance/watt, POI si aumentano i core
puoi mettere più core solo se riduci il loro consumo.
!
Anche carlotto lo ha capito!
http://media.wired.it/uploads/599x337/201141/sfera_di_cristallo_1950.jpg
Ti permette di navigare a piacere nello spazio-tempo.
ma LoL :rotfl:
edit: comunque sono d'accordo sul fatto che prima si punta a ridurre il consumo di un chip e poi si pensa ad aggiungere core, cluster, moduli ed fpu che si voglia. Altrimenti si fa il gioco degli ubriachi. Non ha senso mettere 100 core e poi ottimizzare i consumi, potresti ritrovarti limitato a ridurli viste le esigenze minime/massime di corrente che possono richiedere i singoli core o moduli.
Questo va ammesso.
Non mi trovo invece d'accordo con chi si ha preso la fissa che amd abbandona BD. Secondo me no. Poi ognuno è libero di avere delle proprie supposizioni. Ma la palla di vetro non ce l'ha nessuno.
ma perche finite sempre in questi discorsi
è chiaro che parallelismo e performance/w vanno insieme
puoi mettere più core solo se riduci il loro consumo.
penso che amd lo sappia, l'efficenza delle APU è superiore a quella intel
perchè nell'APU conta anche la GPU.
Guardache GPU è riiuscita AMD a mettere le E-450 che va in turbo anche.
Le apu hanno una 6550, belle bestie in 100w totali!
Quindi vuoi dire che nei proci SB e IB i 95W sono solo per la CPU?
Guarda che all'interno contiene CPU+GPU+NB esattamente come le APU.
Le APU in 100W ti offrono una IGP più potente, ma una volta che ti fai un PC puoi sempre aggiungere una VGA discreta, la CPU quella è e quella rimane (a meno di non passare a un processore più potente).
Penso che la Intel usi GPU scarse anche per qeusto motivo: sa benissimo che le IGP vanno bene per chi non vuole giocare, chi vuole invece si affida ad una ben più prestante VGA discreta.
dipende dal tipo di carico che dai a questi core... esatto l'ideale è fare entrabem le cose...
Sì l'ideale è fare entrambe le cose, ma in ambito futuro conteranno, secondo me, più i core di elaborazione, in secondo piano l'ipc, che potrebbe diventare anche per modulo più che per core.
Non sono affatto d'accordo con il paragone... il lavoro di una gpu è ben diverso da quello di una cpu...
la prima tratta dati che per loro natura sono paralleli e scala bene all'aumentare del parallelismo, la seconda (in genere) su carico desktop tratta pochi dati paralleli e comunque risentirebbe della legge di amdahl http://it.wikipedia.org/wiki/Legge_di_Amdahl ossia scalerebbe malissimo rispetto ad una gpu per via dei dati e del codice trattato.
Ti riporto un intervista, a riguardo, di uno dei programmatori del già citato metro 2033, dove guarda caso fx va particolarmente bene.
PCGH: By now multi-core CPUs have become very popular and the number of players with such machines is rapidly increasing. Did you integrate multi-core support into the engine from the beginning?
Oles Shishkovstov: Yes, the engine was architected to be multi-threaded from the start. That's the only sensible route to go. You just cannot add multi-threading later in the development cycle or it will be horribly sub-optimal.
PCGH: How many core are supported and what is the expected performance gain from 2, 4 or even 8 cores?
Oles Shishkovstov: We support at least two cores, and up to whatever count you have. You should expect linear scaling with the number of cores, when you aren't GPU limited.
e infatti:
http://cdn5.tweaktown.com/content/4/3/4350_26_amd_fx_8150_bulldozer_gaming_performance_analysis.png
http://www.hardocp.com/images/articles/13201474041PaaGdw9mZ_5_4.gif
Per me pile sarà un'ottimizzazione sul lato consumi-clock, con qualcosa su ipc, l'ideale sarebbe il 10% in più di quest'ultimo e consumi sui 95W sui 4,5 ghz.
Penso che la Intel usi GPU scarse anche per qeusto motivo: sa benissimo che le IGP vanno bene per chi non vuole giocare, chi vuole invece si affida ad una ben più prestante VGA discreta.
esatto, e per i prossimi 10 anni anche...
Sì l'ideale è fare entrambe le cose, ma in ambito futuro conteranno, secondo me, più i core di elaborazione, in secondo piano l'ipc, che potrebbe diventare anche per modulo più che per core.
Ti riporto un intervista, a riguardo, di uno dei programmatori del già citato metro 2033, dove guarda caso fx va particolarmente bene.
e infatti:
http://cdn5.tweaktown.com/content/4/3/4350_26_amd_fx_8150_bulldozer_gaming_performance_analysis.png
http://www.hardocp.com/images/articles/13201474041PaaGdw9mZ_5_4.gif
Per me pile sarà un'ottimizzazione sul lato consumi-clock, con qualcosa su ipc, l'ideale sarebbe il 10% in più di quest'ultimo e consumi sui 95W sui 4,5 ghz.
Auspichiamo una riduzione dei consumi anche in idle, speriamo anzi che in caso di idle sia attivata la modalità "freno". In idle può bastare anche solo 1 GHz: la frequenza si alza se per più di 0.5 secondi la CPU sta al 100 %
carlottoIIx6
05-01-2012, 17:26
OT
Lascia perdere, è una battaglia persa.
Consiglio a tutti di leggere la recensione di Xbitlabs dalla quale si desume che l'efficenza (rapporto performance per watt) delle GPU Intel ed AMD è identica (confrontare i3-2125 ed A4-3300).
Lato CPU invece la situazione è nettamente a favore di Intel.
http://www.xbitlabs.com/articles/cpu/display/amd-fusion-intel-core-i3_8.html#sect0
Fine OT
non mi sembrano le giuste conclusioni!
prendiamo Core i3-2125 lato gpu, consuma 23,7W
prendiamo l'A8 8150 lato gpu consuma 51,7w
vediamo 3DMArk
il Core i3-2125 fa 1709
l'A8 8150 fa 4241
vediamo i rapporti
intel da circa 72
amd 82
questo vuol dire che l'efficenza è maggiore.
A la frequenza si alza se per più di 0.5 secondi la CPU sta al 100 %
Questo è un criterio che si puo applicare gia da adesso compilando il k._linux. Peccato che nella forma attuale sia utile come la terra senza ossigeno.
digieffe
05-01-2012, 17:39
Sì l'ideale è fare entrambe le cose, ma in ambito futuro conteranno, secondo me, più i core di elaborazione, in secondo piano l'ipc, che potrebbe diventare anche per modulo più che per core.
Ti riporto un intervista, a riguardo, di uno dei programmatori del già citato metro 2033, dove guarda caso fx va particolarmente bene.
e infatti:
http://cdn5.tweaktown.com/content/4/3/4350_26_amd_fx_8150_bulldozer_gaming_performance_analysis.png
http://www.hardocp.com/images/articles/13201474041PaaGdw9mZ_5_4.gif
Per me pile sarà un'ottimizzazione sul lato consumi-clock, con qualcosa su ipc, l'ideale sarebbe il 10% in più di quest'ultimo e consumi sui 95W sui 4,5 ghz.
intendevo dire un altra cosa... certo i core possono aumentare ed anche essere sfruttati ma a questo c'è un limite specialmente in codice x86 o ti ci si aspetta che un 8 core faccia 8x ed un 16 faccia 16x?
questi valori quasi ottimali si possono ottenere solo in casi specifici (rendering, ecc) in altri casi (la maggior parte) arriverà un punto in cui all'aumentare (dei core e quindi) dei thread le prestazioni caleranno...
spero di essermi saputo spiegare bene :)
per questo avevo messo il link a wikipedia, per sottolineare che a differenza delle gpu dove gli stream processors possono salire teoricamente all'infinito) nelle cpu non è così, o almeno nei carichi desktop, nei carichi server l'asticella è molto più alta ma c'è anche li...
EDIT: anche se in questo momento parteggio per amd (sperando in un minimo di concorrenza) preferisco ottenere gli stessi risultati con meno core (thread).
intendevo dire un altra cosa... certo i core possono aumentare ed anche essere sfruttati ma a questo c'è un limite specialmente in codice x86 o ti ci si aspetta che un 8 core faccia 8x ed un 16 faccia 16x?
questi valori quasi ottimali si possono ottenere solo in casi specifici (rendering, ecc) in altri casi (la maggior parte) arriverà un punto in cui all'aumentare (dei core e quindi) dei thread le prestazioni caleranno...
spero di essermi saputo spiegare bene :)
per questo avevo messo il link a wikipedia, per sottolineare che a differenza delle gpu dove gli stream processors possono salire teoricamente all'infinito) nelle cpu non è così, o almeno nei carichi desktop, nei carichi server l'asticella è molto più alta ma c'è anche li...
EDIT: anche se in questo momento parteggio per amd (sperando in un minimo di concorrenza) preferisco ottenere gli stessi risultati con meno core (thread).
Edè per questo che penso che in un futuro molto prossimo i vari programmi verranno parallelizzati ancor di più, ma portato verso la GPU.
mi viene un dubbio, se per quei processi parallelizzabili, si tenderà a elaborarli tramite gpu (diciamo così), ma per quei processi che non si possono parallelizzare come ha intenzione di metterci mano amd??
Penso e spero che aumenteranno anche l'ipc, siamo onesti ad oggi e sicuramente per altri 2 ann; una cpu con 1000 core, a livello casalingo non servirebbe a nulla e neanche in ambito workstation, a meno che sulla macchina non giri uno-due soft :D
mi viene un dubbio, se per quei processi parallelizzabili, si tenderà a elaborarli tramite gpu (diciamo così), ma per quei processi che non si possono parallelizzare come ha intenzione di metterci mano amd??
Penso e spero che aumenteranno anche l'ipc, siamo onesti ad oggi e sicuramente per altri 2 anni, una cpu con 1000€ core a livello casalingo non servirebbe a nulla e neanche in ambito workstation a meno che sulla macchina non giri uno-due soft :D
Se integrano la "gpu" a livello fpu risolvono buona parte dei problemi di ipc (da quel poco che ho capito l'fpu attuale di bd sembra essere il vero collo di bottiglia).
non direi ares, nel senso, sarebbero iper-competitivi (fingiamo che il softw. sia "pronto e funzionante") in mt, ma nei carichi single th?
Se non ricordo male non tutto è parallelizzabile, senza contare che c'è il problema del software che non mi sembri si adegui alla stessa velocità dell'hw...
non direi ares, nel senso, sarebbero iper-competitivi (fingiamo che il softw. sia "pronto e funzionante") in mt, ma nei carichi single th?
Se non ricordo male non tutto è parallelizzabile, senza contare che c'è il problema del software che non mi sembri si adegui alla stessa velocità dell'hw...
Che un'applicazione sia single o multi TH ha relativamente poca importanza.
Il cinebench ci mostra come l'ipc del singolo core varia al variare dei core usati e dai moduli.
Il maggior incremento si ha utilizzando un int per modulo. (la frequenza è minore che con l'utilizzo di 4 th su 2 moduli.
Se possibile sarebbe ideale utilizzare un software che faccio uso intenso delle unità int con pochissimo carico su fp e paragonarlo ad un i7.
AceGranger
05-01-2012, 18:58
non mi sembrano le giuste conclusioni!
prendiamo Core i3-2125 lato gpu, consuma 23,7W
prendiamo l'A8 8150 lato gpu consuma 51,7w
vediamo 3DMArk
il Core i3-2125 fa 1709
l'A8 8150 fa 4241
vediamo i rapporti
intel da circa 72
amd 82
questo vuol dire che l'efficenza è maggiore.
quindi prendi il punteggio di 3d Mark e lo confronti con i consumi ottenuti con FurMark :mbe: :sofico:
Ti riporto un intervista, a riguardo, di uno dei programmatori del già citato metro 2033, dove guarda caso fx va particolarmente bene.
mi devo essere perso qualcosa....
fa meno fps di una CPU che costa 60 euro in meno e che consuma meno e questo sarebbe "particolarmente bene" :eek:
paolo.oliva2
05-01-2012, 19:25
vero...
anche perchè qui se la CPU fosse stata clokkata a 4.5 gli esiti dei bench sarebbero stati differenti
http://www.guru3d.com/article/amd-fx-8150-processor-review/12
qui è abbastanza palese la cosa...a 4.6 ghz
e concordo con te sul fatto di piledriver...molti lo aspettano come la manna dal cielo...ma non penso che IPC in ST cambierà radicalmente....se non salgono di clock...
anche perchè si paragonano mele con pere...
Intel è talmente forte in ST che si può permettere di far processare 2 thread...
AMD ha scelto un'altra strada....raddoppiando le unità interne sugli interi....quindi non ci credo che miglioreranno talmente tanto in ST da raggiungere Intel...è fisicamente impossibile almeno IMHO
quello che penso possano fare è migliorare un po' IPC e salire di clock tale da essere saldamente meglio in multi
tra l'altro, ma qui sono ignorante io, pensi che risolvendo i problemi di PP tirino su di 1 GHZ??? Non è poco 1 GHZ...
o altra strada, aggiungono un altro modulo...quindi 10 thread...ma qui siamo in fantainformatica :D però in multi sarebbe una bella botta..
vedremo gli sviluppi e la nuova dirigenza che vorrà fare.....AMD penso che sicuramente conosca i limiti di BD....quindi nei prossimi mesi riusciremo a capire che hanno intenzione di fare...e se loro stessi la considerano un'architettura valida quindi da sviluppare oppure no...
Guarda... io faccio quersto ragionamento su questa base: ho un i5 M430 2,27/2,533 su un portatile e confrontandolo con il mio Llano sempre portatile posso dire che in ST li5 vince, ma nellMT e/o fluidità del sistema Llano è superiore e confrontando i consumi, Llano aveva unautnomia di gran lunga superiore.
Il problema è che il portatile ha clock bassi per via della priorità a consumi bassi, e su questo a me sembra che il 32nm SOI non abbia nulla da invidiare al 32nm Intel e tutto sommato larchitettura Phenom II a parità di TH con Intel ma con il vantaggio del doppio dei core fisici puo reggere il confronto.
Il problema è che il 32nm SOI ha consumi accettabili fino a 3GHz con il core Stars e BD, che doveva garantire con la nuova architettura consumi inferiori e di qui clock superiori che, secondo me, dovevano portare un vantaggio superiore rispetto allIPC inferiore, sono di per sè un miraggio.
Secondo me la situazione AMD è simile a quella Intel con il P4, ma molto differente, perchè Intel doveva raggiungere i 10GHz e si fermo a 4GHz scarsi, AMD è a 3,6GHz e sarebbe già competitiva a 4,5GHz.
Per il discorso numero dei core e potenza ST... ad esempio BD X16 Server a fronte di un meno 50% di frequenza 2,4GHz contro 3,6GHz di un 8150, ha comunque il 100% in più di core.
Cioè... il discorso gira che gira è sempre li... Piledriver probabilmente inserirà un Pstate turbo pure agli ultimi 2 core... ma cosa cambierebbe avere un 5% in più di IPC e 300MHz in più sulla frequenza più alta...
certo, sarebbe meglio ma non risolverebbe nulla.
Il CMT per essere vincente con lSMT deve avere queste caratteristiche:
una frequenza Turbo massima su 2 core percentualmente simile/leggermente inferiore allIPC ST inferiore.
Per lMT equivale lo stesso concetto, più a vantaggio di AMD perchè il CMT comunque permette una scalabilità migliore sul numero di core a procio rispetto al TDP. Cioè... proporre un 10120, cioè un X10 a clock inferiori dell8150 in ambito desktop, sarebbe inutile, diverso un X10 a 4,2GHz rispetto ad un X8 a 4,5GHz.
La medicina sarebbe questa... io onestamente non boccio larchitettura BD perchè per me le responsabilità sono ben maggiori sul silicio... ma comunque il prodotto commercializzato è architettura+silicio e quello rimane.
AMD non puo fare nulla, secondo me, a livello architetturale perchè i tempi per un intervento profondo sullarchitettura non ci sono visto che comunque nel giro di 3 o 4 anni al max le APU con IGP in grado di affiancarsi ai core della CPU nellelaborazione dati diventeranno una realtà e il discorso IPC perderà ogni significato...
Guarda... io faccio quersto ragionamento su questa base: ho un i5 M430 2,27/2,533 su un portatile e confrontandolo con il mio Llano sempre portatile posso dire che in ST li5 vince, ma nellMT e/o fluidità del sistema Llano è superiore e confrontando i consumi, Llano aveva unautnomia di gran lunga superiore.
Il problema è che il portatile ha clock bassi per via della priorità a consumi bassi, e su questo a me sembra che il 32nm SOI non abbia nulla da invidiare al 32nm Intel e tutto sommato larchitettura Phenom II a parità di TH con Intel ma con il vantaggio del doppio dei core fisici puo reggere il confronto.
Il problema è che il 32nm SOI ha consumi accettabili fino a 3GHz con il core Stars e BD, che doveva garantire con la nuova architettura consumi inferiori e di qui clock superiori che, secondo me, dovevano portare un vantaggio superiore rispetto allIPC inferiore, sono di per sè un miraggio.
Secondo me la situazione AMD è simile a quella Intel con il P4, ma molto differente, perchè Intel doveva raggiungere i 10GHz e si fermo a 4GHz scarsi, AMD è a 3,6GHz e sarebbe già competitiva a 4,5GHz.
Per il discorso numero dei core e potenza ST... ad esempio BD X16 Server a fronte di un meno 50% di frequenza 2,4GHz contro 3,6GHz di un 8150, ha comunque il 100% in più di core.
Cioè... il discorso gira che gira è sempre li... Piledriver probabilmente inserirà un Pstate turbo pure agli ultimi 2 core... ma cosa cambierebbe avere un 5% in più di IPC e 300MHz in più sulla frequenza più alta...
certo, sarebbe meglio ma non risolverebbe nulla.
Il CMT per essere vincente con lSMT deve avere queste caratteristiche:
una frequenza Turbo massima su 2 core percentualmente simile/leggermente inferiore allIPC ST inferiore.
Per lMT equivale lo stesso concetto, più a vantaggio di AMD perchè il CMT comunque permette una scalabilità migliore sul numero di core a procio rispetto al TDP. Cioè... proporre un 10120, cioè un X10 a clock inferiori dell8150 in ambito desktop, sarebbe inutile, diverso un X10 a 4,2GHz rispetto ad un X8 a 4,5GHz.
La medicina sarebbe questa... io onestamente non boccio larchitettura BD perchè per me le responsabilità sono ben maggiori sul silicio... ma comunque il prodotto commercializzato è architettura+silicio e quello rimane.
AMD non puo fare nulla, secondo me, a livello architetturale perchè i tempi per un intervento profondo sullarchitettura non ci sono visto che comunque nel giro di 3 o 4 anni al max le APU con IGP in grado di affiancarsi ai core della CPU nellelaborazione dati diventeranno una realtà e il discorso IPC perderà ogni significato...
Paolo guarda che un p4 cloccato a 4 ghz era una bella cpu, se cloccata a 10 ghz direbbe ancora la sua.
Che un'applicazione sia single o multi TH ha relativamente poca importanza.
Il cinebench ci mostra come l'ipc del singolo core varia al variare dei core usati e dai moduli.
Il maggior incremento si ha utilizzando un int per modulo. (la frequenza è minore che con l'utilizzo di 4 th su 2 moduli.
Se possibile sarebbe ideale utilizzare un software che faccio uso intenso delle unità int con pochissimo carico su fp e paragonarlo ad un i7.
non sono d'accordo, se il soft. sfruttasse al massimo 2 thread, avere molti moduli non servirebbe a nulla, ne basterebbe uno con ipc alto appunto. In cinebench è vero, la somma dei core determina il totale, ma avere un ipc troppo basso rende impossibile essere competitivi...semplicemente perchè più si scende di ipc, più "core" ci vogliono, e energeticamente parlando non è sempre conveniente...
non sono d'accordo, se il soft. sfruttasse al massimo 2 thread, avere molti moduli non servirebbe a nulla, ne basterebbe uno con ipc alto appunto. In cinebench è vero, la somma dei core determina il totale, ma avere un ipc troppo basso rende impossibile essere competitivi...semplicemente perchè più si scende di ipc, più "core" ci vogliono, e energeticamente parlando non è sempre conveniente...
concordo quindi l'errore di base è stato puntare su un ipc troppo basso credendo di poter raggiumgere frequenze stratosferiche rimaste solo sulla carta...
mi chiedo poi se sia davvero possibile dare tutta la colpa al pp e non cosiderare che la cpu possa non salire per limiti architetturali..
pensate al p4.intel credeva sul serio di poterlo spingere a 10 ghz ma probabilmente non ci arriverebbe neanche con i 22nm
carlottoIIx6
05-01-2012, 20:16
quindi prendi il punteggio di 3d Mark e lo confronti con i consumi ottenuti con FurMark :mbe: :sofico:
l'importante che siano proporzionali
concordo quindi l'errore di base è stato puntare su un ipc troppo basso credendo di poter raggiumgere frequenze stratosferiche rimaste solo sulla carta...
mi chiedo poi se sia davvero possibile dare tutta la colpa al pp e non cosiderare che la cpu possa non salire per limiti architetturali..
pensate al p4.intel credeva sul serio di poterlo spingere a 10 ghz ma probabilmente non ci arriverebbe neanche con i 22nm
Anche se ci fa ricordare p4, non è l'identico caso quello di bd.
l'importante che siano proporzionali
Proporzionato a cosa ?
Bisognerebbe vedere in che calibro furmark stressa la cpu rispetto 3dmark, i valori dei cosumi potrebbero essere diversi a tal punto da non avere proprio un elemento minimo di paragone da poterlo definire in maniera proporzionale.
shellx, ricorda il p4 è vero, ma il cmt di amd, alla lunga non sarà fallimentare, secondo me, anzi... :)
Certo che da uno che insegna fisica ti aspetti un qualche rigore mentale riguardo agli errori sistematici
no no, di solito mi aspetto coerenza
shellx, ricorda il p4 è vero, ma il cmt di amd, alla lunga non sarà fallimentare, secondo me, anzi...
Ma infatti per me l'architettura bd oltre che qualche rettifica non ha nulla di fallimentare, vedo l'approccio cmt la scelta giusta. E' il pp che puzza di pecorino marcio.
Paolo guarda che un p4 cloccato a 4 ghz era una bella cpu, se cloccata a 10 ghz direbbe ancora la sua.
Il Pentium 4 32 bit aveva un IPC del 30 % inferiore al Pentium 3, quindi a 10 Ghz equivaleva ad un Pentium 3 7692 MHz (se avesse avuto le stesse istruzioni). Il Core Duo (non il Core 2 Duo) era un Pentium 3 dual core con le nuove istruzioni in pratica, pertanto un Pentium 4 sarebbe andato come un CoreDuo a 3846 MHz; supponendo che il Core2duo era del 10 % migliore, siamo ai livelli di un Core2duo a 3500 MHz e quindi di un Athlon II X 2 di pari frequenza: direbbe la sua, ma sarebbe decisamente lontano da Sandy Bridge e dai Phenom II più performanti.
Se Piledriver raggiungerà l'IPC del Phenom II, con 8 core e frequenze maggiori potrebbe almeno recuperare il gap con l'i7 2700k. Se non dovesse consumare più di 95 watt e il suo costo dovesse essere inferiore a 200 € sarebbe comunque buono.
il processo produttivo effettivamente qualche problema deve averlo, ma credo dovranno anche sistemare qualche altro difettuccio per darci ciò che bd sarebbe dovuto essere :)..
Sui consumi sono comunque fiducioso e molto già con pd, se tolgono il surplus inutile, magari arriviamo ai livelli di sb :D
Eh ma quando una CPU e' sul mercato oggi la valuti per quanto da su quanto c'e' oggi, perche' quando saremo a domani il mercato sara' diverso e sicuramente non dovrai fare confronti con i prodotti di oggi.
Se non hanno capito falliranno togliendoci ogni problema di scelta perche' l'entry point delle cpu sara' intorno a 800$.
ma :sofico: :sofico: ma lol!!!! estrapoli a tuo piacimento una frase nella quale giusto proprio di seguito ho detto che adesso il mercato offre questo e per cui ci si deve basare su questo.... e tu mi ammonisci con tue considerazioni quando sono stato io il primo a dirle? Prima leggere bene, poi rispondere altrettanto bene grazie :)
APU Llano vedono con il binocolo qualsiasi igp intel da qui alla notte dei tempi, AMD ha la serie 5 dentro e intel la serie 3, e che AMD cosa fà vende la serie 7 a intel da domani e loro tengono la 5???
Llano è pensato per sistemi portatili basso consumo, factotum, non interessano le prestazioni pure, anche perché un sistema Llano è basso costo, e con solo il processore ci fai tutto e ci giochi ampiamente bene su tutti i 15", un pò meno bene sui 17", ma per 9-10 dell'utenza portatile basta e avanza, basta solo avere l'accortezza di accoppiarci memorie tirate in frequenza per aumentare la banda passante a tutto vantaggio dei frame...... Llano desktop è un altro paio di maniche ma senza dubbio è pensato per il mondo HTPC, non certo per pc desktop alte prestazioni.....
cocco, non solo desktop, llano lo vedo bene anche su pc da ufficio e non solo...diciamo che "teoricamente" llano sarebbe la piattaforma non "super" ma che basta per qualunque utente base e medio...la vera domanda è: che utilità ha bd x4 ;) visto che bd doveva essere la fascia "top"
AceGranger
05-01-2012, 21:43
l'importante che siano proporzionali
e chi ti dice che entrambe le schede video si comportino nello stesso modo con entrambi i programmi ?
nessuno fa i calcoli dell'efficienza cosi, è paragonare mele con pere; va controllato il consumo con ogni sessione separatamente.
carlottoIIx6
05-01-2012, 21:54
e chi ti dice che entrambe le schede video si comportino nello stesso modo con entrambi i programmi ?
nessuno fa i calcoli dell'efficienza cosi, è paragonare mele con pere; va controllato il consumo con ogni sessione separatamente.
sto paragonando un bech che stressa la gpu al massimo e quindi che dice il consumo massimo, e uno che ci dovrebbe dire le prestazioni massime.
in questo massimo sta la chiave della validità del dato.
naturalmente potreste anche non crederci e fare altri rapporti, fatto sta che a me la gpu amd sembra più efficente e che non si può in nessun modo dai test citati affermare il contrario, che è quello che sostenete voi (e davate per dogma incontestabile).
secondo me avete un concetto in testa, intel meglio, e come quando uno si fa una impressione su uno che conosce e poi non la cambia mai.
AceGranger
05-01-2012, 22:26
sto paragonando un bech che stressa la gpu al massimo e quindi che dice il consumo massimo, e uno che ci dovrebbe dire le prestazioni massime.
in questo massimo sta la chiave della validità del dato.
naturalmente potreste anche non crederci e fare altri rapporti, fatto sta che a me la gpu amd sembra più efficente e che non si può in nessun modo dai test citati affermare il contrario, che è quello che sostenete voi (e davate per dogma incontestabile).
secondo me avete un concetto in testa, intel meglio, e come quando uno si fa una impressione su uno che conosce e poi non la cambia mai.
in realta credo anche io che la gpu di Llano sia piu efficiente ;)
è il modo di calcolo che hai usato su cui non concordo, che è sbagliato.
Guarda... io faccio quersto ragionamento su questa base: ho un i5 M430 2,27/2,533 su un portatile e confrontandolo con il mio Llano sempre portatile posso dire che in ST li5 vince, ma nellMT e/o fluidità del sistema Llano è superiore e confrontando i consumi, Llano aveva unautnomia di gran lunga superiore.
Il problema è che il portatile ha clock bassi per via della priorità a consumi bassi, e su questo a me sembra che il 32nm SOI non abbia nulla da invidiare al 32nm Intel e tutto sommato larchitettura Phenom II a parità di TH con Intel ma con il vantaggio del doppio dei core fisici puo reggere il confronto.
Il problema è che il 32nm SOI ha consumi accettabili fino a 3GHz con il core Stars e BD, che doveva garantire con la nuova architettura consumi inferiori e di qui clock superiori che, secondo me, dovevano portare un vantaggio superiore rispetto allIPC inferiore, sono di per sè un miraggio.
Secondo me la situazione AMD è simile a quella Intel con il P4, ma molto differente, perchè Intel doveva raggiungere i 10GHz e si fermo a 4GHz scarsi, AMD è a 3,6GHz e sarebbe già competitiva a 4,5GHz.
Per il discorso numero dei core e potenza ST... ad esempio BD X16 Server a fronte di un meno 50% di frequenza 2,4GHz contro 3,6GHz di un 8150, ha comunque il 100% in più di core.
Cioè... il discorso gira che gira è sempre li... Piledriver probabilmente inserirà un Pstate turbo pure agli ultimi 2 core... ma cosa cambierebbe avere un 5% in più di IPC e 300MHz in più sulla frequenza più alta...
certo, sarebbe meglio ma non risolverebbe nulla.
Il CMT per essere vincente con lSMT deve avere queste caratteristiche:
una frequenza Turbo massima su 2 core percentualmente simile/leggermente inferiore allIPC ST inferiore.
Per lMT equivale lo stesso concetto, più a vantaggio di AMD perchè il CMT comunque permette una scalabilità migliore sul numero di core a procio rispetto al TDP. Cioè... proporre un 10120, cioè un X10 a clock inferiori dell8150 in ambito desktop, sarebbe inutile, diverso un X10 a 4,2GHz rispetto ad un X8 a 4,5GHz.
La medicina sarebbe questa... io onestamente non boccio larchitettura BD perchè per me le responsabilità sono ben maggiori sul silicio... ma comunque il prodotto commercializzato è architettura+silicio e quello rimane.
AMD non puo fare nulla, secondo me, a livello architetturale perchè i tempi per un intervento profondo sullarchitettura non ci sono visto che comunque nel giro di 3 o 4 anni al max le APU con IGP in grado di affiancarsi ai core della CPU nellelaborazione dati diventeranno una realtà e il discorso IPC perderà ogni significato...
quoto quanto dici...e sono convinto anche io che l'architettura BD è concettualmente valida....altrimenti non me lo sarei comprato....hanno sicuramente sacrificato troppo IPC ST per favorire il CMT...ma vedremo con gli sviluppi futuri che faranno....se salgono di clock..allora le cose potrebbero cambiare...
migliorerà sicuramente l'architettura, concettualmente il cmt è valido, basta alzare un pò l'ipc a scapito delle frequenze (ricordiamoci che quest'ultime dipendono moilto dal silicio, quindi le vedo un valore aggiunto, ma non una fattore determinante in fase di progettazione); il cmt dovrebbe avere molti più "core" per essere competitivo se l' ipc è troppo basso ma questo è difficile se vogliono tenere dei consumi umani...una cosa è certa, amd migliorerà e parecchio, di certo non cestinano il progetto e di questo ne son sicuro, concettualmente è troppo valido!!
blackshard
05-01-2012, 23:24
sto paragonando un bech che stressa la gpu al massimo e quindi che dice il consumo massimo, e uno che ci dovrebbe dire le prestazioni massime.
in questo massimo sta la chiave della validità del dato.
None. Non puoi fare così, o almeno non aspettarti nulla di realistico.
Come dice AceGranger, ogni carico ha un suo profilo, altrimenti furmark non verrebbe chiamato "power virus" in relazione alle schede video.
Non dico che hai torto, ma nemmeno puoi dire di aver ragione. Semplicemente partendo da quei dati (performance su 3dmark e consumi su furmark), non puoi sperare di tirare fuori le performance su watt (cioè *efficienza*) in modo preciso.
secondo me avete un concetto in testa, intel meglio, e come quando uno si fa una impressione su uno che conosce e poi non la cambia mai.
Beh io non ho mai detto intel meglio a prescindere. Ma adesso intel meglio senza dubbio. Prima intel aveva cpu potenti e grafica scadente, ed era sbilanciata verso la CPU, ora AMD ha gpu potenti ma cpu al livello di 4-5 anni fa ed è fortemente sbilanciata verso la GPU.
Con tutto che intel nella grafica bara un po' sui filtri, i numeri sui consumi della recensione di xbitlabs sono chiari ed evidenti, c'è poco da fare. Magari nei desktop è meno evidente, ma su un notebook avere CPU quad-core a 1.5 ghz (o dual core a 2.1 ghz) oggi è anacronistico.
paolo.oliva2
05-01-2012, 23:34
migliorerà sicuramente l'architettura, concettualmente il cmt è valido, basta alzare un pò l'ipc a scapito delle frequenze (ricordiamoci che quest'ultime dipendono moilto dal silicio, quindi le vedo un valore aggiunto, ma non una fattore determinante in fase di progettazione); il cmt dovrebbe avere molti più "core" per essere competitivo se l' ipc è troppo basso ma questo è difficile se vogliono tenere dei consumi umani...una cosa è certa, amd migliorerà e parecchio, di certo non cestinano il progetto e di questo ne son sicuro, concettualmente è troppo valido!!
Comunque tutto dipende dai tempi di reazione AMD/GF e sinceramente su questo cè da sperare poco. Che non si faccia la fine del Phenom...
Phenom I architettura valida, silicio 65nm orrendo... procio castrato, il tempo passa, Phenom II, step C2, C3 ed alla fine il Thuban.
Il problema era che a parità di miniaturizzazione silicio, entrambi 45nm, il Phenom II C3 ed il Thuban X6 potevano dire la loro vs Core2Q e/o I7, diverso con Intel già sul 32nm.
Se AMD/GF non accelerano i tempi di risposta, ritrovarsi BD e 32nm rodato ma con Intel sul 22nm, ci sarebbe poco da sperare.
Comunque l8150 ha delle caratteristiche def distanti anni luce da un procio che doveva arrivare a 5GHz def almeno come max frequenza Turbo. LRS lo si perde già prima dei 5GHz e dai 3,2GHz vociferati di clock NB/L3, ci si ferma a 2,2GHz e addirittura lo si occa di meno di un Thuban.
Io ancora non sono riuscito a capire se lo step B2g è ULK compreso o assente... :D
Comunque io reputo giusta la mia idea... Se AMD riuscirà a potenziare il suo BD tanto da posizionarlo sopra il socket 1155 32nm, per me sarebbe una valida alternativa a SBe, per uso hobbistico/smanettamento, caso contrario... mi butto su un SBe X6 :D. Tanto prima di marzo non posso acquistare una mazza... quindi non ho nessuna scimmia.
Eh ma quando una CPU e' sul mercato oggi la valuti per quanto da su quanto c'e' oggi, perche' quando saremo a domani il mercato sara' diverso e sicuramente non dovrai fare confronti con i prodotti di oggi.
Se non hanno capito falliranno togliendoci ogni problema di scelta perche' l'entry point delle cpu sara' intorno a 800$.
Io ho detto la stessa cosa nel post dal quale hai estrapolato questa frase, quindi non capisco la ragione di ribadirmi il concetto come se non lo sapessi, quando sono stato io il primo a dirlo...... :read:
non sono d'accordo, se il soft. sfruttasse al massimo 2 thread, avere molti moduli non servirebbe a nulla, ne basterebbe uno con ipc alto appunto. In cinebench è vero, la somma dei core determina il totale, ma avere un ipc troppo basso rende impossibile essere competitivi...semplicemente perchè più si scende di ipc, più "core" ci vogliono, e energeticamente parlando non è sempre conveniente...
Guarda che io ho portato l'esempio del cinebench per far notare come l'ipc del singolo core aumenti con il diminuire del carico fp, quindi non è così semplice dire che l'ipc del core int è estremamente basso.
Mi ripeto, una logica di gestione dell'fpu migliore unita ad una fpu-apu più performante potrebbe far aumentare l'ipc sul singolo core in modo marcato, il tutto senza stravolgere l'architettura che sta alla base della nuova cpu.
Il Pentium 4 32 bit aveva un IPC del 30 % inferiore al Pentium 3, quindi a 10 Ghz equivaleva ad un Pentium 3 7692 MHz (se avesse avuto le stesse istruzioni). Il Core Duo (non il Core 2 Duo) era un Pentium 3 dual core con le nuove istruzioni in pratica, pertanto un Pentium 4 sarebbe andato come un CoreDuo a 3846 MHz; supponendo che il Core2duo era del 10 % migliore, siamo ai livelli di un Core2duo a 3500 MHz e quindi di un Athlon II X 2 di pari frequenza: direbbe la sua, ma sarebbe decisamente lontano da Sandy Bridge e dai Phenom II più performanti.
Tranne che da northwood a prescot che c'è stato una leggera flessione di ipc con alcune istruzioni a causa della cache maggiore ma con maggiori latenze, l'ipc del pentium 4 ha subito miglioramenti costanti (nelle diverse implementazioni.
Ti ricordo anche che il Pentium 4 con la serie d 9xx aveva a disposizione 2 core (e non 1) con ht e che quindi per pareggiare le sue ipotetiche prestazioni a 10 GHZ un core duo avrebbe avuto la necessita di essere cloccato ad almeno 7 ghz.
Il problema maggiore del p4 era il tpd e non l'ipc.
Ps non credi che se a 90 nm erano 2 core con ht a 32 nm avrebbero potuto essere 6-8?
Guarda che io ho portato l'esempio del cinebench per far notare come l'ipc del singolo core aumenti con il diminuire del carico fp, quindi non è così semplice dire che l'ipc del core int è estremamente basso.
Mi ripeto, una logica di gestione dell'fpu migliore unita ad una fpu-apu più performante potrebbe far aumentare l'ipc sul singolo core in modo marcato, il tutto senza stravolgere l'architettura che sta alla base della nuova cpu.
Tranne che da northwood a prescot che c'è stato una leggera flessione di ipc con alcune istruzioni a causa della cache maggiore ma con maggiori latenze, l'ipc del pentium 4 ha subito miglioramenti costanti (nelle diverse implementazioni.
Ti ricordo anche che il Pentium 4 con la serie d 9xx aveva a disposizione 2 core (e non 1) con ht e che quindi per pareggiare le sue ipotetiche prestazioni a 10 GHZ un core duo avrebbe avuto la necessita di essere cloccato ad almeno 7 ghz.
Il problema maggiore del p4 era il tpd e non l'ipc.
Ps non credi che se a 90 nm erano 2 core con ht a 32 nm avrebbero potuto essere 6-8?
Il Pentium D non l'ho considerato, perché mi riferivo al Pentium 4 single core. Certo si potrebbero fare 6-8 core Pentium IV a 32 nm (e magari 10 a 22 nm): il discorso cambierebbe, ma dovremo fare lo stesso discorso che abbiamo fatto per Bulldozer: troppi core non servono al 90 % degli utenti.
carlottoIIx6
06-01-2012, 10:01
cut
BD e 32nm rodato ma con Intel sul 22nm, ci sarebbe poco da sperare.
Comunque l8150 ha delle caratteristiche def distanti anni luce da un procio che doveva arrivare a 5GHz def almeno come max frequenza Turbo. LRS lo si perde già prima dei 5GHz e dai 3,2GHz vociferati di clock NB/L3, ci si ferma a 2,2GHz e addirittura lo si occa di meno di un Thuban.
cut
perchè non ci dici le tue impressioni "pratiche" sull'8150
tu hai avuto il 1100 ma anche phenom x4.
dove noti un guadagno dove non noti nulla dove perde? solo impressioni nell'uso comune, non test.
mi devo essere perso qualcosa....
fa meno fps di una CPU che costa 60 euro in meno e che consuma meno e questo sarebbe "particolarmente bene"
Che i consumi, come ho sempre detto, siano attualmente il grande problema di BD non lo metto in dubbio, io parlavo di un titolo pensato da principio per essere multi e dei risultati che si ottengono, che permetti a 4,6 quasi pareggiare un 2500K a 4,8 è un ottimo risultato penso sia indubbio, visto che se si sposta il confronto sui titoli che sfruttano 2 core i risultati sono ben differenti, senza contare che il motore di metro 2033 è stato sviluppato senza minimamente considerare l'architettura a moduli di BD che ancora non esisteva.
Poi il mio era un esempio di come la parallelizzazione possa pagare.
AceGranger
06-01-2012, 11:12
Che i consumi, come ho sempre detto, siano attualmente il grande problema di BD non lo metto in dubbio, io parlavo di un titolo pensato da principio per essere multi e dei risultati che si ottengono, che permetti a 4,6 quasi pareggiare un 2500K a 4,8 è un ottimo risultato penso sia indubbio, visto che se si sposta il confronto sui titoli che sfruttano 2 core i risultati sono ben differenti, senza contare che il motore di metro 2033 è stato sviluppato senza minimamente considerare l'architettura a moduli di BD che ancora non esisteva.
Poi il mio era un esempio di come la parallelizzazione possa pagare.
ok, tralasciamo i consumi, ma non mi sembra comunque un buon risultato che una CPU da 250 euro portata a 4.6, stia sotto a una CPU da 190 a 4.8.... si ok, migliorano le cose rispetto ad avere 1 o 2 core impiegati, ma anche in questo caso non è che faccia bella figura, e la parallelizzazione non paga comunque visto che l'altra CPU ha 4 core....
BD ha problemi anche in MT, basta guardare i motori di render, dove non ce ne è uno dove vada bene, e quelli sono notoriamente MT spinti.
Sinceraemnte ha troppi problemi per dare la colpa al software o al SO, a me pare che non sia un'architettura a 360°, come invece una CPU dovrebbe essere; oramai PD fara quello che porta fare e spero vivamente che con la successiva cambino strada.
io ho preso a fine novembre un 8120 , appena montato subitissimo messo a lavorare(come tutti gli amd che ho avuto), 20 giorni a giocare ,ininterrotamente (provato anche con in più 2 compressioni da 17 gb ciascuno e scansione comodo, in contemporanea), ...nessun riavvio ...nessun blocco ...col dissipatore stock.
poi ,sempre a STOCK(ovviamente la ventola girava alla velocita della luce sottogioco,ma si avverte che non esiste la ben piu minima preoccupazione) ho alzato il clock (via moltiplicatore)con amdoverdrive,prima a 3,4 ghz e poi 3,8ghz(a quest'ultima frequenza appenasettato qualche problemino,non di riavvio ,ma di ''strane'' confusioni fra i core(senza bloccarsi,ovvio),ma tornava assestandosi,eccome, in campo di battaglia )
cioè ,non è velocissimo ,ma si cala tutto quello che gli dai; dopo ho cambiato ventola con una da 8cm appattata con le viti al telaio di plastica sopra il dissipatore stock, e ho titato fino ai 4 giga e poi giocare ancora...
per il prezzo che ho speso non posso dire che non sia stato promosso da me come processore ,anzi, a parte il ''difettuccio''di infanzia su una applicazione in cui mi fa solo 5,o6 stock!
IN SINTESI bulldozer lavora proprio come un bulldozer e fin tanto che non li riempi,caricandolo con che si voglia, non piu del 65-70% I CORE(ad occhio con il cpu meter gadget)'
ancora ci si può giocare tranquillamente, senza scatti e nulla....e il gioco continua.
6770 settato tutto al max su un 17'' SyncMaster 710V a 1280 x 1024!
stock in idle temperature(speedfan)tra i 36-42);sempre stock con ventola da 8 cm(non termoregolata,solo 3 pin)in idle intorno ai 28-32 gradi
PS. quando mettevo qualsiasi gioco (con alt+tab) in pausa ,mai chiuso durante l'uso-test-game di bulldozer, sulla barra del gadget di cpumeter SOLO su un core si trasferiva il carico al 100% sempre fisso ,ma gli altri 7 core era addormentatissimi....praticamente come se non ci fosse ,e non mi è mai successo che dal core si diluiva su altri core ,sempre 1 solo e al 100%.
a me di vedere o immaginare un bulldozerx8 piu veloce del 20%(o più) di quello di oggi non mi interessa,PIUTTOSTO che avere anche solo il 15 % piu veloce ma con una scheda video dentro al processore(e perchè no, mi accontenterei dell'6770,ma secondo me amd sa molto bene cosa fare con le apu, si tratta solo di aspettare)
a me basterebbero 8 core(ritoccati) + quad-channel memory + un numero ''X'' di stream processor =
''Miraculously all in the same die'':read:
carlottoIIx6
06-01-2012, 12:55
io ho preso a fine novembre un 8120 , appena montato subitissimo messo a lavorare(come tutti gli amd che ho avuto), 20 giorni a giocare ,ininterrotamente (provato anche con in più 2 compressioni da 17 gb ciascuno e scansione comodo, in contemporanea), ...nessun riavvio ...nessun blocco ...col dissipatore stock.
cut
a me di vedere o immaginare un bulldozerx8 piu veloce del 20%(o più) di quello di oggi non mi interessa,PIUTTOSTO che avere anche solo il 15 % piu veloce ma con una scheda video dentro al processore(e perchè no, mi accontenterei dell'6770,ma secondo me amd sa molto bene cosa fare con le apu, si tratta solo di aspettare)
a me basterebbero 8 core(ritoccati) + quad-channel memory + un numero ''X'' di stream processor =
''Miraculously all in the same die'':read:
grazie per la prova su campo.
speriamo di raccogliere altre impressioni.
da questa testimonianza non mi sembra "che ci sia da piangere" come si diceva.
io sto aspettando il 6200... ma mi pare un'attesa lunghina xD
avere anche solo il 15 % piu veloce ma con una scheda video dentro al processore(e perchè no, mi accontenterei dell'6770
per quanto mi riguarda: ma anche no, non me ne faccio niente delle briciole di performance e di una scheda video dentro, se voglio giocare la scheda video la compro a parte. Se mi parli come diceva prima Ares17 di avere una logica di gestione fpu affiancata ad una fpu-apu allora posso anche venirti incontro, visto che è un concetto piu genuino e soprattutto verosimile e privo di fanta-informatica. Ma senza offesa avere il chip video dentro la cpu solo per soddisfare la menata di avere tutto dentro un chip è praticamente inutile. Io voglio potenza di calcolo e no il chip all in one. Per me le apu attuali sono ottime cpu ma sono dei giocattolini per bambini brufolosi.
ma secondo me amd sa molto bene cosa fare con le apu, si tratta solo di aspettare) a me basterebbero 8 core(ritoccati) + quad-channel memory + un numero ''X'' di stream processor =
''Miraculously all in the same die'':read:
e allora ai voglia da aspettare....
quad channel ? 6670 dentro la cpu ? ma lol per miracolo ha attualmente il dual channel amd e te mi parli di quad channel ?
ne hai da aspettare, di tutto cio che citi ogni volta, alle porte non c'è niente, se no un' altra apu (trinity) revisionata da llano, ossia un altro giocattolino utile per gli uffici e per i giocatori casual brufolosi. Quella specie di cpu (llano trinity e a venire) se non li accoppi ad una o piu schede video discreta con le palle no hanno la minima idea di cosa significhi calcolo pesante grafico, rendering, editing video, 3d bruto, e extreme ma anche hard gaming.
Il miracolo non è scritto da nessuna parte, rimane solo appunto un miracolo attuale ed una possibilita molto lontanissima, per la quale tu ci stai dando troppo peso e speranze, ma bada che rischi di rimanerci deluso.
Intel ha capito che la potenza deve essere prima di tutto sulle cpu, ecco perchè il 2600k ha si la gpu integrata, ma la cpu è mooooooolto piu potente delle apu amd, e piu veloce perfino di BD. Intel ha capito che se vuoi giocare ti comprila scheda video. Sicuramente negli anni implementeranno sempre piu un video perfomante, ma la potenza di elaborazione cpu è fondamentale.
Amd ce la mena con le apu, perchè con il fatto che le sue schede video sono le piu potenti (e su questo non si discute) se la gioca sul fatto che sui suoi llano (che poi gia il nome mi fanno ricordare un dito al culo) c'è la potenza video di amd. Si certo, peccato che per le prestazioni che hanno consumano da fare schifo, e sono ottusi di clock come un ubriaco fracido. Ma ci sta pure che sono destinati per il 50% ai notebook, per cui ok, ma appunto per questo motivo, sono fuori dalla mia portata.
Odio i notebook io ;) Odio i surrogati, gli accrocchi, gli all in one. Sono soluzioni buoni solo per dispositivi mobili. Per cpu desktop/workstation, ci vuole potenza bruta. E una apu presente e futura non potra soddisfare tali requisiti.
Tu giochi con un 17 pollici 1280x1024 ecco perchè ti va bene una apu. Vallo a raccontare ad un giocatore esigente di avere una scheda video accrocchiata ad una cpu, vedi cosa ti risponde.
E non gli dire che fra un paio di anni ci saranno le hd8990 da 500 euro gia integrate nella cpu, perchè rischi uno sputo a suon di cammello. La scheda video discreta è e sarà per i prossimi 10 anni fondamentale.
carlottoIIx6
06-01-2012, 14:45
cut
e allora ai voglia da aspettare....
quad channel ? 6670 dentro la cpu ? ma lol per miracolo ha attualmente il dual channel amd e te mi parli di quad channel ?
ne hai da aspettare, di tutto cio che citi ogni volta, alle porte non c'è niente, se no un' altra apu (trinity) revisionata da llano, ossia un altro giocattolino utile per gli uffici e per i giocatori casual brufolosi. Quella specie di cpu (llano trinity e a venire) se non li accoppi ad una o piu schede video discreta con le palle no hanno la minima idea di cosa significhi calcolo pesante grafico, rendering, editing video, 3d bruto, e extreme ma anche hard gaming.
Il miracolo non è scritto da nessuna parte, rimane solo appunto un miracolo attuale ed una possibilita molto lontanissima, per la quale tu ci stai dando troppo peso e speranze, ma bada che rischi di rimanerci deluso.
Intel ha capito che la potenza deve essere prima di tutto sulle cpu, ecco perchè il 2600k ha si la gpu integrata, ma la cpu è mooooooolto piu potente delle apu amd, e piu veloce perfino di BD. Intel ha capito che se vuoi giocare ti comprila scheda video. Sicuramente negli anni implementeranno sempre piu un video perfomante, ma la potenza di elaborazione cpu è fondamentale.
Amd ce la mena con le apu, perchè con il fatto che le sue schede video sono le piu potenti (e su questo non si discute) se la gioca sul fatto che sui suoi llano (che poi gia il nome mi fanno ricordare un dito al culo) c'è la potenza video di amd. Si certo, peccato che per le prestazioni che hanno consumano da fare schifo, e sono ottusi di clock come un ubriaco fracido. Ma ci sta pure che sono destinati per il 50% ai notebook, per cui ok, ma appunto per questo motivo, sono fuori dalla mia portata.
Odio i notebook io ;) Odio i surrogati, gli accrocchi, gli all in one. Sono soluzioni buoni solo per dispositivi mobili. Per cpu desktop/workstation, ci vuole potenza bruta. E una apu presente e futura non potra soddisfare tali requisiti.
Tu giochi con un 17 pollici 1280x1024 ecco perchè ti va bene una apu. Vallo a raccontare ad un giocatore esigente di avere una scheda video accrocchiata ad una cpu, vedi cosa ti risponde.
E non gli dire che fra un paio di anni ci saranno le hd8990 da 500 euro gia integrate nella cpu, perchè rischi uno sputo a suon di cammello. La scheda video discreta è e sarà per i prossimi 10 anni fondamentale.
vedo che hai capito tutto :)
il futuro sta nelle apu, per il semplice fatto che i software saranno accellerati dalla parte gpu.
AMD lo ha detto il futuro e fusion.
infatti in futuro la differenza cpu gpu scomparirà già a livello hardware.
poi che le apu siano roba da brufolosi :) vabbè!
tanto che intel ha capito che la gpu se uno vuole se la compra, ti costringe a comprare la sua, anche se non la vuoi.
attualmente con amd posso scegliere se voglio un APU o una cpu senza gpu.
carletto, il futuro non sarà nelle apu per tutti...all in one, è un concetto buono per chi può accontentarsi come potenza, vedi tu con bd; se si devono eseguire carichi pesanti, molto pesanti, un chip grafico integrato nel processore paragonato a una o più vga discrete al top, ha la stessa potenza di un peto a confronto di una supernova :D
supporto fra gpu e cpu sarà il futuro, sviluppato in soluzioni all in one per chi non ha necessità di potenza e in soluzioni separate per chi le sfrutta :)
carlottoIIx6
06-01-2012, 16:11
carletto, il futuro non sarà nelle apu per tutti...all in one, è un concetto buono per chi può accontentarsi come potenza, vedi tu con bd; se si devono eseguire carichi pesanti, molto pesanti, un chip grafico integrato nel processore paragonato a una o più vga discrete al top, ha la stessa potenza di un peto a confronto di una supernova :D
supporto fra gpu e cpu sarà il futuro, sviluppato in soluzioni all in one per chi non ha necessità di potenza e in soluzioni separate per chi le sfrutta :)
il concetto non all in one, il concetto è: processori che si possono adattare alle nuove esigenze di calcolo restando dentro consumi accettabili
cosa che si può fare solo sfruttando la potenza di calcolo tipo gpu.
ora la gpu è poco sfruttata dai software, ed esiste ancora la distinizione.
ma in futuro?
per i giocatori potrebbe esserci una apu specifica proprio come ora ci sono schede grafiche potenti.
altri scenari potrebbero essere apu in parallelo montate sulla stessa macchina
come ora c'è il cross ecc.
se la potenza di calcolo videoludico non basta, si mette un apu con una gpu, dove l'apu accellera la gpu più della cpu ecc.
forse non mi sono spiegato carletto :)
Condivido l'integrazione "tramite" software di cpu e vga, già nei motori di render si vede qualcosa, anche se c'è molto da lavorare..
Quello che risulta inutile è voler per forza integrare tutto in una apu...
Tralasciamo i giochi e parliamo esclusivamente di carichi pesanti, una carriola di apu che utilità avrebbe? Rallentare la o le schede discrete? Occupare spazio che potrebbe essere utile per la cpu? Il dislivello fra le integrate e le discrete, è troppo alto per pensare che le prime possano essere utili in tutti gli ambiti..
A che servirebbe mettere 3 apu? Metto direttamente 3 discrete e un singolo o doppio procio e ho n volte la potenza delle apu sia in ambito gpu che cpu.
Ci sono già test fatti con vray dove si nota che usando schede lentissime paragonate e schede veloci, le ultime vengono rallentate in maniera tale da risultare più lente rispetto a quando sono da sole
vedo che hai capito tutto :)
il futuro sta nelle apu, per il semplice fatto che i software saranno accellerati dalla parte gpu.
AMD lo ha detto il futuro e fusion.
infatti in futuro la differenza cpu gpu scomparirà già a livello hardware.
poi che le apu siano roba da brufolosi :) vabbè!
tanto che intel ha capito che la gpu se uno vuole se la compra, ti costringe a comprare la sua, anche se non la vuoi.
attualmente con amd posso scegliere se voglio un APU o una cpu senza gpu.
Certo che ho capito, e ho capito anche che tu fai finta di non capire il senso dei discorsi.
Leggi male, e per difendere una cosa che non ha bisogno di essere difesa dici cose fuori misura. Se avessi approfondito la lettura del mio post, il tuo post avrebbe avuto una forma differente. Non hai capito niente tu di cosa ho detto.
E non parlarmi a me di software che ne sviluppo 10 al mese: esistono sw X e sw Y, software per server, software per desktop, software per brufolosi e software per macellai. Quindi levati i paraocchi.
E comunque, la cosa piu buffa e che sono amdista proprio come te, ma io rispetto la coerenza, tu no.
Il futuro è fusion sono d'accordo, ma non è fantascienza, non ho detto che l'igp integrata nella cpu non è possibile, io mi riferivo al post di affiu che parlava di vedere schede video top integrate nella cpu....ma quando maiii ? e se è vero quando ? Nel 2030 ? Ma stiamo pazziando ? Ma che post fantascientifici sono ? La scheda video discreta è e sarà per i prossimi 10 anni un elemento fondamentale per calcoli di un certo calibro, che tu lo voglia o meno è cosi ! Visto che mi tiri in ballo il software che è l'elemento con la quale io ci guadagnio soldi e ci campo, ti dico anche che ci sono software che tu essere umano non hai mai visto sulle tue macchine, software dove una apu gli fa il solletico. Le apu sono un ottima riuscita di amd, ma resta cpu per bambini. A voglia adesso che mi quoti con i tuoiu post di fisica avanzata facendomi capire il contrario, perchè io ti posso dimostrare cosa è un software vero cosi ti rendi conto cosa gli farebbe un apu.
Calcolo bruto, calcoli paralleli, hard gaming, programmazione 3d avanzata...con apu ? ahahahahaha ma non farmi ridere.
Sono d'accordo sul fatto che in futuro quest emaledette apu avranno maledetti chip grafici piu belli e performanti per giocare a 1280x1024 senza spendere soldi in piu sulla scheda video.
Ma ti assicuro (parlando di gaming solo) che un vero gamer, l'apu (che llano, trinity o minkia morta) se lo tosta per il chip grafico che ha integrato è insufficiente e lo sara per moltissimo tempo ancora. La situazione non credere che sia diversa con Intel, è l'identica cosa, il chip grafico di intel fa ancora piu schifo, peroooooooo almeno la cpu vale. E non dimenticare che apu amd è nella stessa fascia della cpu di intel che batte perfino la fascia enthuasiast di amd. Ti rendi conto di questo ?
E comunque non è vero niente che Intel ti fa comprare le sue schede video, ti prendi il 2600k e ti puoi benissimo prendere una hd 6xxx di amd discreta.
Il fascino dell'informatica è proprio questo, la liberta di sceglierti l'hardware che vuoi e montartelo in base ai tuoi piaceri ed esigenze. E' sempre stato cosi ed ha reso noi utenti contenti di questo. Ma quando sento parlare di gente felice di avere chip SoC mi viene la pelle d'oca, come fate a farvi piacere surrogati dove vi obbligano a non poter scegliere, il modello, la marca in maniera assortita per il vostro assemblaggio pc ? I chip all in one sono porcherie buone solo per sistemi mobile. Per PC con la P maiuscola ci vuole ben altro.
carlottoIIx6
06-01-2012, 16:50
forse non mi sono spiegato carletto :)
Condivido l'integrazione "tramite" software di cpu e vga, già nei motori di render si vede qualcosa, anche se c'è molto da lavorare..
Quello che risulta inutile è voler per forza integrare tutto in una apu...
Tralasciamo i giochi e parliamo esclusivamente di carichi pesanti, una carriola di apu che utilità avrebbe?
cut
la risposta è integrazione.
questo lo posso dedurre, integrare più cose fa risparmiare consumo e costo di produzione.
in più c'è l'idea è di accelerare i processi.
uno potrebbe chiedersi, che giova farlo su un unico cip se poi per aumentare la potenza devo ricorrere ad una dedicata?
ora amd offre una sorta di cross tra la gpu integrata e una gpu di fascia bassa
sottolineo per me, questo in futuro continuerà in altro modo.
ovvero l'apu svolgerà parte del calcolo affiancando qualsiasi gpu.
insomma non saranno più antagoniste o debolmente parallele.
carlottoIIx6
06-01-2012, 16:58
cut
Calcolo bruto, calcoli paralleli, hard gaming, programmazione 3d avanzata...con apu ? ahahahahaha ma non farmi ridere.
cut
E comunque non è vero niente che Intel ti fa comprare le sue schede video, ti prendi il 2600k e ti puoi benissimo prendere una hd 6xxx di amd discreta.
cut
parlavamo di futuro, non so di sicuro quando avverrà, 10 anni potrebbero essere molti o pochi, non so.
siccome sie un esperto ti faccio una domanda,
fare girare i programmi sulla gpu fa risparmiare tempo ed energia?
altra domanda, sono tutti i software passabili su gpu senza perdere tempo ed energia?
infine, farebbe risparmiare tempe ed energia lintegrazione delle due, e se si, in che misura?
su intel, se voglio comprarmi una scheda dedicata, intel dovrebbe farmi pagare meno la sua cpu, visto che non la userò e che influisce sul costo finale. in tal senso me la fa pagare, non nel senso che mi impedisce di comprarne altre.
Certo che ho capito, e ho capito anche che tu fai finta di non capire il senso dei discorsi.
Leggi male, e per difendere una cosa che non ha bisogno di essere difesa dici cose fuori misura. Se avessi approfondito la lettura del mio post, il tuo post avrebbe avuto una forma differente. Non hai capito niente tu di cosa ho detto.
E non parlarmi a me di software che ne sviluppo 10 al mese: esistono sw X e sw Y, software per server, software per desktop, software per brufolosi e software per macellai. Quindi levati i paraocchi.
E comunque, la cosa piu buffa e che sono amdista proprio come te, ma io rispetto la coerenza, tu no.
Il futuro è fusion sono d'accordo, ma non è fantascienza, non ho detto che l'igp integrata nella cpu non è possibile, io mi riferivo al post di affiu che parlava di vedere schede video top integrate nella cpu....ma quando maiii ? e se è vero quando ? Nel 2030 ? Ma stiamo pazziando ? Ma che post fantascientifici sono ? La scheda video discreta è e sarà per i prossimi 10 anni un elemento fondamentale per calcoli di un certo calibro, che tu lo voglia o meno è cosi ! Visto che mi tiri in ballo il software che è l'elemento con la quale io ci guadagnio soldi e ci campo, ti dico anche che ci sono software che tu essere umano non hai mai visto sulle tue macchine, software dove una apu gli fa il solletico. Le apu sono un ottima riuscita di amd, ma resta cpu per bambini. A voglia adesso che mi quoti con i tuoiu post di fisica avanzata facendomi capire il contrario, perchè io ti posso dimostrare cosa è un software vero cosi ti rendi conto cosa gli farebbe un apu.
Calcolo bruto, calcoli paralleli, hard gaming, programmazione 3d avanzata...con apu ? ahahahahaha ma non farmi ridere.
Sono d'accordo sul fatto che in futuro quest emaledette apu avranno maledetti chip grafici piu belli e performanti per giocare a 1280x1024 senza spendere soldi in piu sulla scheda video.
Ma ti assicuro (parlando di gaming solo) che un vero gamer, l'apu (che llano, trinity o minkia morta) se lo tosta per il chip grafico che ha integrato è insufficiente e lo sara per moltissimo tempo ancora. La situazione non credere che sia diversa con Intel, è l'identica cosa, il chip grafico di intel fa ancora piu schifo, peroooooooo almeno la cpu vale. E non dimenticare che apu amd è nella stessa fascia della cpu di intel che batte perfino la fascia enthuasiast di amd. Ti rendi conto di questo ?
E comunque non è vero niente che Intel ti fa comprare le sue schede video, ti prendi il 2600k e ti puoi benissimo prendere una hd 6xxx di amd discreta.
Il fascino dell'informatica è proprio questo, la liberta di sceglierti l'hardware che vuoi e montartelo in base ai tuoi piaceri ed esigenze. E' sempre stato cosi ed ha reso noi utenti contenti di questo. Ma quando sento parlare di gente felice di avere chip SoC mi viene la pelle d'oca, come fate a farvi piacere surrogati dove vi obbligano a non poter scegliere, il modello, la marca in maniera assortita per il vostro assemblaggio pc ? I chip all in one sono porcherie buone solo per sistemi mobile. Per PC con la P maiuscola ci vuole ben altro.
finalmente del buon senso, esistono utenti che cercano apu e altri che preferirebbero che quello spazio fosse occupato da altri core o per frequenze maggiori
digieffe
06-01-2012, 17:53
parlavamo di futuro, non so di sicuro quando avverrà, 10 anni potrebbero essere molti o pochi, non so.
siccome sie un esperto ti faccio una domanda,
fare girare i programmi sulla gpu fa risparmiare tempo ed energia?
altra domanda, sono tutti i software passabili su gpu senza perdere tempo ed energia?
infine, farebbe risparmiare tempe ed energia lintegrazione delle due, e se si, in che misura?
su intel, se voglio comprarmi una scheda dedicata, intel dovrebbe farmi pagare meno la sua cpu, visto che non la userò e che influisce sul costo finale. in tal senso me la fa pagare, non nel senso che mi impedisce di comprarne altre.
Lungi da me nell'intromettermi... però di tutto questo discorso notavo una certa mancanza di flessibilità che shellx ha in qualche maniera esposto.
Ciò che ho già spiegato e forse in pochi hanno notato e che dipende da ciò che deve fare un sistema (cpu, apu, soc, gpu ecc)
........
fare girare i programmi sulla gpu fa risparmiare tempo ed energia?
ti do una NON risposta: dipende dai programmi!!! (non tutti possono girare su gpu e non tutti allo stesso modo)
........
altra domanda, sono tutti i software passabili su gpu senza perdere tempo ed energia?
NO!!! almeno in modo sensato (a partire da tesla e GCN 7900, probabilmente possono fare un pò di tutto ma con quali risutati, consumi e costi?)
........
infine, farebbe risparmiare tempe ed energia lintegrazione delle due, e se si, in che misura?
Dipende dall'integrazione: fusion a partire da GCN (7900) ha 3 step di integrazione fino al 2014 e da questi è già fuori Llano e cmq dipende SEMPRE da cosa deve fare!!!
Insomma a me non piace quando si parla di cose personali (es: prof. di fisica) quindi rispetto tutte le professionalità.
Fatta questa premessa però noto (ma posso sbagliarmi) che ti mancano pochi concetti cardine per avere una visione completa.
vorrei trovare un modo, che non sia troppo semplicistico o troppo compesso, con il quale cercare di renderti l'idea....
Diciamo che le casisitiche sono più complesse di quelle che normalmente si possono immaginare... forse per questo motivo alcuni si scontrano...
se le casistiche fossero meglio definite ci si capirebbe prima evitando equivoci che normalmente non sono neache evidenti...
Ps: Ho scritto questo post con buoni propostiti... non accendiamo micce :)
Il punto è, quand'è che AMD riuscirà ad usare la parte GPU inserita nei suoi proci a tutti gli effetti per aumentare le prestazioni in rendering e floating point.... + si sbriga ad arrivare a questo traguardo e + sarà vincente il suo progetto
digieffe
06-01-2012, 18:05
Il punto è, quand'è che AMD riuscirà ad usare la parte GPU inserita nei suoi proci a tutti gli effetti per aumentare le prestazioni in rendering e floating point.... + si sbriga ad arrivare a questo traguardo e + sarà vincente il suo progetto
Provo a precisare la tua domanda (poi mi dirai se era ciò che volevi sapere):
Il punto è, quand'è che AMD riuscirà ad usare la parte GPU inserita nei suoi proci a tutti gli effetti IN MANIERA TRASPARENTE per aumentare le prestazioni in rendering e floating point....
In maniera trasparente significa senza vederla come gpu... ma come una unità di esecuzione.
Secondo le vecchie roadmap (del fusion developer) al 3° o sucessivo stadio d'integrazione quindi non prima del 2014.
A Febbraio ci saranno le nuove roadmap al finacial day.
carlottoIIx6
06-01-2012, 18:10
cut
........
fare girare i programmi sulla gpu fa risparmiare tempo ed energia?
ti do una NON risposta: dipende dai programmi!!! (non tutti possono girare su gpu e non tutti allo stesso modo)
........
altra domanda, sono tutti i software passabili su gpu senza perdere tempo ed energia?
NO!!! almeno in modo sensato (a partire da tesla e GCN 7900, probabilmente possono fare un pò di tutto ma con quali risutati, consumi e costi?)
........
infine, farebbe risparmiare tempe ed energia lintegrazione delle due, e se si, in che misura?
Dipende dall'integrazione: fusion a partire da GCN (7900) ha 3 step di integrazione fino al 2014 e da questi è già fuori Llano e cmq dipende SEMPRE da cosa deve fare!!!
cut
grazie delle risposte, che condivido, avendole date per scontate.
è chiaro che ci sono delle scelte dietro che possono anche non rendere praticabile questa via, ma dalle risposte emerge che l'apu è conveniente:
infatti non tutti i programmi possono girare su gpu, ma quando possono si guadagna tempo ed energia, ma siccome non conviene sempre, allora serve qualcosa che non è solo gpu e cosa?
l'apu.
dipende da cosa ci devi fare, e quindi ciò porta ad apu specialistiche per diversi compiti.
esempi futuristici
apu 20 core accelerata da gpu discreta
apu 4-8 core accellerata da gpu tipo 7970 per gamer
cluster di apu medie per rendering massicci.
ps non trovo interessante parlare di me, oltre al fatto che sarebbe OT:D
digieffe, spero che non te la prenderai, ma aggiungo: se amd riuscisse ad la gpu in maniera NON trasparente, sarebbe già tanto...in render intendo :D
La maggioranza dei motori sono cuda based, quelli ibridi come vray rt, con le vecchie serie hd 6*** erano penose purtroppo :cry:
Dovrebbe salvarsi luxrender, ma non è proprio diffusissimo...speriamo che le nuove amd rendano bene, sarebbe già un grosso passo avanti, i presupposti ci sono, è il supporto sia driver che software che amd si rifiuta di incentivare. Mi sembra una società che ha solo ed esclusivamente cespiti ammortizzati :(
a shellx
io non ho MAI detto che le apu sostituiranno le schede video TOP,io seguo semplicemente quello che dice amd con Rick Bergman ,che parla di raggiungere I 10TFLOPS CON LE APU.
ora io mi domando ,che per avere quella potenza ,bisogna aumentare(penso ) gli stream processor negli anni,convenite in questo?tutto qui.
E LA BASE PER RAGGIUNGERE TUTTO QUESTO(ovviamente è una promessa ,non è detto che si possa realizzare o meno) è BULLDOZER. e nessun altra architettura
e cmq ,sempre secondo me,anche quest'anno sulla grafica integrata ci sarà DOMINIO sia con virgo che con comal.
secondo voi tra trinity quad core mobile e ivy bridge quad core mobile....voi quale prendereste??? bisogna aspettare(nel COMPLESSO e facendo la media anche con la grafica integrata e il multitask pesante sulle apu) i test ,secondo voi?
secondo voi tra trinity quad core mobile e ivy bridge quad core mobile....voi quale prendereste??? bisogna aspettare(nel COMPLESSO e facendo la media anche con la grafica integrata e il multitask pesante sulle apu) i test ,secondo voi?
No, non credo serva aspettare i test.
Prendero' sicuramente un notebook con Windows 8 e Ivy Bridge quad core mobile appena disponibile.
E forse non aspettero' Windows 8... vediamo cosa dicono al CES.
carlottoIIx6
06-01-2012, 18:24
a shellx
io non ho MAI detto che le apu sostituiranno le schede video TOP,io seguo semplicemente quello che dice amd con Rick Bergman ,che parla di raggiungere I 10TFLOPS CON LE APU.
ora io mi domando ,che per avere quella potenza ,bisogna aumentare(penso ) gli stream processor negli anni,convenite in questo?tutto qui.
E LA BASE PER RAGGIUNGERE TUTTO QUESTO(ovviamente è una promessa ,non è detto che si possa realizzare o meno) è BULLDOZER. e nessun altra architettura
e cmq ,sempre secondo me,anche quest'anno sulla grafica integrata ci sarà DOMINIO sia con virgo che con comal.
secondo voi tra trinity quad core mobile e ivy bridge quad core mobile....voi quale prendereste??? bisogna aspettare(nel COMPLESSO e facendo la media anche con la grafica integrata e il multitask pesante sulle apu) i test ,secondo voi?
quoto
in un futuro vicino non cambierà nulla e le apu seviranno per risparmiare soldi a chi non ha esigenze troppo elevate e per i portatili che sono molto comodi.
BD è chiaro che si presta per maggiore integrazione tra questo due realtà di calcolo per ora troppo separate.
carlottoIIx6
06-01-2012, 18:26
No, non credo serva aspettare i test.
Prendero' sicuramente un notebook con Windows 8 e Ivy Bridge quad core mobile appena disponibile.
E forse non aspettero' Windows 8... vediamo cosa dicono al CES.
la gpu di trinity sarà molto potente penso.
a shellx
io non ho MAI detto che le apu sostituiranno le schede video TOP,io seguo semplicemente quello che dice amd con Rick Bergman ,che parla di raggiungere I 10TFLOPS CON LE APU.
ora io mi domando ,che per avere quella potenza ,bisogna aumentare(penso ) gli stream processor negli anni,convenite in questo?tutto qui.
E LA BASE PER RAGGIUNGERE TUTTO QUESTO(ovviamente è una promessa ,non è detto che si possa realizzare o meno) è BULLDOZER. e nessun altra architettura
e cmq ,sempre secondo me,anche quest'anno sulla grafica integrata ci sarà DOMINIO sia con virgo che con comal.
secondo voi tra trinity quad core mobile e ivy bridge quad core mobile....voi quale prendereste??? bisogna aspettare(nel COMPLESSO e facendo la media anche con la grafica integrata e il multitask pesante sulle apu) i test ,secondo voi?
ivy se poi la scheda video integrata non bastasse aggiungerei una discreta ma almeno potrei contare su una cpu potente e a basso consumo energetico.
l'apu è interessante come idea ma ha il limite di essere più chiusa e di non poter intervenire sulle prestazioni della cpu, la scheda video la si può sempre aggiungere
carlottoIIx6
06-01-2012, 18:41
ivy se poi la scheda video integrata non bastasse aggiungerei una discreta ma almeno potrei contare su una cpu potente e a basso consumo energetico.
l'apu è interessante come idea ma ha il limite di essere più chiusa e di non poter intervenire sulle prestazioni della cpu, la scheda video la si può sempre aggiungere
attualmente il massimo si ha con componenti separate.
digieffe
06-01-2012, 18:49
cut
dipende da cosa ci devi fare, e quindi ciò porta ad apu specialistiche per diversi compiti.
esempi futuristici
apu 20 core accelerata da gpu discreta
apu 4-8 core accellerata da gpu tipo 7970 per gamer
clusteri di apu medie per rendering massicci.
In verità avrei voluto affrontare un discorso diverso, del quale però non ne ho padronanza e dato che sono anche febbricitante sarebbe potuto uscire un pastrocchio.
Ne do qualche cenno sperando di non essere aggredito.
Come accade in ogni settore la tecnologia evolve portando a livelli più alti i risultati e contemporanemente integrando i componenti tra di loro.
Normalmente per eseguire determinati compiti sono necessarie un TOT di risorse.
Se questi compiti non aumentano di gravosità col passare del tempo sarà sufficiente qualcosa di sempre più piccolo ed integrato.
Per fare un esempio terra terra, negli anni 70 per utilizzare programmi di office erano necessari variegati e scomodi computer con software ad oggi inimmaginabili.
Oggi nonostante i software si siano evoluti molto, a meno di compiti particolari, un semplice Soc è più che sufficiente.
con questo voglio dire che ciò che una volta era di nicchia e particolare, col passare del tempo diventa mainstream, fino al punto da non avere più importanza quale sia il sistema adottato per ottenerlo.
questo però non toglie che se alcuni settori e/o compiti diventano ordinaria amministrazione in altri settori si possono affrontare cose che precedentemente non si potevano.
Ergo: se per l'ufficio sarà sufficiente uno smartphone con monitor e tastiera esterni, per (anche nuovi) compiti gravosi serviranno sempre apparecchiature più complesse e sofisticate, queste ultime probabilmente saranno sempre più di nicchia avendo soddisfatto quelli che sono i bisogni mainstream.
Qui si innesta un altro discorso: quello dell'evoluzione dei bisogni mainstream, questo dipende dal settore se più o meno statico...
es: settore office (standard) è statico da un bel pò, vedremo se usciranno nuove esigenze, settore video game è in evoluzione anche se in rallentamento, settore ricerca è sempre in evoluzione...
insomma man mano che un settore soddisfa i "bisogni primari" dello stesso, avrà sempre meno necessità di tecnologia particolare passando ad una più generica e semplice: Più tempo passa e più una apu andrà a coprire le necessità "comuni", questo non vuol dire che per altre necessità sia ugualemente valida.
a ognuno le proprie riflessioni. (spero di non aver scritto troppe baggianate Ciauz :))
digieffe
06-01-2012, 19:01
digieffe, spero che non te la prenderai, ma aggiungo: se amd riuscisse ad la gpu in maniera NON trasparente, sarebbe già tanto...in render intendo :D
La maggioranza dei motori sono cuda based, quelli ibridi come vray rt, con le vecchie serie hd 6*** erano penose purtroppo :cry:
Dovrebbe salvarsi luxrender, ma non è proprio diffusissimo...speriamo che le nuove amd rendano bene, sarebbe già un grosso passo avanti, i presupposti ci sono, è il supporto sia driver che software che amd si rifiuta di incentivare. Mi sembra una società che ha solo ed esclusivamente cespiti ammortizzati :(
non sono uno che se la prende ;)
è vero attualmente è quasi tutto cuda based ma è già in corso la transizione da cuda a opencl (io non so quanto tempo ci posa volere 12-18 mesi?) era notizia di fine anno che la stessa Nvidia stava virando ad opencl (potrei confondermi su quest'ultimo punto)
se hai visto i bench della serie 7970, quelli in opencl & direct compute oramai ci siamo. In media sono del +100% rispetto alla 6970 e dove più dove meno con la 580.
dal punto di vista del supporto software il problema dovrebbe essersi alleggerito con la GCN in quanto i drivers vengono a perdere d'importanza rispetto alle architetture wliw 4/5.
Per il resto non so come si comporterà sulle politiche delle firepro e relativo supporto (non sono io il ceo :D).
il discorso trinity e notebook ha un solo scopo, alzare il livello qualitativo della fascia bassa dei portatili... chi spende 1000-1200€ su un portatile ha i soldi per farlo e credo non sia la maggior parte del mercato e lì non c'è storia... intel e scheda dedicata.... ma guardiamo alla fascia bassa.... con 500€ ci si potrebbe fare un portatile che ti permette di avere un ottimo processore per far tutto (tutto quello che uno ci fà con un portatile da 500€) compreo giocare ad alti livelli (risparmiando sulla scheda dedicata, soldi e autonomia)..... poi se uno il portatile lo deve per forza di cose usare per applicazioni pesanti la risposta la sapete già.... L'intento di AMD è andare a fare capitale dove si può vendere di +, e a vedere gli ultimi dati finanziari di Sunnyvale c'è da dire che la cosa funziona, stanno macinando utili e la cosa non fà altro che bene a loro e a noi :)
@Digieffe, grazie, non mi ricordavo la slide.... 2014.... bè a voglia allora xD
giuliojiang
06-01-2012, 20:08
digieffe, spero che non te la prenderai, ma aggiungo: se amd riuscisse ad la gpu in maniera NON trasparente, sarebbe già tanto...in render intendo :D
La maggioranza dei motori sono cuda based, quelli ibridi come vray rt, con le vecchie serie hd 6*** erano penose purtroppo :cry:
Dovrebbe salvarsi luxrender, ma non è proprio diffusissimo...speriamo che le nuove amd rendano bene, sarebbe già un grosso passo avanti, i presupposti ci sono, è il supporto sia driver che software che amd si rifiuta di incentivare. Mi sembra una società che ha solo ed esclusivamente cespiti ammortizzati :(
luxrender si salva perché è stato sviluppato con il kit AMD APP, e dà il meglio di sé proprio con le gpu amd. Ma rimane il fatto che è poco diffuso (anche se è open source) e che l'accelerazione gpu è ancora in via di sviluppo, mentre il motore 'classico' è già molto completo e stabile.
paolo.oliva2
06-01-2012, 21:08
il discorso trinity e notebook ha un solo scopo, alzare il livello qualitativo della fascia bassa dei portatili... chi spende 1000-1200€ su un portatile ha i soldi per farlo e credo non sia la maggior parte del mercato e lì non c'è storia... intel e scheda dedicata.... ma guardiamo alla fascia bassa.... con 500€ ci si potrebbe fare un portatile che ti permette di avere un ottimo processore per far tutto (tutto quello che uno ci fà con un portatile da 500€) compreo giocare ad alti livelli (risparmiando sulla scheda dedicata, soldi e autonomia)..... poi se uno il portatile lo deve per forza di cose usare per applicazioni pesanti la risposta la sapete già.... L'intento di AMD è andare a fare capitale dove si può vendere di +, e a vedere gli ultimi dati finanziari di Sunnyvale c'è da dire che la cosa funziona, stanno macinando utili e la cosa non fà altro che bene a loro e a noi :)
Ti quoto.
@Digieffe, grazie, non mi ricordavo la slide.... 2014.... bè a voglia allora xD
Secondo me si arriverà al 2015 per il discorso APU con IGP che elabora i dati per i core... io penso che il problema silicio/architettura con BD prima generazione ha tolto parte delle forze che se tutto fosse andato meglio avrebbe operato sul discorso APU.
Comunque nulla toglie al mio ragionamento.
Il discorso IPC di BD di cui tanto si discute è una parte della storia, in quanto la potenza è data da IPC x Frequenza operativa.
Se GF/AMD non riusciranno a raffinare il silicio e quindi aumentare le frequenze operative per arrivare alla condizione + frequenza e - IPC = - frequenza + IPC, intervenire profondamente sullarchitettura BD equivarrebbe ad un suicidio, perchè toglierebbe buona parte della progettazione nel settore APU, quindi si creerebbe la situazione che oltre ad arrivare tardi con un teorico BD CPU con più IPC, arriverebbe tardi pure come BD APU desktop.
Inoltre progettare una nuova architettura ha dei costi notevoli ed onestamente non vedo come AMD possa vendere un procio con una spesa doppia progettuale, realizzato sul 32nm, comparandosi per tempistica produzione commerciale al 22nm Intel già rodato, e riuscire ad offrire un prodotto per prezzo/potenza competitivo.
Cioè.... molto meglio vendere un Piledriver anche con solamente il 5% in più di IPC e con un +600MHz di clock rispetto ad un 8150, il tutto a 200€...
Allora ragazzi ho fatto l'ordine, anche se devo ancora attendere la conferma. Se tutto va bene l'11 mi arriva un AMD 8120 fx.. che manderò sulla mia mobo AM3 (l'ultimo bios lo riporta come compatibile).. speriamo:)
ok, tralasciamo i consumi, ma non mi sembra comunque un buon risultato che una CPU da 250 euro portata a 4.6, stia sotto a una CPU da 190 a 4.8.... si ok, migliorano le cose rispetto ad avere 1 o 2 core impiegati, ma anche in questo caso non è che faccia bella figura, e la parallelizzazione non paga comunque visto che l'altra CPU ha 4 core....
BD ha problemi anche in MT, basta guardare i motori di render, dove non ce ne è uno dove vada bene, e quelli sono notoriamente MT spinti.
Sinceraemnte ha troppi problemi per dare la colpa al software o al SO, a me pare che non sia un'architettura a 360°, come invece una CPU dovrebbe essere; oramai PD fara quello che porta fare e spero vivamente che con la successiva cambino strada.
Ovviamente chi vuole passare a BD si prende l'8120 che arriva uguale a 4,6 e costa 170 euro, 8150 come 2600k sono i top fuori mercato imho, il punto è come si arriva al risultato X considerando anche che è un prodotto giovanissimo alla sua prima incarnazione in un panorama di motori in gran parte dual, con qualche esperimento teso a migliorare il parallelismo.
Per me quel risultato è ottimo e promettente, ma concordo che ora come ora Bd ha problemi, per me in gran parte di resa dei 32nm e consumi, infatti io non ho la minima intenzione di acquistarlo finchè non mi convincerà, o pile o il successore, e con un 10% in più di ipc e consumi molto più contenuti penso possa fare ancora meglio.
Comunque noto un "aurea" dietro BD che è in gran parte da ridimensionare, anche perchè pensando ad agena non siamo minimamente a quei livelli, la cpu viaggia, hai ragione è altalenante in alcuni casi, ma è anche completamente inedita come concezione, non c'era forse da aspettarselo?
8120 non so se arriverò alle prestazioni in OC di un 8150 (spero ma dubito,penso faccia 200 mhz circa in meno).
Poi attualmente ho una dissipazione ad aria silente per spingere mi ci vorrebbe minimo un liquido serio.
Comunque il costo se mi confermano l'ordine effettivamente èstato poco meno di 180 con spedizione (dalla maggior parte dei siti è almeno 10-20 euro in più).
la scelta per me è stata dettata dallapossibilità di aggiornare senza cambiare mobo (almeno sulla carta..) e rispetto a thuban un po' di prestaz in più, più thread in più (che a me fanno comodo in boinc) e la possibilità di avere magari un futuro qualche ottimizzazione in più (cosa difficile con thuban).
Tanto in daily lo terrò a 2 ghz downvoltato,cercherò una buona configurazione overcloccata da usare per il gaming e per i bench :read:
paolo.oliva2
07-01-2012, 09:18
8120 non so se arriverò alle prestazioni in OC di un 8150 (spero ma dubito,penso faccia 200 mhz circa in meno).
Poi attualmente ho una dissipazione ad aria silente per spingere mi ci vorrebbe minimo un liquido serio.
Comunque il costo se mi confermano l'ordine effettivamente èstato poco meno di 180 con spedizione (dalla maggior parte dei siti è almeno 10-20 euro in più).
la scelta per me è stata dettata dallapossibilità di aggiornare senza cambiare mobo (almeno sulla carta..) e rispetto a thuban un po' di prestaz in più, più thread in più (che a me fanno comodo in boinc) e la possibilità di avere magari un futuro qualche ottimizzazione in più (cosa difficile con thuban).
Tanto in daily lo terrò a 2 ghz downvoltato,cercherò una buona configurazione overcloccata da usare per il gaming e per i bench :read:
Secondo me hai fatto bene scegliendo 8120. Ha un rapporto prezzo/prestazioni nettamente più favorevole rispetto all8150.
Penso anche io che la differenza con un 8150 in OC sia sui 200MHz, forse anche meno considerando un OC ad aria.
Confrontando un 8120 con un Thuban, nel tuo utilizzo, secondo me dovresti ottenere una elaborazione superiore con un consumo simile.
I test sul consumo fatti su BD sono stati fatti a def e con OC a 4,6GHz. Considerando una differenza di 200/300MHz di frequenza in più di BD per pareggiare prestazionalmente un Thuban, non è detto che un 1090T @4/4,1GHz consumi meno di un BD @4,2/4,4GHz.
Inoltre, credo ci possa essere la possibilità che boinc possa implementare le nuove istruzioni dei nuovi processori sia AMD che Intel per velocizzare lelaborazione, cosa che non porterebbe alcun guadagno con il Thuban e similari.
8120 non so se arriverò alle prestazioni in OC di un 8150 (spero ma dubito,penso faccia 200 mhz circa in meno).
Poi attualmente ho una dissipazione ad aria silente per spingere mi ci vorrebbe minimo un liquido serio.
Comunque il costo se mi confermano l'ordine effettivamente èstato poco meno di 180 con spedizione (dalla maggior parte dei siti è almeno 10-20 euro in più).
la scelta per me è stata dettata dallapossibilità di aggiornare senza cambiare mobo (almeno sulla carta..) e rispetto a thuban un po' di prestaz in più, più thread in più (che a me fanno comodo in boinc) e la possibilità di avere magari un futuro qualche ottimizzazione in più (cosa difficile con thuban).
Tanto in daily lo terrò a 2 ghz downvoltato,cercherò una buona configurazione overcloccata da usare per il gaming e per i bench :read:
dopo che lo avrai configurato e sistemato potrai fare anche tu le prove che ho fatto io: lanciare boinc al 50% o al 65% e poi lancia un gioco cpu intensive e vedrai come il gioco sarà fluido...cosa che con gli i7 non accade (devo però ancora provare a blindare boinc e il gioco con l'affinità)
Polpi_91
07-01-2012, 10:37
un 8120 fa 4.2/4.3 vcore def ad aria
Strato1541
07-01-2012, 11:12
dopo che lo avrai configurato e sistemato potrai fare anche tu le prove che ho fatto io: lanciare boinc al 50% o al 65% e poi lancia un gioco cpu intensive e vedrai come il gioco sarà fluido...cosa che con gli i7 non accade (devo però ancora provare a blindare boinc e il gioco con l'affinità)
Che utilità avrebbe fare ciò?
dopo che lo avrai configurato e sistemato potrai fare anche tu le prove che ho fatto io: lanciare boinc al 50% o al 65% e poi lancia un gioco cpu intensive e vedrai come il gioco sarà fluido...cosa che con gli i7 non accade (devo però ancora provare a blindare boinc e il gioco con l'affinità)
Sì quando mi arriva cerco di ottimizare la config..magari ritorno nel thread per chiedere consigli :D
lupocattivo89
07-01-2012, 11:51
ragazzi su amdzone ho beccato questa immagine che dovrebbe essere una comparazione tra un BD e un piledriver
http://img197.imageshack.us/img197/2093/16108893.jpg
mentre qui abbiamo un immagine di trinity
http://semiaccurate.com/assets/uploads/2012/01/Trinity_Die_Low_wm.png
Grizlod®
07-01-2012, 16:46
@ Randa71...ho notato che sei un cruncher, per cortesia, potresti fare la prova di aumentare i threads con progetto/i per sola CPU, modificando il file 'cc_config.xml', (che immagino tu abbia).
Nella sua forma più semplice, si presenta:
<cc_config>
<options>
<ncpus>6</ncpus>
</options>
</cc_config>
...dalle mie prove, avevo constatato (ora non cruncho più) che il Thuban "faticava" a rendere (nel senso di tempo impiegato per crediti ricevuti) al meglio; io davo la colpa alla risicata quantità di cache L3 per i 6 core.
Quindi più di 8 threads non ho mai provato, ma già imho non rendeva, appunto.
Paradossalmente vedevo meglio un Deneb X4 810 con 6 threads, seppur con quattro mega di cache di terzo livello.
@ Randa71...ho notato che sei un cruncher, per cortesia, potresti fare la prova di aumentare i threads con progetto/i per sola CPU, modificando il file 'cc_config.xml', (che immagino tu abbia).
Nella sua forma più semplice, si presenta:
<cc_config>
<options>
<ncpus>6</ncpus>
</options>
</cc_config>
...dalle mie prove, avevo constatato (ora non cruncho più) che il Thuban "faticava" a rendere (nel senso di tempo impiegato per crediti ricevuti) al meglio; io davo la colpa alla risicata quantità di cache L3 per i 6 core.
Quindi più di 8 threads non ho mai provato, ma già imho non rendeva, appunto.
Paradossalmente vedevo meglio un Deneb X4 810 con 6 threads, seppur con quattro mega di cache di terzo livello.
ok.
l'ho impostato a 16 threads...appena finisce di scaricare, posto i printscreen di boinc..
so che con 8 a rosetta impiega circa 3 ore per thread...vediamo raddoppiando i thread.
con il mio 2600k se non ricordo male erano 2h40m con 8 thread
edit: non riesco a farlo partire con + di 8 threads...
il file di cc_config.xml l'ho creato, prima non c'era, ma ne elabora sempre 8.....
8120 non so se arriverò alle prestazioni in OC di un 8150 (spero ma dubito,penso faccia 200 mhz circa in meno).
Poi attualmente ho una dissipazione ad aria silente per spingere mi ci vorrebbe minimo un liquido serio.
Comunque il costo se mi confermano l'ordine effettivamente èstato poco meno di 180 con spedizione (dalla maggior parte dei siti è almeno 10-20 euro in più).
la scelta per me è stata dettata dallapossibilità di aggiornare senza cambiare mobo (almeno sulla carta..) e rispetto a thuban un po' di prestaz in più, più thread in più (che a me fanno comodo in boinc) e la possibilità di avere magari un futuro qualche ottimizzazione in più (cosa difficile con thuban).
Tanto in daily lo terrò a 2 ghz downvoltato,cercherò una buona configurazione overcloccata da usare per il gaming e per i bench :read:
Ho fatto il tuo stesso raggionamento tra la scelta del x6 e dell'FX..per 30€ di differenza ho preferito prendere l'8120.
Cmq con vcore a default sono arrivato a 4.2Ghz mentre per raggiungere i 4.6Ghz ho dovuto impostare il vcore a 1.425v...ma sono ancora in "work in progress" :sofico: . Sto iniziando da poco a capire come si comporta il mio FX :D
ok.
l'ho impostato a 16 threads...appena finisce di scaricare, posto i printscreen di boinc..
so che con 8 a rosetta impiega circa 3 ore per thread...vediamo raddoppiando i thread.
con il mio 2600k se non ricordo male erano 2h40m con 8 thread
edit: non riesco a farlo partire con + di 8 threads...
il file di cc_config.xml l'ho creato, prima non c'era, ma ne elabora sempre 8.....
E se provi -16 anzichè 16 in option ?
Oppure gli fai prima capire al config che hai 8 core in option e poi imposti una flag di simulazione a 16 threads.
Grizlod®
07-01-2012, 18:53
ok.
l'ho impostato a 16 threads...appena finisce di scaricare, posto i printscreen di boinc..
so che con 8 a rosetta impiega circa 3 ore per thread...vediamo raddoppiando i thread.
con il mio 2600k se non ricordo male erano 2h40m con 8 thread
edit: non riesco a farlo partire con + di 8 threads...
il file di cc_config.xml l'ho creato, prima non c'era, ma ne elabora sempre 8.....Ti ringrazio per la disponibilità...il file cc_config.xml (senza virgolette), va posto in X:\ProgramData\BOINC (o cmq nella cartella BOINC principale...che è possibile sia nacosta).
Riguardo i 16 threads, direi che :eek: forse stai esagerando:D; ok che la cache L2 è da un megabyte per core ... io sarei partito con 12.
P.S. colpa mia...dovevo scrivertelo prima...
carletto, il futuro non sarà nelle apu per tutti...all in one, è un concetto buono per chi può accontentarsi come potenza, vedi tu con bd; se si devono eseguire carichi pesanti, molto pesanti, un chip grafico integrato nel processore paragonato a una o più vga discrete al top, ha la stessa potenza di un peto a confronto di una supernova :D
supporto fra gpu e cpu sarà il futuro, sviluppato in soluzioni all in one per chi non ha necessità di potenza e in soluzioni separate per chi le sfrutta :)
non sono d'accordo.
Con Fusion si avrà un rendimento impensabile con cuda.
E' vero che ad oggi alcuni calcoli vengono eseguiti 10 volte più velocemente che con la solo cpu, ma un computer con 4 cpu accellerate con apu, in grado di eseguire sia istruzioni fpu classice che open cl-direct compute è indubbiamente più appetibile sia a livello di gestione software (maggiore facilità di programmazione, minori latenze complessive, e minore impatto dei salti), sia energeticamente (non bisogna alimentare solo la gpu, ma tutta la scheda, con costo totale ben superiore ed a livello quasi di un cluster).
Se guardiamo il lato gamer credo che tu abbia ragione, anche se nvidia la vedo in difficolta ( a meno di una "fusione" con intel).
Una scheda discreta con fusion botrebbe diventare sia una vga master-card coadiuata da fusion, sia una co-fpu aggiunta in caso di applicazioni specifiche, quindi cominciamo a capire che AMD ha un futuro promettente, ed un discreto margine temporale sia su intel che su nvidia.
ares, ma il progetto fusion non prevede trasparenza del lato gpu per i calcoli anche con schede discrete? Quindi i salti e la "facilità" di programmazione a mio avviso non ci saranno con le apu a discapito delle prime.
Non puoi neanche paragonare i consumi, un'apu ti consuma anche 4 volte meno rispetto ad una vga, ma è molte volte inferiore come potenza, e il maggior tempo impiegatoin full è una ulteriore variabile da considerare. 250w continui per 10 ore sono una cosa, 100w continui per 60 ore non sono di certo più convenienti...
Magari shellex che mi sembra ben addentrato può correggermi se ho detto minchiate, ma le apu le trovo buone (ottime) solo per compromessi :)
Ti ringrazio per la disponibilità...il file cc_config.xml (senza virgolette), va posto in X:\ProgramData\BOINC (o cmq nella cartella BOINC principale...che è possibile sia nacosta).
Riguardo i 16 threads, direi che :eek: forse stai esagerando:D; ok che la cache L2 è da un megabyte per core ... io sarei partito con 12.
P.S. colpa mia...dovevo scrivertelo prima...
lo mettevo nella dir sbagliata...va non in quella principale ma nella program data...cmq adesso va..con 12
http://www.xtremeshack.com/immagine/t128837_boinc.jpg (http://www.xtremeshack.com/scheda/128837_boinc.jpg.html)
http://www.xtremeshack.com/immagine/t128838_task.jpg (http://www.xtremeshack.com/scheda/128838_task.jpg.html)
http://www.xtremeshack.com/immagine/t128839_web.jpg (http://www.xtremeshack.com/scheda/128839_web.jpg.html)
fatto...
perdonami ma siccome non conosco bene boinc, cosa intendevi per crediti o cose del genere? :D:D:D:D:D:D
intendi quelli nella pagina web?
come sono calcolati?
Che utilità avrebbe fare ciò?
Che contribuisce a dare una mano per qualsiasi cosa servano quei calcoli e riesce a giocare senza dover bestemmiare nel dire, caxxo mi tocca levare boinc altrimenti mi si sfarfalla il gioco....
Che contribuisce a dare una mano per qualsiasi cosa servano quei calcoli e riesce a giocare senza dover bestemmiare nel dire, caxxo mi tocca levare boinc altrimenti mi si sfarfalla il gioco....
esatto ;)
Grizlod®
07-01-2012, 21:04
http://www.xtremeshack.com/immagine/t128837_boinc.jpg (http://www.xtremeshack.com/scheda/128837_boinc.jpg.html)
http://www.xtremeshack.com/immagine/t128838_task.jpg (http://www.xtremeshack.com/scheda/128838_task.jpg.html)
http://www.xtremeshack.com/immagine/t128839_web.jpg (http://www.xtremeshack.com/scheda/128839_web.jpg.html)
fatto...
perdonami ma siccome non conosco bene boinc, cosa intendevi per crediti o cose del genere? :D:D:D:D:D:D
intendi quelli nella pagina web?
come sono calcolati?Ottimo...ora bisognerebbe raffrontare il rapporto indicato prima, ma se ignori cosa siano i crediti, non ne avrai tenuto conto in precedenza (a meno che le 6 emoticons non fossero esse stesse ironiche:O :p ).
Cmq, qualunque progetto rilascia crediti (chi + chi -) al termine di ogni WU. Gli stessi si sommano, al fine di una classifica personale all'interno dello stesso progetto, in modo da rapportarsi (se lo si desidera) con gli altri crunchers partecipanti.
Esiste poi una classifica nazionale e globale, sia per singolo progetto che sommati fra tutti i progetti a cui si partecipa.
Voglio aggiungere, che il tuo sembra essere uno spirito di partecipazione da lodare, crunchiando (es.Rosetta), per un'ottima causa, risultando potenzialmente utile all'umanità intera.
P.S. se clicchi sulla scheda Progetti, non c'è una colonna 'Crediti'?
Wolfhang
07-01-2012, 21:12
Che contribuisce a dare una mano per qualsiasi cosa servano quei calcoli e riesce a giocare senza dover bestemmiare nel dire, caxxo mi tocca levare boinc altrimenti mi si sfarfalla il gioco....
guarda, ho provato con l'unico gioco che ho installato, Dirt3 ai massimi settaggi, ho fatto il bench integrato con boinc in uso e la cpu impostata all'80%, pensa che ho fatto 74 fps MINIMI, uno in meno che senza boinc....
a def quanto ti fa?
visti che 2600k ce l'ho anche io
Wolfhang
07-01-2012, 21:48
a 3400 Mhz fissi (turbo disabilitato) 72 fps minimi, sono le gpu il collo di bottiglia
chiaro.
te l'ho chiesto perchè con la GTX 580 e il 2600k a def con BF3 con BOINC a 50% notavo dei microrallentamenti..
La mia colpa è che non ho mai messo su FRAPS per 'registrarli'
la stessa cosa con BD non mi capita.
devo solo provare a mettere l'affinità con i7 sui primi 4 thread e boinc con gli altri 4 per vedere se era dovuto al context switch...o alle risorse non duplicate di sb...semplice mia curiosità
Wolfhang
07-01-2012, 22:05
come sopra ma con le 5850 a 820/1150 79 fps minimi
come sopra ma con le 5850 a 820/1150 79 fps minimi
beh il 2600k a 4.6 si meriterebbe qualche altra scheda :D :D :D :D
Wolfhang
07-01-2012, 22:12
beh con il 2600k a 4.6 si meriterebbe qualche altra scheda :D :D :D :D
io non gioco molto, comunque in dirt3 le mie due bestioline vanno più di una GTX580...;)
io non gioco molto, comunque in dirt3 le mie due bestioline vanno più di una GTX580...;)
moh provo..... :D
Wolfhang
07-01-2012, 22:23
settaggi su ultra, non su alto...
carlottoIIx6
07-01-2012, 22:36
cut
fatto...
cosa hai fatto, che non l'ho capito?:confused:
ares, ma il progetto fusion non prevede trasparenza del lato gpu per i calcoli anche con schede discrete? Quindi i salti e la "facilità" di programmazione a mio avviso non ci saranno con le apu a discapito delle prime.
Non puoi neanche paragonare i consumi, un'apu ti consuma anche 4 volte meno rispetto ad una vga, ma è molte volte inferiore come potenza, e il maggior tempo impiegatoin full è una ulteriore variabile da considerare. 250w continui per 10 ore sono una cosa, 100w continui per 60 ore non sono di certo più convenienti...
Magari shellex che mi sembra ben addentrato può correggermi se ho detto minchiate, ma le apu le trovo buone (ottime) solo per compromessi :)
Non hai detto minchiate.
C'è una differenza tra una fpu-igp che collabora con la fpu classica per le elaborazioni, e una scheda video per il gaming extreme.
Allora, se parliamo di un futuro (fusion) caratterizzato da fpu di igp che affiancano fpu classiche e core classici per calcoli paralleli mettiamo sul tavolo un discorso concreto e verosimile.
Ma se dobbiamo parlare di avere fra due anni schede video top di gamma (quelle che adesso costano 500 euro cadauna) integrate dentro una cpu, non solo parliamo di fantascienza, ma poniamo un argomento nelle misure errate del discorso.
Ergo:
1. per tutti coloro che si aspettano chip video pari ad una hd7970 o futura ipotetica hd9970 dual gpu pro edition e bla bla bla integrata nell'apu gli dico: svegliatevi che vivete nel mondo delle favole (e soprattutto giocate di meno ai videogame perchè vi danno alla testa).
2. se invece vi aspettate igp capaci di aiutare le fpu classiche e i core nel calcolo parallelo ed in tutte le altre elaborazioni con un parco di sw piu vasto in modo migliore di llano e trinity e per chi vuole avere piu potenza di calcolo o giocare in maniera piu esigente affianca pure una scheda video discreta (come accade gia adesso) facendo sli o cf doppi alla apu, o triway o quad (con piu schede discrete), allora parliamo di realtà (nemmeno vicinissima, ma forse meno di 5-6 anni).
Sono due argomenti diversi.
Di cui uno è fanta informatica (il primo citato),visto che lo ribadisco per l'ennesima volta: le schede video discrete (da affiancare con altre o con apu o sostiuire al posto della apu) sono e saranno fondamentali sempre.
Il secondo argomento invece è realtà.
beh il 2600k a 4.6 si meriterebbe qualche altra scheda :D :D :D :D
beh: 2 x hd5850 non sono mica noccioline americane :D
lo dico perchè ho anche io un cf identico :D
grazie shellx ;)
Io intendo appunto dire che data l'impossibilità di ottenere integrate potenti come le discrete (e questa situazione è eterna, finchè c'è volontà di sviluppare parallelamente entrambe le linee, penso che sia scontata motivazione) non è conveninete a priori una o più apu in confronto a cpu+vga top di gamma (che siano stile hd7870 o stile tesla poco cambia, non parlo di giochi ma solo di calcoli) ma va calcolata in base all'uso.
Poi auspico che la "cooperazione" a basso livello con condivisione della ram di sistema e menate varie, sia possibile in futuro sia con le apu che con procio+vga e quindi penso che anche a livello di software e driver problemi non dovrebbero essercene in questo senso :D
Sono meno rigido rispetto a shellx sulle apu, ma personalmente le trovo comode su notebook e\o htpc, sistemi da ufficio e via dicendo...ma non sono da comparare a sistemi separati, neanche in virtù dei minori consumi, dato che per la potenza che offrono, consumano molto più di una dedicata di fascia alta e §"la bolletta" tiene conto di ciò che consumiamo e del tempo in cui questi consumi durano...
sono più dislessico del solito oggi, causa influenza..portate pazienza
carlottoIIx6
07-01-2012, 23:36
CUT
1. per tutti coloro che si aspettano chip video pari ad una hd7970 o futura ipotetica hd9970 dual gpu pro edition e bla bla bla integrata nell'apu gli dico: svegliatevi che vivete nel mondo delle favole (e soprattutto giocate di meno ai videogame perchè vi danno alla testa).
CUT
SU QUESTO PUNTO NON METTEREI LIMITI, DICO IN UN FUTURO REMOTO.
carletto sarà sempre e comunque meno performante l'apu è ovvio :)
Una scheda dedicata ha più spazio per inserire componenti, meno vincoli di tdp...
Se poi in futuro i pc saranno organici, in questo caso ne riparleremo :D
carlottoIIx6
07-01-2012, 23:55
carletto sarà sempre e comunque meno performante l'apu è ovvio :)
Una scheda dedicata ha più spazio per inserire componenti, meno vincoli di tdp...
Se poi in futuro i pc saranno organici, in questo caso ne riparleremo :D
PERCHE' IMMAGINI L'APU COME ORA.
IO LA IMMAGGINO SU UNA SCHEDA VIDEO, CON QUALCHE MODULO DI CALCOLO CPU E TANTA PARTE GPU.
carletto i tanti moduli apu potrebbero essere sostituiti da intere sezioni gpu che potrebbero avere più potenza e spazio per stream processor et simila, perchè la parte cpu potrebbe essere separata...proprio come due componenti diversi :)
Lo ripeto, il concetto di fusion se vogliono un prodotto vincente deve essere la flassibilità, un soc per chi vuole bassa potenza e poco prezzo, stesse features maggiorate su componenti separati per chi vuole potenza...non penso sia difficile capire che intendo :)
digieffe
08-01-2012, 00:49
PERCHE' IMMAGINI L'APU COME ORA.
IO LA IMMAGGINO SU UNA SCHEDA VIDEO, CON QUALCHE MODULO DI CALCOLO CPU E TANTA PARTE GPU.
A grandi linee da tesla e GCN sono già come tu IMMAGINI...
in un forum specifico c'era una discussione che faceva riferimento al far eseguire linux sulle schede video... (windows essendo proprietario...)
faccio l'esempio di GCN (7900):
- è costituita da 32 compute unit (CU)
ogni compute unit è costituita da:
- 4 unità vettoriali da 16 stream processors (considerale grezzamente come 4 AVX a 512 bit) (TANTA PARTE GPU)
- 1 unità scalare (considerala grezzamente come una pipeline int di bulldozer (1/4 di core = 1/2 modulo)) (MODULO DI CALCOLO CPU)
quindi sono già come tu le descrivi...
digieffe
08-01-2012, 00:58
la differenza attualmente e fino a che non si cambierà tecnologia sarà data da 1 solo elemento:
i WATT.
una APU ha (77)/95/100w di tdp tra parte CPU e parte GPU.
una GPU ha 250/300w di tdp solo nella parte GPU (comprese le unità scalari).
senza contare:
- ddr3 1866 2 ch VS ddr5 5500 6 ch.
- probabilmente minor leackage nella GPU essendo quest'ultima clockata più bassa.
.....
paolo.oliva2
08-01-2012, 05:25
Io penso che in un futuro di 5/10 anni le VGA discrete potrebbero addirittura sparire, un po come è già capitato con CPU con coprocessore matematico a parte.
Con un po di immaginazione e condimento di fanta :D , credo che le cose dovrebbero cambiare radicalmente rispetto ad oggi anche sul lato software.
Se estremizzassimo i cambiamenti che ci sono stati nei PC dagli anni 80 ad oggi, possiamo notare tranquillamente che tutto è stato via via integrato in un unico chip e sempre con la filosofia di più parti logiche specifiche con un determinato compito nello stesso chip.
Mi sembra chiaro che teorizzare oggi che una CPU APU di 100W possa essere più potente di una CPU singola da 120W con accanto una VGA da 350W è di per sè giusto, ma dobbiamo anche considerare che una CPU da 120W con il coprocessore matematico a fianco degli anni 90 è una briciola rispetto ad una CPU attuale. Consideriamo anche che la miniaturizzazione del silicio ad ogni passaggio riesce a dimezzare i consumi con la stessa potenza (vedi 22nm Intel ma non 32nm AMD, al momento)e che comunque un APU consuma sempre meno di una CPU + VGA discreta con la stessa potenza. Un APU a 16nm, tra minor consumo silicio e motori grafici futuri + potenti/ottimizzati, credo che nei suoi 100W potrà fornire le stesse potenze attuali di una accoppiata CPU+VGA discreta da 500W.
Che so... magari nel 2020 ci potrebbero essere CPU APU 64 core, con 64 IGP che ognuno si rende 1/64° dello schermo, con tanto di cuore software A/I e le VGA discrete non esisteranno più.
Io penso che in un futuro di 5/10 anni le VGA discrete potrebbero addirittura sparire, un po come è già capitato con CPU con coprocessore matematico a parte.
Con un po di immaginazione e condimento di fanta :D , credo che le cose dovrebbero cambiare radicalmente rispetto ad oggi anche sul lato software.
Se estremizzassimo i cambiamenti che ci sono stati nei PC dagli anni 80 ad oggi, possiamo notare tranquillamente che tutto è stato via via integrato in un unico chip e sempre con la filosofia di più parti logiche specifiche con un determinato compito nello stesso chip.
Mi sembra chiaro che teorizzare oggi che una CPU APU di 100W possa essere più potente di una CPU singola da 120W con accanto una VGA da 350W è di per sè giusto, ma dobbiamo anche considerare che una CPU da 120W con il coprocessore matematico a fianco degli anni 90 è una briciola rispetto ad una CPU attuale. Consideriamo anche che la miniaturizzazione del silicio ad ogni passaggio riesce a dimezzare i consumi con la stessa potenza (vedi 22nm Intel ma non 32nm AMD, al momento)e che comunque un APU consuma sempre meno di una CPU + VGA discreta con la stessa potenza. Un APU a 16nm, tra minor consumo silicio e motori grafici futuri + potenti/ottimizzati, credo che nei suoi 100W potrà fornire le stesse potenze attuali di una accoppiata CPU+VGA discreta da 500W.
Che so... magari nel 2020 ci potrebbero essere CPU APU 64 core, con 64 IGP che ognuno si rende 1/64° dello schermo, con tanto di cuore software A/I e le VGA discrete non esisteranno più.
C'è un enorme differenza: all'epoca il processo produttivo era a 800 nm e potevi immaginare di inserire qualsiasi cosa, adesso siamo quasi al limite del silicio (c'è spazio per qualche altra generazione , ma se non ricordo male dovremo fermarci a 6-8 nm), pertanto non potremo contare su un elevata integrazione nei prossimi anni, a meno che non cambiano materiale. Integrare una GPU tipo la 6950 magari sarà possibile, ma più di tanto non si può miniaturizzare.
digieffe
08-01-2012, 11:07
ipotizzando un raddoppio per ogni nodo e considerando solo amd (intel non fa testo viste le sue attuali igp)
32nm - 400 sp
28mn - 576 sp (1/2 nodo)
20nm - 1152 sp (1 nodo)
14nm - 2304 sp (1)
sarà necessario raggiungere i 14 nm per avere circa lo stesso numero di stream processors di una 7970...
per la ram Gddr5 da 5+ghz 6 canali non so come faranno...
EDIT:
10mn - 4600 sp
7 nm - 9200 sp
se una scheda teoricamente 4 volte più veloce della 7970 basterà un pò per tutto allora le schede video discrete saranno relegate solo nei centri di calcolo o poche workstation.
con un passo di 1 nodo ogni 2 anni (vedi intel) saremo al 2021 per i 7 nm...
carlottoIIx6
08-01-2012, 11:13
cut
quindi sono già come tu le descrivi...
e quindi viene da se... il ragionamento
comprando schede saparate uno aumenta il suo potere di calcolo complessivo perchè apu x calcolo e apu per grafica si DEVONO sommare
carlottoIIx6
08-01-2012, 11:19
ipotizzando un raddoppio per ogni nodo e considerando solo amd (intel non fa testo viste le sue attuali igp)
32nm - 400 sp
28mn - 576 sp (1/2 nodo)
20nm - 1152 sp (1 nodo)
14nm - 2304 sp (1)
sarà necessario raggiungere i 14 nm per avere circa lo stesso numero di stream processors di una 7970...
per la ram Gddr5 da 5+ghz 6 canali non so come faranno...
EDIT:
10mn - 4600 sp
7 nm - 9200 sp
se una scheda teoricamente 4 volte più veloce della 7970 basterà un pò per tutto allora le schede video discrete saranno relegate solo nei centri di calcolo o poche workstation.
con un passo di 1 nodo ogni 2 anni (vedi intel) saremo al 2021 per i 7 nm...
una volta che hai una tecnologia di integrazione la puoi usare anche nel silicio per gpu. la sparo: la serie 8000 potrebbe essere più apu della serie 7000.
PS chi ho colpito :D
Io penso che in un futuro di 5/10 anni le VGA discrete potrebbero addirittura sparire, un po come è già capitato con CPU con coprocessore matematico a parte.
Difficilmente le vga discrete spariranno.
Verosimilmente vedrei piuttosto vga di classe diversa:
Le top di gamma con un'elevata potenza di calcolo, in grado di eseguire applicazioni specifiche accellerandole, e fps a volonta.
Vga di fascia bassa, non più però gpu, semplicemente chip specifici per applicare texture ai dati processati dalle apu, con l'applicazione di effetti.
Avremo allora computer con un comparto grafico moolto potente, ed altri con schede in grado di apllicare effetti e texture ai poligoni calcolati dalle apu (in fondo la memoria dedicata difficilmente possa essere sostituita in toto da quella di sistema.
ipotizzando un raddoppio per ogni nodo e considerando solo amd (intel non fa testo viste le sue attuali igp)
32nm - 400 sp
28mn - 576 sp (1/2 nodo)
20nm - 1152 sp (1 nodo)
14nm - 2304 sp (1)
sarà necessario raggiungere i 14 nm per avere circa lo stesso numero di stream processors di una 7970...
per la ram Gddr5 da 5+ghz 6 canali non so come faranno...
EDIT:
10mn - 4600 sp
7 nm - 9200 sp
se una scheda teoricamente 4 volte più veloce della 7970 basterà un pò per tutto allora le schede video discrete saranno relegate solo nei centri di calcolo o poche workstation.
con un passo di 1 nodo ogni 2 anni (vedi intel) saremo al 2021 per i 7 nm...
E stiamo a 10 anni...
e comunque parliamo sempre di una situazione in cui le schede video discrete oltre che hai comparti workstation, potranno essere accolte dalle mobo desktop per potenziare i calcoli offerti da questa apu da star trek.
Una 7970 o qualsiasi scheda video top discreta ha delle peculiarità che difficilemnte possono essere applicate attualmente in un chip unico miniaturizzato. A men che di renderla castrata a destra e a manca. Ma la vera potenza la si trova solo su soluzioni non integrate, è sempre stato cosi e lo sarà negli anni a venire.
Chiaramente è ovvio che l'apu del 2014 sara potente da far girare sufficientemente titoli dell'anno prima, ma per potenza grafica, vera potenza grafica, le apu sara insufficienti anche fra 5 anni.
Per chi non si accontenta chiaramente.
Arriverà il giorno che una apu soddisfera piu dell'80% delle esigenze di elaborazione, ma per determinati compiti o seigenze dell'utente non verra mai amancare la scheda video discreta o qualsiasi altra periferica da instalalre sulla mobo (scheda audio, controller ssd, scheda video, chairamente ram ecc ecc). Le mobo non cambieranno aspetto, lo modificheranno forse.
Ma tale giorno di cui parlo, non è alle porte.
Voi vedete mobo piccole come schede telefoniche da mettere solo un pau che vi fa il caffè e il bucato, io vedo mobo come quelle di oggi, almeno con due pci-e, con apu potenti e schede video discrete smepre pronte a salire in sella per potenziare tutto il sistema di calcolo aiutanto le apu, e tutto questo lo vedo non prima di 10 anni.
Tuttavia spero di vivere per i prossimi 10 anni ;)
Difficilmente le vga discrete spariranno.
Verosimilmente vedrei piuttosto vga di classe diversa:
Le top di gamma con un'elevata potenza di calcolo, in grado di eseguire applicazioni specifiche accellerandole, e fps a volonta.
Vga di fascia bassa, non più però gpu, semplicemente chip specifici per applicare texture ai dati processati dalle apu, con l'applicazione di effetti.
Avremo allora computer con un comparto grafico moolto potente, ed altri con schede in grado di apllicare effetti e texture ai poligoni calcolati dalle apu (in fondo la memoria dedicata difficilmente possa essere sostituita in toto da quella di sistema.
ecco, questa è un concetto piu verosimilmente informatico
carlottoIIx6
08-01-2012, 15:55
cut
ecco, questa è un concetto piu verosimilmente informatico
io non mai detto che spariranno :D
ho detto che saranno apu.
trinity da già sfogio del primo "vero" fusion:
BD e serie 7000 sono state guidate dalle esigenze di trinity.
piledrive avrà, anche senza gpu, qualcosa di apu, cosi anche la serie 7000.
da qui si capisce una cosa. che piledrive sara' più parco nei consumi ;) ad esempio
digieffe
08-01-2012, 16:22
io non mai detto che spariranno :D
ho detto che saranno apu.
trinity da già sfogio del primo "vero" fusion:
BD e serie 7000 sono state guidate dalle esigenze di trinity.
piledrive avrà, anche senza gpu, qualcosa di apu, cosi anche la serie 7000.
da qui si capisce una cosa. che piledrive sara' più parco nei consumi ;) ad esempio
Permettimi di dissentire trinity è fusion esattamente quanto Llano (cioè poco: sono solo insieme nello stesso die cpu e gpu).
Llano porta la gpu vliw5 e trinity la gpu vliw 4.
Il "vero" fusion inizierà con il successore di trinity ossia steamroller + GCN.
carlottoIIx6
08-01-2012, 17:25
Permettimi di dissentire trinity è fusion esattamente quanto Llano (cioè poco: sono solo insieme nello stesso die cpu e gpu).
Llano porta la gpu vliw5 e trinity la gpu vliw 4.
Il "vero" fusion inizierà con il successore di trinity ossia steamroller + GCN.
io lo vedre com un mix tra llano e il futuro.
fare delle previsioni a 5 anni lo vedo possibile, a 10 più difficile. Ci possono essere molte variabili che sfuggono.. così come potrebbero esserci nuove tecnologie in grado di rivoluzionare il pc come lo conosciamo ed anche la cpu-gpu- apu. Comunque certo nell'ambito della fanta informatica è ok :stordita:
io non mai detto che spariranno :D
ho detto che saranno apu.
:mbe: aridaglieee...
ma lo fai apposta a capire le cose come le vuoi capire ?
vabbe mi arrendo stop...
e comunque fantasticamente parlando: quando una 7970 sara in apu (fra x anni) in quel periodo ci sara una ipotetica hdxxxx discreta 4 volte piu potente della 7xxx, capace di affiancare un apu senza integrazione (dal pci-e) e potenziare l'elaborazione.
Comunque chiudiamo il discorso qui, perchè oltre che essere spudoratamente OT mi sono pure scocciato. Godiamoci cio che ci offre oggi il mercato, sperando che domani ci offrira soprattutto la possibilità di scelta in ambito hardware. Altrimenti saremo un po tutti nella merda.
trinity da già sfogio del primo "vero" fusion:
BD e serie 7000 sono state guidate dalle esigenze di trinity.
piledrive avrà, anche senza gpu, qualcosa di apu, cosi anche la serie 7000.
da qui si capisce una cosa. che piledrive sara' più parco nei consumi ;) ad esempio
una cosa la ammetto: la fantasia non ti manca
trinity non fonde proprio niente: è una cpu + gpu accrocchiate e affiancate, ossia una banalissima revisione di llano (sia in ambito architettura cpu che in ambito architettura gpu), mantenendo sempre lo stesso pp.
io lo vedre com un mix tra llano e il futuro.
per immaginare un futuro il piu possibile verosimile bisogna avere un quadro dettagliato del presente
carlottoIIx6
08-01-2012, 21:58
cut
una cosa la ammetto: la fantasia non ti manca
trinity non fonde proprio niente: è una cpu + gpu accrocchiate e affiancate, ossia una banalissima revisione di llano (sia in ambito architettura cpu che in ambito architettura gpu), mantenendo sempre lo stesso pp.
per immaginare un futuro il piu possibile verosimile bisogna avere un quadro dettagliato del presente
cos'è il futuro se cosa riusciamo a immaginarci ora?
:D
sulla cosa di trinity non ci scommetterei :) magari esce quaocosa ll'utimo e perdi tutto :D
sulla cosa di trinity non ci scommetterei :) magari esce quaocosa ll'utimo e perdi tutto :D
oook :D
The3DProgrammer
09-01-2012, 08:27
la vedo dura un'integrazione spinta tra cpu e gpu almeno fin quando l'ISA rimane x86. Per utilizzare un ipotetico array di unita' SIMD ci vorrebbe sicuramente un nuovo set d'istruzioni, con magari un altro execution mode annesso, e comunque non funzionerebbe con le attuali applicazioni a meno di una ricompilazione. Poi per sfruttare il potenziale di una GPU al massimo e' richiesto un elevato livello di parallelizzazione, cosa che difficilmente vedremo a breve in applicazioni desktop.
Il thread inizia a diventare bello lungo, ci sono leak relativi a piledriver?
la vedo dura un'integrazione spinta tra cpu e gpu almeno fin quando l'ISA rimane x86. Per utilizzare un ipotetico array di unita' SIMD ci vorrebbe sicuramente un nuovo set d'istruzioni, con magari un altro execution mode annesso, e comunque non funzionerebbe con le attuali applicazioni a meno di una ricompilazione. Poi per sfruttare il potenziale di una GPU al massimo e' richiesto un elevato livello di parallelizzazione, cosa che difficilmente vedremo a breve in applicazioni desktop.
Ed io lo so che tu hai ragione. Ma purtroppo si fa fatica qui dentro a farlo capire in termini elementari figuriamoci se entro nel tecnico.
carlottoIIx6
09-01-2012, 13:32
la vedo dura un'integrazione spinta tra cpu e gpu almeno fin quando l'ISA rimane x86.
Per utilizzare un ipotetico array di unita' SIMD ci vorrebbe sicuramente un nuovo set d'istruzioni, con magari un altro execution mode annesso, e comunque non funzionerebbe con le attuali applicazioni a meno di una ricompilazione.
Poi per sfruttare il potenziale di una GPU al massimo e' richiesto un elevato livello di parallelizzazione, cosa che difficilmente vedremo a breve in applicazioni desktop.
Il thread inizia a diventare bello lungo, ci sono leak relativi a piledriver?
gia', ma come vedi open cl in questo disegno?
Ed io lo so che tu hai ragione. Ma purtroppo si fa fatica qui dentro a farlo capire in termini elementari figuriamoci se entro nel tecnico.
Va bene per l'ISA x86, ma non credi che sia possibile far lavorare la parte fp di fusion in modalità x86?
In fondo non dovrebbe essere la logica della cpu a passare tutto all'unità di esecuzione dedicata o dovranno integrare istruzioni apu64 e lavorare in modalità compatibile con calcoli fp-x86 compatible?
Scusami per la maniera contorta di espormi
Va bene per l'ISA x86, ma non credi che sia possibile far lavorare la parte fp di fusion in modalità x86?
In fondo non dovrebbe essere la logica della cpu a passare tutto all'unità di esecuzione dedicata o dovranno integrare istruzioni apu64 e lavorare in modalità compatibile con calcoli fp-x86 compatible?
Scusami per la maniera contorta di espormi
Il problema è che l'emulazione in elaborazioni di un certa scala non è mai la migliore scelta.
Fino a quando esisteranno l'ultimo dei discendenti codici per applicazioni x86, i core x86 invaderanno sempre le nostre macchine.
E le applicazioni x86 sono dure a morire e lo saranno per decenni, guardando la situazione da punti di vista professionali e di un certo calibro, e lasciando stare i giochini e le menate brufolose varie.
Allora niente amd 8120.. l'avevo preso da uno shop in offerta speciale, ma non ce l'hanno più.
Sapete quando sarà reperibile l'amd 8120 da 9W (l'ho visto per ora solo a un tipo su xtremesystems). E l'8100?
Allora niente amd 8120.. l'avevo preso da uno shop in offerta speciale, ma non ce l'hanno più.
Sapete quando sarà reperibile l'amd 8120 da 9W (l'ho visto per ora solo a un tipo su xtremesystems). E l'8100?
Non se ne hanno più notizie, tra le altre cose fx 6200 è uscito in sordina senza la minima review.
ovviamente intendevo 95W non 9:D , e poi l'8170? :confused:
dark.halo
09-01-2012, 20:00
Allora niente amd 8120.. l'avevo preso da uno shop in offerta speciale, ma non ce l'hanno più.
Sapete quando sarà reperibile l'amd 8120 da 9W (l'ho visto per ora solo a un tipo su xtremesystems). E l'8100?
Mi accodo, attendo l'8120 95W per mandare in pensione il mio Athlon II x4 620
Phenomenale
09-01-2012, 20:03
e poi l'8170?
Da documentazioni AMD sembra che lo stepping B3 sia stato cancellato, quindi i Bulldozer ce li teniamo come sono. La buona notizia è che nel Q3 o Q4 del 2012 dovremmo avere la nuova generazione Piledriver su AM3+.
Salvo nuove roadmap. :rolleyes:
Paradossalmente continuano gli aumenti di prezzi... da chi acquisto di solito 8120 passato da 202 a 214 euro.
ovviamente intendevo 95W non 9:D , e poi l'8170? :confused:
Magari: a 9 W lo prenderebbero tutti, perché sarebbe un buon investimento per il futuro (il solo risparmio di consumi lo renderebbe appetibile, nonostante le sue prestazioni inferiori agli i5).
Io l'8120 l'ho trovato a 190 spedito, il meno possibile spedito, tanne offerte particolari.
Ma a questo punto aspetto, solo mi sorge il dubbio: pensate che le motherboards compatibili con am 8120 e 50 lo saranno anche con piledriver? Perché la mia per esempio è AM3 con 880g data per compatibile da asrock con 8120 e 50 tramite upgrade di bios.. ma non so se ci sarà la compatibilità anche coi nuovi proci :mbe:
redpepper
09-01-2012, 21:37
Paradossalmente continuano gli aumenti di prezzi... da chi acquisto di solito 8120 passato da 202 a 214 euro.
È l'euro che sta calando rispetto al dollaro che alza il prezzo
Paradossalmente continuano gli aumenti di prezzi... da chi acquisto di solito 8120 passato da 202 a 214 euro.
io l'avevo messo in carrello a 164 e ora e' a 210.... a questo punto metto in carrello l'8150 a 248..
la mb sabertooth da 144 a 154..
io l'avevo messo in carrello a 164 e ora e' a 210.... a questo punto metto in carrello l'8150 a 248..
la mb sabertooth da 144 a 154..
sì ma lì pure a me, era da eprezzo, era un'offerta speciale e l'hanno terminato.
Ma in altri shop lo trovi sotto i 200 spedito, qualcosina in meno in qualche noto shop che è fuori da trovaprezzi
grandemaumila
09-01-2012, 22:05
8120 come me! rapporto qualita prezzo ottimi.. ve lo consiglio :)
8120 come me! rapporto qualita prezzo ottimi.. ve lo consiglio :)
d'accordo se fosse a 95w ma allo stesso tdp , 40 euro in piu' e prendo l'8150
in realtà però nel 99% dei casi l'energa dissipata è più bassa del 8150.. certo però quest'ultimo è attalmente indubbiamente un chipdi qualità maggiore. Magari però ci fosse stato l'8120 da 95W non sarebbe stato così, in quanto forse portato@8150 poteva rimanere sotto i 125W. cmq non sono 40 euro in media, certo dipende dagli shop, ma secondo me la media di differenza di prezzo tra i 2 processori è sui 60 euro
in realtà però nel 99% dei casi l'energa dissipata è più bassa del 8150.. certo però quest'ultimo è attalmente indubbiamente un chipdi qualità maggiore. Magari però ci fosse stato l'8120 da 95W non sarebbe stato così, in quanto forse portato@8150 poteva rimanere sotto i 125W. cmq non sono 40 euro in media, certo dipende dagli shop, ma secondo me la media di differenza di prezzo tra i 2 processori è sui 60 euro
il fatto e' che io li tengo sempre costantemente al 100% ( boinc ) e dunque il tdp ci sta' tutto , purtroppo ( adesso ho i 9350e da 65W , mi sa che la differenza si sentira'... )
il fatto e' che io li tengo sempre costantemente al 100% ( boinc ) e dunque il tdp ci sta' tutto , purtroppo ( adesso ho i 9350e da 65W , mi sa che la differenza si sentira'... )
Sì anche io stessa cosa..ma adesso per esempio tengo l'amd 450 a 2 ghz.
Stessa cosa farei con l'amd fx: farei vari profili a seconda delle necessità (per gaming per es non mifarei scrupoli di consumo, metterei la max frequenza che regge il mio sistema di dissipazione o quasi) mentre con boinc metterei a 2 ghz o giù di lì.
Capisci che così più che il tdp nativo è utile avere un chip che consuma il meno possibile ad una data frequenza.. in questo senso attualmente è probabile che quasi tutti gli 8150 siano migliori delle altre cpu.. cosa che cambierebbe se ci fosse, probabilmente, l'8120 da 95W, o ancora l'8170. Cioè magari l'8170 lo terrei lo stesso a 2 gh per dire ma mi consumerebbe meno degli altri.
Al di là di questo comunque ricordo che i tdp sono molto indicativi: se guardi i grafici di assorbimento ecc vedi che in media tra un 8120 ed un 8150 c'è differenza.
Cioè dico probabilmente tra un 8120 da 95 e 125 W non ci saranno davvero 30 W di differenza, probabile che sia abbasanza di meno, semplicemente perché il primo rientra appena appena nei 95W mentre il secondo con ampio margine nei 125. se guardi poi rispetto a thuban i consumi sia in idle che in flull, a parto il lato dolente dell'overlock, la potenza dissipata daglifx è davvero contenuta
carlottoIIx6
09-01-2012, 23:12
Sì anche io stessa cosa..ma adesso per esempio tengo l'amd 450 a 2 ghz.
Stessa cosa farei con l'amd fx: farei vari profili a seconda delle necessità (per gaming per es non mifarei scrupoli di consumo, metterei la max frequenza che regge il mio sistema di dissipazione o quasi) mentre con boinc metterei a 2 ghz o giù di lì.
Capisci che così più che il tdp nativo è utile avere un chip che consuma il meno possibile ad una data frequenza.. in questo senso attualmente è probabile che quasi tutti gli 8150 siano migliori delle altre cpu.. cosa che cambierebbe se ci fosse, probabilmente, l'8120 da 95W, o ancora l'8170. Cioè magari l'8170 lo terrei lo stesso a 2 gh per dire ma mi consumerebbe meno degli altri.
Al di là di questo comunque ricordo che i tdp sono molto indicativi: se guardi i grafici di assorbimento ecc vedi che in media tra un 8120 ed un 8150 c'è differenza.
Cioè dico probabilmente tra un 8120 da 95 e 125 W non ci saranno davvero 30 W di differenza, probabile che sia abbasanza di meno, semplicemente perché il primo rientra appena appena nei 95W mentre il secondo con ampio margine nei 125. se guardi poi rispetto a thuban i consumi sia in idle che in flull, a parto il lato dolente dell'overlock, la potenza dissipata daglifx è davvero contenuta
gli FX e tutti gli altri proci amd non sono ottimizzati, quindi la sana pratica dell0undervolt puo abbassare molto i consumi', se si e'
fortunati
non credo che arrivero' a fare settaggi bios per ogni avvio a seconda dell'uso
volevo piuttosto provare a togliere un po' di voltaggio dalla cpu mantenendo la frequenza...
anzi , se sapete darmi una dritta su come e quanto impostare nel bios come voltaggio....
il 6200 penso abbia fatto un bel paper launch perché non si legge nessuna reviews in giro :)
Da documentazioni AMD sembra che lo stepping B3 sia stato cancellato, quindi i Bulldozer ce li teniamo come sono. La buona notizia è che nel Q3 o Q4 del 2012 dovremmo avere la nuova generazione Piledriver su AM3+.
Salvo nuove roadmap. :rolleyes:
Però leggevo ora tra le cpu supportate dalla mia mobo, riporto di seguito:
AM3 + FX FD8120WMW8KGU (BE) 95W Bulldozer 3100MHz 2200MHz 2MB x4 8MB B2 P2.10
AM3 + FX FD8100WMW8KGU (BE) 95W Bulldozer 2800MHz 2000MHz 2MB x4 8MB B2 P2.10
cioè sono tutti e due step B2! ormai dovrebbero iniziare ad essere commercializzati no?
Io l'8120 l'ho trovato a 190 spedito, il meno possibile spedito, tanne offerte particolari.
Ma a questo punto aspetto, solo mi sorge il dubbio: pensate che le motherboards compatibili con am 8120 e 50 lo saranno anche con piledriver? Perché la mia per esempio è AM3 con 880g data per compatibile da asrock con 8120 e 50 tramite upgrade di bios.. ma non so se ci sarà la compatibilità anche coi nuovi proci :mbe:
Non è difficile: se il socket non è nero piledriver non lo supporterà (tranne rari casi di modelli particolari con basso tdp).
Il fatto che alcune mobo con socket bianco (am3) siano compatibili con alcuni fx è gia un miracolo, che sinceramente non so da cosa è dato. Sicuramente il fatto che supporta solo alcuni modelli è gia dato da una condizione di limite di corrente erogata alla cpu. Molto probabilmente un 125tdp fx quella mobo nemmeno lo avvia. Ecco perchè nel cpulist cita solo i 95w. Ma è da vedere quando qeusti 95w vedranno luce.
Infatti molte mobo con chipset 8xx sono state revisionate con black socket (am3+) e queste supportano tutti o quasi tutti gli fx (95 e 125).
Non è difficile: se il socket non è nero piledriver non lo supporterà (tranne rari casi di modelli particolari con basso tdp).
Il fatto che alcune mobo con socket bianco (am3) siano compatibili con alcuni fx è gia un miracolo, che sinceramente non so da cosa è dato. Sicuramente il fatto che supporta solo alcuni modelli è gia dato da una condizione di limite di corrente erogata alla cpu. Molto probabilmente un 125tdp fx quella mobo nemmeno lo avvia. Ecco perchè nel cpulist cita solo i 95w. Ma è da vedere quando qeusti 95w vedranno luce.
Infatti molte mobo con chipset 8xx sono state revisionate con black socket (am3+) e queste supportano tutti o quasi tutti gli fx (95 e 125).
No un attimo.. sono riportati anche i 125W, compreso 8150! sono io che non li ho riportati per brevità, in quanto mi interessava solo dire che quei modelli da 95W erano B2 e non B3.. se non è contro il regolamento posso anche mettere il link della cpu support list.
Appunto adesso ho questo dubbio perché non ho idea se potrò montare piledriver o sicuramente no.. te sei sicuro di no quindi?
No un attimo.. sono riportati anche i 125W, compreso 8150! sono io che non li ho riportati per brevità, in quanto mi interessava solo dire che quei modelli da 95W erano B2 e non B3.. se non è contro il regolamento posso anche mettere il link della cpu support list.
Appunto adesso ho questo dubbio perché non ho idea se potrò montare piledriver o sicuramente no.. te sei sicuro di no quindi?
Io sono sicuro che se il socket non è nero (am3+) gia si fa fatica a supportare pienamente tutti i modelli fx, quindi mi viene da immaginare che non c'è spazio per i piledriver.
Il supporto su am3 è solo via bios, e sinceramente prevedo limiti che potrebbero portare a problematiche gia su modelli fx. Poi è tutto da provare.
Se posso darti un consiglio personale: prova a smollare sta mobo sul mercatino e prenditi una mobo economica am3+ (socket nero quindi) e vai sul sicuro che avrai supporto pieno anche con piledriver.
se smollola mobo perdo il vantaggio economico di stare su amd :D . Ma cmq vedo, se prendo bd vedrò se ci sono problemi, anche io sono curioso di vedere se funziona come una AM3+ o no :Prrr:
The3DProgrammer
10-01-2012, 08:16
gia', ma come vedi open cl in questo disegno?
Premessa: non ho mai sviluppato ne usando openCL ne CUDA, quindi quello che dico puo' essere tranquillamente smentito e si basa su pareri/impressioni/valutazioni lette in giro per il web di altri sviluppatori che hanno utilizzato queste librerie.
Poi siamo OT, quindi ti rispondo qua e se hai qualche altra domanda puoi farmela in privato :)
I problemi grossi sono 2: Uno e' la presenza di 2 aree di memoria separate, 1 per la CPU (la RAM di sistema) e l'altra per la GPU (la memoria video). La GPU non puo' accedere alla memoria di sistema direttamente, questo implica che prima di effettuare qualsiasi operazione, i dati devono essere spostati avanti e indietro dalla RAM alla memoria video, tramite il PCI express e il DMA (Direct Memory Access). Questa operazione e' di solito trasparente allo sviluppatore il quale si occupa solo di allocare gli stream di dati, ed e' effettuata dal driver. Pero' e' estremamente vincolante in termini di performance e in termini "architetturali" (nel senso che ci vuole per forza un driver per far funzionare il tutto). Gia' risolvere questo problema sarebbe un bel passo avanti.
Il secondo problema e' se possibile ancora + vincolante, e riguarda il modello di programmazione. Infatti per sfruttare al massimo una GPU bisogna parallelizzare i task, ma con un livello estremamente + spinto rispetto al modello attuale utilizzato con le CPU multicore. Si parla di centinaia di thread per essere in grado di sfruttare tutte le SIMD unit disponibili. Ovviamente non sono molti i task che possano scalare in modo efficiente con un numero elevato di thread. Su questo argomento ci sono dei post interessantissimi sul blog dello sviluppatore di x264, in cui si parla di CUDA e del perche' x264 sia ancora eseguito quasi interamente sulla CPU.
papafoxtrot
10-01-2012, 13:14
Premessa: non ho mai sviluppato ne usando openCL ne CUDA, quindi quello che dico puo' essere tranquillamente smentito e si basa su pareri/impressioni/valutazioni lette in giro per il web di altri sviluppatori che hanno utilizzato queste librerie.
Poi siamo OT, quindi ti rispondo qua e se hai qualche altra domanda puoi farmela in privato :)
I problemi grossi sono 2: Uno e' la presenza di 2 aree di memoria separate, 1 per la CPU (la RAM di sistema) e l'altra per la GPU (la memoria video). La GPU non puo' accedere alla memoria di sistema direttamente, questo implica che prima di effettuare qualsiasi operazione, i dati devono essere spostati avanti e indietro dalla RAM alla memoria video, tramite il PCI express e il DMA (Direct Memory Access). Questa operazione e' di solito trasparente allo sviluppatore il quale si occupa solo di allocare gli stream di dati, ed e' effettuata dal driver. Pero' e' estremamente vincolante in termini di performance e in termini "architetturali" (nel senso che ci vuole per forza un driver per far funzionare il tutto). Gia' risolvere questo problema sarebbe un bel passo avanti.
Il secondo problema e' se possibile ancora + vincolante, e riguarda il modello di programmazione. Infatti per sfruttare al massimo una GPU bisogna parallelizzare i task, ma con un livello estremamente + spinto rispetto al modello attuale utilizzato con le CPU multicore. Si parla di centinaia di thread per essere in grado di sfruttare tutte le SIMD unit disponibili. Ovviamente non sono molti i task che possano scalare in modo efficiente con un numero elevato di thread. Su questo argomento ci sono dei post interessantissimi sul blog dello sviluppatore di x264, in cui si parla di CUDA e del perche' x264 sia ancora eseguito quasi interamente sulla CPU.
Hem, non vorrei sbagliare, ma credo che le specifiche IOMMU, supportate dalle nuove HD7000, servano ad ovviare al primo problema; GCN supporta una mappatura dinamica della memoria, se non sbaglio attraverso un Memory controller analogo a quello x86, e permette di passare i dati dalla CPU alla GPU, semplicemente passando il puntatore alla memoria.
Inoltre per quanto riguarda la programmazione, GCN dovrebbe essere programmabile via C++, come se non sbaglio lo sono le nvidia con architettura fermi.
Hem, non vorrei sbagliare, ma credo che le specifiche IOMMU, supportate dalle nuove HD7000, servano ad ovviare al primo problema; GCN supporta una mappatura dinamica della memoria, se non sbaglio attraverso un Memory controller analogo a quello x86, e permette di passare i dati dalla CPU alla GPU, semplicemente passando il puntatore alla memoria.
Inoltre per quanto riguarda la programmazione, GCN dovrebbe essere programmabile via C++, come se non sbaglio lo sono le nvidia con architettura fermi.
:eek: :eek: ci piace sta cosa :D
Athlon 64 3000+
10-01-2012, 15:44
http://semiaccurate.com/forums/showthread.php?t=5993
Ho trovato questo link,ma non ho capito di cosa parla.
giuliojiang
10-01-2012, 15:49
Hem, non vorrei sbagliare, ma credo che le specifiche IOMMU, supportate dalle nuove HD7000, servano ad ovviare al primo problema; GCN supporta una mappatura dinamica della memoria, se non sbaglio attraverso un Memory controller analogo a quello x86, e permette di passare i dati dalla CPU alla GPU, semplicemente passando il puntatore alla memoria.
Inoltre per quanto riguarda la programmazione, GCN dovrebbe essere programmabile via C++, come se non sbaglio lo sono le nvidia con architettura fermi.
è molto interessante. Questo significa che passando il puntatore alla gpu, questa può accedere direttamente per conto proprio alla ram di sistema
The3DProgrammer
10-01-2012, 15:59
http://semiaccurate.com/forums/showthread.php?t=5993
Ho trovato questo link,ma non ho capito di cosa parla.
hanno aggiornato il revision guide con nuove informazioni relative alle prossime revision di BD, comunque sembrerebbe niente di particolare per ora
papafoxtrot
10-01-2012, 16:07
è molto interessante. Questo significa che passando il puntatore alla gpu, questa può accedere direttamente per conto proprio alla ram di sistema
Si funziona proprio così, di questo sono certo, ad esempio se ne parla qui:
http://www.anandtech.com/Show/Index/4455?cPage=4&all=False&sort=0&page=6&slug=amds-graphics-core-next-preview-amd-architects-for-compute
Ma era già stato reso noto l'estate scorsa...
In pratica ci vuole un supporto da parte del sistema operativo, però...
papafoxtrot
10-01-2012, 16:14
Dimenticavo di aggiungere che le IOMMU sono già supportate da Bulldozer e dai chipset amd 890FX, 990, 970... In pratica se non corro troppo, con una HD7970, un FX, una scheda madre 990, ed un compilatore C++ adatto, se il sistema te lo lasciasse fare si potrebbe già usufruire della mappatura della ram centrale sulla GPU, e cosa ancor più importante, sarà possibile farlo con Fusion...
Fino ad ora, in particolare, il caso delle APU era paradossale: la GPU e la CPU condividevano il memory controller, ma lo spazio di memoria era diverso e dedicato, per cui per spostare un dato dalla CPU alla GPU si doveva prelevarlo dalla ram, portarlo fino al MC, e riscriverlo sulla stessa RAM, ma nell'area dedicata alla GPU...
hanno aggiornato il revision guide con nuove informazioni relative alle prossime revision di BD, comunque sembrerebbe niente di particolare per ora
Mi appresto a leggere, ma da quello scritto li, non sono proprio modifiche da niente... ;)
Sembra che le AGLU da poco o nulla, nelle nuove CPU potranno fare MOV, XADD, di scambio e manipolazione bit... Quindi raddoppiato il potenziale massimo per queste istruzioni e le più importanti sono MOV e XADD, ma purtroppo solo queste XADD (che non so cosa facciano) e non le ADD normali... Inoltre solo le versioni a 32 e 64 bit. Quindi escluse le 8 e 16 bit.
EDIT: sembra anche che un DIE potrà avere 4 canali memoria... Quindi si apre la porta a Opteron serie 6 a sinolo DIE...
EDIT: nel nuovo modello anche quanche piccola cosa lato FPU. Aggiunta di un paio di istruzioni e promozione di qualche istruzione da Double a Single (occupa meno banda in decodifica)
EDIT: i modelli 00-0F dovrebbero essere i vecchi bulldozer, i modelli 10-1F dovrebbero essere i trinity, in quanto non hanno la L3, i modelli 20-2F dovrebbero essere i nuovi modelli bulldozer.
Le modifiche a cui accennavo prima sui floating point, ci saranno sui modelli 10-1F e 20-2F. Le modifiche sulla parte intera, solo sui modelli 20-2F. Altre modifiche che ho trovato leggendo è che i nuovi modelli (quindi anche trinity) supportano ulteriori istruzioni: FMA (probabilmente la versione castrata a 3 operandi di INTEL), F16C (conversione per floating point a 16 bit), BMI (bit manipulation) e TBM (???).
I modelli 20-2F supportano 10 core e 4 canali DDR3.
I modelli 00-0F hanno la ITLB da 48 unità. La 15H da 32 unità e quelle da 10 a 2F (escluso il modello 15) 64.
I modelli 00-0F hanno la DTLB da 32 unità. I modelli da 10 a 2F, 64.
Nei modelli 10-2F la coda delle richieste di memoria è passata da 40 a 44.
Confermato che i modelli 20-2F hanno fino a 10 core, mentre i modelli 10-1F hanno 2 o 4 core (senza L3, quindi quasi sicuramente sono APU).
Sono specificati i numeri di documento per le guide BIOS per vari modelli, compresi alcuni sconosciuti e successivi: the BIOS and Kernel Developer’s Guide for AMD Family 15h Processors, order# 31116, the BIOS and Kernel Developer’s Guide for AMD Family 15h Processors Models 10h-1Fh, order# 42300, the BIOS and Kernel Developer’s Guide for AMD Family 15h Processors Models 20h-2Fh, order# 48023, the BIOS and Kernel Developer’s Guide for AMD Family 15h Processors Models 30h-3Fh, order# 49125 and 49126, the BIOS and Kernel Developer’s Guide for AMD Family 15h Processors Models 40h-4Fh, order# 49127, and the BIOS and Kernel Developer’s Guide for AMD Family 15h Processors Models 00h-0Fh, order# 48751.
carlottoIIx6
10-01-2012, 17:22
Dimenticavo di aggiungere che le IOMMU sono già supportate da Bulldozer e dai chipset amd 890FX, 990, 970... In pratica se non corro troppo, con una HD7970, un FX, una scheda madre 990, ed un compilatore C++ adatto, se il sistema te lo lasciasse fare si potrebbe già usufruire della mappatura della ram centrale sulla GPU, e cosa ancor più importante, sarà possibile farlo con Fusion...
Fino ad ora, in particolare, il caso delle APU era paradossale: la GPU e la CPU condividevano il memory controller, ma lo spazio di memoria era diverso e dedicato, per cui per spostare un dato dalla CPU alla GPU si doveva prelevarlo dalla ram, portarlo fino al MC, e riscriverlo sulla stessa RAM, ma nell'area dedicata alla GPU...
quindi si può dire che si stanno muovendo nella direzione che ho indicato :)
e si potrebbe dire che in trinity, qualcosa di ciò bolle in pendola verso una magiore integrazione :)?
papafoxtrot
10-01-2012, 17:57
quindi si può dire che si stanno muovendo nella direzione che ho indicato :)
e si potrebbe dire che in trinity, qualcosa di ciò bolle in pendola verso una magiore integrazione :)?
Sarebbe molto bello; tuttavia si deve vedere se trinity sarà VLIW4, come ufficialmente noto, o GCN, come ad un certo punto era sembrato.
Inoltre rimane comunque il problema del software... da una parte molto poco viene sviluppato per la GPU, a parte software ad alte prestazioni, dall'altra bisogna vedere che supporto fornirà windows /7 e/0 8). E' anche vero che proprio questa pillola potrebbe rendere il software per GPU molto più interessante...
General Blue
10-01-2012, 18:20
Cut
Nel documento ci sono le nuove latenze teoriche per le istruzioni? è migliorato qualcosa?
Si sa anche qualcosa sui tempi biblici di accesso alla L2? :)
Mi appresto a leggere, ma da quello scritto li, non sono proprio modifiche da niente... ;)
cut...
Interessante ...
paolo.oliva2
10-01-2012, 20:04
@Grazie Bjt2 :D .
Io accolgo favorevolmente la notizia che si è ritornato a parlare di X10, quando sembrava abbandonato probabilmente per problemi TDP/Frequenze del silicio... segno che effettivamente Piledriver dovrebbe contare su uno step di silicio migliore del B2g... il problema è di quanto migliore:sofico: .
Previsioni/aspettative mi sembrano fuori luogo, visto le scottature passate :cry:, quindi mi limiterei semplicemente ad esporre secondo me dei gradini di miglioramento almeno soddisfacenti:
+5% di IPC con Piledriver con un rapporto di +300MHz di clock a parità di TDP/consumi secondo me sarebbero il minimo di incremento, che migliorerebbe la situazione odierna rispetto all'8150 ma che comunque non stravolgerebbe nulla nel confronto verso Intel.
+5% di IPC accompagnato da un +600MHz a parità di consumi/TDP, si comincerebbe a ragionare.
Bisogna inoltre vedere il nuovo TurboCore 3.0 che frequenza massima potrà raggiungere nel funzionamento a 2 core, cosa non possibile tutt'ora con l'8150, a tutto vantaggio dell'IPC ST; anche se comunque non porterà di certo alle potenze Intel.
Resta da vedere quanto potrà concedere il nuovo step all'OC, inteso sia come aumento dei consumi rispetto all'incremento di frequenza e sia nella massima frequenza raggiungibile.
i modelli 20-2F sono quelli per il q3 2012 ?
papafoxtrot
10-01-2012, 20:52
i modelli 20-2F sono quelli per il q3 2012 ?
Si, pare siano gli FX piledriver.
@Bjt2: per quanto riguarda i 10 core, penso che non fossero mai stati abbandonati; semplicemente non sono nella piattaforma Vishera... Ma credo che gli opteron a 10-20 core siano sempre rimasti in roadmap...
Fermo restando che secondo me komodo non è stato cancellato, ma solo ritardato...
Parecchio interessato a conoscere ulteriori novità, per cui mi raccomando, posta!
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.