View Full Version : [Thread Ufficiale] CPU serie FX: AMD Bulldozer/Piledriver - Aspettando Steamroller
anche secondo me il X10 è per ambito server dove AMD vuole riguadagnare terreno e dove si và a scontrare con i nuovi Intel :)
Si, pare siano gli FX piledriver.
@Bjt2: per quanto riguarda i 10 core, penso che non fossero mai stati abbandonati; semplicemente non sono nella piattaforma Vishera... Ma credo che gli opteron a 10-20 core siano sempre rimasti in roadmap...
Fermo restando che secondo me komodo non è stato cancellato, ma solo ritardato...
Parecchio interessato a conoscere ulteriori novità, per cui mi raccomando, posta!
Infatti komodo slitta, non è mai stato cancellato.
Comunque pare invece che i modelli x10 sono riferiti alla piattaforma desktop vishera. ;)
semplicemente hanno ribattezzato komodo in vishera.
10 core piledriver, dopo l'estate.
capitan_crasy
10-01-2012, 23:08
Mi appresto a leggere, ma da quello scritto li, non sono proprio modifiche da niente... ;)
Sembra che le AGLU da poco o nulla, nelle nuove CPU potranno fare MOV, XADD, di scambio e manipolazione bit... Quindi raddoppiato il potenziale massimo per queste istruzioni e le più importanti sono MOV e XADD, ma purtroppo solo queste XADD (che non so cosa facciano) e non le ADD normali... Inoltre solo le versioni a 32 e 64 bit. Quindi escluse le 8 e 16 bit.
EDIT: sembra anche che un DIE potrà avere 4 canali memoria... Quindi si apre la porta a Opteron serie 6 a sinolo DIE...
EDIT: nel nuovo modello anche quanche piccola cosa lato FPU. Aggiunta di un paio di istruzioni e promozione di qualche istruzione da Double a Single (occupa meno banda in decodifica)
EDIT: i modelli 00-0F dovrebbero essere i vecchi bulldozer, i modelli 10-1F dovrebbero essere i trinity, in quanto non hanno la L3, i modelli 20-2F dovrebbero essere i nuovi modelli bulldozer.
Le modifiche a cui accennavo prima sui floating point, ci saranno sui modelli 10-1F e 20-2F. Le modifiche sulla parte intera, solo sui modelli 20-2F. Altre modifiche che ho trovato leggendo è che i nuovi modelli (quindi anche trinity) supportano ulteriori istruzioni: FMA (probabilmente la versione castrata a 3 operandi di INTEL), F16C (conversione per floating point a 16 bit), BMI (bit manipulation) e TBM (???).
I modelli 20-2F supportano 10 core e 4 canali DDR3.
I modelli 00-0F hanno la ITLB da 48 unità. La 15H da 32 unità e quelle da 10 a 2F (escluso il modello 15) 64.
I modelli 00-0F hanno la DTLB da 32 unità. I modelli da 10 a 2F, 64.
Nei modelli 10-2F la coda delle richieste di memoria è passata da 40 a 44.
Confermato che i modelli 20-2F hanno fino a 10 core, mentre i modelli 10-1F hanno 2 o 4 core (senza L3, quindi quasi sicuramente sono APU).
Sono specificati i numeri di documento per le guide BIOS per vari modelli, compresi alcuni sconosciuti e successivi: the BIOS and Kernel Developer’s Guide for AMD Family 15h Processors, order# 31116, the BIOS and Kernel Developer’s Guide for AMD Family 15h Processors Models 10h-1Fh, order# 42300, the BIOS and Kernel Developer’s Guide for AMD Family 15h Processors Models 20h-2Fh, order# 48023, the BIOS and Kernel Developer’s Guide for AMD Family 15h Processors Models 30h-3Fh, order# 49125 and 49126, the BIOS and Kernel Developer’s Guide for AMD Family 15h Processors Models 40h-4Fh, order# 49127, and the BIOS and Kernel Developer’s Guide for AMD Family 15h Processors Models 00h-0Fh, order# 48751.
Grazie bjt2, confermate quindi alcune caratteristiche di Piledrive emerse nei mesi scorsi...
anche secondo me il X10 è per ambito server dove AMD vuole riguadagnare terreno e dove si và a scontrare con i nuovi Intel :)
Anche se non ne ho la sicurezza credo che AMD presenterà una versione desktop di PD 10X come ha già fatto con i K10 Istanbul...
Sepang/Terramar saranno presentati su nuovi socket, quindi AMD dovrà adattare il 10 core desktop sul socket AM3+ oppure utilizzare il socket FM2 come dicono alcune vecchie roadmap...
semplicemente hanno ribattezzato komodo in vishera.
10 core piledriver, dopo l'estate.
Non proprio...
Komodo prevedeva un nuovo socket con nuove caratteristiche (PCI-Express 3.0 integrato Tri-channel DDR3), Vishera è basato sul socket AM3+...
Non proprio...
Komodo prevedeva un nuovo socket con nuove caratteristiche (PCI-Express 3.0 integrato Tri-channel DDR3), Vishera è basato sul socket AM3+...
Uh hai ragione.
Pero' ancora penso che i 10 core saranno su un nuovo socket...
Io spero su una infrastruttura FMx, in quanto AMx mi ha stancato per il suo approccio ormai limitato.
Ma non so perchè ho una vaga sensazione che sara adattato tutto ancora su am3+ (non dimentichiamoci i rumors sui nuovi chipset 1090fx, e questi solo su am3+ sono previsti, in quanto una ipotetico fmx non necessita di nb e controller pci-e su mobo, ma solo di FCH.).
paolo.oliva2
11-01-2012, 00:34
Io spero su una infrastruttura FMx, in quanto AMx mi ha stancato per il suo approccio ormai limitato.
Ma non so perchè ho una vaga sensazione che sara adattato tutto ancora su am3+ (non dimentichiamoci i rumors sui nuovi chipset 1090fx, e questi solo su am3+ sono previsti, in quanto una ipotetico fmx non necessita di nb e controller pci-e su mobo, ma solo di FCH.).
Vero... Piledriver doveva essere FMX invece Vishera è ancora AM3+.
Comunque, a parte determinati incrementi del socket FMX rispetto all'AM3+ per l'NB e controller PCI nel procio, che per me incrementerebbero le prestazioni quantificabili in determinati ambiti e solamente nei bench, io non lo vedrei indispensabile il cambiamento socket a causa di un quad-channel nel caso di un X10 se il socket AM3+ non lo supporterebbe.
L'MC di BD è dato come massimo per le DDR3 1866 semplicemente perchè lo standard jdec è fermo alle 1866, perchè da bios e senza nessun OC si arriva sopra le 2133 con una CFV, mi sembra 2,4GHz.
Se consideriamo che un 8150 è un X8 a 3,6GHz e non ha alcun prb con le 1866 neppure occato a 4,9GHz, di certo l'aumento di banda utilizzando già DDR3 a 2133 sarebbe già superiore rispetto alla richiesta di un X10 anche con un +10% di IPC e pure a 4GHz def...
Comunque, collegandomi al discorso del Capitano, se AMD progetta e spende per un X10, mi sembra pressochè scontato che prima o poi sfrutti la spesa per portare il procio pure nel desktop, visto e considerato che potendo contare su modelli "doppi" in ambito server, non si presenterebbe certamente una sovrapposizione di offerta.
Anzi... aggiungerei questo: Dall'Opteron X6 step D1 AMD ha dovuto aspettare lo step E0 semplicemente perchè il D1 per il clock inferiore a parità di TDP e l'assenza del Turbo non era idoneo al mercato desktop.
Se giungessero voci circa la disponibilità da subito di un Piledriver X10, cio' vorrebbe dire che AMD/GF avrebbero risolto in larga parte i problemi sull'immaturità del 32nm, perchè non avrebbe senso un BD X10 desktop a frequenze uguali/inferiori a quelle di un 8150 odierno.
carlottoIIx6
11-01-2012, 00:36
essendo che sul 45 nm aveva lavorato IBM mi chiedevo dove fosse sparita
http://www.bitsandchips.it/9-hardware/188-globalfoundries-apre-la-fab-8-in-collaborazione-con-ibm
altra notizia la nomina di Naik
http://www.primaonline.it/2012/01/10/99917/rajan-naik-senior-vice-president-e-chief-strategy-officer-di-amd/
carlottoIIx6
11-01-2012, 00:45
Sarebbe molto bello; tuttavia si deve vedere se trinity sarà VLIW4, come ufficialmente noto, o GCN, come ad un certo punto era sembrato.
Inoltre rimane comunque il problema del software... da una parte molto poco viene sviluppato per la GPU, a parte software ad alte prestazioni, dall'altra bisogna vedere che supporto fornirà windows /7 e/0 8). E' anche vero che proprio questa pillola potrebbe rendere il software per GPU molto più interessante...
http://www.bitsandchips.it/9-hardware/172-uno-sguardo-al-die-dellapu-trinity
qui dice VLIW4, quindi? :)
sono fiducioso si windows.
interessante il discorso tra due utenti
eric1, lun gen 09, 2012 10:54 pm
Re: Uno sguardo al die dell'APU Trinity
Già.. dai miei (umili) test su BD la potenza della singola FPU è migliorata, ma la differenza numerica incide pesantemente laddove il software non sfrutta FMA4, xop e via dicendo. Meglio dal lato integer dove un aumento in termini di MHz potrebbe essere sufficiente.
Da segnalare per Piledriver l'adozione delle istruzioni FMA3 (che se sfruttate dovrebbero garantire un 25% di performance in più), BMI (Bit Manipulation Instructions, TBM (trailing bit manipulation) e un IOMMU(Input/Output Memory Management Unit) v2 utile in ambienti molto virtualizzati se sfruttato dal sw. In merito all'area dell'uncore pare sia un 40% superiore, grazie anche allo spazio ricavato dall'unione di due cores..Confido che questo spazio non venga sprecato..
Avatar utente
Alessio89, lun gen 09, 2012 11:35 pm
Re: Uno sguardo al die dell'APU Trinity
Se adottano anche FMA3 è perché hanno cambiato strategia sulle estensioni alla AMD.
Prima era una gara fra intel e AMD e spesso vinceva intel solo perché vendeva di più, ora AMD ha cambiato tattica: AMD ha fatto cambiare idea ad intel 3 volte solo sulle estensioni FMA3 e FMA4, per non parlare di AVX e AVX-2 anticipando sin da subito l'annuncio delle SSE5 (ora XOP).
AMD ora si trova con CPU che supportano tutte le estensioni x86 sul mercato (ad esclusione di quasi la totalità di 3DNOW divenuta ormai obsoleta) mettendolo in quel posto ad intel.
In ambiente server questo significa molto visto che sarà molto semplice cambiare ecosistema mantenendo praticamente inalterato il software ottimizzato per estensioni che intel voleva avere tutte per se. Se adotteranno anche FMA3 mi domando cosa si inventerà intel per creare nuove incompatibilità a livello di assembly xD
Avatar utente
eric1, lun gen 09, 2012 11:59 pm
Re: Uno sguardo al die dell'APU Trinity
La penso come te..purtroppo a livello desktop il miglioramento del sw è molto più lento..ma entriamo nel solito discorso..alla fine un utente che vuole investire al meglio i propri soldi da 90€ in su si vede costretto ad investire su Intel..
Avatar utente
Alessio89, mar gen 10, 2012 12:05 am
Re: Uno sguardo al die dell'APU Trinity
A livello desktop ormai gli sforzi per le ottimizzazioni delle librerie sono volte al gpgpu.
La colpa inoltre dell'enorme ritardo è da dare pure all'ISO/IEC che ci ha mesos ben 13 anni a far uscire una nuova versione del c++ (la 2003 non conta diamine), e solo ora il linguaddio più utilizzato in ambiente desktop e server per applicazioni che guardano le performance supporta ufficialmente il multi-threading :| (Stroustrup s'è pure incaxxato più volte per i continui ritardi).
Sinceramente non so quante altre nuove estensioni per le cpu si verranno a creare negli anni a venire, meglio concentrarsi sul calcolo eterogeneo e sfruttare le igp il meglio possibile, anzi meglio fare in modo che parlare di igp non sia più necessario perché scorretto.
Avatar utente
eric1, mar gen 10, 2012 12:14 am
Re: Uno sguardo al die dell'APU Trinity
Da cosa mi risulta Sandy è più avanti in questo (se così si può dire.. :asd: ) in quanto la cache L3 è condivisa dalla parte che si occupa della grafica. Probabilmente questa caratteristica apparentemente banale può essere il vantaggio che nella pratica si ottiene con il Q.Sink.(correggetemi se sbaglio), che a mio parere è un ottimo passo in avanti.
carlottoIIx6
11-01-2012, 01:28
ho sempre ritenuto AMD affidabile, forse anche troppo :)
http://www.bitsandchips.it/component/content/article/9-hardware/93-amd-quinta-azienda-affidabile-secondo-trust-across-america
carlottoIIx6
11-01-2012, 01:41
"L'architettura GCN riesce finalmente a mettere sullo stesso piano grafica 3D e GPU Computing, portando, almeno sulla carta, un sensibile incremento prestazionale in entrambi i settori tale da permettere alla casa di Sunnyvale di proseguire con il progetto di un ecosistema GPU + CPU sempre più forte che culminerà con il dopo Trinity in una serie di APU dove l'integrazione tra le due unità sarà totale e indistinguibile sia sul profilo hardware che software."
http://www.bitsandchips.it/component/content/article/9-hardware/167-radeon-hd-7970-inizia-la-nuova-era-delle-gpu-amd?showall=&start=1
Bè i buoni propositi per il 2012 ci sono tutti a quanto leggo :D :sofico: :sofico:
papafoxtrot
11-01-2012, 08:58
Già! Ma alla fine è inutile fasciarsi la testa con edram e istruzioni nuove strafighe... se poi l'ipc è basso... C'è poco da fare, AMD fa capriole, ma se poi intel gliela mette in quel posto con un chippetto come il sandy bridge, che alla fine a livello puramente hardware non è superiore in niente al bulldozer... vuol dire che prima di correre avanti c'è molto da ottimizzare su ciò che si è fatto.. Questo senza tirare in ballo scelte strutturali certamente difficili da variare...
Per quanto riguarda la ED-RAM... IBM la usa già sui power 7, non sapevo ci volesse un processo apposito! Ma la ed-ram, non era quella che per qualche motivo era un compromesso del tipo "veloce a leggere, ma lenta a scrivere, però se ne mette tanta perché è molto compatta"? Perché ad AMD manca solo una cache ancora più lenta dell'attuale...
Ma come mai parlano di due processi a 32nm? parlano prima di un processo 32nm SOI, portato da IBM (ha l'HKMG?), e poi di un processo HKMG (è quello attuale? Come mai non citano il SOI?). Chissà se arriverà l'ULK...
Poi si cita sempre il 28nm (che presumibilmente sarà SHP, HP, LP, ULP...)... si sa niente sul SOI per questo processo?
Probabilmente a febbraio, con la presentazione del project win, sapremo molto...
http://www.infoworld.com/slideshow/24605/infoworlds-2012-technology-the-year-award-winners-183313#slide4
Nel documento ci sono le nuove latenze teoriche per le istruzioni? è migliorato qualcosa?
Si sa anche qualcosa sui tempi biblici di accesso alla L2? :)
Sugli interi sicuramente no. Solo alcune istruzioni possono essere eseguite anche nelle AGLU e quindi migliorare le prestazioni. Le MOV in particolare sono MOOOOLTO comuni e si passa così da 2 per ciclo a 4 per ciclo.
Per le istruzioni FP ci sono due tabelle separate, ma le ho confrontate e, seppure non migliora la latenza, c'è la promozione di alcune istruzioni da Double a Single (quindi se ne possono decodificare di più) e l'aggiunta di altre.
carlottoIIx6
11-01-2012, 12:38
http://www.businessmagazine.it/news/globalfoundries-e-ibm-avviano-la-produzione-congiunta-presso-la-fab-8_40211.html
probabilmente è finita la carenza di cpu amd :)
carlottoIIx6
11-01-2012, 12:51
http://www.infoworld.com/slideshow/24605/infoworlds-2012-technology-the-year-award-winners-183313#slide4
e the winner is...
suspence... suspence... suspence... suspence... suspence... suspence... suspence... suspence... suspence... suspence... suspence... suspence... suspence... suspence... suspence... suspence... suspence... suspence... :D
Bull.....dozer! :D
General Blue
11-01-2012, 13:57
Sugli interi sicuramente no. Solo alcune istruzioni possono essere eseguite anche nelle AGLU e quindi migliorare le prestazioni. Le MOV in particolare sono MOOOOLTO comuni e si passa così da 2 per ciclo a 4 per ciclo.
Per le istruzioni FP ci sono due tabelle separate, ma le ho confrontate e, seppure non migliora la latenza, c'è la promozione di alcune istruzioni da Double a Single (quindi se ne possono decodificare di più) e l'aggiunta di altre.
Grazie :) Speriamo di vedere un paio di questi miglioramenti in opera su Trinity al più presto, non credo di poter resistere ad aspettare il Q3! :D
paolo.oliva2
11-01-2012, 14:03
Già! Ma alla fine è inutile fasciarsi la testa con edram e istruzioni nuove strafighe... se poi l'ipc è basso...
Io aspetterei di vedere il clock dello step C per capire se il problema dell'architettura BD sia il basso IPC o il 32nm scandaloso.
Ma come mai parlano di due processi a 32nm? parlano prima di un processo 32nm SOI, portato da IBM (ha l'HKMG?), e poi di un processo HKMG (è quello attuale? Come mai non citano il SOI?). Chissà se arriverà l'ULK...
Poi si cita sempre il 28nm (che presumibilmente sarà SHP, HP, LP, ULP...)... si sa niente sul SOI per questo processo?
Per quale motivo, altrimenti, ci sarebbe tutto questo affanno sul 32nm come riporti anche tu?
C'è poco da fare, AMD fa capriole, ma se poi intel gliela mette in quel posto con un chippetto come il sandy bridge, che alla fine a livello puramente hardware non è superiore in niente al bulldozer... vuol dire che prima di correre avanti c'è molto da ottimizzare su ciò che si è fatto.. Questo senza tirare in ballo scelte strutturali certamente difficili da variare...
Il problema, per AMD, è che l'architettura Intel SMT in connubio con il 32nm Bulk, riescono ad esprimere probabilmente più del 95% del massimo potenziale possibile.
Il problema AMD è il silicio e più ci si riflette sopra e più salta fuori una evidenza plateale.
Il 32nm è superiore al 45nm unicamente fino a frequenze attorno ai 3GHz (vedi Llano). L'8150 riesce ad arrivare a 3,6GHz unicamente per meriti architetturali, ma a quella frequenza l'IPC inferiore pesa troppo. Quando AMD/GF erano convinte di riuscira a rispettare le frequenze previste, parlavano di potenze core K15 superiori al core K10.
Il problema è che cosi' non è stato e non sappiamo nemmeno se lo sarà in futuro.
Per farti un esempio, SB è sul 32nm e IVY è la versione di SB sul 22nm. Il TDP perchè cala? E' per il 22nm, perchè non c'è alcun cambio architetturale. Se un 8150 è 125W TDP a 3,6GHz, questo è dato dal silicio. Per me se fosse stato fatto sul 45nm low k, magari avrebbe avuto una frequenza superiore a parità di TDP.
Io non è che sto difendendo AMD, ti sto solo dicendo che se l'8150 fosse stato 4,5GHz def, il discorso IPC inferiore non sarebbe stato nemmeno considerato, come mi pare altrettanto chiaro che è facile dire che BD va poco perchè ha un IPC basso se non si considera che lunghezza pipeline, gli stati d'attesa e il CMT nn sono certamente stati fatti per girare a 200MHz in più di un Thuban.
Per me rimane valido il concetto che un procio é progettato con una determinata architettura e realizzato su un silicio che possa garantire tutte le necessità dell'architettura. Il tutto diciamo che è il pacchetto. Se il silicio fa flop, fa flop pure l'architettura e viceversa, quindi la colpa è comunque di ambedue... Se AMD/GF avessero saputo in anticipo che le frequenze del 32nm sarebbero state inferiori, mi pare chiaro che per arrivare a determinate potenze, l'IPC si sarebbe dovuto aumentare. Tutto qui.
papafoxtrot
11-01-2012, 14:54
Non sono affatto d'accordo sul fatto che il problema sia (solo) nel processo produttivo, e l'ho già detto, per cui non mi dilungherò... E' evidente ad esempio dal fatto che servirebbero frequenze davvero elevatissime, al limite del ridicolo, per rendere bulldozer davvero competitivo, soprattutto quando tutti i core sono in uso; inoltre, per le risorse hadrware che sono integrate in bulldozer, ritengo che esso possa esprimere un IPC ben maggiore, limitato invece da alcuni colli di bottiglia... siano le cache, le TLB, il decoder, la BP, o tutti insieme, non si sa... sta di fatto che ognuna di queste unità è cresciuta, rispetto a k10, eppure l'ipc è sceso... ci sta qualcosina per la condivisione, ci sta qualcosina per la pipeline lunga... ma secondo me l'ipc può crescere bene.
Il mio dubbio ora è per trinity: speravo in un aumento di IPC abbastanza sostanzioso, tale da rendere trinity un quad core dignitoso. Se questa CPU, come pare, sarà costretta a lavorare a frequenze elevate per pareggiare un Llano a 3GHz, credo che il risultato sarà un nuovo fail, per quanto poi possano venderlo...
Guardate un bulldozer quad core oggi, fa fatica a star dietro a llano. Considerato che perderà la cache L3, e che le frequenze non potranno salire più di tanto (perché ci sarà la GPU, e perché i tdp saranno da fascia mainstream e mobile), dubito che trinity possa andare di più...
Llano oggi è buono perché consuma poco ed ha una buona GPU.... ma il processore fa pietà... certo se la cava in multi threading, contro gli intel dual core... Ma quanti software usati in ambito home/entertainment oggi sfruttano quattro core? Sono molti i casi in cui prestazioni per core elevate farebbero comodo...
Insomma, speravo che trinity almeno potesse competere con un nehalem dual e quad core (in questo caso senza HT), processori ormai datati, anche in single threading, grazie ad un buon turbo boost, ovviamente. Ma se l'IPC sarà quello di BD o poco più su, dubito che possa prendere i 5GHz in turbo, e se si pensa che deve entrare in un portatile penso sia impossibile...
carlottoIIx6
11-01-2012, 15:34
Non sono affatto d'accordo sul fatto che il problema sia (solo) nel processo produttivo, e l'ho già detto, per cui non mi dilungherò...
cut
quel che conta è la grandezza che chiamio Q
Q = ipc * freqeunza / consumo
queste grandezze da cui dipende Q sono collegate insieme dal binomio architettura-silicio e non separabili.
quindi è inutile andare a vedere, ipc separatamente dal resto, l'iportante è avere il più alto Q.
Drakogian
11-01-2012, 15:36
Non so se è stato già postato...
AMD Demos Next Generation Trinity Fusion APU For Notebooks, CES 2012
Link: http://www.youtube.com/watch?v=lsmTDb-Mlws&hd=1
Athlon 64 3000+
11-01-2012, 15:42
Non sono affatto d'accordo sul fatto che il problema sia (solo) nel processo produttivo, e l'ho già detto, per cui non mi dilungherò... E' evidente ad esempio dal fatto che servirebbero frequenze davvero elevatissime, al limite del ridicolo, per rendere bulldozer davvero competitivo, soprattutto quando tutti i core sono in uso; inoltre, per le risorse hadrware che sono integrate in bulldozer, ritengo che esso possa esprimere un IPC ben maggiore, limitato invece da alcuni colli di bottiglia... siano le cache, le TLB, il decoder, la BP, o tutti insieme, non si sa... sta di fatto che ognuna di queste unità è cresciuta, rispetto a k10, eppure l'ipc è sceso... ci sta qualcosina per la condivisione, ci sta qualcosina per la pipeline lunga... ma secondo me l'ipc può crescere bene.
Il mio dubbio ora è per trinity: speravo in un aumento di IPC abbastanza sostanzioso, tale da rendere trinity un quad core dignitoso. Se questa CPU, come pare, sarà costretta a lavorare a frequenze elevate per pareggiare un Llano a 3GHz, credo che il risultato sarà un nuovo fail, per quanto poi possano venderlo...
Guardate un bulldozer quad core oggi, fa fatica a star dietro a llano. Considerato che perderà la cache L3, e che le frequenze non potranno salire più di tanto (perché ci sarà la GPU, e perché i tdp saranno da fascia mainstream e mobile), dubito che trinity possa andare di più...
Llano oggi è buono perché consuma poco ed ha una buona GPU.... ma il processore fa pietà... certo se la cava in multi threading, contro gli intel dual core... Ma quanti software usati in ambito home/entertainment oggi sfruttano quattro core? Sono molti i casi in cui prestazioni per core elevate farebbero comodo...
Insomma, speravo che trinity almeno potesse competere con un nehalem dual e quad core (in questo caso senza HT), processori ormai datati, anche in single threading, grazie ad un buon turbo boost, ovviamente. Ma se l'IPC sarà quello di BD o poco più su, dubito che possa prendere i 5GHz in turbo, e se si pensa che deve entrare in un portatile penso sia impossibile...
Sarebbe un peccato se veramente in Trinity non hanno messo mano al BP oppure al decoder perché cosi renderebbe l'APU molto più competitiva nella parte x86.
Non vorrei che le pesanti modifiche di cui avrebbe bisogno l'architettura BD le applichino in Streamroller per renderlo più competitivo nei confronti di Haswell.
carlottoIIx6
11-01-2012, 15:56
Sarebbe un peccato se veramente in Trinity non hanno messo mano al BP oppure al decoder perché cosi renderebbe l'APU molto più competitiva nella parte x86.
Non vorrei che le pesanti modifiche di cui avrebbe bisogno l'architettura BD le applichino in Streamroller per renderlo più competitivo nei confronti di Haswell.
BD non ha bisogno di pesanti modifiche ma solo di quelle furbe.
sopra ho postato un cambio di istruzioni come cambio di rotta.
poi è chiarissimo che l'ipc aumenterà perchè la frequnza nelle apu non può crescere quanto quella dell cou semplici quinid per aver magiore prestazioni non si può puntare solo sul silicio.
papafoxtrot
11-01-2012, 16:05
quel che conta è la grandezza che chiamio Q
Q = ipc * freqeunza / consumo
queste grandezze da cui dipende Q sono collegate insieme dal binomio architettura-silicio e non separabili.
quindi è inutile andare a vedere, ipc separatamente dal resto, l'iportante è avere il più alto Q.
Non c'è nessun dubbio su questo... ma siccome in bulldozer l'ipc è bassissimo, mentre le frequenze non sono poi così basse e il consumo è alto, ottenere una buona efficienza e ottime prestazioni solo salendo in frequenza (anche riuscendo a mantenere i consumi attuali) è praticamente impossibile...
Se non altro perché il processo sarà scadente, ma anche riuscisse a fare un grande salto di qualità, permettendo di raggiungere i 4,2GHz su 8 core senza crescere i consumi, rimarrebbe il problema del consumo stesso, che rispetto ad un intel di simili prestazioni risulterebbe comunque maggiore...
paolo.oliva2
11-01-2012, 17:26
Spiegandomi meglio... il problema di BD circa Windows 8, utilizzo di software che sfruttano le nuove istruzioni, software multith e quant'altro, certamente miglioreranno la situazione, ma certamente non la cambieranno.
Il punto fondamentale, è che comunque un BD DOVREBBE offrire potenze superiori rispetto al Phenom II sia in potenza ST che ovviamente in MT.
Il problema a tutt'oggi è la potenza ST, perchè comunque se BD avesse una potenza a core già uguale a quella del Phenom II, la potenza MT risulterebbe in ogni caso superiore per il fatto che un Thuban è un X6, l'8150 è un X8 e Piledriver sarà pure X10.
Il discorso Trinity APU è un discorso a parte, perchè se già Llano è stato un successo in vendite, Trinity certamente rafforzerà l'offerta AMD. Ma non è il caso dei sistemi desktop TOP.
AMD deve dare una risposta chiara e precisa sulle possibilità di BD.
300MHz in più a parità di IPC (8170) non risolverebbero praticamente nulla perchè sarebbe un +8% rispetto ad un 8150.
600MHz in in più a parità di IPC (8190) già sarebbero un ottimo inizio, in quanto sarebbe un +16,6% rispetto ad un 8150, sia per potenze che per consumi.
Un Piledriver, anche solamente con un +5% di IPC e con il TurboCore 3.0 che dovrebbe incrementare le frequenze operative su max 2 core sotto carico e di conseguenza la potenza ST, migliorerebbero la situazione di un B3, ma se ci fermassimo ai clock di un 8170 sarebbe uno sforzo pressochè inutile, perchè sarebbe come avere il 13,75% in più di un 8150.
Molto diverso se Piledriver potesse avere clock tipo 8190, perchè si avrebbero incrementi consistenti, un +22,35% non è certamente poco, specialmente se poi si potesse affiancare un X10 con 2 core in più a tutto vantaggio dell'MT.
AMD ce la farà o no? Il punto è tutto qui... per accendere la candelina che non è stata mai accesa sulla torta, deve poter raggiungere un incremento di potenza non marginale e comunque entro il 1° semestre 2012. Se dovesse raggiungerlo ma nella seconda metà del 2012, non ci sarebbe più SB/SBe 32nm ma già un 22nm Intel con via via una gamma più consistente di modelli.
Io rimango sempre dell'idea che se AMD riuscisse a raggiungere una potenza con BD tale da posizionarlo tra il socket 1155 e 2010 Intel, avrebbe fatto bingo, e la cosa per me sarebbe tutt'altro che impossibile SE il 32nm SOI HKMG ULK arrivasse anche solamente all'80% delle aspettative che AMD/GF dichiararono agli inizi 2011.
paolo.oliva2
11-01-2012, 17:36
Sia chiaro :D .
Io non sto dicendo che AMD riuscirà ad aumentare le frequenze, sto dicendo che l'architettura BD è comunque fatta per delle frequenze ben più alte di quelle di un 8150.
L'FO4 di BD non è certamente quello di un SB, quindi non possiamo giudicare alte le frequenze di BD confrontandole a quelle di SB.
Il discorso è che BD per essere potente DEVE funzionare a partire da una frequenza def di 4,2GHz e a salire con il Turbo su TUTTI i core, su metà core e su 2 core.
Se cio' sarà possibile, discorso IPC, consumi e quant'altro cadrebbero immediatamente. Se invece cio' non si avvererà, chiaro che IPC, consumi e grandezza die incideranno e non poco come ora per l'8150.
ma infatti.. se bd fosse uscito con 95W a 5 ghz.. allora si sarebbe confrontato più che ad armi pari anche con il 2600 e 2700K. Il problema è che anche in oc i consumi aumentano in maniera paurosa.. mentre quelli di sb amentano molto meno. Forse AMD doveva uscire subito a 22 nm e tappare momentaneamente con un 1110, 1120T e 1130 T ancora a 45 nm :D , forse a 22 nm anche con un processo produttivo poco buono sarebbe comunque partito già con frequenze adeguate.
Ma so che è fantainformatica..:stordita:
paolo.oliva2
11-01-2012, 20:45
ma infatti.. se bd fosse uscito con 95W a 5 ghz.. allora si sarebbe confrontato più che ad armi pari anche con il 2600 e 2700K. Il problema è che anche in oc i consumi aumentano in maniera paurosa.. mentre quelli di sb amentano molto meno. Forse AMD doveva uscire subito a 22 nm e tappare momentaneamente con un 1110, 1120T e 1130 T ancora a 45 nm :D , forse a 22 nm anche con un processo produttivo poco buono sarebbe comunque partito già con frequenze adeguate.
Ma so che è fantainformatica..:stordita:
Intel va meglio in potenza espressa ST e MT, in performances/watt e in OC, anche se chiaramente i consumi in OC sono una diretta conseguenza di quelli più alti già a def).
La differenza AMD vs Intel dipende da come si vuole posizionare AMD.
AMD aveva fatto credere/sperare che 8 TH fisici sarebbero stati in grado di misurarsi con 12 TH logici Intel. E' chiaro che su questa base, la percentuale da recuperare in performances e performances/Watt da un 8150 a un SBe X6 sarebbe notevole.
Se invece ci limitassimo a considerare un ottimo risultato che 8 TH fisici AMD possano arrivare e forse pure superare 8 TH logici Intel, la differenza da recuperare sarebbe inferiore e comunque non dimentichiamoci che comunque AMD potrebbe proporre un 10 TH fisici pure nel desktop, quindi...
Chiaro che se considerassimo pure il 22nm Intel, AMD deve comunque recuperare e parecchio.
Poi bisogna pure aggiungere che ufficialmente AMD ha dichiarato un 15% totale di incremento di Piledriver su BD 1° generazione, che è distante dal 20/25% perchè BD sia effettivamente competitivo.
Spiegandomi meglio... il problema di BD circa Windows 8, utilizzo di software che sfruttano le nuove istruzioni, software multith e quant'altro, certamente miglioreranno la situazione, ma certamente non la cambieranno.
Il punto fondamentale, è che comunque un BD DOVREBBE offrire potenze superiori rispetto al Phenom II sia in potenza ST che ovviamente in MT.
Il problema a tutt'oggi è la potenza ST, perchè comunque se BD avesse una potenza a core già uguale a quella del Phenom II, la potenza MT risulterebbe in ogni caso superiore per il fatto che un Thuban è un X6, l'8150 è un X8 e Piledriver sarà pure X10.
Il discorso Trinity APU è un discorso a parte, perchè se già Llano è stato un successo in vendite, Trinity certamente rafforzerà l'offerta AMD. Ma non è il caso dei sistemi desktop TOP.
AMD deve dare una risposta chiara e precisa sulle possibilità di BD.
300MHz in più a parità di IPC (8170) non risolverebbero praticamente nulla perchè sarebbe un +8% rispetto ad un 8150.
600MHz in in più a parità di IPC (8190) già sarebbero un ottimo inizio, in quanto sarebbe un +16,6% rispetto ad un 8150, sia per potenze che per consumi.
Un Piledriver, anche solamente con un +5% di IPC e con il TurboCore 3.0 che dovrebbe incrementare le frequenze operative su max 2 core sotto carico e di conseguenza la potenza ST, migliorerebbero la situazione di un B3, ma se ci fermassimo ai clock di un 8170 sarebbe uno sforzo pressochè inutile, perchè sarebbe come avere il 13,75% in più di un 8150.
Molto diverso se Piledriver potesse avere clock tipo 8190, perchè si avrebbero incrementi consistenti, un +22,35% non è certamente poco, specialmente se poi si potesse affiancare un X10 con 2 core in più a tutto vantaggio dell'MT.
AMD ce la farà o no? Il punto è tutto qui... per accendere la candelina che non è stata mai accesa sulla torta, deve poter raggiungere un incremento di potenza non marginale e comunque entro il 1° semestre 2012. Se dovesse raggiungerlo ma nella seconda metà del 2012, non ci sarebbe più SB/SBe 32nm ma già un 22nm Intel con via via una gamma più consistente di modelli.
Io rimango sempre dell'idea che se AMD riuscisse a raggiungere una potenza con BD tale da posizionarlo tra il socket 1155 e 2010 Intel, avrebbe fatto bingo, e la cosa per me sarebbe tutt'altro che impossibile SE il 32nm SOI HKMG ULK arrivasse anche solamente all'80% delle aspettative che AMD/GF dichiararono agli inizi 2011.
Sia chiaro .
Io non sto dicendo che AMD riuscirà ad aumentare le frequenze, sto dicendo che l'architettura BD è comunque fatta per delle frequenze ben più alte di quelle di un 8150.
L'FO4 di BD non è certamente quello di un SB, quindi non possiamo giudicare alte le frequenze di BD confrontandole a quelle di SB.
Il discorso è che BD per essere potente DEVE funzionare a partire da una frequenza def di 4,2GHz e a salire con il Turbo su TUTTI i core, su metà core e su 2 core.
Se cio' sarà possibile, discorso IPC, consumi e quant'altro cadrebbero immediatamente. Se invece cio' non si avvererà, chiaro che IPC, consumi e grandezza die incideranno e non poco come ora per l'8150.
Quoto tutto.
ma infatti.. se bd fosse uscito con 95W a 5 ghz.. allora si sarebbe confrontato più che ad armi pari anche con il 2600 e 2700K. Il problema è che anche in oc i consumi aumentano in maniera paurosa.. mentre quelli di sb amentano molto meno. Forse AMD doveva uscire subito a 22 nm e tappare momentaneamente con un 1110, 1120T e 1130 T ancora a 45 nm , forse a 22 nm anche con un processo produttivo poco buono sarebbe comunque partito già con frequenze adeguate.
Ma so che è fantainformatica..
il problema non è il numero dei nm, ma come e da chi viene lavorato il pp.
32, 22, 18, 102, e quello che ti pare, fino a quando gf non impara a sfornare silicio a dovere sempre schifo faranno.
Il problema è il 32nm, perchè il problema è GF.
Preferisco TSMC di gran lunga.
non dimentichiamoci che comunque AMD potrebbe proporre un 10 TH fisici pure nel desktop
Perchè potrebbe ? Pare invece che sfornerà anche un X10 per desktop.
Il dubbio rimane: AMx o FMx ? Io credo che resta ancora su AMx (purtroppo aggiungo). Non dimentichiamoci la presentazione dei chipset 1090FX e 1070/1060sb (revisione di RD9XX) a Giugno.
carlottoIIx6
11-01-2012, 22:24
il problema non è il numero dei nm, ma come e da chi viene lavorato il pp.
32, 22, 18, 102, e quello che ti pare, fino a quando gf non impara a sfornare silicio a dovere sempre schifo faranno.
Il problema è il 32nm, perchè il problema è GF.
Preferisco TSMC di gran lunga.
ti è sfuggita questa notizia
http://www.businessmagazine.it/news/globalfoundries-e-ibm-avviano-la-produzione-congiunta-presso-la-fab-8_40211.html
Perchè potrebbe ? Pare invece che sfornerà anche un X10 per desktop.
Il dubbio rimane: AMx o FMx ? Io credo che resta ancora su AMx (purtroppo aggiungo). Non dimentichiamoci la presentazione dei chipset 1090FX e 1070/1060sb (revisione di RD9XX) a Giugno.
rimarrebbe la debolezza in single.
per me AMD ha bisogno di un ottimo silicio che valorizzi BD. silicio che gli permette di superare i 5.5 GH tranquillamente in single in over ad aria.
Sia chiaro :D .
Io non sto dicendo che AMD riuscirà ad aumentare le frequenze, sto dicendo che l'architettura BD è comunque fatta per delle frequenze ben più alte di quelle di un 8150.
L'FO4 di BD non è certamente quello di un SB, quindi non possiamo giudicare alte le frequenze di BD confrontandole a quelle di SB.
Il discorso è che BD per essere potente DEVE funzionare a partire da una frequenza def di 4,2GHz e a salire con il Turbo su TUTTI i core, su metà core e su 2 core.
Se cio' sarà possibile, discorso IPC, consumi e quant'altro cadrebbero immediatamente. Se invece cio' non si avvererà, chiaro che IPC, consumi e grandezza die incideranno e non poco come ora per l'8150.
Vero. e spero che si diano una svegliata il prima possibile :D
http://www.xbitlabs.com/news/other/display/20120111124932_AMD_Windows_7_Scheduler_Update_Brings_1_2_Performance_Improvement.html
AMD:
marketing su win8 o verità?
reali problemi tecnici o forzare vendita win8?
sono necessarie modifiche anche al kernel? oltre che allo scheduler??
cosa che MS nn vuol fare per far vendere win8?
alla fine quelli che ci smenano siamo sempre noi...
ci smeniamo perchè alla fine chissà quanta gente lo comprerà....e magari le stesse > perf potrebbero tecnicamente essere possibili anche su win7 a costo 0...
edit:
http://blogs.amd.com/play/2012/01/11/early-results-achieved-with-amd-fx-processor-using-windows%C2%AE-7-scheduler-update/
quindi sono queste le due famose patch?
doppioedit: al momento su winupdate non c'è nulla...e non è quello vecchio perchè è del 11/01/2012 articolo su MS
una mia idea
fin tanto che erano i k10 e il passato è un conto ,ma quando si parla di bulldozer e APU ,la cosa penso che debba essere vista in una chiave piu larga di quella che sia oggi:muro:
si deve supporre che la nuova intesa sulle nuove fab per la produzione dei chip sia casuale?dietro c'è una montagna di palanchi :D negli anni a venire,e quando ci sono i sordi che alimentano il tutto ed in più il credere crescente in questo NUOVO concetto hardware per sfidare il futuro ,tutto puo cambiare improvvisamente.
non sarei ingenuamente e sprovvedutamente sciocco a credere che tutto andra liscio,anzi la storia potrebbe venire incontro ,però di una cosa sarei piu sicuro che di altro ,e cioè: se veramente il progetto APU(chiaramente nel suo decorso verso la FORMA finale) si dovesse rilevare VINCENTE ,molti continueranno a credere ed a investirci fino alla fine.
è vero che amd nel settore fascia alta fatica ,ok cosa lo si ribadisce a fare(si vede) ,ma cmq quello che amd ,presentera nel futuro sarà una specie di ALIEN :sofico: dal punto di vista hardware ,figuriamoci se ''dovesse'' pure succedere che il software possa ''dialogare'' con essa.
per un altro pò la potenza x86 continuerà ,ma col tempo anche questa potrebbe passare in secondo piano(e poi sparire del tutto),perchè quando si vedrà(sempre nella mia fantasia) che con una APU ci si collegano 10 monitor con ciascun una attività diversa(giochi FUTURI compresi), sara ancora e sempre PIU DIFFICILE convincere anche il piu ostinato incredulo che ANCHE questa sia DEFINIBILE come una nuova FORMA di potenza ,e anch'esso si piegherà per forza(è questione di tempo) come un giunco del nilo!!!
questa,per me, è la riscossa di amd,e anche se il destino sarà tortuoso,soprattutto software, molti si aggregheranno al decorso APU e sarà sempre piu difficile che sia da sola....
bulldozer di oggi è un grosso masso da scolpire ,e se si partisse a risolvere quello è stato tanto preventivato e discusso in questo forum(2 core di un modulo minori performance di 2 core separati per via della condivisione) saremo a sulla strada giusta!
spero solo che questo possa succedere con vishera ,cioe due core di un modulo= 2 core separati ....poi PIANO PIANO il tutto verrà come da destino ....
ti è sfuggita questa notizia
http://www.businessmagazine.it/news/globalfoundries-e-ibm-avviano-la-produzione-congiunta-presso-la-fab-8_40211.html
A me non sfugge quasi niente ;)
ma la situazione non cambia: per me GF rimane una pessima azienda.
E comunque li collabora con IBM, AMD non centra niente in quel caso.
Che ti devo dire vuol dire che gli sta sulle palle AMD e solo a lei gli fa i pp di merda.
rimarrebbe la debolezza in single.
per me AMD ha bisogno di un ottimo silicio che valorizzi BD. silicio che gli permette di superare i 5.5 GH tranquillamente in single in over ad aria.
no per te: io cosa sto dicendo da 200 pagine ?
Se conti quante volte ho detto che una latrina virtnamita odora di AMBRE MAGIC rispetto il pp che gf gli ha sformato ad amd per bd, perdi la conta.
Per la debolezza in st, non c'è niente da fare, il pp è il problema maggiore di bd, ma non l'unico.
Alcuni elementi dell'architettura andrebbero corretti.
e magari le stesse > perf potrebbero tecnicamente essere possibili anche su win7 a costo 0...
potrebbero ? :D
Mica hai detto una cavolata ...Io direi meglio: sono possibili ;)
Ma c'è dietro M$ ehmm scusate...MS
cut..
Come lo narri sembra il trailer di un gran filmone fantasy :D
Non saresti male in un reparto marketing ;) O come voce narrante di un film ;)
Phenomenale
12-01-2012, 08:52
Microsoft ci riprova: nuova patch per lo scheduler ottimizzata Bulldozer:
http://www.hwfiles.it/news/due-patch-microsoft-specifiche-per-sistemi-amd-bulldozer_40229.html
Installate, testate, e postate i miglioramenti!!! :read:
mircocatta
12-01-2012, 08:52
qualcuno di voi ha installato queste due patch? miglioramenti tangibili che faranno rivalutare il mezzo flop delle cpu AMD FX?
AceGranger
12-01-2012, 09:19
qualcuno di voi ha installato queste due patch? miglioramenti tangibili che faranno rivalutare il mezzo flop delle cpu AMD FX?
parole di AMD
1-2% quando vengono usati pochi core e nulli con 8 core
The3DProgrammer
12-01-2012, 09:28
quindi da quel che leggo nel blogpost, i thread non vengono + allocati per core int ma per modulo.
Ma la strategia migliore non era allocare per core in modo da sfruttare meglio il turbocore?
Al limite del ridicolo...
The3DProgrammer
12-01-2012, 09:29
parole di AMD
1-2% quando vengono usati pochi core e nulli con 8 core
1-2% medio. Secondo me sui giochi potrebbe vedersi qualcosa di meglio
EDIT: susu qualcuno di buona volonta' che faccia dei bei confronti prima/dopo
io posso provare questa sera quando rientro a casa da lavoro..
blindwrite
12-01-2012, 09:47
A me non sfugge quasi niente ;)
ma la situazione non cambia: per me GF rimane una pessima azienda.
E comunque li collabora con IBM, AMD non centra niente in quel caso.
Che ti devo dire vuol dire che gli sta sulle palle AMD e solo a lei gli fa i pp di merda.
no per te: io cosa sto dicendo da 200 pagine ?
Se conti quante volte ho detto che una latrina virtnamita odora di AMBRE MAGIC rispetto il pp che gf gli ha sformato ad amd per bd, perdi la conta.
Per la debolezza in st, non c'è niente da fare, il pp è il problema maggiore di bd, ma non l'unico.
Alcuni elementi dell'architettura andrebbero corretti.
Esistono praticamente 6 aziende al mondo capaci di fare quello che fa GF (Intel TSMC IBM SEC ST) e secondo te e' una pessima azienda...
Ma vi rileggete prima di premere invio sulla tastiera?
AceGranger
12-01-2012, 09:55
1-2% medio. Secondo me sui giochi potrebbe vedersi qualcosa di meglio
EDIT: susu qualcuno di buona volonta' che faccia dei bei confronti prima/dopo
sarebbero interessanti anceh test sui consumi; con la seconda patch dicono che possono esserci aumenti dei consumi, evidentemente fa entrare meno in riposo la CPU o piu spesso il turbo.
Phenomenale
12-01-2012, 09:55
i thread non vengono + allocati per core int ma per modulo. Ma la strategia migliore non era allocare per core in modo da sfruttare meglio il turbocore?
L'idea sembra essere quella di massimizzare l' IPC per core, non di sfrutare il turbo. Con 1 thread per modulo, non ci sono colli di bottiglia dati da risorse da condividere in due...
Ok, è un pò raschiare il fondo del barile ma è meglio di niente!!!
Attendo i Vostri bench ;)
Esistono praticamente 6 aziende al mondo capaci di fare quello che fa GF (Intel TSMC IBM SEC ST) e secondo te e' una pessima azienda...
Con la globalizzazione nel mondo informatico ci si avvia verso il dualismo (Seagate/WD, AMD/Intel, exATI/nVidia). Dire che sono addiritura in 6 a saper fare quei chip significa che li sanno fare tutti^^ con la differenza che gli altri 5 stanno lavorando decisamente meglio di GF con i suoi 32nm^^. (Quanto scritto è rigorosamente IMHO personal opinion XD)
The3DProgrammer
12-01-2012, 10:11
L'idea sembra essere quella di massimizzare l' IPC per core, non di sfrutare il turbo. Con 1 thread per modulo, non ci sono colli di bottiglia dati da risorse da condividere in due...
Ok, è un pò raschiare il fondo del barile ma è meglio di niente!!!
Attendo i Vostri bench ;)
Con la globalizzazione nel mondo informatico ci si avvia verso il dualismo (Seagate/WD, AMD/Intel, exATI/nVidia). Dire che sono addiritura in 6 a saper fare quei chip significa che li sanno fare tutti^^ con la differenza che gli altri 5 stanno lavorando decisamente meglio di GF con i suoi 32nm^^. (Quanto scritto è rigorosamente IMHO personal opinion XD)
Si ok, ma fino all'altro ieri ci dicevano che era meglio allocare per core che per modulo...
blindwrite
12-01-2012, 10:18
L'idea sembra essere quella di massimizzare l' IPC per core, non di sfrutare il turbo. Con 1 thread per modulo, non ci sono colli di bottiglia dati da risorse da condividere in due...
Ok, è un pò raschiare il fondo del barile ma è meglio di niente!!!
Attendo i Vostri bench ;)
Con la globalizzazione nel mondo informatico ci si avvia verso il dualismo (Seagate/WD, AMD/Intel, exATI/nVidia). Dire che sono addiritura in 6 a saper fare quei chip significa che li sanno fare tutti^^ con la differenza che gli altri 5 stanno lavorando decisamente meglio di GF con i suoi 32nm^^. (Quanto scritto è rigorosamente IMHO personal opinion XD)
Sul 32 lavorano insieme SEC ST IBM e GF.
l'unica con prodotti 32nm in vendita e' GF (e neppure sul 32bulk ma sul SOI)... vedi tu se lavorano male..
le loro fab sono piu' avanti che quelle di SEC che e' il piu' grande investitore in R&D per semiconduttori.
Quindi quel 32nm che qui non si smette di criticare e' circa lo stato dell'arte.
Siete solo voi che vi fate pippe su sto processo produttivo perche' un prodotto non e' risultato quello che vi aspettavate.
Sul 32 lavorano insieme SEC ST IBM e GF.
l'unica con prodotti 32nm in vendita e' GF (e neppure sul 32bulk ma sul SOI)... vedi tu se lavorano male..
le loro fab sono piu' avanti che quelle di SEC che e' il piu' grande investitore in R&D per semiconduttori.
Quindi quel 32nm che qui non si smette di criticare e' circa lo stato dell'arte.
Siete solo voi che vi fate pippe su sto processo produttivo perche' un prodotto non e' risultato quello che vi aspettavate.
Stato dell'arte proprio no. E' evidente che c'è un problema di processo produttivo sia per quanto riguarda l'efficienza (in oc i consumi salgono in maniera impressionante) che per quanto concerne le rese (non si riescono a produrre abbastanza Llano per soddisfare le richieste degli OEM, non ci sono abbastanza Opteron per i nuovi Cray ecc)
Lungi da me voler giustificare AMD, visto che credo che il più grande problema di BD non sia il silicio ma l'architettura in sè per sè, è innegabile che questo 32nm SOI sta creando qualche grattacapo di troppo.
blindwrite
12-01-2012, 11:00
Stato dell'arte proprio no. E' evidente che c'è un problema di processo produttivo sia per quanto riguarda l'efficienza (in oc i consumi salgono in maniera impressionante) che per quanto concerne le rese (non si riescono a produrre abbastanza Llano per soddisfare le richieste degli OEM, non ci sono abbastanza Opteron per i nuovi Cray ecc)
Lungi da me voler giustificare AMD, visto che credo che il più grande problema di BD non sia il silicio ma l'architettura in sè per sè, è innegabile che questo 32nm SOI sta creando qualche grattacapo di troppo.
E' stato dell'arte perche' non esistono 32nm SOI migliori di questo.
Punto.
Se non e' quello che vi aspettavate/speravate in questa discussione non vuol dire che quel 32nm non sia l'attuale stato dell'arte.
Ed anche qualora non fosse ancora arrivato al target, il silicio venduto da GF e' comunque al momento il piu' avanzato disponibile in commercio.
Quindi di che si parla?
Stato dell'arte proprio no. E' evidente che c'è un problema di processo produttivo sia per quanto riguarda l'efficienza (in oc i consumi salgono in maniera impressionante) che per quanto concerne le rese (non si riescono a produrre abbastanza Llano per soddisfare le richieste degli OEM, non ci sono abbastanza Opteron per i nuovi Cray ecc)
Lungi da me voler giustificare AMD, visto che credo che il più grande problema di BD non sia il silicio ma l'architettura in sè per sè, è innegabile che questo 32nm SOI sta creando qualche grattacapo di troppo.
Il pp da solo non vuol dire nulla.
Ti ricordi le diverse rese che c'erano sui 40nm tra AMD e NVidia?
PP e complessità del chip si intersecano, quindi a priori non possiamo dire se le rese sono basse per una concatenazione di eventi, o per incapacità di GF.
Quello che mi lascia perplesso è che le revisioni di bd si siano fermate, quindi potrebbe anche essere il design del chip troppo complesso per le capacità produttive-tecniche di GF, e questo AMD avrebbe dovuto saperlo.
Phenomenale
12-01-2012, 11:06
Consideriamo anche che i 32nm Intel si comportano meglio come rapporto Frequenze/Tensioni e consumi in generale, senza avere problemi di resa produttiva. I 32nm attuali di GF quindi non mi sembrano essere il meglio... :fagiano:
blindwrite
12-01-2012, 11:12
Il pp da solo non vuol dire nulla.
Ti ricordi le diverse rese che c'erano sui 40nm tra AMD e NVidia?
PP e complessità del chip si intersecano, quindi a priori non possiamo dire se le rese sono basse per una concatenazione di eventi, o per incapacità di GF.
Quello che mi lascia perplesso è che le revisioni di bd si siano fermate, quindi potrebbe anche essere il design del chip troppo complesso per le capacità produttive-tecniche di GF, e questo AMD avrebbe dovuto saperlo.
Il design e' fatto seguendo un manuale... Il manuale ti da tutte le configurazioni autorizzate... sta ai designer sfruttare le possibilita' fornite dal processo e non sempre e' facile (anzi non lo e' mai)...
Spessissimo mi capita di dover fare connessioni piu' lunghe (quindi piu' lente del dovuto) o inserire transistor dummy, perche' non sono stato capace di sfruttare tutte le opportunita' al massimo, o perche' volendo (dovendo direi piuttosto) automatizzare il mio layout, non riesco ad ottimizzare le performances al massimo possibile.
Tutto cio' ha ben poco a che vedere con la capacita' della fabbrica, e' solo il compromesso dovuto alle mia capacita'/tempo disponibile, ma ha un grande impatto sulle prestazioni di quello che poi verra' prodotto.
blindwrite
12-01-2012, 11:13
Consideriamo anche che i 32nm Intel si comportano meglio come rapporto Frequenze/Tensioni e consumi in generale, senza avere problemi di resa produttiva. I 32nm attuali di GF quindi non mi sembrano essere il meglio... :fagiano:
Hai processato bulldozer sul 32 intel e fatto tutte le misure dovute?:rolleyes:
digieffe
12-01-2012, 11:23
Si funziona proprio così, di questo sono certo, ad esempio se ne parla qui:
http://www.anandtech.com/Show/Index/4455?cPage=4&all=False&sort=0&page=6&slug=amds-graphics-core-next-preview-amd-architects-for-compute
Ma era già stato reso noto l'estate scorsa...
In pratica ci vuole un supporto da parte del sistema operativo, però...
Non trovo le slide del AMD developer... ma a memoria sono quasi sicuro che i puntatori in formato x86 non erano previsti in questa release di schede 7900 ma nella prossima...
digieffe
12-01-2012, 11:41
Mi appresto a leggere, ma da quello scritto li, non sono proprio modifiche da niente... ;)
Sembra che le AGLU da poco o nulla, nelle nuove CPU potranno fare MOV, XADD, di scambio e manipolazione bit... Quindi raddoppiato il potenziale massimo per queste istruzioni e le più importanti sono MOV e XADD, ma purtroppo solo queste XADD (che non so cosa facciano) e non le ADD normali... Inoltre solo le versioni a 32 e 64 bit. Quindi escluse le 8 e 16 bit.
EDIT: sembra anche che un DIE potrà avere 4 canali memoria... Quindi si apre la porta a Opteron serie 6 a sinolo DIE...
EDIT: nel nuovo modello anche quanche piccola cosa lato FPU. Aggiunta di un paio di istruzioni e promozione di qualche istruzione da Double a Single (occupa meno banda in decodifica)
EDIT: i modelli 00-0F dovrebbero essere i vecchi bulldozer, i modelli 10-1F dovrebbero essere i trinity, in quanto non hanno la L3, i modelli 20-2F dovrebbero essere i nuovi modelli bulldozer.
Le modifiche a cui accennavo prima sui floating point, ci saranno sui modelli 10-1F e 20-2F. Le modifiche sulla parte intera, solo sui modelli 20-2F. Altre modifiche che ho trovato leggendo è che i nuovi modelli (quindi anche trinity) supportano ulteriori istruzioni: FMA (probabilmente la versione castrata a 3 operandi di INTEL), F16C (conversione per floating point a 16 bit), BMI (bit manipulation) e TBM (???).
I modelli 20-2F supportano 10 core e 4 canali DDR3.
I modelli 00-0F hanno la ITLB da 48 unità. La 15H da 32 unità e quelle da 10 a 2F (escluso il modello 15) 64.
I modelli 00-0F hanno la DTLB da 32 unità. I modelli da 10 a 2F, 64.
Nei modelli 10-2F la coda delle richieste di memoria è passata da 40 a 44.
Confermato che i modelli 20-2F hanno fino a 10 core, mentre i modelli 10-1F hanno 2 o 4 core (senza L3, quindi quasi sicuramente sono APU).
Sono specificati i numeri di documento per le guide BIOS per vari modelli, compresi alcuni sconosciuti e successivi: the BIOS and Kernel Developer’s Guide for AMD Family 15h Processors, order# 31116, the BIOS and Kernel Developer’s Guide for AMD Family 15h Processors Models 10h-1Fh, order# 42300, the BIOS and Kernel Developer’s Guide for AMD Family 15h Processors Models 20h-2Fh, order# 48023, the BIOS and Kernel Developer’s Guide for AMD Family 15h Processors Models 30h-3Fh, order# 49125 and 49126, the BIOS and Kernel Developer’s Guide for AMD Family 15h Processors Models 40h-4Fh, order# 49127, and the BIOS and Kernel Developer’s Guide for AMD Family 15h Processors Models 00h-0Fh, order# 48751.
XADD: http://faydoc.tripod.com/cpu/xadd.htm
TBM: http://sourceforge.net/tracker/?func=detail&aid=3103257&group_id=6208&atid=356208 saranno queste?
a te l'onere di descriverne le utilità :D
sono anche intel queste XADD o richiano di non essere presenti nei programmi per via della eventuale esclusività AMD?
- AGLU sempre un pò più ALU (sarebbe da capire quanto le nuove capacità siano frequenti da sfuttare)
- snche se indirettamente miglioramento del decoder (forse miglioramenti non significativi)
- aumento banda di memoria ram (in app.. normali non so quanto possa influire)
- aumento delle entry ITLB DTLB (non ho idea su cosa e quanto possano influire, possono aiutare a migliorare il fetching?) a questo si aggiunge la coda delle richieste di memoria...
considerando tutto cosa ci si può aspettare?
digieffe
12-01-2012, 11:43
Sarebbe molto bello; tuttavia si deve vedere se trinity sarà VLIW4, come ufficialmente noto, o GCN, come ad un certo punto era sembrato.
cut
ufficialmente trinity è vliw4 (a meno che in segreto non abbiano cambiato per strada all'ultimo momento, non credo :()
digieffe
12-01-2012, 11:53
essendo che sul 45 nm aveva lavorato IBM mi chiedevo dove fosse sparita
http://www.bitsandchips.it/9-hardware/188-globalfoundries-apre-la-fab-8-in-collaborazione-con-ibm
altra notizia la nomina di Naik
http://www.primaonline.it/2012/01/10/99917/rajan-naik-senior-vice-president-e-chief-strategy-officer-di-amd/
speriamo che con la collaborazione di IBM i processi produtivi della fab 8 vadano meglio...
se non ricordo male il power 7 con FO4 17 fa 4.25 ghz ed ha già la eDram nella CPU... mi sembra 32MB
Theodorakis
12-01-2012, 11:54
Red hat 6.2 è veramente ottimizzata per bulldozer e piledriver come è scritto qui? :confused:
http://www.bitsandchips.it/24-software/flash-news/207-rhel-62-supporto-specifico-a-bulldozer
carlottoIIx6
12-01-2012, 12:00
Il design e' fatto seguendo un manuale... Il manuale ti da tutte le configurazioni autorizzate... sta ai designer sfruttare le possibilita' fornite dal processo e non sempre e' facile (anzi non lo e' mai)...
Spessissimo mi capita di dover fare connessioni piu' lunghe (quindi piu' lente del dovuto) o inserire transistor dummy, perche' non sono stato capace di sfruttare tutte le opportunita' al massimo, o perche' volendo (dovendo direi piuttosto) automatizzare il mio layout, non riesco ad ottimizzare le performances al massimo possibile.
Tutto cio' ha ben poco a che vedere con la capacita' della fabbrica, e' solo il compromesso dovuto alle mia capacita'/tempo disponibile, ma ha un grande impatto sulle prestazioni di quello che poi verra' prodotto.
indipendentemente da ciò ci sono problemi di resa e quindi questo vuol dire chip difettori, quindi transistor che non vengono bene.
io penso che IBM e GF hanno risolto ciò e per ciò investito in fab 8, e che per questo avremo rese alte e vedremo processori che consumano relativamente meno e salgono di più.
carlottoIIx6
12-01-2012, 12:18
Si ok, ma fino all'altro ieri ci dicevano che era meglio allocare per core che per modulo...
l'idea migliore e quella che incrementa le prestazioni.:D
vediamo come funzionano queste patch, poi traiamo le conlcusioni.
poi non è detto che siano le migliori possibili, ma quel che si è riuscito a fare fin ora, o con win7
digieffe
12-01-2012, 12:36
cut
Per quanto riguarda la ED-RAM... IBM la usa già sui power 7, non sapevo ci volesse un processo apposito! Ma la ed-ram, non era quella che per qualche motivo era un compromesso del tipo "veloce a leggere, ma lenta a scrivere, però se ne mette tanta perché è molto compatta"? Perché ad AMD manca solo una cache ancora più lenta dell'attuale...
cut
In effetti anche io ricordavo il fatto che la velocità delle eDram era peggiore delle sRam... quantità a scapito della qualità?
questi processori amd sembrano sempre più un discorso server/hpc... vedremo..
Esistono praticamente 6 aziende al mondo capaci di fare quello che fa GF (Intel TSMC IBM SEC ST) e secondo te e' una pessima azienda...
Ma vi rileggete prima di premere invio sulla tastiera?
Non ho bisogno di rileggermi, le mie opinioni restano salde: rettificando hai ragione, non è pessima è scandalosa infatti.
Quindi quel 32nm che qui non si smette di criticare e' circa lo stato dell'arte.
Siete solo voi che vi fate pippe su sto processo produttivo perche' un prodotto non e' risultato quello che vi aspettavate.
Si certo, come no, anche la cagata di un elefante se la guardi da un certa prospettiva può essere uno stato dell'arte.
L'arte della merda.
E gf ne è un distributore ufficiale.
Il pp che stiamo criticando fa schifo, ma non è l'unico problema di bd, l'ho sempre detto. Ma dire che sia buono (come dici tu) è da rileggersi prima di premere invio sulla tastiera.
blindwrite
12-01-2012, 13:22
Non ho bisogno di rileggermi, le mie opinioni restano salde: rettificando hai ragione, non è pessima è scandalosa infatti.
Si certo, come no, anche la cagata di un elefante se la guardi da un certa prospettiva può essere uno stato dell'arte.
L'arte della merda.
E gf ne è un distributore ufficiale.
Il pp che stiamo criticando fa schifo, ma non è l'unico problema di bd, l'ho sempre detto. Ma dire che sia buono (come dici tu) è da rileggersi prima di premere invio sulla tastiera.
Fisico specializzato in semiconduttori? :doh:
Phenomenale
12-01-2012, 13:29
Hai processato bulldozer sul 32 intel e fatto tutte le misure dovute?Veramente no :help:
Con questa piccola frase hai lanciato una grande ipotesi: ovvero che il "progetto" del Bulldozer fornito da AMD a GF sia un pastrocchio di interconnessioni malfatte critico da produrre. Ma lo è anche Llano?
Capisco che le interconnessioni troppo lunghe nel chip ti ammazzano la frequenza massima, ma possibile che improvvisamente in AMD non sanno più disegnare?
Ora: io non lavoro in quel campo, ma da esterno cosa vedo? Due processori assai diversi - Llano e Bulldozer - che GF stenta a produrre a 32nm in volumi decenti, tanto che AMD ha modificato i suoi contratti pagando solo i chip funzionanti (con i 45nm pagava per wafer e le rese erano alte). E gli OEM lamentano carenze sulla disponibilità di llano mobile, Cray sugli interlagos...
Allora penso che "bassa resa" = difficoltà nel nuovo processo a 32nm, con compromessi su frequenze e tensioni.
Tutto questo visto da un esterno, poi non sò che giri ci girano dentro a quella FAB :fagiano:
Fisico specializzato in semiconduttori? :doh:
Non proprio ma altro di simile o di quel livello.
E tu ?
E comunque non ci vuole un esperto in semiconduttori per capire determinate cose.
Ma se al posto di rompere la balle, rispettassi le opinioni e le considerazioni degli altri faresti un favore.
O almeno se hai opinioni diverse dalle mie, lascia perdere gli attacchi personali, perchè se inizio io non la finiamo piu, ergo dacci un taglio.
Visto che per quanto mi riguarda il tuo parere o le tue conoscenze non mi piegano e valgono meno di zero, visto le mie. Tuttavia le rispetto...ma non offendo e non entro in merito alle conoscenze e i mestieri degli altri.
papafoxtrot
12-01-2012, 13:30
Non trovo le slide del AMD developer... ma a memoria sono quasi sicuro che i puntatori in formato x86 non erano previsti in questa release di schede 7900 ma nella prossima...
Hum, io l'avevo trovato anche qui, tra gli altri!
http://www.hwupgrade.it/news/skvideo/amd-delinea-ulteriormente-il-futuro-delle-proprie-gpu_37270.html
Hum, stando anche a quanto riportato di da anand
ufficialmente trinity è vliw4 (a meno che in segreto non abbiano cambiato per strada all'ultimo momento, non credo :()
Si si, trinity è VLIW4... E' che l'anno scorso c'era stato qualche rumor, e non volevo essere tassativo, magari avrei potuto sbagliarmi... E poi qui sul forum si è speranzosi... :D
speriamo che con la collaborazione di IBM i processi produtivi della fab 8 vadano meglio...
Mah, che io sappia IBM ha sempre collaborato allo sviluppo del 32nm! D'altra parte il processo dovrebbe essere in qualche modo condiviso da tutta la cerchia GF, IBM, hitachi (?) e via dicendo...
Quello che mi chiedo è se il processo 32nm di cui si parla sia diverso da quello di GF, e di quanto... ad esempio per il processo IBM non si cita HKMG... sarà presente? Per quello GF si dice espressamente che è HKMG, ma non si cita il SOI... Qui purtroppo spesso si vede come i giornali copino la notizia senza neanche capirla... tutti hanno dato questa stessa identica versione, tradotta da una lingua all'altra... Ma nessuno ha esplicitato nulla...
se non ricordo male il power 7 con FO4 17 fa 4.25 ghz ed ha già la eDram nella CPU... mi sembra 32MB
Si, ma con TDP di 200W...
In effetti anche io ricordavo il fatto che la velocità delle eDram era peggiore delle sRam... quantità a scapito della qualità?
questi processori amd sembrano sempre più un discorso server/hpc... vedremo..
Si, ne sono quasi certo, almeno in scrittura...
Può darsi che AMD scelga di integrare una ED-RAM nei soli opteron... O magari semplicemente il processo sarà applicato alle future CPU di IBM, che prima o poi passerà pur ai 32nm...
XADD: http://faydoc.tripod.com/cpu/xadd.htm
TBM: http://sourceforge.net/tracker/?func=detail&aid=3103257&group_id=6208&atid=356208 saranno queste?
a te l'onere di descriverne le utilità :D
sono anche intel queste XADD o richiano di non essere presenti nei programmi per via della eventuale esclusività AMD?
- AGLU sempre un pò più ALU (sarebbe da capire quanto le nuove capacità siano frequenti da sfuttare)
- snche se indirettamente miglioramento del decoder (forse miglioramenti non significativi)
- aumento banda di memoria ram (in app.. normali non so quanto possa influire)
- aumento delle entry ITLB DTLB (non ho idea su cosa e quanto possano influire, possono aiutare a migliorare il fetching?) a questo si aggiunge la coda delle richieste di memoria...
considerando tutto cosa ci si può aspettare?
Allora XADD sono exchange ed ADD. Non mi risulta siano usate di frequente e dovrebbero essere comuni anche con INTEL. TBM ho capito che sono: trailing bit manipulation. Non so a cosa possano servire (forse per la crittografia e/o compressione/decompressione).
L'aumento della banda RAM (che potrebbe essere impercettibile) è figlia dell'aumento della coda delle richieste di memoria. Le TLB aumentate danno maggiori prestazioni con data set grandi dove c'è un grosso via vai di informazioni di pagina dai TLB. Raddoppiando i TLB si raddoppia la quantità di memoria gestibile senza rallentamenti nella traduzione degli indirizzi e si velocizza in media la traduzione indirizzi per data set più grandi. A seconda della quantità di dati gestiti dalle applicazioni, i miglioramenti potrebbero andare dallo 0% a qualche punto percentuale al massimo. Di più in applicazioni che usano parecchia memoria...
Hum, io l'avevo trovato anche qui, tra gli altri!
http://www.hwupgrade.it/news/skvideo/amd-delinea-ulteriormente-il-futuro-delle-proprie-gpu_37270.html
Hum, stando anche a quanto riportato di da anand
Si si, trinity è VLIW4... E' che l'anno scorso c'era stato qualche rumor, e non volevo essere tassativo, magari avrei potuto sbagliarmi... E poi qui sul forum si è speranzosi... :D
Mah, che io sappia IBM ha sempre collaborato allo sviluppo del 32nm! D'altra parte il processo dovrebbe essere in qualche modo condiviso da tutta la cerchia GF, IBM, hitachi (?) e via dicendo...
Quello che mi chiedo è se il processo 32nm di cui si parla sia diverso da quello di GF, e di quanto... ad esempio per il processo IBM non si cita HKMG... sarà presente? Per quello GF si dice espressamente che è HKMG, ma non si cita il SOI... Qui purtroppo spesso si vede come i giornali copino la notizia senza neanche capirla... tutti hanno dato questa stessa identica versione, tradotta da una lingua all'altra... Ma nessuno ha esplicitato nulla...
Si, ma con TDP di 200W...
Si, ne sono quasi certo, almeno in scrittura...
Può darsi che AMD scelga di integrare una ED-RAM nei soli opteron... O magari semplicemente il processo sarà applicato alle future CPU di IBM, che prima o poi passerà pur ai 32nm...
Sono 200W ma sono 8 core enormi, ognuno con 12 pipeline, tra intero, memoria e FP, e SMT a 4 vie. Ogni core Power 7 ha lo stesso numero di unità di un MODULO Bulldozer (un modulo bulldozer ha 4 pipeline ALU, 4 AGLU e 4 FP) e può gestire il DOPPIO dei thread di un modulo Bulldozer (quindi ipoteticamente dovrebbe avere il decoder più complesso). Un power 7 dovrebbe equivalere come complessità (ma non so dire a livello di transistor) a un Bulldozer 8 moduli, 16 core, 32MB di L3 e 32 thread (che non esiste)... In pratica come il BD X16 MCM, ma implementato in un unico DIE, con il doppio della cache L3 e il doppio dei thread. Ma funzionante a 3.9GHz (perchè il 4.25 è la versione con 4 core) e prodotto però a 45nm...
blindwrite
12-01-2012, 13:42
Non proprio ma altro di simile o di quel livello.
E tu ?
E comunque non ci vuole un esperto in semiconduttori per capire determinate cose.
Ma se al posto di rompere la balle, rispettassi le opinioni e le considerazioni degli altri faresti un favore.
O almeno se hai opinioni diverse dalle mie, lascia perdere gli attacchi personali, perchè se inizio io non la finiamo piu, ergo dacci un taglio.
Visto che per quanto mi riguarda il tuo parere o le tue conoscenze non mi piegano e valgono meno di zero, visto le mie. Tuttavia le rispetto...ma non offendo e non entro in merito alle conoscenze e i mestieri degli altri.
Sviluppo processo 32/28 20 bulk e FDSOI, con qualificazione su fab GF ST e SEC
In particolare mi occupo di circuiti per la qualificazione di librerie (delay e consumo statico e dinamico)
Quindi quando dici che sul 32 si e' fatto un lavoro di merda dici che io e tutti i miei colleghi abbiamo fatto un lavoro di merda... e non e' decisamente cosi'
carlottoIIx6
12-01-2012, 13:53
Sviluppo processo 32/28 20 bulk e FDSOI, con qualificazione su fab GF ST e SEC
In particolare mi occupo di circuiti per la qualificazione di librerie (delay e consumo statico e dinamico)
Quindi quando dici che sul 32 si e' fatto un lavoro di merda dici che io e tutti i miei colleghi abbiamo fatto un lavoro di merda... e non e' decisamente cosi'
dai, sono daccordo con te che il 32 nm è buono (anche se come al solito migliorabile, cosa che avviene sempre), quello che mi proccupa di più e il processo di stampa.
dacci delle dritte su, come evolverà la cosa secondo te, sui consumi e le frequenze massime.
blindwrite
12-01-2012, 14:05
dai, sono daccordo con te che il 32 nm è buono (anche se come al solito migliorabile, cosa che avviene sempre), quello che mi proccupa di più e il processo di stampa.
dacci delle dritte su, come evolverà la cosa secondo te, sui consumi e le frequenze massime.
Non conoscendo per nulla il progetto bulldozer non ne ha la minima idea, qualunque cosa scrivessi sarebbe non attendibile dato l'enorme lavoro che c'e' dietro.
Non ho la palla di verto al contrario del 90% delle persone qui dentro
Sviluppo processo 32/28 20 bulk e FDSOI, con qualificazione su fab GF ST e SEC
In particolare mi occupo di circuiti per la qualificazione di librerie (delay e consumo statico e dinamico)
Quindi quando dici che sul 32 si e' fatto un lavoro di merda dici che io e tutti i miei colleghi abbiamo fatto un lavoro di merda... e non e' decisamente cosi'
Beh non tutte le ciambelle escono con il buco ;)
Quelle di GF addirittura non vengono nemmeno infornate a dovere.
Io parlo di GF. Aziende produttrici di semiconduttori di un certo calibro, dove regnano ingegneri con anni e anni di esperienza, e no neo laureati dentro aziende scrause di semiconduttori che vaneggiano esperienze inesistenti ;) ;) ;)
papafoxtrot
12-01-2012, 14:21
Sono 200W ma sono 8 core enormi, ognuno con 12 pipeline, tra intero, memoria e FP, e SMT a 4 vie. Ogni core Power 7 ha lo stesso numero di unità di un MODULO Bulldozer (un modulo bulldozer ha 4 pipeline ALU, 4 AGLU e 4 FP) e può gestire il DOPPIO dei thread di un modulo Bulldozer (quindi ipoteticamente dovrebbe avere il decoder più complesso). Un power 7 dovrebbe equivalere come complessità (ma non so dire a livello di transistor) a un Bulldozer 8 moduli, 16 core, 32MB di L3 e 32 thread (che non esiste)... In pratica come il BD X16 MCM, ma implementato in un unico DIE, con il doppio della cache L3 e il doppio dei thread. Ma funzionante a 3.9GHz (perchè il 4.25 è la versione con 4 core) e prodotto però a 45nm...
Ovviamente sono d'accordo; ho sempre sostenuto che non sia corretto verificare CPU diverse su processi diversi... E sempre per questo motivo credo non sia giusto comparare un power 7 con un bulldozer solo perché hanno lo stesso F04 e dire: "quell'altro è prodotto a 45nm eppure arriva a 4GHz".
Nel complesso quali pensi possano essere gli incrementi di IPC di trinity e piledriver? (visto che mi sembra di aver capito che trinity implementerà solo parte delle novità dei futuri fx)... Si sa niente sulle caches?
carlottoIIx6
12-01-2012, 14:24
Non conoscendo per nulla il progetto bulldozer non ne ha la minima idea, qualunque cosa scrivessi sarebbe non attendibile dato l'enorme lavoro che c'e' dietro.
Non ho la palla di verto al contrario del 90% delle persone qui dentro
infatti, ma chiedevo di sbilnciarti in un azzardo.
mi togli un dubbio da esperto? :D
il consumo della cpu, va tutto in calore o, come io credo, in calore e lavoro (per attivare i transistor)?
qual è, se c'è, il contributo delle induttanze e capacità parassite?
Sono 200W ma sono 8 core enormi, ognuno con 12 pipeline, tra intero, memoria e FP, e SMT a 4 vie. Ogni core Power 7 ha lo stesso numero di unità di un MODULO Bulldozer (un modulo bulldozer ha 4 pipeline ALU, 4 AGLU e 4 FP) e può gestire il DOPPIO dei thread di un modulo Bulldozer (quindi ipoteticamente dovrebbe avere il decoder più complesso). Un power 7 dovrebbe equivalere come complessità (ma non so dire a livello di transistor) a un Bulldozer 8 moduli, 16 core, 32MB di L3 e 32 thread (che non esiste)... In pratica come il BD X16 MCM, ma implementato in un unico DIE, con il doppio della cache L3 e il doppio dei thread. Ma funzionante a 3.9GHz (perchè il 4.25 è la versione con 4 core) e prodotto però a 45nm...
quoto e aggiungo: un mostro ! Altro che Intel e Amd.
carlottoIIx6
12-01-2012, 14:31
Beh non tutte le ciambelle escono con il buco ;)
Quelle di GF addirittura non vengono nemmeno infornate a dovere.
Io parlo di GF. Aziende produttrici di semiconduttori di un certo calibro, dove regnano ingegneri con anni e anni di esperienza, e no neo laureati dentro aziende scrause di semiconduttori che vaneggiano esperienze inesistenti ;) ;) ;)
dai, che polimica inutile :) qui tutti possono vantere, io compreso, tante pippe mentali :)
The3DProgrammer
12-01-2012, 14:44
Beh non tutte le ciambelle escono con il buco ;)
Quelle di GF addirittura non vengono nemmeno infornate a dovere.
Io parlo di GF. Aziende produttrici di semiconduttori di un certo calibro, dove regnano ingegneri con anni e anni di esperienza, e no neo laureati dentro aziende scrause di semiconduttori che vaneggiano esperienze inesistenti ;) ;) ;)
boh io ci andrei cauto con queste affermazioni, primo perche' se lavora con quel processo sicuro non lavora in un'azienda scrausa (a naso dico ST) secondo perche' basta leggere qualche post per capire che blindwrite sa il fatto suo.
Non e' per fare l'avvocato difensore, ma mi darebbe fastidio perdere persone competenti che magari rinunciano a seguire la discussione per sterili polemiche :)
Io +ttosto avrei una domanda, c'e' una cosa che non capisco e vorrei chiedere a blindwrite: come hai detto non e' che le CPU vengono disegnate e poi "stampate" e basta, ma vengono disegnate utilizzando le specifiche del processo stesso che quindi devono essere conosciute a priori e questo lega indissolubilmente il processo produttivo al progetto finale. Detto questo, AMD qualche tempo fa stabiliva per Llano frequenze operative > 3 GHz con tensioni < 1.3v, mentre voci non ufficiali ma attendibili davano per BD una frequenza stimata al debutto superiore del 30%, cosa che poi non e' avvenuta. Secondo te cosa puo' essere successo? Stime troppo ottimistiche degli ingegneri, incapacita' di sfruttare al massimo il processo, difficolta' nell'adattare l'architettura (che ricordo era nata a 45nm) al nuovo processo o altro ancora?
ArteTetra
12-01-2012, 14:47
Tuttavia le rispetto...ma non offendo e non entro in merito alle conoscenze e i mestieri degli altri.
e no neo laureati dentro aziende scrause di semiconduttori che vaneggiano esperienze inesistenti ;) ;) ;)
Coerenza mia portami via. :asd:
mi togli un dubbio da esperto? :D
il consumo della cpu, va tutto in calore o, come io credo, in calore e lavoro (per attivare i transistor)?
qual è se c'è il contributo delle induttanze e capacità parassite?
È molto semplice: immagina un processore a piena attività, diciamo 100 W, per ore e ore. Se tutta l'energia non venisse dissipata in calore, dove andrebbe? Verrebbe immagazzinata nelle "capacità parassite"? Poi quando spegni il computer cosa succede a tutta quell'energia, va in un'altra dimensione? :D Scherzi a parte, la risposta è "va tutto in calore". :read:
ma chi sta parlando di lui, io parlo di gf
Stime troppo ottimistiche degli ingegneri, incapacita' di sfruttare al massimo il processo, difficolta' nell'adattare l'architettura (che ricordo era nata a 45nm) al nuovo processo o altro ancora?
O anche impossibilita/incapacità di disegnare un nuovo concetto di architettura su un processo limitato.
Secondo un mio parere i Problemi di architettura ci sono ma sono di parte e non coprono una percentuale madre.
L'impossibilita di disegnare un architettura con un concetto completamente diverso su un pp che si aspettava X ed invece la grande GF gli e l'ha fatto Y, questi sono secondo me le cose che sono successe realmente. Sono i problemi madre di zambesi.
Edit: e poi si aggiungono tutti gli altri problemi e gli errori fatti, come l'automatizzazione totale del processo, i vecchi ingegneri quelli veramente esperti a casa e gli incompetenti dentro, e per coprire tutto tanto tanto marketing truffa.
Senza togliere una infrastruttura da cambiare perchè ormai obsoleta (amx).
Insomma piu che ciambelle senza buco, questi sono buchi completi.
blindwrite
12-01-2012, 15:14
Beh non tutte le ciambelle escono con il buco ;)
Quelle di GF addirittura non vengono nemmeno infornate a dovere.
Io parlo di GF. Aziende produttrici di semiconduttori di un certo calibro, dove regnano ingegneri con anni e anni di esperienza, e no neo laureati dentro aziende scrause di semiconduttori che vaneggiano esperienze inesistenti ;) ;) ;)
Sono a STmicroelectronics... siamo di gran lunga piu' grandi di GF...
ti rendi conto di quello che scrivi?
Sono a STmicroelectronics... siamo di gran lunga piu' grandi di GF...
ti rendi conto di quello che scrivi?
Non me ne frega niente dove sei. Questo non cambia le mie opinioni o le mie competenze. Tu sai su cosa lavoro e cosa faccio io ? ;)
Tu saprai il fatto tuo ed io so il mio ;)
E comunque non parlavo di te, parlavo di gf, l'ho gia detto due post sopra. E per me il 32nm è una merda. Da saltare, da evitare, solo conj il 28nm cambiera tutta sta situazione di bd. Forse solo gli ultimi modelli di piledriver se verrano convertiti a 28 nm per fine anno o nizi 2013 si salveranno, e ovviamente gli streamroller futuri a 28nm.
Ma fino a quando avremo a che fare con il 32nm, e questi bd su questo pp: solo rogne e silicio inutile.
Per cui diamoci un taglio entrambi, perchè oltretutto mi sono pure scocciato di risp a sti post inutili.
Phenomenale
12-01-2012, 15:28
Detto questo, AMD qualche tempo fa stabiliva per Llano frequenze operative > 3 GHz con tensioni < 1.3v, mentre voci non ufficiali ma attendibili davano per BD una frequenza stimata al debutto superiore del 30%, cosa che poi non e' avvenuta. Secondo te cosa puo' essere successo?
In attesa della risposta di blindwrite, anticipo una mia ipotesi (tutta mentale, non ho talpe in loco XD).
Anzitutto GF annuncia in pompa magna di avere i 32nm pronti. Annuncia anche percentuali di miglioramenti da capogiro! Cercate nel web i suoi vecchi annunci sul processo a 32nm.....
Annuncio ufficiale: http://www.globalfoundries.com/newsroom/2009/20090930_GSA.aspx
Quote: "When compared against the 45nm-SHP technology we’re currently running in Fab 1, we’re seeing performance improvements of up to 50 percent in the 32nm generation at the same leakage levels of the 45nm generation"
Addirittura il +50% di velocità con gli stessi consumi dei 45nm!!! :eek:
Con queste prospettive, AMD ha forse immaginato i suoi Bulldozer che asfaltavano la concorrenza a 4,5 - 5 GHz di clock a default.
Poi ha sfornato i primi sample ES e si è resa conto di aver immaginato male. :doh:
Da qui la corsa ai rinvii nel corso del 2011, e la corsa ai nuovi step produttivi per cercare di mettere insieme frequenze competitive.
My two cents, of course.
gianni1879
12-01-2012, 15:32
diamoci un taglio please
Non conoscendo per nulla il progetto bulldozer non ne ha la minima idea, qualunque cosa scrivessi sarebbe non attendibile dato l'enorme lavoro che c'e' dietro.
Non ho la palla di verto al contrario del 90% delle persone qui dentro
superquotone
cambiando argomento: qualcuno ha provato le patch per win7?
Io ho letto di incrementi minimi, dall'1-4% nella maggior parte delle occasioni, a rari 10%.
Comunque sia tutto è utile.. da quel che ho letto però non erano sufficienti a pareggiare la diferenza di IPC con Thuban.
Tuttavia aspetto o magari spero anche di poter presto fare prove più approfondite :stordita:
Io ho letto di incrementi minimi, dall'1-4% nella maggior parte delle occasioni, a rari 10%.
Comunque sia tutto è utile.. da quel che ho letto però non erano sufficienti a pareggiare la diferenza di IPC con Thuban.
Tuttavia aspetto o magari spero anche di poter presto fare prove più approfondite :stordita:
più che altro ero curioso di sapere se le patch erano scaricabili da win update....
non sembra essere una cosa così scontata.... :D
The3DProgrammer
12-01-2012, 16:21
più che altro ero curioso di sapere se le patch erano scaricabili da win update....
non sembra essere una cosa così scontata.... :D
da quel che ho capito ad alcuni viene fuori ad altri no.
Si possono scaricare da qui
http://support.microsoft.com/kb/2646060
http://support.microsoft.com/kb/2645594
da quel che ho capito ad alcuni viene fuori ad altri no.
Si possono scaricare da qui
http://support.microsoft.com/kb/2646060
http://support.microsoft.com/kb/2645594
in rigoroso ordine di installazione
grazie.
quando arrivo a casa provo.
quindi prima il discorso core parking e poi patch x scheduler? avrei detto il contrario :):)
edit: come sempre in pieno stile ms il secondo non è scaricabile tramite link diretto e su win update non c'è nulla...nonostante affermino il contrario
ah linux linux quando inizieranno a sviluppare giochi anche per linux, che winzozz non mi vede neanche + in cartolina
edit 2: non è questo l'ordine di installazione.....
perchè provando a lanciare il 060 (quello invece è scaricabile tramite il link) mi dice 'impossibile applicare l'aggiornamento al computer.' perchè evidentemente manca il 594...
quindi era come immaginavo io: prima lo scheduler (il 594) e poi il core parking...
carlottoIIx6
12-01-2012, 17:59
È molto semplice: immagina un processore a piena attività, diciamo 100 W, per ore e ore. Se tutta l'energia non venisse dissipata in calore, dove andrebbe? Verrebbe immagazzinata nelle "capacità parassite"? Poi quando spegni il computer cosa succede a tutta quell'energia, va in un'altra dimensione? :D Scherzi a parte, la risposta è "va tutto in calore". :read:
non l'ho chiesto a te, perchè so già come la pensate :) il contrario di me :)
l'ho chiesto a blindwrite che disegna queste cosem che suppongo sappia il problema bene.
:) e quindi può darmi illuminazioni a proposito :)
carlottoIIx6
12-01-2012, 18:03
Io ho letto di incrementi minimi, dall'1-4% nella maggior parte delle occasioni, a rari 10%.
Comunque sia tutto è utile.. da quel che ho letto però non erano sufficienti a pareggiare la diferenza di IPC con Thuban.
Tuttavia aspetto o magari spero anche di poter presto fare prove più approfondite :stordita:
qualsiasi cosa guadagni sarà molto di più con win8 :) quindi va bene :)
inoltre qualsiasi cosa guardagni imcrementerà ulteriormente con la frequenza :)
http://www.ngohq.com/news/21092-amd-bulldozer-performance-hotfixes-for-windows-7-a.html
a chi interessa questo il link...io li ho installati
edit: mi sa che deve essere una mezza presa in giro queste patch....
perchè con quella che hanno tolto era meglio....
mi sa che hanno messo 3 mb di sleep nel codice per poi decommentarli con win8....cosi almeno hanno la scusa per vendere win8..
con la prima volta il windows index era aumentato, adesso non cambia assolutamente nulla... ad esempio
S^ ma quelle precedenti in alcuni aumentavano in altri diminuivano
Per avere un'ida vertiera dovresti vedere anche i test dove i risultati peggioravano, per vedere se è sempre così
S^ ma quelle precedenti in alcuni aumentavano in altri diminuivano
Per avere un'ida vertiera dovresti vedere anche i test dove i risultati peggioravano, per vedere se è sempre così
prima peggioravano perchè interveniva male il core parking...(la seconda patch che non c'era)...non perchè la patch fosse sbagliata.
nel caso in cui mi diminuiva (winrar) adesso è uguale a prima....perchè adesso con o senza patch non cambia assolutamente nulla....
ripeto, per me, è l'ennesima presa per i fondelli fatta per vendere win8....
oltre al fatto che ho provato a lanciare il superpi è come sempre il thread viene istericamente fatto passare da 1 nucleo all'altro, da un modulo all'altro...così...come sempre accade con win..
sempre che non facciano come l'ultima volta, che domani dicono che si sono sbagliati a far uscire le patch...facendo l'ennesima figura di ....
giuliojiang
12-01-2012, 20:32
prima peggioravano perchè interveniva male il core parking...(la seconda patch che non c'era)...non perchè la patch fosse sbagliata.
nel caso in cui mi diminuiva (winrar) adesso è uguale a prima....
adesso con o senza patch non cambia assolutamente nulla....
ripeto, per me, è l'ennesima presa per i fondelli fatta per vendere win8....
oltre al fatto che ho provato a lanciare il superpi è come sempre il thread viene istericamente fatto passare da 1 nucleo all'altro, da un modulo all'altro...così...come sempre accade con win..
sempre che non facciano come l'ultima volta, che domani dicono che si sono sbagliati a far uscire le patch...facendo l'ennesima figura di ....
sì, ho notato anche io questo strano comportamento sia con i core 2 duo sia con i phII, mi sono sempre chiesto a cosa serva... per rendere omogenea l'usura dei core??? Non sarebbe più utile in questo caso aumentare l'intervallo con cui viene fatto il cambio di core? Poi cambiare core non significa che il contenuto delle cache L1 e L2 deve essere copiato da una parte all'altra con conseguente calo di prestazioni?
Sistema in firma
FX 8120 @ 3.9Ghz -> Turbo 4.60Ghz NB 2.4 HT 2.4 DDR3 1866
NO PATCH
Batman Arkham City (V.sync ON)
ALL HIGH + physx normal 1080p
Min 10
Max 60
Avg 24
luxrender
10,17s
http://img266.imageshack.us/img266/7986/luxu.th.png (http://imageshack.us/photo/my-images/266/luxu.png/)
CineBench 11.5
5.61p
S.C. 1.01p
http://img689.imageshack.us/img689/1907/cinebenchmt.th.png (http://imageshack.us/photo/my-images/689/cinebenchmt.png/)
FX 8120 @ 4.6Ghz -> Turbo OFF NB 2.4 HT 2.4 DDR3 1866
NO PATCH
Batman Arkham City (V.sync ON)
ALL HIGH + physx normal 1080p
Min 14
Max 60
Avg 33
luxrender
7,23s
http://img197.imageshack.us/img197/3677/luxxr.th.png (http://imageshack.us/photo/my-images/197/luxxr.png/)
CineBench 11.5
7.53p
S.C. 1.13p
http://img715.imageshack.us/img715/1907/cinebenchmt.th.png (http://imageshack.us/photo/my-images/715/cinebenchmt.png/)
PATCH INSTALLATE
FX 8120 @ 4.6Ghz -> Turbo OFF NB 2.4 HT 2.4 DDR3 1866
Batman Arkham City (V.sync ON)
ALL HIGH + physx normal 1080p
Min 14
Max 61
Avg 34
luxrender
7,21s
http://img707.imageshack.us/img707/1778/luxp.th.png (http://imageshack.us/photo/my-images/707/luxp.png/)
CineBench 11.5
7.51p
S.C. 1.13p
http://img38.imageshack.us/img38/6633/cinebenchmtp.th.png (http://imageshack.us/photo/my-images/38/cinebenchmtp.png/)
Direi che non cambia assolutamente nulla..
Mister D
12-01-2012, 21:32
cut...
Mah, che io sappia IBM ha sempre collaborato allo sviluppo del 32nm! D'altra parte il processo dovrebbe essere in qualche modo condiviso da tutta la cerchia GF, IBM, hitachi (?) e via dicendo...
Quello che mi chiedo è se il processo 32nm di cui si parla sia diverso da quello di GF, e di quanto... ad esempio per il processo IBM non si cita HKMG... sarà presente? Per quello GF si dice espressamente che è HKMG, ma non si cita il SOI... Qui purtroppo spesso si vede come i giornali copino la notizia senza neanche capirla... tutti hanno dato questa stessa identica versione, tradotta da una lingua all'altra... Ma nessuno ha esplicitato nulla...
cut...
Innanzitutto mi fa molto piacere rivederti qua. E per quanto riguarda il pp a 32 nm di GF dire che è SOI, almeno leggendo da questa press release:
http://www.globalfoundries.com/newsroom/2009/20090930_GSA.aspx
"...GLOBALFOUNDRIES expects to start volume production of 32nm-SHP (Super High Performance) technology at Fab 1 in the second half of 2010. This technology will employ silicon-on-insulator (SOI) substrates and utilize GLOBALFOUNDRIES’ innovative “Gate First” approach to HKMG, which maximizes power efficiency and transistor scaling while minimizing die size and design complexity when compared to the alternative “Gate Last” approach. Yield progress continues with 24Mb SRAMs in double-digit natural yields on path to 50 per cent natural yields by year-end...."
Ciao e buon proseguimento!;)
Mister D
12-01-2012, 21:52
http://www.electronicsweekly.com/blogs/david-manners-semiconductor-blog/2011/12/intel-delays-finfets.html
Non tanto per il ritardo di intel ma per:
"...Although the finfets to be introduced by Intel are to be built on a conventional CMOS silicon substrate, Asenov's group at Glasgow University has determined that SOI finfets may be easier to make.
"Intel has chosen bulk because it is the cheaper option, but it has a lot of problems in terms of manufacturability and control," says Asenov.
Asenov reckons that finfets built on an SOI substrate could have significant advantages in terms of simpler processing, better process control and reduced statistical variability.
His group has shown that SOI finfets will meet the low statistical variability requirements of 11nm CMOS technology.
That means SOI finfets will be useful for three generations of process technology justifying the expense that will be incurred in moving to new transistor architecture...."
Secondo questo Professore della Glasgow University sarebbe più semplice applicare la tecnologia FINFET al SOI che al bulk. Speriamo bene che GF e AMD continuino nella strada di utilizzare il SOI.;)
Mister D
12-01-2012, 21:54
Anche questo articolo non è male:
http://www.advancedsubstratenews.com/2011/11/st-fd-soi-for-competitive-socs-at-28nm-and-beyond/
papafoxtrot
12-01-2012, 22:10
Innanzitutto mi fa molto piacere rivederti qua. E per quanto riguarda il pp a 32 nm di GF dire che è SOI, almeno leggendo da questa press release:
http://www.globalfoundries.com/newsroom/2009/20090930_GSA.aspx
"...GLOBALFOUNDRIES expects to start volume production of 32nm-SHP (Super High Performance) technology at Fab 1 in the second half of 2010. This technology will employ silicon-on-insulator (SOI) substrates and utilize GLOBALFOUNDRIES’ innovative “Gate First” approach to HKMG, which maximizes power efficiency and transistor scaling while minimizing die size and design complexity when compared to the alternative “Gate Last” approach. Yield progress continues with 24Mb SRAMs in double-digit natural yields on path to 50 per cent natural yields by year-end...."
Ciao e buon proseguimento!;)
Si, chiaro che i 32nm GF sono soi... Mi chiedevo se la fab 8 implementerà un processo apposito per iBM, e se quest'ultimo avrà HKMG... Perché nessun articolo lo cita, dicendo invece espressamente che il processo di GF è HKMG...
Insomma viene da pensare che IBM voglia produrre senza HKMG.
Però poi uno fa caso che per GF dicono che è HKMG, ma non citano il SOI, che invece c'è... e allora non è anche ibm lo usi?
Mi sembra strano, ecco, che alla fab 8 sia disponibile un processo soi hkmg, e ibm se ne faccia approntare un'altro che almeno sulla carta sarebbe inferiore!
http://www.electronicsweekly.com/blogs/david-manners-semiconductor-blog/2011/12/intel-delays-finfets.html
Non tanto per il ritardo di intel ma per:
"...Although the finfets to be introduced by Intel are to be built on a conventional CMOS silicon substrate, Asenov's group at Glasgow University has determined that SOI finfets may be easier to make.
"Intel has chosen bulk because it is the cheaper option, but it has a lot of problems in terms of manufacturability and control," says Asenov.
Asenov reckons that finfets built on an SOI substrate could have significant advantages in terms of simpler processing, better process control and reduced statistical variability.
His group has shown that SOI finfets will meet the low statistical variability requirements of 11nm CMOS technology.
That means SOI finfets will be useful for three generations of process technology justifying the expense that will be incurred in moving to new transistor architecture...."
Secondo questo Professore della Glasgow University sarebbe più semplice applicare la tecnologia FINFET al SOI che al bulk. Speriamo bene che GF e AMD continuino nella strada di utilizzare il SOI.;)
Interessante... ma cos'è FINFET?
Comunque sono curioso di vedere come si confronteranno i nuovi processi a 22nm, in particolare il nuovo processo intel con transistor trigate... Credo che alla fine alla intel sapessero bene che il processo bulk era economico e gli permetteva, magari di uscire un po' prima... E sapevano che da un certo punto in poi, quando sarebbero stati necessari notevoli up del processo (SOI, FD-SOI, ULK, non ricordo più cos'altro GF intenda implementare) loro avrebbero avuto disponibile il trigate...
capitan_crasy
12-01-2012, 22:33
Si, chiaro che i 32nm GF sono soi... Mi chiedevo se la fab 8 implementerà un processo apposito per iBM, e se quest'ultimo avrà HKMG... Perché nessun articolo lo cita, dicendo invece espressamente che il processo di GF è HKMG...
Insomma viene da pensare che IBM voglia produrre senza HKMG.
Però poi uno fa caso che per GF dicono che è HKMG, ma non citano il SOI, che invece c'è... e allora non è anche ibm lo usi?
Mi sembra strano, ecco, che alla fab 8 sia disponibile un processo soi hkmg, e ibm se ne faccia approntare un'altro che almeno sulla carta sarebbe inferiore!
Non viene mai citata ma non esiste un processo produttivo 32nm SOI senza la tecnologia HKMG; tale silicio ha l'opzione Ultra low-k non ancora utilizzato da GF...
Mister D
13-01-2012, 00:02
cut...
Interessante... ma cos'è FINFET?
Comunque sono curioso di vedere come si confronteranno i nuovi processi a 22nm, in particolare il nuovo processo intel con transistor trigate... Credo che alla fine alla intel sapessero bene che il processo bulk era economico e gli permetteva, magari di uscire un po' prima... E sapevano che da un certo punto in poi, quando sarebbero stati necessari notevoli up del processo (SOI, FD-SOI, ULK, non ricordo più cos'altro GF intenda implementare) loro avrebbero avuto disponibile il trigate...
FinFET è un nome per identificare i transistor dual o tri gate (come quello di intel nei 22 nm) dove viene innalzato a forma di pinna il collegamento source-drain. Il nome, fin, lo si deve ad un professore della cincinnaty university che lo associò alle pinne dei pesci. Fin infatti in inglese vuol dire pinna. Almeno così avevo letto su una slide in power point. Dovrei cercarla tra tutte quelle che ho scaricato sull'argomento.
Qua puoi vedere come sono fatti per esempio un dual gate FinFET e un trial gate FinFET:
http://www.iue.tuwien.ac.at/phd/klima/node77.html
Il passo successivo sarà quello di aumentare le fins in modo da avere ancora più superficie dove far passare la corrente:
http://www.hwupgrade.it/articoli/cpu/2826/trigate4.jpg
carlottoIIx6
13-01-2012, 01:32
cut
Direi che non cambia assolutamente nulla..
amd dice che cambia poco e in alcunica casi nulla.
ma consiglia le patch.
faccio notare
http://www.tomshw.it/cont/news/due-patch-prestazionali-per-amd-bulldozer-nessun-miracolo/35332/1.html
"Segnaliamo che nella nostra recensione del modello FX-8150 abbiamo inserito dei test della CPU con Windows 8, notando effettivamente dei miglioramenti. In tal senso AMD parla di passi avanti tra il 2 e il 10 percento con alcune applicazioni rispetto a Windows 7."
ora questo è dovuto e buono, ma il software conta di più del sistema operativo.
The3DProgrammer
13-01-2012, 07:58
grazie.
quando arrivo a casa provo.
quindi prima il discorso core parking e poi patch x scheduler? avrei detto il contrario :):)
edit: come sempre in pieno stile ms il secondo non è scaricabile tramite link diretto e su win update non c'è nulla...nonostante affermino il contrario
ah linux linux quando inizieranno a sviluppare giochi anche per linux, che winzozz non mi vede neanche + in cartolina
edit 2: non è questo l'ordine di installazione.....
perchè provando a lanciare il 060 (quello invece è scaricabile tramite il link) mi dice 'impossibile applicare l'aggiornamento al computer.' perchè evidentemente manca il 594...
quindi era come immaginavo io: prima lo scheduler (il 594) e poi il core parking...
ah ok sorry ho copiato i link da XS e sono andato sulla fiducia sull'ordine di installazione, edito il post originale
paolo.oliva2
13-01-2012, 08:13
amd dice che cambia poco e in alcunica casi nulla.
ma consiglia le patch.
faccio notare
http://www.tomshw.it/cont/news/due-patch-prestazionali-per-amd-bulldozer-nessun-miracolo/35332/1.html
"Segnaliamo che nella nostra recensione del modello FX-8150 abbiamo inserito dei test della CPU con Windows 8, notando effettivamente dei miglioramenti. In tal senso AMD parla di passi avanti tra il 2 e il 10 percento con alcune applicazioni rispetto a Windows 7."
ora questo è dovuto e buono, ma il software conta di più del sistema operativo.
Concordo.....
In OC cambia qualche cosa? Difficile che cambi nel discorso OC massimo, ma meno isteria del core parking potrebbe comunque influire sulla massima frequenza RS, visto e considerato che il Turbo sul core si attiva quando c'è il cambio di carico nel passaggio da core a core.
Comunque rimango dell'idea che ci sia un problema di fondo in BD prima release.
Ancora non riesco a capire il perchè nella maggioranza dei casi per ottenere la massima potenza di elaborazione da un core BD, si debbano far girare più TH nello stesso core, quando se ci fossero problemi di banda o similari, più aumenterebbero i TH e più crollerebbero i risultati.
The3DProgrammer
13-01-2012, 08:22
http://www.tweakpc.de/hardware/tests/cpu/amd_bulldozer_fx_patch/s02.php
mah..
http://www.tweakpc.de/hardware/tests/cpu/amd_bulldozer_fx_patch/s02.php
mah..
è come ho detto io prima....visto che l'ho provata ieri..cambia nulla
solo marketing per spingere win8 e i quadretti del caxx.....
OT
ma guarda se la novità di un sistema operativo sia quella di avere l'interfaccia dei cellulari...
mamma mia...
win9 avrà l'interfaccia delle lavatrici..
nel 2011 nn si possono lanciare 2 istanze di win installer....perchè ti dice che non è possibile...
con queste cxxxx pensano ai quadretti...mah
FINE OT
http://www.hwupgrade.it/news/cpu/processori-phenom-ii-x8-l-esistenza-egrave-confermata_40238.html
quindi si sta parlando sempre delle cpu eng samp di 1 anno fa o quasi (di cui ha parlato capitan_crasy) ed è l'ennesimo errore, o è altro?
papafoxtrot
13-01-2012, 08:37
FinFET è un nome per identificare i transistor dual o tri gate (come quello di intel nei 22 nm) dove viene innalzato a forma di pinna il collegamento source-drain. Il nome, fin, lo si deve ad un professore della cincinnaty university che lo associò alle pinne dei pesci. Fin infatti in inglese vuol dire pinna. Almeno così avevo letto su una slide in power point. Dovrei cercarla tra tutte quelle che ho scaricato sull'argomento.
Qua puoi vedere come sono fatti per esempio un dual gate FinFET e un trial gate FinFET:
http://www.iue.tuwien.ac.at/phd/klima/node77.html
Il passo successivo sarà quello di aumentare le fins in modo da avere ancora più superficie dove far passare la corrente:
http://www.hwupgrade.it/articoli/cpu/2826/trigate4.jpg
Ah ok, pensavo fosse qualche altra tecnologia...
solo marketing per spingere win8 e i quadretti del caxx.....
Beh, in questo momento di crisi dell'alleanza Wintel
(Intel ha tentato con Meego, Microsoft fara' Windows 8 per arm)
mi sembra giusto da parte di AMD tentare di diventare
la migliore amica di M$.
Ricordiamo che l'unico compilatore diffuso che sfrutta per bene le CPU Amd è
quello Microsoft!
blindwrite
13-01-2012, 09:44
Non viene mai citata ma non esiste un processo produttivo 32nm SOI senza la tecnologia HKMG; tale silicio ha l'opzione Ultra low-k non ancora utilizzato da GF...
Il 32 per tutti (alleanza IBM) e' HKMG gate first con back-end in ULK
Soi e' una derivazione di processo che e' usato da GF come booster per le performances.
capitan_crasy
13-01-2012, 10:21
http://www.hwupgrade.it/news/cpu/processori-phenom-ii-x8-l-esistenza-egrave-confermata_40238.html
quindi si sta parlando sempre delle cpu eng samp di 1 anno fa o quasi (di cui ha parlato capitan_crasy) ed è l'ennesimo errore, o è altro?
Ma porca di quella porca!!!:muro:
Hanno davanti in bella vista il codice OPN!
ZD242046W8K43
Tabella1
http://www.xtremeshack.com/immagine/i129802_001.jpg
Tabella2
http://www.xtremeshack.com/immagine/i129803_002.jpg
Tabella3
http://www.xtremeshack.com/immagine/i129804_003.jpg
Tabella4
http://www.xtremeshack.com/immagine/i129805_004.jpg
"Facciamolo" a prova di errore:
Z sta per Engireering sample (tabella4)
D sta per Desktop (CPU ES per il mercato Desktop, tabella 4)
2420 è il modello con una frequenza di clock pari a 2.40Ghz e un turbo core di 3.20Ghz (tabella 3)
46 sta per l'infrastruttura AM3r2 o AM3+ (tabella3)
W sta per il package AM3r2 o AM3+ (tabella 3)
8 sta per il numero di core funzionanti (tabella2)
K sta per la cache L3 da 8MB (tabella2)
43 sta per lo step produttivo A1 (tabella 2)
Il bios dice chiaramente che si tratta di Eng sample, quindi il codice OPN dovrebbe essere diverso in caso di commercializzazione della CPU ed è assurdo e inedito che AMD rilasci un BIOS pubblico per le sue CPU ES, seconda cosa ci sono i documenti AMD dove affermano che quelle sono delle VECCHIE CPU step A1!
I bulldozer attualmente in produzione sono dei B2.
E tanto per essere ancora più chiari e per chi non conoscesse i vari step dell'architettura Bulldozer:
Step A0
Primo step funzionante del progetto Orochi
Scartato dalla produzione.
Step A1
Evoluzione del primo step
Scartato dalla produzione.
Step B0
Visto per tanto tempo come punto di riferimento in rete
Scartato dalla produzione.
Step B1
Famoso per il fake fatto da OBR e venduto a donanimhaber.com
Scartato dalla produzione
Step B2x
Attualmente in produzione per le soluzioni Bulldozer per il mercato desktop e server.
Per concludere, fino a prova contraria, queste fantomatiche Phenom2 8X sono solo delle stravecchie CPU ES Bulldozer senza futuro da molto tempo ed è incredibile che venga ancora riportata una non notizia come questa!
Ma porca di quella porca!!!:muro:
Hanno davanti in bella vista il codice OPN!
ZD242046W8K43
Per concludere, fino a prova contraria, queste fantomatiche Phenom2 8X sono solo delle stravecchie CPU ES Bulldozer senza futuro da molto tempo ed è incredibile che venga ancora riportata una non notizia come questa!
si hai ragione non ho superficialmente guardato il codice opn. strano che continuino ad insistere però. evidentemente non hanno altro da dire
e` perche` le news d'informatica non sono il core bisnesse di questo sito.
Theodorakis
13-01-2012, 11:54
Si prospetta una scazzottata tra GloFo e AMD secondo news recenti (qui (http://news.techeye.net/chips/love-affair-between-amd-and-glofo-cools) e qui (http://www.bitsandchips.it/34-hardware/ces-2012-hardware/226-amd-e-globalfoundries-ai-ferri-corti)). :sofico:
paolo.oliva2
13-01-2012, 12:07
Stavo guardando le caratteristiche di quegli ES e le frequenze def.
Praticamente il range variava da 2,4GHz a 3,1GHz, con più abbondanza di modelli sui 2,6/2,8GHz.
Non so se quegli ES erano limitati a 125W TDP, ma probabile che lo sforassero, quindi lo step B2 ha portato un aumento di 400MHz sul top di gamma di quei modelli (3220), il che non mi sembra certamente poco.
Invece, per contro, la frequenza massima raggiungibile è migliorata solamente di 100MHz, cioè si è passati dai 4,1GHz di un 3120 ai 4,2GHz di un 8150.
Sintetizzando, alla buona, facendo una media, lo step B2g è riuscito a portare la frequenza def a valori simili a quella turbo degli step precedenti.
Che sia relativamente più facile aumentare le frequenze def rispetto a quelle massime turbo, è scontato, pero' appare sconcertante che rispetto a guadagni variabili dal 15% minimo con punte del 35%, la massima frequenza Turbo sia migliorata di poco più del 4%.
A confronto, ha guadagnato di più un Thuban 1100T rispetto ad un 1090T :cry:
carlottoIIx6
13-01-2012, 13:05
è come ho detto io prima....visto che l'ho provata ieri..cambia nulla
solo marketing per spingere win8 e i quadretti del caxx.....
OT
ma guarda se la novità di un sistema operativo sia quella di avere l'interfaccia dei cellulari...
mamma mia...
win9 avrà l'interfaccia delle lavatrici..
nel 2011 nn si possono lanciare 2 istanze di win installer....perchè ti dice che non è possibile...
con queste cxxxx pensano ai quadretti...mah
FINE OT
stiamoci attenti, c'è un gioco dove guadagna molto.
mi sa che la pach fa bene, ma deve essere sfruttata.
come a solito il software deve essere ottimizzato per sfruttare le risorse condivise dal modulo penso.
è come ho detto io prima....visto che l'ho provata ieri..cambia nulla
solo marketing per spingere win8 e i quadretti del caxx.....
OT
ma guarda se la novità di un sistema operativo sia quella di avere l'interfaccia dei cellulari...
mamma mia...
win9 avrà l'interfaccia delle lavatrici..
nel 2011 nn si possono lanciare 2 istanze di win installer....perchè ti dice che non è possibile...
con queste cxxxx pensano ai quadretti...mah
FINE OT
quoto, ecco perchè nella mia vita ho scelto linux da sempre
M$= Marketing per $
Ma porca di quella porca!!!
Hanno davanti in bella vista il codice OPN!
ZD242046W8K43
cut..
Questa cosa ha dell'incredibile, capisco gli errori, ma perseverare su articoli falsi è davvero diabolico.
Ma anche qui gira il marketing, qualcosa bisogna pur scriverla per generare lettura e movimento delle varie testate ;)
A confronto, ha guadagnato di più un Thuban 1100T rispetto ad un 1090T
praticamente si :D
atiamoci attenti, c'è un gioco dove guadagna molto.
mi sa che la pach fa bene, ma deve essere sfruttata.
come a solito il software deve essere ottimizzato per sfruttare le risorse vondivise dal modulo penso.
si vero che il sw può essere sfruttato di più (ma ha dei limiti, e con bd anche piu del dovuto), ma credo anche che microsoft avrebbe potuto fare di più su win7 con qualche patch, e per ragioni di marketing, ha preferito cosi, per dare spazio a voci di un win8 più genuino nelle gestioni delle cpu, specie con BD.
In soldoni: sempre e ancora altro marketing. L'informatica è marketing continuo.
Questa cosa ha dell'incredibile
State attenti!
Dopo aver visto bulldozer, ho capito che l'incredibile NON ESISTE con AMD.
Magari gli ES vanno bene, solo che hanno frequenze piu' basse, e AMD ha deciso di venderli!
Mister D
13-01-2012, 13:33
State attenti!
Dopo aver visto bulldozer, ho capito che l'incredibile NON ESISTE con AMD.
Magari gli ES vanno bene, solo che hanno frequenze piu' basse, e AMD ha deciso di venderli!
Scusa ma come fai anche solo a pensare certe cose... Gli ES, engineering sample che tradotto fa prototipo o campione di pre-produzione, servono solo a verificare determinate caratteristiche del futuro prodotto e a testarne le funzionalità. Gli ultimi, quelli più vicini alla produzione reale, vengono anche detti campioni di validazione perché validano il processo produttivo. Pensare che una ditta seria le venda è veramente folle per me. Per farti un esempio, è come se la ferrari vendesse i suoi prototipi con il rischio che poi qualcuno di essi abbia un grave problema e ammazzi delle persone. Ok che questo buldozer non abbia rispettato né le nostre aspettative (ma questo poco importa) né completamente quelle di amd stesse, ma pensare che per recuperare qualche soldo si metta a vendere cpu ES veramente ne passa di acqua sotto i ponti.
capitan_crasy
13-01-2012, 13:33
State attenti!
Dopo aver visto bulldozer, ho capito che l'incredibile NON ESISTE con AMD.
Magari gli ES vanno bene, solo che hanno frequenze piu' basse, e AMD ha deciso di venderli!
Non è possibile che AMD venda uno step scartato dalla produzione anche perchè GF produce BD a 32nm SOI step B2 e basta; è impossibile che dopo un anno di sviluppo mettano in vendita un silicio vecchio, pieno di BUG solo perchè da qualche parte è apparso una voce del tutto ridicola su queste CPU.
Quelle sono ES vecchi e stravecchi destinato esclusivamente per i test sul silicio e sull'architettura; una volta uscito lo step superiore non servono più a niente!
Lo ripeto e lo ripeterò sempre quelle viste fino adesso sono CPU morte!!!
State attenti!
Dopo aver visto bulldozer, ho capito che l'incredibile NON ESISTE con AMD.
Magari gli ES vanno bene, solo che hanno frequenze piu' basse, e AMD ha deciso di venderli!
Beh a questo punto il marketing passa dalle testate giornalistiche ad amd direttamente.
Perchè è praticamente inutile vendere questi surrogati di carriola ottocententesca e infangare anche il nome di phenomII.
AMD ha gia i 4100 per le cpu da ufficio. Più ancora i vecchi k10 in commercio.
Praticamente il listino cpu di AMD attualmente è composto per l'80% da cpu carriole.
Beh a questo punto il marketing passa dalle testate giornalistiche ad amd direttamente.
Perchè è praticamente inutile vendere questi surrogati di carriola ottocententesca e infangare anche il nome di phenomII.
AMD ha gia i 4100 per le cpu da ufficio. Più ancora i vecchi k10 in commercio.
Praticamente il listino cpu di AMD attualmente è composto per l'80% da cpu carriole.
:mbe: :mbe: :mbe:
The3DProgrammer
13-01-2012, 14:25
Si prospetta una scazzottata tra GloFo e AMD secondo news recenti (qui (http://news.techeye.net/chips/love-affair-between-amd-and-glofo-cools) e qui (http://www.bitsandchips.it/34-hardware/ces-2012-hardware/226-amd-e-globalfoundries-ai-ferri-corti)). :sofico:
"Dark satanic rumour mill turns" :mbe:
che cacchio si era fumato il tizio che ha scritto sto articolo :ciapet:
Ovviamente sono d'accordo; ho sempre sostenuto che non sia corretto verificare CPU diverse su processi diversi... E sempre per questo motivo credo non sia giusto comparare un power 7 con un bulldozer solo perché hanno lo stesso F04 e dire: "quell'altro è prodotto a 45nm eppure arriva a 4GHz".
Nel complesso quali pensi possano essere gli incrementi di IPC di trinity e piledriver? (visto che mi sembra di aver capito che trinity implementerà solo parte delle novità dei futuri fx)... Si sa niente sulle caches?
Dal documento AMD si evince che ci sono state delle migliorie. L'aumento della coda memoria da 40 a 44 e dei TLB da 32 a 64, la promozione di alcune istruzioni e sopratutto il potenziamento delle AGLU (che possono finalmente processare le MOV che sono COMUNISSIME) potrebbe dare qualche percento di vantaggio. Il bello è che nel documento tecnico non si mettono mica ad elencare le migliorie in termini di layout o di roba non visibile al programmatore... :D Potrebbero benissimo aver migliorato il branch prediction e sopratutto ottimizzato il layout e i transistor per salire un po' di più in frequenza. Poi se il TurboCore 3.0 è più preciso e/o ha anche il terzo step per 2 soli core, ci possiamo aspettare aumenti più consistenti... Ma per il momento nessuno lo sa...
The3DProgrammer
13-01-2012, 14:42
Dal documento AMD si evince che ci sono state delle migliorie. L'aumento della coda memoria da 40 a 44 e dei TLB da 32 a 64, la promozione di alcune istruzioni e sopratutto il potenziamento delle AGLU (che possono finalmente processare le MOV che sono COMUNISSIME) potrebbe dare qualche percento di vantaggio. Il bello è che nel documento tecnico non si mettono mica ad elencare le migliorie in termini di layout o di roba non visibile al programmatore... :D Potrebbero benissimo aver migliorato il branch prediction e sopratutto ottimizzato il layout e i transistor per salire un po' di più in frequenza. Poi se il TurboCore 3.0 è più preciso e/o ha anche il terzo step per 2 soli core, ci possiamo aspettare aumenti più consistenti... Ma per il momento nessuno lo sa...
alla fine guardando qua:
http://www.phoronix.com/scan.php?page=article&item=amd_fx4100_bulldozer&num=6
e considerando che amd stima un +15% su liano nello stesso TDP, anche ammettendo che trinity avra' le stesse frequenze del 4100 (cosa che onestamente vedo difficile visto che in 100W dovra' starci anche la GPU) ci dovra' essere perforza un netto miglioramento di IPC e consumi anche considerando che trinity rispetto al 4100 perde la L3
Dal documento AMD si evince che ci sono state delle migliorie. L'aumento della coda memoria da 40 a 44 e dei TLB da 32 a 64, la promozione di alcune istruzioni e sopratutto il potenziamento delle AGLU (che possono finalmente processare le MOV che sono COMUNISSIME) potrebbe dare qualche percento di vantaggio. Il bello è che nel documento tecnico non si mettono mica ad elencare le migliorie in termini di layout o di roba non visibile al programmatore... :D Potrebbero benissimo aver migliorato il branch prediction e sopratutto ottimizzato il layout e i transistor per salire un po' di più in frequenza. Poi se il TurboCore 3.0 è più preciso e/o ha anche il terzo step per 2 soli core, ci possiamo aspettare aumenti più consistenti... Ma per il momento nessuno lo sa...
:sperem: speriamo
aspetto piledriver giusto per avere un modello capace di metterlo al posto di una delle mie macchine che ha in sella l' FX-8120, preferisco mandare in pensione questo che il 1055T.
stiamoci attenti, c'è un gioco dove guadagna molto.
mi sa che la pach fa bene, ma deve essere sfruttata.
come a solito il software deve essere ottimizzato per sfruttare le risorse condivise dal modulo penso.
qual'è il gioco? curioso di saperlo..magari ce l'ho.
let 4 dead.. altri non so, andrebbero provati uno a uno
carlottoIIx6
13-01-2012, 17:30
qual'è il gioco? curioso di saperlo..magari ce l'ho.
resident evil 5
relativamente molto :) il 4%
ledf 4 dead il 10%.. ma forse è un giocoche non interessa a nessuno :sofico:
carlottoIIx6
13-01-2012, 17:42
ledf 4 dead il 10%.. ma forse è un giocoche non interessa a nessuno :sofico:
10% è interessante la cosa.
i giochi migliorano con le risorse condivise, vedi chace 3 dei phenom vs atlhon.
anche l'approccio intel è di condivisione delle risorse.
let 4 dead.. altri non so, andrebbero provati uno a uno
ma su win7 o su win8?
su win8 lo so....
è su win7 che sembra che non ci siano...a questo mi sto riferendo
avete link su prove con win7 post 2 patch?
Io questa cosa l'avevo letto per ench fatto su win 7 su un sito americano 2 giorni fa, come detto però gli incrementi sono estremamente variabili, spesso sono solo dell'1 o 2%
blackshard
13-01-2012, 17:50
ledf 4 dead il 10%.. ma forse è un giocoche non interessa a nessuno :sofico:
E battlefield 3? Nella patch "leaked" mi pare che guadagnasse veramente molto.
Mister D
13-01-2012, 19:07
alla fine guardando qua:
http://www.phoronix.com/scan.php?page=article&item=amd_fx4100_bulldozer&num=6
e considerando che amd stima un +15% su liano nello stesso TDP, anche ammettendo che trinity avra' le stesse frequenze del 4100 (cosa che onestamente vedo difficile visto che in 100W dovra' starci anche la GPU) ci dovra' essere perforza un netto miglioramento di IPC e consumi anche considerando che trinity rispetto al 4100 perde la L3
Ciao,
guarda che se vai nel thread di trinity tempo fa il capitano ha postato ciò:
http://www.hwupgrade.it/forum/showpost.php?p=36290485&postcount=745
Guarda la tabella sugli ES di trinity. Io leggo di un modello, il 3820 da 3,8 GHz, turbo a 4,1 e gpu a 709 MHz. Se questi sono primi sample con step A0/A1, probabilmente ci sarà un altro po' di margine o per abbassare i consumi a parità di frequenze o di alzare le frequenza a parità di TDP.
Il fx4100 si ferma a 3,6 e turbo a 3,8. Per cui mi sembra già una gran bella differenza di silicio.
paolo.oliva2
14-01-2012, 08:10
Stavo guardando le caratteristiche di quegli ES e le frequenze def.
Praticamente il range variava da 2,4GHz a 3,1GHz, con più abbondanza di modelli sui 2,6/2,8GHz.
Non so se quegli ES erano limitati a 125W TDP, ma probabile che lo sforassero, quindi lo step B2 ha portato un aumento di 400MHz sul top di gamma di quei modelli (3220), il che non mi sembra certamente poco.
Invece, per contro, la frequenza massima raggiungibile è migliorata solamente di 100MHz, cioè si è passati dai 4,1GHz di un 3120 ai 4,2GHz di un 8150.
Sintetizzando, alla buona, facendo una media, lo step B2g è riuscito a portare la frequenza def a valori simili a quella turbo degli step precedenti.
Che sia relativamente più facile aumentare le frequenze def rispetto a quelle massime turbo, è scontato, pero' appare sconcertante che rispetto a guadagni variabili dal 15% minimo con punte del 35%, la massima frequenza Turbo sia migliorata di poco più del 4%.
A confronto, ha guadagnato di più un Thuban 1100T rispetto ad un 1090T :cry:
paolo.oliva2
14-01-2012, 08:35
Ciao,
guarda che se vai nel thread di trinity tempo fa il capitano ha postato ciò:
http://www.hwupgrade.it/forum/showpost.php?p=36290485&postcount=745
Guarda la tabella sugli ES di trinity. Io leggo di un modello, il 3820 da 3,8 GHz, turbo a 4,1 e gpu a 709 MHz. Se questi sono primi sample con step A0/A1, probabilmente ci sarà un altro po' di margine o per abbassare i consumi a parità di frequenze o di alzare le frequenza a parità di TDP.
Il fx4100 si ferma a 3,6 e turbo a 3,8. Per cui mi sembra già una gran bella differenza di silicio.
Ti quoto indirettamente :D proprio per evidenziare con quello che hai scritto il problema (per me) di AMD/GF, non tanto per Trinity, ma per BD desktop in generale.
Mi pare più che evidente che se Llano ha raggiunto quantità di vendita più che ottime, Trinity dovrebbe ottene un successo maggiore.
Pero' Trinity non mette a fuoco il problema 32nm, cioè che gira che ti rigira, appare più che evidente il problema di salire in frequenza indipendentemente dal numero di transistor interessato.
Facendo un esempio, un 8150 con 4 moduli sotto carico e quindi 8 core e 8 MB di L3, puo' funzionare in un range da 3,6GHz a 3,9GHz rimanendo dentro i 125W TDP senza mai sforarli.
Nel funzionamento in Turbo, la parte I/O rimane comunque accesa, ma in ogni caso 2 moduli vengono spenti, cioè 4 core e 4MB di L3, quindi direi con circa un 40% in meno di transistor, eppure il 32nm puo' concedere solamente 300MHz in più per non sforare i 125W TDP.
Infatti è questo il problema principale di AMD/GF... nel settore mobile, con frequenze basse, il 32nm non ha problemi di sorta a fornire una potenza superiore ai modelli precedenti basati sul 45nm e nel contempo con consumi inferiori, e Llano lo dimostra ampiamente.
Il problema è che BD deve funzionare a frequenze alte per ottenere la potenza, l'architettura ha tutti gli accorgimenti necessari per farlo... ma il silicio ha un prb di fondo sulla frequenza.
Nel discorso potenza MT, portare i core totali a 10, incrementerà, ma il problema di fondo è che ad un IPC inferiore deve essere contrapposta una frequenza maggiore, e nel discorso ST non c'é alcun rimedio.
Nel discorso potenza MT, portare i core totali a 10, incrementerà, ma il problema di fondo è che ad un IPC inferiore deve essere contrapposta una frequenza maggiore, e nel discorso ST non c'é alcun rimedio.
Tu hai perfettamente ragione.
Ma io sono convinto che ormai per sto 32nm non c'è piu niente da fare.
A me i 1/2 nodi di silicio non mi sono mai piaciuti.
E credo che la situazione con i primi piledriver (32nm) cambierà si rispetto adesso, ma non portera i guadagni che cerchiamo. Fa troppo schifo sto 32nm.
Questa architettura secondo me si vedrà rullare veramente a dovere con i 28nm (Ultimi modelli piledriver convertiti sui 28nm e poi Streamroller).
AndreS91
14-01-2012, 12:40
Mi scuso in anticipo se la domanda è già stata posta: vorrei comprare un fx-6100, il 6core da 3.3ghz, ma questi nuovi am3+ non sono più montabili su vecchie mobo am2+, giusto? =(
no perché hanno ancora le ddr2. Sono montabili solo su qualche AM3 ma il loro socket è AM3+, per cui è consigliato avere quest'ultimo per usarli
carlottoIIx6
14-01-2012, 16:17
Tu hai perfettamente ragione.
Ma io sono convinto che ormai per sto 32nm non c'è piu niente da fare.
A me i 1/2 nodi di silicio non mi sono mai piaciuti.
E credo che la situazione con i primi piledriver (32nm) cambierà si rispetto adesso, ma non portera i guadagni che cerchiamo. Fa troppo schifo sto 32nm.
Questa architettura secondo me si vedrà rullare veramente a dovere con i 28nm (Ultimi modelli piledriver convertiti sui 28nm e poi Streamroller).
troppo radicale come visione.
ci sono FX che arrivano a liquido a 6GHz.
per me i margini ci sono tutti già con il 32nm.
la situazione non cambierà solo con piledrive, ma già con i futuri BD
troppo radicale come visione.
ci sono FX che arrivano a liquido a 6GHz.
per me i margini ci sono tutti già con il 32nm.
la situazione non cambierà solo con piledrive, ma già con i futuri BD
Sono sempre piu convinto che scrivi post per riempire spazio, oppure ti diverte contraddirmi.
Perdonami ma: i prossimi futuri bd non sono i piledriver ? E dopo streamroller ? Cosa ho detto di diverso dal tuo clone post ?
No perche se intendi l'ipotetico 8170/8190, scordati che avrai il cambiamento del secolo, è un 8150 rimarchiato.. Stesso step con 100mhz in piu non cambia la drastica situazione di BD. Ammesso ancora che sto 8170/8190 venga sfornato, a ridere ridere ci vuole poco che si resta con l'8150 fino ai primi modelli piledriver. Ormai con amd c'è tutto da aspettarsi.
E nemmeno i primi piledriver cambieranno la drastica situazione di BD, fino a quando ci gira intorno sto cesso di 32nm.
Maggiori sfornate miglioreranno la situazione del 32nm, ma di poche X%, ma la vera svolta per me è il 28nm.
L'unico margine (per me) che ha il 32nm è quello di finire nel cestino.
A me i 1/2 nodi di silicio non mi sono mai piaciuti.
Ho sempre creduto che i 32 nm fosse un nodo non di transizione.
Perchè dici questo?
Ho sempre creduto che i 32 nm fosse un nodo non di transizione.
Perchè dici questo?
Si si, da 45 a 32 è un nodo e pure più. Da 32nm a 28 sarà mezzo nodo all'inicirca.
Ma secondo me il 28nm è il vero 32nm completo. Amd con gf ha avuto bisogno di quasi due nodi di produzione per far venire una cpu con un silicio degno. E' questo che mi inquieta...
carlottoIIx6
14-01-2012, 18:01
Sono sempre piu convinto che scrivi post per riempire spazio, oppure ti diverte contraddirmi.
Perdonami ma: i prossimi futuri bd non sono i piledriver ? E dopo streamroller ? Cosa ho detto di diverso dal tuo clone post ?
No perche se intendi l'ipotetico 8170/8190, scordati che avrai il cambiamento del secolo, è un 8150 rimarchiato.. Stesso step con 100mhz in piu non cambia la drastica situazione di BD. Ammesso ancora che sto 8170/8190 venga sfornato, a ridere ridere ci vuole poco che si resta con l'8150 fino ai primi modelli piledriver. Ormai con amd c'è tutto da aspettarsi.
E nemmeno i primi piledriver cambieranno la drastica situazione di BD, fino a quando ci gira intorno sto cesso di 32nm.
Maggiori sfornate miglioreranno la situazione del 32nm, ma di poche X%, ma la vera svolta per me è il 28nm.
L'unico margine (per me) che ha il 32nm è quello di finire nel cestino.
no non ti perseguito tranquillo :)
dicevo BD intendevo 8170 e 8190 e magari più.
con un silicio raffinato nel senso che ci potrebbero essere frequenza base anche 4-4.5 GHz tutti core attivi.
gattaca2469
14-01-2012, 18:39
Scusate sono nuovo del forum.
Ho appena acquistato la mobo sabertooth ed un processore Fx 6100. Avrei una domanda da porvi in quanto leggendo sulla rete ho visto che prima di connettere la cpu ( am3+) sulla Sabertooth si deve aggiornare il bios perchè presente solo quello per socket am3, trall'altro sarebbe possibile farlo solo con una cpu am3.
Quanto descritto sopra è possibile?, perchè altrimenti dovendo assemblare tutto da solo non sò come procurami una cpu am3.
Non esiste per caso un altro modo per aggiornare il bios?
Grazie mille
Scusate sono nuovo del forum.
Ho appena acquistato la mobo sabertooth ed un processore Fx 6100. Avrei una domanda da porvi in quanto leggendo sulla rete ho visto che prima di connettere la cpu ( am3+) sulla Sabertooth si deve aggiornare il bios perchè presente solo quello per socket am3, trall'altro sarebbe possibile farlo solo con una cpu am3.
Quanto descritto sopra è possibile?, perchè altrimenti dovendo assemblare tutto da solo non sò come procurami una cpu am3.
Non esiste per caso un altro modo per aggiornare il bios?
Grazie mille
Se l'hai acquistata adesso e non è un residuo di magazzino dovrebbe avere l'ultimo o uno degli ultimi bios installato, per cui te la riconosce.
Ma alla fine, installala, massimo massimo non te la riconoscee non si avvia (ma dubito anche se hai un vecchio bios).
A me sta cosa mi sa più di una percentuale di casistica che di una assodità del fatto.
In caso avviene cio che dici, l'unica soluzione è procurarti una cpu k10/k8, anche una da 30 euro. NOn hai alternativa.
A meno che non hai un programmatore eprom, e ti riprogrammi da te il chip eprom con l'ultimo bios. Io anni fa ne acquistai uno sulla baia per 50 euro che supporta i DIP/DIL, i PLCC-32, i PIC8 e altri ancora... e mi riprogrammavo i bios sul chip eprom ogni volta che corrompevo il bios per colpa degli oc che andavano male (accadeva spesso ai tempi degli athlonxp e il socket A con la Abit NF7, avro ordinato un minimo di 5-6 chip eprom vergini per riprogrammarmeli) ;)
Oppure se non vuoi fare il fai da te, e non vuoi spendere 30 euro di cpu, per 12 euro devi farti mandare un chip (formato supportato dalla tua mobo) riprogrammato con ultimo bios della tua mobo, da una nota casa che trovi googlando ;) mooolto nota ;)
ma questa e' fantozziana... proprio oggi ho ordinato una AM3+ ASUS Sabertooth (990FX/ATX) [90-MIBFN0-G0AAY00Z] e una Msi 880GMA-E35 FX - AM3+ - 880G - Micro-ATX [880GMA-E35]
insieme a due 8120.... possibile che se le schede hanno il socket nero , il bios e' per il socket bianco ?
ma questa e' fantozziana... proprio oggi ho ordinato una AM3+ ASUS Sabertooth (990FX/ATX) [90-MIBFN0-G0AAY00Z] e una Msi 880GMA-E35 FX - AM3+ - 880G - Micro-ATX [880GMA-E35]
insieme a due 8120.... possibile che se le schede hanno il socket nero , il bios e' per il socket bianco ?
Ripeto, io sono del parere che si installa e va tutto bene senza sbattimenti vari.
Socket nero= am3+
Socket bianco= am3 e inferiori
Aldila del chipset montato, in quanto esistono mobo am3+ (socket nero) con in sella chipset 8xx. Ergo non per forza deve avere il chipset 9xx, ma le am3+ possono avere anche il chispet 8xx.
Ma tutte le 9xx sono am3+, e tutte le am3 sono solo con chipset 8xx.
Il discorso del bios era dovutoal fatto che le mobo am3+ quando sono uscite (Giugno2011) c'era solo il thuban come top, gli fx ancora non avevano visto luce. Per cui se a qualcuno gli capita una mobo con la vecchia revisione e i primi bios di quando sono appena uscite, potrebbere andare incontro a problemi di riconoscimento cpu con le cpu FX Bulldozer.
TheBestFix
14-01-2012, 21:00
Ripeto, io sono del parere che si installa e va tutto bene senza sbattimenti vari.
Socket nero= am3+
Socket bianco= am3 e inferiori
Aldila del chipset montato, in quanto esistono mobo am3+ (socket nero) con in sella chipset 8xx. Ergo non per forza deve avere il chipset 9xx, ma le am3+ possono avere anche il chispet 8xx.
Ma tutte le 9xx sono am3+, e tutte le am3 sono solo con chipset 8xx.
Il discorso del bios era dovutoal fatto che le mobo am3+ quando sono uscite (Giugno2011) c'era solo il thuban come top, gli fx ancora non avevano visto luce. Per cui se a qualcuno gli capita una mobo con la vecchia revisione e i primi bios di quando sono appena uscite, potrebbere andare incontro a problemi di riconoscimento cpu con le cpu FX Bulldozer.
permettimi di dissentire sulla affermazione in neretto, la mia ex gigabyte 790xt montava chipset 7xx (il 790 per l'appunto) ed era AM3....
http://it.gigabyte.com/products/select/mb/socket_am3/
ti ho citato la suddetta mobo ma sono sicuro che vale lo stesso discorso anche per Asus & co. ;)
gattaca2469
14-01-2012, 21:14
Grazie di tutto Shellx . spero solo che vada tutto bene. Vi farò sapere
permettimi di dissentire sulla affermazione in neretto, la mia ex gigabyte 790xt montava chipset 7xx (il 790 per l'appunto) ed era AM3....
http://it.gigabyte.com/products/select/mb/socket_am3/
ti ho citato la suddetta mobo ma sono sicuro che vale lo stesso discorso anche per Asus & co. ;)
si si..le am3 hanno chipset 8xx e inferiore.
Solo le am2+ hanno solo il chipset 7xx di amd e poi versioni altre con chipset nforce.
Poi usci il socket am3 e ancora il chipset era solo 7xx, poi venne presentato il nuovo chipset 8xx e fecero le revisioni successive am3, con chipset 8xx.
Poi il socket am3+ con il nuovo chipset 9xx, e fecero poco dopo modelli am3+ con chipset precedente 8xx, distinguendo il socket con colore nero per l'am3+ dagli altri socket amd (colore bianco).
paolo.oliva2
15-01-2012, 06:12
troppo radicale come visione.
ci sono FX che arrivano a liquido a 6GHz.
per me i margini ci sono tutti già con il 32nm.
la situazione non cambierà solo con piledrive, ma già con i futuri BD
E' vero che io ho preso uno dei primi 8150 sfornati :D , ma per me è già impossibile arrivare a 5,4GHz per un semplice screen... e ora come ora non so se il PP sia migliorato. Se già ci fosse la possibilità di benchare sui 5,5GHz, mi prenderei un 8150 nuovo... :D .
Secondo me, a spannella, per quello che posso fantasticare con le mie basi tecniche, c'è un problema di eccitazione transistor con la frequenza, dove con un Vcore basso non c'è margine di sicurezza e alzando il Vcore svetta il TDP.
Per assurdo, troverei una similitudine tra la differenza con il 45nm SOI liscio e 45nm SOI lowk e questo 32nm.
Lo step E0 del Thuban richiede una tensione di fondo superiore rispetto al C3 e nel contempo comunque tensioni simili in OC, ma lo step E0 ha permesso 2 core in più del C3 con consumi simili.
Il 32nm SOI HKMG ULK avrebbe dovuto sopportare l'aumento di 2 core tranquillamente con l'aumento di frequenza, invece c'è questa differenza:
Se downvolti un C3 o un Thuban, tra RS e procio che si blocca immediatamente, ci puo' essere una differenza di 0,01V, 0,02V al massimo. Se prendi un BD, il margine di variazione Vcore è ENORME.
Io a memoria ero riuscito ad arrivare a 3,9GHz con 1,25V contro 1,3V def per 3,6GHz, e non vale nemmeno il test RS perchè in realtà lo si puo' passare tranquillamente. Quello che cala e drasticamente sono le prestazioni, segno che il procio funzia ma si creano dei doppi trasferimenti dati perchè vi è un controllo di errore.
Ma è possibile un margine di 0,05V?
Magari dico una cavolata... ma il 32nm dovrebbe già richiedere una tensione di eccitazione transistor inferiore rispetto al 45nm a priori, solo per la miniaturizzazione maggiore, se poi pensiamo all'HKMG, questa tensione dovrebbe calare ulteriormente.
Invece che abbiamo? Un Vcore addirittura simile se non maggiore al 45nm per la stessa frequenza, il che è assurdo già di per sè... e forse il non utilizzo dell'ULK lo si deve proprio a questo, perchè una ulteriore diminuzione del Vcore semplicemente non lo farebbe funzionare :( .
Poi, a memoria, un 45nm per arrivare a 8GHz circa necessitava di 1,8V ad azoto, max 1,9V. Gli 8,5GHz di un BD si fanno a 2V se non superiori...
Per me il problema è tutto qui... (ho scoperto l'acqua calda :D ).
Se un 8150 "girasse" a 3,6GHz con la stessa richiesta di corrente ma con una tensione di 1,2V o inferiore anzichè di 1,3V, il TDP sarebbe nettamente inferiore e con lo stesso Vcore def dei 3,6GHz si andrebbe sopra i 4GHz...
La situazione tragica è che il 32nm almeno con il mio 8150, non riesce a cambiare stato nei transistor già ad una frequenza maggiore di 5,375GHz con raffreddamenti umani, senza comunque avere problemi di riscaldamento (temp liquido circa 10°, temp procio tranquillamente sotto i 30°, mi sembra addirittura 25°) ed è una situazione scandalosa per un procio/architettura che a quella frequenza quasi ci sarebbe dovuto arrivare a Vcore def in turbo massimo.
Io sarei del parere che se un 45nm lowk si aggiungesse l'HKMG, otterrebbe performances/consumi migliori di questo 32nm allo stato PP odierno.
Credo che il problema sia stato il passo più lungo della gamba di GF/AMD, perchè il SOI non aveva mai avuto (credo) alcuna esperienza sull'HKMG e anzichè partire con il 32nm liscio e poi farlo ULK e poi HKMG/ULK (ammesso e concesso che lo si potesse fare con questa scaletta), si è partiti immediatamente con l'HKMG, quindi senza esperienze precedenti e per giunta con architetture NUOVE, vuoi per BD che per Llano inteso come APU aggiuntivo.
Invece che abbiamo? Un Vcore addirittura simile se non maggiore al 45nm per la stessa frequenza, il che è assurdo già di per sè... e forse il non utilizzo dell'ULK lo si deve proprio a questo, perchè una ulteriore diminuzione del Vcore semplicemente non lo farebbe funzionare :( .
Poi, a memoria, un 45nm per arrivare a 8GHz circa necessitava di 1,8V ad azoto, max 1,9V. Gli 8,5GHz di un BD si fanno a 2V se non superiori...
45nm non arrivavano a 8ghz
comunque sono due architetture diverse quelle che AMD ha sul 32 e sul 45, bisognerebbe provare al stessa architettura con i due processi(llano non è come i phenom II, ha la scheda video integrata che per l'oc non è il massimo)
carlottoIIx6
15-01-2012, 13:02
E' vero che io ho preso uno dei primi 8150 sfornati :D , ma per me è già impossibile arrivare a 5,4GHz per un semplice screen... e ora come ora non so se il PP sia migliorato. Se già ci fosse la possibilità di benchare sui 5,5GHz, mi prenderei un 8150 nuovo... :D .
Secondo me, a spannella, per quello che posso fantasticare con le mie basi tecniche, c'è un problema di eccitazione transistor con la frequenza, dove con un Vcore basso non c'è margine di sicurezza e alzando il Vcore svetta il TDP.
Per assurdo, troverei una similitudine tra la differenza con il 45nm SOI liscio e 45nm SOI lowk e questo 32nm.
Lo step E0 del Thuban richiede una tensione di fondo superiore rispetto al C3 e nel contempo comunque tensioni simili in OC, ma lo step E0 ha permesso 2 core in più del C3 con consumi simili.
Il 32nm SOI HKMG ULK avrebbe dovuto sopportare l'aumento di 2 core tranquillamente con l'aumento di frequenza, invece c'è questa differenza:
Se downvolti un C3 o un Thuban, tra RS e procio che si blocca immediatamente, ci puo' essere una differenza di 0,01V, 0,02V al massimo. Se prendi un BD, il margine di variazione Vcore è ENORME.
Io a memoria ero riuscito ad arrivare a 3,9GHz con 1,25V contro 1,3V def per 3,6GHz, e non vale nemmeno il test RS perchè in realtà lo si puo' passare tranquillamente. Quello che cala e drasticamente sono le prestazioni, segno che il procio funzia ma si creano dei doppi trasferimenti dati perchè vi è un controllo di errore.
Ma è possibile un margine di 0,05V?
Magari dico una cavolata... ma il 32nm dovrebbe già richiedere una tensione di eccitazione transistor inferiore rispetto al 45nm a priori, solo per la miniaturizzazione maggiore, se poi pensiamo all'HKMG, questa tensione dovrebbe calare ulteriormente.
Invece che abbiamo? Un Vcore addirittura simile se non maggiore al 45nm per la stessa frequenza, il che è assurdo già di per sè... e forse il non utilizzo dell'ULK lo si deve proprio a questo, perchè una ulteriore diminuzione del Vcore semplicemente non lo farebbe funzionare :( .
Poi, a memoria, un 45nm per arrivare a 8GHz circa necessitava di 1,8V ad azoto, max 1,9V. Gli 8,5GHz di un BD si fanno a 2V se non superiori...
Per me il problema è tutto qui... (ho scoperto l'acqua calda :D ).
Se un 8150 "girasse" a 3,6GHz con la stessa richiesta di corrente ma con una tensione di 1,2V o inferiore anzichè di 1,3V, il TDP sarebbe nettamente inferiore e con lo stesso Vcore def dei 3,6GHz si andrebbe sopra i 4GHz...
La situazione tragica è che il 32nm almeno con il mio 8150, non riesce a cambiare stato nei transistor già ad una frequenza maggiore di 5,375GHz con raffreddamenti umani, senza comunque avere problemi di riscaldamento (temp liquido circa 10°, temp procio tranquillamente sotto i 30°, mi sembra addirittura 25°) ed è una situazione scandalosa per un procio/architettura che a quella frequenza quasi ci sarebbe dovuto arrivare a Vcore def in turbo massimo.
Io sarei del parere che se un 45nm lowk si aggiungesse l'HKMG, otterrebbe performances/consumi migliori di questo 32nm allo stato PP odierno.
Credo che il problema sia stato il passo più lungo della gamba di GF/AMD, perchè il SOI non aveva mai avuto (credo) alcuna esperienza sull'HKMG e anzichè partire con il 32nm liscio e poi farlo ULK e poi HKMG/ULK (ammesso e concesso che lo si potesse fare con questa scaletta), si è partiti immediatamente con l'HKMG, quindi senza esperienze precedenti e per giunta con architetture NUOVE, vuoi per BD che per Llano inteso come APU aggiuntivo.
io so che le cpu vengono stampate con la luce laser. con i 45nm la litografica ad imemrsione era un fiore all'occhiello di GF. per me hanno avuto un problema con questo, e siccome i transistor non vengono bene reggono frequenze più piccole se non sono da buttare (minor resa e tanti x6 ed x4).
quindi migliorando questo processo, i transistor dovrebbero reggere frequenza superiori.
siccome ahi 8 core potresti veder core epr core quanto reggono massimo e poi provare con i 6 core migliori a qunaot arrivi, non so se si può fare :)
ot: hai mai superato i 100 gradi di temperatura per sbaglio?
dav1deser
15-01-2012, 13:05
edit
io so che le cpu vengono stampate con la luce laser. con i 45nm la litografica ad imemrsione era un fiore all'occhiello di GF. per me hanno avuto un problema con questo, e siccome i transistor non vengono bene reggono frequenze più piccole se non sono da buttare (minor resa e tanti x6 ed x4).
quindi migliorando questo processo, i transistor dovrebbero reggere frequenza superiori.
siccome ahi 8 core potresti veder core epr core quanto reggono massimo e poi provare con i 6 core migliori a qunaot arrivi, non so se si può fare :)
ot: hai mai superato i 100 gradi di temperatura per sbaglio?
Certo, non potresti usare altro, dato che non riusciresti a "scrivere" con estrema precisione con altri raggi.
Scusate sono nuovo del forum.
Ho appena acquistato la mobo sabertooth ed un processore Fx 6100. Avrei una domanda da porvi in quanto leggendo sulla rete ho visto che prima di connettere la cpu ( am3+) sulla Sabertooth si deve aggiornare il bios perchè presente solo quello per socket am3, trall'altro sarebbe possibile farlo solo con una cpu am3.
Quanto descritto sopra è possibile?, perchè altrimenti dovendo assemblare tutto da solo non sò come procurami una cpu am3.
Non esiste per caso un altro modo per aggiornare il bios?
Grazie mille
Tranquillo hai su il BIOS 08xx che già supporta gli FX-xxxx. L'unico consiglio è quello di aggiornare al 0901 che è più stabile. Ti consiglio di iscriverti al thread della mobo in questione per update.
Fonte: Esperienza personale. Ho ricevuto e montato la mobo in questione martedì.
Piccola domanda: si sa quando usciranno gli FX 8170 e 8120 (95W)?
A febbraio mi entra un po' di grana e pensavo di prendermi il procio nuovo, se escono entro marzo aspetto dato che sicuramente arriveranno con il nuovo stepping (nel caso dei Bulletti è difficile peggiorare).
bon ragazzi per vie traverse in settimana dovrebbe arrivarmi un 6100, vediamo cosa si potrà tirare fuori.
anche a me dovrebbe arrivare un 6100 la prox settimana.. cmq mi sarebbe sufficiente tenerlo a 2,5 ghz in daily per risparmio e a 4,5 ghz per game/bench. vediamo cmq :fagiano:
I 6100 si vendono come il pane
I 6100 si vendono come il pane
sì amd prevede di venderne qualche decina di milioni presumo.. sono il nuovo modello base di bulldozze
Per ora costano ancora più del pane ma domani chi losa
Phenomenale
15-01-2012, 19:36
I 6100 si vendono come il pane
Hai proprio ragione, in giro nei forums vedo molti ragazzi che se lo prendono per farci PC da gioco, sono contento per AMD che questo processore tira abbastanza sul mercato. :)
Poi non nascondo che l'architettura bulldozer a me ha deluso per la diminuzione dell' IPC rispetto ai vecchi K10, che già non l'avevano altissimo... :(
Hai proprio ragione, in giro nei forums vedo molti ragazzi che se lo prendono per farci PC da gioco, sono contento per AMD che questo processore tira abbastanza sul mercato. :)
Poi non nascondo che l'architettura bulldozer a me ha deluso per la diminuzione dell' IPC rispetto ai vecchi K10, che già non l'avevano altissimo... :(
è probabile che si facciano un pò di conti. Perdi pochi punti percentuali rispetto ad un X6 k10 ma guadagni in consumo. Probabile che il pensiero vada alla bolletta.
Personalmente non ho spese da accollarmi, ma quando devo prendere qualcosa vedo i consumi subito dopo le prestazioni. Motivo per cui sto aspettando l'uscita dei nuovi FX con il nuovo step, almeno credo (con 8120 a 95W e l'aggiunta dell'8170).
Hai proprio ragione, in giro nei forums vedo molti ragazzi che se lo prendono per farci PC da gioco, sono contento per AMD che questo processore tira abbastanza sul mercato. :)
Poi non nascondo che l'architettura bulldozer a me ha deluso per la diminuzione dell' IPC rispetto ai vecchi K10, che già non l'avevano altissimo... :(
beh considera che venendo da un core 2 duo o come me un amd athlon II comunque anche un 6100 garantisce un quasi raddoppio di prestazioni (in certe applicazioni multi- thread è più che raddoppio). Questo anche adesso, ma magari in windows 8 potrà beneficiare di qualche miglioramento, sicuramente più di thuban (e tranne i problemi di consumo in oc, realmente il 6100 consuma meno di thuban!).
Se amd mettesse realmente l'8120 a 150 euro e l'8150 a 200 anche quelli sonoconvinto venderebbero come il pane, nonostante i loro limiti..magari la gente potrebbe permettersi di acquistare in massa 7970 e 7950 (che in game ma anche in ottica calcolo distribuito è in genere più proficuo).
Il problema è che intel i suoi processori di certo non li regala, ma neppure amd li regala se è per questo,specie l'8150 secondo me chiaramente over priced
giuliojiang
15-01-2012, 20:18
beh considera che venendo da un core 2 duo o come me un amd athlon II comunque anche un 6100 garantisce un quasi raddoppio di prestazioni (in certe applicazioni multi- thread è più che raddoppio). Questo anche adesso, ma magari in windows 8 potrà beneficiare di qualche miglioramento, sicuramente più di thuban (e tranne i problemi di consumo in oc, realmente il 6100 consuma meno di thuban!).
Se amd mettesse realmente l'8120 a 150 euro e l'8150 a 200 anche quelli sonoconvinto venderebbero come il pane, nonostante i loro limiti..magari la gente potrebbe permettersi di acquistare in massa 7970 e 7950 (che in game ma anche in ottica calcolo distribuito è in genere più proficuo).
Il problema è che intel i suoi processori di certo non li regala, ma neppure amd li regala se è per questo,specie l'8150 secondo me chiaramente over priced
overpriced anche parecchio... soprattutto considerato che il 8120 costa quasi 50€ meno e che in oc non ci sarà più di 200mhz di differenza
gattaca2469
15-01-2012, 20:32
Tranquillo hai su il BIOS 08xx che già supporta gli FX-xxxx. L'unico consiglio è quello di aggiornare al 0901 che è più stabile. Ti consiglio di iscriverti al thread della mobo in questione per update.
Fonte: Esperienza personale. Ho ricevuto e montato la mobo in questione martedì.
Piccola domanda: si sa quando usciranno gli FX 8170 e 8120 (95W)?
A febbraio mi entra un po' di grana e pensavo di prendermi il procio nuovo, se escono entro marzo aspetto dato che sicuramente arriveranno con il nuovo stepping (nel caso dei Bulletti è difficile peggiorare).
Grazie winebar
paolo.oliva2
15-01-2012, 21:22
io so che le cpu vengono stampate con la luce laser. con i 45nm la litografica ad imemrsione era un fiore all'occhiello di GF. per me hanno avuto un problema con questo, e siccome i transistor non vengono bene reggono frequenze più piccole se non sono da buttare (minor resa e tanti x6 ed x4).
quindi migliorando questo processo, i transistor dovrebbero reggere frequenza superiori.
siccome ahi 8 core potresti veder core epr core quanto reggono massimo e poi provare con i 6 core migliori a qunaot arrivi, non so se si può fare :)
ot: hai mai superato i 100 gradi di temperatura per sbaglio?
A meno che il prb non sia nel 1° modulo 1° core, che nella pagina bios disattivazione/attivazione non si puo' modificare lo stato, non esiste differenza alcuna. Praticamente è la fotocopia dei C2 Phenom II che arrivavi a 3,999GHz e poi stop, solamente che con l'8150 il limite (mio) è 5,050GHz in bench Cinebench... sia con temp liquido 20° che 3° non cambia una mazza.
100°? :eek: Io li ho visti solamente con il mio I5 M430 portatile sotto carico... per il resto praticamente la massima temp del mio 8150 in OC, a liquido, pure a 5GHz è sempre stata inferiore ai 50°, pensa che l'i5 in idle non scende sotto i 53° (temp ambiente 32°).
Hai proprio ragione, in giro nei forums vedo molti ragazzi che se lo prendono per farci PC da gioco, sono contento per AMD che questo processore tira abbastanza sul mercato. :)
Poi non nascondo che l'architettura bulldozer a me ha deluso per la diminuzione dell' IPC rispetto ai vecchi K10, che già non l'avevano altissimo... :(
credo che sia il migliore prezzo/prestazioni, per chi vuole provare l'archidettura bd, sapendo che passerrà a piledriver una volta uscito.
alla fine si compra per 130€ circa, uno lo prende, ci gioca, lo oc insomma inizia ad avere l'approccio con il procio, e poi quando è il momento lo smolla.
The3DProgrammer
16-01-2012, 08:45
sto scartabellando tutto il web fino ai bassifondi + nerd dell'interspazio ma non trovo un cane malato (cit.) che abbia fatto dei test decenti sulle patch di BD...qualche anima pia che ci si mette d'impegno? Gia un PCmark e qualche bench con giochi magari non recentissimi sarebbe gradito
Phenomenale
16-01-2012, 10:14
qualche bench con giochi magari non recentissimi sarebbe gradito
Like this? http://www.nvidiazone.it/news/reader.php?objid=16452
:sofico:
The3DProgrammer
16-01-2012, 10:25
Like this? http://www.nvidiazone.it/news/reader.php?objid=16452
:sofico:
thanks, quelli li avevo gia visti, sono gli unici che ci sono praticamente...preferirei qualcosa di un attimino + approfondito
astroimager
16-01-2012, 12:53
Per curiosità... FX-6100 vs P-II 965
Sinteticamente e obiettivamente! :)
daniluzzo
16-01-2012, 12:59
Per curiosità... FX-6100 vs P-II 965
Sinteticamente e obiettivamente! :)
"Sinteticamente e obiettivamente" visto che il Phenom ce l'hai tienitelo pure.
Avrebbe senso se dovevi scegliere quale comprare :O
plainsong
16-01-2012, 13:22
Non so se aggiunge qualcosa di nuovo, ma:
http://www.hwupgrade.it/news/cpu/sino-a-10-core-e-controller-quad-channel-per-le-future-cpu-amd_40270.html
In teressante il passo diretto al quad channell, bypassando il tri -channell.
Anche se penso sia una mossa più preventiva e di marketing che di reale necessità per le prestazioni, visto che le ddr3 dual ancora non sono sfruttate appieno, nè tantomeno è data di default la compatibilità con ddr3 a frequenza abbastanza elevata come le ddr3 2000, e visto che a fine anno dovremmo già vedere le prime ddr4.
10 cores sicuramente è molto interessante, ma quello di cui c'è bisogno realmente è un aumento dell'ipc abbinato ad un boost delel frequenze di minimo 1 ghz..
Magari con cpu così supererebbero (sperano anche in consumi in oc non più così imbarazzanti) sb e2500-600-700, mentre ivy e sb-e sono ancora probabilmente fuori portata
papafoxtrot
16-01-2012, 14:07
In teressante il passo diretto al quad channell, bypassando il tri -channell.
Anche se penso sia una mossa più preventiva e di marketing che di reale necessità per le prestazioni, visto che le ddr3 dual ancora non sono sfruttate appieno, nè tantomeno è data di default la compatibilità con ddr3 a frequenza abbastanza elevata come le ddr3 2000, e visto che a fine anno dovremmo già vedere le prime ddr4.
10 cores sicuramente è molto interessante, ma quello di cui c'è bisogno realmente è un aumento dell'ipc abbinato ad un boost delel frequenze di minimo 1 ghz..
Magari con cpu così supererebbero (sperano anche in consumi in oc non più così imbarazzanti) sb e2500-600-700, mentre ivy e sb-e sono ancora probabilmente fuori portata
Io spero in modifiche non riportate in quella tabella, perché non attinenti l'ottimizzazione del software...
Soprattutto spero tanto in una diminuzione della latenza delle cache, L1 in primis, che è scandalosa.
In teressante il passo diretto al quad channell, bypassando il tri -channell.
Anche se penso sia una mossa più preventiva e di marketing che di reale necessità per le prestazioni, visto che le ddr3 dual ancora non sono sfruttate appieno, nè tantomeno è data di default la compatibilità con ddr3 a frequenza abbastanza elevata come le ddr3 2000, e visto che a fine anno dovremmo già vedere le prime ddr4.
10 cores sicuramente è molto interessante, ma quello di cui c'è bisogno realmente è un aumento dell'ipc abbinato ad un boost delel frequenze di minimo 1 ghz..
Magari con cpu così supererebbero (sperano anche in consumi in oc non più così imbarazzanti) sb e2500-600-700, mentre ivy e sb-e sono ancora probabilmente fuori portata
Praticamente si, piledriver dovrebbe (in base a queste informazioni) affiancarsi e superare un 2700k.
Streamroller dovrebbe essere quello che si avvicina o affianca ivy.
Chiaro che fino ad allora intel avra altre proposte, ma il discorso è semplice:
non è una novità vedere Intel sempre di un gradino avanti, ormai ci siamo abituati è da sempre che è cosi. Per cui nell'anormalità è normale amministrazione di sempre.
Quindi io penso che s epiledriver supera un 2600k nel 90% dei casi, dobbiamo esserne soddisfatti, e anche soddisfatti di pensare che un streamroller andra ad affincarsi ad un ipotetico modello ivy.
E soprattutto strearoller dovra adeguarsi a consumi veramenti bassi, se vuole avere spazio. Per piledriver e i consumi, credo che li ridurrà ma competere con ivy sarà durissima.
Ormai come siamo gia abituati l'andazzo è questo: intel un gradino sopra sempre ad amd.
Poi è tutto da vedere.
Per quanto riguardo il quad channel e X10: sono d'accordo anchio che è ben altro di cui BD ha bisogno.
Ma non so perchè, ma prevedo un'altra ondata di OVER-MARKETING da parte di amd.
E questa volta ce l'ha menerà con "super potenza FX dei 10 core + quadchannel "
E i problemi stanno sempre nel fondo della bottiglia mascherati dalle chiacchiere.
Mister D
16-01-2012, 14:21
Io spero in modifiche non riportate in quella tabella, perché non attinenti l'ottimizzazione del software...
Soprattutto spero tanto in una diminuzione della latenza delle cache, L1 in primis, che è scandalosa.
Sono d'accordo, almeno da riuscire a recuperare le latenze dei vecchi k10. E spero soprattutto che rimettano mano alla BPU e che possano anche aumentare i decoders, non sarebbe male portarli a 6 (ora sono 4). L'aumento di frequenza dovuto all'allungamento delle pipeline poi farà il resto.;)
papafoxtrot
16-01-2012, 14:35
Sono d'accordo, almeno da riuscire a recuperare le latenze dei vecchi k10. E spero soprattutto che rimettano mano alla BPU e che possano anche aumentare i decoders, non sarebbe male portarli a 6 (ora sono 4). L'aumento di frequenza dovuto all'allungamento delle pipeline poi farà il resto.;)
Si concordo, soprattutto i limiti della BPU mi sembra siano stati in qualche modo dimostrati, anche se potrebbe guadagnare col passaggio delle entries della L1 TLB da 32 a 64... Non so però quanto questo stia significativo; in ogni caso il loro effetto lo vedremo già in trinity, e questo mi piace...
Vedremo anche l'effetto dell'alungamento della coda per i task della FPU... Non è tanto, è un 10%, ma alla fine tutto fa brodo.
Dato che entrambi sono condivisi, sia un ampliamento del decoder, sia un miglioramento della BPU potrebbero consentire di ridurre il performance hit dovuto all'utilizzo di due core sullo stesso modulo.
Credo però che un ampliamento del decoder sia una modifica importante, e probabilmente se lo vedremo, dovremo aspettare streamroller; credo anche che se fosse presente in Piledriver, lo avremmo visto in questa tabella.
Per quanto riguarda le cache, mi sa che finché la L1 rimarra write through, non vedremo grandi passi avanti. Mi domando ancora il perché di una simile scelta...
Ho ripensato alla faccenda delle ED-RAM: secondo me se GF le userà per chip AMD (ibm già le usa), potrebbe essere per i chip di qualche futura consolle...
digieffe
16-01-2012, 14:59
Non so se aggiunge qualcosa di nuovo, ma:
http://www.hwupgrade.it/news/cpu/sino-a-10-core-e-controller-quad-channel-per-le-future-cpu-amd_40270.html
su semiaccurate si diceva che l'ultima riga fosse errata la IOMMU è 2.0 pure per vishera.
digieffe
16-01-2012, 15:05
cut
Per quanto riguarda le cache, mi sa che finché la L1 rimarra write through, non vedremo grandi passi avanti. Mi domando ancora il perché di una simile scelta...
Ho ripensato alla faccenda delle ED-RAM: secondo me se GF le userà per chip AMD (ibm già le usa), potrebbe essere per i chip di qualche futura consolle...
mi sembra ma non ne sono sicuro che la cache write through sia "obbligata" nelle architetture a cluster (potrei sbagliarmi, confermate please :))
le ED-RAM sono comunque memorie caches
Phenomenale
16-01-2012, 15:16
Per quanto ne so io (2 cent) la cache write-through elimina la necessità di gestire la coerenza fra cache & RAM nelle architetture a cluster, ma non è obbligatoria. Cache veloce in write-back + logica di gestione è assolutamente fattibile in cluster, è solo una complessità in più. Per quanto ne so io, eh... ;)
papafoxtrot
16-01-2012, 16:15
mi sembra ma non ne sono sicuro che la cache write through sia "obbligata" nelle architetture a cluster (potrei sbagliarmi, confermate please :))
le ED-RAM sono comunque memorie caches
Anche io avevo sentito questa cosa e avevo chiesto conferma qui, ma senza risultati.
Per quanto ne so io (2 cent) la cache write-through elimina la necessità di gestire la coerenza fra cache & RAM nelle architetture a cluster, ma non è obbligatoria. Cache veloce in write-back + logica di gestione è assolutamente fattibile in cluster, è solo una complessità in più. Per quanto ne so io, eh... ;)
Grazie vecchio, mi pare una cosa ragionevole... Chissà che sia così e che un po' alla volta sistemino questa cosa.
su semiaccurate si diceva che l'ultima riga fosse errata la IOMMU è 2.0 pure per vishera.
Non credo; a quanto ne so le IOMMU 2 sono perché trinity ha la gpu integrata, e quindi il controller ram è unico tra CPU e GPU.
Invece la IOMMU 1 è quella classica, che permette di passare i puntatori alla memoria ad un'altro MC, di una GPU su pci-express.
astroimager
16-01-2012, 16:28
"Sinteticamente e obiettivamente" visto che il Phenom ce l'hai tienitelo pure.
Avrebbe senso se dovevi scegliere quale comprare :O
Una situazione del genere non l'avrei mai immaginata, considerando che il 965 l'ho pagato più di 2 anni fa quanto ora costa il 6100... :rolleyes:
Una situazione del genere non l'avrei mai immaginata, considerando che il 965 l'ho pagato più di 2 anni fa quanto ora costa il 6100... :rolleyes:
ma infatti il 6100 è notevolmente più veloce dell'amd 965.. soltanto avrebbe poco senso prendere una cpu che va il 30% in più.
2 anni fa il 965 era una cpu di fascia alta considerando amd.. se facessi lo stesso tipo di cambio prendendo un amd 8150 avresti un 60% di prestazioni in più medio probabilmente per cui potrebbe valere il cambio, anche se meno vantaggioso economicamente
daniluzzo
16-01-2012, 16:36
ma infatti il 6100 è notevolmente più veloce dell'amd 965.. soltanto avrebbe poco senso prendere una cpu che va il 30% in più.
2 anni fa il 965 era una cpu di fascia alta considerando amd.. se facessi lo stesso tipo di cambio prendendo un amd 8150 avresti un 60% di prestazioni in più medio probabilmente per cui potrebbe valere il cambio, anche se meno vantaggioso economicamente
E anche quì ritorniamo al punto: cosa ci devi fare con il PC?
Perchè se è per giocare (ad alte risoluzioni) a quanto pare il vantaggio non sarà il 60%, pare molto meno ma con un centinaio di euro di esborso.
Un gioco che non vale la candela? :boh:
Nforce Ultra
16-01-2012, 16:36
ma infatti il 6100 è notevolmente più veloce dell'amd 965.. soltanto avrebbe poco senso prendere una cpu che va il 30% in più.
2 anni fa il 965 era una cpu di fascia alta considerando amd.. se facessi lo stesso tipo di cambio prendendo un amd 8150 avresti un 60% di prestazioni in più medio probabilmente per cui potrebbe valere il cambio, anche se meno vantaggioso economicamente
Il 6100 non è più veloce del 965 soprattutto in game, il 965 gli è spesso sopra come prestazioni, quel 30% non so da dove lo tiri fuori...
viene dalle prestazioni globali.. comprese capacità di oc, multi th ecc. Nel multi va più del 30%, così come si occa molto di più (circa 1 ghz in più, che supercompensa l'ipc inferiore). Certo poi se giochi e basta magari a giochi che a malapena usano 2 cores allora anche il 965 può andare con un amd 550, e così potremmo estendere ildiscorso
Nforce Ultra
16-01-2012, 16:52
viene dalle prestazioni globali.. comprese capacità di oc, multi th ecc. Nel multi va più del 30%, così come si occa molto di più (circa 1 ghz in più, che supercompensa l'ipc inferiore). Certo poi se giochi e basta magari a giochi che a malapena usano 2 cores allora anche il 965 può andare con un amd 550, e così potremmo estendere ildiscorso
Ti posto una delle tante recensioni in rete di un sito affidabile e si vede che non è come dici tu:
http://www.guru3d.com/article/amd-fx-8150--8120-6100-and-4100-performance-review/1
neanche con la frequenza maggiore del turbo il 6100 è superiore in certi ambiti ad un Phenom II 980
meglio così allora.. :D , ma rimango dell'idea che sia più veloce del 965 :D :D
Comunque vedo l'i7 965 ma non l'amd anche se ci osno altri modelli di phII.
Quelloche voglio dire è che per me è più veloce un 6100@5 ghz (quasi tutti ci arrivano) che un 965@4 ghz, sono normalmente le frequenze di max oc stabile di questi proci.
A default non mi sorprende che il 6100 le prenda a destra e a manca, ma dato che la freq di default non mi interessa pace.
Alla fine il 6100 quando miarriva lo terrò@4,5 ghz per la config performante, sonoconvinto che sarà all'incirca come avere un thuban@4 ghz o giù di lì
paolo.oliva2
16-01-2012, 18:25
Praticamente si, piledriver dovrebbe (in base a queste informazioni) affiancarsi e superare un 2700k.
Streamroller dovrebbe essere quello che si avvicina o affianca ivy.
Chiaro che fino ad allora intel avra altre proposte, ma il discorso è semplice:
non è una novità vedere Intel sempre di un gradino avanti, ormai ci siamo abituati è da sempre che è cosi. Per cui nell'anormalità è normale amministrazione di sempre.
Quindi io penso che s epiledriver supera un 2600k nel 90% dei casi, dobbiamo esserne soddisfatti, e anche soddisfatti di pensare che un streamroller andra ad affincarsi ad un ipotetico modello ivy.
E soprattutto strearoller dovra adeguarsi a consumi veramenti bassi, se vuole avere spazio. Per piledriver e i consumi, credo che li ridurrà ma competere con ivy sarà durissima.
Ormai come siamo gia abituati l'andazzo è questo: intel un gradino sopra sempre ad amd.
Poi è tutto da vedere.
Per quanto riguarda le potenze massime, direi che non esista ombra di dubbio, cioè che un IVY X8 riguarderà il top.
Pero' non dobbiamo scordare come si è comportata Intel quando poteva proporre sia il 32nm al posto del 45nm e pure un X6 al posto degli X4, cioè, chiaramente ha fatto i suoi interessi commerciali posizionato l'i980X
come prodotto di nicchia.
Per la stessa politica, non vedo alcun motivo per il quale Intel possa proporre IVY su socket 1155 a prezzi bassi disturbando di fatto il socket 2011, quindi, per me, i primi proci 22nm saranno su socket 2011 e rappresenterebbero l'offerta TOP, quindi a prezzi superiori degli SBe a 32nm.
Poi, secondo me, anche se non ho letto molto in proposito, l'arma Intel è praticamente il 22nm, cioè che a parità di TDP potrà proporre un X8 IVY anzichè un X6 SBe e proci con un minor TDP a parità di numero di core, ma questo è diverso, secondo me, dal dire con frequenze superiori.
IVY non è che un SBe 32nm sul 22nm, con la stessa architettura, a parte forse un'APU più potente. Un SBe in OC ad azoto concede 50MHz in più, forse 100MHz, rispetto che a liquido, segno che i limiti architetturali sono quelli.
Quello che voglio dire, per non creare polemiche, è questo:
Supponendo che IVY possa essere proposto a 4GHz def, lo potrà essere sia con 8 core che con 4 core, ma un conto è passare da un SB X6 3,2GHz ad un X8 a 4GHz, un altro è un 2700K X4 3,5GHz e portarlo a 4GHz, magari a 75W anziché 95W.
Per quanto riguardo il quad channel e X10: sono d'accordo anchio che è ben altro di cui BD ha bisogno.
Ma non so perchè, ma prevedo un'altra ondata di OVER-MARKETING da parte di amd.
E questa volta ce l'ha menerà con "super potenza FX dei 10 core + quadchannel "
E i problemi stanno sempre nel fondo della bottiglia mascherati dalle chiacchiere.
A parte il discorso puro che più banda c'è verso le ram e meglio lavorerà il procio, per i miei bench un 8150 con delle DDR3 1600 anche overcloccato a 5GHz non denota colli di bottiglia.
Già delle DDR3 a 2133 garantirebbero una banda maggiore del 33% rispetto a delle 1600, non penso proprio che un Piledriver X10 possa necessitare di oltre il 33% di banda rispetto ad un 8150 occato a 5GHz.
meglio così allora.. :D , ma rimango dell'idea che sia più veloce del 965 :D :D
Comunque vedo l'i7 965 ma non l'amd anche se ci osno altri modelli di phII.
Quelloche voglio dire è che per me è più veloce un 6100@5 ghz (quasi tutti ci arrivano) che un 965@4 ghz, sono normalmente le frequenze di max oc stabile di questi proci.
A default non mi sorprende che il 6100 le prenda a destra e a manca, ma dato che la freq di default non mi interessa pace.
Alla fine il 6100 quando miarriva lo terrò@4,5 ghz per la config performante, sonoconvinto che sarà all'incirca come avere un thuban@4 ghz o giù di lì
nel tuo caso forse...
ma nel caso universale un 6100 è inferiore al 965 (io ho il 965 e l'FX-8120, e ti assicuro che in certe appz perfino l'8120 fa sorridere il 965).
considera cmq che a default hanno frequenze abbastanza basse, ora non vado a rivedere ma mi sembra 3100 mhz. Mettici l'ipc inferiore quindi è normale che specie nelle applicazioni che non sfruttano tutti i cores a default siano lenti.
Però per dire a me 6 cores sono molto utili per il calcolo disribuito (8 anche meglio ma costano troppo :D )
In teressante il passo diretto al quad channell, bypassando il tri -channell.
Anche se penso sia una mossa più preventiva e di marketing che di reale necessità per le prestazioni, visto che le ddr3 dual ancora non sono sfruttate appieno, nè tantomeno è data di default la compatibilità con ddr3 a frequenza abbastanza elevata come le ddr3 2000, e visto che a fine anno dovremmo già vedere le prime ddr4.
10 cores sicuramente è molto interessante, ma quello di cui c'è bisogno realmente è un aumento dell'ipc abbinato ad un boost delel frequenze di minimo 1 ghz..
Magari con cpu così supererebbero (sperano anche in consumi in oc non più così imbarazzanti) sb e2500-600-700, mentre ivy e sb-e sono ancora probabilmente fuori portata
tutta la banda ram dovrebbe tornare utile per la parte gpu (so che e` assente).
magari si preparano ai futuri fusion, con la gpu che svolgera` un ruolo importante nei calcoli virgola mobile (e` da steamroller che esisteranno solo apu?).
AceGranger
16-01-2012, 19:18
Per la stessa politica, non vedo alcun motivo per il quale Intel possa proporre IVY su socket 1155 a prezzi bassi disturbando di fatto il socket 2011
hai una visione un po tutta tua dei prezzi Intel, come quando davi il 2700K a 400 euro e i prezzi di IB nettamente superiori ai SB attuali, quando invece costeranno uguali;
non sovrapporra nulla, perchè quasi sicuramente le cpu 2011 saranno tutte a 130 Watt, mentre le cpu 1155 si fermeranno a 77, quindi una piattafora top prestazioni e l'altra top efficienza.
i primi proci 22nm saranno su socket 2011 e rappresenterebbero l'offerta TOP, quindi a prezzi superiori degli SBe a 32nm.
e che cavolo Paolo, ancora con ste barzellette ? lo sa tutto il pianeta terra che le prime CPU 22 nm saranno per il socket 1155 e che sul 2011 arriveranno, se va bene, nel Q4 2012, se non addirittura nel Q1 2013, e ti è gia stato detto almeno 5 volte...
Quello che voglio dire, per non creare polemiche, è questo:
Supponendo che IVY possa essere proposto a 4GHz def, lo potrà essere sia con 8 core che con 4 core, ma un conto è passare da un SB X6 3,2GHz ad un X8 a 4GHz, un altro è un 2700K X4 3,5GHz e portarlo a 4GHz, magari a 75W anziché 95W.
e dove sarebbe il problema ? Intel in ST dorme sonni piu che tranquilli, non ha bisogno di frequenza; SB-E 8X a 2,9 GHz sono 135 Watt di TDP, IB-E potra arrivare tranquillamente a 3,4 stando nei 130 Watt, e scusa se è poco...
digieffe
16-01-2012, 19:19
cut
quindi, per me, i primi proci 22nm saranno su socket 2011 e rappresenterebbero l'offerta TOP, quindi a prezzi superiori degli SBe a 32nm.
Veramente (a memoria) la roadmap non prevede fino a fine anno cpu 22 mn per socket 2011, anzi i primi modelli saranno solo quad per 1155 a 3.5ghz con igp hd4000 77W...
io cercavo il quad più piccolo a 22 nm per socket 2011 ma niente e non si sa fino a quando...
q1 2113? più probabilemente finché gli amd saranno abbastanza distanti...
Poi, secondo me, anche se non ho letto molto in proposito, l'arma Intel è praticamente il 22nm, cioè che a parità di TDP potrà proporre un X8 IVY anzichè un X6 SBe e proci con un minor TDP a parità di numero di core, ma questo è diverso, secondo me, dal dire con frequenze superiori.
IVY non è che un SBe 32nm sul 22nm, con la stessa architettura, a parte forse un'APU più potente. Un SBe in OC ad azoto concede 50MHz in più, forse 100MHz, rispetto che a liquido, segno che i limiti architetturali sono quelli.
dicevano i rumors che questo a 22 mn riduceva molto il consumo a freq "basse" ma pochi benefici in alto anche se secondo me quei 300-400 mhz a parità di core ed architettura li devi sempre mettere in conto
Quello che voglio dire, per non creare polemiche, è questo:
Supponendo che IVY possa essere proposto a 4GHz def, lo potrà essere sia con 8 core che con 4 core, ma un conto è passare da un SB X6 3,2GHz ad un X8 a 4GHz, un altro è un 2700K X4 3,5GHz e portarlo a 4GHz, magari a 75W anziché 95W.
qui ti seguo con difficoltà :D
A parte il discorso puro che più banda c'è verso le ram e meglio lavorerà il procio, per i miei bench un 8150 con delle DDR3 1600 anche overcloccato a 5GHz non denota colli di bottiglia.
Già delle DDR3 a 2133 garantirebbero una banda maggiore del 33% rispetto a delle 1600, non penso proprio che un Piledriver X10 possa necessitare di oltre il 33% di banda rispetto ad un 8150 occato a 5GHz.
IMHO i canali per le ram serviranno per le future apu...
ora con Llano siamo a 400 sp (vliw 5) @ 600Mhz
domani con Trinity saremo a 512 (vliw 4) @ 710Mhz (> +50% TFlops)
con i successori di Trinity si avrà sempre più gpu e quandi 2 canali saranno una bella limitazione alla igp... (anche se fossero 2ch da 2133)
Per la stessa politica, non vedo alcun motivo per il quale Intel possa proporre IVY su socket 1155 a prezzi bassi disturbando di fatto il socket 2011, quindi, per me, i primi proci 22nm saranno su socket 2011 e rappresenterebbero l'offerta TOP, quindi a prezzi superiori degli SBe a 32nm.
Paolo, io ho avuto modo di capire che le cose non stanno cosi.
Poi, secondo me, anche se non ho letto molto in proposito, l'arma Intel è praticamente il 22nm, cioè che a parità di TDP potrà proporre un X8 IVY anzichè un X6 SBe e proci con un minor TDP a parità di numero di core, ma questo è diverso, secondo me, dal dire con frequenze superiori.
Riuscirà semplicemente a proporre cpu piu performanti dell'attuale 2700k e con consumi nettamente inferiori. Non sono mica noccioline americane, soprattutto considerando le ottime performance degli attuli 2600/2700k. E tutto questo non credo che costerà molto più degli attuali SB 1155.
IVY non è che un SBe 32nm sul 22nm, con la stessa architettura, a parte forse un'APU più potente.
Un apu piu potente per chi ?
Il socket 2011 supporta Sandy Bridge-E ed Ivy Bridge-E, sei sicuro che hanno la gpu integrata la serie X di intel ?
Sandy Bridge ed Ivy Bridge sono socket 1155 (cpu con gpu integrata)
Sandy Bridge-E ed Ivy Bridge-E sono socket 1366/2011, io sapevo che il 2011 a differenza del 1366 ha solo il controller pci-e integrato nella cpu.
Mi sono perso qualcosa ?
tutta la banda ram dovrebbe tornare utile per la parte gpu (so che e` assente).
magari si preparano ai futuri fusion, con la gpu che svolgera` un ruolo importante nei calcoli virgola mobile (e` da steamroller che esisteranno solo apu?).
Diciamo che dovrebbe essere l'unico motivo per la quale hanno fatto questa scelta, perchè altrimenti non vedo l'utilità di un quadchannel, va bene che ogni ingrediente aggiunto o maggiorato fa il brodo piu saporito, ma non vorrei che poi sto brodo viene salato o troppo condido di cose inutili, e l'essenza poi rimane insipida.
Comunque si...da streamroller dovrebbero essere già solo APU. Gli utlimi modelli cpu classiche dovrebbero essere i piledriver 32nm. Io credo che piledriver dopo la versione 32nm (cessosa) e prima di streamroller sarà convertito su 28nm e aggiunta la gpu e fatta una APU Enthusiast di fascia alta (piledriver), e poi si passerà allo streamroller sempre 28nm APU enthusiast e in + modelli streamroller maistream.
Ma ivy su 1155 sarà semplicemente un ivy col freno tirato, cioè consumi bassi proprio per non sovrapporsi a sb-e.
Con ogni probabilità infatti uscirà prima ivy su 1155..i bassi consumi permetteranno come detto di non prendere sb-e, fino all'arrivo di ivy su 2011 che stabilirà di nuovo un divario considerevole.
Ma io non mi stpireiche questo "freno a mano tirato" consentisse overclock anche di 2,5 ghz o più ad aria, considerando miniaturizzazione ed appunto questo fatto.
Poi l'architettura non è uguale, ci sono miglioramenti! voglio dire saranno con ogni probabilità delle cpu eccellenti da ogni punto di vista o quasi.
Per il fatto del quad channell per le apu: grazie, ineffetti era ovvio ma lì per lì non c'ho pensato :D
digieffe
16-01-2012, 19:28
cut
Comunque si...da streamroller dovrebbero essere già solo APU. Gli utlimi modelli cpu classiche dovrebbero essere i piledriver 32nm. Io credo che piledriver dopo la versione 32nm (cessosa) e prima di streamroller sarà convertito su 28nm e aggiunta la gpu e fatta una APU Enthusiast di fascia alta (piledriver), e poi si passerà allo streamroller sempre 28nm APU enthusiast e in + modelli streamroller maistream.
quando è venuto fuori che da steamroller saranno tutte apu?
a me risulta che la vera integrazione sarà fatta dal successore di steamroller secondo la roadmap del amd developer... e non è detto che non produrranno più cpu "discrete" (cpu discrete, si invertono i termini :D)
AceGranger
16-01-2012, 19:31
Sandy Bridge-E ed Ivy Bridge-E sono socket 1366/2011, io sapevo che il 2011 a differenza del 1366 ha solo il controller pci-e integrato nella cpu.
Mi sono perso qualcosa ?
credo intendessi l'1356 come socket.
l'1356 sara tri-channel invece che quad, e sara solo per sistemi a singolo socket, mentre il 2011 sara mono desktop e bi professionale; e mi pare che abbia solo 24 PCI-EX, invece che 40.
digieffe
16-01-2012, 19:31
Ma ivy su 1155 sarà semplicemente un ivy col freno tirato, cioè consumi bassi proprio per non sovrapporsi a sb-e.
Con ogni probabilità infatti uscirà prima ivy su 1155..i bassi consumi permetteranno come detto di non prendere sb-e, fino all'arrivo di ivy su 2011 che stabilirà di nuovo un divario considerevole.
Ma io non mi stpireiche questo "freno a mano tirato" consentisse overclock anche di 2,5 ghz o più ad aria, considerando miniaturizzazione ed appunto questo fatto.
Poi l'architettura non è uguale, ci sono miglioramenti! voglio dire saranno con ogni probabilità delle cpu eccellenti da ogni punto di vista o quasi.
Per il fatto del quad channell per le apu: grazie, ineffetti era ovvio ma lì per lì non c'ho pensato :D
come ho scritto nel post precendente si dice che questo pp dovrebbe "solo" migliorare il consumo ai "bassi" comunque secondo me si arriverà, ad aria, intorno ai 5ghz +/- qualche centinaio
premettendo che BD è un'architettura che punta sul clock e sul nr di moduli, abbassargli il clock e togliere moduli se è corretto farlo per vendere etc etc tecnicamente è un suicidio......per me, l'unica CPU della serie BD acquistabile è 8150.......se dovevo prendermi un esa avrei preso o il 1100t o avrei aspettato il 6200....magari quei 500MHZ in più sul clock di ogni singolo modulo possono permettergli di colmare le distanze con i phenom...sarei curioso di vedere bench sul 6200..
http://www.overclock.net/t/1184953/dh-official-details-about-amds-fx-6200-processor
digieffe
16-01-2012, 19:39
premettendo che BD è un'architettura che punta sul clock e sul nr di moduli, abbassargli il clock e togliere moduli se è corretto farlo per vendere etc etc tecnicamente è un suicidio......per me, l'unica CPU della serie BD acquistabile è 8150.......se dovevo prendermi un esa avrei preso o il 1100t o avrei aspettato il 6200....magari quei 500MHZ in più sul clock di ogni singolo modulo possono permettergli di colmare le distanze con i phenom...sarei curioso di vedere bench sul 6200
potresti disattivare 2 core dal tuo 81xx clockarlo alle stesse freq (def e turbo) e capire come andrebbe (resterebbero pochi fattori differenti tipo latenze ma scarsamente influenti)
PS: ma il 6100 il turbo max su quanti moduli agisce?
quando è venuto fuori che da steamroller saranno tutte apu?
a me risulta che la vera integrazione sarà fatta dal successore di steamroller secondo la roadmap del amd developer... e non è detto che non produrranno più cpu "discrete" (cpu discrete, si invertono i termini :D)
Ah ok io stavo supponendo. Quindi dopo streamroller si ha la completa integrazione.
Se è per questo anchio credo che la produzione di cpu classiche continuerà (ma non per molto), e quelel che faranno non saranno piu al top, ma addirittura versioni castrate. Invece sono le schede video discrete che non potranno maia vere fine, per via del fatto che la potenza di calcolo grafico aggiunta è una necessita possibile, ma quando sarai capace di farmi una APU potente quando le cpu classiche top in tutti i tipi di elaborazioni, credo che le cpu classiche non avranno piu modo di esistere in ambiti top.
Poi posso anche sbagliarmi.
Comunque prima leggevo il discorso che ti sei fatto con papafoxtrot sule IOMMU.
Lui dice che le IOMMU 2 sono perché trinity ha la gpu integrata, e quindi il controller ram è unico tra CPU e GPU.
Invece la IOMMU 1 è quella classica, che permette di passare i puntatori alla memoria ad un'altro MC, di una GPU su pci-express.
Potreste spiegarmi meglio questo concetto ?
Nel caso io avessi un trinity e contemporaneamente una scheda video discreta su pci-e , come si compoeta per l'accesso su gpu su pci-express ?
AceGranger
16-01-2012, 19:42
IMHO i canali per le ram serviranno per le future apu...
ora con Llano siamo a 400 sp (vliw 5) @ 600Mhz
domani con Trinity saremo a 512 (vliw 4) @ 710Mhz (> +50% TFlops)
con i successori di Trinity si avrà sempre più gpu e quandi 2 canali saranno una bella limitazione alla igp... (anche se fossero 2ch da 2133)
c'è anche da vedere come AMD vorra procedere in futuro con gli Opteron, se continuara ad affiancare i die o se iniziara a farli monolitici, e quindi i channel gli serviranno anceh li.
credo intendessi l'1356 come socket.
l'1356 sara tri-channel invece che quad, e sara solo per sistemi a singolo socket, mentre il 2011 sara mono desktop e bi professionale; e mi pare che abbia solo 24 PCI-EX, invece che 40.
Azz..minchia non ci sto a capi piu niente con tutti sti socket che sforna Intel.
Sono stato sempre convinto che il 2011 era il successore del socket 1366, ma con il controller pci-e integrato alla cpu (vedi infatti X79 attuale), nel 1366 si usava nb+sb sulla mobo (x58).
Il 1356 lo ignoravo proprio.
AceGranger
16-01-2012, 19:50
Azz..minchia non ci sto a capi piu niente con tutti sti socket che sforna Intel.
Sono stato sempre convinto che il 2011 era il successore del socket 1366, ma con il controller pci-e integrato alla cpu (vedi infatti X79 attuale), nel 1366 si usava nb+sb sulla mobo (x58).
Il 1356 lo ignoravo proprio.
a! ho inteso male io la tua frase, inq uel senso si, è il successore, ma c'è anche l'1356, che sara solo per il mercato professionale.
si rispetto al vecchio 1366 il 2011 ha solo il controller PCI-EX e un channel di memoria in piu.
Grizlod®
16-01-2012, 20:08
Non so se aggiunge qualcosa di nuovo, ma:
http://www.hwupgrade.it/news/cpu/sino-a-10-core-e-controller-quad-channel-per-le-future-cpu-amd_40270.htmlPersonalmente, riguardo il quad-channel, penso che sia necessario, in quanto, evidentemente hanno problemi con il PHY memory controller; nel senso che non riescano a farlo salire in frequenza [es. 12x ~ 13x (2400~2600 MHz)].
Credo a causa del pp di GF...
Per lo stesso motivo, ritengo plausibile una rivisitazione-correzione del core-modulo, in modo da ridurre gli stadi di pipeline, aumentando, di conseguenza l'IPC.
In sintesi, non vedremo Vishera (forse) nemmeno a 4.5 GHz...
Obviously tutto imho !!!
Polpi_91
16-01-2012, 20:43
secondo me il quad channel lo vedremo solo nei server con piledriver perchè altrimenti AMD dovrebbe cambiare sia mobo, che socket che chipset mentre si sa che ha annunciato per la fascia desktop il chipset 1090fx (che non è altro che un 990FX migliorato) su socket AM3+
secondo me il quad channel lo vedremo solo nei server con piledriver perchè altrimenti AMD dovrebbe cambiare sia mobo, che socket che chipset mentre si sa che ha annunciato per la fascia desktop il chipset 1090fx (che non è altro che un 990FX migliorato) su socket AM3+
mobo e socket no, il chipset si...
magari sarà proprio la novità nel chipset 1090FX e per tutto il resto sarà una normale revisione del 990FX?
papafoxtrot
16-01-2012, 21:09
Comunque prima leggevo il discorso che ti sei fatto con papafoxtrot sule IOMMU.
Lui dice che le IOMMU 2 sono perché trinity ha la gpu integrata, e quindi il controller ram è unico tra CPU e GPU.
Invece la IOMMU 1 è quella classica, che permette di passare i puntatori alla memoria ad un'altro MC, di una GPU su pci-express.
Potreste spiegarmi meglio questo concetto ?
Nel caso io avessi un trinity e contemporaneamente una scheda video discreta su pci-e , come si compoeta per l'accesso su gpu su pci-express ?
Allora:
Le iommu servono per consentire al controller di memoria della GPU di prelevarsi i dati dalla ram principale, almeno questo nel caso delle GPU discrete.
Per come sono ora le cose (senza IOMMU), se devo eseguire un calcolo sulla GPU, devo prima trasferire tutti i dati di input dalla memoria centrale alla memoria della GPU, e questo è gestito a livello di codice e compilazione del software. A quel punto l'elaborazione può cominciare.
Nel caso di Llano, la ram è fisicamente la stessa tra CPU e GPU, ma in realtà è partizionata, per cui di nuovo, prima di iniziare l'elaborazione devo prelevare i dati da una parte della ram (quella cpu), portarli al memory controller, e di qui reinviarli alla ram, ma dalla parte dedicata alla GPU.
Con le IOMMU 1 cosa posso fare? Quando alla GPU, nel corso del calcolo, serve un dato, il processore passerà il puntatore alla cella di memoria centrale che lo contiene al MC della GPU, il quale potrà così andare a leggerselo.
Il problema in pratica era di mappatura della memoria; la GPU poteva anche accedere alla ram centrale, ma non conoscendo la disposizione dei dati non avrebbe potuto fare nulla. La CPU ora può "dire" alla GPU "il dato che ti serve è li"".
Con Trinity il discorso è ancora diverso. Il memory controller è lo stesso, ma serve sia la CPU, sia la GPU. Se alla GPU serve un dato, il mc non deve interrogare nessuno per sapere dove si trova, perché è lui stesso a mappare l'intera ram centrale. Per cui basta che faccia riferimento alla mappatura della memoria dedicata alla cpu e vada a prelevare il dato, mandandolo poi alla GPU.
L'ultimo livello di integrazione sarà invece quello di avere una mappatura unica della memoria, in cui la ram non sarà partizionata, ma sarà condivisa tra CPU e GPU; non vorrei sbagliarmi, ma a quanto ho capito questo livello di integrazione arriverà solo successivamente.
In teressante il passo diretto al quad channell, bypassando il tri -channell.
Anche se penso sia una mossa più preventiva e di marketing che di reale necessità per le prestazioni, visto che le ddr3 dual ancora non sono sfruttate appieno, nè tantomeno è data di default la compatibilità con ddr3 a frequenza abbastanza elevata come le ddr3 2000, e visto che a fine anno dovremmo già vedere le prime ddr4.
10 cores sicuramente è molto interessante, ma quello di cui c'è bisogno realmente è un aumento dell'ipc abbinato ad un boost delel frequenze di minimo 1 ghz..
Magari con cpu così supererebbero (sperano anche in consumi in oc non più così imbarazzanti) sb e2500-600-700, mentre ivy e sb-e sono ancora probabilmente fuori portata
tutta la banda ram dovrebbe tornare utile per la parte gpu (so che e` assente).
magari si preparano ai futuri fusion, con la gpu che svolgera` un ruolo importante nei calcoli virgola mobile (e` da steamroller che esisteranno solo apu?).
secondo me come è stato fatto notare il quad tornerà molto utile per sfruttare la serie 7 fornendogli una banda enorme.... adesso se non sbaglio la 7970 ha bus a 384bit e 3gb di ram per mi pare 250Gb/s di dati.....
sì ma una gpu come quella della attuale 7970 forse si vedrà su un'apu tra 10 anni..:Prrr:
papafoxtrot
16-01-2012, 21:55
Ci ho pensato adesso: se sarà implementato su tutte le CPU, anche desktop, il MC quad channel servirà per supportare le specifiche IOMMU: in pratica ora come ora la GPU, grazie alle IOMMU, può certo accedere alla memoria centrale, ma già questa è separata dalla GPU da una filadi link (pci-express - Hyper transport), e le latenze si alzano.
Se poi la memoria ram è così lenta rispetto a quella della GPU si perde ogni vantaggio, e torna ad essere conveniente il precaricamento di tutti i dati, come si fa ora.
Con un bel quad channel si può riservare abbastanza banda alle GPU, anche discrete, che necessitino di accedere alla ram centrale. Certo si guadagnerà bene dall'integrazione del controller pci-e sulla cpu, da questo punto di vista, ma credo che l'abbiano rimandato per evitare di portare un'altra fonte di calore, ed altri transistor dentro nel processore, che già oggi soffre per limiti di tdp...
Un po' alla volta tutto si sta preparando per rendere le GPU importanti dal punto di vista computazionale; io credo che la transizione sarà più veloce del previsto, per i software che richiedono alte prestazioni, perché i vantaggi sono davvero enormi.
capitan_crasy
16-01-2012, 22:50
secondo me il quad channel lo vedremo solo nei server con piledriver perchè altrimenti AMD dovrebbe cambiare sia mobo, che socket che chipset mentre si sa che ha annunciato per la fascia desktop il chipset 1090fx (che non è altro che un 990FX migliorato) su socket AM3+
Sono d'accordo, anche secondo me Piledriver desktop non avrà il quad channel per via della necessità di un nuovo socket; per quanto riguarda il chipset non è necessario un nuovo modello per gestire nuovi canali RAM in quanto, tale elemento non c'entra assolutamente niente con le memorie.
Komodo, secondo le vecchie roadmap, doveva avere un controller Triple channel ma in questo caso si parlava specificatamente di un nuoco socket, sia per il desktop sia per i server.
Se AMD manterrà il socket AM3+ in pratica cambierà solo l'architettura dei core mentre il "contorno" (controller RAM dual channel, Hypertransport) sarà uguale alle attuali CPU Bulldozer, tranne ovviamente le frequenze RAM DDR3 portate a 2133Mhz...
carlottoIIx6
16-01-2012, 22:58
il primo "fusion" è cinese :eek:
http://www.tomshw.it/cont/news/upu-la-rivoluzionaria-cpu-cinese-per-dispositivi-android/35380/1.html
:D
paolo.oliva2
17-01-2012, 00:21
@Acegranger
Non lo sapevo che Intel avrebbe sfornato i proci 22nm prima per il socket 1155, ora lo so, ma comunque l'ottica del mio discorso non cambia, perché sino a che Intel non potrà offrire potenze sul socket 2010 superiori agli SBe X6, come hanno detto anche altri, gli IVY socket 1155 avranno potenze ridotte.
Il mio concetto era che AMD comunque deve lavorare già per arrivare ad un 2600K, quindi mi sono astenuto nel confrontare un Piledriver X10 ad un SBe X6 (a meno che GF non faccia un miracolo sul 32nm :D ).
Pero' spero che concorderai con me che mentre sarebbe già un problema "commerciale" per Intel proporre un IVY X4 con una potenza X% superiore a quella del 2600K, magari pure allo stesso prezzo, un Piledriver X10, anche senza sperare in miracoli sul silicio, dovrebbe poter garantire un incremento % superiore (discorso OC a parte, discorso prezzi da vedere, discorso IPC MT certamente più favorevole ad AMD rispetto al discorso IPC ST).
Su questa base, mi sembra più plausibile una situazione più favorevole ad AMD rispetto a quella odierna 8150 vs 2600K/2700K.
Se poi cosi' non fosse... io tra 40 giorni ritorno e ho una gran voglia di smanettare... Se AMD sforna qualche cosa di nuovo, ben venga, se lo annuncia... dipende dall'attesa, altrimenti mi prendo un SBe X6.... anche perchè dopo ripartiro' ancora e sto giro non voglio stare con un I5....
Allora:
Le iommu servono per consentire al controller di memoria della GPU di prelevarsi i dati dalla ram principale, almeno questo nel caso delle GPU discrete.
Per come sono ora le cose (senza IOMMU), se devo eseguire un calcolo sulla GPU, devo prima trasferire tutti i dati di input dalla memoria centrale alla memoria della GPU, e questo è gestito a livello di codice e compilazione del software. A quel punto l'elaborazione può cominciare.
Nel caso di Llano, la ram è fisicamente la stessa tra CPU e GPU, ma in realtà è partizionata, per cui di nuovo, prima di iniziare l'elaborazione devo prelevare i dati da una parte della ram (quella cpu), portarli al memory controller, e di qui reinviarli alla ram, ma dalla parte dedicata alla GPU.
Con le IOMMU 1 cosa posso fare? Quando alla GPU, nel corso del calcolo, serve un dato, il processore passerà il puntatore alla cella di memoria centrale che lo contiene al MC della GPU, il quale potrà così andare a leggerselo.
Il problema in pratica era di mappatura della memoria; la GPU poteva anche accedere alla ram centrale, ma non conoscendo la disposizione dei dati non avrebbe potuto fare nulla. La CPU ora può "dire" alla GPU "il dato che ti serve è li"".
Con Trinity il discorso è ancora diverso. Il memory controller è lo stesso, ma serve sia la CPU, sia la GPU. Se alla GPU serve un dato, il mc non deve interrogare nessuno per sapere dove si trova, perché è lui stesso a mappare l'intera ram centrale. Per cui basta che faccia riferimento alla mappatura della memoria dedicata alla cpu e vada a prelevare il dato, mandandolo poi alla GPU.
L'ultimo livello di integrazione sarà invece quello di avere una mappatura unica della memoria, in cui la ram non sarà partizionata, ma sarà condivisa tra CPU e GPU; non vorrei sbagliarmi, ma a quanto ho capito questo livello di integrazione arriverà solo successivamente.
è chiaro, grazie per il chiarimento...beh adesso che ho inquadrato alcuni dettagli, sto quad channel inizio a considerarlo più utile, anche se leggo qualcuno che dice che sara solo su server, ma pensandoci, mi sa che hanno ragione.
Mi sbagliavo anchio prima quando dicevo del chipset, in effetti il northbridge sulla mobo integra solo il controller pci-express, l'MC è integrato nella cpu, ergo per avere un quadchannel, serve un nuovo socket e no un nuovo chipset. E come dice il capitano, era possibile in caso di socket FMx, ma rimanendo ancora sulla frustrante infrastruttura AMx trovo un pò difficile che verrà implementato un ampliamento di canali sulla gestione DRAM da parte del memory controller. Dovrebbero mettere mani all'architettura e all'MC...non so se è possibile/conveniente per amd questa cosa.
Quindi rettifico il pensiero: anche secondo me piledriver sara ancora dual channel e il quad solo per server.
Invece è possibile X10 desktop. (questo lo ritengo ancora inutile, a meno qualcuno mi convinca che l'aggiunta di due core aiutano gli FX, per me e coprire la merda con il fango).
Ci ho pensato adesso: se sarà implementato su tutte le CPU, anche desktop, il MC quad channel servirà per supportare le specifiche IOMMU: in pratica ora come ora la GPU, grazie alle IOMMU, può certo accedere alla memoria centrale, ma già questa è separata dalla GPU da una filadi link (pci-express - Hyper transport), e le latenze si alzano.
Se poi la memoria ram è così lenta rispetto a quella della GPU si perde ogni vantaggio, e torna ad essere conveniente il precaricamento di tutti i dati, come si fa ora.
Con un bel quad channel si può riservare abbastanza banda alle GPU, anche discrete, che necessitino di accedere alla ram centrale. Certo si guadagnerà bene dall'integrazione del controller pci-e sulla cpu, da questo punto di vista, ma credo che l'abbiano rimandato per evitare di portare un'altra fonte di calore, ed altri transistor dentro nel processore, che già oggi soffre per limiti di tdp...
Un po' alla volta tutto si sta preparando per rendere le GPU importanti dal punto di vista computazionale; io credo che la transizione sarà più veloce del previsto, per i software che richiedono alte prestazioni, perché i vantaggi sono davvero enormi.
Questo è interessante. Ma rimane sempre il dubbio se sto quadchannel sarà ache per desktop.
Forse magari non subito. Verra implementato in un secondo momento, quando verra cambiato socket.
Mi sorge un dubbio: i secondi modelli piledriver saranno convertiti a 28nm, magsari sara quel periodo in cui cambieranno socket (ipotetico FM3), quindi aggiunta quadchannel nell'mc, integrazione del controller pci-e nella cpu.
O forse tutto questo avverrà con steamroller ? Buu ?
Il vero è che avverrà...ma è da capire quando amd ha queste intenzioni, perchè secondo me, ha bisogno come il pane di cambiare socket.
Non vedo più cosa tirare all'AMx.
Forse sapremo di piu a febbraio ?
Io ancora oggi spero che a febbraio ci dicono: ok gente...nel Q3-2012 si cambia socket, piledriver sara su nuovo socket, implementera il pci-e dentro (ergo meno latenze, e rimozione dell'inutile bus HT),anche senza gpu integrata, socket FMx (ergo unico socket per entrambe le fasce, e a questo punto visto trinity dovrebbe essere FM2, a meno che non decidano di continuare sulla strada socket diverso ma sempre FMx -es FM2 per trinity, FM3 per FX-piledriver), ma tutte queste sono fanta ipotesi, ma possibili.
Ma vi faccio un esempio sarcastico: vi immaginate se AMD a Febbraio se ne esca fuori con la notizia che vuole fare un ipotetico AM4 ? LOOOL :p
Vi giuro che li lincio :D
digieffe
17-01-2012, 01:37
qualcuno ha iniziato ad analizzare BD:
http://www.ilsistemista.net/index.php/hardware-analysis/24-bulldozer-vs-sandy-bridge-vs-k10-comparison-whats-wrong-with-amd-bulldozer.html
io non ho ancora letto... però ad una prima occhiata fa dei test delle capacità della unità di store da qui in poi:
http://www.ilsistemista.net/index.php/hardware-analysis/24-bulldozer-vs-sandy-bridge-vs-k10-comparison-whats-wrong-with-amd-bulldozer.html?start=5
EDIT: ho dato una letturina.... mah..
Polpi_91
17-01-2012, 08:38
Sono d'accordo, anche secondo me Piledriver desktop non avrà il quad channel per via della necessità di un nuovo socket; per quanto riguarda il chipset non è necessario un nuovo modello per gestire nuovi canali RAM in quanto, tale elemento non c'entra assolutamente niente con le memorie.
Komodo, secondo le vecchie roadmap, doveva avere un controller Triple channel ma in questo caso si parlava specificatamente di un nuoco socket, sia per il desktop sia per i server.
Se AMD manterrà il socket AM3+ in pratica cambierà solo l'architettura dei core mentre il "contorno" (controller RAM dual channel, Hypertransport) sarà uguale alle attuali CPU Bulldozer, tranne ovviamente le frequenze RAM DDR3 portate a 2133Mhz...
concordo in pieno, finchè non vedremo un nuovo socket non ci sarà tri/quad channel.
sulla recensione di confronto postata da Digieffe:
Punti buoni secondo la recensione: velocità del MCH (non sto parlando della bandwidth), unita integrer
Punti buoni ma azzoppati da difetti: FPU per la mancanza della seconda porta d'accesso e la mancanza di bandwidth
Cosa proprio non va: Scarse prestazioni del silicio di GF con elevato leackage che comporta calore e consumi troppo elevati che compromettono le frequenze, la cache in particolare la L1 e la L2 in write che hanno prestazioni abbastanza scandalose che compromettono il buon afflusso di dati al processore soprattutto nelle applicazioni intensive come mole di dati e secondo me anche il branch predictor va notevolmente rivisto.
speriamo che piledriver migliori questi aspetti
AceGranger
17-01-2012, 09:01
Pero' spero che concorderai con me che mentre sarebbe già un problema "commerciale" per Intel proporre un IVY X4 con una potenza X% superiore a quella del 2600K, magari pure allo stesso prezzo, un Piledriver X10, anche senza sperare in miracoli sul silicio, dovrebbe poter garantire un incremento % superiore (discorso OC a parte, discorso prezzi da vedere, discorso IPC MT certamente più favorevole ad AMD rispetto al discorso IPC ST).
Su questa base, mi sembra più plausibile una situazione più favorevole ad AMD rispetto a quella odierna 8150 vs 2600K/2700K.
l'IPC di PD viene eliminato dall'IPC di IB, parte delle frequenze serviranno per raggiungere il 2600K e un'altro pochino per il 2700K, il rimanente dovrebbe quindi poter permette di superare il 3770K;
pero, IB dovrebbe arrivare l'8 Aprile, PD arrivera 5-6 mesi dopo, e IB-E circa 3 mesi dopo PD.
quindi nelle piu rosee aspettative, AMD avra una CPU superiore al 3770K e 3820 per 3 soli 3 mesi, ma continuando ad avere sempre problemi di efficienza e stando sempre sotto al resto delle CPU 2011, insomma non è che cambi molto la situazione.
Io spero vivamente che con Steamroller cambino nettamente strada.
papafoxtrot
17-01-2012, 09:07
Questo è interessante. Ma rimane sempre il dubbio se sto quadchannel sarà ache per desktop.
Forse magari non subito. Verra implementato in un secondo momento, quando verra cambiato socket.
Mi sorge un dubbio: i secondi modelli piledriver saranno convertiti a 28nm, magsari sara quel periodo in cui cambieranno socket (ipotetico FM3), quindi aggiunta quadchannel nell'mc, integrazione del controller pci-e nella cpu.
O forse tutto questo avverrà con steamroller ? Buu ?
Hem, che io sappia i 28nm potrebbero arrivare con streamroller... Se non altro perché non saranno pronti prima del 2013, e per quell'anno ci sarà appunto streamroller.
Attendere il nuovo processo per integrare le nuove features (MC quad channel e pci-e) avrebbe un senso, perché permetterebbe di contenere il die size. E' anche vero che in ambito server il die size non è un problema, mentre in ambito desktop, se ci sarà una diversificazione tra i die, come era per k10, tra server e desktop, si può fare un po' di posto eliminando gli HT (in ambito server continuano a servire per le comunicazioni tra i proci).
Il vero è che avverrà...ma è da capire quando amd ha queste intenzioni, perchè secondo me, ha bisogno come il pane di cambiare socket.
Non vedo più cosa tirare all'AMx.
Forse sapremo di piu a febbraio ?
Io ancora oggi spero che a febbraio ci dicono: ok gente...nel Q3-2012 si cambia socket, piledriver sara su nuovo socket, implementera il pci-e dentro (ergo meno latenze, e rimozione dell'inutile bus HT),anche senza gpu integrata, socket FMx (ergo unico socket per entrambe le fasce, e a questo punto visto trinity dovrebbe essere FM2, a meno che non decidano di continuare sulla strada socket diverso ma sempre FMx -es FM2 per trinity, FM3 per FX-piledriver), ma tutte queste sono fanta ipotesi, ma possibili.
Non so, se hanno annunciato che restano su am3+ e che faranno un nuovo chipset, secondo me fanno fatica a smentirsi nel giro di pochi mesi... con il lancio a 6 mesi di distanza.
E' un po' un peccato, anche perché il socket diviso rompe, ma probabilmente gli serviva ad accorciare i tempi. Visti i continui ritardi magari hanno capito che komodo con il pci-e integrato e il nuovo socket non sarebbe arrivato entro l'autunno, e piuttosto che restare con questo BD zoppo hanno deciso di fare una via di mezzo...
Secondo me però l'idea di mettere un quad channel in un die server non è il massimo; lo dico solo perché escludo che amd voglia abbandonare il design multi chip package per le cpu server di fascia alta; tutto sommato è l'unica cosa che gli permette di confrontarsi in qualche modo con la concorrenza.
Anche che piledriver abbia 10 core e un ipc molto più alto, nonché frequenze alte per via del minor numero di core, difficilmente raggiungerebbe l'attuale bulldozer...
Per cui ammesso che il MCP rimanga, così da produrre CPU a 20 core e confrontarsi con gli attuali SB X6 e X8 (speriamo), 8 canali di memoria non servirebbero a niente.
Per contro nei server di fascia bassa non vedo il motivo di fare un die apposta, diverso da tutti gli altri, per integrare una feature che tutto sommato servirebbe a poco; a chi serve tanta memoria si becca l'opteron di fascia alta.
Insomma, per quanto sembri inutile e paradossale, se è vero che in piledriver ci sarà il quad channel, secondo me lo troveremo sul desktop.
E se il socket sarà AM3+ vorrà dire semplicemente che potremmo gestire solo 4 banchi di ram (come è adesso, con due canali e due slot per canale), rinunciando alla possibilità di avere 8 slot come su LGA2011. Alla fine dal socket esce una pista per slot... se poi i 4 slot sono su due o quattro canali, forse cambia poco.
Un triple channel sarebbe statop più problematico; toccava accontentarsi di 3 banchi, perché sennò si doveva andare a 6 e non c'erano uscite. E i kit da tre banchi nel tempo non stanno più venendo aggiornati con prodotti aggressivi... Intel aveva la forza ed il market share per convincere tutti a produrre kit triple channel, mi sa che per AMD non sarebbe stato lo stesso.
Insomma,
- o si teneva il dual channel, ma almeno per motivi di immagine, e per prepararsi alle future novità (necessità di più banda, APU, IOMMU) era meglio inziare a fare un passo avanti.
- o faceva un triple channel, ma a costo di trovarsi con kit di memoria vecchi di due anni, e allora se devo scegliere tra 3 canali a 1600 e due canali a 2000 magari prendo la seconda... Che almeno monto 4 banchi e ho più spazio.
- o faceva un quad channel limitato a 4 banchi.
Che ne dite? Secondo me come ragionamento può filare. Certo il MC quad channel consuma, lo vediamo anche su SB-E (e lo si vedeva sui bloomfield/gulftown), per cui su un bulldozer, che non brilla certo per performance per watt, sonio un po' watt buttati ecco... Vero anche che con un bel power gating si può sempre disattivare mezzo MC e far andare la CPU con un dual channel, all'occorrenza...
Proviamo anche questo processore :cool:
Proviamo anche questo processore :cool:
Ma hai già overcloccato o lo tieni a default per i primi test?
Ma hai già overcloccato o lo tieni a default per i primi test?
Mi è appena arrivato il pacco, devo ancora assemblarlo :p
come ho scritto nel post precendente si dice che questo pp dovrebbe "solo" migliorare il consumo ai "bassi" comunque secondo me si arriverà, ad aria, intorno ai 5ghz +/- qualche centinaio
mm a 22 nm non penso, a 5 ghz ci arriva sandy!
E poi avranno consumi a default molto bassi, io mi aspetto tanto margine, probabilmente 6 ghz ad aria.
Comunque vedremo
mm a 22 nm non penso, a 5 ghz ci arriva sandy!
E poi avranno consumi a default molto bassi, io mi aspetto tanto margine, probabilmente 6 ghz ad aria.
Comunque vedremo
Secondo me invece, arriverà a 5,3/5,4 ad aria e intorno ai 6 a liquido.
Comunque meglio tornare in topic.
Riprendo la mia domanda di un paio di pagine fa.
In vista di acquisto futuro, qualcuno sa quando uscirà lo step B3 per Bulldozer?
Mi sà che non esce proprio XD
digieffe
17-01-2012, 19:12
mm a 22 nm non penso, a 5 ghz ci arriva sandy!
E poi avranno consumi a default molto bassi, io mi aspetto tanto margine, probabilmente 6 ghz ad aria.
Comunque vedremo
Secondo me invece, arriverà a 5,3/5,4 ad aria e intorno ai 6 a liquido.
Comunque meglio tornare in topic.
Riprendo la mia domanda di un paio di pagine fa.
In vista di acquisto futuro, qualcuno sa quando uscirà lo step B3 per Bulldozer?
so di essere OT ma nel DB overclock di questo sito le frequenze ad aria sono tra 4.5 e 4.7 nel daily... se poi i dati sono altri fatemi sapere
quindi se si sommano i soliti 3-400 mhz per il cambio del pp siamo a 5.1...
ad acqua ci saranno ancora 2-300 Mhz...
oltre io so che neanche ad azoto salgono...
so di essere OT ma nel DB overclock di questo sito le frequenze ad aria sono tra 4.5 e 4.7 nel daily... se poi i dati sono altri fatemi sapere
quindi se si sommano i soliti 3-400 mhz per il cambio del pp siamo a 5.1...
ad acqua ci saranno ancora 2-300 Mhz...
oltre io so che neanche ad azoto salgono...
Io mi riferifo direttamente ad IB.
Ad azoto non ci sono vantaggi (su SB) semplicemente perchè quello è il limite strutturale del silicio.
Folgore 101
17-01-2012, 19:35
Per i possessori dell'FX-8120 mi potete togliere un dubbio?
Guardando una recensione di questo processore ho notato che l'indice di prestazione di Windows dava 7,5 e mi sembra un valore un po basso, o almeno mi aspettavo di più, dato che l'I3-2100 in ufficio fa segnare 7,1.
E' corretto il 7,5?
Grazie.
Per i possessori dell'FX-8120 mi potete togliere un dubbio?
Guardando una recensione di questo processore ho notato che l'indice di prestazione di Windows dava 7,5 e mi sembra un valore un po basso, o almeno mi aspettavo di più, dato che l'I3-2100 in ufficio fa segnare 7,1.
E' corretto il 7,5?
Grazie.
Contando che i SB-e danno 7.8 direi di sì. Soprattutto se conti che il 3960X per arrivare a 7.9 dovrebbe essere overclockato intorno a 6 GHz (impossibile in daily use tra TDP e limite silicio).
Edit: Il mio Phenom II x4 955 a frequenze stock ha fatto registrare 7,3, segno che una qualsiasi CPU di fascia bassa fa score "incredibili" con il test integrato in Win7.
Per i possessori dell'FX-8120 mi potete togliere un dubbio?
Guardando una recensione di questo processore ho notato che l'indice di prestazione di Windows dava 7,5 e mi sembra un valore un po basso, o almeno mi aspettavo di più, dato che l'I3-2100 in ufficio fa segnare 7,1.
E' corretto il 7,5?
Grazie.
Beh affidarsi nella vita a windows è gia un bell'azzardo, se poi ci si affida anche alle sotto funzioni come quel test di prestazioni, ci si è rovinati.
Non ha una misura dettagliata quel coso, fa un calcolo a spannella fra frequenza e numero dei core e poi tira fuori il suo numerino magico del caiser. Mi meraviglio come si siano presi la briga a casa M$ ops volevo dire MS di dare un valore addirittura decimale e no intero, visto l'attendibilità di quel numero.
Meglio i test di linux cento mila volte.
so di essere OT ma nel DB overclock di questo sito le frequenze ad aria sono tra 4.5 e 4.7 nel daily... se poi i dati sono altri fatemi sapere
quindi se si sommano i soliti 3-400 mhz per il cambio del pp siamo a 5.1...
ad acqua ci saranno ancora 2-300 Mhz...
oltre io so che neanche ad azoto salgono...
effettivamente basta vedere quello che ha fatto intel, per quanto sono archidetture diverse, è passato il tempo quando il pp era secondario all'archidettura. Ad adesso siamo ad un livello di integrazione tale, che per fare alcuni progetti ci vuole il pp adatto. E abbiamo visto tutti quanto agena soffrisse i 65nm e quando poi l'archidettura è esplosa con deneb ed i 45nm.
sia con i 65 che con i 45nm le frequenze cui si arrivava sono + o - le stesse per amd o intel.
i 45nm intel facevano i 4-4.2-4.4 circa, i 45nm amd con deneb o thuban si facevano i 4-4.2
probabilmente un processo amd a 32nm maturo, dovrebbe permettere frequenze massime non tanto archidetturali, quanto di pp, di 5.2-5-4
la struttura a foe 17 di bd dovrebbe solo garantire un raggiungimento più agevole di questa frequenza.
Beh affidarsi nella vita a windows è gia un bell'azzardo, se poi ci si affida anche alle sotto funzioni come quel test di prestazioni, ci si è rovinati.
Non ha una misura dettagliata quel coso, fa un calcolo a spannella fra frequenza e numero dei core e poi tira fuori il suo numerino magico del caiser. Mi meraviglio come si siano presi la briga a casa M$ ops volevo dire MS di dare un valore addirittura decimale e no intero, visto l'attendibilità di quel numero.
Meglio i test di linux cento mila volte.
Mi trovi d'accordo con te, ma comunque conta che il SO fa un test per l'esperienza che trai dall'uso del SO stesso.
Non fa dei bench per vedere quali sono le prestazioni assolute.
Grizlod®
17-01-2012, 20:21
Che ne dite? Secondo me come ragionamento può filare. Certo il MC quad channel consuma, lo vediamo anche su SB-E (e lo si vedeva sui bloomfield/gulftown), per cui su un bulldozer, che non brilla certo per performance per watt, sonio un po' watt buttati ecco... Vero anche che con un bel power gating si può sempre disattivare mezzo MC e far andare la CPU con un dual channel, all'occorrenza...Mi sento di quotarti quasi tutto...tranne:[cit.] ... se poi i 4 slot sono su due o quattro canali, forse cambia poco. ...do per scontato, naturalmente, che le prestazioni del processore aumentino di un bel tot, in proporzione, altrimenti è inutile mettere quattro carburatori al posto di un bicorpo (paragone motoristico)...seppur, in serie, interlacciato ...
Sulla questione server, penso invece, che il quad-channel sia (sott)inteso per i dual socket, cioè multi CPU e non multicore, quindi in pratica resterebbe tutto invariato.
Quotissimo l'ultima parte del tuo intervento...non più di quattro slot per DIMMs...aggiungo che darebbe inoltre maggior flessibilità all'utente finale, potendo installare 2 o 4 moduli RAM a piacere secondo le proprie esigenze.
Butto lì un'azzardo...come vedresti una cache L3 su slot da inserire eventualmente sulla mainboard con bus dedicato a 512 bit, in modo da raffreddarla indipendentemente?
Voglio dire è hardwarmente fattibile...e come resa prestazionale?
Sarebbe in stile MB socket 7 per K6 III, K6 2+...
papafoxtrot
17-01-2012, 22:00
Mi sento di quotarti quasi tutto...tranne:[cit.] ... se poi i 4 slot sono su due o quattro canali, forse cambia poco. ...do per scontato, naturalmente, che le prestazioni del processore aumentino di un bel tot, in proporzione, altrimenti è inutile mettere quattro carburatori al posto di un bicorpo (paragone motoristico)...seppur, in serie, interlacciato ...
Intendevo dire che cambia poco a livello di circuiteria della scheda madre, per cui si potrebbe continuare a sfruttare il socket AM3+, perché le 4 piste escono comunque, la differenza è nel come sono gestite dentro alla CPU.
In ogni caso, con una certa disillusione ti dico, non c'è niente da fare... un dual channel oggi è più che sufficiente, almeno per i desktop. Basta guardare i lynnfield che erano altrettanto veloci dei bloomfield, sebbene questi avessero avuto il triple channel. Ed è arcinoto che ram più veloci non danno alcun vantaggio... Il quad channel servirebbe a poco, sarebbe di gran lunga di più l'aumento di consumo che quello di prestazioni. In caso si iniziassero a sfruttare le IOMMU il vantaggio sarebbe invece probabilmente notevole, ed è chiaro che una APU ne gioverebbe.
Quotissimo l'ultima parte del tuo intervento...non più di quattro slot per DIMMs...aggiungo che darebbe inoltre maggior flessibilità all'utente finale, potendo installare 2 o 4 moduli RAM a piacere secondo le proprie esigenze.
Si, consentirebbe anche di montare 3 banchi senza smenarci un dual channel..
Butto lì un'azzardo...come vedresti una cache L3 su slot da inserire eventualmente sulla mainboard con bus dedicato a 512 bit, in modo da raffreddarla indipendentemente?
Voglio dire è hardwarmente fattibile...e come resa prestazionale?
Sarebbe in stile MB socket 7 per K6 III, K6 2+...
Sarebbe solo l'n-esimo accrocchio. S tende ad integrare, non a portar fuori. Dopotutto la L3 sta benone dov'è, ed è già abbastanza lenta così...
Vedrei meglio una L2 ed una L3 fisse a 2MB a modulo, ma con l'integrazione in futuro di una ED-RAM, anche solo per le CPU server, di dimensioni generose...
Folgore 101
17-01-2012, 22:29
Grazie a winebar e shellx per le delucidazioni.
Phenomenale
17-01-2012, 23:05
cambia poco a livello di circuiteria della scheda madre, per cui si potrebbe continuare a sfruttare il socket AM3+, perché le 4 piste escono comunque, la differenza è nel come sono gestite dentro alla CPU
L' AM3(+) prevede per le RAM 2 bus di dati/indirizzi - uno per ogni controller - dove poi i moduli RAM si montano anche in coppia su ogni bus perchè sono collegati in parallelo, c'è un bit di selezione che indica di volta in volta quale modulo deve rispondere.
La teoria della "4 piste" è suggestiva, ma senza fondamento... per fare un quad-channel occorre un nuovo socket con una marea di pin in più (1155 -> 2011 io non ho detto nulla)
digieffe
18-01-2012, 02:23
curioso questo post: http://semiaccurate.com/forums/showpost.php?p=148833&postcount=45
faccio notare che cinebent (cinebench) non è un errore ma vuol significare propenso (o disonesto) http://it.dicios.com/enit/bent
grazie per la segnalazione digieffe..il problema purtroppo rimane, cinebench a parte, bd va molto male anche con i motori di render reali e non solo con semplici bench, purtroppo :(
papafoxtrot
18-01-2012, 08:22
L' AM3(+) prevede per le RAM 2 bus di dati/indirizzi - uno per ogni controller - dove poi i moduli RAM si montano anche in coppia su ogni bus perchè sono collegati in parallelo, c'è un bit di selezione che indica di volta in volta quale modulo deve rispondere.
La teoria della "4 piste" è suggestiva, ma senza fondamento... per fare un quad-channel occorre un nuovo socket con una marea di pin in più (1155 -> 2011 io non ho detto nulla)
Questo proprio non lo sapevo; non insisto perché evidentemente ne sai più di me :)
Pensavo che i pin in più (come sul 2011) servissero per gestire fino a 8 banchi.
Polpi_91
18-01-2012, 09:05
AM3+ non può supportare il quad channel perchè le linee che escono dal socket della mobo e vanno gli slot sono 2 che poi si sdoppiano (ecco anche il perchè montando 3 banchi di si riesce a tenere comunque il dual channel).
serve un socket nuovo completamente per il quad channel
Questo proprio non lo sapevo; non insisto perché evidentemente ne sai più di me :)
Pensavo che i pin in più (come sul 2011) servissero per gestire fino a 8 banchi.
pensa all'aumento esponenziale die pin nelle piattaforme intel, si è passato dai 775 dei core2 ai 1366 dei primi i7 9xx agli attuali 2011 dei nuovi i7 3xxx e sono quasi tutti dovuti all'aumento dal dual al tri fino al quad channel
papafoxtrot
18-01-2012, 09:37
AM3+ non può supportare il quad channel perchè le linee che escono dal socket della mobo e vanno gli slot sono 2 che poi si sdoppiano (ecco anche il perchè montando 3 banchi di si riesce a tenere comunque il dual channel).
serve un socket nuovo completamente per il quad channel
pensa all'aumento esponenziale die pin nelle piattaforme intel, si è passato dai 775 dei core2 ai 1366 dei primi i7 9xx agli attuali 2011 dei nuovi i7 3xxx e sono quasi tutti dovuti all'aumento dal dual al tri fino al quad channel
Si si, come scrivevo sopra pensavo servissero per la gestione degli slot in più, perché comunque il socket 1366 ha 6 slot, e il 2011 arriva a 8 slot (sul desktop). Per cui c'è comunque un aumento contestuale dei pin. Se passano da due a tre a 4 linee, o da 4 a 6 a 8 linee, l'aumento dei pin è lo stesso.
Ripeto, non sapendo che le linee fossero due e ci fosse uno switch sulla scheda madre, pensavo che le linee uscenti sarebbero rimaste 4, e non si sarebbe potuto arrivare ad 8 slot come ha fatto intel, appunto per mancanza di pins.
L' AM3(+) prevede per le RAM 2 bus di dati/indirizzi - uno per ogni controller - dove poi i moduli RAM si montano anche in coppia su ogni bus perchè sono collegati in parallelo, c'è un bit di selezione che indica di volta in volta quale modulo deve rispondere.
La teoria della "4 piste" è suggestiva, ma senza fondamento... per fare un quad-channel occorre un nuovo socket con una marea di pin in più (1155 -> 2011 io non ho detto nulla)
Ci vuole sì più spazio, ma non da giustificare quasi il raddoppio dei pin. Ricorda che su socket 2011 ci sono delle feature che le fasce mainstream non hanno, come il quick path interconnect (da me chiamato affettuosamente "tangenziale dei core"), la maggiore cache, il maggior numero di transistor per core, e ovviamente, il numero di core stesso.
Phenomenale
18-01-2012, 12:57
(1155 -> 2011 io non ho detto nulla) :read:
Polpi_91
18-01-2012, 14:33
:read:
1155 non è confrontabile con 1366/2011 perchè il primo è una APU e quindi l'aumento dei pin (rispetto a 775) è da attribuirsi a quelli necessari alla GPU
da 775 sono nate due linee:
775 -> 1366 -> 2011
775 -> 1556 -> 1555
paolo.oliva2
18-01-2012, 16:09
Faccio una domanda... rispetto a novembre, c'è un aumento nelle frequenze raggiungibili in OC e Vcore inferiori per le stesse frequenze, dagli 8150?
Tra un mesetto ritorno, ma di 8170/8190 non c'è traccia... :cry: l'alternativa ad un SBe X6 (che diventerebbe pesante perchè dovrei fare un altro sistema ivi compreso raffreddamento, ram/HD/monitor), sarebbe un 8150 che arrivi in OC almeno 200/300MHz sopra a quello che ho.
P.S.
Risposte obiettive...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.