PDA

View Full Version : [Thread Ufficiale] CPU serie FX: AMD Bulldozer/Piledriver - Aspettando Steamroller


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24] 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145

wolverine
06-02-2012, 00:20
Questo però è lollissimo :D :

http://www.the-overclock-hole.it/images/Recensioni/Hardware/AMD_Bulldozer/04_Quarta%20parte/018.jpg

Questa fa più ridere.. :D

http://www.the-overclock-hole.it/images/Recensioni/Hardware/AMD_Bulldozer/02_Seconda%20parte/007.jpg

digieffe
06-02-2012, 00:26
la difficoltà è ben un'altra cioè: le FPU x87 sono fatte per eseguire determinate istruzioni in virgola mobile (quelle dell'ISA x87/SSE/AVX etc etc)...e di conseguenza sono 'disegnate' per quelle istruzioni. Le FPU delle schede video sono differenti molto differenti dall'ISA X87 e dalle varie SSE/AVX in tutte le loro versioni....perchè se fosse come dici, stai un attimo a integrare FPU di BD e mettergli i moduli FPU delle schede video.... ma questo non è ancora successo. perchè? perchè, per me , una delle più grosse difficoltà che avranno sarà quella di far eseguire le ISA x87/SSE/AVX sulle FPU delle GPU....perchè a livello hardware una GPU è profondamente diversa da una FPU x87....
Il discorso fusion sta proprio nel cercare un punto di incontro tra questi due mondi....e sono curioso di capire come faranno.....spero solo che non ci piazzino uno strato software che traduca ISA x87 in istruzioni direttamente eseguibili dalla FPU della GPU, con il rischio di un calo di performance....Una delle soluzioni l'ha adottata Sony con la cpu cell: la parte powerpc general purpose è ridicola come prestazioni, ma serve solo ad alimentare i 7 SPE (Synergistic Processing Elements) che sono i veri 'tritacarne' :D della CPU..i quali SPE sono ciò che c'è di più simile alle unità delle GPU...secondo me mireranno a fare qualcosa di concettualmente simile...

Premettendo che le fpu (stream processors) delle gpu in genere gestiscono al max numeri in virgola mobile (float) a 64bit e quindi non sarebbero in grado di gestire dati x87 a 80bit e FMAC a 128bit...

apportate le dovute implementazioni per gestire questo tipo di dati... per il resto gestiscono sufficientemente bene interi di diverse dimensioni in genere fino a 32 bit e float fino a 64 bit...

la struttura con la quale gestistono questi dati è una struttura vettoriale non troppo diversa dalle AVX...

essendo le compute unit molto flessibili e con un numero maggiore di registri e strutture delle avx, non dovrebbe essere molto difficile tramite il decoder hardware convertire le istruzioni x87, sse(n), avx(n) in dati trattabili dalle stesse unità per poi renderle in output così come avviene con la flexpf di BD.

un altra differenza è che normalmente una gpu viene programmata dal driver con un vero è proprio kernel (in esecuzione nella gpu) nel caso in cui dovesse essere utilizzarta come un coprocessore matematico sarebbe necesario utilizzare le unità in modo diretto con un dispacher e senza kernel...

Immagino che questa sarà la situazione quando darà concluso il processo HSA.

Non dimentichiamoci che i processori x86 attuali (intel e amd) sono di fatto tutti RISC ed eseguono il codice x86 tramite il decoder che genera le mops (RISC) nel caso di AMD e le uops nel caso di Intel... quindi non vedrei nulla di strano se il decoder trasformasse le istruzioni x87, sse(n), avx(n) in istruzioni di stream processors...

digieffe
06-02-2012, 00:33
http://www.xbitlabs.com/news/other/display/20120205041713_IBM_Quietly_Starts_to_Make_Chips_for_AMD.html

Sembra che IBM abbia messo a disposizione uno dei suoi impianti produttivi per la produzione dell'APU Trinity.

Era da tempo che speravo in una partnership con Ibm...

ora però spero che non sia una partnership al ribasso, cioè, non di mero aumento della produzione senza apporto di qualità ma se ce n'è e se possibile un travaso di tecnologie e know-how...

carlottoIIx6
06-02-2012, 00:56
Ragazzi , se volete leggere una recensione del FX 4170 : http://www.the-overclock-hole.it/recensioni/1975-amd-bulldozer.html
ed aggiungerla alla lista recensioni :)

mi sembra un processore molto tostigno.
quando le nuove istruzini sono supportate supera bene il 980
e se non capisco male, sembra che consumo meno sia in idle che full
anche se l'uso medio stranamente avvantagia i phenom.
cmq sia sono ancora più convinto che è meglio consigliare gli FX dei phenom.

inoltre arriva a 5Gh, questo prova un miglioramento nel silicio (che i primi usciti siano i peggiori?) e questo potrebbe fare epnsare che il 8170 arrivi anche e superi i 5 GHz.

carlottoIIx6
06-02-2012, 01:18
No. non confondere PRESTAZIONI (IPS - instructions per second) con IPC (instructions per cycle).
Le prestazioni di una CPU sono date da= IPC e MHZ (clock). Punto
Se un 2600k lo mandi a 500MHZ vedrai che le prestazioni saranno molto inferiori a quelle di quando è a 3400MHZ a prescindere dall'IPC che ha. Sei d'accordo?
Io mandando BD a 4.2 GHZ su tutti i C.U. (compute unit) ho aumentato le prestazioni del 15% in MT rispetto alla freq def, ma non ho toccato IPC, quindi quello che tu dici è palesemente sbagliato....

onestamente non capisco cosa tu dici di diverso da quello che ho detto

Ha ragione Gianni quando dice che se AMD dice che PD avrà il 10% in +, PRESUMIBILMENTE, il miglioramento sarà la somma tra IPC e clock.
Potrebbe essere anche solo IPC, ma potrebbe anche essere solo clock..non è detto che non percorrino anche la strada dell'innalzamento del clock...e soprattutto UNA NON ESCLUDE L'ALTRA, ANZI
Non è matematico che avere 10% in + di PRESTAZIONI GLOBALI sia fatto solo migliorando le unità interne...lo puoi fare anche alzando il clock (vedi il mio esempio)....perchè i transistor aprendosi e chiudendosi + velocemente hanno un output di istruzioni + elevato (la corrente/i segnali escono dalla CPU + velocemente).
quindi il clock c'entra eccome nell'ouput finale delle prestazioni.
cut

ma io ho solo detto che AMD si riferisce SOLO all'ipc con quel dato
per una questione di italiano, ovvero ha senso parlare di IPS quando ti riferisci a una istruzione? ha per me senso parlare di IPC
e quindi essendo per me sicuro un aumento di frequenza presumo prestazioni supriore (ipc e frequenza) al 10% indicato.
Rimane un mio parere, nulla più, aspetto nuovi input.

carlottoIIx6
06-02-2012, 01:22
cut

Immagino che questa sarà la situazione quando darà concluso il processo HSA.

Non dimentichiamoci che i processori x86 attuali (intel e amd) sono di fatto tutti RISC ed eseguono il codice x86 tramite il decoder che genera le mops (RISC) nel caso di AMD e le uops nel caso di Intel... quindi non vedrei nulla di strano se il decoder trasformasse le istruzioni x87, sse(n), avx(n) in istruzioni di stream processors...

e quindi che concludi?

B|4KWH|T3
06-02-2012, 01:29
Premettendo che le fpu (stream processors) delle gpu in genere gestiscono al max numeri in virgola mobile (float) a 64bit e quindi non sarebbero in grado di gestire dati x87 a 80bit e FMAC a 128bit...

...

Sono due cose diverse, gli standard sul formato dei dati sono fp32, fp64 (quelli supportati dalle GPU, non so se possano gestirne altri) e superiori

http://en.wikipedia.org/wiki/Floating_point#IEEE_754:_floating_point_in_modern_computers

Le SSE lavorano su ->vettori<- di 128 bit, mentre le AVX sono l'estensione delle SSE a vettori di 256 bit. Ovviamente il vettore è composta da PIU' dati.

Randa71
06-02-2012, 01:29
Premettendo che le fpu (stream processors) delle gpu in genere gestiscono al max numeri in virgola mobile (float) a 64bit e quindi non sarebbero in grado di gestire dati x87 a 80bit e FMAC a 128bit...

apportate le dovute implementazioni per gestire questo tipo di dati... per il resto gestiscono sufficientemente bene interi di diverse dimensioni in genere fino a 32 bit e float fino a 64 bit...

..

infatti alla fine il risultato dovrebbe essere quello previsto da entrambi: un APU che conterrà al suo interno tutta una serie di CU delle gpu, adattate, che faranno i calcoli, al posto o in aiuto alle classiche FPU x87 e/o unità degli interi, lavorando in parallelo...almeno così interpreto il progetto HSA e almeno così avrebbe senso...una fusione vera e propria appunto...

carlottoIIx6
06-02-2012, 01:55
Sono due cose diverse, gli standard sul formato dei dati sono fp32, fp64 (quelli supportati dalle GPU, non so se possano gestirne altri) e superiori

http://en.wikipedia.org/wiki/Floating_point#IEEE_754:_floating_point_in_modern_computers

Le SSE lavorano su ->vettori<- di 128 bit, mentre le AVX sono l'estensione delle SSE a vettori di 256 bit. Ovviamente il vettore è composta da PIU' dati.

faccio una ipotesi:
la FP di BD lavora a 256 bit x1 o 128bit x2.
perche non farne del tipo 64 bit x4...
che sia il modo con cui si faranno le FP con le GPU.
:D qui davvero ho fatto un volo pindalico per quel che sono le mie conoscenze in amteria.

digieffe
06-02-2012, 02:03
e quindi che concludi?

Che essendo tutto poggiato sul decoder hardware (comprese le x86) non dovrebbe essere troppo difficile sostituire qualsiasi parte della cpu/apu

(giusto per capirci sia intel core, che k10, che BD eseguono (più o meno) le stesse istruzioni ma hanno modi differenti per eseguirle ci pensa il decoder a convertirle per le relative unità di esecuzione)

digieffe
06-02-2012, 02:30
Sono due cose diverse, gli standard sul formato dei dati sono fp32, fp64 (quelli supportati dalle GPU, non so se possano gestirne altri) e superiori

http://en.wikipedia.org/wiki/Floating_point#IEEE_754:_floating_point_in_modern_computers

Le SSE lavorano su ->vettori<- di 128 bit, mentre le AVX sono l'estensione delle SSE a vettori di 256 bit. Ovviamente il vettore è composta da PIU' dati.

credo ci sia un equivoco: il formato dati fp32, fp64, "x87-80" e FMAC 128 (~fp128 o quad, non si chiama così lo so ma rende bene l'idea) sono dati scalari gestibili in questo caso dalla flexfp di BD (qui sto parlando di untà scalari fino a 128bit e non vettoriali)


che gli stream processors al momento possano gestire solo gli fp32 e fp64 l'avevo messo come premessa:Premettendo che le fpu (stream processors) delle gpu in genere gestiscono al max numeri in virgola mobile (float) a 64bit e quindi non sarebbero in grado di gestire dati x87 a 80bit e FMAC a 128bit...

apportate le dovute implementazioni per gestire questo tipo di dati... per il resto gestiscono sufficientemente bene interi di diverse dimensioni in genere fino a 32 bit e float fino a 64 bit...


(qui specifico le unità vettoriali)
Una vector unit di una CU (Compute unit) è costituita da 16 stream processors da 32 bit (fp32) per un totale di 512 bit ben oltre le sse e le avx inoltre quelste ultime hanno solo 16 registri mentre nelle unità vettoriali delle gpu i registri si contano in kbyte (giusto per capire che l'ordine è diverso), c'è anche da aggiungere che la CU è programmabile a differenza delle avx...

semplificando al max fatto salvo i tipi di dati non trattati dagli stream processors una unità elaborativa vettoriale di una gpu dovrebbe abbondantemtente poter svolgere il lavoro di una unità vettoriale classica es: avx

Ps: non ricordo come la unità vettoriale della gpu tratta le operazioni di "shuffle", quindi non so se può eseguirle in modo nativo o essendo programmabile lo può fare con una sequenza di istruzioni.

shellx
06-02-2012, 02:37
basta fare un esempio:
supponiamo di avere un ipc = 1 e di farlo girare ad un 1HZ.
ogni secondo la cpu fa una operazione.
supponiamo di avere un aumento ipc = 2 (aumento del 100%).
allora ogni secondo la cpu fa due operazioni.
quando devo aumentare la frequenza per avere due istruzioni a secondo con ipc=1?
se porto la frequnza a 2Hz (aumento del 100%) ottendo due operazioni:
cioè la cpu fa una operazione ogni mezzo secondo.

secondi ? Perchè secondi scusa, da cosa determini UN SECONDO ?
Quello è l'ips e no l'ipc.
Per te 1HZ = 1 secondo ? Ma che sei il padreterno dei numeri, ora attribuisci tu un valore x ad un valore y perchè ti piace a te ?

Vabbe dai basta chiudiamola altrimenti facciamo 200 pagine inutili e mi sono scocciato.

e quindi che concludi?

Le cpu hanno un architettura RISC ed hanno un decoder che utilizza uno strato di emulazione per tutte le istruzioni, compreso il codice di tipo CISC (x86).

Basta dare delle direttive differenti al decoder e puoi emulare anche la programmazione biancheria della tua lavatrice.

carlottoIIx6
06-02-2012, 02:45
secondi ? Perchè secondi scusa, da cosa determini UN SECONDO ?
Quello è l'ips e no l'ipc.
Per te 1HZ = 1 secondo ?
cut

questo DECISAMENTE no. un Hz ha come periodo un secondo (f=1/T).

per esempio 10 Hz, sono 10 cicli al secondo ovvero per fare un ciclo impiega 1/10 =0,1 sec.
così un Hz è un ciclo al secondo, per fare un ciclo impiega un secondo.

shellx
06-02-2012, 03:13
questo DECISAMENTE no. un Hz ha come periodo un secondo (f=1/T).

per esempio 10 Hz, sono 10 cicli al secondo ovvero per fare un ciclo impiega 1/10 =0,1 sec.
così un Hz è un ciclo al secondo, per fare un ciclo impiega un secondo.

esatto, ora dici giusto: al secondo e no un secondo
1hz= 1 evento in hertz ogni secondo
ma se abbiamo 100hz, in un secondo fara 100 eventi di hertz
e no che ci vogliono 100secondi
in 100 secondi con 100hz fai 10.000 cicli (100x100)
Ergo per ottenere in un solo secondo 10.000 cicli dovresti overcloccare questi 100hz in 10.000 HZ

Da questo concetto ora trasposta tutto sul discorso che facevi oggi su BD e il fatto di sopperire al mancato ipc con la frequenza e guarda quanta frequenza ti serve per recuperare l'ipc perduto.
Che poi ... bisogna capire qual'è l'essatta percentuale di ipc perduto, e pure se si venisse a conoscenza di tale percentuale bisognerebbe capire in dettaglio questa che decremento in valore di cicli ha subito.

Randa71
06-02-2012, 08:19
sensatissimo il discorso che sia il decoder cisc-risc ad occuparsi di adattare le istruzioni cisc alle 'nuove unita' (chiamiamole cosi') di esecuzione.....l'unica cosa e' vedere quante istruzioni risc delle nuove unita' ci vorranno per farne una cisc.....o se cmq un po' dovranno modificare le unita' gpu.....cmq la strada dovrebbe essere questa..

paolo.oliva2
06-02-2012, 08:33
non mi sembra cosi difficile riportare i dati corretti :rolleyes:
Non sarà difficile per te, che sei in Italia... io sono in Costa d'Avorio, connessione 2KB quando va bene, per visualizzare una pagina devo fare almeno 3 volte "ricarica"... devo per forza andare a memoria, e ho 48 anni e nella mia testa non ci sono solo i proci... se non sono sicuro, per correttezza lo scrivo.

e il tutto per 140 Watt di DTP, e non i 125 Watt dell'8150

In realtà sarebbero 137W e non 140W... ma il mio principio era quello di evidenziare che il TDP in BD aumenterebbe di più aumentando di 300MHz il clock che aggiungendo 1 modulo.

guardando gli Opteron, che hanno il silicio migliore, 8X 115W 3.0/3.3/3.6 GHz circa 28 Watt a modulo, togli i channel in piu, togliamo qualche watt di ottimizzazione e facciamo, ad andar bene, molto bene, nei 125 Watt riuscirebbero a malapena a presentare un X10 a 3.0 GHz def
In primis, non puoi ASSOLUTAMENTE fare un discorso di confronto tra clock def di Opteron e il loro TDP e da qui valutare il clock di un procio desktop.
A parità di TDP, gli Opteron HANNO SEMPRE AVUTO ALMENO 300MHz di clok inferiori rispetto alla stessa versione desktop, semplicemente perchè i parametri con cui si assegna il TDP ad una X frequenza per gli Opteron si basano su carichi e temp di funzionamento differenti.

In secondo luogo, il CMT con il TurboCore 2.0 in linea di massima permette o comunque dovrebbe permettere di arrivare ad una determinata frequenza massima con carico su 2 moduli o 4 moduli, indipendentemente dal numero dei moduli totali, ed il TurboCore 3.0 dovrebbe aggiungere la condizione di carico 1 modulo e magari 3 moduli.

In poche parole, a prescindere da quanti moduli totali potrebbe avere un BD, 10, 12, in ogni caso si comporterebbe come un 8150 con le stesse frequenze nel carico a 4 moduli o 2 moduli, quindi al limite l'unico limite sarebbe la frequenza massima nel funzionamento con n moduli senza superare il TDP nominale.

Il mio ragionamento non era e non è incentrato sul discorso che BD l'ha più lungo perchè in ogni caso l'aggiunta di moduli sarebbe relativamente facile, tra l'altro il fatto che sia un procio MODULARE lo direbbe già il nome, ma era un discorso di fondo, cioè che BD DEVE avere una frequenza maggiore per il discorso IPC iniziale e aggiungere moduli, aumlenterebbe si la potenza MT, ma i guadagni sarebbe percentualmente inferiori agli aumenti dei costi.
Il discorso consumo invece migliorerebbe, perchè supponendo che un 8150 sia 137W a 3,9GHz come X8, un BD X16 in quei 137W lavora ad una frequenza per cui i 16 core producono una potenza nettamente superiore con consumi inferiori.

@@@@@@

Rispondendo qui ma specificatamente anche per altri, bisogna fare un distinguo: come più volte è stato detto (da altri competenti), il silicio ha si un consumo esponenziale rispetto all'aumento di frequenza lavorativa, ma il consumo è legato anche all'FO4 dell'architettura.
BD ha un FO4 che sulla carta dovrebbe essere il più efficiente secondo gli studi fatti da IBM e similari. Se il silicio avesse un PP idoneo, questo si dovrebbe tradurre in una frequenza superiore a parità di TDP.

Non capisco perchè non lo si voglia capire... BD ha un FO4 idoneo a frequenze alte, l'architettura nell'insieme è propensa a clock alti.
Il delta del guadagno di BD doveva essere tra frequenza x IPC, visto che comunque i miracoli non si fanno, cioè che aumentare la frequenza e nel contempo aumentare l'IPC non puo' essere concesso dal silicio per chiunque.

Intel al momento è nella condizione di massima frequenza permessa dal 32nm che è ben rodato, su un'architettura che è al massimo dell'efficienza, con il 22nm prossimo.
Mi sembra indubbio che chiunque, per competere con Intel, debba avere un prodotto nell'insieme ottimo, e per prodotto intendo architettura e silicio.
Un 8150, obiettivamente, mi sembra anni luce distante sia dalla condizione di architettura completamente ottimizzata e sia per quella del silicio rodato.
Ora... mi sembra ASSOLUTAMENTE normale e lecito sperare in miglioramenti che, per massima, avrebbero un valore proporzionato a quanto perderebbe ora un 8150.
Il punto è che non sappiamo quantificare di quanto è al di sotto un 8150, ma di sicuro, e ne possiamo essere certi, l'8150 non rappresenta la massima espressione di architettura + silicio.

AceGranger
06-02-2012, 09:49
In realtà sarebbero 137W e non 140W...


sono 140 Watt. punto

lo dice AMD

http://products.amd.com/(S(h141d245ve1ms2rx2ptw4055))/pages/OpteronCPUDetail.aspx?id=756&f1=AMD+Opteron%e2%84%a2+6200+Series+Processor&f2=&f3=Yes&f4=&f5=&f6=G34&f7=B2&f8=32nm&f9=&f10=6400&f11=&


In primis, non puoi ASSOLUTAMENTE fare un discorso di confronto tra clock def di Opteron e il loro TDP e da qui valutare il clock di un procio desktop.
A parità di TDP, gli Opteron HANNO SEMPRE AVUTO ALMENO 300MHz di clok inferiori rispetto alla stessa versione desktop, semplicemente perchè i parametri con cui si assegna il TDP ad una X frequenza per gli Opteron si basano su carichi e temp di funzionamento differenti.


se non puo controllare i dati, evita di fare le solite affermazioni senza fondamento; forse ti ricorderai le frequenze delle versioni 6200, che sono piu basse ma per scelte di mercato per non sovrapporre le 2 classi di Opteron

A parita di TDP gli Opteron hanno PIU frequenza delle controparti desktop

AMD FX-8150 8 3.6GHz 8MB 125W
AMD FX-8120 8 3.1GHz 8MB 125W
Opteron 4284 8 3.3GHz 8MB 95W
AMD FX-8100 8 2.8GHz 8MB 95W
Opteron 4238 6 3.4GHz 8MB 95W
AMD FX-6100 6 3.3GHz 6MB 95W
AMD FX-4170 4 4.2GHz 4MB 125W

proprio perchè usano il silicio migliore;


Il mio ragionamento non era e non è incentrato sul discorso che BD l'ha più lungo perchè in ogni caso l'aggiunta di moduli sarebbe relativamente facile, tra l'altro il fatto che sia un procio MODULARE lo direbbe già il nome, ma era un discorso di fondo, cioè che BD DEVE avere una frequenza maggiore per il discorso IPC iniziale e aggiungere moduli, aumlenterebbe si la potenza MT, ma i guadagni sarebbe percentualmente inferiori agli aumenti dei costi.
Il discorso consumo invece migliorerebbe, perchè supponendo che un 8150 sia 137W a 3,9GHz come X8, un BD X16 in quei 137W lavora ad una frequenza per cui i 16 core producono una potenza nettamente superiore con consumi inferiori.


il problemna non è il tuo tragionamento, che è giusto, ma sono i calcoli e i numeri a caso che scrivi.

il TDP attuale è indecente, e quasi certamente i 2 progetti con 5 e 10 moduli sono stati eliminati per questo. Con Piledriver miglioreranno qualcosa, ma non tale da poter metttere sia moduli che frequenza, e ora come ora credo che gli serva piu la frequenza, anche se rimane un problema perchè la concorrenza aumentera sia frequenza che numero di core.


fine 2012 e inizio 2013 AMD avra serissimi problemi a coprire molte fascie

winebar
06-02-2012, 12:18
fine 2012 e inizio 2013 AMD avra serissimi problemi a coprire molte fascie

I problemi di resa oramai sono superati, IBM ha messo a disposizione di AMD una sua fabbrica a 32 nani, nel frattempo GF dovrebbe migliorare il pp che permettendo meno chip non funzionanti, quindi al massimo ci potrebbe essere una diminuzione del prezzo del chip singolo e una maggiore quantità di vendite (io un 8150 a 200/215 lo prenderei al volo per l'uso che faccio del PC).

In ogni caso a IBM conviene mettere a disposizione di AMD una fab, non tanto per le entrate che arriveranno, ma perchè una maggiore quantità di utili può permettere il miglioramento dei progetti delle CPU per le prossime console con possibili costi minori e identiche prestazioni (IBM produce cpu AMD per conto di Microsoft per la X360.

Randa71
06-02-2012, 12:31
io ci spero....IBM è un partner strepitoso per AMD.

@ Acegranger:
Fai paragoni che non stanno in piedi: stai paragonando (quando dici che il TDP attuale è indecente immagino ti riferisca al livello di performance/consumo di BD, in relazione a quello che offre la concorrenza, cioè un TDP minore con perf >) un'architettura nuova (BD) con un architettura strarodata (core) con una società che è 10 volte più grande e che ha tutto in casa...mi sembra che sia ovvio che il rapporto consumi/performance sia stra a favore di Intel...e visto che nessuno ha mai detto che BD è meglio dell'i7 (persino Paolo ha detto: "Un 8150, obiettivamente, mi sembra anni luce distante sia dalla condizione di architettura completamente ottimizzata e sia per quella del silicio rodato." stai ripetendo per la 300sima volta le solite cose trite, stratrite e ritrite....non sei stufo di continuare a ripeterle? Non è lecito pensare e sperare che le cose possano migliorare? eddai..

AceGranger
06-02-2012, 13:02
@ Acegranger:
Fai paragoni che non stanno in piedi: stai paragonando (in ambito di TDP) un'architettura nuova (BD) con un architettura strarodata (core) con una società che è 10 volte più grande...

:confused: io paragonavo i TDP di DB desktop e BD Server

no scusa, quotami le parti dove cito il TDP di intel


mi sembra che sia ovvio che il rapporto consumi/performance sia stra a favore di Intel...e visto che nessuno ha mai detto che BD è meglio dell'i7 stai ripetendo per la 300sima volta le solite cose trite, stratrite e ritrite....non sei stufo di continuare a ripeterle?

:mbe: anche qui, di grazia, dove avrei parlato di quello ?

sticavoli dei consumi e dell'efficienza, qui mancheranno proprio le CPU... cioè a ottobre proporranno solo un refresh delle frequenze e di IPC; se per il desktop sara sufficiente e potranno rivaleggiare con il 3770K, per la fascia Opteron sara un po magra la situazione...

B|4KWH|T3
06-02-2012, 13:08
credo ci sia un equivoco: il formato dati fp32, fp64, "x87-80" e FMAC 128 (~fp128 o quad, non si chiama così lo so ma rende bene l'idea) sono dati scalari gestibili in questo caso dalla flexfp di BD (qui sto parlando di untà scalari fino a 128bit e non vettoriali)


che gli stream processors al momento possano gestire solo gli fp32 e fp64 l'avevo messo come premessa:...

Quindi le SSE (e le AVX) possono gestire scalari con precisione fino a 128 bit (nel primo caso) e 256 bit (nel secondo) ? Ngulo

aldooo
06-02-2012, 13:29
io ci spero....IBM è un partner strepitoso per AMD.


Magari!

Certo che... mi è sorta una domanda!

Amd cosa fa nella vita?
I progetti (tra l'altro utilizzando programmi che piazzano automaticamente le robe) e basta? LOL

aldooo
06-02-2012, 13:39
Mi è sorta una seconda domanda.

Ci sono mille post in cui si sosteneva la superiorità di AMD per il SOI (che Sandy Bridge non ha)

Poi... mi pare di capire che AMD voglia abbandonare il SOI, mentre che Ivy Bridge sia SOI...

Come si spiega?

gianni1879
06-02-2012, 13:39
vediamo di darci una calmata, mi pare che il thread sta prendendo una brutta piega. Poi non dite che non siete stati avvisati.

mtk
06-02-2012, 13:43
Ngulo

:asd:

cit by austin power?

signori,amd oggi deve solo sperare che il cuoco non faccia ca--ate,che il progetto bd sia migliorabile mi pare ovvio,che venga cestinato mi pare un assurdita'...se il pp a 32 di gf non e' adatto lo vedremo non appena ibm sfornera le pizze a 32 per amd.

capitan_crasy
06-02-2012, 13:44
Magari!

Certo che... mi è sorta una domanda!

Amd cosa fa nella vita?
I progetti (tra l'altro utilizzando programmi che piazzano automaticamente le robe) e basta? LOL

http://www.xtremeshack.com/immagine/i134575_1311496546447.jpg

aldooo
06-02-2012, 13:47
[QUOTE=capitan_crasy;36869857[/QUOTE]

Nonostante le tue gif, continua a sembrarmi che AMD stia distribuendo la realizzazione dei propri prodotti ad altri... sbaglio?

capitan_crasy
06-02-2012, 14:02
Nonostante le tue gif, continua a sembrarmi che AMD stia distribuendo la realizzazione dei propri prodotti ad altri... sbaglio?

Andiamo aldo siamo in un thread ufficiale su AMD, un minimo di conoscenza sull'azienda e su quello che fa; e che cavolo!!!:rolleyes:

winebar
06-02-2012, 14:06
Nonostante le tue gif, continua a sembrarmi che AMD stia distribuendo la realizzazione dei propri prodotti ad altri... sbaglio?

Se proprio la metti così allora cosa fanno Nvidia, Apple e soprattutto ARM.
Credi che sia così semplice fare "solo" un progetto?
Anche se il progetto viene disegnato dalla macchina, il programma che fa lo schema deve comunque ricevere delle istruzioni dall'esterno su COME deve essere il progetto e COME deve farlo.
Per quanto possa non centrare dato che si tratta di tipi di progetti diversi, un paio di anni fa per un esame mi è toccato fare un progetto di un ristorante progettando TUTTO, locale, mobilio, attrezzature ecc... Non hai idea di quanto lavoro ti porta fare un piccolo progetto come quello senza riscontri reali e a livello scolastico, se non ricordo male ci abbiamo messo in due tutto il pomeriggio per circa un mese. superando le 200 ore uomo.
Figurati un progetto di quelle dimensioni che deve creare un riscontro economico non indifferente e deve avere un costo non eccessivo per poter offrire un rapporto prezzo/prestazioni migliore della concorrenza.

Randa71
06-02-2012, 14:07
discorso AVX:
tra l'altro tornando in OT, le AVX non ho mica ben capito come AMD le abbia implementate con BD, o meglio l'ho capito ma non mi tornano i conti. possibile che i programmi con le AVX siano + lenti di quelli con le SSE3??
spiego perchè: ieri ho scaricato Y-Cruncher e l'ultima versione contiene sia il programma con le AVX che il programma con le SSE 4 e 3 (nella sottodirectory bin).
Beh su BD la versione + veloce è quella con le SSE3. (con AVX 7.2sec, con SSE3 6.5sec)
Sarei curioso di vedere se qualcuno ha i7 come invece si comporta.
mi sono sembrate molto come le directx...che ogni versione nuova che esce è sempre + lenta della precedente...:D

qualcuno ha fatto delle prove in tal senso con i7? solo per capire se l'implementazione di BD delle AVX in FPU fa pena o se le istruzioni non sono adeguate al tipo di elaborazione prevista dal programma e quindi sono + lente (e quindi saranno + lente anche con i7)...nel senso che in quest'ambito specifico non portano benefici...
per quanto dai bench di sisoft sandra multimedia in virgola mobile il risultato sulle AVX è molto basso rispetto i7...
mentre invece il risultato AVX sugli interi è + alto rispetto a i7... se non ricordo male ma mi sembra così

questo il link
http://www.xtremesystems.org/forums/showthread.php?221773-New-Multi-Threaded-Pi-Program-Faster-than-SuperPi-and-PiFast

digieffe
06-02-2012, 14:10
Quindi le SSE (e le AVX) possono gestire scalari con precisione fino a 128 bit (nel primo caso) e 256 bit (nel secondo) ? Ngulo

NO!!!

a parte il fracesismo dell'ultima parola mi sa che interpreti male a causa delle idee non ben chiare...

rinuncio a spiegarti, se vuoi rileggiti i post che ho già scritto o fatti spiegare da qualcun altro... nel frattempo ti invito a capire cosa sia una fmac 128 bit (SCALARE!!!!)

Randa71
06-02-2012, 14:15
.......
Anche se il progetto viene disegnato dalla macchina, il programma che fa lo schema deve comunque ricevere delle istruzioni dall'esterno su COME deve essere il progetto e COME deve farlo.
......

oltre al fatto che, permettetemi di dubitare su quanto è stato scritto in giro, cioè che BD sia stato disegnato totalmente o quasi automaticamente.....
è solo una mia idea....invece con phenom avevano fatto tutto a mano?

B|4KWH|T3
06-02-2012, 17:29
NO!!!

a parte il fracesismo dell'ultima parola mi sa che interpreti male a causa delle idee non ben chiare...

rinuncio a spiegarti, se vuoi rileggiti i post che ho già scritto o fatti spiegare da qualcun altro... nel frattempo ti invito a capire cosa sia una fmac 128 bit (SCALARE!!!!)

...

Allora è come dicevo io dall'inizio :rolleyes:

gianni1879
06-02-2012, 18:43
B|4KWH|T3 sei sospeso 3gg, il tuo modo di rispondere non va bene assolutamente, anche in virtù delle parolacce +- velate.

tecno789
06-02-2012, 18:50
http://www.xtremeshack.com/immagine/i134575_1311496546447.jpg

la situazione è ampiamente descritta con questa immagine :)

Mister D
06-02-2012, 21:35
Ciao a tutti,
vorrei far notare una discrepanza nelle slide di amd che evidentemente, in questo mare di parole, non è balzata all'occhio.
http://www.hwupgrade.it/immagini/amd_afd_ultrathins_2.jpg
qua amd dice che i 2 moduli "piledriver" in trinity porteranno un aumento delle prestazioni fino al 25%. Cosa per altro già vista in altre slide postate dal capitano sull'altro thread.
http://www.xbitlabs.com/images/news/2011-10/amd_bulldozer_piledriver_performance_estimate.jpg
In questa invece dice che l'aumento di piledriver sarà del 10%.
Bè, direte voi: che c'è di strano? Sono due revision diverse (come spiegato da bjt2). Invece se andiamo a fare i calcoli qualcosa di strano c'è. Prendo cinebench perché mi viene più comodo e perché dimostra una certa linearità all'aumento di frequenza/core.
http://www.legitreviews.com/article/1766/9/
Da qua si vede che il FX4100 fa 2,97 e il 8150 fa 6,01 (un pelo più del doppio). L'A8 3850 fa 3.5.
Applichiamo gli aumenti indicati da amd facendo l'approssimazione che in cinebench si abbia il massimo beneficio (UP TO). Ipotetico FX 4xxx piledriver 2.97*1.1= 3.267 Ipotetico trinity A10 3.5*1.25=4.375. Bè ma come è possibile che sempre 2 moduli facciano in un caso 4,4 e nell'altro 3,3? Da quello che spiegava bjt2 i moduli "piledriver" dei futuri FX non dovrebbero avere, oltre la cache L3, anche altre migliorie rispetto a quelli integrati in trinity? Mi pare evidente che ci sia qualcosa che non va o mi sto perdendo qualcosa io? Vi faccio notare che il mio ragionamento non prende in considerazione se il 10% e il 25% siano di solo IPC, di sola frequenza, o una somma delle due e in quale misura. è forse qui che sbaglio?
Voi tutti che ne pensate?

ra-mta
06-02-2012, 21:51
Ciao a tutti,
vorrei far notare una discrepanza nelle slide di amd che evidentemente, in questo mare di parole, non è balzata all'occhio.
....

semplicemente non puoi fare un calcolo simile perchè l'aumento previsto è "pubblicizzato" e privo di riscontro reale, inoltre non sappiamo a cosa effettivamente si riferisca :) Delle discrepanze ci sono, ma non farei calcoli basandomi sulle slide, poi in amd son fantasiosi

sergio.p.
06-02-2012, 21:58
la discrepanza penso che sia in virtù dal fatto che questo 32nm aumenta in maniera esponenziale i consumi superata una certa frequenza al di sotto della quale ha consumi ben più bass, di conseguenza l'aumento di consumi non è lineare e magari si puo ottener un 35w a un frequenza che consente prestazioni del 25% superiori a un athlon 35w, ma superata questa permane il problema dell'aumento esponenziale di consumo e per rientrare nel tdp(95-125w) si ottiene un massimo del 10%di aumento...oppure sono silici diversi e consento no diverse frequenze (tutte ipotesi)

Mister D
06-02-2012, 22:02
semplicemente non puoi fare un calcolo simile perchè l'aumento previsto è "pubblicizzato" e privo di riscontro reale, inoltre non sappiamo a cosa effettivamente si riferisca :) Delle discrepanze ci sono, ma non farei calcoli basandomi sulle slide, poi in amd son fantasiosi

Ok, infatti il mio calcolo è fatto per mettere alla luce tali discrepanze. In un certo senso è anche una provocazione;) I calcoli che faccio per capire dove andranno a posizionarsi le future cpu, di solito partono sempre da slide, in attesa di avere il prodotto sul mercato ovviamente, e so benissimo che serviranno solo come via di massima senza nessuna pretesa di essere precisi. Tuttavia, un'idea la danno a meno di evidenti "balle da marketing" del produttore di turno. Solo che in questo caso, al di là che sia vero questo 10% e/o quel 25%, rimane il fatto che per me 2 moduli piledriver, anche se con revisioni diversi, dovranno fare circa lo stesso punteggio, dare la stessa prestazione. E da quelle slide la cosa non torna proprio. Mi sarei aspettato due percentuali che, facendo due conti del cavolo, avessero dato su per giù lo stesso risultato. Invece no. Ecco il perché del mio post.

capitan_crasy
06-02-2012, 22:05
Ciao a tutti,
vorrei far notare una discrepanza nelle slide di amd che evidentemente, in questo mare di parole, non è balzata all'occhio.
http://www.hwupgrade.it/immagini/amd_afd_ultrathins_2.jpg
qua amd dice che i 2 moduli "piledriver" in trinity porteranno un aumento delle prestazioni fino al 25%. Cosa per altro già vista in altre slide postate dal capitano sull'altro thread.
http://www.xbitlabs.com/images/news/2011-10/amd_bulldozer_piledriver_performance_estimate.jpg
In questa invece dice che l'aumento di piledriver sarà del 10%.
Bè, direte voi: che c'è di strano? Sono due revision diverse (come spiegato da bjt2). Invece se andiamo a fare i calcoli qualcosa di strano c'è. Prendo cinebench perché mi viene più comodo e perché dimostra una certa linearità all'aumento di frequenza/core.
http://www.legitreviews.com/article/1766/9/
Da qua si vede che il FX4100 fa 2,97 e il 8150 fa 6,01 (un pelo più del doppio). L'A8 3850 fa 3.5.
Applichiamo gli aumenti indicati da amd facendo l'approssimazione che in cinebench si abbia il massimo beneficio (UP TO). Ipotetico FX 4xxx piledriver 2.97*1.1= 3.267 Ipotetico trinity A10 3.5*1.25=4.375. Bè ma come è possibile che sempre 2 moduli facciano in un caso 4,4 e nell'altro 3,3? Da quello che spiegava bjt2 i moduli "piledriver" dei futuri FX non dovrebbero avere, oltre la cache L3, anche altre migliorie rispetto a quelli integrati in trinity? Mi pare evidente che ci sia qualcosa che non va o mi sto perdendo qualcosa io? Vi faccio notare che il mio ragionamento non prende in considerazione se il 10% e il 25% siano di solo IPC, di sola frequenza, o una somma delle due e in quale misura. è forse qui che sbaglio?
Voi tutti che ne pensate?

Mi spiace dirtelo ma non sarà così...
Nella prima slide quel +25% ha un numerino (3) e questa è la sua didascalia:
http://www.xtremeshack.com/immagine/i134667_screenhunter-04.jpg
Lo ripeto NON aspettatevi miracoli con Piledriver per quanto riguarda IPC, bisogna sperare che il silicio sia nettamente migliore...

Mister D
06-02-2012, 22:11
Mi spiace dirtelo ma non sarà così...
Nella prima slide quel +25% ha un numerino (3) e questa è la sua didascalia:
http://www.xtremeshack.com/immagine/i134667_screenhunter-04.jpg
Lo ripeto NON aspettatevi miracoli con Piledriver per quanto riguarda IPC, bisogna sperare che il silicio sia nettamente migliore...

Grazie capitano. Mi ero perso la didascalia che dà la spiegazione alla mia discrepanza. Sono d'accordo con te che non ci si può aspettar miracoli da piledriver per quanto riguarda l'IPC e che la migliore nostra speranza (e loro arma, intendo di AMD) sia di migliorare nettamente il silicio in modo che ne sia valsa la pena aver puntato su una cpu con un FO4 di 17. Cmq nel mio post non mi riferivo assolutamente né all'IPC né alla frequenza per quegli aumenti percentuali. Il mio era una ragionamento generale su quei due dati e mi ero perso la nota (3).;)

tupablo
06-02-2012, 22:15
ciao a tutti.

mi è stato consigliato di scrivere qui visto che è il topic ufficiale degli FX.

io avrei un problema col mio 4100 per quanto riguarda la rilevazione della temperatura.

se potete darmi una mano questo è il link della discussione che ho aperto --> http://www.hwupgrade.it/forum/showthread.php?t=2442354

grazie :)

shellx
06-02-2012, 22:31
Sembri che il pp per le cpu FX rimanga nelle mani di GF.
Ad IBM verràa affidato l'incarico per un 32nm dedicato alle apu.

Questo spiega che ad amd gli urge molto di piu le apu e il suo occhio è su esse.
Leggendo il notevole articolo pubblicato da hardware upgrade:
http://www.businessmagazine.it/articoli/3124/il-futuro-di-amd-focus-su-server-e-client-con-lo-sguardo-alle-architetture-ibride_index.html
(che come al solito quando sono made in hwupgrade o made xtreme hardware li trovo sempre puri e genuini rispetto tom's che è pro intel),mi sono reso conto che parlando delle cpu amd top di gamma, la stessa hardware upgrade sostiene che amd non esce da questo mercato, ma semplicemente smette di fare la guerra con Intel.
Ora mi chiedo: la guerra con Intel ha smesso di farla gia da molti anni, si da il caso che la fascia alta di amd fa guerra con la fascia mainstream di intel. Quindi se con "la guerra è finita" intedono la guerra contro la fascia enthusiast di intel, è chiaro che non è finita adesso, anzi pensandoci non ci è mai realmente stata.
Con questo cosa voglio dire ?
Hardware Upgrade si riferiva alla guerra contro la fascia enthusiast di intel (che con bulldozer doveva recuperare e cosi non è stato), o si riferisce alla guerra anche contro la fascia mainstream di intel ? (tra l'altro quello che è gia adesso cosi e da anni).

Fino al 2013 amd avra l'fx piledriver in fascia alta delle cpu, chiaramente perchè è concentrata su altro, vediamo anche che il pp lo lascia in mano gf per queste cpu, mentre per le apu switcha tutto ad ibm. Dopo il 2013 rimane il mistero: evolverà le cpu top di gamma con il 28nm o inferiore, e continuerà una timida lotta con la mainstream di intel (come è gia adesso e da anni), o non vuole nemmeno piu competere con la fascia media di intel ( come fa adesso) e vuole solo roba da fascia entrylevel ?

Non mi pare che abbia mai fatto una vera guerra contro la fascia enthusiast, per cui mi domando che razza di guerra è finita ? Solo perchè per due anni lascia piledriver mentre aggiorna le apu ? Ho avuto modo di capire che lo ha gia fatto in passato.
E consideriamo anche che fara lo stesso per gli opteron...forse vuole invece concentrarsi sulle apu che piu gli danno utili e nel frattempo andare con i piedi di piombo sulle fasce piu alte ? per vitarsi una ulteriore figura poco piacevole ?

Secondo me la guerra non è finita, o meglio la guerra contro la fascia mainstream[alta] di intel (es: 2600k e similari).

La guerra contro la fascia enthusiast di intel (1366/2011) è finita dal 2006 e qualcosa prima.

Una cosa è certa: che amd abbandona la fascia (sua enthusiast) non è vero, molte voci perfino l'articolo lo smentisce. Semplicemente non si ammazzerà piu di tanto come faceva prima e come ha sperato con bulldozer di raggiungere le performance dei socket enthusiast di intel, ma si accontentera di continuare a competere con sandy ed ivy bridge socket mainstraeam alti, e tutto cio che è inferiore come fascie. Tutto questo in contorni sia CPU che APU.

Mi piacerebbe condiviedere pareri con voi su questo aspetto, visto che sono argomenti che centrano al 100% con il thread.
Cosi evitiamo anche di fare dialoghi che vedo che vanno molte volte OT (anche da parte mia).

paolo.oliva2
06-02-2012, 22:39
Ok, infatti il mio calcolo è fatto per mettere alla luce tali discrepanze. In un certo senso è anche una provocazione;) I calcoli che faccio per capire dove andranno a posizionarsi le future cpu, di solito partono sempre da slide, in attesa di avere il prodotto sul mercato ovviamente, e so benissimo che serviranno solo come via di massima senza nessuna pretesa di essere precisi. Tuttavia, un'idea la danno a meno di evidenti "balle da marketing" del produttore di turno. Solo che in questo caso, al di là che sia vero questo 10% e/o quel 25%, rimane il fatto che per me 2 moduli piledriver, anche se con revisioni diversi, dovranno fare circa lo stesso punteggio, dare la stessa prestazione. E da quelle slide la cosa non torna proprio. Mi sarei aspettato due percentuali che, facendo due conti del cavolo, avessero dato su per giù lo stesso risultato. Invece no. Ecco il perché del mio post.

Potrebbe essere un "incrocio" di risultati... premetto che non ho visto le slide e quindi non so come possono essere valutati questo +10%/+25%.

Secondo me... ma non voglio sollevare un vespaio, se Trinity lavorasse ad una frequenza inferiore rispetto ad un BD X4, AMD per far apparire Trinity superiore, l'unico modo sarebbe il confronto sull'IPC.
Invece sarebbe nettamente differente nel caso Piledriver concedesse frequenze maggiori rispetto all'8150, perchè in questo caso confrontare il solo IPC sarebbe lesivo, e sarebbe meglio commercialmente pubblicizzare Piledriver X8 è dell'X% più potente di un 8150.
Sempre considerando che l'aumento non sarebbe una media ma "fino al", un Piledriver a clock def 3,9GHz, cioè +300MHz rispetto all'8150, con un +10% di IPC, porterebbe l'aumento superiore al 19%... Quindi per un +25% dovrebbe avere un clock def circa sui 4,2GHz... :eek: mi sembrano troppini.

Per il fatto che un BD X8 conceda più del doppio in Cinebench rispetto ad un BD X4, non è una novità, in quanto già un Thuban X6 concede più del +50% rispetto ad un Phenom II X4, nei miei test.

papafoxtrot
06-02-2012, 22:39
Una news di Xbitlabs dice che AMD ha delegato parte della produzione di Trinity a...










IBM.

In sostanza il processo è ovviamente lo stesso, e possono così sfruttare una maggiore capacità produttiva.

paolo.oliva2
06-02-2012, 22:57
@AceGanger

Guarda che il discorso di un BD X10 l'ho tirato fuori contestando chi diceva che avrebbe migliorato la situazione nel desktop... io ho detto che se fosse anche possibile per il TDP ad una frequenza di poco inferiore, sarebbe una zappa sui piedi nel desktop.
Il senso è che se il silicio non migliora, lasciando a parte il TurboCore 3.0, avremmo un procio che costerebbe il 25% in più di un 8150 (valutando unicamente approssimativamente l'aumento del die), con performances uguali a quelle di un 8150 con solamente UN MASSIMO del +20% in MT ad esempio con Cinebench (si X10, ma ad una frequenza inferiore).

Ora... che un BD X10 possa avere una frequenza di 3,3GHz (come ho scritto io) o di 3GHz massimi come hai scritto te, mi dici che importanza avrebbe quando nel mio discorso sottolineavo che un X10 a 3,3GHz avrebbe un aumento di performances inferiore rispetto all'aumento del costo, oltretutto solamente nell'MT cosa che non riflette l'esigenza desktop?

Permettimi questa battuta... è unicamente ironica, nessuna cattiveria.
Cioè... capisco che mi dai contro quando tocco Intel, ma ci hai preso talmente l'abitudine che mi dai contro anche quando parlo contro AMD? :D

paolo.oliva2
06-02-2012, 23:13
Una news di Xbitlabs dice che AMD ha delegato parte della produzione di Trinity a...

IBM.

In sostanza il processo è ovviamente lo stesso, e possono così sfruttare una maggiore capacità produttiva.

Guarda, partendo dal concetto che è praticamente impossibile fare peggio di GF, le cose possono solamente andare meglio se comunque le mani in un modo o nell'altro ce le mette anche IBM, se non altro, un qualche interesse dietro l'ha, visto che gli Opteron AMD li affianca ai suoi proci nei sistemi...

Tra l'altro... credo che sia naturale per ogni catena, durante la produzione "normale", fare delle infornate leggermente differenti nelle procedure di trattamento silicio. Di per sè, avere una catena implica dei tempi, 2 catene comunque ridurrebbe i tempi di sviluppo. Poi è chiaro che se si arrivasse a dei guadagni, le informazioni sarebbero condivise. Quindi, in ogni caso, anche partendo da un silicio perfettamente uguale, un certo vantaggio arriverebbe comunque.

Sinceramente la cosa che mi ha deluso di più, è sto cacchio di silicio.
A parità di core attivi, 2 per un Thuban e 2 per un 8150, io ho guadagnato solamente 250MHz in OC... cioè SOLAMENTE il 5,2%... forse lo si potrebbe ottenere con uno degli ultimi Thuban prodotti, con migliore affinità. Alla faccia 45nm SOI lk vs 32nm SOI HKMG ULK. Praticamente, se il 65nm era riuscito male rispetto al 90nm a suo tempo, questo 32nm sarebbe pure peggio.

Randa71
06-02-2012, 23:36
ciao a tutti.

mi è stato consigliato di scrivere qui visto che è il topic ufficiale degli FX.

io avrei un problema col mio 4100 per quanto riguarda la rilevazione della temperatura.

.... :)

come ti dissi, non devi guardare la CPU0 che è quella che scende a 9 o meno (a me è a 10 ma non sono in una cella frigorifera) ma quella indicata dalla scheda madre..non è un problema specifico della tua CPU. sono tutte così.
il valore che leggi all'interno della CPU è un offset rispetto a certi valori e non rispetta la reale temp....per quella fidati di quanto ti dice la scheda madre...scaricati hwinfo e lo vedrai
uno stralcio da coretemp:
"Why is the temperature of my Phenom based processor lower than the ambient temperature?"
Starting with the Phenoms, AMD's digital sensor no longer reports an absolute temperature value anymore, but a reading with a certain offset, which is unknown. It is estimated that this offset is between 10 - 15c."

Per quanto con gli FX in load la temp è quasi uguale alla temp rilevata dalla scheda madre. perchè la temp ha senso quando la cpu è in load perchè è lì che si genera maggior calore...non quando è in idle, prchè trai vari risparmi energetici e il resto di calore non se ne produce o perlomeno non tale da creare problemi....perchè il monitoring delle temp serve proprio per evitare che si fumi il tutto...


http://i40.tinypic.com/335fhmx.jpg

AceGranger
06-02-2012, 23:38
Permettimi questa battuta... è unicamente ironica, nessuna cattiveria.
Cioè... capisco che mi dai contro quando tocco Intel, ma ci hai preso talmente l'abitudine che mi dai contro anche quando parlo contro AMD? :D

no mi piacciono solo i numeri giusti indipendentemente da cosa o chi si va contro; e i tuoi post sarebbero molto piu interessanti se fossero fatti con i conti giusti ! :flower:


Sinceramente la cosa che mi ha deluso di più, è sto cacchio di silicio.


credo che la prova la avremo con trinity, perchè se sara fatto con il silicio di IBM dubito che dara gli stessi risultati di quello di GF;

Randa71
06-02-2012, 23:50
.....credo che la prova la avremo con trinity, perchè se sara fatto con il silicio di IBM dubito che dara gli stessi risultati di quello di GF;

però dicono che IBM dovrebbe fare solo le APU, per adesso, ..cmq li si vedranno i consumi e le temp delle APU con PD...può essere un buon banco di prova e sono contento che si avvalga di IBM

shellx
06-02-2012, 23:52
Guarda, partendo dal concetto che è praticamente impossibile fare peggio di GF, le cose possono solamente andare meglio se comunque le mani in un modo o nell'altro ce le mette anche IBM, se non altro, un qualche interesse dietro l'ha, visto che gli Opteron AMD li affianca ai suoi proci nei sistemi...

Tra l'altro... credo che sia naturale per ogni catena, durante la produzione "normale", fare delle infornate leggermente differenti nelle procedure di trattamento silicio. Di per sè, avere una catena implica dei tempi, 2 catene comunque ridurrebbe i tempi di sviluppo. Poi è chiaro che se si arrivasse a dei guadagni, le informazioni sarebbero condivise. Quindi, in ogni caso, anche partendo da un silicio perfettamente uguale, un certo vantaggio arriverebbe comunque.

L'interesse di ibm proviene anche dal fatto, che produrrè il 32nm per trinity di amd sia utile no per massimi utili di guadagno, ma per poter comunque avere la possibilità di proporre proposte amd, destinandole a microsoft per le console xbox360. Visto il vantaggio in termini di gpu integrata che hanno le apu rispetto la controparte.

Voglio tuttavia ribadire che la produzione del 32nm per cpu di fascia alta (FX) e per gli opteron continuerà a farla GF.
Ad ibm è stata solo affidata per trinity e future apu.

Non riesco a capire (apu a parte) che guadagni voi vedete su quello che concerne le cpu FX e gli Opteron.
L'unico vantaggio che le cpu FX posso avere da ora fino al 2013 sarà dato solo dall'affinamento di silicio 32nm prodotto da GF.
Questo è l'unico elemento sulla quale sperare.
Ma io personalmente la vedo ardua la cosa. E amd la vede ancora piu ardua di me, ecco perchè per la sua amata fascia che piu ci tiene (mainstream apu trinity) ha deciso di affidarla ad IBM.
Vi siete chiesti perchè non ha fatto los tesso per le cpu fx, o perchè non ha continuato ad usare il 32nm di GF anche per le apu ?

Forse perchè sa che fa talmente schifo e non vuole compromettere anche trinity (che ci tiene in maniera particolare) dopo bulldozer ?
Per l'FX non gli e ne fotte niente, ormai è compromesso.
Se gli dar aun occhio di riguardo lo fara solo dopo aver sistemato al situazione trinity, lo fara finire con GF, dopodiche (dopo 2013) con il 28nm si vedra se continuera con GF o si fara fare da IBM ancche questo ed anche per gli FX.


Sinceramente la cosa che mi ha deluso di più, è sto cacchio di silicio.
A parità di core attivi, 2 per un Thuban e 2 per un 8150, io ho guadagnato solamente 250MHz in OC... cioè SOLAMENTE il 5,2%... forse lo si potrebbe ottenere con uno degli ultimi Thuban prodotti, con migliore affinità. Alla faccia 45nm SOI lk vs 32nm SOI HKMG ULK. Praticamente, se il 65nm era riuscito male rispetto al 90nm a suo tempo, questo 32nm sarebbe pure peggio.

Bingo ! ! !

Migliori pp: 90nm - 45nm - si spera 28nm

tupablo
06-02-2012, 23:54
come ti dissi, non devi guardare la CPU0 che è quella che scende a 9 o meno (a me è a 10 ma non sono in una cella frigorifera) ma quella indicata dalla scheda madre..non è un problema specifico della tua CPU. sono tutte così.
il valore che leggi all'interno della CPU è un offset rispetto a certi valori e non rispetta la reale temp....per quella fidati di quanto ti dice la scheda madre...scaricati hwinfo e lo vedrai
uno stralcio da coretemp:
"Why is the temperature of my Phenom based processor lower than the ambient temperature?"
Starting with the Phenoms, AMD's digital sensor no longer reports an absolute temperature value anymore, but a reading with a certain offset, which is unknown. It is estimated that this offset is between 10 - 15c."
per quanto con gli FX in load la temp è quasi uguale alla temp rilevata dalla scheda madre. perchè la temp ha senso quando la cpu è in load perchè è lì che si genera maggior calore...non quando è in idle, prchè trai vari risparmi energetici e il resto di calore non se ne produce.


http://i40.tinypic.com/335fhmx.jpg

in aida64 sotto le voci delle temp dei core c'è un'altra voce con scritto "Aux"..che sia quella la temp totale da prendere in considerazione??

Randa71
06-02-2012, 23:59
in aida64 sotto le voci delle temp dei core c'è un'altra voce con scritto "Aux"..che sia quella la temp totale da prendere in considerazione??

aida64
http://i42.tinypic.com/23m1o1s.jpg
la seconda voce...che scheda madre hai?
prova hwinfo

capitan_crasy
07-02-2012, 00:08
Sinceramente la cosa che mi ha deluso di più, è sto cacchio di silicio.
A parità di core attivi, 2 per un Thuban e 2 per un 8150, io ho guadagnato solamente 250MHz in OC... cioè SOLAMENTE il 5,2%... forse lo si potrebbe ottenere con uno degli ultimi Thuban prodotti, con migliore affinità. Alla faccia 45nm SOI lk vs 32nm SOI HKMG ULK. Praticamente, se il 65nm era riuscito male rispetto al 90nm a suo tempo, questo 32nm sarebbe pure peggio.

Ricordi male caro paolo (e la cosa mi preoccupa:stordita: ), perchè i 65nm oltre la scarsità del silicio anche per i semplici K8, c'erano una valanga di BUG di medio/alto livello; almeno questi 32nm non presentano errate penalizzanti...

shellx
07-02-2012, 00:09
però dicono che IBM dovrebbe fare solo le APU, per adesso, ..cmq li si vedranno i consumi e le temp delle APU con PD...può essere un buon banco di prova e sono contento che si avvalga di IBM

Io dico che amd non affiderà mai le cpu di fascia alta ad ibm. Non rientra nei suoi interessi.
Secondo me dopo la pessima figura con BD per colpa del pp di GF, ha voluto solo salvaguardare quello che a lei è piu caro (le APU), ergo affidando trinity ad ibm per non fargli fare la fine di BD.
Vuole solo che trinity abbia un 32nm diverso da quello di GF, perchè vuole fare la differenza di piledriver.
Ossia ragazzi piledriver su trinity potrebbe essere anche superiore del piledriver di FX, proprio grazie ad un pp migliore di ibm.
Aspettatevi anche questa cosa.
E amd vuole che tutto funzioni bene sulle apu. Ecco perchè gli ha sottrato trinity dalle mani di GF.

;)

tupablo
07-02-2012, 00:17
aida64
http://i42.tinypic.com/23m1o1s.jpg
la seconda voce...che scheda madre hai?
prova hwinfo

io quella voce del processore non ce l'ho. sotto a "scheda madre" inizia con i core del processore e dopo il 4 core c'è sto fantomatico "Aux" che rapportato alla tua immagine in quanto alla differenza di temperatura dai core potrebbe essere la voce "Processore".

la scheda madre è una asus M5A78L-M/USB3

Randa71
07-02-2012, 00:27
io quella voce del processore non ce l'ho. sotto a "scheda madre" inizia con i core del processore e dopo il 4 core c'è sto fantomatico "Aux" che rapportato alla tua immagine in quanto alla differenza di temperatura dai core potrebbe essere la voce "Processore".

la scheda madre è una asus M5A78L-M/USB3

prova hwinfo o hwmonitor di cpuid

Randa71
07-02-2012, 00:30
Io dico che amd non affiderà mai le cpu di fascia alta ad ibm. Non rientra nei suoi interessi.
Secondo me dopo la pessima figura con BD per colpa del pp di GF, ha voluto solo salvaguardare quello che a lei è piu caro (le APU), ergo affidando trinity ad ibm per non fargli fare la fine di BD.
Vuole solo che trinity abbia un 32nm diverso da quello di GF, perchè vuole fare la differenza di piledriver.
Ossia ragazzi piledriver su trinity potrebbe essere anche superiore del piledriver di FX, proprio grazie ad un pp migliore di ibm.
Aspettatevi anche questa cosa.
E amd vuole che tutto funzioni bene sulle apu. Ecco perchè gli ha sottrato trinity dalle mani di GF.

;)

ma se veramente il silicio IBM è così migliore di quello di GF (cosa che credo come voi), perchè non farne beneficiare anche agli FX? ok che sono in secondo piano,ma degli FX che consumano meno e hanno clock + alto potrebbero venderli..o no?insomma io ci proverei :D a meno che il passaggio da GF a IBM comporti qualcosa nel disegno della CPU o i costi che può applicare IBM per costruire un FX siano molto + alti rispetto a GF..ma questo non lo so. e cmq guarda che di BD ne vendono...era uscita la notizia un po' di tempo fa...quindi che BD sia bruciato io non ne sarei così sicuro..e potrebbe sempre portare soldi nelle casse di AMD..oltre il fatto che BD clocckato a 4.2 su tutti i core sempre è una signora CPU per 240€...credimi


cmq la scimmia su trinity, per tutta una serie di motivi, sta salendo sempre + :D:D:D:D:D

tupablo
07-02-2012, 00:47
prova hwinfo o hwmonitor di cpuid

in hwinfo non ho la voce "motherboard" e "CPU" ma "Temperature 1" e "Temperature 2"

così come in hwmonitor nell'elenco dei valori della scheda madre ci sono 2 temperature con scritto TMPIN0 e TMPIN1, nelle ventole ci sono invece FANIN0 e FANIN1 dove la prima corrisponde alla ventola del processore.

a questo punto mi chiedo se TMPIN0 sia quella totale del processore..giusto?

carlottoIIx6
07-02-2012, 00:48
ma se veramente il silicio IBM è così migliore di quello di GF (cosa che credo come voi), perchè non farne beneficiare anche agli FX? ok che sono in secondo piano,ma degli FX che consumano meno e hanno clock + alto potrebbero venderli..o no?insomma io ci proverei :D a meno che il passaggio da GF a IBM comporti qualcosa nel disegno della CPU o i costi che può applicare IBM per costruire un FX siano molto + alti rispetto a GF..ma questo non lo so. e cmq guarda che di BD ne vendono...era uscita la notizia un po' di tempo fa...quindi che BD sia bruciato io non ne sarei così sicuro..e potrebbe sempre portare soldi nelle casse di AMD..oltre il fatto che BD clocckato a 4.2 su tutti i core sempre è una signora CPU per 240€...credimi


cmq la scimmia su trinity, per tutta una serie di motivi, sta salendo sempre + :D:D:D:D:D
secondo me vi stata sbagliando, il silicio a 32 nm è stato sviluppato da imb insieme ad amd e GF, e quindi lo stesso. Ibm da solo un apposggio logistico consentendogli volumi superiori.
il silicio di trinity e pildedrive secondo me sarà migliore di quello attuale chiunque lo produca.

Randa71
07-02-2012, 00:51
in hwinfo non ho la voce "motherboard" e "CPU" ma "Temperature 1" e "Temperature 2"

così come in hwmonitor nell'elenco dei valori della scheda madre ci sono 2 temperature con scritto TMPIN0 e TMPIN1, nelle ventole ci sono invece FANIN0 e FANIN1 dove la prima corrisponde alla ventola del processore.

a questo punto mi chiedo se TMPIN0 sia quella totale del processore..giusto?
direi di si..cm fai una prova...lancia uno stress test sulla cpu e vedi se sale la temp...se sale abbastanza velocemente è lei al 90% :D

tupablo
07-02-2012, 01:23
direi di si..cm fai una prova...lancia uno stress test sulla cpu e vedi se sale la temp...se sale abbastanza velocemente è lei al 90% :D

si è lei che sale e anche troppo! ho fermato il test a 65° :eek: la ventola non ha intenzione di girare! :confused: :confused:

frequenza di base di 3,6 Ghz con dissipatore amd.

inoltre il piccolo dissipatore della scheda madre diventa rovente durante il test.

wolverine
07-02-2012, 01:27
si è lei che sale e anche troppo! ho fermato il test a 65° :eek: la ventola non ha intenzione di girare! :confused: :confused:

frequenza di base di 3,6 Ghz con dissipatore amd.

inoltre il piccolo dissipatore della scheda madre diventa rovente durante il test.

I valori TMPIN0, TMPIN1 e TMPIN2 in genere sono il northbridge, il southbridge e i mosfet della mobo.

Il dissi amd non è una figata, ma con la temp esterna sottozero avere 65°C è quasi assurdo, sopratutto se hai tutto a default, quindi o la mobo sballa o hai montato male il dissi.

tupablo
07-02-2012, 01:39
I valori TMPIN0, TMPIN1 e TMPIN2 in genere sono il northbridge, il southbridge e i mosfet della mobo.

Il dissi amd non è una figata, ma con la temp esterna sottozero avere 65°C è quasi assurdo, sopratutto se hai tutto a default, quindi o la mobo sballa o hai montato male il dissi.

non avendo una temperatura generale per la cpu mi puoi dire dove posso sbattere la testa a parte così --> :muro: ??

ora ricontrollo il dissipatore...

edit: niente da fare..ho smontato il dissipatore, ricambiato pasta termica, rimesso il dissipatore ma stavolta cambiando verso anche se non sembra cambiato niente in quanto la base è quadrata (offendetemi pure se ho detto una cavolata colossale) le temperature salgolo cmq alle stelle!!

shellx
07-02-2012, 02:24
ma se veramente il silicio IBM è così migliore di quello di GF (cosa che credo come voi), perchè non farne beneficiare anche agli FX? ok che sono in secondo piano,ma degli FX che consumano meno e hanno clock + alto potrebbero venderli..o no?insomma io ci proverei :D a meno che il passaggio da GF a IBM comporti qualcosa nel disegno della CPU o i costi che può applicare IBM per costruire un FX siano molto + alti rispetto a GF..ma questo non lo so. e cmq guarda che di BD ne vendono...era uscita la notizia un po' di tempo fa...quindi che BD sia bruciato io non ne sarei così sicuro..e potrebbe sempre portare soldi nelle casse di AMD..oltre il fatto che BD clocckato a 4.2 su tutti i core sempre è una signora CPU per 240€...credimi


cmq la scimmia su trinity, per tutta una serie di motivi, sta salendo sempre + :D:D:D:D:D

Ho avuto modo di capire che amd non ha intenzione di uscire dal mercato di cpu top di gamma, ma semplicemente (almeno fino al 2013) non dichiarerà più dalle slide la volontà di voler raggiungere la controparte.
Ora la mia domanda è: questa sua volontò è inerente a non voler piu raggiungere la controparte in fascia enthusiast (socket 2011) o non voler nemmeno piu competere con il socket 1155 quindi la fascia mainstream alta ?

Perchè se la sua volontà è la prima, non capisco dovè la novità, da 6 anni a questa parte e pure piu non è riuscita a superare il top della fascia mainstram di intel.
Forse la novità è che non ci provera piu a raggiungere la fascia enthusiast di Intel, perchè provandoci non ci è riuscita e ha capito che oltre la mainstream non riesce piu a salire. Per cui continuerà con questa strada e quindi ad evolvere la SUA fascia enthusiast ma solo per contrapporla alal fascia mainstream di intel.

Io sta cosa non l'ho mica capita.
AMD ha una sua fascia enthusiast, che ha cercato fino ad oggi di renderla competitiva con l'analoga fascia di Intel, non ci è riuscita, arrivando al top della fascia mainstream di Intel.

Cosa vuol fare adesso ? Continuare cosi, cambiare nome alla fascia, farla scomparire.

Cioè nelle fascie amd, comunque sotto FX ci sono le APU, per cui si da ilc aso che il suo enthusiast rimane sempre sopra le APU, queste occupano gia la fascia mainstream (che hanno prestazioni x86 pari alla fascia entry level di intel), da questo capisco che continuerà ad evolvere gli FX ma non dichiarerà piu la volonta di voler combattere contro la enthusiast di Intel, visto che ha fallito.
Beh se questa è la novità, tale novità la viviamo dal 2006.
Non la vedo una cosa tragica.
L'importante è che non abbandoni la su ENTHUSIAST, perchè anche se meno della fascia enthusiast di Intel, quanto meno il top alto di amd potrebbe essere una alternativa prezzo/prestazioni (come è il suo cavallo di battaglia) contro il top della fascia mainstream di Intel (vedi 2500/2600k).

edit: niente da fare..ho smontato il dissipatore, ricambiato pasta termica, rimesso il dissipatore ma stavolta cambiando verso anche se non sembra cambiato niente in quanto la base è quadrata (offendetemi pure se ho detto una cavolata colossale) le temperature salgolo cmq alle stelle!!

cambia dissi e prendi un aftermarket pure da 25 euro...sarai comunque in un altro pianeta rispetto quel giocattolino che mette in box con la cpu amd
comunque penso che il sensore della tua mobo che rileva la temp della cpu sia un po bugiardo...

tupablo
07-02-2012, 02:43
cambia dissi e prendi un aftermarket pure da 25 euro...sarai comunque in un altro pianeta rispetto quel giocattolino che mette in box con la cpu amd
comunque penso che il sensore della tua mobo che rileva la temp della cpu sia un po bugiardo...

ma anche cambiando dissipatore avrei lo stesso problema delle temperature sballate no? cioè non avrei alcun punto di riferimento su cui basarmi e confrontare..se il problema è il sensore cosa potrei fare? a parte cambiare scheda madre..

shellx
07-02-2012, 03:09
ma anche cambiando dissipatore avrei lo stesso problema delle temperature sballate no? cioè non avrei alcun punto di riferimento su cui basarmi e confrontare..se il problema è il sensore cosa potrei fare? a parte cambiare scheda madre..

soluzione 1= compri un lettore termico con sensore termico, metti il sensore vicino alla cpu e ti leggi la temp.

soluzione2= rheobus, vendono periferiche che si mettono nell'allogio al posto di un lettore dvd si chiamano rheobus (come se fosse uno stereo di automobile), hanno un display davanti (gli ultimi danno anche altri tipi di valori). Dietro hanno un sensore termico, l'ho metti sull'HIS della cpu fra il dissipatore e la cpu.
E hai 24 su 24 monitorata la temp.
Chiaramente non è l'unica cosa che fa un rheobus, puoi programmare anche le ventole e monitorare le temp di altre periferiche in quanto di sensori dietro al rheobus ne escono piu di uno. Dipende dal rehoubs che compri.

soluzione3= cambi mobo (io l'ha trovo invasiva e tragica come soluzione)

soluzione4= cambi dissipatore giusto per stare tranquillo, e te ne freghi di quello che leggi, tanto comunque sai che la temp non è quella (anche se credo che si abbassera comunque con un dissi differente.
Tuttavia rimane il fatto che questa soluzione la puoi adottare solo dopo esserti accertato che la causa sia il sensore della mobo, e per fare cio dovresti poter misurare la temp con uns ensore termico.
Che puoi fartelo prestare nel caso non vuoi comprarlo e vuoi solo levarti la curiosita, oppure se proprio devi comprarlo, a sto punto ti consiglio la soluzione2 del rheobus, cosi abbellisci anche il case ed hai una cosa definitiva e che monitori sempre.

Comunque non approfondire il tema rheobus qui dentro (c'è una sezione dedicata a questa tipologia di periferiche) perchè siamo spudoratamente OT, per cui se vuoi approfondimenti scrivimi in pm. Altrimenti ci becchiamo una sospensione entrambi visti i continui OT che ci sono qui dentro (anche da parte mia). E non ho intenzione di beccarmela per un ot ;)

tupablo
07-02-2012, 03:33
oook chiuso OT :D

paolo.oliva2
07-02-2012, 10:06
Ricordi male caro paolo (e la cosa mi preoccupa:stordita: ), perchè i 65nm oltre la scarsità del silicio anche per i semplici K8, c'erano una valanga di BUG di medio/alto livello; almeno questi 32nm non presentano errate penalizzanti...

Si, si, io intendevo a riguardo guadagno di frequenza/consumo/potenza... per quanto riguarda i bug, questo 32nm non ha particolari limiti se non quello di salire di frequenza.
Sinceramente... il lavoro fatto da AMD per quanto riguarda il lavoro contemporaneo di nuova architettura su nuovo silicio con prodotto finale con assenza di bug gravi, direi che il lavoro sia egregio.

aldooo
07-02-2012, 10:18
per quanto riguarda i bug, questo 32nm non ha particolari limiti se non quello di salire di frequenza.

E questa puo' essere un'indicazione di progetto + automatizzato.

Automatizzato -> meno bug e meno ottimizzazioni
"manuale" -> piu' bug e piu' ottimizzazioni

paolo.oliva2
07-02-2012, 10:28
@schellx

Non ha importanza se IBM farà unicamente Trinity e GF continuerà con gli FX, perchè comunque sono sullo stesso silicio, quindi se IBM dovesse migliorare il PP del 32nm di Trinity, perchè mai cio' non sarebbe un guadagno anche sul 32nm degli FX?

Io tuo discorso avrebbe un senso se IBM lavorasse ad un silicio nettamente differente, tipo quello Bulk di TSMC, ma se migliora il PP del 32nm, Trinity è comunque parte di Piledriver.

Con questo non voglio dire che SICURAMENTE IBM risolverà i problemi... ma comunque il SOI è di IBM, AMD ha acquisito la licenza di poterci produrre e GF l'ha rilevata da AMD.
A prescindere da tutto, il bagaglio tecnologico di IBM è indiscutibilmente superiore a quello di AMD e GF messi assieme... quindi se il 32nm di fondo potrebbe andare meglio, mi sembra indubbio che il coinvolgimento di IBM non sia cosa di poco conto.

Per il fatto dhe IBM realizzi unicamente Trinity, io ci potrei vedere tanti motivi.
Se IBM migliorasse il PP del 32nm, se gli FX riusciranno a salire di frequenza, comunque la gente darebbe il merito anche ad IBM. Se invece non ci saranno miglioramenti... beh, IBM si è occupata unicamente di Trinity...
In tutti i modi comunque IBM incasserebbe per la produzione di Trinity, e riceverebbe pure gli allori nel caso la situazione 32nm migliorasse.

Comunque la situazione di AMD in questo momento per me è la seguente:
Il prodotto APU riscuote successo e Trinity penso ancor di più. Quindi per vendere vende ed è queso che conta di più.
Per il prodotto BD, per renderlo competitivo il lavoro è enorme... meno per il server e più per il desktop. In ogni caso AMD deve continuare (e le slide confermano tutto l'impegno) perchè una cosa sarebbe non FX per il desktop, un'altra è lasciare il mondo server, il che è impensabile.

blindwrite
07-02-2012, 10:40
qual'e' la fab IBM che produrra' cpu AMD?

hanno detto il nome? cosi' mi faccio un'idea sul centraggio attuale di quella fab.

bjt2
07-02-2012, 12:04
Guarda, partendo dal concetto che è praticamente impossibile fare peggio di GF, le cose possono solamente andare meglio se comunque le mani in un modo o nell'altro ce le mette anche IBM, se non altro, un qualche interesse dietro l'ha, visto che gli Opteron AMD li affianca ai suoi proci nei sistemi...

Tra l'altro... credo che sia naturale per ogni catena, durante la produzione "normale", fare delle infornate leggermente differenti nelle procedure di trattamento silicio. Di per sè, avere una catena implica dei tempi, 2 catene comunque ridurrebbe i tempi di sviluppo. Poi è chiaro che se si arrivasse a dei guadagni, le informazioni sarebbero condivise. Quindi, in ogni caso, anche partendo da un silicio perfettamente uguale, un certo vantaggio arriverebbe comunque.

Sinceramente la cosa che mi ha deluso di più, è sto cacchio di silicio.
A parità di core attivi, 2 per un Thuban e 2 per un 8150, io ho guadagnato solamente 250MHz in OC... cioè SOLAMENTE il 5,2%... forse lo si potrebbe ottenere con uno degli ultimi Thuban prodotti, con migliore affinità. Alla faccia 45nm SOI lk vs 32nm SOI HKMG ULK. Praticamente, se il 65nm era riuscito male rispetto al 90nm a suo tempo, questo 32nm sarebbe pure peggio.

E pensa che il thuban ha un FO4 del 30% peggiore di BD...

bjt2
07-02-2012, 12:05
Ricordi male caro paolo (e la cosa mi preoccupa:stordita: ), perchè i 65nm oltre la scarsità del silicio anche per i semplici K8, c'erano una valanga di BUG di medio/alto livello; almeno questi 32nm non presentano errate penalizzanti...

Però converrai che un Llano con OC massimi di 3.8GHz e 6GHz sotto azoto, contro OC di 4.2GHz e 7GHz sotto azoto per il Thuban, un indizio lo diano...

bjt2
07-02-2012, 12:08
Io dico che amd non affiderà mai le cpu di fascia alta ad ibm. Non rientra nei suoi interessi.
Secondo me dopo la pessima figura con BD per colpa del pp di GF, ha voluto solo salvaguardare quello che a lei è piu caro (le APU), ergo affidando trinity ad ibm per non fargli fare la fine di BD.
Vuole solo che trinity abbia un 32nm diverso da quello di GF, perchè vuole fare la differenza di piledriver.
Ossia ragazzi piledriver su trinity potrebbe essere anche superiore del piledriver di FX, proprio grazie ad un pp migliore di ibm.
Aspettatevi anche questa cosa.
E amd vuole che tutto funzioni bene sulle apu. Ecco perchè gli ha sottrato trinity dalle mani di GF.

;)

Le APU però avranno massimo 4 core, mentre BD fino a 8... Se Trinity salirà bene è anche possibile che ci saranno BD X4 di fascia bassa prodotti da Trinity con grafica disabilitata, che salgano addirittura meglio dei cugini X4 derivanti da scarti dell'X8... E' da vedere se poi questi trinity si potranno adattare all'AM3+... Potrebbe essere la volta buona che l'FM1 sia più conveniente dell'AM3+...

Athlon 64 3000+
07-02-2012, 13:13
Le APU però avranno massimo 4 core, mentre BD fino a 8... Se Trinity salirà bene è anche possibile che ci saranno BD X4 di fascia bassa prodotti da Trinity con grafica disabilitata, che salgano addirittura meglio dei cugini X4 derivanti da scarti dell'X8... E' da vedere se poi questi trinity si potranno adattare all'AM3+... Potrebbe essere la volta buona che l'FM1 sia più conveniente dell'AM3+...

Per certi versi potrebbe essere interessante vedere versioni di Trinity con la gpu disabilità come sono gli Athlon II 6x1 FM1.
Riguardo l'FM1 se non mi sbaglio verrà abbandonato in favore dell'FM2.

capitan_crasy
07-02-2012, 13:33
Però converrai che un Llano con OC massimi di 3.8GHz e 6GHz sotto azoto, contro OC di 4.2GHz e 7GHz sotto azoto per il Thuban, un indizio lo diano...

Hai ragione, non dico che i 32nm siano i migliori in assoluto ma che la loro situazione è nettamente migliore dei 65nm...
Mi ricordo che lo stepping 1 (primo step destinato alla vendita) dei 65nm sui K8 non riusciva a produrre dual core con frequenza superiore ai 2.70Ghz e comunque con un IPC leggermente inferiore a causa delle latenze più alte della cache L2.
I B0 32nm SOI hanno prodotto da subito APU a 2.90Ghz con una GPU con i contro fiocchi e un IPC leggermente superiore ad un K10 45nm a parità di clock/core e 6MB di cache L3...

Capozz
07-02-2012, 14:04
Hai ragione, non dico che i 32nm siano i migliori in assoluto ma che la loro situazione è nettamente migliore dei 65nm...
Mi ricordo che lo stepping 1 (primo step destinato alla vendita) dei 65nm sui K8 non riusciva a produrre dual core con frequenza superiore ai 2.70Ghz e comunque con un IPC leggermente inferiore a causa delle latenze più alte della cache L2.
I B0 32nm SOI hanno prodotto da subito APU a 2.90Ghz con una GPU con i contro fiocchi e un IPC leggermente superiore ad un K10 45nm a parità di clock/core e 6MB di cache L3...

Ragazzi non dimentichiamo poi che LLano comprende anche gpu e controller pci express che sicuramente non erano stati presi in considerazione quando è stato disegnato K10, cosa che sicuramente avrà influito su frequenze stock e capacità di oc. Non possiamo confrontare i due processi produttivi in modo esaustivo proprio perchè sia BD che LLano sono ben diversi dai Phenom. L'unico termine di paragone certo potremmo averlo solo con dei phenom II shrinkati a 32nm, che non esistono.

Mister D
07-02-2012, 14:14
Hai ragione, non dico che i 32nm siano i migliori in assoluto ma che la loro situazione è nettamente migliore dei 65nm...
Mi ricordo che lo stepping 1 (primo step destinato alla vendita) dei 65nm sui K8 non riusciva a produrre dual core con frequenza superiore ai 2.70Ghz e comunque con un IPC leggermente inferiore a causa delle latenze più alte della cache L2.
I B0 32nm SOI hanno prodotto da subito APU a 2.90Ghz con una GPU con i contro fiocchi e un IPC leggermente superiore ad un K10 45nm a parità di clock/core e 6MB di cache L3...

Concordo. Il problema secondo me, come già anche riportato da altri, sta nel fatto che in llano sono meno evidenti i problemi di silicio dato il suo FO4 più alto, passando a BD che è un architettura pensata per frequenze più alte (FO4 più basso) a parità delle altre caratteristiche, è che ad una certo freqenza i consumi esplodono e non hanno permesso ad AMD di commercializzare cpu con frequenze più alte che potessero sfruttare meglio proprio questa pipe più lunga. C'è poco da fare. Sono stati "costretti" (passatemi il termine) a produrre per forza nonostante nel loro target c'era per es un FX 4 moduli da >4GHz e turbo più alto come delta. tutto IMHO. Speriamo che con piledriver GF superi questo enpass e produca un SOI 32 nm HKMG almeno al pari delle aspettative iniziali in modo da dare ad amd la possibilità di sfruttare a pieno questa architettura a pipe più lunga.;)

winebar
07-02-2012, 14:14
Le APU però avranno massimo 4 core, mentre BD fino a 8... Se Trinity salirà bene è anche possibile che ci saranno BD X4 di fascia bassa prodotti da Trinity con grafica disabilitata, che salgano addirittura meglio dei cugini X4 derivanti da scarti dell'X8... E' da vedere se poi questi trinity si potranno adattare all'AM3+... Potrebbe essere la volta buona che l'FM1 sia più conveniente dell'AM3+...

è impossibile adattare i proci FM1 su AM3+ per la mancanza della L3. Inoltre puoi pensare ad un socket come un grafico a torta, ogni spicchio rappresenta una funzione diversa. Quindi una parte per il memory controller, una per le eventuali linee PCI-E integrate, ecc ecc.

The3DProgrammer
07-02-2012, 15:03
io ho un'altra cosa che mi suscita dubbi, tra le tante anomalie (per quel che sono le mie conoscenze) dell'architettura BD. Posto che si e' scelto un approccio WT per la L1 dati, con una WC cache che evidentemente risulta insufficiente perche' comunque la banda in scrittura di BD e' pessima, non era meglio mettere invece di una L2 grossa e lenta una L2 piccola e molto veloce e una L3 + grossa? Intel e' da quando ha introdotto la L3 che segue questo approccio (che tra l'altro ha molto + senso) a maggior ragione sarebbe stato opportuno secondo me per attenuare il problema della cache WT...

carlottoIIx6
07-02-2012, 15:03
Però converrai che un Llano con OC massimi di 3.8GHz e 6GHz sotto azoto, contro OC di 4.2GHz e 7GHz sotto azoto per il Thuban, un indizio lo diano...

che per llano scelgono dei wafer non eccellenti, o anche che la GPU penalizza qualcosa
non centra il processo, per me 32 nm è meglio del 45, ma non è il 32 migliore che si può ancora ottenere.

shellx
07-02-2012, 15:03
Le APU però avranno massimo 4 core, mentre BD fino a 8...

E mi sembra logico, altrimenti se togli anche questo aspetto gli FX in fascia enthusiast non hanno piu modo di esistere. Vista l'evoluzione anticipata per le apu rispetto le cpu top, mi pare chiaro che l'unica cosa che le puo differenziare è il numero dei core. Se mettessero ipotetici 8 core anche a trinity, gli FX li ptorebbero veramente cancellare dall'esistenza.
Le APU fanno sempre comunque parte della fascia media. E ripeto per me rimangono giocattolini.


Se Trinity salirà bene è anche possibile che ci saranno BD X4 di fascia bassa prodotti da Trinity con grafica disabilitata, che salgano addirittura meglio dei cugini X4 derivanti da scarti dell'X8...

Questa è una cosa probabile. Ma sempre su socket FMx pero. Chi ha un am3+ cosa fa si prende anche una FM1/2 per provarsi gli ipotetici trinity castrati dalla gpu ?


E' da vedere se poi questi trinity si potranno adattare all'AM3+... Potrebbe essere la volta buona che l'FM1 sia più conveniente dell'AM3+...

Questo è impensabile.
L'infrastruttura FMx è nettamente differente dalla AMx.
Le apu hanno l'hub per la gestione delle linee pci-e integrato nella apu, oltre la gpu. I due socket per queso motivo sono completamente differenti.

Che l'fm1 sia piu conveniente, beh su questo ti rispondo diversamente: io credo che una infrastruttura FMx dedicata agli FX sarebbe stato il fiore nell'occhiello. Lo dico sa sempre, mio nonno è piu giovane dell'AMx.
Pero ti aggiungo che non è il caso del socket FM1/FM2 per trinity. In quanto questo ergo le mobo prodotte per esso avranno decine di limiti a livello di layout e di funzionalità tecnologiche (quello che le mobo di fascia alta non hanno).
Per cui ricollegandomi al discorso di prima, servirebbero delle nuove mobo fascia alta con infrastruttura FMx per gli FX-PD. Questo si che converrebbe.

Ma io credo che l'fm1 conviene solo per trinity. Senza parlare di quanto scrause siano le mobo in quella fascia. Eccetto per una o due top mainstream. (già non sono il massimo quelle top am3+ per la fascia enthusiast rispetto quelle per intel 1155 e 2011, figurati quelle mainstream di amd).

papafoxtrot
07-02-2012, 15:09
Gente, mi sa che avete fantasticato... Il processo IBM è assolutamente identico a quello di GF, ed è per questo che hanno potuto semplicemente passargli il disegno a IBM e mandare in produzione trinity sia da GF, sia da IBM... Non ci sarà distinzione tra i chip prodotti dall'uno e dall'altro...

D'altra parte lo hanno sviluppato assieme, e ora stanno anche aprendo una fabbrica in cui faranno chip sia per l'una, sia per l'altra...

Cocco83
07-02-2012, 16:16
Gente, mi sa che avete fantasticato... Il processo IBM è assolutamente identico a quello di GF, ed è per questo che hanno potuto semplicemente passargli il disegno a IBM e mandare in produzione trinity sia da GF, sia da IBM... Non ci sarà distinzione tra i chip prodotti dall'uno e dall'altro...

D'altra parte lo hanno sviluppato assieme, e ora stanno anche aprendo una fabbrica in cui faranno chip sia per l'una, sia per l'altra...

Nooooooo io spero di noooo.... so che il SOI è SOI ma spero che IBM lo sappia fare molto meglio :)

capitan_crasy
07-02-2012, 18:08
Ragazzi secondo charlie di semiaccurate la notizia che IBM sia producendo APU Trinity è una bufala:

Clicca qui (http://semiaccurate.com/forums/showpost.php?p=151824&postcount=8) e clicca qui (http://semiaccurate.com/forums/showpost.php?p=151962&postcount=14)

winebar
07-02-2012, 18:33
Gente, mi sa che avete fantasticato... Il processo IBM è assolutamente identico a quello di GF, ed è per questo che hanno potuto semplicemente passargli il disegno a IBM e mandare in produzione trinity sia da GF, sia da IBM... Non ci sarà distinzione tra i chip prodotti dall'uno e dall'altro...

D'altra parte lo hanno sviluppato assieme, e ora stanno anche aprendo una fabbrica in cui faranno chip sia per l'una, sia per l'altra...

Al di là della possibile bufala (commento di capitan_crazy sopra al mio), delle differenze da una fabbrica ad un'altra ci sono eccome, lo si evince soprattutto in oveclock. Ovviamente non ci sono differenze tra due processori a frequenze default, ma appena premi l'acceleratore noti che uno sale di più dell'altro. Questo succederebbe (ovviamente) anche se un'azienda come Intel farebbe produrre lo stesso procio a due fabbriche diverse, non conta solo CHI produce.

paolo.oliva2
07-02-2012, 18:35
Nooooooo io spero di noooo.... so che il SOI è SOI ma spero che IBM lo sappia fare molto meglio :)

Beh... mi sembra chiaro che GF/AMD non riescano ad arrivare ad una soluzione...

Insomma... quando usci' l'8150 si parlava (non ufficialmente) di un 8170 a novembre, non era chiaro se B2g o B3, poi si è vociferato di un 8170/8190 con il B3 a gennaio.

Gennaio è passato e siamo a febbraio... se AMD/GF avessero avuto le possibilità di commercializzare anche solamente un 8170, lo avrebbero fatto di corsa.

A sto punto mi sembra chiaro che AMD/GF hanno ormai alzato bandiera bianca sul discorso step BXX e BD 1a versione... e comunque lo sanno più che bene che se dovessero confidare unicamente sull'aumento di IPC di Piledriver, le cose rispetto all'8150 non cambierebbero un granchè...

Ma c'è un punto che non mi è chiaro...

Fino al 31 dicembre 2011, la FAB 32 di Dresda doveva far fronte a:
produzione 45nm
produzione Llano 32nm
produzione BD X4/X6/X8

Dal 1° gennaio, la produzione 45nm è stata dismessa, quindi comunque il carico di lavoro risulterebbe inferiore.

Se considerassimo che Trinity prenderebbe il posto di Llano, la FAB 32 comunque dovrebbe riuscire a far fronte al carico di lavoro.

Ora... se IBM produrrà Trinity per intero... la FAB di Dresda che mazza farebbe? Unicamente gli FX? IMPOSSIBILE, perchè il potere produttivo risulterebbe enormemente superiore alle richieste... (non penso che abbiano risolto i prb sul silicio e si preparino a richieste più corpose).

Quindi, la soluzione che troverei più idonea è che la FAB di Dresda con le catene a pieno regime di produzione non puo' dedicarsi più di tanto all'evoluzione del silicio. Con la produzione Trinity demandata ad IBM, il tempo racimolabile per lo sviluppo del 32nm indubbiamente aumenterebbe e di parecchio.

Insomma... non voler vedere alcun giovamento a questa notizia, mi sembra una forzatura.

SE POI FOSSE UNA BUFALA (ho letto ora il post del Capitano), sarebbe l'ennesimo castello di carta...

papafoxtrot
07-02-2012, 18:42
Al di là della possibile bufala (commento di capitan_crazy sopra al mio), delle differenze da una fabbrica ad un'altra ci sono eccome, lo si evince soprattutto in oveclock. Ovviamente non ci sono differenze tra due processori a frequenze default, ma appena premi l'acceleratore noti che uno sale di più dell'altro. Questo succederebbe (ovviamente) anche se un'azienda come Intel farebbe produrre lo stesso procio a due fabbriche diverse, non conta solo CHI produce.

Scusa, ma in base a cosa esisterebbero queste differenze, e soprattutto, questa è la cosa importante: in base a cosa affermi che si vedrebbero in overclock? Voglio dire, potrebbero essere dovute a 1000 fattori aleatori, su questo sarei d'accordo (qualità del silicio, qualità di lavorazioni preliminari, trattamenti, modalità in cui viene maneggiato, usura delle macchine, tempi di lavorazione, temperature...)... Ma variabili aleatorie influiscono sul risultato in maniera aleatoria... Perché mai dovrei vedere una differenza soprattutto in overclock? Non potrei notare una variazione di consumo a default? Certo l'overclock mette in evidenza dei risultati quali la frequenza massima al wall, la curva di tdp...). Ma se AMD stessa dice che la produzione è uguale, non ci saranno differenziamenti tra i modelli...
Se ad esempio il prodotto di IBM fosse migliore io penso che AMD lo userebbe per le declinazioni a frequenza più alta... o con TDP più aggressivo...

E poi appunto non vedo in base a cosa il processo di IBM dovrebbe essere tanto migliore, visto che sono stati sviluppati contemporaneamente e sinergicamente. Infine sinceramente non trovo corretto affermare che il processo a 32nm sia così scandaloso come qualcuno afferma. Certo si potrà avere un miglioramento, ma temo che proprio perché grandi salti non se ne potrebbero avere, GF sia riluttante a spendere tempo e soldi per apportare modifiche sostanziali... Preferiscono investire nel 28nm, e lasciare più ad amd l'onere di ottimizzare attraverso la messa a punto degli step produttivi.

Ultima cosa: quando AMD dichiara +25% performance related to Llano: occhio che si riferisce alla piattaforma mobile, dove c'è molto più margine per crescere in frequenza. Potrebbe essere +5% IPC e +20% frequenza... Si parte da 2,4GHz se non sbaglio, per cui un 3GHz su un portatile è più che credibile...

In ogni caso +5% IPC di LLano vorrebbe dire un buon incremento rispetto a Bulldozer...

Visti in quest'ottica questi miglioramenti sono più compatibili con il +10% performance indicato sulla slide che annunciava Bulldozer, Piledriver, Steamroller...

Randa71
07-02-2012, 19:02
...............
SE POI FOSSE UNA BUFALA (ho letto ora il post del Capitano), sarebbe l'ennesimo castello di carta...

certo che se non migliorano il silicio e non salgono di clock, caro il mio Paolo non c'è PD che tenga.....
rischiano di fare un 8150 second edition, cioè una CPU che potenzialmente potrebbe performare bene, ma castrata dal clock..... tu stesso, ed è vero, hai dimostrato la linearità di BD nel salire di clock....segno che cmq all'architettura i MHZ piacciono e parecchio....io stesso con BD a 4,2 con cinebench è + performante del 2600k a def....è solo un esempio non voglio riaprire il cinema fx vs i7...sia chiaro
questo sta a significare non la superiorità di BD, ma il fatto che salendo di clock BD se la può giocare o perlomeno raggiungere un gran bel livello complessivo di performance (quello garantito dal 2600k)....se come si è sempre detto pp permettendo, fosse uscito a def a 4.2, con i vari step di turbo successivi e le rece sarebbero state di tutt'altro avviso....questo è un dato oggettivo...come è un dato oggettivo che così non è stato purtroppo...incrociamo le dita...
anche perche per me da PD il minimo (ma proprio il minimo) che mi aspetto è che il clock sia da 3.9def con i vari step turbo da 4.2 4.5....se PD ha lo stesso clock di 8150...non dico che potrebbero fare a meno di farlo uscire ma quasi...almeno per me..visto che IPC secondo me migliorerà ma non in maniera eclatante....

shellx
07-02-2012, 20:19
certo che se non migliorano il silicio e non salgono di clock, caro il mio Paolo non c'è PD che tenga.....
rischiano di fare un 8150 second edition, cioè una CPU che potenzialmente potrebbe performare bene, ma castrata dal clock..... tu stesso, ed è vero, hai dimostrato la linearità di BD nel salire di clock....segno che cmq all'architettura i MHZ piacciono e parecchio....io stesso con BD a 4,2 con cinebench è + performante del 2600k a def....è solo un esempio non voglio riaprire il cinema fx vs i7...sia chiaro
questo sta a significare non la superiorità di BD, ma il fatto che salendo di clock BD se la può giocare o perlomeno raggiungere un gran bel livello complessivo di performance (quello garantito dal 2600k)....se come si è sempre detto pp permettendo, fosse uscito a def a 4.2, con i vari step di turbo successivi e le rece sarebbero state di tutt'altro avviso....questo è un dato oggettivo...come è un dato oggettivo che così non è stato purtroppo...incrociamo le dita...
anche perche per me da PD il minimo (ma proprio il minimo) che mi aspetto è che il clock sia da 3.9def con i vari step turbo da 4.2 4.5....se PD ha lo stesso clock di 8150...non dico che potrebbero fare a meno di farlo uscire ma quasi...almeno per me..visto che IPC secondo me migliorerà ma non in maniera eclatante....

Se non faranno uscire modelli FX per piledriver con clock piu alto significa che veramente AMD non vuole piu sapere niente della fascia alta, nemmeno fino al 2013. E vorrà dire: "accontentatevi di quello che c'è".

Ma sinceramente non penso che sarà cosi. Altrimenti non avrebbe nessun senso fare Vishera con piledriver. Io credo che 200/300 mhz in piu li vedremo gia con il primo modello di vishera. E sicuramente ulteriori aumenti di modelli durante l'anno.

Non ha piu intenzione di combattere contro la fascia enthusiast di Intel, per adesso lascia queste fino al 2013.
E poi te lo dico io che la fascia enthusiast di amd sara occupata di APU top di gamma con piu di 4 core's (6-8-10). La fascia mainstream la manterra con le stesse apu con meno core's e via giu dicendo. Tutto sullo stesso socket ma tipologie di mobo diverse a livello di qualità destinate per le fascie diverse (come è sempre stato). Ma tutto questo dopo il 2013 e a 28nm e successivi, i credo ormai dopo excavator. Fino ad excavator credo che mantenga la situazione attuale evolvendo solo le cpu. E poi migra tutto ad APU su tutte le fascie. Anche se io non so perchè ma ogni tanto mi sfiora il dubbio che a nel 2013 non se esca con labella notizia di far divetare anche FX un APU a 28 nm (steamroller). Le slide dicono diversamente, ma secondo me non ha detto tutto tutto sulle slide per quanto riguarda la fascia alta.
Se ci pensiamo bene il discorso della guerra finita contro le cpu enthusiast sono parole citate solo dagli articoli che ipotizzano questo in base le slide. Ma amd non lo ha detto e dichiarato apertamente.

Poi se le testate sanno cose che noi non sappiamo questo non lo so.

Ma secondo me il futuro è APU su tutte le fascie e combattera solo al massimo della fascia mainstream di Intel.
E nel frattempo sfoga questi due anni con quello che ha gia prodotto.
Praticamente come è sempre stato da 8 anni circa. Ergo nessuna novita tragica secondo me.
Io la vedo cosi, poi puo darsi che mi sbaglio.

L'inquietudine mi era venuta quando avevo capito che voleva dedicarsi SOLO ED ESCLUSIVAMENTE al mobile, li si che mi ero sentito male per un attimo. Mi son detto "oh mio dio cpu Intel a 10.000 euro cadauna".

Phenomenale
07-02-2012, 20:22
Da quanto ho capito finora, Piledriver non è pensato principalmente per essere il nuovo bulldozer, ma il nuovo llano.
AMD sta ottimizzando il modulo piledriver con l'obbiettivo di farne una APU socket FM1 migliore di llano con i vecchi 4 core K10, poi (con calma) sarà giocoforza metterlo anche su AM3+ senza grafica e venderlo anche in veste desktop.

Quoto il pensiero del Capitano :D , Piledriver non farà miracoli come successore di bulldozer... ... ...perchè li farà come successore di llano!!! :winner:

I $oldi si fanno con le APU da vendere a milionate agli OEM ;)

shellx
07-02-2012, 20:27
Da quanto ho capito finora, Piledriver non è pensato principalmente per essere il nuovo bulldozer, ma il nuovo llano.
AMD sta ottimizzando il modulo piledriver con l'obbiettivo di farne una APU socket FM1 migliore di llano con i vecchi 4 core K10, poi (con calma) sarà giocoforza metterlo anche su AM3+ senza grafica e venderlo anche in veste desktop.

Quoto il pensiero del Capitano :D , Piledriver non farà miracoli come successore di bulldozer... ... ...perchè li farà come successore di llano!!! :winner:
I $oldi si fanno con le APU da vendere a milionate agli OEM ;)

Si in effetti pensandoci sara un miracolo per gli uffici aprire 4 cose anziche 3 con trinity.
Ma non credo che sara un miracolo per chi deve farsi workstation o pc enthusiast.
Perchè per quanto miracolo sia rispetto llano, è sempre un chip insufficiente per determinate tipologie di utilizzo.

perchè una cosa che vi sfugge è: si ok che trinity sara migliore di llano e sicuramente un ottima apu, ma presa pari pari e andando la metà di BD, è buona per usi medio bassi. Non va bene per determinate tipologie di sistemi.
Ecco perchè io credo che amd lascia FX perchè sa che comunque va di piu per chi vuole di piu. Ma nel futuro aggiornera anche quella fascia per chi vuole piu di un apu mainstream, magari mettendo APU a 8 core per la fascia alta (lasciando perdere lo scontro di superare intel, ma solo per il suo mercato, sempre piu della mainstream andra). Non posso credere che voglia fare e migliorare cpu solo per uso ufficio.

E comunque trinity sara gia da subito in veste desktop e mobile. E piledriver sara anche poco dopo in veste cpu desktop top di gamma.

Ma è vero, che il suo obbiettivo principale sono le apu, ma io sono piu del parere che prima o poi ci aumenta i moduli e core's e li piazza al posto degli attuali FX.

I portatili fanno si milionate in piu rispetto il resto, pero guarda caso Intel riesce a fare piu milioni di amd coprendo piu fasce e piu mercati e anche con i retail e non sono oem. Solo amd ha bisogno di stringere la cinghia per fare ste milionate ?

Comunque per me il discorso è un altro. E l'ho gia detto post dietro.

Mister D
07-02-2012, 20:36
cut...

Ultima cosa: quando AMD dichiara +25% performance related to Llano: occhio che si riferisce alla piattaforma mobile, dove c'è molto più margine per crescere in frequenza. Potrebbe essere +5% IPC e +20% frequenza... Si parte da 2,4GHz se non sbaglio, per cui un 3GHz su un portatile è più che credibile...

In ogni caso +5% IPC di LLano vorrebbe dire un buon incremento rispetto a Bulldozer...

Visti in quest'ottica questi miglioramenti sono più compatibili con il +10% performance indicato sulla slide che annunciava Bulldozer, Piledriver, Steamroller...

Ciao,
se ti riferivi al mio post e penso proprio di sì:D , il capitano mi ha fatto vedere la nota (3) dove spiega come dici anche te che quel 25% è nella piattaforma mobile. Non avendola vista non trovavo coerenti i due dati. Ora che ne sono a conoscenza trovo compatibili i due valore e concordo con te;)
OT: solo una precisazione. Il modello più veloce è il A8-3550MX da 2 GHz turbo 2,7. Direi che potremmo aspettarci un trinity mobile da 2,4/2,5 con turbo a 3/3,2.

shellx
07-02-2012, 20:39
praticamente questo thread si è trasformato in trinity per mobile ?

Mister D
07-02-2012, 20:49
praticamente questo thread si è trasformato in trinity per mobile ?

Hai ragione, avrei dovuto postare di là ma per il discorso può essere utile comunque perché alla fine trinity ha 2 moduli piledriver.;) Sono partito da un confronto tra due dati prese dalle slide perché mi sembravano incoerenti gli aumenti prestazionali della parte x86 che è in comune sia ai prossimi fx sia alle prossime apu. Penso di aver limitato al massimo l'OT.

shellx
07-02-2012, 20:53
Hai ragione, avrei dovuto postare di là ma per il discorso può essere utile comunque perché alla fine trinity ha 2 moduli piledriver.;) Sono partito da un confronto tra due dati prese dalle slide perché mi sembravano incoerenti gli aumenti prestazionali della parte x86 che è in comune sia ai prossimi fx sia alle prossime apu. Penso di aver limitato al massimo l'OT.

No no ma tu non centri, la colpa è mia che quando sento parlare di mobile mi viene la pelle d'oca. :D

Comunque il dato è quello: +10% su FX-piledriver (compreso di tutto ipc e frequenza) almeno per il primo modello. Poi quando durante l'anno faranno modelli con freq. ancora superiore possiamo aggiungere piccoli x% al 10%.

Il 25% (totale) di incremento è su trinity, ma non ho capito se si riferiscono a trinity solo mobile o trinity anche desktop.

Mister D
07-02-2012, 21:02
No no ma tu non centri, la colpa è mia che quando sento parlare di mobile mi viene la pelle d'oca. :D

Comunque il dato è quello: +10% su FX-piledriver (compreso di tutto ipc e frequenza) almeno per il primo modello. Poi quando durante l'anno faranno modelli con freq. ancora superiore possiamo aggiungere piccoli x% al 10%.

Il 25% (totale) di incremento è su trinity, ma non ho capito se si riferiscono a trinity solo mobile o trinity anche desktop.

Il 25% di incremento rispetto a llano si riferisce al mobile e così è più coerente con il 10% di piledriver su buldozer, come spiegato nel post di papafoxtrot più sopra. Cmq credo che i piccoli x% dipenderanno da quanto riusciranno ad aumentare la frequenza con i modelli successivi. Ovvio che se sarà 300 MHz su 4GHz sarà poco quella "x" mentre se saranno ad esempio (numeri sparati a caso) 600 MHz su 4GHz allora sarà un po' più di piccoli x%.;)

Randa71
07-02-2012, 22:19
Se non faranno uscire modelli FX per piledriver con clock piu alto significa che veramente AMD non vuole piu sapere niente della fascia alta, nemmeno fino al 2013. E vorrà dire: "accontentatevi di quello che c'è".

Ma sinceramente non penso che sarà cosi. Altrimenti non avrebbe nessun senso fare Vishera con piledriver. Io credo che 200/300 mhz in piu li vedremo gia con il primo modello di vishera. E sicuramente ulteriori aumenti di modelli durante l'anno.

..................................
L'inquietudine mi era venuta quando avevo capito che voleva dedicarsi SOLO ED ESCLUSIVAMENTE al mobile, li si che mi ero sentito male per un attimo. Mi son detto "oh mio dio cpu Intel a 10.000 euro cadauna".

Caro Shellx se fosse cosi come dici per BD non la vedo poi così brutta...un PD con un clock def >= 4.2 ghz potrebbe essere una gran bella CPU...io onestamente ci spero molto...perchè per me IB avrà grossi cambiamenti lato grafico ma sulla CPU vera e propria secondo me MEDIAMENTE sarà superiore del 5% a SB....quindi nulla di stravolgente..il grosso salto sarà sui consumi....ma qui mi sa che AMD in questo giro ha ben poco da fare....per il resto le APU le lascio alle API....io sono un purista e gli ibridi solitamente non mi esaltano:D

shellx
07-02-2012, 22:36
Caro Shellx se fosse cosi come dici per BD non la vedo poi così brutta...un PD con un clock def >= 4.2 ghz potrebbe essere una gran bella CPU...io onestamente ci spero molto...perchè per me IB avrà grossi cambiamenti lato grafico ma sulla CPU vera e propria secondo me MEDIAMENTE sarà superiore del 5% a SB....quindi nulla di stravolgente..il grosso salto sarà sui consumi....ma qui mi sa che AMD in questo giro ha ben poco da fare....per il resto le APU le lascio alle API....io sono un purista e gli ibridi solitamente non mi esaltano:D

siamo in due, per me le apu non sono sufficienti mi serve l'enthusiast (no per forza quello di intel, anche l'enthusiast attuale di amd ma con qualche boost in piu). Ma le apu di amd non sono mainstream vere e proprie visto che hanno performance pari alla fascia entry level di intel.
Per dirla tutta: per me si chiama performance cpu che come minimo hanno potenze come BD 8 core's o 2500/2600k.
Ma la mainstream di amd non mi soddisfa purtroppo, ne in ambito cpu e quanto meno le mobo messe a disposizione per le apu (tranne qualcuna).
Io voglio roba da far tremare i case, e le palpebre solo a vederla con gli occhi.

wolverine
08-02-2012, 00:16
non avendo una temperatura generale per la cpu mi puoi dire dove posso sbattere la testa a parte così --> :muro: ??

ora ricontrollo il dissipatore...

edit: niente da fare..ho smontato il dissipatore, ricambiato pasta termica, rimesso il dissipatore ma stavolta cambiando verso anche se non sembra cambiato niente in quanto la base è quadrata (offendetemi pure se ho detto una cavolata colossale) le temperature salgolo cmq alle stelle!!

Si infatti montare male il dissi originale è praticamente impossibile, te lo avevo scritto per scrupolo, ma in effetti hai ragione.
La ventola gira al massimo o viene regolata dal pwm, comunque a scanso di equivoci potresti mette un nuovo dissi tipo l'Arctic Freezer XTREME Rev. 2, non costa molto e fa il suo lavoro perfettamente anche in OC senza esagerare, fra l'altro la pasta pre-applicata è ottima (MX2). :)

eric1
08-02-2012, 00:46
Secondo me i vantaggi prestazionali di Piledriver saranno dovuti al miglioramento della FPU, che per altro è il vero punto debole dei BD. Come ho scritto nella mia recensione (che nn posto per non sembrare uno spammer) il potenziamento delle suddette unità non basta a colmare il gap prestazionale creato dal dimezzamento delle stesse. Inoltre l'adozione di numerose istruzioni è una manna dal cielo solo laddove queste vengono sfruttate (multimedialità, crittazione AES principalmente). Ritengo anche che ci sia qualche problema di gioventù nella struttura del "mezzo core" ossia: il core intero è migliore del core stars dei Phenom II, ma il mezzo core talvolta è più d'impiccio che altro. Sinceramente dubito che tale situazione possa ribaltarsi tramite patch software. Forse un'accurata revisione a livello di BIOS potrebbe limitare i danni laddove il mezzo core "ruba" risorse utili e attivarlo quando necessario. Anche perchè nel multithreading spinto sono ottimi nel senso che a fronte di un consumo energetico superiore, ma contenuto, le prestazioni aumentano in maniera convincente.

affiu
08-02-2012, 00:52
Io voglio roba da far tremare i case, e le palpebre solo a vederla con gli occhi.

APU non è solo un disegno ,marketing ,belle parole o profitti o altro,ma è UN NUOVO MODO di concepire sia l'hardware che il software, un nuovo LIVELLO DI ESECUZIONE DEI PROGRAMMI ,con UN EFFICIENZA/POTENZA senza precedenti nella storia:eek:

dietro tutto cio e come supporto c'è(la magica,secondo me) l'architettura BULLDOZER,di essa tutto si puo dire ,ma non mi spiego come mai partendo da 17w(trinity ,il piu piccolino) bulldozer(come componente associata alla gpu) ''acquisti'' una potenza incredibile ,riferendomi al video al CES.

ma se 17w:eek: mi da quella potenza cosa potra significare il futuro?IL LIVELLO DI IMPLEMENTAZIONE E DI COMUNICAZIONE TRA CPU E GPU che si raggiungera (se questo sara possibile) SARà DEVASTANTE.

chi dovrebbe competere con le apu(SOLO INTEGRAZIONE) secondo voi?chi si opporrà a trinity? chi ad APU steamroller?chi avrà la faccia di presentarsi(a quel livello ,anche se non è il finale) a apu exvator?
NOMI E COGNOMI delle ''integrate''(valutazione SOLO LIVELLO integrazione delle componenti CPU E GPU)che dovrebbero competere,grazie!

poi pensando che amd ha sempre amato e ci tiene al settore GAME....cosa potrebbe venire fuori da QUESTE APU?
magari una CONSOLE:Prrr: tutta amd con scritto larrabe ,chi lo puo saper?ma soprattutto chi potra competere con ESSA???

per me da questo mio personale modo di vedere L'ARCHITETTURA BULLDOZER, è ''vincente'' ,in quanto base per il futuro IBRIDO :read: ,passando dai ninja APU .

shellx
08-02-2012, 01:32
APU non è solo un disegno ,marketing ,belle parole o profitti o altro,ma è UN NUOVO MODO di concepire sia l'hardware che il software, un nuovo LIVELLO DI ESECUZIONE DEI PROGRAMMI ,con UN EFFICIENZA/POTENZA senza precedenti nella storia:eek:

dietro tutto cio e come supporto c'è(la magica,secondo me) l'architettura BULLDOZER,di essa tutto si puo dire ,ma non mi spiego come mai partendo da 17w(trinity ,il piu piccolino) bulldozer(come componente associata alla gpu) ''acquisti'' una potenza incredibile ,riferendomi al video al CES.

ma se 17w:eek: mi da quella potenza cosa potra significare il futuro?IL LIVELLO DI IMPLEMENTAZIONE E DI COMUNICAZIONE TRA CPU E GPU che si raggiungera (se questo sara possibile) SARà DEVASTANTE.

chi dovrebbe competere con le apu(SOLO INTEGRAZIONE) secondo voi?chi si opporrà a trinity? chi ad APU steamroller?chi avrà la faccia di presentarsi(a quel livello ,anche se non è il finale) a apu exvator?
NOMI E COGNOMI delle ''integrate''(valutazione SOLO LIVELLO integrazione delle componenti CPU E GPU)che dovrebbero competere,grazie!

poi pensando che amd ha sempre amato e ci tiene al settore GAME....cosa potrebbe venire fuori da QUESTE APU?
magari una CONSOLE:Prrr: tutta amd con scritto larrabe ,chi lo puo saper?ma soprattutto chi potra competere con ESSA???

per me da questo mio personale modo di vedere L'ARCHITETTURA BULLDOZER, è ''vincente'' ,in quanto base per il futuro IBRIDO :read: ,passando dai ninja APU .

Ma fammi il piacere con sti trailer cinematografici...
che se passa la gente crede che amd ha tirato fuori la console e che le apu si siano trasformate nell'incredibile HULK.
chi dovra competere con le apu ? Guarda non lo so, ma a livello x86 sulle apu potrebbe competere pure VIA visto lo schifo che fanno e che faranno...
con ste frasi cinematografiche che fai solite e ste apu, ok abbiam capito che ami i portatilini per facebook, ma io mi domando: perchè posti sul thread di FX quando c'è la sezione dedicata alle apu mobile ?

Io in quel post di prima parlavo di hardware top, non mene frega un cavolo di quello che saranno le apu sui mobile, io non uso mobile ecco perchè posto qui dentro, altrimenti mi troveresti nel thread delle apu.

Ti pare che APU e mobo per APU e affini siano hardware top ?
Spazzatura scrausa buona per ufficio, se ti piace prenditela tu, ma non venire a dire che apu DEVASTA il mondo dell'informatica sono I NINJA del calcolo e non esisteranno rivali per i secoli dei secoli AMEN... o dio mio...
fino ad ora sinceramente mi hanno fatto solo ridere ste apu, soltanto per la fascia che coprono. Ma ti rendi conto che vanno quando le cpu Intel di fascia entry level ? (GPU a parte).
E lascia perdere adesso che ha la gpu cazzuta dentro (che poi manco è vero perchè per giocare è inadatta e lo sara anche quella di trinity excavator e tutti i nomignoli da cantiere che usa), a livello x86 fa schifo punto e basta e per giocare BENEEE, se non hai una scheda video con le contro balle ci fai ben poco, a meno che tu non giochi a 800x600 e dettagli low con half life il primo, lo stesso vale per chi fa rendering 3d o modellazione 3d inblender ed affini, ti pare che le apu soddisfano qusto tipo di utenza, ci vogliono 10 APU messe assieme per sopperire alla necessita su questo tipo di applicazioni.
Che le apu sono il futuro mi sembra chiaro a tutti ormai, ma non venirmi a dire che il futuro e sui 17w e portatili e console solo perchè questo tipo di dispositivi sono iltuo pane quotidiano, ti pare che io posso programmare 3d e applicazioni davanti ad un tablet o una console ? perchè io ti posso dire che le APU saranno il futuro anche della fascia alta, e che le CPU 8core di adesso saranno domani APU 8 CORE 10 core ecc ecc... Invece tu ti ostini a dire che il mondo sara solo tablet e cellulari e che i pc spariranno. Eh si come no, e poi gli sviluppatori programmano davanti alla playstation e al cellulare.

Ma tu hai idea di cosa sia una workstation ?
Se entri a casa mia (in una stanza) ti rendi subito conto cosa intendo io per calcoli bruti e macchine colelgate in farm assieme per certi tipi di lavori. E non è una esigenza solo mia, perchè si da il caso che di utenti che lavorano su questo tipo di macchine e utenti che giocano in maniera estrema c'è ne siano un bel numero.
Pero è anche vero che purtroppo l'utenza che pippa davanti alla play e linka davanti a facebook e non fa niente da mattina a sera è maggiore, ergo amd guadagna piu con questi tipi di individui (ergo tablet e portatili da fighi).

E comunque qui dentro si parla di FX e processori di unc erto calibro, e no APU per portatili e ibridi. Al massimo di trinity piledriver lato desktop. Ma lasciam perdere i notebook che sono dispositivi dedicati ad un utenza completamente differente da quella che posta dentro questo thread.

Metti un post a settimana, e tutti sono cloni di quello precedente. Almeno se vuoi esprimere pareri fallo senza contorni degni di JJ Abrams...

carlottoIIx6
08-02-2012, 01:46
Ragazzi secondo charlie di semiaccurate la notizia che IBM sia producendo APU Trinity è una bufala:

Clicca qui (http://semiaccurate.com/forums/showpost.php?p=151824&postcount=8) e clicca qui (http://semiaccurate.com/forums/showpost.php?p=151962&postcount=14)

è chiaro, ibm non ha nella sua vocazione produrre hardware, ma brevetti.
il silicio è stato preparato in stretta collaborazione con GF, e penso che sarà rinnovato quando esce piledrive.
se fosse stato ibm a produrre trinity, per me era solo un appoggio per volumi, e non una nuova fonderia targata ibm.

carlottoIIx6
08-02-2012, 01:53
Ma fammi il piacere con sti trailer cinematografici...
che se passa la gente crede che amd ha tirato fuori la console e che le apu si siano trasformate nell'incredibile HULK.

cut



non devi vederle nella incarnazione attuale,
ma nelle potenzialità future.
ma non credo che è una cosa che farai :)
per te l'apu è un concorrente dei processori di fascia alta,
temi che rubino energie a AMD nella fascia alta, ma per me è l'esatto contrario.
l'apu è il cantiere ideale, anche per fare uscire cpu performanti.

carlottoIIx6
08-02-2012, 01:58
cut

le APU le lascio alle API....io sono un purista e gli ibridi solitamente non mi esaltano:D

mi dispiace per te ma i proci futuri satanno.. froci.

carlottoIIx6
08-02-2012, 02:03
Da quanto ho capito finora, Piledriver non è pensato principalmente per essere il nuovo bulldozer, ma il nuovo llano.
AMD sta ottimizzando il modulo piledriver con l'obbiettivo di farne una APU socket FM1 migliore di llano con i vecchi 4 core K10, poi (con calma) sarà giocoforza metterlo anche su AM3+ senza grafica e venderlo anche in veste desktop.

Quoto il pensiero del Capitano :D , Piledriver non farà miracoli come successore di bulldozer... ... ...perchè li farà come successore di llano!!! :winner:

I $oldi si fanno con le APU da vendere a milionate agli OEM ;)

non hai afferrato, i vantaggi che piledrive avrà per essere messo su un apu, si trarurrano un una cpu Fx migliore, i due progetti non sono in compezione, ma in simbiosi.

affiu
08-02-2012, 02:33
[QUOTE=shellx;36880860]

io vi rispetto perchè voi siete un informatico ,ma mi ero lasciato trasportare da un vostro pensiero scritto: ''Per me un apu super potente e con prestazioni superiori a un BD attuale degno da fascia ALTA, mi starebbe BENISSIMOOOO.''

mi dispiace tanto il fatto che persone come voi ,che siete informatici e ci lavorate su programmi e processori, non esprimiate delle candide speranze nel progetto APU.

è vero che dovrei scrivere sul forum delle apu,ma per me bulldozer oppure APU,solo la stessa cosa anche se oggi sono fisicamente separate ,ma non spero neanche minimamente di cosa possa essere il progresso di bulldozer SENZA relazionare tutte le modifiche su di esso IN RELAZIONE ALLA componente GPU.

per il resto non scriverò più post cinematografici come dite voi ,ma aspetterò il nuovo film dal titolo ''ritorno del magic pentium''....anzi DEI magic pentium:read:

shellx
08-02-2012, 05:59
non devi vederle nella incarnazione attuale,
ma nelle potenzialità future.
ma non credo che è una cosa che farai :)

L'ho già fatto, e per come la vedo io, il futuro è APU anche in fascia alta (o ibrido, HSA, chiamatelo come volete), ma la cosa che escludo è che amd vivrà solo nel futuro del mondo mobile. Questa è una cosa che non ci credo.


per te l'apu è un concorrente dei processori di fascia alta,
temi che rubino energie a AMD nella fascia alta, ma per me è l'esatto contrario.
l'apu è il cantiere ideale, anche per fare uscire cpu performanti.

Per me l'apu attualmente è una cavia da laboratorio, se cresce (e secondo me cresce) posizioneranno dopo il 2014 (se non pure prima) anche modelli per la fascia alta con piu core.
Non temo che rubino energie ad amd, tanto amd di energie per quanto mi riguarda nella fascia alta da 8 anni a questa parte ne ha avute con il soffio al cuore contro Intel.
AMD si concentra sulle apu perchè la loro potenzialità sono la gpu che hanno dentro (settore in cui amd domina), perchè se fosse per il core x86 che integrano fanno pena (le apu). Le cpu top di gamma ha deciso di dedicargli meno tempo semplicemente perchè non è piu farina del suo sacco competere con intel, non è capace di tirare fuori un processore che sia degno della fascia mainstream di intel, figuriamoci della enthusiast di intel. BD è un architettura validissima, prematura, e tutto cio che vuoi aggiugnere tu, su un silicio penoso. Ma una santa volta che gli e ne vada una dritta con ste cpu.Tuttavia BD FX è superiore di gran lunga alle apu di fascia media, ergo se devo scegliere (senza guardare intel) prendo un BD per le mie esigenze. Ma domani (inteso come dopo il 2013, quindi dopo gli FX Vishera) se amd non mi produce una ulteriore cpu o APU o quello che cavolo vuole lei di fascia alta, con piu core delle apu attuali, con una potenza che vada a coprire la sua stessa fascia alta dove adesso ci sono gli FX (e quindi pareggiare almeno il top di fascia mainstream di intel) se questo non accade io cosa m ene faccio delle apu per portatili ? Non mi servono non li trovo potenti abbastanza per cio che io devo fare. Ergo saro costretto a pagare uan cpu intel uno stipendio per avere le prestazioni che mi interessano. Ma l'ho capite o no che questa è una cosa grave, e se davvero amd trascura la fascia alta nei secoli dei secoli è un danno per i consumatori che operano su sistemi enthusiast (o comunque piu potenti delle apu) e su workstation). Forse tu e affiuu non mi capite, ma chi ci lavora capira cosa voglio dire.

non hai afferrato, i vantaggi che piledrive avrà per essere messo su un apu, si trarurrano un una cpu Fx migliore, i due progetti non sono in compezione, ma in simbiosi.

Prima dici che bisogna vedere le apu del futuro e no quelle di ora, mi dici che io vedo le apu come un fastidio alal fascia alta quando non l'ho mai detto ma io ho detto altro. Adesso invece dici che apu e fx vivono in simbiosi.
Ma forse ho capito cosa vuoi dire: che i meriti che avranno le apu poi verrano trasferiti sulle cpu di fascia alta ? Questo vuoi dire ? Se è cosi ti dico che puo essere vero fino a vishera 2013, e dopo ? Il mio problema è dopo, se io in quelle slide avessi visto: 2012 e 2013 vishera, 2014 un altro ipotetico socket o piattaforma per la fascia alta, sarei stato tranquillo con me stesso.
Ma questo stallo fino al 2013 e poi il buoio dopo mi inquieta,. Perchè se amd ha intenzione di produrre chip solo per portatili, per quanto mi riguarda esce fuori dai miei interessi (purtroppo), dico purtroppo perchè mi dispiace, è un marchio che ho sempre scelto, perchè BD a parte ho avuto tutte le famiglie precedenti e mi sono sempre trovato benone (con le top di gamma ovviamente parlo).

io vi rispetto perchè voi siete un informatico ,ma mi ero lasciato trasportare da un vostro pensiero scritto: ''Per me un apu super potente e con prestazioni superiori a un BD attuale degno da fascia ALTA, mi starebbe BENISSIMOOOO.''

mi dispiace tanto il fatto che persone come voi ,che siete informatici e ci lavorate su programmi e processori, non esprimiate delle candide speranze nel progetto APU.

è vero che dovrei scrivere sul forum delle apu,ma per me bulldozer oppure APU,solo la stessa cosa anche se oggi sono fisicamente separate ,ma non spero neanche minimamente di cosa possa essere il progresso di bulldozer SENZA relazionare tutte le modifiche su di esso IN RELAZIONE ALLA componente GPU.

per il resto non scriverò più post cinematografici come dite voi ,ma aspetterò il nuovo film dal titolo ''ritorno del magic pentium''....anzi DEI magic pentium

Tu non hai capito nulla di cio che io ho detto e sto cercando di dire.
Se io ti dico che le apu sono scarse pe ril mio utilizzo tu mi tiri le battutine che secondo te io desidero i pentium ?
Vedi allora che non comprendi ?

Piledriver è una evoluzione dell'architettura BD, è sara allocata sia nelle tue MAGIC APU e sia sui Vishera ... stop.
Quello che tu vedi del futuro: top di gamma cpu in HSA, fuso con componente gpu, è una cosa che vedo anche io e che mi sta benissimo, ma perchè anchio sono sicuto che sia cosi (anche se ti consiglio di scordarti che ti mettano una ipotetica futura top HD9970 dentro la apu del 2015). Le schede video discrete messe in SLI/CF non servono solo per giocare, in ambito workstation tornano utili, e di certo per una questione di marketing non ti metteranno una top dentro l'apu che poi devono rivendere in formato discreta, sarebbe controproducente.
La mia frase: ''Per me un apu super potente e con prestazioni superiori a un BD attuale degno da fascia ALTA, mi starebbe BENISSIMOOOO.'' è ancora valida...
ma sarà cosi ? O amd vuole dedicare il suo tempo solo alle performance LOW POWER ?
Una apu non deve per forza crescere nel tempo per coprire la fascia alta, il crescere che intende amd puo volere anche solo intendere in ambito client multimedia low power esclusivamente.
Il che è roba che non mi interessa, per guardarmi i film ho gia un normale lettore divx da 20 euro attaccato alla tv, non mi serve un pc.

E attualmente sono questi i miei dubbi...le sue intenzioni future per quanto riguarda la fascia alta (che sia caratterizzata da cpu o apu poco mi importa). Chiaramente per futuro intendo dopo vishera, perchè che fino al 2013 mi devo subire l'am3+ l'ho gia capito purtroppo.

paolo.oliva2
08-02-2012, 08:46
certo che se non migliorano il silicio e non salgono di clock, caro il mio Paolo non c'è PD che tenga.....
rischiano di fare un 8150 second edition, cioè una CPU che potenzialmente potrebbe performare bene, ma castrata dal clock..... tu stesso, ed è vero, hai dimostrato la linearità di BD nel salire di clock....segno che cmq all'architettura i MHZ piacciono e parecchio....io stesso con BD a 4,2 con cinebench è + performante del 2600k a def....è solo un esempio non voglio riaprire il cinema fx vs i7...sia chiaro
questo sta a significare non la superiorità di BD, ma il fatto che salendo di clock BD se la può giocare o perlomeno raggiungere un gran bel livello complessivo di performance (quello garantito dal 2600k)....se come si è sempre detto pp permettendo, fosse uscito a def a 4.2, con i vari step di turbo successivi e le rece sarebbero state di tutt'altro avviso....questo è un dato oggettivo...come è un dato oggettivo che così non è stato purtroppo...incrociamo le dita...
anche perche per me da PD il minimo (ma proprio il minimo) che mi aspetto è che il clock sia da 3.9def con i vari step turbo da 4.2 4.5....se PD ha lo stesso clock di 8150...non dico che potrebbero fare a meno di farlo uscire ma quasi...almeno per me..visto che IPC secondo me migliorerà ma non in maniera eclatante....
Concordo.
In fin dei conti, ad esempio, l"architettura Phenom I è nata castrata per il 65nm, il 45nm liscio l'ha fatta un po' risorgere, il low k ha permesso 2 core in più ed il turbo, ma nel discorso IPC l'incremento c'è stato più per demeriti dovuti al 65nm che per altro, altrimenti credo che ci si sarebbe fermati al +5%.
L'architettura BD puntava tutto sul clock, sulla tecnologia TurboCore e la modularità... basta pensare che si sarebbe passati da un max 6 core di un 45nm ad un 10 core sul 32nm...
Io credo che le possibilità di AMD siano 2... o riesce a portare il silicio come da aspettative, oppure ottimizza l'architettura per quanto possibile senza stravolgere nulla a clock inferiori.

Faccio un esempio... le velocità delle cache, supporrei siano basse perchè concepite per dei clock superiori, in fin dei conti c'è un aumento delle latenze rispetto al Thuban superiore rispetto al reale aumento delle frequenza (un po' come le DDR3, se 1600 hanno dei timing, con l'aumentare della frequenza le latenze aumentano).

Poi AMD ha incentrato il funzionamento di carico a 2 TH a modulo per favorire la frequenza anzichè 1 TH a modulo per favorire l'IPC, ma questo era dovuto al fatto che tra clock def e massimo si doveva avere 1GHz di differenza. Un 8150 arriva a +600MHz, quindi puo' darsi che modificare il funzionamento in carico quando possibile ad 1 TH a modulo sia meglio.

Il fatto che Piledriver non incrementi di molto l'IPC, mi sembra che AMD ancora confidi in aumenti di frequenza... magari non corposi ma accettabili, per superare lo stallo attuale 32nm e aspettare miniaturizzazioni/trattamenti silicio futuri.

Rimane sempre il fatto che un aumento di frequenza da 3,6GHz def a 4,2GHz garantirebbe incrementi di gran lunga superiori di quanto ci si possa aspettare da un Piledriver a parità di clock di un 8150 per quanto riguarda l'IPC o comunque pure da ottimizzazioni post Piledriver ma a parità di frequenza.

Considerando che il passaggio da 3,6GHz a 3,9GHz garantirebbe da solo un +8,33%, potrei giudicare il +10% delle slide conservativo, cioè magari più basato sul "sicuro" sul lato IPC che sul lato clock.

winebar
08-02-2012, 12:20
Scusa, ma in base a cosa esisterebbero queste differenze, e soprattutto, questa è la cosa importante: in base a cosa affermi che si vedrebbero in overclock? Voglio dire, potrebbero essere dovute a 1000 fattori aleatori, su questo sarei d'accordo (qualità del silicio, qualità di lavorazioni preliminari, trattamenti, modalità in cui viene maneggiato, usura delle macchine, tempi di lavorazione, temperature...)... Ma variabili aleatorie influiscono sul risultato in maniera aleatoria... Perché mai dovrei vedere una differenza soprattutto in overclock? Non potrei notare una variazione di consumo a default? Certo l'overclock mette in evidenza dei risultati quali la frequenza massima al wall, la curva di tdp...). Ma se AMD stessa dice che la produzione è uguale, non ci saranno differenziamenti tra i modelli...
Se ad esempio il prodotto di IBM fosse migliore io penso che AMD lo userebbe per le declinazioni a frequenza più alta... o con TDP più aggressivo...

La differenza a frequenza di default come consumi praticamente non la noteresti perchè si tratterebbe di meno di un watt di differenza (per 24h/365g ci sarebbero al massimo un paio di euro di costo in più).
Il problema è tutto nei macchinari, che come i processori, non sono tutti identici, ma ci sono quelli che ti sfornano un prodotto migliore di un altro, e nel personale. Tieni conto che le fabbriche IBM sono specializzate in processori PowerPC e Cell che cpn gli x86 non hanno niente a che fare.

Pat77
08-02-2012, 13:31
Concordo.
In fin dei conti, ad esempio, l"architettura Phenom I è nata castrata per il 65nm, il 45nm liscio l'ha fatta un po' risorgere, il low k ha permesso 2 core in più ed il turbo, ma nel discorso IPC l'incremento c'è stato più per demeriti dovuti al 65nm che per altro, altrimenti credo che ci si sarebbe fermati al +5%.
L'architettura BD puntava tutto sul clock, sulla tecnologia TurboCore e la modularità... basta pensare che si sarebbe passati da un max 6 core di un 45nm ad un 10 core sul 32nm...
Io credo che le possibilità di AMD siano 2... o riesce a portare il silicio come da aspettative, oppure ottimizza l'architettura per quanto possibile senza stravolgere nulla a clock inferiori.

Faccio un esempio... le velocità delle cache, supporrei siano basse perchè concepite per dei clock superiori, in fin dei conti c'è un aumento delle latenze rispetto al Thuban superiore rispetto al reale aumento delle frequenza (un po' come le DDR3, se 1600 hanno dei timing, con l'aumentare della frequenza le latenze aumentano).

Poi AMD ha incentrato il funzionamento di carico a 2 TH a modulo per favorire la frequenza anzichè 1 TH a modulo per favorire l'IPC, ma questo era dovuto al fatto che tra clock def e massimo si doveva avere 1GHz di differenza. Un 8150 arriva a +600MHz, quindi puo' darsi che modificare il funzionamento in carico quando possibile ad 1 TH a modulo sia meglio.

Il fatto che Piledriver non incrementi di molto l'IPC, mi sembra che AMD ancora confidi in aumenti di frequenza... magari non corposi ma accettabili, per superare lo stallo attuale 32nm e aspettare miniaturizzazioni/trattamenti silicio futuri.

Rimane sempre il fatto che un aumento di frequenza da 3,6GHz def a 4,2GHz garantirebbe incrementi di gran lunga superiori di quanto ci si possa aspettare da un Piledriver a parità di clock di un 8150 per quanto riguarda l'IPC o comunque pure da ottimizzazioni post Piledriver ma a parità di frequenza.

Considerando che il passaggio da 3,6GHz a 3,9GHz garantirebbe da solo un +8,33%, potrei giudicare il +10% delle slide conservativo, cioè magari più basato sul "sicuro" sul lato IPC che sul lato clock.

Per me è evidente come siano al lavoro su qualcosa di diverso da BD vedendo la roadmap, e parlo del successore, non di step intermedi che si fermeranno a pile.

aldooo
08-02-2012, 14:08
Per me è evidente come siano al lavoro su qualcosa di diverso da BD vedendo la roadmap, e parlo del successore, non di step intermedi che si fermeranno a pile.

Esattamente.

aldogdl
08-02-2012, 14:08
è chiaro, ibm non ha nella sua vocazione produrre hardware, ma brevetti.
il silicio è stato preparato in stretta collaborazione con GF, e penso che sarà rinnovato quando esce piledrive.

non sono tanto competente, ma per collaborazione con GF forse intendi quelli del Grande Fratello, il programma che fanno a mediaset il lunedi sera ?

gianni1879
08-02-2012, 14:35
ho la vaga impressione che in questo thread converrebbe separae BD da tutto il resto, si sta trasformando in un altro thread di aspettando con pagine e pagine, poi chi magari è interessato a BD vero e proprio trova poche info.

carlottoIIx6
08-02-2012, 14:51
L'ho già fatto, e per come la vedo io, il futuro è APU anche in fascia alta (o ibrido, HSA, chiamatelo come volete), ma la cosa che escludo è che amd vivrà solo nel futuro del mondo mobile. Questa è una cosa che non ci credo.



cut

http://www.tomshw.it/cont/news/amd-apu-piu-veloci-fino-al-113-il-segreto-e-nel-software/35799/1.html
e che secondo me non l'hai fatto bene.
:D
sul fatto che gli FX beneficieranno del fatto che piledrive è un progetto ponte tra apu e gli Fx, voglio dire
gestione energetica migliore
collaborazione migliore con GPU dedicata
riduzione del delle dimensioni fisiche e quindi aumento dei core possibili
costi inferiori di proggettazione, meno soldi all'acquisto
la cpu BD deve essere ottimizzata nella struttura per stare in apu piccole (che fanno i soldi) quindi anche gli FX saranno piccoli
ecc

Sayan V
08-02-2012, 14:51
[Thread Ufficiale] CPU serie FX: AMD Bulldozer/Aspettando Piledriver


però il titolo del thread mi pare giusto?

gianni1879
08-02-2012, 14:54
[Thread Ufficiale] CPU serie FX: AMD Bulldozer/Aspettando Piledriver


però il titolo del thread mi pare giusto?

si ma le due cose assieme non vanno, troppe pagine per tutte le future cpu (con i vari ragionamenti/calcoli/fantasia annessi) e poche di sostanza per BD puro

carlottoIIx6
08-02-2012, 14:57
non sono tanto competente, ma per collaborazione con GF forse intendi quelli del Grande Fratello, il programma che fanno a mediaset il lunedi sera ?

GlobalFoundries, l'ex fonderia di AMD

capitan_crasy
08-02-2012, 15:02
ho la vaga impressione che in questo thread converrebbe separae BD da tutto il resto, si sta trasformando in un altro thread di aspettando con pagine e pagine, poi chi magari è interessato a BD vero e proprio trova poche info.

si ma le due cose assieme non vanno, troppe pagine per tutte le future cpu (con i vari ragionamenti/calcoli/fantasia annessi) e poche di sostanza per BD puro

Ciao gianni, ti prego restiamo su un solo thread cioè questo...
E poi personalmente credo che sia inutile dividere gli argomenti, sarebbe solo un doppio casino...
Inoltre nei vecchi thread si è sempre parlato del futuro e anche se oggi la situazione si è decisamente peggiorata, aumentare i thread non risolvono il problema...

Phenomenale
08-02-2012, 15:06
troppe pagine per tutte le future cpu (...) e poche di sostanza per BD puro
In fondo del BD si è detto praticamente tutto, mentre il futuro Piledriver accende la fantasia :oink:

BodyKnight
08-02-2012, 16:31
http://www.realworldtech.com/page.cfm?ArticleID=RWT020712143904

jolly74
08-02-2012, 16:44
Hanno fatto un test di come scala FX-8150 con una 7970 nei vari giochi , confrontato ad altri 2 processori , guardate Qui (http://www.techpowerup.com/reviews/AMD/HD_7970_CPU_Scaling/1.html)

Phenomenale
08-02-2012, 17:10
Interessante il test con la HD7970. Mi stupiscono le differenze fra i vari giochi: con Battlefield 3 l' FX è quasi allineato al 2500K, in Skyrim invece l' FX perde drasticamente contro il 2500K.

Uhm... :O

aldooo
08-02-2012, 17:13
Hanno fatto un test di come scala FX-8150 con una 7970 nei vari giochi , confrontato ad altri 2 processori , guardate Qui (http://www.techpowerup.com/reviews/AMD/HD_7970_CPU_Scaling/1.html)

Azz il nostro amico BD piglia legnate dappertutto contro un 2500K che costa meno e consuma meno, su un pc equipaggiato con scheda video AMD :(

Cmq basta con questi test che dicono sempre le stesse cose.
Ora chiedo loro se possono fare un test di "scatticchiamento" avviando boinc insieme al gioco. Vediamo se rispondono

Sayan V
08-02-2012, 17:30
Hanno fatto un test di come scala FX-8150 con una 7970 nei vari giochi , confrontato ad altri 2 processori , guardate Qui (http://www.techpowerup.com/reviews/AMD/HD_7970_CPU_Scaling/1.html)

Sbaglio oppure hanno messo delle DDR3 1866 a 1333 mhz .... per quale motivo ??? :mbe:

shellx
08-02-2012, 17:31
Per me è evidente come siano al lavoro su qualcosa di diverso da BD vedendo la roadmap, e parlo del successore, non di step intermedi che si fermeranno a pile.

E' quello che sto cercando di capire e sperare...

http://www.tomshw.it/cont/news/amd-a...e/35799/1.html
e che secondo me non l'hai fatto bene.

sul fatto che gli FX beneficieranno del fatto che piledrive è un progetto ponte tra apu e gli Fx, voglio dire
gestione energetica migliore
collaborazione migliore con GPU dedicata
riduzione del delle dimensioni fisiche e quindi aumento dei core possibili
costi inferiori di proggettazione, meno soldi all'acquisto
la cpu BD deve essere ottimizzata nella struttura per stare in apu piccole (che fanno i soldi) quindi anche gli FX saranno piccoli
ecc

L'avevo già letto quell'articolo, ed è una cosa molto interessante quel tipo di approccio. Ma è chiaro che dovrebbe avere la L3 anche la APU (mi viene da pensare versioni top). Altrimenti senza l3 quella tecnica non funge.

Ma comunque non centrava niente con il mio discorso che facevo ieri, e quanto meno con il thread. Per cui basta cosi.

-------------------------------------------

@gianni: Per quanto riguarda la divisione del thread: di bd c'è poco da dire si è gia detto tantissimo, e il resto oc ecc ecc è residente nell'altro thread dedicato all'oc di bd. Dopo le slide di amd del financyal questo è l'unico thread piu idoneo dove discutere del fututro di amd. Io credo che dividendoli si ottiene: che quello del futuro piledriver diventerà pieno di discussioni inerenti al futuro di amd in qusta fascia, e questo qui invece si trasforma in una tomba.
Almeno secondo un mio parere.

shellx
08-02-2012, 17:41
Azz il nostro amico BD piglia legnate dappertutto contro un 2500K che costa meno e consuma meno, su un pc equipaggiato con scheda video AMD :(

Cmq basta con questi test che dicono sempre le stesse cose.
Ora chiedo loro se possono fare un test di "scatticchiamento" avviando boinc insieme al gioco. Vediamo se rispondono

Torniamo sempre al solito discorso dei test che si faceva mesi indietro.
Non è il modo corretto di testare la genuinità di una cpu nei giochi.
Quei test sono allineati con gli fps. Come al solito testano tutto a manetta e il 90% di carico è sulla scheda video (eccetto per la 1024x768).
Se ci mettevi un K8 faceva 2 fps in meno del nehalem in quei grafici.

Quindi io ste legnate non le vedo proprio, visto che l'occhio umano per vedere la differenza di 2fps mentre giochi dovrebbe come minimo essere un occhio bionico.
Tuttavia sono anchio del parere che un SB è leggermente superiore nei giochi rispetto BD. Ma non è da questi test che lo si capisce secondo me.

Edit: in crysis 2, BD dalla 1024x768 alla1280x1024 non perde fps SB ne perde un totale, dalla 1280x1024 alla 1680x1050 perde 6 fps. Sandy invece ne perde 17 fps.
Aumentando la risolizione, BD ha una perdita inferiore di fps rispetto Sandy. Sintomo che sta facendo tutto la scheda video su BD, mentre su SB scala in maniera piu lineare durante l'aumento di risoluzione.

gianni1879
08-02-2012, 17:52
ok lasciamo così.

carlottoIIx6
08-02-2012, 17:57
Torniamo sempre al solito discorso dei test che si faceva mesi indietro.
Non è il modo corretto di testare la genuinità di una cpu nei giochi.
Quei test sono allineati con gli fps. Come al solito testano tutto a manetta e il 90% di carico è sulla scheda video (eccetto per la 1024x768).
Se ci mettevi un K8 faceva 2 fps in meno del nehalem in quei grafici.

Quindi io ste legnate non le vedo proprio, visto che l'occhio umano per vedere la differenza di 2fps mentre giochi dovrebbe come minimo essere un occhio bionico.
Tuttavia sono anchio del parere che un SB è leggermente superiore nei giochi rispetto BD. Ma non è da questi test che lo si capisce secondo me.

Edit: in crysis 2, BD dalla 1024x768 alla1280x1024 non perde fps SB ne perde un totale, dalla 1280x1024 alla 1680x1050 perde 6 fps. Sandy invece ne perde 17 fps.
Aumentando la risolizione, BD ha una perdita inferiore di fps rispetto Sandy. Sintomo che sta facendo tutto la scheda video su BD, mentre su SB scala in maniera piu lineare durante l'aumento di risoluzione.

quoto
http://www.techpowerup.com/reviews/AMD/HD_7970_CPU_Scaling/20.html
ricorodo che è stata fatta una esperienza di gioco 2700k vs 8150 dove i giocatore a larga maggioranza hanno preferito AMD.
amd magari invece di produrre frame inuti aumenta la qualità dell'immagine, ma queste cose bisogna anche farle vedere nei test.
inoltre secondo me a risoluzioni maggiori di quelle indicate avviene pure il sorpasso.

gianni1879
08-02-2012, 18:01
quoto
http://www.techpowerup.com/reviews/AMD/HD_7970_CPU_Scaling/20.html
ricorodo che è stata fatta una esperienza di gioco 2700k vs 8150 dove i giocatore a larga maggioranza hanno preferito AMD.
amd magari invece di produrre frame inuti aumenta la qualità dell'immagine, ma queste cose bisogna anche farle vedere nei test.
inoltre secondo me a risoluzioni maggiori di quelle indicate avviene pure il sorpasso.

AMD, la cpu, fa aumentare la qualità dell'immagine? un esperienza di gioco dove si sono preferite le cpu AMD?


Secondo me prima di spararle così grosse converrebbe riflettere su cosa scrivere. Cerchiamo di evitare quello che è accaduto in passato.
Alla prossima tua sparata sei buttato fuori dal forum per un pò, penso di aver tollerato abbastanza.

Sayan V
08-02-2012, 18:01
quoto
http://www.techpowerup.com/reviews/AMD/HD_7970_CPU_Scaling/20.html
ricorodo che è stata fatta una esperienza di gioco 2700k vs 8150 dove i giocatore a larga maggioranza hanno preferito AMD.
amd magari invece di produrre frame inuti aumenta la qualità dell'immagine, ma queste cose bisogna anche farle vedere nei test.
inoltre secondo me a risoluzioni maggiori di quelle indicate avviene pure il sorpasso.

Anch'io ho notato che a risoluzioni alte (2560x1600 ad esempio) il BD fa più FPS

chissà come mai?

gianni1879
08-02-2012, 18:06
Anch'io ho notato che a risoluzioni alte (2560x1600 ad esempio) il BD fa più FPS

chissà come mai?

http://tpucdn.com/reviews/AMD/HD_7970_CPU_Scaling/images/perfrel_2560.gif

:mbe:

shellx
08-02-2012, 18:16
quoto
http://www.techpowerup.com/reviews/AMD/HD_7970_CPU_Scaling/20.html
ricorodo che è stata fatta una esperienza di gioco 2700k vs 8150 dove i giocatore a larga maggioranza hanno preferito AMD.
amd magari invece di produrre frame inuti aumenta la qualità dell'immagine, ma queste cose bisogna anche farle vedere nei test.
inoltre secondo me a risoluzioni maggiori di quelle indicate avviene pure il sorpasso.

Non ho ancora conosciuto nessuno o visto nessun bench dove l'utenza preferisce BD a SB nei giochi. Non quotarmi cose che non dico, io ho detto un altra cosa nel mio post. Quell'articolo a cui tu ti riferisci e citi di continuo non era un bench era un gruppo di fan di amd, e non ha nulla a che fare con la genuinità di due architetture.

La qualità dell'immagine la lavora la scheda video (in un massimo anche di come è disegnata dagli sviluppatori), proprio come i frames, e le cpu in questo ambito centrano poco, se no ad avere ruoli di calcoli differenti da passare alla scheda video durante il suo lavoro nei giochi o in qualsiasi applicazione 3d. La cpu x86 non lavora il 3d, fa calcoli di diversa natura (che non ti spiego per non andare ot).
Tuttavia si da il caso, che in un gioco i frame non sono inutili come dici tu (vallo a dire ad un gamer una frase di questa). E la qualità di immagine non centra nulla come non centrano i frame con la cpu. Ti stai confondendo con le apu (che anche il quel caso è la gpu integrata che elabora il 3d e si fa passare calcoli diversi dal core x86 -almeno in queste prime apu-) e che oltretutto sono insufficienti per giocare.

A risoluzioni maggiori avviene il sorpasso ?
Peccato chetale sorpasso avviene di pochissimi fps quando questi sono tutti quanti allineati a meno di 20fps.
Prova a giocoare a meno di 20fps, dopo mezzora ti sembrerà di aver attraversato lo stretto di messina con un maremoto in corso.

Sayan V
08-02-2012, 18:18
http://tpucdn.com/reviews/AMD/HD_7970_CPU_Scaling/images/perfrel_2560.gif

:mbe:



http://tpucdn.com/reviews/AMD/HD_7970_CPU_Scaling/images/metro_2033_2560_1600.gif

capitan_crasy
08-02-2012, 18:19
ok lasciamo così.

Chuck Norris Approved!
http://www.xtremeshack.com/immagine/i135047_1313511046249.gif
:D

gianni1879
08-02-2012, 18:20
http://tpucdn.com/reviews/AMD/HD_7970_CPU_Scaling/images/metro_2033_1024_768.gif

forse non colgo la battuta?

vedo sempre avanti SB su BD.

Sayan V
08-02-2012, 18:23
http://tpucdn.com/reviews/AMD/HD_7970_CPU_Scaling/images/dirt3_2560_1600.gif

http://tpucdn.com/reviews/AMD/HD_7970_CPU_Scaling/images/battleforge_2560_1600.gif


vabbè ... ho sbagliato il copia e incolla :O

shellx
08-02-2012, 18:24
Anch'io ho notato che a risoluzioni alte (2560x1600 ad esempio) il BD fa più FPS

chissà come mai?

Ancora con sti commenti ?
Ho detto prima che dalla risoluzioni piu bassa alla penultima risoluzione Sandy scala linearmente verso il basso, menter BD rimane quasi allineato sugli stessi fps. Mentre alla risoluzione piu alta in assoluto tutte le cpu hanno un calo di fps. Tuttavia Sandy riesce ad ottenere anche a questa risoluzione qualche fps in piu (ma parliamo di un tot di fps ingiocabili).

Morale della favola:

1. Sandy si comporta meglio di BD nei giochi.

2. Quella linearitàò di BD al rialzo della risolzione fa capire come su BD la scalbilità è assente, BD sembra impassibile a tutto. Mentre con SB scala bene e risponde alle risoluzioni. E per BD questa cosa non è positiva, anche se voi vi eccitate perchè vedete che non perde fps, ma non è cosa buona quel sintomo.

3. Tuttavia non ho trovato nemmeno corretto dire che BD prende legnate da cani, perchè anche questo non è una cosa vera. Le legnate le prende solo a basse medie risoluzioni.

E' cosi difficile capire questi 3 punti ?

gianni1879
08-02-2012, 18:28
http://tpucdn.com/reviews/AMD/HD_7970_CPU_Scaling/images/dirt3_2560_1600.gif

http://tpucdn.com/reviews/AMD/HD_7970_CPU_Scaling/images/battleforge_2560_1600.gif


vabbè ... ho sbagliato il copia e incolla :O

miii 0,4 fps e 1fps in effetti può fare la differenza.

shellx
08-02-2012, 18:34
http://tpucdn.com/reviews/AMD/HD_7970_CPU_Scaling/images/dirt3_2560_1600.gif

http://tpucdn.com/reviews/AMD/HD_7970_CPU_Scaling/images/battleforge_2560_1600.gif


vabbè ... ho sbagliato il copia e incolla :O

Ma mi spiegate perchè trovate sempre il pelo dentro all'uovo per contraddire la genuinità della realtà dei fatti ?

Ma tu credi che 2 fps in un test su 10 di quell'articolo, cambiano la realtà di BD in quei test ?

Sia con BD che con SB si puo giocare decentemente a qualsiasi titolo (con una buona o media scheda video -e no con le apu-).
Ma è chiaro capire da quei test, che SB si comporta meglio quasi sempre e in tutti i titoli. E in alcuni casi di medie risoluzioni gli fps rispetto BD sono di 15 e anche 20 superiori (mica pochi).

Sayan V
08-02-2012, 18:34
miii 0,4 fps e 1fps in effetti può fare la differenza.

Non è la differenza che mi interessa o chi vince, ma mi faceva pensare ... visto che io gioco solo a risluzioni alte da 1080P a 1600P


inoltre perchè non hanno messo il mostro i7-3960x nel confronto ???


http://www.hwupgrade.it/articoli/cpu/3037/metro_2033_2.png

shellx
08-02-2012, 18:44
inoltre perchè non hanno messo il mostro i7-3960x nel confronto ???


Forse perchè appartiene ad una fascia differente per determinare l'obbiettivo per il quale era destinato il test ?

aldooo
08-02-2012, 18:48
3. Tuttavia non ho trovato nemmeno corretto dire che BD prende legnate da cani, perchè anche questo non è una cosa vera. Le legnate le prende solo a basse medie risoluzioni.


E' come dire che un auto che fa i 100 all'ora e una che fa i 200 all'ora vanno uguali quando la strada è tutto un tornante.

> Le legnate le prende solo a basse medie risoluzioni.

Ossia quando la CPU conta di piu'.

Sayan V
08-02-2012, 18:49
Forse perchè appartiene ad una fascia differente per determinare l'obbiettivo per il quale era destinato il test ?

Oppure le prendeva anche lui ????

secondo me sì

gianni1879
08-02-2012, 18:58
Oppure le prendeva anche lui ????

secondo me sì

a quelle risoluzioni tutte le cpu si appiattiscono, SB e SB-E danno risultati molto simili. Una differenza di uno o due fps in test, può esser semplicemente causata dalla variabilità del test stesso.
Non cominciamo a veder cose che non esistono che non ne usciamo più.

Anzi aggiungo che al variare della frequenza di clock della cpu, normalmente SB scala meglio, tranne in alcuni test per BD.

shellx
08-02-2012, 18:59
Oppure le prendeva anche lui ????

secondo me sì

Ma non è questione che le prendeva.

Il 3960x non è una cpu concepita prettamente per il gaming, ma per workstation di tipologie di utilizzi maggiori (anche se alcuni utenti le comprano per farsi macchine estreme da gioco), proviene direrettamente dagli xeon e ha tipologie di carico diversi dal 2600k. Tuttavia secondo me in giochi che sfruttano pesantemente il MT si comporta anche meglio del 2600k anche nei giochi.

L'obbiettivo di quel test è testare processori top di gamma delle fascie mainstream da gioco estremo ma umano. E il 3960x non rientra in questa categoria.

Quindi che significa le prendeva ? Anche l'opteron secondo me le prendeva, anche lo xeon in quelle circostanze e con quei test dove lavora a manetta la scheda video. Ma non è una questione di superiorità di cpu rispetto il 3960x è una questione di tipologie di test configurate in modo non adatto a ricavarne la genuina realta di determinate cpu come il 3960x. Ed è chiaro che otterrebbe risultati analoghi ai modelli inferiori. Per cui non ha senso testarlo.

Fai un test di carico intensivo MT su applicazioni idonee a questi carichi e vedi chi le prende fra il 3960x, l'8150 e il 2600k, questi ultimi due nemmeno lo vedono il 3960x, e sono sicuro che forse il BD si comporta pure qualcosina meglio del 2600k su questo tipo di carico, è in ST che fa pena. Tuttavia nemmeno lui riuscirebbe a raggiungere la potenza di un 3960x su appliczioni MT brute.

I giochi ancora oggi non sfruttano L'MT bruto...ve lo volete mettere in testa o no ?

ra-mta
08-02-2012, 18:59
Oppure le prendeva anche lui ????

secondo me sì

però basta non se ne può più davvero :rolleyes: ...
Parlo da sostenitore amd (basti pensare che hai tempi pur sapendo che l'opteron 165 era inferiore e di molto rispetto al q6600 ho tenuto il primo per pura simpatia e divertimento sulla mitica dfi nf4), spero anche io in piledrive e vedremo come evolve.
Detto questo, il mostro di cui parli è una cpu da workstation economica, che poi possa essere usata anche nei giochi ok ma non è quello il suo scopo; in campi specifici siamo su potenze ben diverse da quelle che può darci bd o sb non ha senso nemmeno paragonarli :) Oppure tu quando vai ad acquistare una macchina fai un giro anche nei venditori di trattori? sempre di mezzo di trasporto si tratta :stordita:

affiu
08-02-2012, 19:03
Azz il nostro amico BD piglia legnate dappertutto contro un 2500K che costa meno e consuma meno, su un pc equipaggiato con scheda video AMD :(

Cmq basta con questi test che dicono sempre le stesse cose.
Ora chiedo loro se possono fare un test di "scatticchiamento" avviando boinc insieme al gioco. Vediamo se rispondono

se facessero questo(aldilà dell'utilità o bellezza) finalmente capirei perchè amd non ha mai creduto alla tecnologia h-treading:ci sarebbe un motivo da qualche parte perchè amd non crede o puo anche essere per la favola di fedro?

ad ogni modo per me ,SOTTO QUESTO PUNTO DI VISTA, FX 8 core per via della condivisione dei core A DUE A DUE(modulo) si puo ipotizzare che sia un quad core DOPPIO ,anche se viene visto come 8 core dal sistema operativo.

io ho giocato con winrar e scansione antivirus (in contemporanea) con un'occupazione core SOPRA IL 50%(spingendomi fino al 65%-70%) e dopo giorni di gioco era come se fosse pane per i suoi denti.NON CREDO che 4 core + 4 invisibili possano rendere lo stesso,anche se è appurato che detta tecnologia funziona ,ma non ho mai capito il vero motivo per cui amd non ci crede fino ad oggi....bo

io mi sono sempre fidato di amd per processore per i giochi,anche quando dovevo passare dall'athon 64 al phenom1(9950 9750) l'unica cosa che mi fece scegliere fu il fatto(per fissazione teorica che per me fosse migliore) che aveva il controller di memoria integrato,mentre la controparte no(sostituito da maggiore cache).

ripeto,io per multi-task degli fx intendo che ALMENO uno dei programmi in contemporanea sia un gioco(non solo tutti programmi)...e quest'ultimo aspetto(grazie all'esperienza di randa71) mi ha fatto sciegliere anche stavolta.

shellx
08-02-2012, 19:25
se facessero questo(aldilà dell'utilità o bellezza) finalmente capirei perchè amd non ha mai creduto alla tecnologia h-treading:ci sarebbe un motivo da qualche parte perchè amd non crede o puo anche essere per la favola di fedro?

ad ogni modo per me ,SOTTO QUESTO PUNTO DI VISTA, FX 8 core per via della condivisione dei core A DUE A DUE(modulo) si puo ipotizzare che sia un quad core DOPPIO ,anche se viene visto come 8 core dal sistema operativo.

io ho giocato con winrar e scansione antivirus (in contemporanea) con un'occupazione core SOPRA IL 50%(spingendomi fino al 65%-70%) e dopo giorni di gioco era come se fosse pane per i suoi denti.NON CREDO che 4 core + 4 invisibili possano rendere lo stesso,anche se è appurato che detta tecnologia funziona ,ma non ho mai capito il vero motivo per cui amd non ci crede fino ad oggi....bo

Hanno scelto due strade diverse: posso anche pensare ch eil suo dire di non crederci è alibi per mascherare l'errore di non averlo fatto. Aldilà di questo credere o non credere, hanno scelto due strade diverse. E sembra oggi che l'approccio di Intel dia piu efficienza rispetto quello di amd.


io mi sono sempre fidato di amd per processore per i giochi,anche quando dovevo passare dall'athon 64 al phenom1(9950 9750) l'unica cosa che mi fece scegliere fu il fatto(per fissazione teorica che per me fosse migliore) che aveva il controller di memoria integrato,mentre la controparte no(sostituito da maggiore cache).

Ed è proprio questa fissazione dell'integrazione che vi frega. E continua a rendervi convinti anche nel caso apu.
Un MC integrato in una cpu rispetto una che non lo ha (anche se oggi lo hanno tutte -proprio come domani saranno apu tutte-) non influisce affatto sulla potenza del processore in se stesso. (vedi apu attuale contro fx solo core x86 attuale).
Infatti le prime cpu con mc integrato di amd, non è che erano tutta sta potenza rispetto le cpu di intel di quel periodo.
Vuoi che te lo ricordo ?
Anzi no perchè andiamo ot, ricordatelo da solo.


ripeto,io per multi-task degli fx intendo che ALMENO uno dei programmi in contemporanea sia un gioco(non solo tutti programmi)...e quest'ultimo aspetto(grazie all'esperienza di randa71) mi ha fatto sciegliere anche stavolta.

Sto fatto dello scatticchio su BD rispetto SB, mi ha seccato. Sta diventando una leggenda metropolitana.
Un maledettissimo SWAP è determinato da n.mila motivi di un interso sistema. E non centra per forza solo la cpu.

Io a Randa lo credo, ma per me rimane un fenomeno che a lui ed ad altri è capitato nelle loro condizioni e cirocostanze del loro sistema.
Ma non è una cos ache HANNO ACCUSATO TUTTI.
Quando vedo 100 utenti in una volta che hanno entrambe le cpu e dicono che BD non swappa in MT e SB si allora inzio veramente a crederci.

Io ho un 8120, e sinceramente se devo essere onesto, quando apro un tot di programmi contemporanei lo swap me lo fa anche a me con il BD.
Sara la cpu ? Sara qualche altro contensto all'interno della mia conf ? Sara che forse lo swap puo essere causato da 1298923829131 motivi ?

Dimmelo tu ?
Tu credi veramente in assoluto che tutte le cpu SB scatticchiano in MT rispetto tutti i BD in TUTTE le tipologie di configurazioni di un sistema ? (sia hardware che confgirazione software..driver ecc ecc) ? ? ?

Ma basta con ste leggende metropolitane e sta continua fanta informatica cinematrografica...sta diventando tutto ridicolo sto thread...fra discussioni di apu magiche che materializzano i folletti irlandesi e BD chenon scatticchiano rispetto SB, è diventato la sezione circo del forum.

affiu
08-02-2012, 20:20
[QUOTE=shellx;36885465]

Ed è proprio questa fissazione dell'integrazione che vi frega. E continua a rendervi convinti anche nel caso apu.
Un MC integrato in una cpu rispetto una che non lo ha (anche se oggi lo hanno tutte -proprio come domani saranno apu tutte-) non influisce affatto sulla potenza del processore in se stesso. (vedi apu attuale contro fx solo core x86 attuale).
Infatti le prime cpu con mc integrato di amd, non è che erano tutta sta potenza rispetto le cpu di intel di quel periodo.
Vuoi che te lo ricordo ?
Anzi no perchè andiamo ot, ricordatelo da solo.

Io a Randa lo credo, ma per me rimane un fenomeno che a lui ed ad altri è capitato nelle loro condizioni e cirocostanze del loro sistema.
Ma non è una cos ache HANNO ACCUSATO TUTTI.
Quando vedo 100 utenti in una volta che hanno entrambe le cpu e dicono che BD non swappa in MT e SB si allora inzio veramente a crederci.

Io ho un 8120, e sinceramente se devo essere onesto, quando apro un tot di programmi contemporanei lo swap me lo fa anche a me con il BD.
Sara la cpu ? Sara qualche altro contensto all'interno della mia conf ? Sara che forse lo swap puo essere causato da 1298923829131 motivi ?

Dimmelo tu ?
Tu credi veramente in assoluto che tutte le cpu SB scatticchiano in MT rispetto tutti i BD in TUTTE le tipologie di configurazioni di un sistema ? (sia hardware che confgirazione software..driver ecc ecc) ? ? ?

perchè mi attaccate sempre in questo modo?io semplicemente non intendo che il controller rende una cpu piu potente ,ma solo migliore nei giochi e lo so benissimo che i phenom erano sotto,ci mancherebbe.:D

ripeto di nuovo a me di tutti i programmi in contemporaneamente non me ne frega NULLA ,tranne quando c'è un gioco che gira sotto,dato che io il processore lo scelgo per questo motivo(game).

è vero che è stato fatto un test sui multitask su questo forum e la situazione non se vista assolutamente tutto perfetto, ma tra questi programmi non c'era un gioco !
quello che non ho visto è quando fra suddetti programmi ci sia un gioco;a me se fosse successo quello che successe a randa71 ,avrei semplicemente preso il procio e gli avrei azzecato la punta del picone filo a trapassarlo e basta.
io quando gioco non ne voglio problemi di nessun tipo,razza ,visibili o invisibili,normali e paranormali,discutibili o meno,sotto tutti i punti di vista.
non avrei il sacrosanto diritto a essere mal pensante,che fin tanto non vedo non ci credo?e non credo che sia la configurazione come dite voi!
adesso sto per prendere un sabert 99ofx + dissipatore + un altro 8120+6950 2g ,ed il prossimo mese pure ssd.....cosa dovrei scegliere un 2500k(anche se il piu veloce nei frame,E' VERO)
una volta giocai a carbon su un pc prestato da un mio amico (pentium d x2 2.93ghz ) e dopo 15 minuti si scaldava e non mi permetteva di giocare ,cambiai dissipatore ed idem ,stessa cosa con i pentium di prima rispetto al 1700+ che avevo ,a rally championsing ....si scaldavano(anche se la malanomina l'avevano gli amd,vero, che pero ci giocavo giorni e zero tagliato di problemi) e dopo un po puffete...
per questo ho preso sempre amd:muro: sia mobile che desktop

io dell'fx non mi posso lamentare ,anzi come processore per game lo consiglio e con questo non voglio dire che sia piu potenti perche i frame sono un po meno

mtk
08-02-2012, 20:28
dovete scrivere in italiano!!
dai ca--o!!!

shellx
08-02-2012, 20:50
ripeto di nuovo a me di tutti i programmi in contemporaneamente non me ne frega NULLA ,tranne quando c'è un gioco che gira sotto,dato che io il processore lo scelgo per questo motivo(game).

Se il tuo obbiettivo è il game, non capisco come ti eccitano le apu...
Qualsiasi sistema che gira un solo game sotto va benissimo (BD o SB).
Gli swap accusati erano causati in utilizzi differenti, ma sinceramente sfiderei chiunque si faccia una macchina per giocare, che avvia un game e contemporaneamente sotto tiene 20 applicazioni in esecuzione.

è vero che è stato fatto un test sui multitask su questo forum e la situazione non se vista assolutamente tutto perfetto, ma tra questi programmi non c'era un gioco !
quello che non ho visto è quando fra suddetti programmi ci sia un gioco;a me se fosse successo quello che successe a randa71 ,avrei semplicemente preso il procio e gli avrei azzecato la punta del picone filo a trapassarlo e basta.

ma cosa te ne fai dei test con il gioco aperto + applicazioni ?
Ma bada che non cambia niente, un gioco è un applicazione per giocare, cambia solo la tipologia (infatti tendente piu al ST che al MT).


io quando gioco non ne voglio problemi di nessun tipo,razza ,visibili o invisibili,normali e paranormali,discutibili o meno,sotto tutti i punti di vista.
non avrei il sacrosanto diritto a essere mal pensante,che fin tanto non vedo non ci credo?e non credo che sia la configurazione come dite voi!

Ma chi ha detto che con SB si hanno questi problemi ?
Ma ragazzi avete visto come si è creata la leggenda metropolitana inesistente ?
Ora esce che con SB nei giochi si hanno problemi ?
Sia cn BD che SB non noterai mai differenze visive se hai una ottima scheda video. Invece se hai una apu ( che ti piace cosi tanto) senza scheda video discreta si, li si che noti le differenze e vedi scattare i giochi a risoluzioni alte. Non vuoi nessun tipo di problema mente giochi pero tifi per le apu mainstream che creano proprio questo tipo di problemi se nonsono abbinate a schede video decenti ? Ma chi ti capisce a te ...

Lo swap e microrallentamenti sono causati da n.mila motivazioni, ergo dall'intera configurazione. Devi per forza non crederci perchè vuoi sostenere per forza che SB da i rallentamenti nei giochi ?
Ma davvero credi questo ? Ma tuhai un BD, hai un 2600k ?
Se vuoi levarti il dubbio prenditi entrambi, anziche sostenere per forza che uno swap non puo essere causato da n.mila motivi, metti in dubbio le esperienze altrui.
E' dal 1990 che smanetto sui computer e ho avuto modo di appurare proprio questo. Dovresti capire la definizione di SWAP o meglio STUTTERING (che sono due cose diverse, e che è lo stuttering piu idoneo a questo evento) per capire di cosa parlo.
E lascia perdere che la colpa è delle cpu soltanto per il microstuttering, perchè ti sbagli di grosso.


adesso sto per prendere un sabert 99ofx + dissipatore + un altro 8120+6950 2g ,ed il prossimo mese pure ssd.....cosa dovrei scegliere un 2500k(anche se il piu veloce nei frame,E' VERO)

tu ti prendi quello che vuoi che me ne frega a me, tanto a conti fatti gia so per certo che giocherai godendo tutto di tutto alla stessa maniera di chi ha un 2500k, le minime differenze nei giochi si vedono solo nei bench e no nell'uso pratico.


una volta giocai a carbon su un pc prestato da un mio amico (pentium d x2 2.93ghz ) e dopo 15 minuti si scaldava e non mi permetteva di giocare ,cambiai dissipatore ed idem ,stessa cosa con i pentium di prima rispetto al 1700+ che avevo ,a rally championsing ....si scaldavano(anche se la malanomina l'avevano gli amd,vero, che pero ci giocavo giorni e zero tagliato di problemi) e dopo un po puffete...
per questo ho preso sempre amd:muro: sia mobile che desktop

altre leggende metropolitane, fatte diventare vere a furia di spacciarle per tali
ci sono stati modelli di intel in passato che hanno avuto problemi come quelli di amd, ma il surriscaldamento di una cpu (amd o intel che sia) è determinato anche dal tuo sistema di dissipazione.
Si vede che quando hai accusato problemi di riscaldamento: o stavi avendo a che fare con una cpu intel mal riuscita in quel periodo su questo punto di vista, o forse avevi sistemi di dissipazione degni di latrina vietnamita.


io dell'fx non mi posso lamentare ,anzi come processore per game lo consiglio e con questo non voglio dire che sia piu potenti perche i frame sono un po meno

Anchio il BD lo consiglio per giocare se nessuno mi chiede dettagli nei consumi o nelle performance massime.
Ma se qualcuno mi chiede: voglio il massimo del massimo nei giochi spendendo uguale e consumando di meno, cosa c'è in giro attualmente ?
Io gli rispondo senza pensarci due volte: 2500k o 2600K sandy bridge

paolo.oliva2
08-02-2012, 22:35
Concordo con quello che dici... ma comunque sono le stesse cose tritate e ritritate... basta non pesare le cose differentemente a seconda della bandiera.

SB costa meno, consuma meno, va di più, perchè comprare l'8150 allora?
Va bene come risposta... mi piace l'imballo di metallo e la scritta FX? :sofico:

Comunque, a parte gli scherzi... infatti è per questo che aspettiamo Piledriver... altrimenti il TH sarebbe un continuo "ma il 2600K"...

shellx
08-02-2012, 22:54
Comunque, a parte gli scherzi... infatti è per questo che aspettiamo Piledriver... altrimenti il TH sarebbe un continuo "ma il 2600K"...

L'ho aspetto anchio, e aspetto anche un dopo piledriver (steamroller e/o excavator) in questa fascia degli FX.

Randa71
09-02-2012, 00:11
ogni volta che leggo il thread non so perchè ma ultimamente vengo assalito da un velo sottile di tristezza:
1) ancora a parlare di BD e delle perf in game? dopo 300 pagine di thread?;
2) ancora a chiedersi come mai con skyrim non va bene?che poi con l'ultima patch le cose, grazie alle ottimizzazioni, sono migliorate molto...
3) ancora con la storia e il tentativo velato di far polemica con quanto avevo affermato in precedenza sul discorso del carico? sottointendendo più o meno velatamente che le mie sono invenzioni?
4) che cosa centra il fenomeno di cui io ho parlato, con lo swap? ma sapete di cosa state parlando?
5) ancora a parlare di quanto BD in game a 1024*768 fa pena rispetto a SB?ma in quanti giocano a 1024*768??...io ci giocavo a quella risoluzione ai tempi del pentium2 con Quake...anzi perchè non proviamo a 640*480 che era la risoluzione del mio pentium 100 quando giocavo in Dos a Duke Nukem;oppure perchè non a 320*240 che era la risoluzione standard di Doom/Heretic/Hexen..
6) ancora a dire quanto SB è più figo rispetto a BD??
7) mi sembra di essere all'asilo mariuccia come si diceva ai miei tempi...scusate se lo dico..
che cosa c'entra tutto questo con BD? il continuare è dire che SB è più meglio di BD??Non ho ancora capito se il thread è BD o se è BD vs i7. Ho fatto una domanda tecnica in merito a come BD gestisce le AVX ma mi sembra che non sia argomento di interesse, l'importante è dire e ribadire e stradire che SB è il più meglio rispetto a BD...

shellx
09-02-2012, 00:33
ogni volta che leggo il thread non so perchè ma vengo assalito da un velo di tristezza:
1) ancora a parlare di BD e delle perf in game? dopo 300 pagine di thread?;
2) ancora a chiedersi come mai con skyrim non va bene?che poi con l'ultima patch le cose, grazie alle ottimizzazioni, sono migliorate molto...
3) ancora con la storia e il tentativo velato di far polemica con quanto avevo affermato in precedenza sul discorso del carico? sottointendendo più o meno velatamente che le mie sono invenzioni?
4) che cosa centra il fenomeno di cui io ho parlato, con lo swap? ma sapete di cosa state parlando?
5) ancora a parlare di quanto BD in game a 1024*768 fa pena rispetto a SB?ma in quanti giocano a 1024*768??...io ci giocavo a quella risoluzione ai tempi del pentium2 con Quake...anzi perchè non proviamo a 640*480 che era la risoluzione del mio pentium 100 quando giocavo in Dos a Duke Nukem;oppure perchè non a 320*240 che era la risoluzione standard di Doom/Heretic/Hexen..
6) ancora a dire quanto SB è più figo rispetto a BD??
7) mi sembra di essere all'asilo mariuccia come si diceva ai miei tempi...scusate se lo dico..
che cosa c'entra tuuto questo con BD? il continuare è dire che SB è più meglio di BD??

I miei discorsi sono stati abbastanza netti e precisi.
Non ho messo in dubbio l'anneddoto accaduto a te dello stuttering. Ma se leggi ho scritto precisamente come la penso. Io credo che a te ti sia accaduto, ma ho il diritto di credere che posso pensare diversi motivi per il quale ti sia accaduto. Ma non mi permetterei mai e poi mai di pensare che tu racconti balle...assolutamente..che siamo mica all'asilo che diciamo le bugie ?

Inoltre ho usato il termine swap per adeguarmi all'utente che continuano a chiamarlo cosi, ma quello a casa mia si chiama stuttering, anzi microstuttering...
E so benissimo di cosa parlo ;)

Tuttavia concordo con te: è seccante ogni volta dover fare il confronto, ma se noti bene guarda perchè è nato il confronto. . . Perchè c'è sempre chi si inventa fanta informatica e dice che BD sia la migliore scelta, solo perchè non è capace di analizzare dei grafici ed entrare in merito della situazione.
Addirittura c'è chi vuole pure i proci socket 2011 su dei test che non gli appartengono visto il fine che hanno.
C'è chi dice che cn SB i giochi scattano ergo meglio BD.
C'è chi dice che da oggi si è notato che la maggiorparte di utenza sceglie BD per il gaming ...
ma quannnu maiii ... ? .. cose dell'altro mondo ...

Cioè capisci perchè si ritorna qui dentro sempre agli stessi argomenti ?
Perchè non è possibile vedere un test di confronto, che qualcuno deve dire che BD si è trasformato in super sayan magicamente ...
Non è cosi diamine non è cosiiii ...Stiamo aspettando piledriver proprio per capire incosa si trasformano sti FX (una cosa è certa da zambesi diventa vishera) ... e poi .. ? ... vedremo ...

Analizziamo le cose con razionalità e coerenza.
Non parlo di te Randa, sto parlando con te m giustificando perchè io ho difeso SB.
Non mi importa niente di SB, ma non mi piacciono le cose storte tutto qui...

Randa71
09-02-2012, 00:50
[QUOTE=shellx;36887175]I miei discorsi sono stati abbastanza netti e precisi.
Non ho messo in dubbio l'anneddoto accaduto a te dello stuttering. Ma se leggi ho scritto precisamente come la penso. Io credo che a te ti sia accaduto, ma ho il diritto di credere che posso pensare diversi motivi per il quale ti sia accaduto. Ma non mi permetterei mai e poi mai di pensare che tu racconti balle...assolutamente..che siamo mica all'asilo che diciamo le bugie ?

............

QUOTE]

lo so come la pensi e sai che condivido quanto dici solo che a volte, è noioso...leggere e rileggere sempre sempre le stesse cose...
parliamo un po' di tecnica, parliamo di alcuni aspetti non trattati, es le AVX e i dubbi di come vengono trattate ma è solo un esempio...prendiamoci il manuale di programmazione BD e facciamo differenze rispetto a prima THUBAN..cerchiamo di capire perchè in alcune cose va bene in altre male...insomma parliamo di BD non sempre di aria fritta..ci sono millemila recensioni che dicono e spiegano del perchè è lento nei giochi e ancora dopo 300 pagine di thread leggo ancora post sulle performance BD vs SB (nemmeno gli alimentatori dei server sono così ridondanti)...eddai ormai l'ha capita anche il mio cane che NON sa accendere un pc...con il dovuto rispetto per tutti sia chiaro :D :D
e poi nel 2012 con schede video che hanno 1 gb di ram si fanno test a 1024*768 mi sembra anacronostica la cosa e soprattutto poco realistica...quanti in questo forum giocano a 1024.??
ma attento che adesso arriverà qualcuno a spiegarmi del perchè si fanno i test a 1024.....dai dai così lo capisco e me lo spiegano. come se non sapessi il motivo del rapporto risoluzione/cpu/scheda video.....per me è inutile provare una CPU in una situazione che di fatto nessuno usa mai o quasi....e la pensa così anche Corsini...con i test sui giochi a risoluzioni alte

liberato87
09-02-2012, 00:59
e poi nel 2012 con schede video che hanno 1 gb di ram si fanno test a 1024*768 mi sembra anacronostica la cosa e soprattutto poco realistica...quanti in questo forum giocano a 1024.??
Ma attento che adesso arriverà qualcuno a spiegarmi del perchè si fanno i test a 1024.....dai dai così lo capisco e me lo spiegano. come se non sapessi il motivo del rapporto risoluzione/cpu/scgeda video...per me è inutile provare una CPU in una situazione che di fatto nessuno usa mai o quasi....e la pensa così anche Corsini...con i test sui giochi a risoluzioni alte

randa nessuno parlava dei test a 1024x768.

si parlava di questa review, qui c'è un riassunto

http://www.techpowerup.com/reviews/AMD/HD_7970_CPU_Scaling/20.html

http://tpucdn.com/reviews/AMD/HD_7970_CPU_Scaling/images/perfrel_1680.gif

http://tpucdn.com/reviews/AMD/HD_7970_CPU_Scaling/images/perfrel_1920.gif

nessuno ha tirato in ballo i 1024x768.
anzi addirittura per difendere tutto si è detto che gli fx vanno meglio a risoluzioni oltre il fullhd (dove la cpu non conta niente praticamente :D) oppure si è detto perchè non hanno tirato fuori sandy bridge-e , così magari da poter dire "WOW CON UN FX 8150 DA 250EURO FACCIO 60FPS, CON UN SB-E DA 1000EURO NE FACCIO 65, ALLROA CONVIENE DI PIù UN FX! BE EPIC, BE BRUTAL!"

partendo dal presupposto che 5 fps in più o in meno non cambiano NULLA e che di ciò ne è stato discusso e ridiscusso.

Randa71
09-02-2012, 01:05
randa nessuno parlava dei test a 1024x768.

si parlava di questa review, qui c'è un riassunto

http://www.techpowerup.com/reviews/AMD/HD_7970_CPU_Scaling/20.html

http://tpucdn.com/reviews/AMD/HD_7970_CPU_Scaling/images/perfrel_1680.gif

http://tpucdn.com/reviews/AMD/HD_7970_CPU_Scaling/images/perfrel_1920.gif

nessuno ha tirato in ballo i 1024x768. anzi addirittura per difendere tutto si è detto che gli fx vanno meglio a risoluzioni oltre il fullhd (dove la cpu non conta niente).
partendo dal presupposto che 5 fps in più o in meno non cambiano NULLA.

perfetto hai ragione...e quindi di che si sta parlando? la percentuale globale maggiore del 16% nei giochi di SB mi sembra che non sia nulla di nuovo o mi sbaglio? che SB vada meglio di BD visto che molti giochi generano pochi thread, non è abbastanza risaputa la cosa?, come è abbastanza risaputa che con i motori grafici che generano tanti thread (es BF3, BF2 o Crysis2) le differenze si riducono?
poi quel 16% concretamente in quanti frame si traduce in più? perchè supponiamo la situazione peggiore: cioè che il gioco genera con BD 20frame...bene il 16% in più di SB sono 3 frame in più per un totale di 23 anzichè 20...e quindi cosa cavolo cambia??? e se invece la situazione fosse peggiore BD=15frames il 16% in+ sono 17 frame...e quindi questo è sufficiente a dire che BD si prende le legnate?? che se devi giocare GUAI a te se compri BD???

liberato87
09-02-2012, 01:06
perfetto hai ragione...e quindi di che si sta parlando? la percentuale globale maggiore del 16% nei giochi di SB mi sembra che non sia nulla di nuovo o mi sbaglio? che SB vada meglio di BD visto che molti giochi generano pochi thread, non è abbastanza risaputa la cosa, come è abbastanza risaputa che con i motori grafici che generano tanto thread (es BF3, BF2 o Crysis2) le differenze si riducono?

ho aggiunto mezza riga prima che replicassi


partendo dal presupposto che 5 fps in più o in meno non cambiano NULLA e che di ciò ne è stato discusso e ridiscusso.

niente di nuovo infatti :D
apparte qualche assurdità tipo "amd dà una migliore qualità di immagine" che ancora non si erano mai sentite.
io mi sono permesso di fermarti dicendoti che nessuno stava parlando di 1024x768.

Randa71
09-02-2012, 01:13
ho aggiunto mezza riga prima che replicassi



niente di nuovo infatti :D
apparte qualche assurdità tipo "amd dà una migliore qualità di immagine" che ancora non si erano mai sentite.
io mi sono permesso di fermarti dicendoti che nessuno stava parlando di 1024x768.

ma hai fatto benissimo a fermarmi :D :D :D
ok ma queste assurdità ormai mi provocano solo una bella risata :D :D :D :D
guarda io BD ce l'ho e mi piace pure, perchè è grosso e pesante rispetto a SB e adoro i piedini dorati, va bene come risposta :D ma che migliori la qualità dell'immagine è una barzelletta...preferisco pensare di non aver capito io il suo pensiero

liberato87
09-02-2012, 01:16
ma hai fatto benissimo a fermarmi :D :D :D
ok ma queste assurdità ormai mi provocano solo una risata :D :D :D :D
guarda io BD ce l'ho e mi piace ma che migliori la qualità dell'immagine è una barzelletta...preferisco pensare di non aver capito io il suo pensiero

ovviamente la verità sta nel mezzo.
come non è vero che fare 5fps in meno singifica "prendere mazzate", sempre secondo me.

ognuno deve fare le proprie valutazioni.

se io gioco a skyrim o starcraft2 con 2 gtx 580 è un conto.
se io gioco a bf3 o mw3 con una gtx 560ti è un altro discorso e arriverei a conclusioni diverse su cosa preferire.
per questo forse è difficile mettere tutti d'accordo.

Randa71
09-02-2012, 01:22
ovviamente la verità sta nel mezzo.
come non è vero che fare 5fps in meno singifica "prendere mazzate", sempre secondo me.

ognuno deve fare le proprie valutazioni.

se io gioco a skyrim o starcraft2 con 2 gtx 580 è un conto.
se io gioco a bf3 o mw3 con una gtx 560ti è un altro discorso e arriverei a conclusioni diverse su cosa preferire.
per questo forse è difficile mettere tutti d'accordo.

bravissimo! la verità come sempre sta nel mezzo...'in medio stat virtus' come dicevano i latini...e così il livello del confronto rimane su elementi oggettivi..ma vedrai che domani si ricomincia il cinema...scommettiamo?
io ho 8150 da quando è uscito o poco dopo, ci gioco e onestamente non sento la mancanza del 2600k (ho la gtx 580 non in sli)...ma si sa che io sono di parte per forza...se si dice che BD qualcosa di buono ce l'ha...sei per forza di parte...

shellx
09-02-2012, 01:27
lo so come la pensi e sai che condivido quanto dici solo che a volte, è noioso...leggere e rileggere sempre sempre le stesse cose...
parliamo un po' di tecnica, parliamo di alcuni aspetti non trattati, es le AVX e i dubbi di come vengono trattate ma è solo un esempio...prendiamoci il manuale di programmazione BD e facciamo differenze rispetto a prima THUBAN..cerchiamo di capire perchè in alcune cose va bene in altre male...insomma parliamo di BD non sempre di aria fritta..ci sono millemila recensioni che dicono e spiegano del perchè è lento nei giochi e ancora dopo 300 pagine di thread leggo ancora post sulle performance BD vs SB (nemmeno gli alimentatori dei server sono così ridondanti)...eddai ormai l'ha capita anche il mio cane che NON sa accendere un pc...con il dovuto rispetto per tutti sia chiaro :D :D
e poi nel 2012 con schede video che hanno 1 gb di ram si fanno test a 1024*768 mi sembra anacronostica la cosa e soprattutto poco realistica...quanti in questo forum giocano a 1024.??
hhMa attento che adesso arriverà qualcuno a spiegarmi del perchè si fanno i test a 1024.....dai dai così lo capisco e me lo spiegano. come se non sapessi il motivo del rapporto risoluzione/cpu/scheda video.....per me è inutile provare una CPU in una situazione che di fatto nessuno usa mai o quasi....e la pensa così anche Corsini...con i test sui giochi a risoluzioni alte

Parliamo di qualcosa di attinente a BD visto che ci siamo e so che anche tu te ne intendi di gestionali DB (non è il contrario di bulldozer, ma intendo DATABASE) :D

Sto sviluppando un gestionale DB (piu dettagliatamente un CRM) destinato ad una azienda che opera callcenter.
Sai benissimo di cosa parlo, questo deve stare in attesa su un server e deve ricevere chiamate di login da centinaia di client solamente in locale, al'interno della struttura stessa.

Ho avviato la RUNTIME sulla mia macchina con l'8120 ed ho chiesto a 20 persone (non ti dico lo sbattimento per convincerli) di accedere alla mia macchina (creando un server apache) e loggarsi (creandogli 20 account fittizzi). Chiramente usciamo fuori dal locale, accessi quindi wan e no lan.

Con 20 persona a torturarlo la mia applicazione gestionale sulla mia macchina con l'8120 era bella fluida mente loro smanettavanodentro l'interfaccia grafica del gestionale CRM.

Stessa cosa fatta sull'altra ma macchina dove ho un 1055T.
in questo caso al decimo accesso (anche prima) la macchina inizia a cedere, non è una questione di ram , ma creava rallentamenti a causa della cpu.
Perchè all'internodella soluzione c'è una funzione che avvia uno script_trigger automatico dove filtra i nominativi raccolti di nomi di persone italiani che non sono stati chiamati o che l'interlocutore ha trovato occupato o che l'operatore ha segnato da richiamare perchè il titolare interessato non era in casa. Uno script complesso per tipi di funzioni di chiamata gestione e monitoraggio record dei nominativi.

La mia conclusione è che l'FX essendo piu cpu server ha qualche peculiarità che gli permette di inginocchiarsi molto dopo davanti a aquesto tipo di applicazioni e di accessi (classico comportamento da cpu server).
Mentre il 1055T ha ceduto prima.

Tu hai diverse idee in merito ?
Secondo te perchè BD in questo tipo di applicazioni si comporta meglio rispetto Thuban ?

Ecco fatto volete argomenti inerenti a BD, vi espongo il mio problema.

Chiramente ti faccio presente che la mia soluzione è destinata a prendere botte di login dentro una macchina server, dove ancora devo fargli scegliere se deve essere opteron o xeon.
E gli accessi possono superare anche i 100-120 login locali + altrettanto login di un altra struttura condivisa accanto all'altra.

E ' una grande azienda di call center operante in mia sede.

Perchè BD si è comportato diversamente rispetto il 1055T ?

Randa71
09-02-2012, 01:36
Parliamo di qualcosa di attinente a BD visto che ci siamo e so che anche tu te ne intendi di gestionali DB (non è il contrario di bulldozer, ma intendo DATABASE) :D

Sto sviluppando un gestionale DB (piu dettagliatamente un CRM) destinato ad una azienda che opera callcenter.
Sai benissimo di cosa parlo, questo deve stare in attesa su un server e deve ricevere chiamate di login da centinaia di client solamente in locale, al'interno della struttura stessa.

Ho avviato la RUNTIME sulla mia macchina con l'8120 ed ho chiesto a 20 persone (non ti dico lo sbattimento per convincerli) di accedere alla mia macchina (creando un server apache) e loggarsi (creandogli 20 account fittizzi). Chiramente usciamo fuori dal locale, accessi quindi wan e no lan.

Con 20 persona a torturarlo la mia applicazione gestionale sulla mia macchina con l'8120 era bella fluida mente loro smanettavanodentro l'interfaccia grafica del gestionale CRM.

Stessa cosa fatta sull'altra ma macchina dove ho un 1055T.
in questo caso al decimo accesso (anche prima) la macchina inizia a cedere, non è una questione di ram , ma creava rallentamenti a causa della cpu.
Perchè all'internodella soluzione c'è una funzione che avvia uno script_trigger automatico dove filtra i nominativi raccolti di nomi di persone italiani che non sono stati chiamati o che l'interlocutore ha trovato occupato o che l'operatore ha segnato da richiamare perchè il titolare interessato non era in casa. Uno script complesso per tipi di funzioni di chiamata gestione e monitoraggio record dei nominativi.

La mia conclusione è che l'FX essendo piu cpu server ha qualche peculiarità che gli permette di inginocchiarsi molto dopo davanti a aquesto tipo di applicazioni e di accessi (classico comportamento da cpu server).
Mentre il 1055T ha ceduto prima.

Tu hai diverse idee in merito ?
Secondo te perchè BD in questo tipo di applicazioni si comporta meglio rispetto Thuban ?

Ecco fatto volete argomenti inerenti a BD, vi espongo il mio problema.

Chiramente ti faccio presente che la mia soluzione è destinata a prendere botte di login dentro una macchina server, dove ancora devo fargli scegliere se deve essere opteron o xeon.
E gli accessi possono superare anche i 100-120 login locali + altrettanto login di un altra struttura condivisa accanto all'altra.

E ' una grande azienda di call center operante in mia sede.

Perchè BD si è comportato diversamente rispetto il 1055T ?

velocemente perchè sto andando a nanna :D, poi domani continuiamo con + calma:

1) perchè BD ha risorse duplicate al suo interno (le unità sugli interi e le varie cache)o....e ha un quantitativo di cache enorme....quello di cui stai parlando è il famoso parametro LOAD che da circa 100 pagine sto cercando di far capire...e per fortuna che qualcuno capisce....insomma va bene che ci sono persone che si chiedono cosa AMD faccia...ma qualcosa lo sapranno fare o no? non mi sembrano che facciano solo panini....
2) avere le unità sugli interi doppi significa che cmq le istruzioni, grazie anche alla cache che è veramente tanta complessivamente, continuano ad essere elaborate senza interruzioni.........quindi il sistema risponde.....
è l'architettura che pompa....BD più lo carichi più va...poi magari il tempo di esecuzione delle query è più lento, ma la macchina risponde sempre!!!!
QUESTA PER ME E' LA FILOSOFIA CHE STA ALLA BASE DI BD ED E' SEMPRE PER QUESTO MOTIVO CHE NON E' ANCORA USCITO DAL MIO CASE.....ED E' IL MOTIVO PER CUI MI PIACE ARCHITETTURA
3) aggiungo questo esempio che prima non avevo postato per evitare di essere sbranato come al solito o di scatenare flame: ho provato a lanciare 16 thread di BOINC ed era come se nulla fosse..la macchina rispondeva perfettamente...certo poi il tempo di elaborazione dei vari thread si allungava...ma non si percepiva il minimo rallentamento nell'utilizzo della macchina...
ed è la cosa che conta di + in ambiente server.....per quello che alcuni sistemisti di dove lavoro io guardano con estrema diffidenza hyperthreading...senza nulla togliere agli xeon che sono ottime CPU.

a domani

shellx
09-02-2012, 01:38
apparte qualche assurdità tipo "amd dà una migliore qualità di immagine" che ancora non si erano mai sentite.


Vabbe guarda...no comment...a quella frase che ha detto gli ho gia dato una risposta, spero che l'abbia capito. Ma ne dubito.
Io sono del parere che prima di mettere le finestre colorate di un palazzo, bisogna avere conoscenze di come sono fatte le fondamenta.

shellx
09-02-2012, 01:43
velocemente perchè sto andando a nanna :D, poi domani continuiamo con + calma:

1) perchè BD ha risorse duplicate al suo intern (le unità sugli interi)o....e ha un quantitativo di cache enorme....quello di cui stai parlando è il famoso parametro LOAD che da circa 100 pagine sto cercando di far capire...e per fortuna che qualcuno capisce....insomma va bene che ci sono persone che si chiedono cosa AMD faccia...ma qualcosa lo sapranno fare o no?
2) avere le unità sugli interi doppi significa che cmq le istruzioni, grazie anche alla cache che è veramente tanta complessivamente, continuano ad essere elaborate senza interruzioni.........quindi il sistema risponde.....
è l'architettura che pompa....BD più lo carichi più va...poi magari il tempo di esecuzione delle query è più lento, ma la macchina risponde sempre!!!!
QUESTA PER ME E' LA FILOSOFIA CHE STA ALLA BASE DI BD ED E' SEMPRE PER QUESTO MOTIVO CHE NON E' ANCORA USCITO DAL MIO CASE.....

esattamente come pensavo !
ma mi paicerebbe andare a fondo a questo argomento...perchè oggi dopo che me ne sono accorto, su questo punto di vista ho dato un valore diverso a BD, (e mi sono evitato di metterlo sul mercatino in vendita ;) ) ergo l'ho trovato molto piu idoneo ai miei utilizzi, l'ho avevo testato su tante applicazioni (quasi tutte ST o leggeri MT)...ma ancora non aveva rullato su cose vermente serie e che lo rendono cio chè è veramente: CPU bruta da server.
Quindi non ti dico che gioia aspettare piledriver e future evoluzioni.

edit: è da quando è uscito che dico ripetutamente che è una cpu con comportamenti da server, perchè proviene direttamente dai server, da quando paolo faceva i suoi test di winrar (anche seli centrano pure la velocita degli hdd o ssd).
Ma se ci pensiamo un attimo, anche le cpu Intel di fascia enthusiast sono su un silicio raffinato come gli xeon e hanno comportamenti piu da xeon che da cpu per dekstop.
Diversamente SB mainstram, dove lavora sia in MT che ST meglio di BD, e lo abbiamo visto, ma io non ho un 2600k, sarei curioso di vedere come si comporta con applicazioni particolari di MT piu da server (tipo la mia sviluppata) e una trentina di persone sulla macchina che loggano e smanettano dentro.
Davvero non scherzo, vorrei saperlo...
tanto è vero che stavo cercando sul mercatino se qualcuno smollava un 2600k + mobo 1155 (top possibilimente) ..
ma mi sa che devo prendermeli nuovi...ma io sono pazzo, l'ho faccio pur di levarmi il pallino sulle cose che uso e che mi interessano.
Tanto la mobo mi resterebbe per IB.

carlottoIIx6
09-02-2012, 02:15
AMD, la cpu, fa aumentare la qualità dell'immagine? un esperienza di gioco dove si sono preferite le cpu AMD?


Secondo me prima di spararle così grosse converrebbe riflettere su cosa scrivere. Cerchiamo di evitare quello che è accaduto in passato.
Alla prossima tua sparata sei buttato fuori dal forum per un pò, penso di aver tollerato abbastanza.

mi sa che siete un po' impulsivi nel capire le cose.
esiste una esperienza di gioco dove si sono preferite l'fx 8150 al 2700k.
è stata organizzata da AMD stessa, che ha fatto votare gli utenti senza sapere che con che cpu stavano giocando.
la maggiorparte degli utenti ha preferito AMD.
questo non me lo sono inventato io, è un fatto.
il secondo punto sulla qualità dell'immagine, lamentavo solo che non si fanno test sulla qualità dellìimmagine, ma solo su gli fps, e si sopravvalutano anche quando non servono, la mia era la denuncia di una lacuna sui test.
sarebbe interessante sapere altre cose oltre gli fps, poichè il test sopra citato pone un interrogativo, perchè quegli utenti hanno preferito amd?
secondo me merita un approfondimento la cosa

carlottoIIx6
09-02-2012, 02:27
Anch'io ho notato che a risoluzioni alte (2560x1600 ad esempio) il BD fa più FPS

chissà come mai?

a quella risoluzione i test citati dicono che intel è avanti, ma cosa succede con un multiscermo ad esempio?

shellx
09-02-2012, 02:30
mi sa che siete un po' impulsivi nel capire le cose.
esiste una esperienza di gioco dove si sono preferite l'fx 8150 al 2700k.
è stata organizzata da AMD stessa, che ha fatto votare gli utenti senza sapere che con che cpu stavano giocando.
la maggiorparte degli utenti ha preferito AMD.
questo non me lo sono inventato io, è un fatto.

fandonie e marketing...


il secondo punto sulla qualità dell'immagine, lamentavo solo che non si fanno test sulla qualità dellìimmagine, ma solo su gli fps, e si sopravvalutano anche quando non servono, la mia era la denuncia di una lacuna sui test.
sarebbe interessante sapere altre cose oltre gli fps, poichè il test sopra citato pone un interrogativo, perchè quegli utenti hanno preferito amd?
secondo me merita un approfondimento la cosa

ma che cavolo significa test sulla qualità di immagine ? E cosa centra con le cpu o con le schede video ?
E' una lacuna fare test perchè non si fa il test sulla qualità dell'immagine ? E che cavolo è: il test per photoshop ?
Cosa devi sapere oltre gli fps su un test concentrato sui game ?
Che interrogativo pone quei test chiari come il sole come quelli ?

Quali utenti hanno preferito amd ? Stai parlando di marketing, di fandonie, magari quegli utenti sono stati pure pagati, oppure magari non sanno manco quello che è na cpu.

Ma come fai ad abboccare a questo tipo di cose ?
Ma vuoi o no mettere i piedi in terra una buona volta ?

Non c'è nessun aprrofondimento da chiarire su quel test in game, quello è l'aspetto della realtà.

shellx
09-02-2012, 02:31
a quella risoluzione i test citati dicono che intel è avanti, ma cosa succede con un multiscermo ad esempio?

:doh:
ok hai vinto tu, da oggi in poi giuro che mi arrendo ai tuoi post...

carlottoIIx6
09-02-2012, 02:39
:doh:
ok hai vinto tu, da oggi in poi giuro che mi arrendo ai tuoi post...

ma qui non si tratta di vincere niente, se io fossi titolare di una rivista semplicemente farei quelle verifiche e le pubblicherei.
la qualità dell'immagine conta, la stessa scheda grafica ti consente di settare, se vuoi più frame o più dettagli.
è semplicemnte una cosa che mi chiedo, non sto affermando niente.

carlottoIIx6
09-02-2012, 02:42
fandonie e marketing...

cut

Non c'è nessun aprrofondimento da chiarire su quel test in game, quello è l'aspetto della realtà.

come fai a saperlo senza fare un solo misero test?
la scienza (e l'oggettivita) si basa sulle misure.

ra-mta
09-02-2012, 03:03
carlotto io ti adoro sei fuori come un caciocavallo :D (sono ironico non prenderla come offesa ;) )
che i test delle riviste cartacee e\o online siano carenti in alcuni punti siam d'accordo, ma mettiti nei loro panni e ipotizza che una review completa a 360° che valuti tutti i casi è impossibile da realizzare :)

Detto questo, testare la qualità grafica potrebbe essere anche carina come cosa, in una recensione\approfondimento sui prodotti nvidia-intel-amd lato gpu, sulla recensione di una cpu pura come bd che attinenza avrebbe?
Fanno i test con filtri attivi in-game per simulare una situazione reale (e spero prima o poi anche in altri ambiti, non solo per chi non ha nulla di meglio da fare che giocare con il pc). Capirai anche tu che per come hai impostato il "consiglio" non ha molto senso, sarebbe come dire che una cpu determini il rumore dei piatti del nostro disco e quindi una misurazione ci starebbe bene :D

carlottoIIx6
09-02-2012, 03:18
carlotto io ti adoro sei fuori come un caciocavallo :D (sono ironico non prenderla come offesa ;) )
che i test delle riviste cartacee e\o online siano carenti in alcuni punti siam d'accordo, ma mettiti nei loro panni e ipotizza che una review completa a 360° che valuti tutti i casi è impossibile da realizzare :)

Detto questo, testare la qualità grafica potrebbe essere anche carina come cosa, in una recensione\approfondimento sui prodotti nvidia-intel-amd lato gpu, sulla recensione di una cpu pura come bd che attinenza avrebbe?
Fanno i test con filtri attivi in-game per simulare una situazione reale (e spero prima o poi anche in altri ambiti, non solo per chi non ha nulla di meglio da fare che giocare con il pc). Capirai anche tu che per come hai impostato il "consiglio" non ha molto senso, sarebbe come dire che una cpu determini il rumore dei piatti del nostro disco e quindi una misurazione ci starebbe bene :D
non mi offendo mica, fare questi test è difficile perchè ci vuole molta competenza.
però, li farei, perchè anche il risultato "non c'è differenza" è utile alla valutazione.
da photoshoppato, so che due immagini che sono apparentemente uguali, nascondono infinite differenza di qualità (spesso inpercettibili)
so che immagini in movimento, possono avere pià o meno dettagli, ma spesso ce ne accorgiano solo inconsciamente

che centra la cpu? bella domanda.
direi, niente. ok ma ti direi uan bugia, perchè come faccio a saperlo.
ecco perchè fare un test, per potere dire anche niente, però lo vorrei sapere.

Randa71
09-02-2012, 08:18
ma qui non si tratta di vincere niente, se io fossi titolare di una rivista semplicemente farei quelle verifiche e le pubblicherei.
la qualità dell'immagine conta, la stessa scheda grafica ti consente di settare, se vuoi più frame o più dettagli.
è semplicemnte una cosa che mi chiedo, non sto affermando niente.

visto che si sta parlando di CPU direi che siamo OT se l'argomento e' la qualita' d'immagine nel caso di bench sui giochi....perche' la CPU con la qualita d'immagine nn c'entra nulla. non ti pare?

aldooo
09-02-2012, 08:28
Riguardo al discorso della qualità di immagine,
il discorso potrebbe essere diverso.

Molti bench 'autoregolano' la qualita' dell'immagine in base alle performances del sistema...
in modo da avere un frame rate decente su tutti i sistemi.

Questo vale ovviamente soprattutto ad alte risoluzioni: a risoluzioni piu' basse è più facile reggere la massima qualità.

Quindi, a mio parere, nei casi in cui BD pareggia con SB a risoluzioni molto elevate, è possibile che ci riesca perché la qualità impostata di default da gioco è minore.

Ares17
09-02-2012, 09:01
Riguardo al discorso della qualità di immagine,
il discorso potrebbe essere diverso.

Molti bench 'autoregolano' la qualita' dell'immagine in base alle performances del sistema...
in modo da avere un frame rate decente su tutti i sistemi.

Questo vale ovviamente soprattutto ad alte risoluzioni: a risoluzioni piu' basse è più facile reggere la massima qualità.

Quindi, a mio parere, nei casi in cui BD pareggia con SB a risoluzioni molto elevate, è possibile che ci riesca perché la qualità impostata di default da gioco è minore.

Questa è la prima volta che la sento.
Ma a cosa serve un bench se non è assolutamente replicabile nemmeno su macchine simili.
Il fatto che il 70% degli utenti che hanno fatto il test nominato da carlotto abbia preferito il sistema amd è vero e basato su opinioni soggettive.
Con le stesse macchine di quel test era netta la differenza di performance (intorno al 15% a favore di intel).
Semplicemente il sitema con BD dava l'impressione di essere più fluido (frame che oscillano tra 35 e 30 danno l'impressione di maggior qualità della scena rispetto a frame che oscillano tra 60 e 40).

paolo.oliva2
09-02-2012, 09:03
....che i test delle riviste cartacee e\o online siano carenti in alcuni punti siam d'accordo, ma mettiti nei loro panni e ipotizza che una review completa a 360° che valuti tutti i casi è impossibile da realizzare :)....

Concordo... ma qual'è il problema? Se si fa il test come ha fatto AMD, che è indubbio che sia stata fatta per marketing, è altrettanto indubbio che comunque rifletta la situazione tipo più diffusa, diversamente c'è un altro giudizio.

Il problema, e mi sembra chiaro, è che Intel è più potente e quindi in tutti i casi dove il limite non è la VGA, Intel va meglio, ma il dato di fatto è che per le risoluzioni utilizzate di media, il collo di bottiglia è sulla VGA e non sul procio, e nessuno spenderebbe 400€ di VGA senza accoppiarla ad un monitor decente in risoluzioni.

Bisogna pure notare che se si fanno test sui giochi, un BD X6 non credo offra prestazioni inferiori di un 8150, perchè un X6 basta ed avanza per sfruttare i TH offerti dai giochi, quindi se per il costo è giusto il confronto 8150/2600K, non lo vedo invece dal punto di vista confronto puramente giochi rispetto ai TH sfruttabili. Tra l'altro comunque AMD puo' offrire una soluzione X6/6 TH contrariamente ad Intel.

Sullo stesso filo, ma al contrario, mi sembra scontato che in caso di sistemi SLI AMD venga automaticamente esclusa per via della potenza procio Intel superiore... pero', supponendo un costo di 1500€ per la parte VGA, troverei illogico spendere 1800€ per un sistema 2600K anzichè 2300€ per un SBe X6, ma non perchè il sistema 2600K sia insufficiente a sfruttare lo SLI (mi sembra renda pure di più), ma perchè per la differenza di spesa non rinuncerei a 2 core in più per l'utilizzo al di fuori dei giochi.

The3DProgrammer
09-02-2012, 09:20
Parliamo di qualcosa di attinente a BD visto che ci siamo e so che anche tu te ne intendi di gestionali DB (non è il contrario di bulldozer, ma intendo DATABASE) :D

Sto sviluppando un gestionale DB (piu dettagliatamente un CRM) destinato ad una azienda che opera callcenter.
Sai benissimo di cosa parlo, questo deve stare in attesa su un server e deve ricevere chiamate di login da centinaia di client solamente in locale, al'interno della struttura stessa.

Ho avviato la RUNTIME sulla mia macchina con l'8120 ed ho chiesto a 20 persone (non ti dico lo sbattimento per convincerli) di accedere alla mia macchina (creando un server apache) e loggarsi (creandogli 20 account fittizzi). Chiramente usciamo fuori dal locale, accessi quindi wan e no lan.

Con 20 persona a torturarlo la mia applicazione gestionale sulla mia macchina con l'8120 era bella fluida mente loro smanettavanodentro l'interfaccia grafica del gestionale CRM.

Stessa cosa fatta sull'altra ma macchina dove ho un 1055T.
in questo caso al decimo accesso (anche prima) la macchina inizia a cedere, non è una questione di ram , ma creava rallentamenti a causa della cpu.
Perchè all'internodella soluzione c'è una funzione che avvia uno script_trigger automatico dove filtra i nominativi raccolti di nomi di persone italiani che non sono stati chiamati o che l'interlocutore ha trovato occupato o che l'operatore ha segnato da richiamare perchè il titolare interessato non era in casa. Uno script complesso per tipi di funzioni di chiamata gestione e monitoraggio record dei nominativi.

La mia conclusione è che l'FX essendo piu cpu server ha qualche peculiarità che gli permette di inginocchiarsi molto dopo davanti a aquesto tipo di applicazioni e di accessi (classico comportamento da cpu server).
Mentre il 1055T ha ceduto prima.

Tu hai diverse idee in merito ?
Secondo te perchè BD in questo tipo di applicazioni si comporta meglio rispetto Thuban ?

Ecco fatto volete argomenti inerenti a BD, vi espongo il mio problema.

Chiramente ti faccio presente che la mia soluzione è destinata a prendere botte di login dentro una macchina server, dove ancora devo fargli scegliere se deve essere opteron o xeon.
E gli accessi possono superare anche i 100-120 login locali + altrettanto login di un altra struttura condivisa accanto all'altra.

E ' una grande azienda di call center operante in mia sede.

Perchè BD si è comportato diversamente rispetto il 1055T ?

interessante, mi sembra un task memory intensive quindi ci sta che BD sia molto meglio vista la cache + grande e il memory controller migliorato, oltre ovviamente al maggior numero di core int che quando sono tutti occupati fanno la differenza. Sarebbe bello poter ripetere lo stesso test con uno xeon, magari con qualche parametro di valutazione + specifico tramite un profiler (che DB server hai usato? SQL server? Oracle? Altro?)

Pat77
09-02-2012, 09:42
Piuttosto che affannarsi a trovare ambiti dove BD possa dire la sua, che saranno necessariamente multi intensive, bisogna ammettere che l'evidenza la dice la stessa AMD.

Licenziamento di gran parte del personale che faceva capo al progetto, dirigenti compresi, roadmap che dice chiaramente che a fine 2013, probabilmente, usciranno con un architettura competitiva già di base credo più tradizionale.

Secondo me Pile è già pronto, tanto che nelle Apu debutterà a breve, solo che lo conservano per allungare la minestra e si concentrano nel segmento di mercato dove sono realmente competitivi, quello basso basso, tanto che ieri hanno annunciato nuovi Athlon II.

Per me questa è una strategia necessaria a ritornare in vetta.

Randa71
09-02-2012, 09:46
.................

Molti bench 'autoregolano' la qualita' dell'immagine in base alle performances del sistema...
in modo da avere un frame rate decente su tutti i sistemi.


Quindi, a mio parere, nei casi in cui BD pareggia con SB a risoluzioni molto elevate, è possibile che ci riesca perché la qualità impostata di default da gioco è minore.

hai visto liberato87 che ho vinto la scommessa? si ricomincia con il cinema....

l'auto regolazione c'è quando imposti i dettagli su AUTO, nel qual caso il gioco si autoconfigura in base alla configurazione che rileva nel sistema, non quando le imposti manualmente...

dunque, correggimi se sbaglio: la tua teoria è che nonostante le opzioni grafiche siano impostate uguali, sia per un sistema che per un altro, (altrimenti sta imbrogliando il recensore) nei rari giochi in cui BD va = questo accade perchè dentro al codice o del gioco o del driver c'è la seguente istruzione: IF CPU = BD THEN QUALITY_RENDERING=LOW, anche se ho impostato i dettagli su HIGH o su ULTRA ;
e quindi allora che li facciamo fare i benchmark sui giochi? se questo fosse vero non servirebbero a nulla, visto che è già tutto predeterminato...
peccato che quando ho gocato a BF3 che va come sull'i7 non ho notato tutto questo calo di qualità (nonostante le impostazioni video fossero assolutamente uguali)...ma si sa che ci vedo poco.....
mi chiedo se veramente credete a quanto scrivete.... e la chiudo qua perchè la cosa è talmente inutile che è solo uno spreco di spazio disco dei server di HWUPGRADE

FroZen
09-02-2012, 09:52
Era stata postata questa analisi su XS del 8150 (http://www.xtremesystems.org/forums/showthread.php?278575-Return-of-AMD-FX-My-OC-d-AMD-FX-8150-6990-review-Check-in-Daily-for-New-Results!)?

Non male, non male....certo, rimane comunque troppo "power-eater" per i miei gusti...ma se lo si fa andare sto X8 qualche soddisfazione la dà.....

Come mai nessuno ha commentato questa analisi a mio modo di vedere molto interessante? Al di là dei consumi certi risultati stanno avanti ad un 2600k a 5ghz (con BD a 4,8....). :stordita:

aldooo
09-02-2012, 09:55
dunque, correggimi se sbaglio: la tua teoria è che nonostante le opzioni grafiche siano impostate uguali


Ah no, OK, se le opzioni grafiche sono impostate uguali (del gioco e dei driver) quello che ho detto non conta.

Pero' si sa che molti fanno i test in fretta, e un'opzione da qualche parte puo' sempre scappare, chissa'!

Athlon 64 3000+
09-02-2012, 10:17
Piuttosto che affannarsi a trovare ambiti dove BD possa dire la sua, che saranno necessariamente multi intensive, bisogna ammettere che l'evidenza la dice la stessa AMD.

Licenziamento di gran parte del personale che faceva capo al progetto, dirigenti compresi, roadmap che dice chiaramente che a fine 2013, probabilmente, usciranno con un architettura competitiva già di base credo più tradizionale.

Secondo me Pile è già pronto, tanto che nelle Apu debutterà a breve, solo che lo conservano per allungare la minestra e si concentrano nel segmento di mercato dove sono realmente competitivi, quello basso basso, tanto che ieri hanno annunciato nuovi Athlon II.

Per me questa è una strategia necessaria a ritornare in vetta.

Non c'è da stupirsi che abbiano cacciato via quasi tutti i capoccia oltre ai 1200 dipendenti del reparto marketing dopo la debacle di BD.
Mi sembra che fino al 2014 invece continueranno ad usare l'architettura attuale naturalmente con delle evoluzioni.
Secondo me Steamroller visto che si dovrà scontrare con Haswell avrà diverse modifiche architetturali per far si che abbia un bel aumento di IPC per essere maggiormente competitivo e quindi per me sarà come doveva essere BD dall'inizio.

Pat77
09-02-2012, 10:38
Non c'è da stupirsi che abbiano cacciato via quasi tutti i capoccia oltre ai 1200 dipendenti del reparto marketing dopo la debacle di BD.
Mi sembra che fino al 2014 invece continueranno ad usare l'architettura attuale naturalmente con delle evoluzioni.
Secondo me Steamroller visto che si dovrà scontrare con Haswell avrà diverse modifiche architetturali per far si che abbia un bel aumento di IPC per essere maggiormente competitivo e quindi per me sarà come doveva essere BD dall'inizio.

Per me arrivano a Pile... poi tutto nuovo.

Randa71
09-02-2012, 11:03
........
Davvero non scherzo, vorrei saperlo...
tanto è vero che stavo cercando sul mercatino se qualcuno smollava un 2600k + mobo 1155 (top possibilimente) ..
ma mi sa che devo prendermeli nuovi...ma io sono pazzo, l'ho faccio pur di levarmi il pallino sulle cose che uso e che mi interessano.
Tanto la mobo mi resterebbe per IB.

se vuoi la CPU + RAM te le posso dare io.....ma la main è in cantina e con questo freddo non ci vado :D:D nel caso continuiamo in PVT, non so se sei di Milano o zona.
invece un altro indicatore interessante sai qual'è: lanciare n versioni di applicazioni single thread e vedere di quanto perdono ad aumentare del loro numero.....cioè quantificare quanto perde la CPU all'aumentare del carico....
l'unica cosa in questo tipo di verifica è eliminare la variable turbo-variazione di clock...cosa che ho fatto impostando il clock della CPU a 4.2 fisso...altrimenti le differenze sono dovute al fatto che all'aumentare del carico diminuisce il clock quindi si allungano per forza.
poi ho lanciato prima 2 poi 3 poi 4 poi 5 etc etc versioni di super pi per vedere di quanto l'elaborazione si allungava all'aumentare del numero dei thread...ma è una prova che potrebbe essere fatta con qualunque altra app ST....sempre in ottica di gestione del LOAD.e anche qui poi bisogna sempre capire che tipo di istruzioni vengono eseguite.....perchè se sono solo in FPU avendone 4 e non 8 l'eventuale vantaggio diminuisce

Randa71
09-02-2012, 11:07
interessante, mi sembra un task memory intensive quindi ci sta che BD sia molto meglio vista la cache + grande e il memory controller migliorato, oltre ovviamente al maggior numero di core int che quando sono tutti occupati fanno la differenza. Sarebbe bello poter ripetere lo stesso test con uno xeon, magari con qualche parametro di valutazione + specifico tramite un profiler (che DB server hai usato? SQL server? Oracle? Altro?)

è interessante sapere il db è anche la versione sopratutto....perchè, ad esempio, con mysql ho notato differenze di gestione dei thread tra la 5.5.16 e la 5.5.18 (vado a memoria sulla versione - utilizzata prima in fedora o poi quella in opensuse...ma adesso anche opensuse si è allineata al kernel 3.1.9) ..all'inizio pensavo fosse una cosa dovuta al kernel invece è proprio la versione di mysql

aldooo
09-02-2012, 11:08
Non c'è da stupirsi che abbiano cacciato via quasi tutti i capoccia oltre ai 1200 dipendenti del reparto marketing dopo la debacle di BD.


In realtà, se è vero che BD sta vendendo bene,
credo che quelli del reparto marketing abbiano fatto un miracolo.

Capisco comunque che forse erano un po' troppi al reparto marketing.

capitan_crasy
09-02-2012, 11:17
Per me arrivano a Pile... poi tutto nuovo.

non credo...
Steamroller e Excavator hanno chiare origini da Bulldozer.
La prossima nuova architettura sarà quella ibrida tra X86 e GPU...

Pat77
09-02-2012, 11:23
non credo...
Steamroller e Excavator hanno chiare origini da Bulldozer.
La prossima nuova architettura sarà quella ibrida tra X86 e GPU...

Ma scusa nella road map non si citano, vuoi dirmi che pile sarà la sola architettura fino a al 2014?

capitan_crasy
09-02-2012, 11:35
Ma scusa nella road map non si citano, vuoi dirmi che pile sarà la sola architettura fino a al 2014?

Bulldozer è il precursore, Piledriver, Steamroller e Excavator sono nomi di mezzi da lavoro e indicano che l'architettura di base è quella (un pò come successe con i K10 o architettura Stars con nomi di stelle)...
Considera che Piledriver è un evoluzione di Bulldozer, Steamroller è un evoluzione di Piledriver e Excavator è l'evoluzione di Steanroller.
Se tutto va bene la cadenza di uscita dovrebbe restare annuale, mentre il cambio di processo produttivo dovrebbe avvenire ogni due anni; si può dedurre che l'erede di excavator dovrebbe uscire a 20nm di origine IBM su wafer da 450mm...

Phenomenale
09-02-2012, 11:42
Steamroller e Excavator hanno chiare origini da Bulldozer. La prossima nuova architettura sarà quella ibrida tra X86 e GPU
Quoto al 101% :D

Anche perchè AMD ha superato il punto di non ritorno: sul desktop il suo selling point è un architettuta ad 8-core. Un ipotetico successore 4-core sarebbe improponibile sul mercato: verrebbe percepito come un downgrade e non lo comprerebbe nessuno, nemmeno noi...
Il modulo con due core condivisi è una strada dove si entra ma non si esce, casomai si aumentano ulteriormente i core ma non se ne possono togliere.

Alternativa buia: AMD esce dal mercato desktop delle CPU "unlocked, unleashed and overclocked" e ritorna agli anni '90 dove gli Intel erano i "Personal Computer" e gli AMD si chiamavano "i compatibili" e costavano la metà. :(

Piledriver e successori, salvateci voi !!! :)

devil_mcry
09-02-2012, 11:48
come fai a saperlo senza fare un solo misero test?
la scienza (e l'oggettivita) si basa sulle misure.

il multi monitor è gestito dalla vga non dalla cpu, per la cpu è solo una risoluzione maggiore

e cosa accade aumentando la risoluzione? si diventa gpu limited

i sistemi sono stratificati apposta per semplificare le cose, per la cpu avere un monitor da 3840*1080 o 2 da 1920*1080 non cambia niente... mi sembra una cosa abbastanza elementare

fine ot

gianni1879
09-02-2012, 12:18
mi sa che siete un po' impulsivi nel capire le cose.
esiste una esperienza di gioco dove si sono preferite l'fx 8150 al 2700k.
è stata organizzata da AMD stessa, che ha fatto votare gli utenti senza sapere che con che cpu stavano giocando.
la maggiorparte degli utenti ha preferito AMD.
questo non me lo sono inventato io, è un fatto.
il secondo punto sulla qualità dell'immagine, lamentavo solo che non si fanno test sulla qualità dellìimmagine, ma solo su gli fps, e si sopravvalutano anche quando non servono, la mia era la denuncia di una lacuna sui test.
sarebbe interessante sapere altre cose oltre gli fps, poichè il test sopra citato pone un interrogativo, perchè quegli utenti hanno preferito amd?
secondo me merita un approfondimento la cosa
facciamo rifare il test facendolo organizzare da Intel e vediamo che succede?
Puoi fornire inoltre una pagina dove ne parlano, poichè a me non sono arrivate queste comunicazioni ufficiali.

gianni1879
09-02-2012, 12:25
a quella risoluzione i test citati dicono che intel è avanti, ma cosa succede con un multiscermo ad esempio?

ancora???


basta che poi davvero divento cattivo!

Sayan V
09-02-2012, 12:46
Accidenti ragazzi, fatico a starvi dietro ... ogni volta che apro questo thread sono indietro di 4 pagine :mc:


Sono passato al BD dal 1100T solo per curiosità ...
giusto per smanettare con qualcosa di nuovo ...
il 1100T era già abbastanza per ciò che ci facevo io ...

FroZen
09-02-2012, 13:16
facciamo rifare il test facendolo organizzare da Intel e vediamo che succede?
Puoi fornire inoltre una pagina dove ne parlano, poichè a me non sono arrivate queste comunicazioni ufficiali.

http://legitreviews.com/article/1838/1/

gianni1879
09-02-2012, 13:38
http://legitreviews.com/article/1838/1/

thx, ma come detto prima, un evento organizzato in questo modo, è in un certo verso pilotato, ovviamente se fosse stato organizzato dalla controparte il risultato sarebbe stato opposto.

Solo marketing ma nulla di più.

Nforce Ultra
09-02-2012, 13:45
thx, ma come detto prima, un evento organizzato in questo modo, è in un certo verso pilotato, ovviamente se fosse stato organizzato dalla controparte il risultato sarebbe stato opposto.

Solo marketing ma nulla di più.

Quoto con te! ecco che figura fanno le cpu AMD in game:
http://www.tomshardware.com/reviews/gaming-fx-pentium-apu-benchmark,3120.html

Pat77
09-02-2012, 13:53
Bulldozer è il precursore, Piledriver, Steamroller e Excavator sono nomi di mezzi da lavoro e indicano che l'architettura di base è quella (un pò come successe con i K10 o architettura Stars con nomi di stelle)...
Considera che Piledriver è un evoluzione di Bulldozer, Steamroller è un evoluzione di Piledriver e Excavator è l'evoluzione di Steanroller.
Se tutto va bene la cadenza di uscita dovrebbe restare annuale, mentre il cambio di processo produttivo dovrebbe avvenire ogni due anni; si può dedurre che l'erede di excavator dovrebbe uscire a 20nm di origine IBM su wafer da 450mm...

http://www.hardwaremax.it/images/plg_imagesized/660_amd-roadmap-2013.jpg

Io vedo 2011 Buldozer, 2012 Piledriver, 2013 Piledriver. Steamroller nelle APU. Già ora sforano quindi.

capitan_crasy
09-02-2012, 14:07
http://www.hardwaremax.it/images/plg_imagesized/660_amd-roadmap-2013.jpg

Io vedo 2011 Buldozer, 2012 Piledriver, 2013 Piledriver. Steamroller nelle APU. Già ora sforano quindi.

scusa non avevo intuito che parlavamo di roadmap diverse...
Io mi riferivo a questa:
http://www.xtremeshack.com/immagine/i135237_screenhunter-03.jpg
Come vedi le varie architetture hanno il logo Opteron e il passaggio alle versioni desktop è quasi automatico...

innerd
09-02-2012, 14:19
Ciao, visto che mi hanno detto di spostarlo, lo riposto qui.

Sono possessore di un FX 8120 installato su un' Asrock 970 extreme4 aggiornata, oggi stesso, al bios 1.60, gpu Gigabyte 6870, ram 4 gb Corsair Vengeance CMZ4GX3M2A1600C9 (2x2GB), psu XFX PRO 650 W .
Sin dalla prima volta che ho avviato il pc ho ricevuto vari BSOD che all'inizio imputai allo scarso alimentatore (un itek 550w con 26 A dichiarati sulla 12V) e quindi ci diedi poco caso e acquistai quello attuale. Da come si capisce, la situazione non cambiò affatto. Continuai a ricevere vari BSOD pochi secondi dopo il log di windows che mi inficiavano l'uso del pc. Aggiornai il bios ma niente.
La situazione è iniziata a migliorare solo disattivando APM nel Bios ed infatti grazie a questo riesco a mantenere il pc attivo per svariati minuti fino al fatidico BSOD. Ho migliorato ancora (almeno penso, visto che ho provato solo poche ore oggi) disattivando tutti i valori riguardanti il risparmio energetico (C1E, C6, Cool'n'quiet) ma non eliminando completamente il problema, infatti, da quello testato, il BSOD si manifesta sempre ad ogni "risveglio" del pc dopo una sospensione abbastanza prolungata (>15-20 min). Ho eseguito vari stress test (prime 95 blend per 7 ore, small ftt per 2 ore circa, AMD Overdrive, memtest, ecc) senza nessun riscontro negativo, anche quando sono attivati i vari valori del risparmio energetico. Infatti sembra che i crash avvengano quasi esclusivamente a basso carico o in idle. Inoltre ottengo con i vari software di benchmark valori abbastanza inferiori a quelli in review (ad esempio 26500 di cpu queen test sui circa 29700 di recensione e così nei vari 3dmark, ecc). Potrebbe essere un difetto hardware della cpu? Della mb?
Il BSOD in questione è stop 101 CLOCK_WATCHDOG_TIMEOUT (adesso non ho tutti i parametri in quanto scrivo dal portatile).
Cosa mi consigliate di fare?
Ringrazio tutti anticipatamente per l'attenzione.

FroZen
09-02-2012, 14:27
Il watchdog del clock? :mbe: se il bios ufficialmente supporta la cpu mi sa che sei di fronte ad una motherboard difettosa.....IMHO.

Nforce Ultra
09-02-2012, 14:27
Ciao, visto che mi hanno detto di spostarlo, lo riposto qui.

Sono possessore di un FX 8120 installato su un' Asrock 970 extreme4 aggiornata, oggi stesso, al bios 1.60, gpu Gigabyte 6870, ram 4 gb Corsair Vengeance CMZ4GX3M2A1600C9 (2x2GB), psu XFX PRO 650 W .
Sin dalla prima volta che ho avviato il pc ho ricevuto vari BSOD che all'inizio imputai allo scarso alimentatore (un itek 550w con 26 A dichiarati sulla 12V) e quindi ci diedi poco caso e acquistai quello attuale. Da come si capisce, la situazione non cambiò affatto. Continuai a ricevere vari BSOD pochi secondi dopo il log di windows che mi inficiavano l'uso del pc. Aggiornai il bios ma niente.
La situazione è iniziata a migliorare solo disattivando APM nel Bios ed infatti grazie a questo riesco a mantenere il pc attivo per svariati minuti fino al fatidico BSOD. Ho migliorato ancora (almeno penso, visto che ho provato solo poche ore oggi) disattivando tutti i valori riguardanti il risparmio energetico (C1E, C6, Cool'n'quiet) ma non eliminando completamente il problema, infatti, da quello testato, il BSOD si manifesta sempre ad ogni "risveglio" del pc dopo una sospensione abbastanza prolungata (>15-20 min). Ho eseguito vari stress test (prime 95 blend per 7 ore, small ftt per 2 ore circa, AMD Overdrive, memtest, ecc) senza nessun riscontro negativo, anche quando sono attivati i vari valori del risparmio energetico. Infatti sembra che i crash avvengano quasi esclusivamente a basso carico o in idle. Inoltre ottengo con i vari software di benchmark valori abbastanza inferiori a quelli in review (ad esempio 26500 di cpu queen test sui circa 29700 di recensione e così nei vari 3dmark, ecc). Potrebbe essere un difetto hardware della cpu? Della mb?
Il BSOD in questione è stop 101 CLOCK_WATCHDOG_TIMEOUT (adesso non ho tutti i parametri in quanto scrivo dal portatile).
Cosa mi consigliate di fare?
Ringrazio tutti anticipatamente per l'attenzione.

Controlla le ram, prova a fare un memtest e vedi se sono ok. Prova il pc anche con un blocchetto alla volta e vedi se da bios i valori dei timing sono giusti

FroZen
09-02-2012, 14:28
Quoto con te! ecco che figura fanno le cpu AMD in game:
http://www.tomshardware.com/reviews/gaming-fx-pentium-apu-benchmark,3120.html

Chi usa i server per giocare? :asd:

Nforce Ultra
09-02-2012, 14:55
Chi usa i server per giocare? :asd:

Dove li vedi i server? :confused:

innerd
09-02-2012, 14:56
Controlla le ram, prova a fare un memtest e vedi se sono ok. Prova il pc anche con un blocchetto alla volta e vedi se da bios i valori dei timing sono giusti
Già provato e nessun errore.
Adesso, con tutti i vari APM, C1E, C6, cool'n'quiet (ed evitando che vada in sospensione) sembra stabile ma certo non è una situazione che mi conforta e non mi sembra una situazione normale considerando che questo avviene a frequenze stock e senza modifiche bios.

mtk
09-02-2012, 15:33
Già provato e nessun errore.
Adesso, con tutti i vari APM, C1E, C6, cool'n'quiet (ed evitando che vada in sospensione) sembra stabile ma certo non è una situazione che mi conforta e non mi sembra una situazione normale considerando che questo avviene a frequenze stock e senza modifiche bios.

vcore cpu e ram li hai messi tu o sono in automatico?

shellx
09-02-2012, 15:42
interessante, mi sembra un task memory intensive quindi ci sta che BD sia molto meglio vista la cache + grande e il memory controller migliorato, oltre ovviamente al maggior numero di core int che quando sono tutti occupati fanno la differenza. Sarebbe bello poter ripetere lo stesso test con uno xeon, magari con qualche parametro di valutazione + specifico tramite un profiler (che DB server hai usato? SQL server? Oracle? Altro?)

Si anche secondo me è una questione piu che altro di grossa cache (stile opteron).
Ho usato oracle_linux_11gR2_database associata ad una Middleware Web per utilizzare l'accesso http verso il database sulla mia macchina attraverso http server apache.

se vuoi la CPU + RAM te le posso dare io.....ma la main è in cantina e con questo freddo non ci vado nel caso continuiamo in PVT, non so se sei di Milano o zona.
invece un altro indicatore interessante sai qual'è: lanciare n versioni di applicazioni single thread e vedere di quanto perdono ad aumentare del loro numero.....cioè quantificare quanto perde la CPU all'aumentare del carico....
l'unica cosa in questo tipo di verifica è eliminare la variable turbo-variazione di clock...cosa che ho fatto impostando il clock della CPU a 4.2 fisso...altrimenti le differenze sono dovute al fatto che all'aumentare del carico diminuisce il clock quindi si allungano per forza.
poi ho lanciato prima 2 poi 3 poi 4 poi 5 etc etc versioni di super pi per vedere di quanto l'elaborazione si allungava all'aumentare del numero dei thread...ma è una prova che potrebbe essere fatta con qualunque altra app ST....sempre in ottica di gestione del LOAD.e anche qui poi bisogna sempre capire che tipo di istruzioni vengono eseguite.....perchè se sono solo in FPU avendone 4 e non 8 l'eventuale vantaggio diminuisce

Mobo1155 fiammante in cantina ? Sei matto ?.. :D
Con l'umidità che c'è nelle cantine, alla riaccensione quella mobo ti sputa i mosfest e condensatori in faccia. E nemmeno al boot di va.
---------------
Il bello è che quando c'è il carico cpu con la mia soluzione gestionale, tutti e 8 i cluster vengono interrogati e lavorano in maniera stabile e parallela ma non superano il 50% di carico, con venti persone che stanno smanettando dentro la soluzione software a sua volta il LOAD in runtime nella mia macchina FX8120 (che d'ora in poi la ribattezzerò SERVER :p ).

non credo...
Steamroller e Excavator hanno chiare origini da Bulldozer.
La prossima nuova architettura sarà quella ibrida tra X86 e GPU...

Esattamente, piledriver, steamroller ed excavator sono evoluzioni di BD, lo dicono gli stessi nomi da cantiere, di macchine di piccoli servizi aggiuntivi rispetto la struttura portante BULLDOZER.
Pero per quanto riguarda il dopo excavator ossia dopo il 2014, ieri ho letto questo: http://www.realworldtech.com/page.cfm?ArticleID=RWT020712143904&p=2
Nella parte finale dice: Instead, AMD has pushed out their new platform architecture to 2014, meaning that the current server and high-end desktop sockets will last for around 3-4 years, rather than the customary 2-3 years. This also puts them nearly 2 years behind Intel in terms of PCI-E integration. However, when the new platform arrives in 2014, it will come with a huge increase in performance. In addition to integrated PCI-E, it is likely that the new platform will have DDR4 and several other enhancements. In the mean time, the next iteration of servers will have 8 Piledriver cores and hopefully use the additional power budget to increase the clock frequency and thus single threaded performance. These new desigsns will be socket-compatible, which is nice for OEMs and the less aggressive roadmap should also be much easier for AMD to deliver to customers.
----------------------------------------------------
TRADOTTO CON GOOGLE:
Invece, AMD ha spinto la loro nuova architettura di piattaforma per il 2014, il che significa che il server corrente e high-end socket desktop durerà per circa 3-4 anni, invece dei consueti 2-3 anni. Questo mette anche loro quasi 2 anni dietro Intel in termini di PCI-E integrazione. Tuttavia, quando la nuova piattaforma arriva nel 2014, arriverà con un enorme aumento delle prestazioni. Oltre a integrata PCI-E, è probabile che la nuova piattaforma avrà altri miglioramenti DDR4 e diversi. Nel frattempo, la prossima iterazione del server avrà 8 core Piledriver e, auspicabilmente, utilizzare il bilancio di alimentazione supplementare per aumentare la frequenza di clock e quindi le prestazioni singolo thread. Queste nuove desigsns saranno socket compatibile, che è bello per gli OEM e la tabella di marcia meno aggressivo dovrebbe essere anche molto più facile per AMD per fornire ai clienti.

Sembra che dopo il 2014 l'architettura Bulldozer (mi viene da pensare evoluta ad aexcavator) su server e cpu socket desktop hight-end (enthusiast), arrivera talmente potente, che sara pronta per avere integrato pci-e controller dentro. E molto probabilemente si passera da DDR3 a DDR4 per le ram nel sistema.
Il komodo che ci aspettavamo, forse avverra nel 2014, ma piu potente di quello dichiarato l'anno scorso (visto il passaggio alle ddr4) ? ? ?

Tu quando dici che nel 2014 ci sara l'architettura ibrida cpu e gpu ti riferisci amche ai socket per le piattaforme ad alte prestazioni desktop e server ? E quindi icollegandoti a quanto detto sopra con le evoluzioni della piattaforma con DDR4 e un architettura arrivata ad una potenza idonea ?

Bulldozer è il precursore, Piledriver, Steamroller e Excavator sono nomi di mezzi da lavoro e indicano che l'architettura di base è quella (un pò come successe con i K10 o architettura Stars con nomi di stelle)...
Considera che Piledriver è un evoluzione di Bulldozer, Steamroller è un evoluzione di Piledriver e Excavator è l'evoluzione di Steanroller.
Se tutto va bene la cadenza di uscita dovrebbe restare annuale, mentre il cambio di processo produttivo dovrebbe avvenire ogni due anni; si può dedurre che l'erede di excavator dovrebbe uscire a 20nm di origine IBM su wafer da 450mm...
Come vedi le varie architetture hanno il logo Opteron e il passaggio alle versioni desktop è quasi automatico...

quoto

Già provato e nessun errore.
Adesso, con tutti i vari APM, C1E, C6, cool'n'quiet (ed evitando che vada in sospensione) sembra stabile ma certo non è una situazione che mi conforta e non mi sembra una situazione normale considerando che questo avviene a frequenze stock e senza modifiche bios.

mi sa che la tua mobo è da rma ... soprattutto se dici che lo fa a freddo...
Prova a lasciar eil pc spento per 30 minuti, poi prima di accenderlo lo riscaldi con un asciugacapelli per 2 minuti ad aria tiepida (no troppo calda). E vedrai cheil problema non te lo fa. Sai perchè ?
Interruzione nei circuiti che creano una forma di elletromigrazione. Come se le piste quando fredde smettessero o diminuissero la loro conduttività, per cui la corrente rimane in stallo od ostacolata, dopo un poco che si riscalda funziona.
Quando la cosa è critica, la mobo non parte proprio, quando è meno critica fa i capricci.
Chiaramente è un difetto irrimediabile della mobo, va mandata in rma.

Ovviamente è una delle ipotesi al tuo problema, ma mi sembra la piu vicina in base alla tuo indizio: "l'ho fa a freddo".

Ares17
09-02-2012, 15:49
Quoto con te! ecco che figura fanno le cpu AMD in game:
http://www.tomshardware.com/reviews/gaming-fx-pentium-apu-benchmark,3120.html

Una recxensione dove un i5 2500k cloccato a 4 ghz va meno di un i5 2400 def non mi sembra molto affidabile scusami eh. (senza togliere nulla al fatto che bd non è una cpu votata al gaming).

affiu
09-02-2012, 16:16
[QUOTE=innerd;36889864]Ciao, visto che mi hanno detto di spostarlo, lo riposto qui.

Sono possessore di un FX 8120 installato su un' Asrock 970 extreme4 aggiornata, oggi stesso, al bios 1.60

ciao io ho la stessa scheda madre vostra(però ho per adesso aggiornato da 1.40 a 1.50 bios,il 1,60 non saprei dirti) e lo stesso processore.

prova a mettere le memorie su auto,NON su OC profile 1(nessun profilo) o altro ,tutto quello che è possibile su ram metti in auto,niente OC e settaggi timing manuali.
a me dava schermata blu (con memorie 1886 settate,con OC PROFILE solo sui canali A2-B2) quando qualcuno giocava su dei giochi ad internet ,dava schermata blu...
ho giocato e fatto tutto e mai,mai, nessun problema,ma su dei giochi ad internet(non eseguiti da me) schermata blu.
poi ho messo tutto su auto ,senza OC profile ,e non ho visto piu nulla.
sui canali ram A1-B1 dovrebbe settarteli in automatico su 1333 mhz,sui canali A2-B2 su 800 mhz.
provate ,puo darsi che risolvete,il mio problema erano gli OC profili ,ma solo su dei giochi on line l'hanno scoperto,ma sui giochi pc o altro che ho fatto MAI nessuna schermata.

ho giocato molto,ma molto,e nessun problema

innerd
09-02-2012, 16:27
mi sa che la tua mobo è da rma ... soprattutto se dici che lo fa a freddo...
Prova a lasciar eil pc spento per 30 minuti, poi prima di accenderlo lo riscaldi con un asciugacapelli per 2 minuti ad aria tiepida (no troppo calda). E vedrai cheil problema non te lo fa. Sai perchè ?
Interruzione nei circuiti che creano una forma di elletromigrazione. Come se le piste quando fredde smettessero o diminuissero la loro conduttività, per cui la corrente rimane in stallo od ostacolata, dopo un poco che si riscalda funziona.
Quando la cosa è critica, la mobo non parte proprio, quando è meno critica fa i capricci.
Chiaramente è un difetto irrimediabile della mobo, va mandata in rma.

Ovviamente è una delle ipotesi al tuo problema, ma mi sembra la piu vicina in base alla tuo indizio: "l'ho fa a freddo".
Appena acceso, quindi a "freddo", con i vari APM, Cool'n'quiet, ecc disattivati, non me lo fa nemmeno ora, se questo intendevi.
Crasha soprattutto a basso carico quando il pc è acceso o quando lo riattivo da una sospensione (non un arresto) prolungata. Comunque spiegami, è possibile che sia relativo al vcore? Ho notato che quando si attiva il cool'n'quiet la frequenza scende a 1.4Ghz e il vcore arriva fino a valori di 0.9 (e qualcosa in più per quando riguarda i centesimi). A quel punto quando vado per compiere un lavoro (sia attivare un browser o altro), aumentandone la frequenza a 3.1Ghz, il pc crasha. Una volta avevo aperto l'utility AMD Overdrive sul parametro cpu, dopo averlo acceso da una sospensione abbastanza prolungata, e vedevo 2 core a 3.1 e gli altri quasi immobili a 1.4 senza nessun carico, dopo pochi secondi è crashato. In definitiva non so se sia la cpu, mb, il bios poco sviluppato da asrock o altro.
Aggiungo che ho risultati sui benchmark abbastanza inferiori a quelli recensiti ,mediamente del 11-13% (ad esempio ottengo a stock speed intorno ai 26500 sul queen cpu test sui 29600 e rotti di review). Vi sembra normale?


ciao io ho la stessa scheda madre vostra(però ho per adesso aggiornato da 1.40 a 1.50 bios,il 1,60 non saprei dirti) e lo stesso processore.

prova a mettere le memorie su auto,NON su OC profile 1(nessun profilo) o altro ,tutto quello che è possibile su ram metti in auto,niente OC e settaggi timing manuali.
a me dava schermata blu (con memorie 1886 settate,con OC PROFILE solo sui canali A2-B2) quando qualcuno giocava su dei giochi ad internet ,dava schermata blu...
ho giocato e fatto tutto e mai,mai, nessun problema,ma su dei giochi ad internet(non eseguiti da me) schermata blu.
poi ho messo tutto su auto ,senza OC profile ,e non ho visto piu nulla.
sui canali ram A1-B1 dovrebbe settarteli in automatico su 1333 mhz,sui canali A2-B2 su 800 mhz.
provate ,puo darsi che risolvete,il mio problema erano gli OC profili ,ma solo su dei giochi on line l'hanno scoperto,ma sui giochi pc o altro che ho fatto MAI nessuna schermata.

ho giocato molto,ma molto,e nessun problema
Si, ho provato sia ad impostare manualmente e sia in auto, ma niente. Comunque la tua opinione mi è preziosa se confermi che anche tu sei possessore di un fx 8120 e un asrock 970 extreme4. Potrei escludere definitivamente un difetto del BIOS e quindi concentrarmi su MB e CPU e quindi su un quasi certo RMA di uno dei 2 componenti.
Mi potresti anche dire se hai i vari APM, Cool'n'quiet, C1E e C6 attivati?

vcore cpu e ram li hai messi tu o sono in automatico?
Sia in auto e sia impostati da me. Come detto il problema si è manifestato sin dalle prime accensioni (quindi con settaggi standard). Ora con i vari controlli di risparmio energetico il BSOD non compare in nessuna occasione se non il risveglio da una sospensione di windows.

paolo.oliva2
09-02-2012, 21:06
Già provato e nessun errore.
Adesso, con tutti i vari APM, C1E, C6, cool'n'quiet (ed evitando che vada in sospensione) sembra stabile ma certo non è una situazione che mi conforta e non mi sembra una situazione normale considerando che questo avviene a frequenze stock e senza modifiche bios.

Che ram monti, specificatamente a che clock?

Se sono inferiori a 1600, il problema potrebbe essere che la frequenza minima del procio è proporzionata alla frequenza delle RAM.

Io non mi ricordo come funzionava il tutto, pero' con i primi bios e DDR3 maggiori di 1600, la frequenza idle minima di un 8150 era 1,6GHz, mentre settando le ram a 1333 poteva arrivare a 800MHz.
Il problema potrebbe essere che finchè la frequenza minima non scende sotto 1,6GHz, BD lascia la frequenza NB/L3 a valori def, invece se puo' arrivare a clock di 800MHz, allora anche la frequenza NB diminuisce.
Se il bios della mobo non è a puntino, puo' darsi che non preveda questa situazione e quindi provochi un crash.

Al limite se le tue ram sono di velocità bassa, aumenta i Timing ed overcloccale, oppure imposta da bios un clock superiore all'NB e relativo overvolt, giusto perchè il bios non intervenga.

maurilio968
09-02-2012, 21:10
Ovviamente è una delle ipotesi al tuo problema, ma mi sembra la piu vicina in base alla tuo indizio: "l'ho fa a freddo".




non te la prendere ma a questo punto qualcuno deve pur segnalartelo:

inizialmente pensavo fosse uno scherzo invece è un errore incredibile che fai spesso; per esempio hai scritto anche:

...io l'ha trovo tragica come soluzione...
...l'ho faccio pur di levarmi il pallino sulle cose che uso e che mi interessano...

quindi per favore, correggiti (io la trovo tragica...; lo faccio pur...; lo fa a freddo), errori simili non si possono vedere in post interessanti come i tuoi.

gianni1879
09-02-2012, 21:48
in pvt no?

capitan_crasy
09-02-2012, 21:49
Notizie veloci:
AMD ha confermato che IBM non sta producendo nessuna APU/CPU; le parole del CEO sono state fraintese o meglio alcuni hanno capito Roma per toma...
Inoltre nel mese prossimo IBM, GF e Samsung mostreranno i Wafer con le nuove tecnologie produttive a 28nm, 20nm e 14nm...

shellx
09-02-2012, 22:01
non te la prendere ma a questo punto qualcuno deve pur segnalartelo:

inizialmente pensavo fosse uno scherzo invece è un errore incredibile che fai spesso; per esempio hai scritto anche:

...io l'ha trovo tragica come soluzione...
...l'ho faccio pur di levarmi il pallino sulle cose che uso e che mi interessano...

quindi per favore, correggiti (io la trovo tragica...; lo faccio pur...; lo fa a freddo), errori simili non si possono vedere in post interessanti come i tuoi.

Hai ragione.

Notizie veloci:
AMD ha confermato che IBM non sta producendo nessuna APU/CPU; le parole del CEO sono state fraintese o meglio alcuni hanno capito Roma per toma...
Inoltre nel mese prossimo IBM, GF e Samsung mostreranno i Wafer con le nuove tecnologie produttive a 28nm, 20nm e 14nm...


Ok, quindi il pp 32nm è by GF: sia per Piledriver di Vishera che di Trinity. (primo dubbio tolto).
E' probabile che il prossimo 28nm amd scelga quello di IBM ? O la cosa non arreca differenze ?

Inoltre non so se hai letto il mio post (http://www.hwupgrade.it/forum/showpost.php?p=36890488&postcount=6130) di prima, mi farebbe piacere una tua opinione.

paolo.oliva2
09-02-2012, 22:22
Notizie veloci:
AMD ha confermato che IBM non sta producendo nessuna APU/CPU; le parole del CEO sono state fraintese o meglio alcuni hanno capito Roma per toma...
Errori di questa portata non sono giustificabili con un semplice "fraintendimento"...
AMD o non AMD, riportare informazioni di questa portata che coinvolgono società quotate in borsa e con tanto di azioni, la moralità dovrebbe essere diversa. mmm, OK, forse è più perchè mi aveva fatto sperare nel coinvolgimento IBM... diciamola tutta :sofico:

Inoltre nel mese prossimo IBM, GF e Samsung mostreranno i Wafer con le nuove tecnologie produttive a 28nm, 20nm e 14nm...
Chiaramente facendo un bel distinguo tra il presentare e il produrre :D , la storia del 28nm su cui verrà prodotto il successore di Piledriver, non l'ho mica capita bene.
Cioè... si era parlato di Bulk, mi sembra... ma IBM fa anche il Bulk oltre al SOI?
Cioè, quello che intendo è che se la presentazione si basa sulla miniaturizzazione del silicio indipendentemente dal tipo di silicio/trattamenti, è una cosa... ma se IBM/GF/Samsung presentano il 28nm/20nm/14nm SOI, non sarebbe probabile che il successore di Piledriver a 28nm sia su SOI sempre da GF?

Phenomenale
09-02-2012, 22:28
nel mese prossimo IBM, GF e Samsung mostreranno i Wafer con le nuove tecnologie produttive a 28nm, 20nm e 14nm...
Ottima news, devo dire che mi lascia un pò interdetto... GF sta ancora combattendo i problemi di resa bassa sui 32nm, ed avrebbe gia "wafer" sfornati a 28, 20 e 14 ??!?
Ai 28nm ci credo sicuramente, gli altri mi sembrano fantasia che galoppa allo stato brado :asd:

shellx
09-02-2012, 22:32
Non so perchè ma sento che sto 28nm sarà uno dei processi produttivi migliori che siano mai stati fatti, "in rapporto" anche superiore al 45nm.

capitan_crasy
09-02-2012, 22:34
Chiaramente facendo un bel distinguo tra il presentare e il produrre :D , la storia del 28nm su cui verrà prodotto il successore di Piledriver, non l'ho mica capita bene.
Cioè... si era parlato di Bulk, mi sembra... ma IBM fa anche il Bulk oltre al SOI?
Cioè, quello che intendo è che se la presentazione si basa sulla miniaturizzazione del silicio indipendentemente dal tipo di silicio/trattamenti, è una cosa... ma se IBM/GF/Samsung presentano il 28nm/20nm/14nm SOI, non sarebbe probabile che il successore di Piledriver a 28nm sia su SOI sempre da GF?

Al 90% questi 28nm di GF NON sono SOI, ma sono comunque diversi dai 28nm di TSMC e sono in collaborazione con Samsung.
Qui cè la notizia riportata da X-bit lab (Clicca qui (http://www.xbitlabs.com/news/other/display/20120208232412_IBM_Fab_Club_to_Reveal_Details_on_20nm_14nm_and_Beyond_Process_Technologies_Next_Month.html))...

shellx
09-02-2012, 22:37
Ai 28nm ci credo sicuramente, gli altri mi sembrano fantasia che galoppa allo stato brado :asd:

No puo essere vero.
Considera che la presentazione del wafer puo essere indice delle dimensioni in mm, ma non per forza nello specifico dettaglio delle tecnologie che i pp acquisiranno.

Per cui vedo probabile che tengano dentro prototipi anche inferiori ai 14nm.
Dal prototipo, alla lavorazione, alla ottimizzazione, alla produzione finale ci passano tonnellate di acqua sotto i ponti.

Phenomenale
09-02-2012, 22:40
sento che sto 28nm sarà uno dei processi produttivi migliori che siano mai stati fatti
Quotone: i 28nm di TMSC della HD7970 sono buonissimi... anche quelli di GF dovrebbero essere all'altezza delle aspettative.

PS. da notare che i 32nm in passato li aveva annunciati anche TMSC ma in seguito li ha cancellati tenendo solo gli attuali 28nm... mica scemi loro :read:

claudiostef
09-02-2012, 23:01
ciao ragazzi scusate la domanda
ma i 4100FX sono sbloccabili a 8 core :D

capitan_crasy
09-02-2012, 23:07
ciao ragazzi scusate la domanda
ma i 4100FX sono sbloccabili a 8 core :D

No...
I moduli BD inattivi sono bloccati in maniera diversa dai K10; AMD ha già dichiarato che non sarà possibile riattivare i core della serie FX...

claudiostef
09-02-2012, 23:20
grazie per la risposta lo immaginavo
quindi nessuna possibilita :cry: :cry:
peccato sarebbe stata una vera f.....ta 8 core con poca spesa

gz capitan crasy

innerd
09-02-2012, 23:52
Che ram monti, specificatamente a che clock?

Se sono inferiori a 1600, il problema potrebbe essere che la frequenza minima del procio è proporzionata alla frequenza delle RAM.

Io non mi ricordo come funzionava il tutto, pero' con i primi bios e DDR3 maggiori di 1600, la frequenza idle minima di un 8150 era 1,6GHz, mentre settando le ram a 1333 poteva arrivare a 800MHz.
Il problema potrebbe essere che finchè la frequenza minima non scende sotto 1,6GHz, BD lascia la frequenza NB/L3 a valori def, invece se puo' arrivare a clock di 800MHz, allora anche la frequenza NB diminuisce.
Se il bios della mobo non è a puntino, puo' darsi che non preveda questa situazione e quindi provochi un crash.

Al limite se le tue ram sono di velocità bassa, aumenta i Timing ed overcloccale, oppure imposta da bios un clock superiore all'NB e relativo overvolt, giusto perchè il bios non intervenga.
No, le ram sono a 1600 di default. Il Bios è aggiornato all'ultima versione (rilasciata ieri o 2 giorni fa) e quindi non è datato. Un ragazzo che mi ha risposto prima sul forum mi ha detto che si trova con la stessa mb e con lo stessa cpu (fx-8120) e non ha problemi del genere.
Ti posso richiedere... è normale che il vcore scenda a 0,90 col cool'n'quiet a 1.4 Ghz? Perché potrei supporre (anche leggendo in giro che quei tipi di bsod possono essere causati dal un vcore troppo basso o alto) che proprio dal passaggio idle ---> carico e quindi 1,4 ---> 3,1 Ghz che il problema si manifesta. Forse quella tensione di voltaggio in idle non riesce a reggere il salto di frequenza o forse allo stesso variare della frequenza, per problemi a me sconosciuti, non riesce a corrispondere uno stesso aumento del vcore.
Comunque sia non so a chi o cosa imputare il malfunzionamento: se alla cpu o alla motherboard.

Randa71
09-02-2012, 23:58
No, le ram sono a 1600 di default. Il Bios è aggiornato all'ultima versione (rilasciata ieri o 2 giorni fa) e quindi non è datato. Un ragazzo che mi ha risposto prima sul forum mi ha detto che si trova con la stessa mb e con lo stessa cpu (fx-8120) e non ha problemi del genere.
Ti posso richiedere... è normale che il vcore scenda a 0,90 col cool'n'quiet a 1.4 Ghz? Perché potrei supporre (anche leggendo in giro che quei tipi di bsod possono essere causati dal un vcore troppo basso o alto) che proprio dal passaggio idle ---> carico e quindi 1,4 ---> 3,1 Ghz che il problema si manifesta. Forse quella tensione di voltaggio in idle non riesce a reggere il salto di frequenza o forse allo stesso variare della frequenza, per problemi a me sconosciuti, non riesce a corrispondere uno stesso aumento del vcore.
Comunque sia non so a chi o cosa imputare il malfunzionamento: se alla cpu o alla motherboard.

l'abbassamento del VCORE è normale...se ti fa un BSOD per abbassamento del Vcore a 0.9 non lo deve fare...non ho molto seguito il tuo caso ma hai provato a cambiare ram? non hai qualche banco da provare al posto di quelli che hai? prova una distro linux e vedi sei ti si blocca anche li...se hai un problema hardware sicuramente anche linux ti si freeza...e intanto puoi escludere che sia un problema di windows.....in questi casi si va per tentativi...se hai caricato a default tutte le impostazioni dei bios

innerd
10-02-2012, 00:06
l'abbassamento del VCORE è normale...se ti fa un BSOD per abbassamento del Vcore a 0.9 non lo deve fare...non ho molto seguito il tuo caso ma hai provato a cambiare ram?
Si, ho provato con 1 memoria alla volta, memtest, stress test vari, ma mai avuti problemi.
Riassumendo: sotto stress la cpu non da nessun tipo di problema ma in idle e con i vari C1E, C6, Cool'n'quiet attivati mi da BSOD stop 101: clock_watchdog_timeout. Senza in idle non crasha ma se "risveglio" la cpu dopo una sospensione di windows abbastanza prolungata, allora mi ridà il crash.
Quindi non ti sembra anomalo che da un vcore di 1.375 si passi a 0.9 in cool'n'quiet?

prova una distro linux e vedi sei ti si blocca anche li...se hai un problema hardware sicuramente anche linux ti si freeza...e intanto puoi escludere che sia un problema di windows.....in questi casi si va per tentativi...se hai caricato a default tutte le impostazioni dei bios
Ho formattato Windows anche. Provare una distro linux è una buona idea (avevo gentoo di default installata nell'altro hardisk ma questa mb non supporta l'IDE). Andrà bene una live?

capitan_crasy
10-02-2012, 00:13
Si, ho provato con 1 memoria alla volta, memtest, stress test vari, ma mai avuti problemi.
Riassumendo: sotto stress la cpu non da nessun tipo di problema ma in idle e con i vari C1E, C6, Cool'n'quiet attivati mi da BSOD stop 101: clock_watchdog_timeout. Senza in idle non crasha ma se "risveglio" la cpu dopo una sospensione di windows abbastanza prolungata, allora mi ridà il crash.
Quindi non ti sembra anomalo che da un vcore di 1.375 si passi a 0.9 in cool'n'quiet?

Ho formattato Windows anche. Provare una distro linux è una buona idea (avevo gentoo di default installata nell'altro hardisk ma questa mb non supporta l'IDE). Andrà bene una live?

che sistema operativo usi?

innerd
10-02-2012, 00:16
che sistema operativo usi?
Windows 7 Ultimate SP1 64 bit. Comunque ho letto da un utente del forum, che possiede la mia stessa mb e cpu, che lui non riscontra questi problemi.

digieffe
10-02-2012, 01:07
Notizie veloci:
AMD ha confermato che IBM non sta producendo nessuna APU/CPU; le parole del CEO sono state fraintese o meglio alcuni hanno capito Roma per toma...
Inoltre nel mese prossimo IBM, GF e Samsung mostreranno i Wafer con le nuove tecnologie produttive a 28nm, 20nm e 14nm...
sembra che dopo il mezzo nodo siano tornati ad un passo normale:

32 -> 28 : 1/2 nodo
28 -> 20 : 1 nodo
20 -> 14 : 1 nodo

da notare anche che, la concorrenza farà più di un nodo classico con il passagio da 22 -> 14 (quasi 1+1/2 nodo) (considerando come nodo la sqrt(dim1^2/2))

digieffe
10-02-2012, 01:09
Quotone: i 28nm di TMSC della HD7970 sono buonissimi... anche quelli di GF dovrebbero essere all'altezza delle aspettative.

PS. da notare che i 32nm in passato li aveva annunciati anche TMSC ma in seguito li ha cancellati tenendo solo gli attuali 28nm... mica scemi loro :read:

i 28nm sono buonissimi per le schede video e per tutti i chip a basso clock...

vorrei vedere col salire del clock in che modo abominevole salirà il leakage...

shellx
10-02-2012, 01:30
Ho formattato Windows anche. Provare una distro linux è una buona idea (avevo gentoo di default installata nell'altro hardisk ma questa mb non supporta l'IDE). Andrà bene una live?

Una live va bene.
Ma se devi provare una distro per escludere eventuali problemi hardware, ti consiglio vivamente di installare distro corpose (es: ubuntu, fedora,gentoo,opensuse,mandriva,mint, debian), ed evitare le mini distro stile (puppy,slitaz e affini).
Se vuoi uan distro che si avvicini molto all'ambiente windows, corposa, e graficamente consistente ti consiglio la OPENSUSE.
E la distro piu somigliante al windows, come ambiente generale messo a disposizione per l'utente che proviene da windows.
E oltretutto è una delle distro piu corposa e pesante (sia per le peculiarità grafiche, che per i driver caricati nel kernel, e per la struttura stessa).
Ti dico questo perchè se c'è qualche problema hardware, con la opensuse potrebbe verificarsi piu facilmente, rispetto se installi una minidistro sitle puppy che non carica tutti driver e potrebbe non far funzionare determinate periferiche.

Anche se ti torno a ripetere che per me il problema è la mobo.

affiu
10-02-2012, 02:21
Ottima news, devo dire che mi lascia un pò interdetto... GF sta ancora combattendo i problemi di resa bassa sui 32nm, ed avrebbe gia "wafer" sfornati a 28, 20 e 14 ??!?
Ai 28nm ci credo sicuramente, gli altri mi sembrano fantasia che galoppa allo stato brado :asd:

perchè dopo i 28nm vi sembra solo fantasia?:D

non è questione di fortuna o fantasia o di tifo,ma 2 ,3 aziende mica si mettono in accordo cosi,tanto per andare al lago a pescare le carpe la domenica!
questi processi produttivi 28nm ,20nm ,14 nm non solo destinati ed investiti per le apu,ma sono dedicati quasi interamente alle apu ,a tutta forza APU.
secondo me,io mi spiego questo pensando solo che è perchè sanno che saranno venduti come i granelli della sabbia e si possono fare palanchi su un progetto che non ha precedenti e qualcuno comincia addirittura ad apprezzare:Prrr: ;non ci sara nessuna competizione allo stesso LIVELLO,ci sarà dominio come mai non si sia visto,ma preferirei che mi sbagliassi.

la cosa piu pazzesca di tutto questo mistero:D ,il mondo delle apu ,i processi produttivi,ecc, dietro c'è l'architettura BULLDOZER :sofico: ;questa cosa non la capisco proprio,se alla fine è da buttare nel cesso ,mah invece ,guarda guarda.:muro:

ma voi vorreste mettere che AMD e company FORSE potranno,tanto per cominciare e tanto per scherzare , ''racchiudere'' IN 9W :eek: (sia a 28nm ,sia a 20nm,sia a 14 nm ,e forse anche dei possibili 10nm) UNA POTENZA che neanche si sogna di immaginare oggi giorno....

e dietro non ce solo amd ,ma altri, che di sicuro neanche ci penserebbero a spenderci un soldo se non c'è IL TORNACONTO sulla validita del progetto ,e mi sembra sempre di piu e sempre meno possibile e probabile che le mie fantasie non si possano avverare, e anche il tanto agoniato TDP che potrebbe limitare il tutto,anch'esso dovra CAMBIARE legge termodinamica solo per apu.

non posso immaginare che ancora nel 2020 con qualsiasi portatile e di qualsiasi fascia non si possa giocare(chiaramente senza il bisogno di nessuna gpu discreta ) con la batteria che dura 2 -3 giorni e con qualsisi gioco pc game.e che magari si alimenta,piano piano con la luce solare da solo ,speriamo....

shellx
10-02-2012, 02:39
perchè dopo i 28nm vi sembra solo fantasia?:D

non è questione di fortuna o fantasia o di tifo,ma 2 ,3 aziende mica si mettono in accordo cosi,tanto per andare al lago a pescare le carpe la domenica!
questi processi produttivi 28nm ,20nm ,14 nm non solo destinati ed investiti per le apu,ma sono dedicati quasi interamente alle apu ,a tutta forza APU.
secondo me,io mi spiego questo pensando solo che è perchè sanno che saranno venduti come i granelli della sabbia e si possono fare palanchi su un progetto che non ha precedenti e qualcuno comincia addirittura ad apprezzare:Prrr: ;non ci sara nessuna competizione allo stesso LIVELLO,ci sarà dominio come mai non si sia visto,ma preferirei che mi sbagliassi.

la cosa piu pazzesca di tutto questo mistero:D ,il mondo delle apu ,i processi produttivi,ecc, dietro c'è l'architettura BULLDOZER :sofico: ;questa cosa non la capisco proprio,se alla fine è da buttare nel cesso ,mah invece ,guarda guarda.:muro:

ma voi vorreste mettere che AMD e company FORSE potranno,tanto per cominciare e tanto per scherzare , ''racchiudere'' IN 9W :eek: (sia a 28nm ,sia a 20nm,sia a 14 nm ,e forse anche dei possibili 10nm) UNA POTENZA che neanche si sogna di immaginare oggi giorno....

e dietro non ce solo amd ,ma altri, che di sicuro neanche ci penserebbero a spenderci un soldo se non c'è IL TORNACONTO sulla validita del progetto ,e mi sembra sempre di piu e sempre meno possibile e probabile che le mie fantasie non si possano avverare, e anche il tanto agoniato TDP che potrebbe limitare il tutto,anch'esso dovra CAMBIARE legge termodinamica solo per apu.

non posso immaginare che ancora nel 2020 con qualsiasi portatile e di qualsiasi fascia non si possa giocare(chiaramente senza il bisogno di nessuna gpu discreta ) con la batteria che dura 2 -3 giorni e con qualsisi gioco pc game.e che magari si alimenta,piano piano con la luce solare da solo ,speriamo....

Portatili 9 watt per giocare ?
Workstation anche ?
Batterie da 3 giorni ? Con schede video all'interno top e tutto 9watt comrpeso di cpu,mobo, ram , ssd e company... ah no no scusami niente di questo,perchè anche qeusti saranno tutti dentro integrati giusto ? La mobo tutta tutta con tutti i mosfet dentro la APU insieme alla ram e la lavatrice ...giusto dimenticavo
Uhmmm... capito...
Luce solare ?
E movimento delle dita...
uhm...
nel 2020 ?
uhm..

sicuramente per le fascie low-power perfino I/O viene integrato, ma le fasce medie e alte 9watt tutto dentro la vedo improbabile a breve tempo.

Non dico che questo non sia possibile...ma secondo me tu giochi a troppi videogame e guardi troppi film fantascientifici...
Comprati un paio di workstation, toccale con mano, vivile, sentile, paga la bolletta della luce dopo, e dopo mi dirai se le tue tesi sono valide per il 2020 o giu di li ..

ok ? Pero fallo...altrimenti per me riempi solo spazio inutile con i tuoi aggiornati trailer..
MA LOOOL

Randa71
10-02-2012, 08:18
Si, ho provato con 1 memoria alla volta, memtest, stress test vari, ma mai avuti problemi.
Riassumendo: sotto stress la cpu non da nessun tipo di problema ma in idle e con i vari C1E, C6, Cool'n'quiet attivati mi da BSOD stop 101: clock_watchdog_timeout. Senza in idle non crasha ma se "risveglio" la cpu dopo una sospensione di windows abbastanza prolungata, allora mi ridà il crash.
Quindi non ti sembra anomalo che da un vcore di 1.375 si passi a 0.9 in

no non e' anomalo....a me a la cpu a default passa da 0.9 a 1.44 o 1,424 senza problemi. da idle a load su singoli core cosi si attiva il turbo..se la causa dei bsod e' questa allora e' una peculiarita' o della tua mobo(molto probabile qualche mosfet o raddrizzatore di tensione) o della tua cpu. sono normali queste differenze di voltaggi tra idle/load.
poi scusa il tipo di bsod che ti da e' sempre quello del watchdog o sono random? questa cosa e' importante perche' quando a me e' capitato di avere prob hw nn era sempre lo stesso errore ma random.

Randa71
10-02-2012, 08:26
.......

la cosa piu pazzesca di tutto questo mistero:D ,il mondo delle apu ,i processi produttivi,ecc, dietro c'è l'architettura BULLDOZER :sofico: ;questa cosa non la capisco proprio,se alla fine è da buttare nel cesso ,mah invece ,guarda ...

invece io non ci vedo nulla di strano :D non ho ancora sentito nessun ingegnere/progettista/architetto di cpu dire che l'architettura e' da buttare....a parte qualche scienziato o presunto tale di qualche forum :D perche' un conto e' parlare dell'architettura un conto e' parlare della sua prima incarnazione...magari BD e' stato ANCHE visto, e non SOLO, in ottica apu, cioe' una cpu che serve a feeddare le unita' gpu....ma e' solo una mia ipotesi.

Phenomenale
10-02-2012, 09:29
i 28nm sono buonissimi per le schede video e per tutti i chip a basso clock...
In che senso? Indipendentemente dai nm della tecnologia utilizzata, puoi utilizzare differenti tipi di transistor con differenti prestazioni. :cool:

vorrei vedere col salire del clock in che modo abominevole salirà il leakage...
Il "leakage" non dipende dalla frequenza. Il leak è la corrente che disperde (spreca) il transistor ed è legata alla tensione applicata e cresce in maniera esponenziale oltre una certa soglia... :fagiano:

Pensa ai 40nm di TMSC: quando ci produce l' HD6970 vanno a 880MHz di clock con 250W di TDP, quando ci produce l' E-450 arrivano ad 1650MHz di clock con 18W di TDP. ;)
PS. Sono prodotti differenti e non confrontabili, li ho buttati lì solo in risposta all' "abominevole leakage" del clock^^

perchè dopo i 28nm vi sembra solo fantasia?
No no, mi sembra fantasia che GF abbia già sfornato wafer a 14nm, a meno di prototipi non funzionanti... :fiufiu:

paolo.oliva2
10-02-2012, 10:02
invece io non ci vedo nulla di strano :D non ho ancora sentito nessun ingegnere/progettista/architetto di cpu dire che l'architettura e' da buttare....a parte qualche scienziato o presunto tale di qualche forum :D perche' un conto e' parlare dell'architettura un conto e' parlare della sua prima incarnazione...magari BD e' stato ANCHE visto, e non SOLO, in ottica apu, cioe' una cpu che serve a feeddare le unita' gpu....ma e' solo una mia ipotesi.

Concordo, i giudizi sull'architettura, fatti da persone di un certo livello, sono comunque stati positivi, pero' nessuno si è sognato di riportare l'8150 il procio migliore del secolo, quindi se da un lato l'architettura è stata promossa, bisogna capire su che basi.
Io credo che ci possano essere solamente 3 soluzioni...
la prima è che si premi il concetto di architettura in sè, ma che abbia bisogno di corpose ottimizzazioni per esprimersi.
La seconda e la terza hanno in comune la potenza, quindi o l'8150 è poco potente non per l'architettura in sè ma per colpa del silicio, oppure si giudica l'architettura in chiave futuristica quando l'APU non sarà solamente CPU + IGP ma una simbiosi atta a elaborare i dati.

Io sono dell'idea che il divario tra le aspettative sul silicio e lo stato attuale sia troppo ampio da colmare, e non credo che il 28nm possa fare granchè contando che la controparte sarà già sul 22nm a regime.
Il fatto che AMD concentri il massimo sforzo sulle APU, mi sembra ottuso volerci vedere l'irreale, tipo che AMD lasci desktop e server.
In primis mi sembra naturale per ogni azienda concentrarsi sul prodotto che vende di più, e AMD nelle APU ha un gran bel prodotto e le vendite lo dimostrano, ma la cosa più importante, e che il futuro sarà APU nel vero senso della parola (CPU e GPU che insieme elaborano i dati), e l'acquisizione di ATI, oltre a rimpinguare per bene il bilancio dell'azienda, è cresciuta grazie ad AMD e il bagaglio tecnologico raggiunto peserà e non poco sul prodotto finale APU.
Cioè... l'IPC sarà la somma dell'elaborazione CORE E IGP, e l'architettura BD è stata progettata per questo, quindi, in quest'ottica, l'IPC attuale di BD peserebbe molto meno sul giudizio architettura rispetto al fatto di essere "aperta", predisposta ed ottimizzata per l'APU futura.

Che poi, se vogliamo, una cosa che si è sempre criticata ad AMD è quella di far durare un'architettura 10 anni... vogliamo pensare che un'architettura realizzata a fine 2011 non sia stata pensata per l'APU? Oltretutto con l'acquisizione ATI?

digieffe
10-02-2012, 10:07
In che senso? Indipendentemente dai nm della tecnologia utilizzata, puoi utilizzare differenti tipi di transistor con differenti prestazioni. :cool:
Nel senso che i trattamenti sono diversi e sono poi quelli che fanno la differenza


Il "leakage" non dipende dalla frequenza. Il leak è la corrente che disperde (spreca) il transistor ed è legata alla tensione applicata e cresce in maniera esponenziale oltre una certa soglia... :fagiano:

Pensa ai 40nm di TMSC: quando ci produce l' HD6970 vanno a 880MHz di clock con 250W di TDP, quando ci produce l' E-450 arrivano ad 1650MHz di clock con 18W di TDP. ;)
PS. Sono prodotti differenti e non confrontabili, li ho buttati lì solo in risposta all' "abominevole leakage" del clock^^
appunto esponenziale... vorrei vedere un chip complesso prodotto con quel processo girare tra i 3 ed i 4 ghz... quale (quanta) tensione sarebbe necessaria? e quanta corrente andrebbe sprecata?

immagino che se si debbano fare chip della complessità, clock, assorbimento ecc tipo BD si debba procedere all'applicazione di uno o più trattamenti sul silicio altrimenti dovremmo ritrovare in una condizione peggiore degli attuali 32nm... (chiaramente è un discorso ipotetico ma mi sembra che possa rendere bene l'idea)

innerd
10-02-2012, 10:24
no non e' anomalo....a me a la cpu a default passa da 0.9 a 1.44 o 1,424 senza problemi. da idle a load su singoli core cosi si attiva il turbo..se la causa dei bsod e' questa allora e' una peculiarita' o della tua mobo(molto probabile qualche mosfet o raddrizzatore di tensione) o della tua cpu. sono normali queste differenze di voltaggi tra idle/load.
poi scusa il tipo di bsod che ti da e' sempre quello del watchdog o sono random? questa cosa e' importante perche' quando a me e' capitato di avere prob hw nn era sempre lo stesso errore ma random.
No, ho analizzato con whocrashed i vari dump. Sempre lo stesso e nella quasi totalità con gli stessi parametri. Il problema del vcore mi è balzata alla mente leggendo in forum inglesi di overclocking : quel BSOD per loro è significativo di un vcore o troppo alto o troppo basso. Considerando che mi succede solo in idle e mai a full load sono arrivato a quello conclusione.

aldooo
10-02-2012, 11:03
Io sono dell'idea che il divario tra le aspettative sul silicio e lo stato attuale sia troppo ampio da colmare, e non credo che il 28nm possa fare granchè contando che la controparte sarà già sul 22nm a regime.

Bah, i nanometri non sono tutto.

Anche se sembra che la seconda generazione di 22nm Intel sarà pronta per la primavera 2013 (Haswell, vedi notizia HwUpgrade, nuova architettura)
penso che se Piledriver avrà le ottimizzazioni che ci aspettiamo potrà
dire la sua anche il prossimo anno.

blindwrite
10-02-2012, 11:08
Ottima news, devo dire che mi lascia un pò interdetto... GF sta ancora combattendo i problemi di resa bassa sui 32nm, ed avrebbe gia "wafer" sfornati a 28, 20 e 14 ??!?
Ai 28nm ci credo sicuramente, gli altri mi sembrano fantasia che galoppa allo stato brado :asd:

Il 20 esiste ed e' in test... ci si lavora da almeno un paio di anni.
Da noi sono partiti gia' molti test chip. In questi mesi sto lavorando su test chip digitale 20nm da processare a IBM.

Phenomenale
10-02-2012, 11:46
Il 20 esiste ed e' in test... In questi mesi sto lavorando su test chip digitale 20nm da processare a IBM
Interessante... grazie per la testimonianza!

digieffe
10-02-2012, 12:23
Analisi di Charlie di semiaccurate sul perchè sono stati tolti 2 core dalle roadmap amd:

http://semiaccurate.com/2012/02/06/why-did-amd-drop-two-cores-from-server-chips/

Ps: non so se è stato già postato, ricordo che di qualcosa se ne è già discusso, ci sono molti spunti interessanti.



EDIT: qualcuno mi sa spiegare la differenza (di amd) tra customized design e sintetizable design?

qui : http://semiaccurate.com/2012/02/07/fabless-works-for-amd

affiu
10-02-2012, 13:37
Portatili 9 watt per giocare ?
Workstation anche ?
Batterie da 3 giorni ? Con schede video all'interno top e tutto 9watt comrpeso di cpu,mobo, ram , ssd e company... ah no no scusami niente di questo,perchè anche qeusti saranno tutti dentro integrati giusto ? La mobo tutta tutta con tutti i mosfet dentro la APU insieme alla ram e la lavatrice ...giusto dimenticavo
Uhmmm... capito...
Luce solare ?
E movimento delle dita...
uhm...
nel 2020 ?
uhm..

sicuramente per le fascie low-power perfino I/O viene integrato, ma le fasce medie e alte 9watt tutto dentro la vedo improbabile a breve tempo.

Non dico che questo non sia possibile...ma secondo me tu giochi a troppi videogame e guardi troppi film fantascientifici...
Comprati un paio di workstation, toccale con mano, vivile, sentile, paga la bolletta della luce dopo, e dopo mi dirai se le tue tesi sono valide per il 2020 o giu di li ..

ok ? Pero fallo...altrimenti per me riempi solo spazio inutile con i tuoi aggiornati trailer..
MA LOOOL

vi ho risposto shellx piu di una volta ,a me a delle workstation non mi interessa nulla e non devo sentire nulla,io sto semplicemente aspettando (da molto tempo) di abbinare il ''tutto'' (quello che uscira dal cilindro amd:D ) assieme ad UNA OPTMA HD33(3D FULL 1080p) su una grande parete.

a me interessa esprimere un giudizio sotto vista game di bulldozer ,del resto non mi interessa, del perchè amd e rimasta agli athlon o perche non si metta a fare pizze;giustamente magari i pc per uso game rappresentano 1 %,ma cosa centrerebbe con bulldozer.
io con il mio e350 a bf3 non ci posso giocare(anche se gira) ,ma certamente credo che si potra fare nel prossimi 18w(che si chiamino filippo o giovanni);sarebbe da sciocchi pensare e ritenere che uno non si possa fare una partitella ogni tanto ,oltre il pc fisso,senza avere incongruenze neuronali.non puo centrare nulla e da nessuna parte.

poi anche voi pensate del perchè uno ha solo fantasia o,ne siete prontamente convinti del contrario,ma vi faccio 2 domande:

per me il fatto che bulldozer su piledriver supportera le ddr3 2133 mhz ,questo gia oggi per me è un SEGNALE che si traduce in piu frame al secondo nelle integrate .perchè lo penso?perchè su llano passando dalle 1333 alle 1600 alle 1866 (overcloccando l'apu direttamente),i frame aumentano(verità) ,allora anche sulle 2133....sarebbe una fantasia o certezza questa?

pensate che su KABINI non supera amd il fatto di poter giocare anche a bf3 in 18w rimpiazzando brazos 2?
perche lo penso ,semplicemente perchè per quello che ho visto AL CES(MI BASTA) ,l'ho visto e l'avete visto pure voi che GIA' ''gira'' dirt3 e probabilmente anche bf3.
non capisco perchè non posso pensarla in questo modo ,e per tale ritenere(se dovesse andare come dico io) bulldozer un'architettura propensa a tutto cio,senza togliere nulla al vostro modo di vedere bulldozer sotto aspetti diversi,di lavoro,di concezione o altro.

APU oltretutto ,a parte i giochi ,secondo me sara il nuovo PROTOTIPO di costruzione di un processore in casa amd nel futuro,indipendentemente che perdera nel futuro ecc ecc, ma di sicuro qualche particolarita l'avra pure questa tipologia di VERI procesori ibridi.

è una mia fantasia senza senso ,se penso a cosa possa significare APU per un processore server?è una fantasia se la META'dei processori della classifica dei supercomputer,per tradizione, porta la firma amd ? è una mia fantasia se negli ultimi anni nei supercomputer e supercalcolo hanno preso POSTO pure le gpu,che fanno TANTA DIFFERENZA A parita di numero processori in serie? allora anche li apu portera un rapporto POTENZA/WATT senza precedenti e di una naturalezza ''MAI POTUTA'' essere immaginata prima.(quest'ultimo punto sulla carta,perche amd ancora non si è pronunciata quando adottera APU negli opteron processor) pensate che nei super computer HSA2 opteron ci sarà storia?vedremo...

secondo me il vostro dubbio potrebbe essere se credere che un HSA2 sia da ritenere dello stesso LIVELLO di un ''tradizionale'' processore di oggi ,e vi capirei visto dal vostro punto di vista lavoro e visto oggigiorno.....ma qualcosa ci puo sempre sfuggire a tutti nel bene o nel male,voi compreso.

PS. quando citavo nel post precedente che si potrebbe racchiudere in 9w ,mi riferivo solo a quella fascia COME ESEMPIO DI IMPAREGGIABILITA GIA DA OGGI ,è chiaro che le altre fascie ci saranno eccome

per me,se gia da 17w(mi riferisco al video al ces) quella è la potenza ,non ho nessuna NECESSITA a credere diversamente da APU....