PDA

View Full Version : [Thread Ufficiale] Aspettando ZEN


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 [44] 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103

paolo.oliva2
25-12-2016, 12:07
Io posso dire una cosa, di persona.
E' vero che la gente vuole che le cose stiano così, perchè è così che si mangia.
Vi ricordate la nota pubblicità di 1€ al giorno per mandare un africano a scuola? O adottare un bambino per 50€ al mese, e via discorrendo.. e medici senza frontiera e tanto altro.
I medici senza frontiera, quelli si che si fanno il :ciapet:, la cosa che non si sa è che loro lavorano gratis, ma l'intervendo che fanno, la gente lo paga :).
La scuola... beh, è gratuita, almeno qui in Costa d'Avorio, e adottare 1 bambino a distanza per 50€, non ne ho idea, visto che una famiglia di 10 persone con 50€ ci campa 1 mese.
Io qui di pasta Barilla, formaggi e quant'altro, ne ho visti parecchi venire dall'Italia, l'unico problema è che alla popolazione arriva nulla, eccetto le donne in gravidanza, che ricevono una sporta con 2 pacchi di pasta 2 di riso, e poco altro.
Di una cosa sono sicuro al 100%, se parte 100, 99 mangiano e 1 arriva, e probabilmente sono molto ottimista.

.Hellraiser.
25-12-2016, 12:11
Di una cosa sono sicuro al 100%, se parte 100, 99 mangiano e 1 arriva, e probabilmente sono molto ottimista.

quello è sicuro, purtroppo :(

Ale55andr0
25-12-2016, 12:16
Mi pare poco credibile che siano nel panico. Quei virgolettati poi.....

A me fega solo che abbiano torto marcio nel prevedere zen nel mercato non prima di marzo.

paolo.oliva2
25-12-2016, 12:22
Ma com'è che si parla tanto di quanto fosse fico ed efficiente BD, e che la colpa delle sue prestazioni sia stata del silicio, ma poi posto il link coi benchmark, dove si vede che oggettivamente il suo IPC fosse alquanto scarso, e "stranamente" i suoi difensori fanno finta di non averlo visto... :rolleyes:
Perchè fai un frullato misto di quanto si dice :D.

Seguimi, una cosa è parlare di IPC, un'altra di ST e altro ancora di MT e giudicare una architettura potente se lo è in ST e ha IPC alto. Esempio... l'ST di BD non è alto, l'IPC idem, ma il CMT pomperebbe in MT, semplicemente perchè un XV X16 non avrebbe nulla da invidiare ad un 6900K, quindi perchè giudicare ciofeca BD unicamente sull'ST e generalizzando >IPC = più prestazioni?

Nessuno qua ha mai detto che con un silicio migliore BD avrebbe pareggiato in ST con Intel, nessuno, ma io personalmente ho detto che il silicio ha negato >4m e di qui l'MT che il CMT poteva dare.
Prima che cominci a fare un elenco di dati, concordiamo che il SOI sarebbe dovuto essere superiore al Bulk? Allora... perchè il 32nm Bulk Intel ha consentito 12 TH (X6+6) e il 32nm SOI si è fermato a 8 e ha cancellato il 10 TH (Komodo)? Perchè sulla carta il 32nm SOI AMD avrebbe dovuto quasi competere con il 22nm Intel, e il 32nm SOI si è fermato a 1,2 milioni di transistor e Intel invece a 2,5 milioni con il 5960X?

Una cosa è 2 moduli XV sul 28nm che se la vedono con un i3, tutt'altro sarebbe 8 moduli XV che se la vedono con 8 core SMT, 16TH per entrambi.

Devo capire che collegamento fallace ci sarebbe in BD pure verso il Phenom II... quando il Thuban ha permesso solamente di stare davanti ad Intel X4 di poco in MT e perdendo in tutto il resto, e un BD che con il silicio avrebbe vinto verso gli i7 X4 e ben più competitivo del Thuban verso gli i7 E, in MT sia verso dovunque e perso solamente in ST. Avrebbe fatto più di un Thuban, però BD è peggio del Phenom II... per la potenza ST... perchè allora continuare a parlare?
Cacchio, anche in questo TH abbiamo ribadito che un Zen a 3GHz sarebbe stato inferiore a BD XV, ora che sappiamo che Zen avrà +400/500MHz almeno, di colpo Zen è diventato l'ammazza BD?

P.S.
In quell'articolo su Intel, ha riportato le stesse cose che io ho scritto, cioè Intel ha massimizzato i guadagni riducendo l'R&D perchè ha sottovalutato AMD. Ma è normale che tutte le aziende a sto mondo cerchino di guadagnare di più se le circostanze lo permettono... mentre tu eri dell'idea che Intel prende le decisioni senza guardare il mondo, ricordo che hai detto che di AMD proprio non gli frega nulla. Se per te è nulla il fatto che vogliono silurare il CEO perchè ha sottovalutato AMD...

von Clausewitz
25-12-2016, 13:50
Buon natale ovunque voi siate

paolo.oliva2
25-12-2016, 15:17
Buon Natale :)

affiu
25-12-2016, 15:45
Da panico.

Lo dicevo io che Intel si era seduta... altro che ricerca programmata.

"A quanto pare, Krzanich completamente sottovalutato la possibilità di un ritorno AMD. R&D... uno spazio vuoto enorme fino a circa 2019.
Intel sta attualmente lavorando su un "pacchetto multichip" (MCM) che integra una CPU Intel e una GPU AMD. Quindi, questo è confermato ragazzi.".

"Fab Hell": Intel è probabile che per avere un ritardo di 6 mesi su 10nm. Peggio ancora, anche Cannon Lago non si prevede per caratterizzare qualsiasi significativo miglioramento architettonico. Fondamentalmente Intel stava sperando AMD avrebbe mantenuto non in competizione con loro.

Quindi se l'atmosfera è questa, di certo Zen poco non può essere.

----

Se io fossi AMD, sfrutterei al max il 1° anno di Zen vendendo a tabula rasa.
Prezzo basso e avanti Savoia. :)

Auguri a tutti.

Facendo un discorso semplice, cioè partendo da 2 aspetti: come mai i sample dei bulldozer erano, se non ricordo male, meno di 3ghz.? cioè zen non può essere simile come overclock?il secondo aspetto consiste nel non escludere che anche zen non sia overcloccabile!
Io credo che alla frequenza max dovrebbe cmq non essere agguantato, basta un 4,8ghz-5ghz.

Io non capisco di come semplice sia la cosa, adesso comunque, in un modo o nell'altro(10+/-10%) è sotto al dieci core, ma è attaccato...

Con apu-zen desktop la cosa si fa impetuosa.....insomma paolo cosa ci faranno le HBM2 :read: dentro zen che stiamo aspettando?...cosa devono fare, perchè le metteranno?

Immaginate un zen con le HBM2....ed è sempre l'inizio....''Aspettando apu-zen'' un nuovo ordine di potenza.....ci sarebbe ''odore'' di gpu dentro....
Una cosa è certa, sempre secondo me, che ci si potrà giocare sopra senza scheda video a parte.

Apu zen 7nm 16 core zen + navi a 200-250W e 20 teraflops di potenza grafica integrata! e fine.:read:
+
The advance of the HSA...:sofico:

Ale55andr0
25-12-2016, 15:59
Più che una iperbole una utupia: 20tflop di grafica e 16core zen te li puoi scordare, anche a 7 nm e 250w...già oggi si parla di 4 core zen+ e circa 2tflop (che vuoi che sia uno zero in meno :asd:) di igpu navi a 7nm per il 2019...vero che già oggi le console hanno igpu più potenti, come ps4pro, MA con una sezione cpu da tablet nemmeno lontanamente paragonabili a livello di singolo core zen per complessità e prestazioni...figurarsi 16 con una mega gpu :sofico:

paolo.oliva2
25-12-2016, 18:33
Più che una iperbole una utupia: 20tflop di grafica e 16core zen te li puoi scordare, anche a 7 nm e 250w...già oggi si parla di 4 core zen+ e circa 2tflop (che vuoi che sia uno zero in meno :asd:) di igpu navi a 7nm per il 2019...vero che già oggi le console hanno igpu più potenti, come ps4pro, MA con una sezione cpu da tablet nemmeno lontanamente paragonabili a livello di singolo core zen per complessità e prestazioni...figurarsi 16 con una mega gpu :sofico:

Mi sembra che una VGA 20TFlop sia prevista sui 150W sul 7nm... forse a 250W ci potrebbe scappare accorpata ad un Zen X16, sul 7nm :)

tuttodigitale
25-12-2016, 18:48
Esatto, si torna sempre allo stesso punto, frequenza 20% più alta, il doppio dei core ma le bastonate da Haswell se le prende lo stesso causa IPC penoso.
bastonate?
guarda che nel MT offrono praticamente le stesse prestazioni, e Haswell è su 22nm finfet ;)

http://www.hwupgrade.it/forum/showpost.php?p=44275223&postcount=9231

già kaveri una efficienza del tutto simile a SB (che ripeto essere MOLTO più elevata di Richland)

Wolfhang
25-12-2016, 20:23
bastonate?
guarda che nel MT offrono praticamente le stesse prestazioni, e Haswell è su 22nm finfet ;)

http://www.hwupgrade.it/forum/showpost.php?p=44275223&postcount=9231

già kaveri una efficienza del tutto simile a SB (che ripeto essere MOLTO più elevata di Richland)

In MT hanno più o meno le stesse prestazioni, peccato che in ST gli manca "solo" un 50/60% per raggiungere Haswell, poi si possono fare tutte le previsioni che si vuole che se non supportate da dati reali purtroppo rimangono tali, intanto Intel con il tanto bistrattato Kaby Lake nei 15W di TDP i 4 punti al CB li ha già passati....
http://www.notebookcheck.net/Kaby-Lake-Core-i7-7500U-Review-Skylake-on-Steroids.172692.0.html
e ne trovi finchè vuoi:
http://www.trovaprezzi.it/prezzo_notebook_i7_7500u.aspx

bjt2
25-12-2016, 20:33
Volevo far notare una cosa strana...

https://imgur.com/a/KOXPd

Queste sono le scansioni della rivista francese.
L'ultima pagina riporta che loro hanno un ES di Kabylake a 2.7GHz... Come mai per un ES a 2.8GHz di Zen si sono stracciati tutti le vesti a dire che non supererà 3GHz base e invece l'ES kabylake, un quad core, per giunta, non è stato visto come una tragedia? Mistero...

Nui_Mg
25-12-2016, 20:50
In MT hanno più o meno le stesse prestazioni, peccato che in ST gli manca "solo" un 50/60% per raggiungere Haswell,
Devo essermi perso da qualche parte: da dove hai estrapolato un 50/60% in meno in ST rispetto ad Haswell?

paolo.oliva2
25-12-2016, 20:52
Volevo far notare una cosa strana...

https://imgur.com/a/KOXPd

Queste sono le scansioni della rivista francese.
L'ultima pagina riporta che loro hanno un ES di Kabylake a 2.7GHz... Come mai per un ES a 2.8GHz di Zen si sono stracciati tutti le vesti a dire che non supererà 3GHz base e invece l'ES kabylake, un quad core, per giunta, non è stato visto come una tragedia? Mistero...

Più che ovvio... gli ES AMD sono tirati per i capelli, già al massimo affinamento seppur architetturalmente pieni di bug e incompleti, gli ES Intel invece sono molto al di sotto delle potenzialità con ampissimi margini di crescita... e se poi arrivano al modello commerciale, sotto-tono, nessun problema... si aspetterà un affinamento ulteriore che tanto arriverà o si guarderà se il package ha un punto a sinistra o a destra perchè quelli che fanno in Corea si sa che vanno meno di quelli prodotti in Cina... (o era il contrario?).

P.S.
Era troppo bello da scrivere... NESSUNA polemica, è una burla di Natale.

Gioz
25-12-2016, 21:00
Volevo far notare una cosa strana...

https://imgur.com/a/KOXPd

Queste sono le scansioni della rivista francese.
L'ultima pagina riporta che loro hanno un ES di Kabylake a 2.7GHz... Come mai per un ES a 2.8GHz di Zen si sono stracciati tutti le vesti a dire che non supererà 3GHz base e invece l'ES kabylake, un quad core, per giunta, non è stato visto come una tragedia? Mistero...
dice anche che proprio perchè è clockato a 2.7 si son comprati un 7700k retail che hanno usato per fare test sul prodotto finale, inoltre si conoscevano già le frequenze che avrebbero avuto i modelli commerciali della serie 7.
condivido il fatto che un ES non sia da prendere come riferimento assoluto che rispecchi quelle che saranno le frequenze dei prodotti commerciali, ma qui il sample "a bassa frequenza" è citato dopo che sono giù stati comprati e messi in circolazione i processori effettivamente commercializzati, mentre per quanto riguarda gli screditatori di ryzen c'è anche da dire che ancora non sappiamo le frequenze finali(anche se amd ha dichiarato quell' "almeno 3.4GHz").

Wolfhang
25-12-2016, 21:12
Devo essermi perso da qualche parte: da dove hai estrapolato un 50/60% in meno in ST rispetto ad Haswell?

In CB 11.5 e 15 ST nei 15W di TDP:
http://www.notebookcheck.net/AMD-Bristol-Ridge-FX-9800P-Notebook-Processor.181435.0.html
http://www.notebookcheck.net/Intel-Core-i7-4650U-Notebook-Processor.93177.0.html

cdimauro
25-12-2016, 21:30
I ricordi sono molto sbiaditi, ma se per l'opcode ci si accontenta di 13 bit, codificando anche data type e numero di parametri nell'opcode, si può anche fare blocchi di 16 bit (2 bytes) e per istruzioni a 0 operandi, si occupano 2 byte e su registro avevo pensato a un banco da 256 registri unificati.
256 registri sono veramente troppi. Ci sarebbe troppo spreco di spazio negli opcode, per rappresentarli.
Ma ricordo come fosse ieri l'esame di Calcolatori I, dove mi fece come ultima domanda, a bruciapelo, su una cosa che spiegò esplicitamente al corso: una istruzione usata di frequente è conveniente che sia codificata con meno o più bit?
Esattamente, il nocciolo della questione è proprio questo. Ed è il motivo per cui spendo parecchio tempo cercando di trovare spazi e modi per compattare il più possibile le istruzioni più frequenti usando gli opcode più corti.

Non hai idea delle innumerevoli prove e cambiamenti che ho fatto. Stamattina ho trovato modo di liberare una consistente fetta di spazio, che mi consentirà di compattare meglio alcune istruzioni, e di "ortogonalizzarne" altre; ovviamente tenendo conto in primis di quelle più utilizzate.
Quindi poi ricordo di aver anche pensato a una struttura a byte, dove i primi bit dicevano i byte occupati dall'opcode (1 bit 1/2 byte opcode) e il numero di parametri (2 bit 0-3 parametri e 1-4 per istruzioni che non possono avere 0 parametri, come le aritmetiche), così da avere classi di istruzioni, in modo da poterle smistare in eventuali domini separati. Dopo l'opcode (1/2 bytes) il byte con tipo e numerosità (4 bit + 4 bit sono sufficienti per 16 tipi interi e float e 16 misure di vettore) solo per istruzioni aritmetiche, magari segnalate da un bit nell'opcode. Quindi i primi 3 bit dell'opcode sono per dimensione opcode e numero parametri, 1 per aritmetica/non (il dominio poi sarà dato anche dal tipo) e restanti 4-12 bit per l'opcode vero e proprio...
Quindi 1 o 2 byte è la dimensione minima, però mancano ancora i parametri. Quelli bisogna vedere come li codifichi, ma se vuoi supportare 256 registri allora già con un'istruzione avente 2 soli parametri (operazione unaria non distruttiva, oppure binaria distruttiva) avrai un opcode di 4 byte. Questo perché 4 bit (del primo byte) per l'opcode non sono sufficienti: ne servono almeno 2 per la dimensione del tipo di dato (se vuoi supportare indifferentemente interi a 8/16/32/64 bit, o float a 16/32/64/128 bit), e gli altri 2 soltanto per l'opcode non bastano, perché potresti specificare soltanto 4 istruzioni, e dopodiché rimarresti senza più spazio.

Se ti fai i conti, vedrai che con questa struttura dovrai necessariamente passare ad usare almeno 2 byte fissi, perché uno solo non è sufficiente. Più da 0 a 3 byte per il numero di parametri. Quindi si va da 2 a 5 byte, che non sarebbe affatto male.

Solo che mancano ancora le istruzioni con valori immediati e... quelle per accedere alla memoria.

Se decidi di seguire un approccio RISC-like, ti sono sufficienti quei 2-5 byte, perché alcune istruzioni avrebbero valori immediati a 8 bit, mentre quelle per accedere alla memoria sarebbero soltanto quelle di load/store (che le puoi tranquillamente codificare con 3-5 byte: 3 -> registro base, 4 -> registro base + offset a 8 bit; 5 -> registro base + offset a 16 bit; 4 -> registro base + registro indice. 5 -> registro base + registro indice + offset a 8 bit. Tanto per fare degli esempi).

Se invece prediligi un approccio CISC-like, le cose si complicano non poco, e sei costretto ad allungare ancora gli opcode.

Se poi vuoi mappare 1:1 le istruzioni x86/x64 sulla tua architettura, beh, allora la situazione si fa MOOOOOLTO più complicata. :D
Ho sentito nominare questo LLVM, ma non so i dettagli... Immagino sia opensource, ricordo di aver sentito che AMD stessa aveva collaborato con pathc per le sue CPU, ma c'è davvero bisogno di un concorrente a gcc?
Direi proprio di sì, e per due buoni motivi: GCC è un progetto troppo incasinato ed è difficile da modificare; inoltre la licenza GPL è virale e, dunque, non è commercial-friendly.

Ecco perché Apple prima, e Google poi, hanno puntato sull'ecosistema di LLVM (che include CLang -> frontend per il C++, e il recente LLDB -> debugging), che è open source (e BSD).

A meno che non si conosca già bene GCC e si sappia dove mettere le mani e modificarlo, oggi è veramente da masochisti autolesionisti modificarlo per nuovi progetti.
No, in Italia entrano soprattutto clandestini, le stesse questure locali (almeno dalle mie parti) hanno affermato che i profughi sono una netta minoranza rispetto ai clandestini economici.
Strano, perché gli sbarchi avvengono principalmente in Sicilia, e ne sono arrivati parecchi di profughi.
Beh, anche la Germania di clandestini ne ha molti visto che non riesce a filtrare tutti quelli provenienti dall'Italia saudita e il grosso penetra dall'est europa.
Soltanto nell'ultimo anno hanno messo dei controlli alle frontiere: prima non c'era mai stato nulla del genere.

Se viaggi in macchina fra Italia e Germania, dovresti sapere com'era la situazione circa un anno fa, e com'è ora.

Roba recente, insomma.
In Germania, eccome se c'è stato il cambiamento (in peggio) nell'ultimo decennio, ma la sua governance, per quanto in difficoltà, è ben più efficiente rispetto all'Italia (considerando anche le sue storiche comunità, come quella turca). Il cambiamento di cui stavo parlando, in Germania, è nel senso opposto, cioè le maglie si stringeranno sempre di più, perfino la coalizione che appoggia l'ennesima candidatura della Merkel spinge in tal senso (questione elettorale).
I pochi esempi che ho fatto nel post precedente, tra la lassista Italia e Germania sono più che auto-esplicativi (anzi, ne ho ancora tanti: chi segue assiduamente le news locali sa benissimo quanto non venga applicato alcun fermo, alla voce "condannato a tot qua e tot. là, con sospensione della pena", questo credo anche per "merito" della depenalizzazione dei reati fino a tre anni del caro Renzi, da me ribattezzato, ho il copyright, "pavone folle").
Dovresti pagare i diritti alla Dreamworks per Kung Fu Panda 2, invece. :D

Ti lamenti dell'Italia, ma che mi dici della scarsissima quantità di forze dell'ordine in giro in Germania? La polizia si vede molto raramente. E i militari? In 3 anni e mezzo ho visto un pulmino una volta.

La motivazione è semplice, e ne parlavo giusto qualche giorno con un (ex, ormai) collega: la Germania ha uno scarsissimo controllo del territorio. Causa i tagli che ci sono stati in passato per contenere i costi.

Da questo punto di vista la Germania ha tutto da imparare dall'Italia, che funziona in maniera diametralmente opposta. E infatti s'è visto proprio col terrorista che è scappato tranquillamente dalla Germania, ma appena è arrivato in Italia l'abbiamo beccato subito, e per giunta da un agente puzzava ancora di latte.

Questo senza nulla togliere al fatto che l'Italia è troppo morbida riguardo all'applicazione delle pene. In generale, e non solo per i clandestini.
Certo e infatti io sono stra-sicuro di averci vissuto e vivere tutt'ora (ora più saltuariamente visto che frequento la facoltà a Milano per stare più vicino al genitore sul lago) molto più di altri, io a Monaco ci sono nato (e ho doppia cittadinanza) e ho un bilocale vicino allo stadio.
Ma io ormai ci vivo stabilmente, e in Italia ci torno 2-3 volte l'anno. E sebbene non legga giornali o guardi la TV, parlando spesso coi colleghi mi tengo aggiornato.
No, ricordalo quanto ti pare, tutte le volte che ti pare, ma detto questo esistono sul territorio europeo delle regole basilari, che devono essere rispettate (e sono gli autoctoni che comandano/dettano legge, il territorio è loro prima di tutto)
E no, caro: troppo comodo uscirsene così, dopo aver fatto il danno. Ci dovevamo pensare PRIMA di andare a rompere le scatole alla gente A CASA LORO!
e a me andrebbero bene perfino quelle di un governo dichiaramente di sinistra come quello che era di Zapatero dove, i soliti straccioni falliti comunisti lo inneggiavano (vedi la pezzente della Guzzanti con Viva Zapatero e tutti i vari soloni delle tv nostrane)
Ma quanto rosichi contro la sinistra: persino la satira t'è urticante. :asd:
guardandosi però bene dal riportare che sotto il suo governo, la Spagna, anche lei stra-confinante con l'Africa, ha approntato il muro elettronico con guardie spagnole che hanno perfino ucciso due clandestini con pallottole di gomma e il super efficiente sistema satellitare S.I.V.E. che monitorava/allertava la guardia costiera quando c'era del movimento sulla costa marocchina.
Come si dice dalle mie parti, stai facendo "manica e quartara": nessuno ha tirato in ballo Zapatero, e logica alla mano il fatto che sia stato un governo di sinistra NON implica che abbia necessariamente fatto delle buone cose.
Lo ripeto e senza alcun dubbio di smentita, qualsiasi paese oltre-Alpi, per quante difficoltà possa riscontrare, è certamente meglio dell'Italia (non per una questione di numeri superiori o minori, ma per maggiore serietà/volontà di fare) nella gestione migranti
Permettimi di dissentire: non mi pare che la Germania se la cavi tanto meglio, considerata l'enorme disparità (l'Italia è costantemente presa d'assalto).
anche perché nella mia testa passa sempre di più il fatto che la cosa in Italia sia voluta, viste le nuove opportunità lavorative createsi in Italia con la gestione dei migranti da parte delle solite cooperative e associazioni cattoliche (e vari indagati in tal senso, cioè di sfruttamento migranti, in Italia sono tanti, ma proprio tanti visto che pure il tg uno ha riportato che perfino i mafiosi li considerano "un affare" più remunerativo di droga ed estorsioni).
La situazione non è cambiata da questo punto di vista: sia quando soldi non ce n'erano, sia adesso che ci sono (più della metà viene dall'UE, se non ricordo male), l'Italia è stata sempre un paese d'attracco per i disperati di Africa e medio oriente.

L'unica differenza è che almeno adesso ci sono parecchie famiglie che campano. Ma devi lamentarti anche di questo, a quanto pare, pur di andare contro gli immigrati...
Inoltre, in Italia ci sono dei "valori aggiunti" come la Boldrini, semplicemente una pazza.
E non poteva mancare la citazione della tua nemesi. :asd:

Ma riesci a dormire la notte? :D
Lo so che a te, da classicissimo italiano
Dulcis in fundo, arriviamo alle etichette spicciole per classificare il nemico. Ovviamente sulla scorta di chissà quali idee ti sia fatto.

Ma vediamo un po': qual è la definizione di "classicissimo italiano"? Qual è l'elenco dei suoi requisiti.
e perfino renziano (roba da spararsi in testa sostenere uno come il pavone folle;
E qui arriviamo alla summa della fervida fantasia, visto che non ho mai votato PD né tanto meno Renzi, che peraltro mi è stato sullo stomaco fin dall'inizio.

Ma sarebbe interessante, a questo punto, che mi DIMOSTRASSI, prendendo quello che avevo scritto, com'è che saresti arrivato a questo punto.

Perché direi che a questo punto la cerchia dei folli dobbiamo cominciare a espanderla oltre i pavoni. :asd:
ah, non sono leghista, in casa mia e nella mia regione si è sempre parlato di serenissima e indipendenza ancor prima dell'arrivo del senatùr cacciaballe),
Tranquillo: io sono un siciliano indipendentista.

A me i leghisti fanno semplice schifo, visto che pretendono di dare lezioni di moralità dopo che il nord ha dissanguato il meridione con l'unità d'Italia & posteriori, riducendolo com'è.
va benone una cosa del genere, è tutto ok, non c'è niente di sbagliato, io invece, come tantissimi europei oltre-alpi, la penso in modo opposto: è folle una politica di accoglienza anche a gente allo stato brado quando tu, Stato italiano, sai benissimo, nella tua storica proverbiale inefficienza/superficialità/straccionaggine, di non essere in grado (efficienza, seria volontà, ecc.) di poterla fornire in modo adeguato tale da non gettarli nelle maglie della manovalanza criminale.

E' un dato di fatto, per chiunque bazzichi oltre-alpi o anche segua le news italiane, che la stragrandissima maggior parte di Europa NON VUOLE la ripartizione degli immigrati che chiede l'Italia, perché? Perché i loro autoctoni NON VOGLIONO ed è una posizione legittima e democratica, piaccia o meno, punto!
Ma anche no, visto che abbiamo trattati internazionali da rispettare.

Anche qui, vedo che è molto comodo uscirsene battendo i piedi. E soprattutto con sparate populiste e xenofobe, perché immagino che li vorresti mandare via a cannonate, a questo punto.

Fermo restando l'immensa ipocrisia di chi prima crea questi problemi, e poi vorrebbe scrollarseli di dosso.

Tutto molto coerente, non c'è che dire...
:nonsifa: non è un sito per seutofascisti.
*
Tu lo sai vero che qua il fascismo non c'entra niente,
Come no: mica la pensate allo stesso modo, eh! E' soltanto una pura coincidenza... :rotfl:
vero (e che la parola comunista l'ho tirata fuori perché sono loro stessi che si sono definiti in tal modo)?
"Loro" chi? Qui sei tu che li hai tirato in ballo, snocciolando anche Zapatero e la Boldrini.

Ma poi, di quali comunisti parli? Io non ne vedo da eoni ormai. :asd:
Mie opinioni personali a parte sulla faccenda, il resto sono fatti verificabili da tutti con un po' di impegno/volontà.
D'accordissimo. Infatti i profughi iracheni (sennò se parliamo sempre della Siria si dà torto a tutti gli altri che abbiamo ridotto in quello stato) che frequentano il corso di tedesco con mia moglie vengono da una terra in cui si sta proprio benissimo, eh! Bagdad è rinomata per essere la città più vivibile al mondo.

Chissà com'era la situazione PRIMA delle famigerate guerre in cui abbiamo esportato la democrazia. Ma magari ce lo dirai tu, che sei così informato, eh!
Ah, e l'off-topic non l'ho iniziato io e non avevi bisogno di ri-quotare il tutto visto che il post precedente aveva già tutto.
Ma ti piace particolarmente sguazzarci con queste, e hai allargato la questione parlando a ruota libera.
A me fega solo che abbiano torto marcio nel prevedere zen nel mercato non prima di marzo.
Hai presente la differenza fra rumor e realtà?

Come fai a dar così tanto peso a un rumor?!?
Perchè fai un frullato misto di quanto si dice :D.

Seguimi, una cosa è parlare di IPC, un'altra di ST e altro ancora di MT e giudicare una architettura potente se lo è in ST e ha IPC alto. Esempio... l'ST di BD non è alto, l'IPC idem, ma il CMT pomperebbe in MT, semplicemente perchè un XV X16 non avrebbe nulla da invidiare ad un 6900K, quindi perchè giudicare ciofeca BD unicamente sull'ST e generalizzando >IPC = più prestazioni?
Perché è soltanto in pochi casi, con MT, che riesce almeno a pareggiare, mentre per il resto è un disastro?
Nessuno qua ha mai detto che con un silicio migliore BD avrebbe pareggiato in ST con Intel, nessuno, ma io personalmente ho detto che il silicio ha negato >4m e di qui l'MT che il CMT poteva dare.
Prima che cominci a fare un elenco di dati, concordiamo che il SOI sarebbe dovuto essere superiore al Bulk? Allora... perchè il 32nm Bulk Intel ha consentito 12 TH (X6+6) e il 32nm SOI si è fermato a 8 e ha cancellato il 10 TH (Komodo)? Perchè sulla carta il 32nm SOI AMD avrebbe dovuto quasi competere con il 22nm Intel, e il 32nm SOI si è fermato a 1,2 milioni di transistor e Intel invece a 2,5 milioni con il 5960X?
Forse perché i dati che riporti sono completamente sbagliati?

Intel Sandy Bridge: quasi 1.2 miliardi (non milioni) di transistor. (https://communities.intel.com/thread/22998)
AMD Bulldozer: 1.2 miliardi di transistor. (http://www.anandtech.com/show/5176/amd-revises-bulldozer-transistor-count-12b-not-2b)

Stessa nanometria, stesso numero di transistor, ma prestazioni molto diverse.

Dunque non puoi parlarmi assolutamente del silicio che non avrebbe consentito di impiegare risorse adeguate per potenziare l'IPC di Bulldozer, perché i due processori hanno sostanzialmente le stesse risorse (transistor) a disposizione.

"Semplicemente" AMD e Intel li hanno usati in modo diverso, visto che le due micro-architetture sono completamente diverse.

Il silicio da questo punto vista non c'entra assolutamente niente. :read:
Devo capire che collegamento fallace ci sarebbe in BD pure verso il Phenom II... quando il Thuban ha permesso solamente di stare davanti ad Intel X4 di poco in MT e perdendo in tutto il resto, e un BD che con il silicio avrebbe vinto verso gli i7 X4 e ben più competitivo del Thuban verso gli i7 E, in MT sia verso dovunque e perso solamente in ST. Avrebbe fatto più di un Thuban, però BD è peggio del Phenom II... per la potenza ST... perchè allora continuare a parlare?
Perché i numeri non ti danno ragione? Non è colpa del silicio, e dovresti finalmente prenderne atto.
Cacchio, anche in questo TH abbiamo ribadito che un Zen a 3GHz sarebbe stato inferiore a BD XV, ora che sappiamo che Zen avrà +400/500MHz almeno, di colpo Zen è diventato l'ammazza BD?
Non sappiamo ancora nulla di concreto, invece.
P.S.
In quell'articolo su Intel, ha riportato le stesse cose che io ho scritto, cioè Intel ha massimizzato i guadagni riducendo l'R&D perchè ha sottovalutato AMD.
Peccato che Intel ha AUMENTATO la spesa di R&D. E se leggessi le notizie coi bilanci trimestrali e/o annuali, dovresti saperlo.

Ma ti fa comodo prendere una frase così, e continuare a ricamarci sopra, nonostante t'abbia già detto che è falsa.
Ma è normale che tutte le aziende a sto mondo cerchino di guadagnare di più se le circostanze lo permettono... mentre tu eri dell'idea che Intel prende le decisioni senza guardare il mondo, ricordo che hai detto che di AMD proprio non gli frega nulla.
Che è quel che è successo finora, mi pare, no?

Per il resto Intel non è che non guarda il mondo: è che i suoi piani sono già in cantiere da un bel pezzo. E va avanti per la sua strada.
Se per te è nulla il fatto che vogliono silurare il CEO perchè ha sottovalutato AMD...
Ancora con questo rumor che pretendi di far passare per vero? :rolleyes:
In MT hanno più o meno le stesse prestazioni, peccato che in ST gli manca "solo" un 50/60% per raggiungere Haswell, poi si possono fare tutte le previsioni che si vuole che se non supportate da dati reali purtroppo rimangono tali, intanto Intel con il tanto bistrattato Kaby Lake nei 15W di TDP i 4 punti al CB li ha già passati....
http://www.notebookcheck.net/Kaby-Lake-Core-i7-7500U-Review-Skylake-on-Steroids.172692.0.html
e ne trovi finchè vuoi:
http://www.trovaprezzi.it/prezzo_notebook_i7_7500u.aspx
Molto interessanti anche i consumi, così bassi nonostante le frequenze elevate. E anche nei 4.5W.
Volevo far notare una cosa strana...

https://imgur.com/a/KOXPd

Queste sono le scansioni della rivista francese.
L'ultima pagina riporta che loro hanno un ES di Kabylake a 2.7GHz... Come mai per un ES a 2.8GHz di Zen si sono stracciati tutti le vesti a dire che non supererà 3GHz base e invece l'ES kabylake, un quad core, per giunta, non è stato visto come una tragedia? Mistero...
Perdonami, ma gli A0 di Intel sono le PRIMISSIME versioni del chip appena uscite di fabbrica: con un mare di bug e frequenze basse.

Non hanno nulla a che vedere con gli A0 di AMD, che sembrano godere di un'enorme maturazione, se facciamo i confronti.

Tant'è che di tapeout Intel ne spara a raffica, come peraltro avevo già ampiamente riportato prima: A, B, C, e persino D a seconda delle fasi. E per questi, 0, 1, 2, e a volte anche 3.

Direi che non c'entrino proprio niente.

Inoltre, come Gioz ha rilevato, Kaby Lake era già a disposizione in versione finale, e le frequenze erano già state annunciate da tempo. Di fatti ciò che non manca con KB sono i test, che ormai hanno fatto un bel po' di testate indipendenti.

Pozhar
25-12-2016, 22:01
Così come molti usano appendere nelle loro stanze poster dei proprio artisti preferiti, io ne metterò uno gigantesco di Cdimauro. E così sia fatto nei secoli dei secoli avvenire. Tramandando ai miei figli/nipoti/pronipoti e narrando di quella leggenda che insegnò agli stranieri come far cantare i proci

https://s18.postimg.org/nxxdrs049/hntuki76yo.gif

Auguri di cuore a tutti. :)

Pozhar
25-12-2016, 22:09
"L'uomo che sussurrava alle CPU."

:ave:

https://s18.postimg.org/nxxdrs049/hntuki76yo.gif

tuttodigitale
25-12-2016, 22:29
In MT hanno più o meno le stesse prestazioni, peccato che in ST gli manca "solo" un 50/60% per raggiungere Haswell...
se vuoi vedere il bicchiere mezzo vuoto farlo, ma questo non toglie che le prestazioni per watt, sono di gran lunga superiore a quelle di SB, che è su un processo almeno a livello nominale del tutto simile.
e le prestazioni ST, sempre al cinebench, di un SB i7, che però è una cpu da 17W contro 15W, non appaiono superiori a quelle di un FX9800P.....

queste sono prestazioni da architettura inefficiente? :rolleyes:

Se lo è come definiamo Haswell, che per raggiungere quel livello di efficienza, tra le altre cose ad una frequenza operativa leggermente inferiore, deve affidarsi ai finfet...:D

poi si possono fare tutte le previsioni che si vuole che se non supportate da dati reali purtroppo rimangono tali, intanto Intel con il tanto bistrattato Kaby Lake nei 15W di TDP i 4 punti al CB li ha già passati....
http://www.notebookcheck.net/Kaby-Lake-Core-i7-7500U-Review-Skylake-on-Steroids.172692.0.html
e ne trovi finchè vuoi:
http://www.trovaprezzi.it/prezzo_notebook_i7_7500u.aspx
2 cose, la previsione di una efficienza, e quindi di prestazioni superiori del 40% a parità di TDP, che poi è quello che mi pare indicare la slide di AMD, porta a quel risultato....ma mi aspetto un miglioramento molto profondo a basse frequenze....proprio perchè a bassi vcore i finfet possono fornire prestazioni superiori di 2,5x rispetto ai 28nm...

hai fatto l'esempio di kabylake....20% di solo processo, che già era considerato il migliore processo 14/16nm finfet bulk sulla piazza sia per quanto concerne non solo le prestazioni pure ma anche nel low-power....

è lecito che AMD, sia a causa di ZEN, ma soprattutto dei finfet, possa superare e di molto i 4 punti al cinebench...

tuttodigitale
25-12-2016, 22:47
Forse perché i dati che riporti sono completamente sbagliati?

Intel Sandy Bridge: quasi 1.2 miliardi (non milioni) di transistor. (https://communities.intel.com/thread/22998)
AMD Bulldozer: 1.2 miliardi di transistor. (http://www.anandtech.com/show/5176/amd-revises-bulldozer-transistor-count-12b-not-2b)

Stessa nanometria, stesso numero di transistor, ma prestazioni molto diverse.
aspetta, aspetta..... perchè BD consuma di più?
stessa nanometria...
un modulo (2 core nella denominazione AMD) BD è del 10% più grande di un SINGOLO core SB,
BD ha pipeline più lunghe e un minor ipc = minor consumo a parità di frequenza.
perchè è avvenuto questo?

se un FX8350 avesse avuto quelle prestazioni in 95W non ci sarebbe stato nulla da obiettare....sono i 125W il problema

Roland74Fun
25-12-2016, 22:54
aspetta, aspetta..... perchè BD consuma di più?
...........
se un FX8350 avesse avuto quelle prestazioni in 95W non ci sarebbe stato nulla da obiettare....sono i 125W il problema

Giusto l'altro giorno.
Overervcloccato questo.

http://uploads.tapatalk-cdn.com/20161223/f5aec3fc01dde564444cdf974353051c.jpg


1.260v di vcore. 38℃ di massima sui core e 90W di consumo sotto stress IBT.

Circa 7W in idle e 40/50W in gaming.

Ok é un E con VID di 1.15v ma se lo paragoniamo anche ad un 8350 delle prime infornate, il risultato non cambia di molto.

Nui_Mg
25-12-2016, 23:04
Strano, perché gli sbarchi avvengono principalmente in Sicilia, e ne sono arrivati parecchi di profughi.
E questa una dimostrazione che non sai di cosa stai parlando visto che perfino sui tg nazionali sono anni che dicono che la maggior concentrazione è in Veneto, Lazio, Lombardia (e non profughi, visto che non hanno ancora accertato il loro stato, ma semplicemente immigrati clandestini), al Sud ci arrivano per la gran parte, ma poi la gran fetta si sposta (cercando di andare anche oltre alpi) e rimane nelle regioni indicate perché lì girano più soldi (non sono io a dirlo ehh).

Soltanto nell'ultimo anno hanno messo dei controlli alle frontiere: prima non c'era mai stato nulla del genere.
Io ho parlato prevalentemente di treni (dal mio paese ne parte uno comodissimo e diretto per la baviera) e le perquisizioni dai treni provenienti da Italia vi sono già perfino da due-tre anni. Nessuno si ricorda un anno e due anni fa di vari treni partiti dal veneto per andare in Germania ma la Merkel li ha letteralmente fatti rientrare in Italia? Io sì che mi ricordo e la gente, per prove alla mano, dovrebbe abituarsi a scaricarsi i video dei vari tg locali (per esempio telenuovo verona e padova per iniziare dai veneti).

Ti lamenti dell'Italia, ma che mi dici della scarsissima quantità di forze dell'ordine in giro in Germania? La polizia si vede molto raramente.
Su questo concordo ma io non vedo tutte le bestialità fuori DAL MONDO che ho visto esclusivamente in Italia, iniziando prorpio dalla pseudo giustizia del "belpaese" (gli esempi auto-esplicativi li ho già fatti).
E' vero che recentemente hanno veramente esagerato con i tagli alle forze dell'ordine ma, ti ripeto, quello è un granellino rispetto a quanto fa (NON FA) l'Italia, almeno in Germania quando uno viene preso e riconosciuto colpevole non se ne rimane libero sul territorio di continuare a fare quello che gli pare.
I giudici non fanno come cazzo gli pare, non si rifiutano di applicare precise leggi con la scusa del "per coscienza personale", non hanno gli assurdi sconti di pena della patetica giustizia italiana come il rito abbreviato (subito uno sconto di un terzo della pena anche se sei uno stra-assassino, ricordarsi il permesso di Brusca, mafioso che ha sciolto un bambino nell'acido, dopo soli 5 anni di detenzione), detenzioni alternative al carcere, sconti per tutti i reati di pene fino ai tre anni (quindi stupri, rapine in casa, pestaggi, violenze di tutti i tipi, ecc.), indulti a raffica e da TRADIZIONE IN ITALIA, accertati irregolari con decreto di espulsione immediato ma che possono appellarsi ai tre gradi della giust. italiana e quindi nel frattempo rimanere e girare ovunque su suolo italico (si tratta anche di anni per ogni singolo immigrato che fa appello), ecc., tutte cose che incidono ENORMEMENTE nell'odierno calderone, UNICO AL MONDO, chiamato Italia, nessuno è tal livello, nessuno.

ma appena è arrivato in Italia l'abbiamo beccato subito,
Bwuahahaha, alla faccia di kung fu panda: non è stata certa una beccata da intelligence, ma bensì il tutto scaturito da un semplice ed ordinario controllo (e lui ha pure sparato), controlli che si erano grandemente RAFFORZATI SOLO DOPO/IN SEGUITO allo stra-allarme mediatico dell'attentato di Berlino (visto poi che si parlava pure di camion partito dall'Italia). Dai, non facciamo i patetici a 360 gradi.

In generale, e non solo per i clandestini.
Anche qua sbagli: sono tanti, tantissimi, i casi locali dove i clandestini vengono lasciati perdere quasi totalmente dalla giustizia (a differenza degli italiani), proprio perché sono quelli portati più a delinquere nella categoria dei reati considerati minori in Italia (tra cui aggressioni, stupro, rapine: Veneto e Lombardia ne sono stra-pieni, ogni santo giorno, guardare quotidianmente la cronaca locale per averne le prove), infatti le assoluzioni più gettonate dai giudici sono: disagio sociale e "ti condanno a bla bla bla, CON SOSPENSIONE DELLA PENA", oppure ti condanno con bla bla bla ma visto che hai scelto il rito abbreviato, sospensione della pena and so on...
E no, caro: troppo comodo uscirsene così, dopo aver fatto il danno. Ci dovevamo pensare PRIMA di andare a rompere le scatole alla gente A CASA LORO!
Perché troppo comodo? Mica son stato io ad andargli a rompere i maroni e non ho mai approvato qualunque governo italico in tal senso. Io sarei pur disposto a pagare una tassa mensile di 20 euro per aiutarli SUL SERIO (non ad ingrassare i classici italioti che sull'accoglienza ci mangiano a iosa) ma senza che venga intaccato in alcun modo la vivibilità del mio territorio nativo (anzi, quello di uno dei miei genitori).
Ma tu hai la vaga idea di quanto l'italiano sia preso per il culo da TANTISSIMI di questi immigrati, da quanto non gliene freghi niente di integrazione e di quanto (soprattutto da parte di albanesi e rumeni) ritengano vigliacco e patetico l'italiano (nessuno si ricorda le interviste delle iene a gruppi di albanesi specializzati in furti di macchine e moto)? Sono solo io che li sento continuamente dire che non hanno paura delle forze dell'ordine italiane (e ci credo, come si fa ad aver paura di un baraccone del genere?)?

Io, ma tantissimi altri cittadini italiani, quando ci rechiamo all'estero non ci sogniamo di comportarci come una certa immigrazione allo stato brado (a dir poco). Vado fuori da Germania o Italia? Ok, come quando sono andato ad Edimburgo per Erasmus, quando andavo in Danimarca, in USA, in Austria, in Svizzera e bla bla, MAI mi sono sognato di fare il cagone/spaccone o mancare di rispetto agli autoctoni e alle loro leggi e così hanno fatto tantissimi altri, italiani e tedeschi.

Io quando prendo i mezzi pubblici a Monaco, non vedo farla passare totalmente liscia all'immigrato che non ha il biglietto, come invece succede in Italia (dove pure aggrediscono il controllore solo per aver chiesto il biglietto, anche questo presente nei tg pure nazionali: e infatti il sindacato di questi chiede assolutamente più protezione).

Ma quanto rosichi contro la sinistra: persino la satira t'è urticante. :asd:
La satira è una cosa, altro è elencare nella satira ESCLUSIVAMENTE gli aspetti che FANNO COMODO ad un'oggettiva propaganda (e anche qua nessuno può smentirmi) travestita da satira, solo i coglioni ci cascano. Io ho tirato fuori Zapatero per evidenziare quanto la sinistra ITALIANA sia oggettivamente intellettualmente disonesta facendo anche solo una minima analisi: nessuno si ricorda quanto l'hanno menata in Italia con W Zapatero di qua e viva Zapatero di là? ANCHE QUANDO HA FATTO QUELLO CHE HA FATTO e i nostri media statali QUASI MAI hanno riportato tali fatti visto che Zapatero stava mettendo in atto soluzioni che in Italia, qualsiasi partito le avesse proposte, sarebbero state bollate come soluzioni fasciste e nonostante tutto questo nessuno si azzardava a menzionare che quello che veniva solo proposto in Italia, in Spagna stava accadendo realmente (e in maniera ben peggiore rispetto alle sole proposte italiane).

Permettimi di dissentire: non mi pare che la Germania se la cavi tanto meglio, considerata l'enorme disparità (l'Italia è costantemente presa d'assalto).

Dissenti quanto ti pare ma la mia non è un'opinione visto che il mio "Lo ripeto e senza alcun dubbio di smentita, qualsiasi paese oltre-Alpi, per quante difficoltà possa riscontrare, è certamente meglio dell'Italia (non per una questione di numeri superiori o minori, ma per maggiore serietà/volontà di fare) nella gestione migranti" è oggettivo: infatti i solo fatti che ho citato nel precedente post e che accadono esclusivamente in Italia, sono una prova auto-esplicativa e che mi rende perfino un bugiardo quando lo racconto agli amici tedeschi (che non mi credono, salvo poi ricredersi quando vedono alcuni filmati estratti dai tg di telenuovo verona).

Il fatto che tu dissenta, per me è normalissimo e, sinceramente, un'ottima notizia, oltre al fatto che non ho mai voluto costringerti a cambiare idea. Chi vive la città, i locali/servizi pubblici, ecc., e segue la cronaca quotidiana, non ha bisogno di alcunché per convincersi.

Ma devi lamentarti anche di questo, a quanto pare, pur di andare contro gli immigrati...
Anche qua straparli visto che io non sono contro gli immigrati, io sono contro l'assenza di regole, di certezza della pena, di uno stato che accetta gente allo stato brado che sa di non poter gestire in una maniera civile ed adeguata (cazzo, l'Italia non c'è mai riuscita nemmeno con gli italiani, figuriamoci con una certa immigrazione che ha più che dimostrato di fregarsene di integrazione, di regole e di autoctoni del paese ospitante).
La colpa principale è dello stato italiano ma poi pure di quello specifico immigrato che sa che è un paese lassista e che l'italiano ha paura di reagire, etichettandolo pure come vigliacco, e che quindi se ne approfitta a tutto spiano (ma con me, personalmente e fisicamente, ha sbagliato soggetto).

Perché tanti reati sono commessi ben più da immigrati che da italiani? Facile, quella italiana non è accoglienza, visto che facendo entrare tutti indiscriminatamente, anche quelli che non possono mantenersi in alcun modo, finiscono nelle maglie della criminalità, è ovvio, devono pur campare di qualcosa, quindi ecco che l'accoglienza itaGLiana è un'accoglienza semplicemente criminale perché nei fatti reali è un'occasione per sfruttare questa gente (sia per le varie associazioni di volontariato, che di volontario non hanno niente visto che vengono finanziate dallo stato italiano sotto la voce "finanziamento per il sociale", sia per le mafie nostrane, sia per le nuove facoltà ad indirizzo "facoltà per il sociale e l'assistenza", ecc.).

E non poteva mancare la citazione della tua nemesi. :asd:
No, la mia nemesi non può essere così mediocre e malmessa come lei: la Boldrini non parla nemmeno di controlli, ha affermato e afferma (sia quando era portavoce dell'alto commissariato delle nazioni unite per i rifugiati per il sud europa, sia da quando è presidente della camera) che l'Italia dovrebbe farli entrare TUTTI (siano profughi o immigrati economici), dovrebbe dare a TUTTI una possibilità, l'Italia dovrebbe farne entrare almeno 400000 ogni anno (se non erro tale affermazione c'è pure in un video disponibile), tutto questo sapendo (ecco la grande disonestà intellettuale) che l'organizzazione italica è talmente carente che semplicemente scoppierebbe e i disastri sociali/conflittuali sarebbero enormi, a dir poco.

Se per te è normale un soggetto del genere, sempre più felice di pensarla in maniera opposta alla tua, anzi, la maggior parte di europei la pensa senza alcun dubbio come me visto che rifiutano PERFINO la ripartizione chiesta dall'Italia.

E qui arriviamo alla summa della fervida fantasia, visto che non ho mai votato PD né tanto meno Renzi, che peraltro mi è stato sullo stomaco fin dall'inizio.
Ok, qua l'errore mio ci sta tutto visto che in altri thread, dai tuoi post su opinioni concordi a vari provvedimenti di Renzi e sì al referendum avevo supposto (evidentemente sbagliandomi) che tu fossi un seguace di Renzi.

Il pavone folle deriva dal fatto del suo atteggiamento (alla "fonzie" senza averne le fondamenta) che nemmeno un povero cristo come Berlusconi si era mai sognato di fare. Dal fatto che se fosse stato Berlusconi a fare tutto quello che ha fatto Renzi sarebbe caduto l'universo in Terra, l'Italia si sarebbe fermata completamente dalle proteste di piazza.
Dal fatto che 'sto mentecatto nel suo referendum aveva dei punti atroci (come per esempio il depotenziamento delle regioni in alcune questioni), dal fatto che il suo miserabile governo ha innalzato il valore anche della prima casa di proprietà, pur non toccando minimamente la casa e catasto, influenzandone così al rialzo l'ISEE per gli universitari (anche con singolo familiare pensionato e pure invalido) e tante, tante altre cose, insomma la solita cosa all'italiana più che stracciona.


Tutto molto coerente, non c'è che dire...
Io sono moooolto coerente, certamente molto più di te sulla faccenda, sono partito da dati/fatti reali per poi analizzare il modus operandi anche di altre nazioni e sono contento del fatto che la stragrande maggior parte degli europei la pensino esattamente come me (ah, e non sono solo europei della destra, visto che quello di cui va parlando il sottoscritto è condiviso pure da gente che vota il centro e pure da quelli che votano sinistra ma ovviamente una sinistra non come quella italiana, ma come quella, per esempio, spagnola :D Nessuno si ricorda le leggi dei laburisti, centro-sinistra, di Blair che prevedevano situazioni nella gestione dei migranti ben più feree perfino di quelle solo discusse dalla destra italiana? Io sì, sono anni che li seguo e quando facevano leggi che ritenevo giuste non mi è mai passato per la testa differenziare il fatto che fosse uno di sinistra o di destra a farle e questo vale per qualsiasi governo europeo a cui ho assistito).

Comunque, il fatto che l'Europa non voglia nemmeno sentir parlare di ripartizione dei clandestini ne è la dimostrazione più lampante, bene.
La cosa a Bruxelles è piuttosto patetica perché a parole dicono una cosa, ma con i fatti fanno esattamente l'opposto (e qua ha ragione Renzi, nel senso che lui ha cercato di far accettare, all'atto pratico, la ripartizione dei migranti tra tutti gli stati membri ma l'anno mandato affanculo, si sta realizzando PRATICAMENTE ciò che affermavo perfino vari anni fa, anche su questo forum, sul fatto che l'Italia è vista come paese di contenimento).

paolo.oliva2
26-12-2016, 00:32
A me non potete dare del razzista, visto che mi sono sposato 3 volte e mai con bianche (1 giapponese e 2 ivoriane).
Però il troppo permessivismo porta al razzismo, perchè non esiste in nessun paese del mondo che un straniero possa fare cose per le quali non viene arrestato, mentre un italiano SI!

zerothehero
26-12-2016, 00:35
Sembra la vecchia sezione politica.
Cmq in Italia saremmo anche lassisti e un pò stupidotti..o magari solo fortunati, visto che al momento abbiamo sventato tutti gli attentati progettati dai terroristi islamici, cosa che ad es. in Germania, Francia e GB non son riusciti a fare. :D
Per il resto con la vittoria di Assad, dell'Iran e della Russia e la riconquista di Aleppo di profughi dovrebbero arrivarne meno.

Tornando a cose meno serie..a sto giro zen sarà competitivo con kaby o no?

feldvonmanstein
26-12-2016, 01:37
Giusto l'altro giorno.
Overervcloccato questo.

http://uploads.tapatalk-cdn.com/20161223/f5aec3fc01dde564444cdf974353051c.jpg


1.260v di vcore. 38℃ di massima sui core e 90W di consumo sotto stress IBT.

Circa 7W in idle e 40/50W in gaming.

Ok é un E con VID di 1.15v ma se lo paragoniamo anche ad un 8350 delle prime infornate, il risultato non cambia di molto.

io ho appena testato l'8370E sembra essere stabile a 4,2 ghz con 1,26v (1,24v cpuz sott stress) per i 4,3ghz sotto ibt avx già chiede 1,300(1.28 cpuz)
forse xò nn è particolarmente sculata, l'8320E faceva di meglio con queste frequenze.
in ogni caso ho notato che nei bench passando da 2400 su HT e NB a 2600 mhz mi da un bost prestazionelae quantificabile in + 100mz di solo clock dei core, questo con le ram a 2400. quindi ho deciso di rimanere a 4,2 gz 1,26v ht/nb 2600 con prestazioni simili ai 4,3 ghz invece che 4,3,ghz 1.3v ht/nb 2400.

Roland74Fun
26-12-2016, 07:47
@feldvonmanstein

Complimenti per il bell' overclock. :)
Comunque io l'ho messo per il discorso consumi BD che qualcuno ha tirato il ballo.
Visto che la voce cpu power di HW monitor (per quanto affidabile) riportava 90W di consumo sotto IBT.

Ma qui ormai sembriamo al BAR dei cacciatori. E tra un po' si passerà pure al Milan schifo, Juve ladra, Napoli colera.

Però se poi qualcuno in questo forum mi dice nuovamente....
"ma come fai ad avere un processore che consuma 220W?" Giuro che ne tiro giù tante da farmi bannare fino all'uscita di CoffeLake. :mad: :mad:

cdimauro
26-12-2016, 08:07
Questo non è un bar, e si stanno intavolando delle discussioni su questioni TECNICHE.

Ma forse il problema è che non piace leggere certe cose, e allora tutto assumerebbe un altro significato. :O
aspetta, aspetta..... perchè BD consuma di più?
stessa nanometria...
un modulo (2 core nella denominazione AMD) BD è del 10% più grande di un SINGOLO core SB,
BD ha pipeline più lunghe e un minor ipc = minor consumo a parità di frequenza.
perchè è avvenuto questo?

se un FX8350 avesse avuto quelle prestazioni in 95W non ci sarebbe stato nulla da obiettare....sono i 125W il problema
Allora, credo che il problema stia proprio nel numero dei transistor e nella superficie del die.

Andando a controllare meglio, anche nel secondo link che ho postato, sembra che per Sandy Bridge il valore riportato non sia corretto, e cercando in giro c'è molto più consenso nel dargli 995 milioni di transistor anziché 1.16 miliardi.

Riporto le pagine di AnandTech su Sandy Bridge e Bulldozer:
A Closer Look at the Sandy Bridge Die (http://www.anandtech.com/show/4118/a-closer-look-at-the-sandy-bridge-die)
AMD Revises Bulldozer Transistor Count: 1.2B, not 2B (http://www.anandtech.com/show/5176/amd-revises-bulldozer-transistor-count-12b-not-2b)

Ricapitolando, Sandy Bridge ha 995 milioni di transistor e un die di 216mm^2, mentre Bulldozer ha 1.2 miliardi di transistor e un die di ben 315mm^2.

Quindi Bulldozer ha il 21% in più di transistor e il die è del 46% più grande. La differenza così marcata del die è dovuta al fatto che i transistor sono impiegati per l'implementazione di diverse tipologie di circuiti, come riporta AnandTech:

"Transistor density depends on more than just process technology. The design of the chip itself including details like the balance between logic, cache and IO transistors can have a major impact on how compact the die ends up being."

Inoltre tu stesso hai riportato che i singoli core/moduli di Bulldozer siano più grandi di quelli di SandyBridge.

Riguardo alle pipeline, ecco cosa riporta Agner Fog su SandyBridge:

"The misprediction penalty is often shorter than on the Nehalem thanks to the µop cache (see page 121 below). The misprediction penalty was measured to 15 clock cycles or more for branches inside the µop cache and slightly more for branches in the level-1 code cache."

Quindi 15+ stadi se si usa la uop-cache, e almeno 16+ se non la si usa (partendo dai decoder).

Per Bulldozer:

"The misprediction penalty is specified as minimum 20 clock cycles for conditional and indirect branches and 15 clock cycles for unconditional jumps and returns. My measurements indicated up to 19 clock cycles for conditional branches and 22 clock cycles for returns."

Le differenze (sui valori misurati) sarebbero, quindi, nell'ordine di 19 - 15/16 = 4/3 stadi, oppure 22 - 15/16 = 7/6 stadi.

In ogni caso perché una pipeline più lunga dovrebbe implicare un consumo inferiore? Dovrebbe essere l'esatto contrario, visto che sei costretto a spezzare il lavoro in più parti, e dunque ricorrere a più transistor per fare esattamente la stessa operazione.

Le pipeline non vengono allungate per ridurre i consumi, ma per ridurre il famigerato FO4, e quindi salire di più in frequenza.

Infine, Bulldozer ha frequenze più elevate rispetto a Sandy Bridge, e quindi consumi superiori.

Sintetizzando e concludendo, direi che AMD con Bulldozer ha realizzato un chip con troppe risorse (+21% transistor), troppo grosso (+46% die), e che va a frequenze superiori (3.6 - 3.4 = +200Mhz, 4.2 - 3.8 = +400Mhz).
Di conseguenza, consuma molto di più rispetto a Sandy Bridge.

@Nui_Mg: risponderò con comodo quando potrò.

@Pozhar: cappottato dalle risate. :D :D :D

Roland74Fun
26-12-2016, 08:47
Questo non è un bar, e si stanno intavolando delle discussioni su questioni TECNICHE.

Ma forse il problema è che non piace leggere certe cose, e allora tutto assumerebbe un altro significato. :O


No, le questioni sui problemi dell'attualità mi piacciono.
É quello che intravedo a volte tra le righe di certi commenti che non mi piace.

bjt2
26-12-2016, 09:07
Questo non è un bar, e si stanno intavolando delle discussioni su questioni TECNICHE.

Ma forse il problema è che non piace leggere certe cose, e allora tutto assumerebbe un altro significato. :O

Allora, credo che il problema stia proprio nel numero dei transistor e nella superficie del die.

Andando a controllare meglio, anche nel secondo link che ho postato, sembra che per Sandy Bridge il valore riportato non sia corretto, e cercando in giro c'è molto più consenso nel dargli 995 milioni di transistor anziché 1.16 miliardi.

Riporto le pagine di AnandTech su Sandy Bridge e Bulldozer:
A Closer Look at the Sandy Bridge Die (http://www.anandtech.com/show/4118/a-closer-look-at-the-sandy-bridge-die)
AMD Revises Bulldozer Transistor Count: 1.2B, not 2B (http://www.anandtech.com/show/5176/amd-revises-bulldozer-transistor-count-12b-not-2b)

Ricapitolando, Sandy Bridge ha 995 milioni di transistor e un die di 216mm^2, mentre Bulldozer ha 1.2 miliardi di transistor e un die di ben 315mm^2.

Quindi Bulldozer ha il 21% in più di transistor e il die è del 46% più grande. La differenza così marcata del die è dovuta al fatto che i transistor sono impiegati per l'implementazione di diverse tipologie di circuiti, come riporta AnandTech:

"Transistor density depends on more than just process technology. The design of the chip itself including details like the balance between logic, cache and IO transistors can have a major impact on how compact the die ends up being."

Inoltre tu stesso hai riportato che i singoli core/moduli di Bulldozer siano più grandi di quelli di SandyBridge.

Riguardo alle pipeline, ecco cosa riporta Agner Fog su SandyBridge:

"The misprediction penalty is often shorter than on the Nehalem thanks to the µop cache (see page 121 below). The misprediction penalty was measured to 15 clock cycles or more for branches inside the µop cache and slightly more for branches in the level-1 code cache."

Quindi 15+ stadi se si usa la uop-cache, e almeno 16+ se non la si usa (partendo dai decoder).

Per Bulldozer:

"The misprediction penalty is specified as minimum 20 clock cycles for conditional and indirect branches and 15 clock cycles for unconditional jumps and returns. My measurements indicated up to 19 clock cycles for conditional branches and 22 clock cycles for returns."

Le differenze (sui valori misurati) sarebbero, quindi, nell'ordine di 19 - 15/16 = 4/3 stadi, oppure 22 - 15/16 = 7/6 stadi.

In ogni caso perché una pipeline più lunga dovrebbe implicare un consumo inferiore? Dovrebbe essere l'esatto contrario, visto che sei costretto a spezzare il lavoro in più parti, e dunque ricorrere a più transistor per fare esattamente la stessa operazione.

Le pipeline non vengono allungate per ridurre i consumi, ma per ridurre il famigerato FO4, e quindi salire di più in frequenza.

Infine, Bulldozer ha frequenze più elevate rispetto a Sandy Bridge, e quindi consumi superiori.

Sintetizzando e concludendo, direi che AMD con Bulldozer ha realizzato un chip con troppe risorse (+21% transistor), troppo grosso (+46% die), e che va a frequenze superiori (3.6 - 3.4 = +200Mhz, 4.2 - 3.8 = +400Mhz).
Di conseguenza, consuma molto di più rispetto a Sandy Bridge.

@Nui_Mg: risponderò con comodo quando potrò.

@Pozhar: cappottato dalle risate. :D :D :D

Avere più pipeline e quindi FO4 minore ti fa si avere più transistors (i famosi flip flop tra ogni stadio più altre cose ausiliarie), ma ti consente anche di avere un Vcore più basso a parità di frequenza. Poi i primi BD erano su 32nm SOI che aveva sicuramente meno leakage di un 32nm BULK, per quanto HKMG... Quindi BD ha si clock più alto, ma probabilmente ad un vcore (non possiamo comparare i vcore di due processi diversi) per cui il leakage era minore di SB. E il leakage è fondamentale se usi il clock gating e non il voltage gating... Quindi penso che il basso FO4 di BD consentì ad AMD di non spremere troppo il vcore per arrivare ad alte frequenze ed essere con un processo meno "spremuto"... Non so se ho reso l'idea...

cdimauro
26-12-2016, 09:09
Hai reso l'idea, ma tolto questo rimane +21% di transistor e +46% di die. Che non mi pare poca roba a cui dar da mangiare...

paolo.oliva2
26-12-2016, 10:05
Hai reso l'idea, ma tolto questo rimane +21% di transistor e +46% di die. Che non mi pare poca roba a cui dar da mangiare...

Scusa cdimauro, ma quando AMD si è fermata al 32nm e Intel è passata al 22, ed è scappato il 5960X (2,5 milioni di transistor) BD è rimasto sul 32nm o ha avuto un 22nm? Quando Intel è passata al 14nm, BD è rimasto sul 32nm o ha avuto altro silicio?

Allora... che BD è rimasto fermo a 8TH e non ha potuto aumentare, è colpa del silicio o dell'architettura?

Il mio ragionamento è semplice... BD ha una potenza ST X ed una potenza MT Y.

Se un BD si deve confrontare con Intel, la "selezione" con che proci si confronta, è dipendente dalla potenza MT. Visto che un 8350 ha meno MT di un X4+4 Intel, allora si confronta con quello, e nel contempo si confronta in ST con i modelli procio Intel che hanno l'ST superiore per via delle massime frequenze.

Una cosa è un 8350 @4,2GHz vs 6700K @4,2GHz, un'altra 6850K @4GHz, un'altra 6900K 3,7GHz. Altro è PD, SR o XV.

Se poi colleghiamo il fatto che il 28nm Bulk GF ha raggiunto pressochè le stesse frequenze massime di un 32nm SOI, e il 28nm Bulk GF è ciofeca rispetto al 32nm Intel, mi sembra ovvio che il 32nn SOI sullo stesso silicio non abbia permesso un 10TH mentre il 32nm Intel un 12TH.
Se fai le proporzioni del numero di transistor, anche non considerando l'FO4, Komodo doveva esistere, e Komodo avrebbe permesso più MT di un X4+4 Intel.

cdimauro
26-12-2016, 10:06
Il confronto è fra SandyBridge e Bulldozer, entrambi a 32nm, ed entrambi con 4 core/moduli. Dot.

bjt2
26-12-2016, 10:07
Hai reso l'idea, ma tolto questo rimane +21% di transistor e +46% di die. Che non mi pare poca roba a cui dar da mangiare...

BD ha 2MB per 2 core di L2, più la L3.

Se guardiamo a parità di thread (considerando BD 4m8c un quad core come SB) abbiamo 1MB (2MB per 2 threads) di L2 e 1MB di L3 per BD e 128KB (256KB per 2 threads) di L2 e 1MB di L3... Quindi BD ha più cache...

E poi almeno parte del 21% di transistors in più è dovuta agli stadi di pipeline in più, più flip flop e roba ausiliaria... Credo che infine il processo INTEL sia più denso...

cdimauro
26-12-2016, 10:08
Lo è:
http://images.anandtech.com/graphs/graph5176/42780.png

Wolfhang
26-12-2016, 12:00
se vuoi vedere il bicchiere mezzo vuoto farlo, ma questo non toglie che le prestazioni per watt, sono di gran lunga superiore a quelle di SB, che è su un processo almeno a livello nominale del tutto simile.
e le prestazioni ST, sempre al cinebench, di un SB i7, che però è una cpu da 17W contro 15W, non appaiono superiori a quelle di un FX9800P.....
queste sono prestazioni da architettura inefficiente? :rolleyes:
Se lo è come definiamo Haswell, che per raggiungere quel livello di efficienza, tra le altre cose ad una frequenza operativa leggermente inferiore, deve affidarsi ai finfet...:D
Si, alla fine dopo alcune revisioni del processo a 28nm l'efficienza, in particolar modo con Bristol Rdge è stata aumentata, ma come?
Ottimizzando i consumi in un range di frequenze umane ed aumentando l'IPC, non certo continuando la rincorsa a frequenze assurde.


2 cose, la previsione di una efficienza, e quindi di prestazioni superiori del 40% a parità di TDP, che poi è quello che mi pare indicare la slide di AMD, porta a quel risultato....ma mi aspetto un miglioramento molto profondo a basse frequenze....proprio perchè a bassi vcore i finfet possono fornire prestazioni superiori di 2,5x rispetto ai 28nm...
hai fatto l'esempio di kabylake....20% di solo processo, che già era considerato il migliore processo 14/16nm finfet bulk sulla piazza sia per quanto concerne non solo le prestazioni pure ma anche nel low-power....
è lecito che AMD, sia a causa di ZEN, ma soprattutto dei finfet, possa superare e di molto i 4 punti al cinebench...

La mia non era una critica sulle potenzialità di Zen, quanto piuttosto sulla tempistica di AMD, è quasi più facile procurarsi un prodotto Intel che ancora deve essere presentato ufficialmente che un prodotto AMD già immesso nel mercato (sul TH di Kaby Lake c'è un utente che sta testando un i5 7600K).
Di questo passo si rischia di vedere le prime APU Zen in contemporanea con le prime soluzioni Cannonlake a 10nm a basso TDP.

.Hellraiser.
26-12-2016, 12:22
La mia non era una critica sulle potenzialità di Zen, quanto piuttosto sulla tempistica di AMD, è quasi più facile procurarsi un prodotto Intel che ancora deve essere presentato ufficialmente che un prodotto AMD già immesso nel mercato (sul TH di Kaby Lake c'è un utente che sta testando un i5 7600K).
Di questo passo si rischia di vedere le prime APU Zen in contemporanea con le prime soluzioni Cannonlake a 10nm a basso TDP.

hai ragione, e non riesco ancora a capire il perchè di tutti questi misteri su un processore che deve uscire tra non molto sul mercato, fossi stato io avrei fatto trapelare molte più informazioni in modo da limitare un poco le vendite delle cpu della concorrenza

ps. kabylake è già da un pò che si trova, ho segnalato io a conan l'annuncio su ebay nell'altro thread

paolo.oliva2
26-12-2016, 13:21
Il confronto è fra SandyBridge e Bulldozer, entrambi a 32nm, ed entrambi con 4 core/moduli. Dot.

Ma tu giudichi l'architettura BD o 2 PP silicio? Quando tu posti i bench di BD VS Haswell/Broadwell/Skylake, cosa giudichi? L'architettura BD vs architettura Intel.

Ed io continuo a dire che non puoi considerare le due architetture senza mettere in ballo il silicio.

Se poi a comodo vuoi stoppare il confronto tra SB e BD, è una cosa, ma non puoi assolutamente negare che l'evoluzione BD sia stata castrata dal silicio, anche perchè, se proprio vuoi confrontare, XV è BD e prova a confrontare XV a SB se i tuoi conti tornano.

Prova a ipotizzare, al contrario, un BD sul 14nm ed un Intel fermo al 32nm... prova ad ipotizzare un XV X16 vs un X6+6 Intel...

Se invece ti piace rapportare un 6950X ad un 8350 e far passare tutto per la sola architettura, io continuerò a contestare :), perchè per me non è assolutamente vero.

cdimauro
26-12-2016, 13:25
E due: non vuoi proprio capirlo che il confronto era fra SandyBridge e Bulldozer. Stessa nanometria, e stesso numero di core/moduli.

Di fatti i benchmark che ho riportato sono relativi a Bulldozer, confrontato con le (micro)architetture esistenti all'epoca, e quindi con SandyBridge, ovviamente. Dove li hai tirati fuori Haswell/Broadwell/Skylake, lo sai solo tu.

Questo a ulteriore dimostrazione che il silicio non è il colpevole della sua situazione. Sicuramente non il solo, se AMD si aspettava frequenze (e consumi) inferiori, perché di base la (micro)architettura era stata progettata male.

Ren
26-12-2016, 14:29
Lo è:
http://images.anandtech.com/graphs/graph5176/42780.png

Dai test sulle sram il 32nm IBM/GF è più denso.:boh:

0.17um2 (intel) vs 0.15um2 (gf)

Intel ha un metal pitch peggiore oltre che qualche layer in meno...

tuttodigitale
26-12-2016, 14:30
Allora, credo che il problema stia proprio nel numero dei transistor e nella superficie del die.

Andando a controllare meglio, anche nel secondo link che ho postato, sembra che per Sandy Bridge il valore riportato non sia corretto, e cercando in giro c'è molto più consenso nel dargli 995 milioni di transistor anziché 1.16 miliardi.

premesso che il numero di transistor lascia davvero il tempo che trova...le dimensioni di un core SB è sovrapponibile a quello di un intero modulo BD.

Vedi Jaguar, piccolissimo anche rispetto ad XV (dual core Jaguar 6,2mmq vs 14mmq modulo XV) eppure è il secondo a consumare di meno a 2,5GHz. Il fatto che l'ipc superiore a Jaguar, sia ottenuto allungando a dismisura le pipeline, ha permesso di ridurre il consumo, anche con l'ingente quantità di transistor, che comunque è assai minore di quella di un dual core SB....


In ogni caso perché una pipeline più lunga dovrebbe implicare un consumo inferiore? Dovrebbe essere l'esatto contrario, visto che sei costretto a spezzare il lavoro in più parti, e dunque ricorrere a più transistor per fare esattamente la stessa operazione.
al contrario di bjt2, io non sono affatto convinto che il FO4 di ZEN sia rimasto invariato, se fosse il caso dovremmo attenderci turbo core ben superiore a quello visto con bulldozer, e soprattutto non si capirebbe il motivo per cui limitarsi a 95W con una frequenza base di poco superiore ai 3GHz....a meno di non avere problemi grossi con il silicio.

ritornando alla tua domanda, la risposta è semplice: perchè ai transistor è richiesta una velocità di commutazione inferiore...
Esiste una relazione di proporzionalità inversa tra FO4 e frequenza a parità di Vcore.

i transistor in più per spezzare le pipeline, è sempre compreso in quel +10% di un modulo BD rispetto ad un solo core SB.

fermo restando che sei stato tu stesso ad affermare che è impossibile che in AMD non sapessero l'ipc di bulldozer a pochi mesi dal lancio, e nonostante ciò hanno pubblicizzato un livello di prestazioni praticamente irraggiungibile. E quindi se queste sono state ampiamente disattese, il motivo non può essere che ad una componente non sicura al 100% come il silicio (se non bastasse hanno sbagliato le previsioni di vcore e frequenza di k10 e anche le previsioni di vcore e frequenza della cache l3....tre indizi fanno una prova :rolleyes: )

tuttodigitale
26-12-2016, 14:54
Si, alla fine dopo alcune revisioni del processo a 28nm l'efficienza, in particolar modo con Bristol Rdge è stata aumentata, ma come?
Ottimizzando i consumi in un range di frequenze umane ed aumentando l'IPC, non certo continuando la rincorsa a frequenze assurde.
però, e qui si ritorna al punto di partenza...i vcore di XV/SR sono assurdi....ovvero quelle frequenze sono raggiunte usando ampiamente le risorse messe a disposizione del 28nm bulk e sfruttando tutta la capacità dell'architettura BD nello sviluppare alte velocità di clock..una architettura meno propensa al clock, avrebbe compromesso anche il raggiungimento di queste frequenze non "assurde".

pare abbastanza chiaro che se il range di funzionamento e non solo di BR, ma anche di Kaveri che usa le HPL, è più ristretto di quello di SB, questo sia dovuto molto alle differenti qualità dei 32nm Intel e i 28nm di GF..
da una parte non ci sono dubbi che i 28nm di GF sia un processo ECCELLENTE nel low power, ma mostra tutti i suoi limiti ad alti vcore, persino superiori ai 32nm SOI.
Anche la storia di Kaveri/Godavari che mostra frequenze aumentate per diversi valori di TDP, meno che per i modelli di punta, in cui ad anni di distanza il primato spetta ancora a Richland....

l'impressione è che se k10 ha murato a 3 GHz su un processo come quello SOI, non oso pensare cosa avrebbe fatto con il bulk...(Che richiede è giusto sottolinearlo vcore PAZZESCHI, e non solo rispetto al SOI, ma anche e soprattutto rispetto al BULK a 32nm di INTEL: per kaveri/BR il vcore stock è di 1,35-1,45V)

feldvonmanstein
26-12-2016, 15:04
@ Roland74Fun Complimenti per il bell' overclock.
Comunque io l'ho messo per il discorso consumi BD che qualcuno ha tirato il ballo.
Visto che la voce cpu power di HW monitor (per quanto affidabile) riportava 90W di consumo sotto IBT.

Ma qui ormai sembriamo al BAR dei cacciatori. E tra un po' si passerà pure al Milan schifo, Juve ladra, Napoli colera.

Però se poi qualcuno in questo forum mi dice nuovamente....
"ma come fai ad avere un processore che consuma 220W?" Giuro che ne tiro giù tante da farmi bannare fino all'uscita di CoffeLake.

grazie, comq a suo tempo (novembre 2014) feci i test con pinza amperometrica sul'8320E a 4,1 ghz 1,21 v. rispetto alla firma cambiava la hd6970 invece della r9 380(tonga più efficiente soprattutto in idle) , le ram erano 8 gb invece di 16gb ma stesso modello, freq e num di moduli; ssd 840pro invece dell' 850pro; poi cambiava l'OS ( win7 vs win10) e poco altro. Anzi con il tempo ho affinato settaggi e voltaggi quindi avrò recuperato altra efficienza ma per fartela breve, tutto il sistema non è mai arrivato ai 300 watt! tutto calcolato approssimativamente moltiplicando gli ampere di uscita x 230 volt, senza tener conto dell'efficienza dell'alimentatore che per quanto ottima lasciava comunque qualcosa per strada. aggiungo per i dovuti adeguamenti che la sola scheda audio deidcata aggiunge in idle 7 watt ( cosa che nn tutti hanno) e la 6970 ne prende 23 in idle, la 380, introdotta successivamente ai test, una decina se nn sbaglio.

riporto solo alcuni dati che emersero alla presa.

IDLE post avvio : ampere 0,37 watt teorici 85
win rar test : A : 0.71 w: 163
prime 95: A: 0,92 w : 211
intel burn test( qui nn ricordo se già usavo la versione avx) A: 0.96 w:220
gaming
crysis 3 min 232
max 262
tomb raider 2013
min 207
max218
far cry 3 min 236
max 250

Da allora non ho fatto più test, e quando vedo le recensioni sul web mi scappano grosse e grasse risate :D

tuttodigitale
26-12-2016, 15:36
Dai test sulle sram il 32nm IBM/GF è più denso.:boh:

0.17um2 (intel) vs 0.15um2 (gf)

Intel ha un metal pitch peggiore oltre che qualche layer in meno...
queste misure lasciano davvero il tempo che trovano.
anche i 14nm hanno migliorato e di brutto il livello di integrazione rispetto a quanto permesso dai 28nm, all'atto pratico le gpu hanno visto guadagnare "solo" il 60% di transistor a mmq.

Ps non eri tu quello che diceva che BD era un prodotto a risparmio poiché aveva "pochi" layer di metalizzazione? :D

bjt2
26-12-2016, 16:07
al contrario di bjt2, io non sono affatto convinto che il FO4 di ZEN sia rimasto invariato, se fosse il caso dovremmo attenderci turbo core ben superiore a quello visto con bulldozer, e soprattutto non si capirebbe il motivo per cui limitarsi a 95W con una frequenza base di poco superiore ai 3GHz....a meno di non avere problemi grossi con il silicio.

Io mi aspetto che il FO4 di zen sia simile a BD e contemporaneamente frequenze non molto alte perchè sono 8 core / 16 thread e non 4 moduli / 8 thread. Se ricordi i miei vecchi post, avevo supposto frequenze di turbo vicine ai 5GHz per Zen. Sono tornato a più miti previsioni perchè già tutti mi danno addosso con 4GHz base e 4.5 turbo... Figurati 4 base e 5 turbo... In cuor mio sono ancora convinto di ciò ma in pubblico sono più prudente... E nonostante questo qui e su anand mi danno comunque addosso...

E poi l'FX8370E è 3.3/4.3 a 95W e AMD dichiara stesso consumo core vs core alla stessa frequenza di excavator, che è solo un po' più efficiente di piledriver (mi pare sia quello il core dell'8370). Ciò calza a pennello con 3.5/4.5 o 3.6/4.6 @ 95W...

Il FO4 basso non implica clock più alto proporzionalmente, perchè le connessioni metalliche non scalano con il processo... Se io riduco le capacità parassite, tensione di soglia, leakage e aumento la transconduttanza, brucerò meno potenza nei transistors, ma quella nei "cavi" rimane invariata e anzi aumenta se aumento il clock. Quindi non mi aspetto un aumento di clock proporzionale al miglioramento del processo.

Inoltre 8 core Zen sono come 16 core XV a livello di transistor. Un 4 core Zen potrebbe agevolmente superare i clock base e turbo di kabylake, ma un 8 core no. Almeno non in base. In turbo se il risparmio energetico è fatto bene, si può arrivare a 5GHz sia per il 4c che l'8c, ma per ora mi mantengo prudente e dico 3.6-4 base e 4.5 turbo in 95W.

instlat64 ha un ES Zen e hanno misurato le latenze delle istruzioni. Sono in NDA penso, perchè non le hanno ancora pubblicate. Quando lo faranno ci faremo una idea del FO4 rispetto a BD...

bjt2
26-12-2016, 16:11
però, e qui si ritorna al punto di partenza...i vcore di XV/SR sono assurdi....ovvero quelle frequenze sono raggiunte usando ampiamente le risorse messe a disposizione del 28nm bulk e sfruttando tutta la capacità dell'architettura BD nello sviluppare alte velocità di clock..una architettura meno propensa al clock, avrebbe compromesso anche il raggiungimento di queste frequenze non "assurde".

pare abbastanza chiaro che se il range di funzionamento e non solo di BR, ma anche di Kaveri che usa le HPL, è più ristretto di quello di SB, questo sia dovuto molto alle differenti qualità dei 32nm Intel e i 28nm di GF..
da una parte non ci sono dubbi che i 28nm di GF sia un processo ECCELLENTE nel low power, ma mostra tutti i suoi limiti ad alti vcore, persino superiori ai 32nm SOI.
Anche la storia di Kaveri/Godavari che mostra frequenze aumentate per diversi valori di TDP, meno che per i modelli di punta, in cui ad anni di distanza il primato spetta ancora a Richland....

l'impressione è che se k10 ha murato a 3 GHz su un processo come quello SOI, non oso pensare cosa avrebbe fatto con il bulk...(Che richiede è giusto sottolinearlo vcore PAZZESCHI, e non solo rispetto al SOI, ma anche e soprattutto rispetto al BULK a 32nm di INTEL: per kaveri/BR il vcore stock è di 1,35-1,45V)

Sul 28nm si sale di meno che sul 32nm perchè hanno usato librerie HDL. Se ricordi il punto oltre cui convengono le HPL è poco sopra i 3GHz. Quindi per bassi clock, consumo bassissimo e per alti clock consumo più alto...

paolo.oliva2
26-12-2016, 16:18
fermo restando che sei stato tu stesso ad affermare che è impossibile che in AMD non sapessero l'ipc di bulldozer a pochi mesi dal lancio, e nonostante ciò hanno pubblicizzato un livello di prestazioni praticamente irraggiungibile. E quindi se queste sono state ampiamente disattese, il motivo non può essere che ad una componente non sicura al 100% come il silicio (se non bastasse hanno sbagliato le previsioni di vcore e frequenza di k10 e anche le previsioni di vcore e frequenza della cache l3....tre indizi fanno una prova :rolleyes: )

E' questo che non riesco a fargli capire. Le differenze tra Piledriver e SB sono minime e lo sarebbero ancor più se BD avesse avuto quei +700MHz di frequenza.

Da quel giorno AMD ha proseguito lo sviluppo di BD in Steamroller e Excavator, ma non ha potuto aumentare i moduli a causa del silicio, perchè se 4 moduli FX sono 125W, non ne puoi mettere 8. Da SB Intel ha realizzato (nel desktop) il 5960X (16 TH) e 6950X (20 TH), che non sono venuti fuori perchè l'architettura ha dimezzato i consumi, ma perchè il silicio li ha più che dimezzati.
Mi sembra OVVIO che AMD non ha perso il 20% di mercato perchè l'architettura BD era -10% confronto a SB, e nel contempo non ha perso il mercato a parità di miniaturizzazione, ma l'ha perso nel momento che Intel produceva a 22nm perchè qualsiasi architettura avrebbe messo AMD sul 32nm SOI, NON SAREBBE STATA MAI COMPETITIVA:

Cosa c'è cdi incomprensibile in ciò che scrivo? L'ho scritto 1, 2, 3, 4, 5, 6 volte... il mercato AMD l'ha perso BD/32nm vs SB/32nm o l'ha perso BD/32nm vs Haswell/22nm e Broadwell/14nm?
Sul 14nm AMD l'efficienza l'avrebbe ritrovata sia con Zen che con BD.

P.S.
AMD è sempre riuscita a mettere 2 core in più rispetto ad Intel a parità di miniaturizzazione. L'ha fatto pure sulla ciofeca 65nm, AMD X4 nativo, Intel per l'X4 nativo ha aspettato il 45nm, AMD X6 nativo, Intel per X6 nativo ha aspettato il 32nm. E' il 32nm SOI che non ha rispettato la tabella di marcia, perchè MINIMO doveva realizzare un X10 (ed infatti Komodo c'era, ma non è stato prodotto). Nessuno dice che BD non avrebbe avuto i problemi con l'ST, ma nessuno può dire che i problemi di BD in MT non siano a causa del silicio. Una cosa è ST e MT inferiore di PD vs SB con un 4m, un'altra con ST +15% per +700MHz di frequenza e MT +25% (10 core ve 8) e +15% di frequenza, il tutto a parità di TDP di un 8350. Cosa avrebbe fatto un X4+4 SB?

FroZen
26-12-2016, 19:50
Ma una gigabyte come mobo top all'uscita come la vedete? Ho avuto asus e msi, volevo provare una giga

Gioz
26-12-2016, 19:55
Ma una gigabyte come mobo top all'uscita come la vedete? Ho avuto asus e msi, volevo provare una giga
secondo me sarà da vedere modello per modello che funzionalità/porte/slots offriranno le varie mobo, perchè sui modelli di punta per quanto male si possa cascare di solito si atterra comunque in piedi.

Roland74Fun
26-12-2016, 19:55
Basta che non facciano come certi con BD. Le vecchie robe ritoccate in "AM3+ Ready" spesso solo flashando il bios.
E vai con il thermal trottling e casini vari.
Ma qui cambia tutto il socket quindi saranno in una botte di ferro.

Emaximus
26-12-2016, 20:01
secondo me sarà da vedere modello per modello che funzionalità/porte/slots offriranno le varie mobo, perchè sui modelli di punta per quanto male si possa cascare di solito si atterra comunque in piedi.

Tocca anche vedere che sorprese ti mettono lato VRM :D

Gioz
26-12-2016, 20:04
Tocca anche vedere che sorprese ti mettono lato VRM :D
si hai ragione, ma se a lui interessano i modelli di fascia alta tipo la asus formula che ha in firma, difficilmente si ritroverà a prendere in considerazione schede con dei vrm farlocchi...a meno ovviamente di specifici modelli con problemi o difetti.

Roland74Fun
26-12-2016, 20:13
Una bella equivalente di Asrock 970 Extreme 3. : :cool: :cool:

tuttodigitale
26-12-2016, 20:18
Sul 28nm si sale di meno che sul 32nm perchè hanno usato librerie HDL. Se ricordi il punto oltre cui convengono le HPL è poco sopra i 3GHz. Quindi per bassi clock, consumo bassissimo e per alti clock consumo più alto...
parto da qui, per una piccola precisazione.
Kaveri e Godavari (quest'ultimo è solo un KAVERI con IHS saldato), usano le HPL, nonostante ciò non sono state raggiunte le frequenze di 4,1/4,4GHz del a10-6800K, che è sui 32nm SOI, con vcore mediamente più basso di 0,1V.
il 28nm sembra un processo con caratteristiche maggiormente orientate al low-power rispetto ai 32nm SOI. Per questa ragione non vedo per quale motivo il finfet a 14nm non possa fare meglio anche ad alti clock...:read:

Emaximus
26-12-2016, 20:37
si hai ragione, ma se a lui interessano i modelli di fascia alta tipo la asus formula che ha in firma, difficilmente si ritroverà a prendere in considerazione schede con dei vrm farlocchi...a meno ovviamente di specifici modelli con problemi o difetti.

Se scegli asus top non ci sono problemi lato vrm ( 970 aura ha mosfet on semiconductor come la sabertooth r3.0; la crosshair v formula invece ha i nxp). Discorso diverso per gigabyte (nell'ultima 990fx gaming ha usato i renesas che monta su schede più economiche come la 78lmt-usb3) e MSI (sia sulla 970 gaming che sulla 990fxa gaming ha adottato i NIKOS economici che fanno proprio schifo). :D

tuttodigitale
26-12-2016, 20:42
Da quel giorno AMD ha proseguito lo sviluppo di BD in Steamroller e Excavator, ma non ha potuto aumentare i moduli a causa del silicio, perchè se 4 moduli FX sono 125W, non ne puoi mettere 8.
più che altro con il SOI, l'efficienza non migliora molto abbassando la frequenza...a livello nominale il fx8370e l'efficienza migliora del 8,5%.
L'opteron 16 core a 2,8GHz, ha un throughput per watt superiore solo del 25% superiore al fx8350..

Gioz
26-12-2016, 20:46
Se scegli asus top non ci sono problemi lato vrm ( 970 aura ha mosfet on semiconductor come la sabertooth r3.0; la crosshair v formula invece ha i nxp). Discorso diverso per gigabyte (nell'ultima 990fx gaming ha usato i renesas che monta su schede più economiche come la 78lmt-usb3) e MSI (sia sulla 970 gaming che sulla 990fxa gaming ha adottato i NIKOS economici che fanno proprio schifo). :D
si ma ste cose di solito capitano sulle serie gaming, oppure su fascia media e/o bassa...anche sulle asus se prendi ad esempio la z170 pro offre di più, lato alimentazione, della z170 pro gaming e in certi listini le trovi alla stessa cifra.
se prendi le top di gamma di solito non trovi questi abbinamenti dove in cambio di due led e i dissipatori con il disegno ti si accompagnano le fasi di alimentazione sostituite dal nano che spala il carbone nella fornace :D

bjt2
26-12-2016, 20:48
parto da qui, per una piccola precisazione.
Kaveri e Godavari (quest'ultimo è solo un KAVERI con IHS saldato), usano le HPL, nonostante ciò non sono state raggiunte le frequenze di 4,1/4,4GHz del a10-6800K, che è sui 32nm SOI, con vcore mediamente più basso di 0,1V.
il 28nm sembra un processo con caratteristiche maggiormente orientate al low-power rispetto ai 32nm SOI. Per questa ragione non vedo per quale motivo il finfet a 14nm non possa fare meglio anche ad alti clock...:read:

Kaveri è sul 28nm? Mi pare di ricordare che il risparmio energetico non funzionava sui primi 28nm e comunque penso che abbiano ottimizzato con il tempo... Quindi non mi stupisce. Spero che tutta l'esperienza sui 28nm sia stata trasferita in Zen... Ma anche io penso che Zen salga di più di XV...

bjt2
26-12-2016, 20:55
più che altro con il SOI, l'efficienza non migliora molto abbassando la frequenza...a livello nominale il fx8370e l'efficienza migliora del 8,5%.
L'opteron 16 core a 2,8GHz, ha un throughput per watt superiore solo del 25% superiore al fx8350..

Perchè nel SOI il leakage è già basso... Quindi diminuendo il Vcore non si migliora di molto, ma solo per la diminuzione di corrente e quella limitata di tensione. Il 32nm sale così tanto, e anche più del 28nm, pur essendo meno denso del 28nm, perchè quasi tutta la potenza è impiegata in potenza dinamica, dato il basso leakage, mentre nel 28nm no...

tuttodigitale
26-12-2016, 21:09
Io mi aspetto che il FO4 di zen sia simile a BD e contemporaneamente frequenze non molto alte perchè sono 8 core / 16 thread e non 4 moduli / 8 thread.
questo lo so, anche perchè sei stato il primo, oltre a me:Prrr: e, ad appoggiare questa tesi.
vedo che anche tu sei convinto che un'architettura con FO4 simile a XV, su un processo finfet, possa avere una frequenza turbo di 4,5GHz a salire....

bjt2
26-12-2016, 21:16
questo lo so, anche perchè sei stato il primo, oltre a me:Prrr: e, ad appoggiare questa tesi.
vedo che anche tu sei convinto che un'architettura con FO4 simile a XV, su un processo finfet, possa avere una frequenza turbo di 4,5GHz a salire....

Mi sembra anche normale: stesso FO4, meno leakage, capacità parassita, Vth e maggiore transconduttanza... Per forza deve avere maggiore frequenza...

paolo.oliva2
26-12-2016, 21:58
Kaveri è sul 28nm? Mi pare di ricordare che il risparmio energetico non funzionava sui primi 28nm e comunque penso che abbiano ottimizzato con il tempo... Quindi non mi stupisce. Spero che tutta l'esperienza sui 28nm sia stata trasferita in Zen... Ma anche io penso che Zen salga di più di XV...

Io comunque di zen riesco a decifrare alcune cose... nel senso che ok, AMD ha alzato l'IPC, quindi non essendo più forzata a vincoli (tipo CMT che non richiede IPC di alto valore), ha optato per l'SMT in quanto meglio ottimizzato.

I punti che non comprendo... va bene alzare l'IPC, ma avere anche un SMT efficiente, il tutto a prima botta... l'efficienza dell'architettura, va bene, è stata realizzata attorno al 14nm, ingloba tutto quanto fatto da AMD sul 28nm per ovviare al silicio... già per quanto di sa di Zen, AMD/Keller avrebbero già fatto un miracolo e mzzo... però... non ti sembra strano un SMT così efficiente? Con BD AMD è uscito con Zambesi e già aveva dovuto metterci le mani... con Zen, non metto in dubbio che di margini ne avranno, ma dovevano uscire con un IPC almeno 100 (sperando in nessun inghippo), ne escono con 120 e 130 sarebbe dietro l'angolo?
Ma siamo sicuri che esce tutto da Keller? O Keller ha lavorato su un qualche cosa che solamente una parte è per AMD? Non è che sia un qualche cosa che in linea di massima potrebbe servire anche a IBM magari su un SMT=>8 e AMD lo può utilizzare =<4?
Non voglio sparare stronzate, ma AMD aveva più soldi all'epoca BD di quanti ne poteva avere per Zen, eppure ha fatto un tot di brevetti e per come ha operato Keller, non mi da manco di striscio un modo di lavoro con budget limitato... boh. Si parla di 250 milioni di $ lo sviluppo di Zen... e comunque c'è pure Polaris, Vega, APU... dove cacchio li ha trovati tutti sti soldi? L'ultima commissione di spicco, quella da 300 milioni di $, è servita per pagare GF per avere autonomia di produzione su silici alternativi, io tutti sti soldi in entrata non li vedo...

Piedone1113
26-12-2016, 23:09
queste misure lasciano davvero il tempo che trovano.
anche i 14nm hanno migliorato e di brutto il livello di integrazione rispetto a quanto permesso dai 28nm, all'atto pratico le gpu hanno visto guadagnare "solo" il 60% di transistor a mmq.

Ps non eri tu quello che diceva che BD era un prodotto a risparmio poiché aveva "pochi" layer di metalizzazione? :D

Ero io a dire che bd è fatto per avere bassi costi di produzione.
Comunque Sandy bridge è dato per 11-12 layer ( non ho trovato nulla di certo).
Bd 11 layer certi.
Gran parte della progettazione di bd fece ricorso ai tool automatici ( secondo un ex AMD progettare bd alla vecchia maniera avrebbe portato un risparmio di transistor tra il 10 e 15 % con un aumento dell'ipc tra il 5 ed il 10%).
La versione 8 core di Intel è accreditata di 13 layer.
Come puoi ben vedere Sandy bridge è la serie economica di Intel con 11/12 layer ( ed è una CPU votata al contenimento dei costi produttivi).
Con questa premessa ti sembra che bd sia una CPU costosa da produrre (e di conseguenza il Power di IBM con 14/15 layer sarebbe stata broibitiva)

tuttodigitale
26-12-2016, 23:32
Io comunque di zen riesco a decifrare alcune cose... nel senso che ok, AMD ha alzato l'IPC, quindi non essendo più forzata a vincoli (tipo CMT che non richiede IPC di alto valore), ha optato per l'SMT in quanto meglio ottimizzato.

I punti che non comprendo... va bene alzare l'IPC, ma avere anche un SMT efficiente, il tutto a prima botta... l'efficienza dell'architettura, va bene, è stata realizzata attorno al 14nm, ingloba tutto quanto fatto da AMD sul 28nm per ovviare al silicio... già per quanto di sa di Zen, AMD/Keller avrebbero già fatto un miracolo e mzzo... però... non ti sembra strano un SMT così efficiente? Con BD AMD è uscito con Zambesi e già aveva dovuto metterci le mani... con Zen, non metto in dubbio che di margini ne avranno, ma dovevano uscire con un IPC almeno 100 (sperando in nessun inghippo), ne escono con 120 e 130 sarebbe dietro l'angolo?
Ma siamo sicuri che esce tutto da Keller? O Keller ha lavorato su un qualche cosa che solamente una parte è per AMD? Non è che sia un qualche cosa che in linea di massima potrebbe servire anche a IBM magari su un SMT=>8 e AMD lo può utilizzare =<4?
Non voglio sparare stronzate, ma AMD aveva più soldi all'epoca BD di quanti ne poteva avere per Zen, eppure ha fatto un tot di brevetti e per come ha operato Keller, non mi da manco di striscio un modo di lavoro con budget limitato... boh. Si parla di 250 milioni di $ lo sviluppo di Zen... e comunque c'è pure Polaris, Vega, APU... dove cacchio li ha trovati tutti sti soldi? L'ultima commissione di spicco, quella da 300 milioni di $, è servita per pagare GF per avere autonomia di produzione su silici alternativi, io tutti sti soldi in entrata non li vedo...
mi hai messo una pulce nell'orecchio. Per curiosità ho guardato un pò i brevetti sulle cache di AMD, per tutti quelli registrati nel 2012-2013 (e sono una moltitudine) le richieste risalgono ai tempi di Bulldozer/Piledriver.. e alcuni del 2014 risalgono prima di keller fosse stato assunto in AMD....
quindi non è poi così vero che i lavori sulle cache siano partiti con keller..

Emaximus
26-12-2016, 23:37
Io penso al prossimo giro proverò MSI

Si sa già che uscirà una scheda MSI della serie Tomahawk.

tuttodigitale
26-12-2016, 23:46
Ero io a dire che bd è fatto per avere bassi costi di produzione.
Comunque Sandy bridge è dato per 11-12 layer ( non ho trovato nulla di certo).
Bd 11 layer certi.
Gran parte della progettazione di bd fece ricorso ai tool automatici ( secondo un ex AMD progettare bd alla vecchia maniera avrebbe portato un risparmio di transistor tra il 10 e 15 % con un aumento dell'ipc tra il 5 ed il 10%).
La versione 8 core di Intel è accreditata di 13 layer.
Come puoi ben vedere Sandy bridge è la serie economica di Intel con 11/12 layer ( ed è una CPU votata al contenimento dei costi produttivi).
Con questa premessa ti sembra che bd sia una CPU costosa da produrre (e di conseguenza il Power di IBM con 14/15 layer sarebbe stata broibitiva)
le metalizzazione per Sandy Bridge/Haswell sono 9, che sono diventate 13 con Broadwell/SKylake, e 11 layer per il SoC Bay Trail.

http://www.chipworks.com/about-chipworks/overview/blog/intel%E2%80%99s-14-nm-parts-are-finally-here

Ale55andr0
26-12-2016, 23:52
http://wccftech.com/intel-developing-new-x86-uarch-succeed-core-generation/

digieffe
27-12-2016, 00:15
http://wccftech.com/intel-developing-new-x86-uarch-succeed-core-generation/

:old:

Ren
27-12-2016, 00:51
Ps non eri tu quello che diceva che BD era un prodotto a risparmio poiché aveva "pochi" layer di metalizzazione? :D

No no, ti confondi con i tuoi compagni di merende :D che giustificavano i risultati mediocri di AMD con il 32nm rispetto ad IBM. Dopo tutte le prove portate da cdimauro con la serie Z (ibm) ancora lo menate con sto 32nm del pianto...:asd:

bjt2
27-12-2016, 06:48
Discussione tra Dresdenboy, Instlat86 e quelli di Canard PC, molto interessante...

https://twitter.com/Dresdenboy/status/812053513031352326

Vari punti:

1) I test AIDA sono troppo belli per essere veri, per questo non li hanno ancora pubblicati. Throughput anche il doppio di Skylake su alcune istruzioni. Instlat86 risponde che skylake/kabylake hanno qualche problema sulla porta 5 e per alcune istruzioni anche bristol ridge ha througput doppio (esempio: VEXTRACTI128)

2) Il sample che hanno quelli di Canard PC ha problemi con SMT e uopcache, e su semi dicono anche che la MB ha problemi e non ha il firmware per ES più nuovi. D'altronde è un ES A0. Quindi io prenderei con le pinze i risultati più bassi rispetto a New Horizon di Canard PC...

Altro tweet:

https://twitter.com/InstLatX64/status/813539775944785921
https://pbs.twimg.com/media/C0pEfFFWQAE3ZVi.jpg

Latenza delle cache... Finalmente decenti... :)

bjt2
27-12-2016, 07:52
https://translate.google.com/translate?sl=auto&tl=en&js=y&prev=_t&hl=en&ie=UTF-8&u=http%3A%2F%2Fpc.watch.impress.co.jp%2Fdocs%2Fcolumn%2Fkaigai%2F1036983.html&edit-text=&act=url

Maggiori dettagli sul branch prediciton di Zen. Anche qui sembra essere confermato la possibilità di predirre 2 salti per ciclo anche per lo stesso thread...

Crysis90
27-12-2016, 07:56
http://wccftech.com/intel-developing-new-x86-uarch-succeed-core-generation/

L'effetto Zen comincia a dare i sui frutti. ;)

:old:

Come fa ad essere OLD, se il link è stato postato adesso per la prima volta e si riferisce ad un articolo di una fonte esterna che lo ha pubblicato appena qualche ora fa?!?!?? :mbe: :mbe:

cdimauro
27-12-2016, 08:17
Dai test sulle sram il 32nm IBM/GF è più denso.:boh:

0.17um2 (intel) vs 0.15um2 (gf)

Intel ha un metal pitch peggiore oltre che qualche layer in meno...
Questo vale solo per le SRAM, che sono i circuiti più semplici.

Il grafico di AnandTech mostra uno scenario diverso. Infatti anche le versioni di SandyBridge con le GPU mostrano una densità diversa, segno che il tutto dipenda dal tipo di circuiti implementato.
premesso che il numero di transistor lascia davvero il tempo che trova...
Il numero di transistor è fondamentale per stabile cosa fa il chip.
le dimensioni di un core SB è sovrapponibile a quello di un intero modulo BD.
Com'è possibile, visto che il die di BD è del 46% più grande? Hai delle immagini di confronto?
Vedi Jaguar, piccolissimo anche rispetto ad XV (dual core Jaguar 6,2mmq vs 14mmq modulo XV) eppure è il secondo a consumare di meno a 2,5GHz. Il fatto che l'ipc superiore a Jaguar, sia ottenuto allungando a dismisura le pipeline, ha permesso di ridurre il consumo, anche con l'ingente quantità di transistor, che comunque è assai minore di quella di un dual core SB....
Agner riporta questo per Jaguar:

"The article cited below indicates a misprediction penalty of 13 clock cycles. In my tests, however, the misprediction penalty ranged from 8 to 19 clock cycles depending on the subsequent instructions. There was no consistent difference between integer and floating point code in this respect."

Riporto nuovamente i dati per BD & compagnia (non c'è XV):

"The misprediction penalty is specified as minimum 20 clock cycles for conditional and indirect branches and 15 clock cycles for unconditional jumps and returns. My measurements indicated up to 19 clock cycles for conditional branches and 22 clock cycles for returns."

Facendo un confronto, nel caso migliore abbiamo 15 - 8 = 7 stadi, e in quello peggiore 22 - 19 = 3 stadi.

Certamente le pipeline sono più lunghe, ma non mi sembra che si possa affermare "a dismisura".
al contrario di bjt2, io non sono affatto convinto che il FO4 di ZEN sia rimasto invariato, se fosse il caso dovremmo attenderci turbo core ben superiore a quello visto con bulldozer, e soprattutto non si capirebbe il motivo per cui limitarsi a 95W con una frequenza base di poco superiore ai 3GHz....a meno di non avere problemi grossi con il silicio.
Zen e BD sono micro-architetture abbastanza diverse, per cui è plausibile che il FO4 sia cambiato.
ritornando alla tua domanda, la risposta è semplice: perchè ai transistor è richiesta una velocità di commutazione inferiore...
Esiste una relazione di proporzionalità inversa tra FO4 e frequenza a parità di Vcore.

i transistor in più per spezzare le pipeline, è sempre compreso in quel +10% di un modulo BD rispetto ad un solo core SB.
Premesso che un +10% di transistor soltanto per spezzare la pipeline mi sembra un'esagerazione, BD si porta dietro un +21% di transistor: dove sono finiti gli altri?
fermo restando che sei stato tu stesso ad affermare che è impossibile che in AMD non sapessero l'ipc di bulldozer a pochi mesi dal lancio,
Assolutamente. Ma anche molto prima, a meno di bug in parti che influenzino le prestazioni.

Una volta che hai il tuo chip funzionante, puoi farci girare del codice, fare dei test, e avere dei dati.

Lo Skylake A0 che ho avuto a disposizione aveva parecchi bug e alcune parti non funzionanti, ma potevo comunque far girare Windows, le applicazioni, e... i miei test. E stiamo parlando di un A0 Intel: il PRIMISSIMO tape-out!

Non ho fatto test prestazionali, e non ero al corrente se ci fossero dei bug che limitassero le prestazioni, ma avrei potuto documentarmi o chiedere, e far girare dei benchmark, se avessi voluto. Cosa che non ho fatto, perché mi pagavano per fare il mio lavoro. :fagiano:
e nonostante ciò hanno pubblicizzato un livello di prestazioni praticamente irraggiungibile.
Ed è forse la prima volta che capita? E' Intel o AMD a essere famosa per le sue slide? Come c'è arrivata a questa nomea?
E quindi se queste sono state ampiamente disattese, il motivo non può essere che ad una componente non sicura al 100% come il silicio (se non bastasse hanno sbagliato le previsioni di vcore e frequenza di k10 e anche le previsioni di vcore e frequenza della cache l3....tre indizi fanno una prova :rolleyes: )
L'ho già detto anche in passato che hanno fatto lo stesso errore di Intel col Pentium 4: un'architettura a basso IPC e frequenze elevate, nella speranza di ottenere queste ultime grazie ai futuri processi produttivi.

Evidentemente coi 32nm si aspettavano di più. Ma è stata una questione di fede. Disattesa. E non per questo si può imputare la causa al processo produttivo di per sé.

IBM, inoltre, ha saputo fare di meglio, ma aveva anche altri target sia prestazionali sia di consumi. Difatti i suoi chip hanno raggiunto frequenze elevate, ma con 220W di consumi.

Inoltre con la serie Z, sono aumentate enormemente le prestazioni sia sul ST sia sul MT, perché ha saputo sfruttare al meglio il maggior numero di transistor a disposizione. E in questo caso il silicio non c'entra: se decidi di utilizzare i transistor in un modo o in un altro, è una questione puramente progettale.
Vedi, in proposito, la differenza col POWER7+, per cui IBM ha preferito sfruttare i nuovi transistor per aumentare soltanto la cache L3, lasciando tutto il resto invariato.

Questo a dimostrazione che i transistor sono, invece, molto importanti.
queste misure lasciano davvero il tempo che trovano.
anche i 14nm hanno migliorato e di brutto il livello di integrazione rispetto a quanto permesso dai 28nm, all'atto pratico le gpu hanno visto guadagnare "solo" il 60% di transistor a mmq.
Forse perché i 14nm non sono reali? :O
Cosa c'è cdi incomprensibile in ciò che scrivo? L'ho scritto 1, 2, 3, 4, 5, 6 volte... il mercato AMD l'ha perso BD/32nm vs SB/32nm o l'ha perso BD/32nm vs Haswell/22nm e Broadwell/14nm?
Il punto è che già a 32nm s'è potuto vedere che la micro-architettura di AMD fosse intrinsecamente meno efficiente di quella Intel (e persino dei precedenti Phenom II in ST).

Poi è chiaro che, essendo rimasta al palo dei successivi 28nm, non abbia potuto sfruttare un silicio migliore.

Ma ciò non toglie che invece di ritoccare BD, che era oggettivamente scarsa (vedi i benchmark che ho postato prima), avrebbe potuto puntare a una micro-architettura diversa e più simile alle precedenti, che erano più efficienti.

Invece ha preferito far evolvere BD in tutte le salse, e soltanto con Zen ha dato un taglio netto col passato.
Non voglio sparare stronzate, ma AMD aveva più soldi all'epoca BD di quanti ne poteva avere per Zen, eppure ha fatto un tot di brevetti e per come ha operato Keller, non mi da manco di striscio un modo di lavoro con budget limitato... boh. Si parla di 250 milioni di $ lo sviluppo di Zen... e comunque c'è pure Polaris, Vega, APU... dove cacchio li ha trovati tutti sti soldi? L'ultima commissione di spicco, quella da 300 milioni di $, è servita per pagare GF per avere autonomia di produzione su silici alternativi, io tutti sti soldi in entrata non li vedo...
Perché quei soldi sono sparsi durante tutti e 4/5 anni di sviluppo: non è che AMD li ha scuciti tutti in un colpo...
No no, ti confondi con i tuoi compagni di merende :D che giustificavano i risultati mediocri di AMD con il 32nm rispetto ad IBM. Dopo tutte le prove portate da cdimauro con la serie Z (ibm) ancora lo menate con sto 32nm del pianto...:asd:
Infatti. Ed è interessante notare che IBM ha usato i benefici dei 32nm in maniera completamente diversa con POWER+ e zNext. Con quest'ultimo che, da mega CISC, si presta molto bene a un confronto con BD. :fagiano:
Discussione tra Dresdenboy, Instlat86 e quelli di Canard PC, molto interessante...

https://twitter.com/Dresdenboy/status/812053513031352326

Vari punti:

1) I test AIDA sono troppo belli per essere veri, per questo non li hanno ancora pubblicati. Throughput anche il doppio di Skylake su alcune istruzioni. Instlat86 risponde che skylake/kabylake hanno qualche problema sulla porta 5 e per alcune istruzioni anche bristol ridge ha througput doppio (esempio: VEXTRACTI128)
E' normale: sono micro-architetture diverse, per cui ci sono punti di forza / debolezza da ambo le parti.
2) Il sample che hanno quelli di Canard PC ha problemi con SMT e uopcache, e su semi dicono anche che la MB ha problemi e non ha il firmware per ES più nuovi. D'altronde è un ES A0. Quindi io prenderei con le pinze i risultati più bassi rispetto a New Horizon di Canard PC...
Ma non sono stati fatti gli stessi test, però. Le medie sono relative a bouquet di applicazioni, per "tipologia".

Inoltre non è dato sapere se questi bug affliggono le prestazioni, e in questo caso in che modo.
Altro tweet:

https://twitter.com/InstLatX64/status/813539775944785921
https://pbs.twimg.com/media/C0pEfFFWQAE3ZVi.jpg

Latenza delle cache... Finalmente decenti... :)
Sì, nettamente meglio rispetto al passato e in linea fra Haswell e Skylake.
https://translate.google.com/translate?sl=auto&tl=en&js=y&prev=_t&hl=en&ie=UTF-8&u=http%3A%2F%2Fpc.watch.impress.co.jp%2Fdocs%2Fcolumn%2Fkaigai%2F1036983.html&edit-text=&act=url

Maggiori dettagli sul branch prediciton di Zen. Anche qui sembra essere confermato la possibilità di predirre 2 salti per ciclo anche per lo stesso thread...
Lo schema di Zen, all'inizio, conferma il retire di massimo 8 uop. ;)

tuttodigitale
27-12-2016, 08:18
No no, ti confondi con i tuoi compagni di merende :D che giustificavano i risultati mediocri di AMD con il 32nm rispetto ad IBM. Dopo tutte le prove portate da cdimauro con la serie Z (ibm) ancora lo menate con sto 32nm del pianto...:asd:

L'unica prova fornita dalla serie Z, che il SOI dà i suoi frutti con architetture pensatemen e MAGGIORMENTE orientate al clock.

Il power7+ non è stato cosi fortunato: il 10% scarso sul p7 mi pare troppo poco per un die shrink

cdimauro
27-12-2016, 08:21
Ho già riportato i dati in passato, per ben due volte: rispetto a POWER7, il POWER7+ ha aumentato il clock, soprattutto col turbo, e consumando di meno.

zNext, in ogni caso, ha portato ENORMI miglioramenti prestazionali a prescindere dal clock (che peraltro è aumentato di poco): perché ha saputo sfruttare MOLTO MEGLIO i tanti transistor in più. :read:

bjt2
27-12-2016, 08:42
Inoltre non è dato sapere se questi bug affliggono le prestazioni, e in questo caso in che modo.

Difficile che bug sull'SMT e sulla cache uop non dia problemi prestazionali... Almeno uno dei 2... Poi anche MB in fase beta, dove non funzionano SSD e GPU NVidia... Anche qui difficile che non impatti le prestazioni almeno uno di questi fattori...

Lo schema di Zen, all'inizio, conferma il retire di massimo 8 uop. ;)

Penso a questo punto che il tizio abbia sbagliato la frase... Magari non è la sua lingua nativa (anche se io l'avrei saputo dire senza ambiguità, ma forse era voluta?)

Comunque lo schema del sito giapponese mi da un altro vantaggio per la microcode rom in quella posizione: può sparare 6 uops ciclo, anzichè 4...

tuttodigitale
27-12-2016, 08:55
Questo vale solo per le SRAM, che sono i circuiti più semplici.

Il grafico di AnandTech mostra uno scenario diverso. Infatti anche le versioni di SandyBridge con le GPU mostrano una densità diversa, segno che il tutto dipenda dal tipo di circuiti implementato.
su questo siamo d'accordo.


Il numero di transistor è fondamentale per stabile cosa fa il chip.

è fondamentale se il FO4 è comparabile....
se 2 cpu ad una frequenza X lavorano a 1V e l'altra a 1,4V, ti pare che sia così decisivo la grandezza del core?

i core Jaguar, che hanno 15 stadi (dato ufficiale), murano in OC con i 28nm HDL a 2,8GHz@1,475V....
valori molto diversi da quelli di XV.


Certamente le pipeline sono più lunghe, ma non mi sembra che si possa affermare "a dismisura".
le pipe sono in effetti solo leggermente più lunghe, mai detto il contrario


Premesso che un +10% di transistor soltanto per spezzare la pipeline mi sembra un'esagerazione, BD si porta dietro un +21% di transistor: dove sono finiti gli altri?
premesso che non ho fatto i conti sui transistor, ma di primo acchito direi che i 16MB vs 9 MB di cache tra l2 ed l3 siano i maggiori responsabili dell'aumento delle dimensioni del die (sono circa 350 milioni di transistor)..
e acnhe il die è occupata da molti collegamenti HT, necessari anche per la configurazione dual die, oltre ad essere progettati per essere installati in piattaforme 4P.


Com'è possibile, visto che il die di BD è del 46% più grande? Hai delle immagini di confronto?
Nessuna immagine di confronto, mi spiace


Assolutamente. Ma anche molto prima, a meno di bug in parti che influenzino le prestazioni.
OK.


L'ho già detto anche in passato che hanno fatto lo stesso errore di Intel col Pentium 4: un'architettura a basso IPC e frequenze elevate, nella speranza di ottenere queste ultime grazie ai futuri processi produttivi.

5,5GHz non sono una frequenza proibitiva per il SOI, architettura permettendo. e anche abbassando la frequenza non è che si recuperi tanta efficienza....l
poi se proprio vogliamo dirla tutta, c'è uno studio IBM in cui si consiglia un FO4 molto ridotto..


Vedi, in proposito, la differenza col POWER7+, per cui IBM ha preferito sfruttare i nuovi transistor per aumentare soltanto la cache L3, lasciando tutto il resto invariato.

per tale ragione mi sarei aspettato clock maggiore (4,25 vs 4,42 è praticamente la stessa cosa) considerando che di solito i maggiori benefici con lo shrink si hanno proprio con gli elementi a bassa complessità.



Il punto è che già a 32nm s'è potuto vedere che la micro-architettura di AMD fosse intrinsecamente meno efficiente di quella Intel (e persino dei precedenti Phenom II in ST).
l'obiettivo neppure tanto nascosto di AMD era di aumentare le prestazioni nel ST rispetto a k10, e ci sono riusciti.


Ma ciò non toglie che invece di ritoccare BD, che era oggettivamente scarsa (vedi i benchmark che ho postato prima), avrebbe potuto puntare a una micro-architettura diversa e più simile alle precedenti, che erano più efficienti.
ti sei già dimenticato che k10 è stato il primo progetto shrinkato sui 32nm...:rolleyes: e a 3 GHz aveva un vcore di 1,4V....

paolo.oliva2
27-12-2016, 10:27
Io non mi intendo di software, ma si continua a dire che nei giochi conti IPC*Frequena (visto come potenza massima a core) e che un numero di core >4 sia perfettamente inutile perchè il software non sarebbe in grado di sfruttare.

Ma allora perchè le console game sono l'esatto contrario? IPC*frequenza bassi e 8 core? Perchè AMD ha vinto tutte le commesse? Stando al discorso sopra, un i3 3GHz dovrebbe dare di più e non credo che AMD abbia venduto un Jaguar X8 perchè minor prezzo di un i3 magari perfino senza iGPU.

Le console possono avere uno sviluppo software proprietario, nel senso studiato appositamente per gli 8 core? Ma allora... se ci fosse un'invasione di software game progettato per 8 core e non 8TH, come risulterebbe il mercato?

Gioz
27-12-2016, 10:34
Io non mi intendo di software, ma si continua a dire che nei giochi conti IPC*Frequena (visto come potenza massima a core) e che un numero di core >4 sia perfettamente inutile perchè il software non sarebbe in grado di sfruttare.

Ma allora perchè le console game sono l'esatto contrario? IPC*frequenza bassi e 8 core? Perchè AMD ha vinto tutte le commesse? Stando al discorso sopra, un i3 3GHz dovrebbe dare di più e non credo che AMD abbia venduto un Jaguar X8 perchè minor prezzo di un i3 magari perfino senza iGPU.

Le console possono avere uno sviluppo software proprietario, nel senso studiato appositamente per gli 8 core? Ma allora... se ci fosse un'invasione di software game progettato per 8 core e non 8TH, come risulterebbe il mercato?
sviluppare su console è diverso.
tu hai un Hw chiuso con degli sdk e la possibilità di monitorare effettivamente quanto saturi delle risorse a disposizione.
su pc devi gestire la cosa in maniera impersonale per renderlo fruibile a vari livelli con architetture e capacità di calcolo diverse.
spesso su pc fanno porting fatti male proprio perché per girare su tutto le risorse vengono gestite in maniera poco ottimizzata.

bjt2
27-12-2016, 10:36
Io non mi intendo di software, ma si continua a dire che nei giochi conti IPC*Frequena (visto come potenza massima a core) e che un numero di core >4 sia perfettamente inutile perchè il software non sarebbe in grado di sfruttare.

Ma allora perchè le console game sono l'esatto contrario? IPC*frequenza bassi e 8 core? Perchè AMD ha vinto tutte le commesse? Stando al discorso sopra, un i3 3GHz dovrebbe dare di più e non credo che AMD abbia venduto un Jaguar X8 perchè minor prezzo di un i3 magari perfino senza iGPU.

Le console possono avere uno sviluppo software proprietario, nel senso studiato appositamente per gli 8 core? Ma allora... se ci fosse un'invasione di software game progettato per 8 core e non 8TH, come risulterebbe il mercato?

Le console moderne hanno molti processi in background e un vero sistema operativo. Servono core per far girare tutta quella roba senza rallentare il gioco. Inoltre ci sono altre cose che richiedono cores: la telecamera 3D di Xbox ad esempio...

Gioz
27-12-2016, 10:51
Perchè AMD ha vinto tutte le commesse?
mi sono accorto di aver saltato questo punto.
la ragione può riguardare esclusivamente il prezzo e le potenzialità del connubio cpu/gpu offerta.
la ps3 ad esempio, o la prima xbox, avevano gpu nvidia ma abbinate ad altri processori(il cell ed un celeron 700 - mi pare - per fare un esempio). ora andando in direzione simil pc con architettura di tipo x86 (probabilmente per facilità di programmazione, e nel caso di M$ in particolare per la derivazione dell'o.s. e delle librerie da quelle dell'o.s. pc) non esiste un'alternativa paragonabile ad amd perché:
-intel lato gpu è comunque ad un livello prestazionale inferiore ed è l'aspetto più rilevante nei giochi, che non può essere compensato da cpu più performante (per intenderci una gtx 1080 su un fx 4300 ti offre di più di una gtx 750 su un i7 6700K);
-rimane il pressoché certo abbattimento dei costi prendendo una fornitura unica di apu da amd anziché ad esempio una gpu da nvidia o ati ed una cpu da terzi (ad esempio la xbox 360 vedeva abbinato un ppc ed una gpu ati - che sarà probabilmente costata meno di una nvidia).

Gioz
27-12-2016, 12:16
- il design termico del prodotto è (molto) semplificato se c'è un solo hot spot invece di due e di nuovo costa molto meno.
vero, non l'avevo preso in considerazione, e al contempo può agevolare la gestione interna/ingombri.

Crysis90
27-12-2016, 12:32
su B&C la notizia è uscita settimana scorsa
http://www.bitsandchips.it/forum/viewtopic.php?f=3&t=11549

Azz. :(

digieffe
27-12-2016, 12:36
Azz. :(

non solo... l'avevo pure riportata... non siete attenti :D

tuttodigitale
27-12-2016, 13:23
Le console moderne hanno molti processi in background e un vero sistema operativo. Servono core per far girare tutta quella roba senza rallentare il gioco. Inoltre ci sono altre cose che richiedono cores: la telecamera 3D di Xbox ad esempio...

non è solo quello. Anche le librerie fanno certamente la parte da leone, e quelle dx11 sono fortemente legate alle prestazioni del singolo thread.

http://www.bozzabench.com/Portals/1/test/cpu/CPU-scaling-games/dx12-vs-dx11-cpu-utilization.png

tuttodigitale
27-12-2016, 13:51
Io non mi intendo di software, ma si continua a dire che nei giochi conti IPC*Frequena (visto come potenza massima a core) e che un numero di core >4 sia perfettamente inutile perchè il software non sarebbe in grado di sfruttare.

Ma allora perchè le console game sono l'esatto contrario? IPC*frequenza bassi e 8 core? Perchè AMD ha vinto tutte le commesse? Stando al discorso sopra, un i3 3GHz dovrebbe dare di più e non credo che AMD abbia venduto un Jaguar X8 perchè minor prezzo di un i3 magari perfino senza iGPU.

Le console possono avere uno sviluppo software proprietario, nel senso studiato appositamente per gli 8 core? Ma allora... se ci fosse un'invasione di software game progettato per 8 core e non 8TH, come risulterebbe il mercato?
jaguar come dicevo nei miei ultimi post, è un'architettura impressionante se consideriamo le sue minuscole dimensioni......tra 8 core+4MB di l2 occupa appena 45mmq...un i3, se stringiamo la valuzione ai core e alle cache ha grossomodo le stesse dimensioni sui 32nm bulk, e sui finfet non so quanto sia giusto paragonare i costi in base alle dimensioni.
Senza considerare il fatto che un prodotto monolitico permette di riutilizzare transistor, come il MC di PS4....

dall'altra è inutile girarci attorno, se non sarebbero in grado di sfruttare i core non avrebbero valutato una soluzione del genere, dotata di prestazioni molto basse nel ST, ma avrebbero semplicemente continuato ad utilizzare soluzione gpu e cpu distinte.

bjt2
27-12-2016, 14:02
non è solo quello. Anche le librerie fanno certamente la parte da leone, e quelle dx11 sono fortemente legate alle prestazioni del singolo thread.

http://www.bozzabench.com/Portals/1/test/cpu/CPU-scaling-games/dx12-vs-dx11-cpu-utilization.png

Beh certo... Le DX 12 hanno le loro richieste... :D

Ryddyck
27-12-2016, 16:31
Non so se già postato ma quella preview non finiva lì, c'era anche altro in merito a ryzen http://imgur.com/a/qo9pH

stefanonweb
27-12-2016, 17:01
Chiedo agli esperti: Una Apu Zen 4c/8t a che cpu sky/kaby lake potrebbe essere paragonata come prestazioni lato x86 secondo i calcoli fino a qui stimati? E teoricamente quando potrebbero verosimilmente essere commercializzate? Grazie.

bjt2
27-12-2016, 17:04
Non so se già postato ma quella preview non finiva lì, c'era anche altro in merito a ryzen http://imgur.com/a/qo9pH

Varie cose:

IBQ: coda dei bytes dalla L1I. 20x16Bytes. Nelle vecchie CPU era 2 o 4 (non ricordo, comunque poco) x16B. 10 per thread in modalità SMT.
Interessante.

uop cache: 2k istruzioni. Per INTEL se non sbaglio è 1.5K e in Zen comunque non ci vanno le istruzioni microcodificate perchè c'è solo il puntatore. Inoltre in genere le MOP AMD sono più dense delle uop INTEL, ossia in media un programma è tradotto in meno uops in AMD.
Interessantissimo se vero.

uop cache throughput: 8uops ciclo. Questo non è specificato nelle slide di hot chips (ho verificato: 6uop ciclo è il dispatch, come detto anche dai francesi, ma l'output dalla uop cache non era specificato), inoltre mancano microcode rom e stack memfile dal diagramma. Confronta con INTEL che ha 1.5K entry e 6 uop ciclo.
Interessantissimo se vero.

devil_mcry
27-12-2016, 17:21
Immagino di si ma questa review l'avevate vista?

https://www.tomshw.it/cpu-amd-ryzen-primi-test-indipendenti-fx-8370-umiliato-82314

Premesso che i dati di per se sono sicuramente positivi, credevo andasse un po' di più nei giochi, lo volevo mettere nella prossima build da gaming ma a questo punto non sono tanto sicuro mi convenga a un Skylake 6/12, almeno in termini ludici perché poi a 360° è pure meglio probabilmente mmm

devil_mcry
27-12-2016, 17:51
È sempre la solita solfa, io giochi non usano tutti i core e di conseguenza la frequenza è più importante del numero di core.
CPU con meno core possono permettersi di avere più frequenza e questo vale anche per gli intel come si vede dalla stessa recensione (nei giochi gli i7 4/8 superano i 6/12 e 8/16).
Aggiungici che quei campioni di Zen sono limitati in frequenza e i definitivi avranno frequenze leggermente più alte.

Per giocare andranno meglio i 4/8 ancora per un po', anche Zen uscirà con versioni 4/8 con frequenze superiori immagino.

Si ma io non prenderei un 4/8 ma credo un 6/12 Skylake-E (punto al segmento 500$) quindi considerando che è un pelo più veloce nel MT non dovrebbe essere tanto distante nemmeno da quel punto di vista. Tanto probabilmente non farò più overclock per motivi di spazio/termici (punto a una roba simil itx o m-atx)

Roland74Fun
27-12-2016, 17:54
Ma che senso ha riportare un dato accorpato di giochi vecchi, che già con un i5/8350+ vga di fascia alta fanno 70/80 fps seppur in condizione di cpu limited? A quanto pare per l'anno prossimo saremo tutti pronti con monitor 21/9 a 144hz e sli di titan pascal già montato in attesa di cpu capaci di reggere.

http://uploads.tapatalk-cdn.com/20161227/8337ce7a0bfd0f394170081a27d4a875.jpg

Ovviamente non saranno tutti così ma
l'andazzo é più o meno questo, se poi vogliamo ancora pensare in termini di 1366x768....dual core....

digieffe
27-12-2016, 18:39
Immagino di si ma questa review l'avevate vista?

https://www.tomshw.it/cpu-amd-ryzen-primi-test-indipendenti-fx-8370-umiliato-82314

Premesso che i dati di per se sono sicuramente positivi, credevo andasse un po' di più nei giochi, lo volevo mettere nella prossima build da gaming ma a questo punto non sono tanto sicuro mi convenga a un Skylake 6/12, almeno in termini ludici perché poi a 360° è pure meglio probabilmente mmm

è un esemplare A0 undercloccato aggiungi un 6-9% a quei risultati

digieffe
27-12-2016, 18:50
Chiedo agli esperti: Una Apu Zen 4c/8t a che cpu sky/kaby lake potrebbe essere paragonata come prestazioni lato x86 secondo i calcoli fino a qui stimati? E teoricamente quando potrebbero verosimilmente essere commercializzate? Grazie.

più che altro dipenderà dal tdp assegnato alla cpu... potrebbe essere sotto di un 10-15% il 7700k tdp permettendo

Ale55andr0
27-12-2016, 19:01
Immagino di si ma questa review l'avevate vista?

https://www.tomshw.it/cpu-amd-ryzen-primi-test-indipendenti-fx-8370-umiliato-82314

Premesso che i dati di per se sono sicuramente positivi, credevo andasse un po' di più nei giochi, lo volevo mettere nella prossima build da gaming ma a questo punto non sono tanto sicuro mi convenga a un Skylake 6/12, almeno in termini ludici perché poi a 360° è pure meglio probabilmente mmm


Mah, ho visto una comparativa fra 6700 e 6900k e il quad sparato non aveva chissà che margine, a volte pure meglio. E quel ryzen poi è cloccato più basso rispetto agli esemplari definitivi

http://techbuyersguru.com/intels-core-i5-6600k-vs-i7-6700k-vs-i7-6900k-games?page=1


Se poi si ama giocare hardcore si maxa e si va pure di dsr 1440p+ visto anche i pessimi aa via shader ormai diffusi come le zanzare, e in simili contesti la differenza è nulla. Per me gia oggi otto core vanno bene in un pc gaming che vuole essere longevo come lo furono quelli con un q9550 invece di un e8500...coi primi giochi pure oggi e più che dignitosamente con una buona vga...coi secondi....

mircocatta
27-12-2016, 19:46
Immagino di si ma questa review l'avevate vista?

https://www.tomshw.it/cpu-amd-ryzen-primi-test-indipendenti-fx-8370-umiliato-82314

Premesso che i dati di per se sono sicuramente positivi, credevo andasse un po' di più nei giochi, lo volevo mettere nella prossima build da gaming ma a questo punto non sono tanto sicuro mi convenga a un Skylake 6/12, almeno in termini ludici perché poi a 360° è pure meglio probabilmente mmm
qui si vede meglio
http://i.imgur.com/0ZdAHGk.jpg
beh, se è vero che sono sample con clock leggeri (e a parer mio è probabile al 98% visto che i clock riportati nel test) beh che dire...tanto di cappello.. perchè se già a 3.4ghz morde le caviglie agli i5 con frequenze decisamente superiori..beh a 4ghz andrà davvero forte

poi vabè, i test saranno stati fatti a risoluzioni ridicole (imho), in 4k le differenze saranno minimali

devil_mcry
27-12-2016, 19:49
Si ma io non gioco a 4K (ne ci giocherei :D) non voglio spendere 1200€ di VGA :P perché di solito la cambio con più frequenza

Tanto comunque fino a che non esce non compro niente, non ha senso spendere ora

mircocatta
27-12-2016, 19:52
Mah, ho visto una comparativa fra 6700 e 6900k e il quad sparato non aveva chissà che margine, a volte pure meglio. E quel ryzen poi è cloccato più basso rispetto agli esemplari definitivi

http://techbuyersguru.com/intels-core-i5-6600k-vs-i7-6700k-vs-i7-6900k-games?page=1


Se poi si ama giocare hardcore si maxa e si va pure di dsr 1440p+ visto anche i pessimi aa via shader ormai diffusi come le zanzare, e in simili contesti la differenza è nulla. Per me gia oggi otto core vanno bene in un pc gaming che vuole essere longevo come lo furono quelli con un q9550 invece di un e8500...coi primi giochi pure oggi e più che dignitosamente con una buona vga...coi secondi....

ma poi non capisco, nessuno che testa il 6900k con l'HT disattivato?

e questi ryzen, avranno l'HT disattivabile?

comunque se può interessare... alta risoluzione (la mia) con cpu 4/8 vs 8/16... il 6700k regna... ma in dx12 (quello che dovrebbe diventare uno standard) le parti si invertono
http://www.overclock.net/t/1608309/x99-5960x-4-6-vs-z170-6700k-4-8-w-1080-sli-3440x1440

mircocatta
27-12-2016, 20:00
Si ma se non hai una gpu da 1200€ non ti serve una cpu esageratamente potente per spingerla al massimo. :)

ma a parte che non serve necessariamente una vga da 1200€ e uno schermo 4k

1440p e una 1070 puoi già pensare di affiancarci una cpu top per trarne il meglio!

Gioz
27-12-2016, 20:13
Si ma se non hai una gpu da 1200€ non ti serve una cpu esageratamente potente per spingerla al massimo. :)
se l'intenzione è unicamente fare un pc da gaming con i giochi attuali un 6/12 o un 8/16 sono una spesa ingiustificata ma per riprendere l'esempio di alessandro un core 2 quad ancora potrebbe andare con titoli attuali mentre un dual core più spinto ed anche più moderno può fare più fatica, in un certo senso, la spesa della piattaforma si potrebbe ammortizzare grazie alla sua longevità.

credo sia un po' come prendere una scheda di fascia media/medio-bassa ogni 2-3 generazioni spendendo tra 200 e 250€ circa, oppure optare per qualcosa sui 400-450€ venendo gradualmente a compromessi, complessivamente spendi circa la stessa cifra ma in un caso la spalmi in un lasso temporale più ampio ottenendo "meno subito" e compensando dopo, nell'altro caso hai di più subito e poi arrivi a condizioni simili col tempo...con la differenza che se per caso, lato cpu, c'è il salto di piattaforma si sommano anche spese per altri elementi(come ram e scheda madre), ad esempio da 115x a 2011 per cpu di stessa generazione e diversa conta di core/th, e facendo due volte un sistema "medio" potresti complessivamente spendere più che puntando direttamente qualcosa di categoria superiore.
ma finché non si conosceranno prezzi ufficiali e giungeranno le recensioni sulle cpu definitive è difficile farsi un'idea.

paolo.oliva2
27-12-2016, 22:07
Comunque secondo me la "guerra" si potrebbe spostare tra Zen X8 e Skylake-E X6.

Mi viene da pensare così... perchè se Zen andrà forte nei giochi e collegando i prezzi ai rumors, credo difficile anche per il brand Intel continuare con i 6700K/7700K, ma Intel potrebbe driblare offrendo Skylake-E X6 scriccando un po' le frequenze, quindi un pelo meno di un 7700K in ST ma un tot in più in MT, ed unito ad un prezzo più competitivo, simile almeno alla base di Zen X8, ecco il prodotto del futuro, per Intel.

@devil_mcry
Il discorso di un X6 Skylake o Zen, è tutto racchiuso in quale frequenza massima riuscirà ad arrivare AMD con Zen, perchè se ho capito quello che cerchi, preferiresti un X6 con potenze a core il più simili possibile agli i7 X4, con +50% di core e quindi con più MT.

Non abbiamo info in proposito, ma un dato certo lo abbiamo: Zen, nativamente, che sia APU o solamente X86, passerebbe da X4 a X8, X6, se non fallato , non esisterà, e anche se fallato, non potrà mai avere volumi commerciali tali da presentare un modello in larga scala.

La soluzione, è che AMD dovrebbe far lavorare un X8 il più possibile simile a quello che potrebbe essere un X6 Skylake. Info precise non ci sono, ma il turbo implementato su Zen, almeno per quanto si sa, credo che sia molto spinto, cioè spegnere i core non sotto carico tanto da arrivare a frequenze del tutto simili a quelle che avrebbe un procio nativo con quel numero di core.

paolo.oliva2
27-12-2016, 22:14
Le ultime news, quelle che darebbero Zen a marzo, sinceramente per me sono vere.

2 punti:

Il 1°, se AMD fosse avanti con l'affinamento, più avanti di quel generico 3,4GHz+ per un X8+8, avrebbe senz'altro una idea più precisa, quindi sapere che ad esempio i 3,8GHz def sarebbero raggiunti, avrebbe preso il penultimo ES, oscurato i cosumi, e benchato su di esso.

2° E' ovvio che il 1° punto escluderebbe che GF stia producendo Zen in volumi, il che almeno almeno prolungherebbe di 45 giorni la data. Già saremmo a febbraio... marzo è lì lì.

Gioz
27-12-2016, 22:36
Dicevo 1200€ per rispondere a lui :D



Se permetti, io ho un core 2 quad e col cavolo che può andare nei titoli attuali.
Attuali ma manco tanto, ad assassin's creed black flag ci ho giocato a malapena con media di 40 fps con la rx480 (e 30 fps con la gtx1060), crysis 3 zoppica giusto per citare due giochi che ho giocato di recente.

Con schede come la 480 e la 1060 certo non serve un 6 core o un 8, ma chi ha schede veramente top come la 1080 e prima le 980ti magari in sli con 8 core la differenza l'aveva.
Poi sono segmenti che a me non interessano, ma giusto per riportare quanto di è riscontrato tra i vari utenti del forum.

Per il resto concordo con te, infatti se il prezzo è ragionevole punterei su una cpu di fascia alta per farla durare a lungo anche se so che per un po' più di 4 core non li sfrutterò molto, ma prima o poi serviranno.
bhè molto sta a cosa intendi per far andare ancora i giochi. una media di 40fps rende fruibili molti titoli, poi chiaro che se non ti accontenti e vuoi giocarli a 60 fps o superiore il discorso cambia.
quel che intendo io per li "fa girare ancora" è che risultano giocabili e apprezzabili, non che ovviamente girino al pari di un sistema nuovo con componenti top di categoria.

capitan_crasy
27-12-2016, 22:39
Rumors di digitimes.com sulla presunta uscita di Ryzen: fine febbraio 2017...

Clicca qui... (http://www.digitimes.com/news/a20161226PD208.html)

Pozhar
27-12-2016, 22:47
Bisognerà vedere se la commercializzazione avverrá subito in volumi. Oppure quindi a questo punto se ne parla veramente ( e se tutto va bene) a fine marzo.

paolo.oliva2
28-12-2016, 00:05
Bisognerà vedere se la commercializzazione avverrá subito in volumi. Oppure quindi a questo punto se ne parla veramente ( e se tutto va bene) a fine marzo.

Se la memoria non mi inganna, con il Phenom II X4 ci sono voluti circa 45 giorni... 30 per il Thuban e 45 giorni per Zambesi. Presumo che dando la data fine febbraio, la produzione dovrebbe iniziare i primi di gennaio.

Poi alla fine non è che dica più di tanto... anche perchè nella prima settimana di solito il prezzo è un +10% di quello dichiarato da AMD, per poi normalizzarsi nella seconda per poi scendere di un 5/10 nella 3a.

Alla fine se la prima settimana di marzo o la 2a o la 3a, dice poco.

"Grazie alla forte domanda di serie la scheda grafica di Polaris, la quota di mercato GPU di AMD ha recentemente tornato al 30% e con le promozioni di Ryzen e nuovi prodotti della serie Vega, le fonti si aspettano la quota di AMD per avere la possibilità di tornare al 40% entro la fine del 2017."

Cosa si intende? Promozioni nel senso di articolo in uscita o promozione Zen + VGA?

mircocatta
28-12-2016, 00:19
imho faranno un pacchetto aggiornamento pc con mobo ram cpu e gpu a un prezzo "economico"

cdimauro
28-12-2016, 09:12
Difficile che bug sull'SMT e sulla cache uop non dia problemi prestazionali... Almeno uno dei 2...
Nell'articolo francese parla di problemi di stabilità, quando cita esattamente questi problemi. Successivamente parla anche di "prestazioni minime".

Ma io non sono francofono, per cui potrei sbagliarmi. :fagiano:
Poi anche MB in fase beta, dove non funzionano SSD e GPU NVidia... Anche qui difficile che non impatti le prestazioni almeno uno di questi fattori...
Dipende dai test che fai. Per i giochi, sicuramente. Per le applicazioni che macinano dati, e dunque stressano soltanto la CPU (e memorie), allora no.
Penso a questo punto che il tizio abbia sbagliato la frase... Magari non è la sua lingua nativa (anche se io l'avrei saputo dire senza ambiguità, ma forse era voluta?)
Anche secondo me si sarà sbagliato.
Comunque lo schema del sito giapponese mi da un altro vantaggio per la microcode rom in quella posizione: può sparare 6 uops ciclo, anzichè 4...
Ho visto che hanno collegato l'uscita l'uop-ROM direttamente all'uscita della uop-queue (dunque al dispatcher), che mi pare un po' strano, perché risulta diverso dallo schema che ha presentato AMD.

Comunque prendendolo per buono, sembra che in presenza di un'istruzione (diventata una specifica uop, a questo punto) microcodificata il controllo passi dalla uop-cache alla uop-ROM, che controlla il dispatcher. In pratica l'esecuzione normale si stalla, finché non viene completata quella del microcodice. Il che mi sembra logico in questi casi.

Meno male che sono casi rari.
è fondamentale se il FO4 è comparabile....
se 2 cpu ad una frequenza X lavorano a 1V e l'altra a 1,4V, ti pare che sia così decisivo la grandezza del core?

i core Jaguar, che hanno 15 stadi (dato ufficiale), murano in OC con i 28nm HDL a 2,8GHz@1,475V....
valori molto diversi da quelli di XV.
Non ci siamo capiti. Mi riferivo al fatto che coi transistor definisco il comportamento del chip, in termini prestazionali.

Vedi SandyBridge, nello specifico, che nonostante abbia a disposizione meno transistor di BD, li usa per ottenere ottime prestazioni sia in ST sia in MT.
le pipe sono in effetti solo leggermente più lunghe, mai detto il contrario
Prima avevi scritto questo:

"Il fatto che l'ipc superiore a Jaguar, sia ottenuto allungando a dismisura le pipeline, ha permesso di ridurre il consumo"

Se sono leggermente più lunghe, non si capisce in che modo XV abbia potuto beneficarne per ridurre così tanto i consumi rispetto a Jaguar, pur lavorando a frequenze ben più elevate, e con più transistor.
premesso che non ho fatto i conti sui transistor, ma di primo acchito direi che i 16MB vs 9 MB di cache tra l2 ed l3 siano i maggiori responsabili dell'aumento delle dimensioni del die (sono circa 350 milioni di transistor)..
Makes sense. Però la cache non incide così tanto sui consumi (rispetto a tutto il core, intendo).
e acnhe il die è occupata da molti collegamenti HT, necessari anche per la configurazione dual die, oltre ad essere progettati per essere installati in piattaforme 4P.
Quindi AMD avrebbe fatto pagare il costo di un progetto server anche alle sue soluzioni desktop.
Nessuna immagine di confronto, mi spiace
Ma allora come fai a dire che i core di BD e SB sono sovrapponibili?
5,5GHz non sono una frequenza proibitiva per il SOI, architettura permettendo. e anche abbassando la frequenza non è che si recuperi tanta efficienza....l
Sì, ma a quelle frequenze i consumi sono molto elevati. IBM docet.

Per il resto non so quale sia la forbice fra SOI e Bulk. Sappiamo per certo che Intel col suo processo BULK, e dunque orientato alle alte prestazioni, non sia andata molto in alto con le frequenze (SB i7-2700K 4C/8T è arrivato a 3.5Ghz base, 3.9Ghz turbo, in 95W. i7-3970X 6C/12T a 3.5/4.0 in 150W). Non so a quanto sarebbe potuto arrivare in frequenza il SOI alle stesse condizioni.

Sempre per chiarezza, mi chiedo se, tolto di mezzo il processo a 32 nm, per tutti quelli precedenti ci fossero marcate differenze fra SOI e BULK in termini di massime frequenze raggiunte (con analoghi consumi).
poi se proprio vogliamo dirla tutta, c'è uno studio IBM in cui si consiglia un FO4 molto ridotto..
Per raggiungere frequenze elevate, ovviamente. E per far questo devi allungare la pipeline, come già discusso. Ma la pipeline di BD & successori non è molto più lunga delle altre architetture, anche in casa AMD, sempre come abbiamo avuto modo di vedere.

Peraltro in casa Intel abbiamo avuto il già citato Pentium 4, che ha fatto storia coi suoi 20 stadi di pipeline (Willamette prima e Northwood poi). E 31 con Prescott, che però ha guadagnato soltanto pochi Mhz su Northwood. E immagino che entrambi avessero FO4 molto bassi.
per tale ragione mi sarei aspettato clock maggiore (4,25 vs 4,42 è praticamente la stessa cosa) considerando che di solito i maggiori benefici con lo shrink si hanno proprio con gli elementi a bassa complessità.
Ricordi male. Avevo già riportato che POWER7 raggiunge i 4,25Ghz soltanto in turbo usando la metà dei core. POWER7+ i 4,4Ghz li raggiunge con tutti i core (e consumano anche meno). Dunque fra POWER7 e POWER7+ c'è almeno un 10% di differenza "pura", in favore del secondo.
l'obiettivo neppure tanto nascosto di AMD era di aumentare le prestazioni nel ST rispetto a k10, e ci sono riusciti.
Non mi pare proprio. (http://www.anandtech.com/show/4955/the-bulldozer-review-amd-fx8150-tested/7) Notare i test single-thread con Cinebench, e il first pass di x264 (anch'esso usa sostanzialmente un solo thread).
Rimane sotto (http://www.anandtech.com/show/4955/the-bulldozer-review-amd-fx8150-tested/8) anche in Crysis: Warhead, Dirt 3, e infine in Rage vt_benchmark (con un solo thread, ovviamente)
ti sei già dimenticato che k10 è stato il primo progetto shrinkato sui 32nm...:rolleyes: e a 3 GHz aveva un vcore di 1,4V....
Premesso che non sappiamo cos'abbiano combinato, mi riquoto:

"una micro-architettura diversa e più simile alle precedenti"

Simile: non uguale.
Io non mi intendo di software, ma si continua a dire che nei giochi conti IPC*Frequena (visto come potenza massima a core) e che un numero di core >4 sia perfettamente inutile perchè il software non sarebbe in grado di sfruttare.

Ma allora perchè le console game sono l'esatto contrario? IPC*frequenza bassi e 8 core? Perchè AMD ha vinto tutte le commesse? Stando al discorso sopra, un i3 3GHz dovrebbe dare di più e non credo che AMD abbia venduto un Jaguar X8 perchè minor prezzo di un i3 magari perfino senza iGPU.

Le console possono avere uno sviluppo software proprietario, nel senso studiato appositamente per gli 8 core? Ma allora... se ci fosse un'invasione di software game progettato per 8 core e non 8TH, come risulterebbe il mercato?
Le console sono basate su SoC AMD perché Sony e Microsoft sono riuscite a strappare un contratto estremamente vantaggioso per loro, e ovviamente con margine ridotto per AMD. nVidia, se non ricordo male, si rifiutò di scendere così tanto coi margini. Per quanto riguarda Intel, non so sia mai stata contattata, ma ricordo che per la PS4 si parlò di un interessamento per l'architettura Larrabee di Intel.

Per il resto molti piccoli core a bassa frequenza consumano molto meno di pochi grossi core ad alta frequenza. Ecco perché si è puntato a soluzioni del genere.

Inoltre l'esperienza pregressa con XBox360 prima e PS3 poi, che avevano molti core/thread, ha contribuito a far diffondere la programmazione multithread nei giochi, che si prestano bene per tanti tipi di algoritmi che sono parallelizzabili (e/o vettorizzabili).

L'ultimo collodi bottiglia era rappresentato dalle librerie grafiche, che erano sostanzialmente mono-core/thread (vedi i grafici di tuttodigitale), ma che è stato risolto con le ultime console, e portato nei PC con le DirectX12.

Dunque si vedranno sempre più giochi utilizzare più core/thread... e istruzioni vettoriali (che è anche il motivo per cui, rispetto a PS3 e XBox360, i piccoli core Jaguar di PS4 e XBoxOne fanno meglio: le AVX consentono di processare fino al doppio dei dati a parità di clock).
uop cache: 2k istruzioni. Per INTEL se non sbaglio è 1.5K e in Zen comunque non ci vanno le istruzioni microcodificate perchè c'è solo il puntatore.
Sì, SE vengono utilizzate. :D
Inoltre in genere le MOP AMD sono più dense delle uop INTEL, ossia in media un programma è tradotto in meno uops in AMD.
Dipende dalle istruzioni e dalle uop. Non dimentichiamo il fatto che ci sono uop "merged" (due istruzioni in una uop), e uop che che sono fused (2 uop in una).
uop cache throughput: 8uops ciclo. Questo non è specificato nelle slide di hot chips (ho verificato: 6uop ciclo è il dispatch, come detto anche dai francesi, ma l'output dalla uop cache non era specificato), inoltre mancano microcode rom e stack memfile dal diagramma. Confronta con INTEL che ha 1.5K entry e 6 uop ciclo.
Interessantissimo se vero.
E' da vedere, perché per la uop cache parlo di 8 istruzioni (non uop) per ciclo.

Inoltre nelle slide di AMD non c'è nessun dato di questo tipo, mentre ho trovato per ben 2 volte specificato che si possono ritirare 8 uop per ciclo di clock (dunque confermando ulteriormente questo dato).

paolo.oliva2
28-12-2016, 09:15
Io ho fatto alcune riflessioni... ma siamo veramente sicuri che Zen risulterà veramente sotto ad un 6900K?

Fino ad oggi si è partiti che l'IPC di Zen doveva essere inferiore a quello Intel, semplicemente dal presupposto che AMD aveva fatto vedere dei confronti in cui Zen risultava di pochissimo sopra e presumibilmente scelti da AMD dove Zen sarebbe risultato migliore.
Però abbiamo avuto molte info che riportano quegli Zen usati nei confronti, zeppi di bug, quindi non è difficile ipotizzare che abbiano mostrato un IPC inferiore a quanto ottenibile da una architettura finita.

A me ha dato l'ideache nell'ultimo confronto Zen era leggermente più performante rispetto al 1° confronto.

Ma facendo un ragionamento tondo, forse ci siamo dimenticati di valutare un aspetto ben preciso, cioè che Zen era bloccato alla frequenza def con quella turbo disattivata, mentre il 6900K era in condizione commerciale, e dai 3,2GHz def ha lavorato ad una frequenza minima di 3,4GHz e pure 3,5GHz.

E bisogna pure aggiungere che i 3,4GHz, per dichiarazione ufficiale AMD, sembra non essere la frequenza massima per Zen, quindi facciamo un semplice esempio:

Zen 3,4GHz bloccato = 6900K def 3,2GHz (3,4/3,5GHz in turbo).

ma Zen potrebbe avere 3,5GHz def, e quindi +3% di frequenza def, e ipotizzando un turbo su tutti i core a 3,8GHz, arrivare a +11/12% rispetto all'ES del confronto.

Se Zen dovesse avere un -10% di IPC rispetto ad un 6900K, dovrebbe essere recuperato in toto dalle frequenze superiori... per arrivare comunque ad un -10%, dovrebbe avere un IPC sopra il -20% inferiore, e giudicare sto valore come media, mi sembra difficile, perchè per quanto non si è visto, per arrivare ad una media del -20%, dovrebbero esserci parti in cui dovrebbe arrivare a -30/-40%...

Roland74Fun
28-12-2016, 09:23
Se esce, e vedendo i risultati dei francesi, il mio modello potrebbe essere un 8c/16t con base clock di 3GHz :>



Questa immagine è bellissima, come hanno scelto l'ordine in cui mettere le CPU in questa tabella? :asd:
In genere la classifica viene stilata in base agli FPS minimi.
In questpi caso limite, penso che oltre ai due gruppi in base al colore, siano stati ordinati tenendo conto del prezzo medio di vendita.

bjt2
28-12-2016, 09:33
E' da vedere, perché per la uop cache parlo di 8 istruzioni (non uop) per ciclo.

Inoltre nelle slide di AMD non c'è nessun dato di questo tipo, mentre ho trovato per ben 2 volte specificato che si possono ritirare 8 uop per ciclo di clock (dunque confermando ulteriormente questo dato).

Comunque tra il tizio amd, il sito giapponese e la rivista francese che dicono 3 cose diverse io non mi fido più di nessuno... :fagiano: Aspettiamo le MISURE di Agner Fog...

paolo.oliva2
28-12-2016, 09:38
Le console sono basate su SoC AMD perché Sony e Microsoft sono riuscite a strappare un contratto estremamente vantaggioso per loro, e ovviamente con margine ridotto per AMD. nVidia, se non ricordo male, si rifiutò di scendere così tanto coi margini. Per quanto riguarda Intel, non so sia mai stata contattata, ma ricordo che per la PS4 si parlò di un interessamento per l'architettura Larrabee di Intel.

Per il resto molti piccoli core a bassa frequenza consumano molto meno di pochi grossi core ad alta frequenza. Ecco perché si è puntato a soluzioni del genere.

Inoltre l'esperienza pregressa con XBox360 prima e PS3 poi, che avevano molti core/thread, ha contribuito a far diffondere la programmazione multithread nei giochi, che si prestano bene per tanti tipi di algoritmi che sono parallelizzabili (e/o vettorizzabili).

L'ultimo collodi bottiglia era rappresentato dalle librerie grafiche, che erano sostanzialmente mono-core/thread (vedi i grafici di tuttodigitale), ma che è stato risolto con le ultime console, e portato nei PC con le DirectX12.

Dunque si vedranno sempre più giochi utilizzare più core/thread... e istruzioni vettoriali (che è anche il motivo per cui, rispetto a PS3 e XBox360, i piccoli core Jaguar di PS4 e XBoxOne fanno meglio: le AVX consentono di processare fino al doppio dei dati a parità di clock).
Ma è questo che voglio dire.

Tra DX12 e AMD che sicuramente proporrà Zen X8 a prezzo competitivo, presumerei che l'aumento di core sul mercato si potrà e si dovrà avere.

Ti dirò di più... secondo me lo "scontro" che vedremo non sarà su Zen X86 vs 7700K, ma io penso molto probabile verso Skylake-E (da qualche parte ho letto che Skylake E verrà proposto pure come X4, credo per controbattere all'offerta AMD unico socket) e precisamente Skylake-E X6.

Con una scriccatina alle frequenze e nel contempo sfruttare tutto il TDP nominale, un Skylake X6 dovrebbe arrivare vicino alle frequenze di un 6700K ma con il +50% di core.

Tieni presente che Zen potrà essere proposto commercialmente come X6, ma MAI con volumi idonei a modello di punta (che sia X86 o APU, di fatto Zen o è X4 o è X8).

Quindi per me sul finire del 2017, se Zen rispetterà le aspettative e AMD l'intenzione di proporre Zen X86 come prodotto di massa e non di nicchia, l'offerta desktop per game si sposterà su 6 core almeno.

sgrinfia
28-12-2016, 10:10
[QUOTE=cdimauro;44337636]

Le console sono basate su SoC AMD perché Sony e Microsoft sono riuscite a strappare un contratto estremamente vantaggioso per loro, e ovviamente con margine ridotto per AMD. nVidia, se non ricordo male, si rifiutò di scendere così tanto coi margini. Per quanto riguarda Intel, non so sia mai stata contattata, ma ricordo che per la PS4 si parlò di un interessamento per l'architettura Larrabee di Intel.

No, le console basate su SoC AMD non furono scelte perché il contratto era estremamente vantaggioso per loro, poi il margine alla lunga (Visto le vendite).
Su Invidia ricordi male ,non si rifiuto di scendere con i margini ,quella fu la "scusa "per cadere in piedi:D , la verità fu che Microsoft e Sony preferirono una società in grado di dargli un prodotto finito con tecnologia definita e collaudata, e non un assemblamento di pezzi hardaware come la prima ibox e PS3 ,il perché tutto ciò avrebbe portato a dei collaudi e prove di compatibilità che avrebbe richiesto altro tempo e denaro.
Poi per quanto riguarda Larrabee di Intel ......Sony fu inizialmente interessata (2010) soprattutto non come processore grafico (visto che ha confronto alle controparti Amd e Invidia faceva ridere), ma Sony si interesso come vera e propria cpu soprattutto se Intel l'avrebbe sviluppata da 45 a 32 mn, poi vabbè si dovette arrendere alle soluzioni più potenti e collaudate di Amd;)

paolo.oliva2
28-12-2016, 10:34
Io penso che bisogna considerare (e valutare) AMD per come è AMD e non AMD per come opera Intel.

Quando AMD realizza un componente per terzi, ci prende i soldi ma acquisisce un konw-out che gli rimane, che può utilizzare per altri o in proprio, ma di fatto pagato da altri.

Non era venuta la notizia che buona parte dell'R&D di Zen era venuta proprio da questi "lavoretti"?

Ci sono molte cose che a prima vista non rientrano nel prezzo di un prodotto, ma che a tutti gli effetti porterebbero un guadagno ulteriore "nascosto". Facendo un esempio... AMD produrrà Zen APU per la prox generazione di console, e AMD incasserà un guadagno per quel progetto. Ma non si ferma tutto lì. Non so se il contratto preveda un prezzo a die finito o che AMD incassi i soldi per il progetto e la produzione di silicio non sia un suo problema... ma in ambedue i casi, vogliamo pensare che qualcosina non percepisca da GF? O come sconto (un prezzo più basso) su quanto produce per lei (VGA, Proci) o come percentuale?

Il termine vendere a prezzo di costo o molto basso è per molti versi aleatorio. Facendo un esempio che mi viene in mente, negli anni 90, io lavoravo assieme ad un importatore diretto e c'erano 2 condizioni in cui lui applicava un prezzo simile al costo (e mi contattava se ero interessato): quando il countiner non era pieno e quando poteva strappare un +5/+10% di sconto al raggiungimento di una quantità superiore. Nessuno vende gratis, se cala il prezzo, lo fa per un guadagno ulteriore.

the_joe
28-12-2016, 10:44
Io penso che bisogna considerare (e valutare) AMD per come è AMD e non AMD per come opera Intel.

Quando AMD realizza un componente per terzi, ci prende i soldi ma acquisisce un konw-out che gli rimane, che può utilizzare per altri o in proprio, ma di fatto pagato da altri.

Non era venuta la notizia che buona parte dell'R&D di Zen era venuta proprio da questi "lavoretti"?

Ci sono molte cose che a prima vista non rientrano nel prezzo di un prodotto, ma che a tutti gli effetti porterebbero un guadagno ulteriore "nascosto". Facendo un esempio... AMD produrrà Zen APU per la prox generazione di console, e AMD incasserà un guadagno per quel progetto. Ma non si ferma tutto lì. Non so se il contratto preveda un prezzo a die finito o che AMD incassi i soldi per il progetto e la produzione di silicio non sia un suo problema... ma in ambedue i casi, vogliamo pensare che qualcosina non percepisca da GF? O come sconto (un prezzo più basso) su quanto produce per lei (VGA, Proci) o come percentuale?

SE GF è un fornitore di AMD perché dovrebbe pagare per fare i suoi prodotti?
Che ragionamento contorto è scusa?


Il termine vendere a prezzo di costo o molto basso è per molti versi aleatorio. Facendo un esempio che mi viene in mente, negli anni 90, io lavoravo assieme ad un importatore diretto e c'erano 2 condizioni in cui lui applicava un prezzo simile al costo (e mi contattava se ero interessato): quando il countiner non era pieno e quando poteva strappare un +5/+10% di sconto al raggiungimento di una quantità superiore. Nessuno vende gratis, se cala il prezzo, lo fa per un guadagno ulteriore.

Il prezzo di costo è uno, il tuo fornitore se riusciva a scucire dello sconto in più non vendeva a prezzo di costo perché alla fine il prodotto gli costava di meno, non fare confusione coi termini commerciali.

Comunque ti ripeto che a perderci di più in una guerra di prezzi è sempre il concorrente più debole, quindi in questo caso AMD che come per le VGA giustamente non farà una guerra di prezzi con Intel, semplicemente applicherà il giusto prezzo alle sue soluzioni (-20/30% rispetto a Intel ed è già molto) per renderle appetibili e non fare una guerra.

animeserie
28-12-2016, 11:24
Questa immagine è bellissima, come hanno scelto l'ordine in cui mettere le CPU in questa tabella? :asd:


SELECT Name, Score FROM Cpus ORDER BY BrandName, Price DESC
:D

maxsona
28-12-2016, 11:38
Se presentavano per natale le schede madri X370 e vendevano le APU Bristol Ridge nel mercato retail qualcuno (me :D ) il regalo se lo faceva ... probabilmente come gap filler in attesa di Ryzen

Magnum IV
28-12-2016, 12:33
salve a tutti,
sono nuovo del forum e con l'occasione mi presento.:D

Volevo chiedervi una cosa: ma le prime schede AM4 (le A320, non le x370) e le cpu Bristol Ridge sono già in vendita?
Perché girando nei vari forum ho trovato queste pagine:
https://www.reddit.com/r/Amd/comments/5geyi0/am4_a129800_and_asus_a320mc_user_review_great_dp/
http://www.planet3dnow.de/vbulletin/threads/426871-AMD-A12-9800-auf-ASUS-A320M-C-mein-User-Review-dieses-Bundles-fuer-rd-200-Euronen
Come vedete l'utente dice di aver pagato il bundle circa 200 euro.
Ho trovato anche il pdf della motherboard:
http://dlcdnet.asus.com/pub/ASUS/mb/SocketAM4/A320M-C/E12133_A320M-C_V2_UM_web.pdf

Io sapevo che non era ancora stato commercializzato niente, e voi?

marchigiano
28-12-2016, 13:21
Rumors di digitimes.com sulla presunta uscita di Ryzen: fine febbraio 2017...

per l'occasione sul calendario amd febbraio avrà 92 giorni :asd:

minc*iate a parte... è un po che non seguo, come siamo messi a chipset e mobo? iniziano a vedersi? e le gpu col silicio raffinato?

il test francese inizia a stuzzicarmi... :cincin:

Antostorny
28-12-2016, 13:27
**** E' USCITO IL COMUNICATO STAMPA DI AMD *****

Le nuove CPU arriveranno il 30 febbraio :D

paolo.oliva2
28-12-2016, 13:33
SE GF è un fornitore di AMD perché dovrebbe pagare per fare i suoi prodotti?
Che ragionamento contorto è scusa?
GF è un produttore di silicio, non un fornitore, un produttore come TSMC. AMD, volendo, potrebbe produrre da TSMC? Allora una cosa è un prezzo per produrre Polaris, un'altra Polaris + Zen, un'altra ancora Polaris, Zen, Vega e altri prodotti ancora, perchè ci guadagnano entrambi. Da una parte GF che si ritrova le catene sature per 1-2 anni almeno, dall'altra AMD che ha a che fare con 1 unico produttore, che avrà attenzioni più "corpose" per AMD.

Il prezzo di costo è uno, il tuo fornitore se riusciva a scucire dello sconto in più non vendeva a prezzo di costo perché alla fine il prodotto gli costava di meno, non fare confusione coi termini commerciali.
Il prezzo di costo non è uno... o perlomeno il costo fissa il prezzo minimo e la variabile è la quantità.
Se vai da un venditore di auto, e acquisti 1 vettura, avrai uno sconto, ne acquisti 2, un altro, ne acquisti una quantità per la quale il venditore avrà un prezzo inferiore dal produttore, un altro ancora.

Comunque ti ripeto che a perderci di più in una guerra di prezzi è sempre il concorrente più debole, quindi in questo caso AMD che come per le VGA giustamente non farà una guerra di prezzi con Intel, semplicemente applicherà il giusto prezzo alle sue soluzioni (-20/30% rispetto a Intel ed è già molto) per renderle appetibili e non fare una guerra.
Se non altro da un -10% /-20% siamo già arrivati a -20%/-30%, ma il discorso è che tu parti, come tanti, da un prezzo scontato del -20/-30% definendolo GIUSTO, ma su che base? Per definire quello un prezzo GIUSTO, dovresti sapere che il prezzo di Intel è maggiorato di un 15/20%, ma è impossibile saperlo finchè sul mercato è la sola azienda a commercializzare quel prodotto.

A me fa riflettere che a parte i discorsi di bandiera, tutte le varie testate hanno risposto ai rumors con atteggiamento tutt'altro che impossibile al prezzo di 300$ per un Zen X8+8 AMD. Si tratta del -85%, non del 20/30%.... quindi, almeno come possibilità, nessuno pensa sia irrealizzabile.

Io non capisco poi perchè se AMD vendesse Zen X8+8 a 300$ farebbe la guerra ad Intel... a me di Intel non frega una tozza, a me importa cosa devo tirare fuori dal mio portafoglio per avere un procio che per caratteristiche sarebbe simile al 6900K e che Intel vende a 1100$.
Io non credo, ad esempio, che nel mercato telefonia, marche alternative cinesi facciano la guerra a Samsung, iPhone, LG se fanno un prezzo più basso. Io credo solamente che vogliano acquistire fette di mercato semplicemente commercializzando prodotti alternativi a prezzi inferiori, e se vendono un procio X8 a 300$ e le ditte blasonate lo vendono a 1000$, io non mi faccio alcun problema se "loro" ci guadagnano meno, guardo QUANTO io ho speso meno.
Non capisco invece quando si parla di Intel, tutto viene sempre ribaltato ad cactus. Quando la ditta pippo vende un telefonino a 300$ quando pluto lo vende a 1000$, lo vende sottocosto? Non avrà i soldi alla fine mese per pagare i dipendenti? Qua sembra sempre che se AMD vende a -1$ rispetto ad Intel, rinuncerebbe ai guadagni, catastrofi megagalattiche e quantìaltro. Hawei, ho letto l'articolo di HW, sta diventando un colosso nonostante venda con prezzi 1/5 rispetto ai concorrenti, ma ovviamente per certo guadagnerà meno di Mac... ma a me importa che il dirigente Mac si porti a casa 1.000.000$ come premio o i 50.000$ dello stesso ma di un'altra ditta? O guardo quanto costa a me il prodotto, la qualità e il supporto?

Emaximus
28-12-2016, 13:58
Da techpowerup:

https://www.techpowerup.com/229041/motherboard-vendors-optimistic-about-high-price-performance-ratio-of-amd-ryzen

AMD Ryzen, the high performance processor based on the company's "Zen" micro-architecture, will increase the company's market-share of the desktop CPU market in Q2-2017, according to sources from motherboard manufacturers, in a report by Taiwan-based industry observer DigiTimes. The report states that motherboard manufacturers are "optimistic about [Ryzen's] high price/performance ratio," prompting them to ramp up orders of motherboards for the new platform, from their suppliers.

According to the report, the new platform built around the AMD Ryzen processor will be officially released by the end of February 2017, and will enter global mass-shipments in March. It will help increase AMD's desktop processor market share in the following quarter. The sources point out that motherboard vendors are sourcing high-end X370, mid-range B350, and entry-level A320 chipsets from AMD, and their new product designs are now in the final stage of related testing. The B350 and A320 chipsets are already launched, to support the 7th generation A-Series "Bristol Ridge" APUs.

capitan_crasy
28-12-2016, 14:03
salve a tutti,
sono nuovo del forum e con l'occasione mi presento.:D

Volevo chiedervi una cosa: ma le prime schede AM4 (le A320, non le x370) e le cpu Bristol Ridge sono già in vendita?
Perché girando nei vari forum ho trovato queste pagine:
https://www.reddit.com/r/Amd/comments/5geyi0/am4_a129800_and_asus_a320mc_user_review_great_dp/
http://www.planet3dnow.de/vbulletin/threads/426871-AMD-A12-9800-auf-ASUS-A320M-C-mein-User-Review-dieses-Bundles-fuer-rd-200-Euronen
Come vedete l'utente dice di aver pagato il bundle circa 200 euro.
Ho trovato anche il pdf della motherboard:
http://dlcdnet.asus.com/pub/ASUS/mb/SocketAM4/A320M-C/E12133_A320M-C_V2_UM_web.pdf

Io sapevo che non era ancora stato commercializzato niente, e voi?

BR e le schede mamme AM4 non sono state presentate sul mercato Retail, ma solo per il mercato OEM...

the_joe
28-12-2016, 14:17
GF è un produttore di silicio, non un fornitore, un produttore come TSMC. AMD, volendo, potrebbe produrre da TSMC? Allora una cosa è un prezzo per produrre Polaris, un'altra Polaris + Zen, un'altra ancora Polaris, Zen, Vega e altri prodotti ancora, perchè ci guadagnano entrambi. Da una parte GF che si ritrova le catene sature per 1-2 anni almeno, dall'altra AMD che ha a che fare con 1 unico produttore, che avrà attenzioni più "corpose" per AMD.

Il prezzo di costo non è uno... o perlomeno il costo fissa il prezzo minimo e la variabile è la quantità.
Se vai da un venditore di auto, e acquisti 1 vettura, avrai uno sconto, ne acquisti 2, un altro, ne acquisti una quantità per la quale il venditore avrà un prezzo inferiore dal produttore, un altro ancora.

Se non altro da un -10% /-20% siamo già arrivati a -20%/-30%, ma il discorso è che tu parti, come tanti, da un prezzo scontato del -20/-30% definendolo GIUSTO, ma su che base? Per definire quello un prezzo GIUSTO, dovresti sapere che il prezzo di Intel è maggiorato di un 15/20%, ma è impossibile saperlo finchè sul mercato è la sola azienda a commercializzare quel prodotto.

A me fa riflettere che a parte i discorsi di bandiera, tutte le varie testate hanno risposto ai rumors con atteggiamento tutt'altro che impossibile al prezzo di 300$ per un Zen X8+8 AMD. Si tratta del -85%, non del 20/30%.... quindi, almeno come possibilità, nessuno pensa sia irrealizzabile.

Io non capisco poi perchè se AMD vendesse Zen X8+8 a 300$ farebbe la guerra ad Intel... a me di Intel non frega una tozza, a me importa cosa devo tirare fuori dal mio portafoglio per avere un procio che per caratteristiche sarebbe simile al 6900K e che Intel vende a 1100$.
Io non credo, ad esempio, che nel mercato telefonia, marche alternative cinesi facciano la guerra a Samsung, iPhone, LG se fanno un prezzo più basso. Io credo solamente che vogliano acquistire fette di mercato semplicemente commercializzando prodotti alternativi a prezzi inferiori, e se vendono un procio X8 a 300$ e le ditte blasonate lo vendono a 1000$, io non mi faccio alcun problema se "loro" ci guadagnano meno, guardo QUANTO io ho speso meno.
Non capisco invece quando si parla di Intel, tutto viene sempre ribaltato ad cactus. Quando la ditta pippo vende un telefonino a 300$ quando pluto lo vende a 1000$, lo vende sottocosto? Non avrà i soldi alla fine mese per pagare i dipendenti? Qua sembra sempre che se AMD vende a -1$ rispetto ad Intel, rinuncerebbe ai guadagni, catastrofi megagalattiche e quantìaltro. Hawei, ho letto l'articolo di HW, sta diventando un colosso nonostante venda con prezzi 1/5 rispetto ai concorrenti, ma ovviamente per certo guadagnerà meno di Mac... ma a me importa che il dirigente Mac si porti a casa 1.000.000$ come premio o i 50.000$ dello stesso ma di un'altra ditta? O guardo quanto costa a me il prodotto, la qualità e il supporto?

A parte che con questa sparata hai solo confermato che di mercato ne capisci quanto me di astrofisica, COL CAZZO che Huawei vende i telefonini ad 1/5 di Samsung, c'è parità o addirittura il P9 costa più del Samsung.....

Comunque vedremo se uscirà questo 8/16 da 300$ e non ad 1$ meno di Intel come dici tu e poi potremo riparlarne.

the_joe
28-12-2016, 14:35
la news è rimbalzara anche su TPU
https://www.techpowerup.com/229041/motherboard-vendors-optimistic-about-high-price-performance-ratio-of-amd-ryzen
direi che è importante non tardare il Q1 che poi arriva skylake, sempre se non lo anticipano...

A parte che forse intendevi Kaby Lake (sempre di laghi si tratta) comunque la piattaforma AMD è molto interessante, intanto perché su un unico socket si può montare tutta la serie di CPU e le APU nuove, poi sembrerebbe che Ryzen sia realmente un serio concorrente per Intel e che verrà offerto ad un prezzo sicuramente concorrenziale dato che AMD deve recuperare quote di mercato.
Sicuramente se non si ha fretta merita attendere la mossa di AMD.

Wolfhang
28-12-2016, 15:01
la news è rimbalzara anche su TPU
https://www.techpowerup.com/229041/motherboard-vendors-optimistic-about-high-price-performance-ratio-of-amd-ryzen
direi che è importante non tardare il Q1 che poi arriva skylake, sempre se non lo anticipano...

Skylake-X non dovrebbe arrivare prima del Q3 2017

Gioz
28-12-2016, 16:21
Se non altro da un -10% /-20% siamo già arrivati a -20%/-30%, ma il discorso è che tu parti, come tanti, da un prezzo scontato del -20/-30% definendolo GIUSTO, ma su che base? Per definire quello un prezzo GIUSTO, dovresti sapere che il prezzo di Intel è maggiorato di un 15/20%, ma è impossibile saperlo finchè sul mercato è la sola azienda a commercializzare quel prodotto.

quando supponevo 1/3-1/4 in meno sul costo relativo al corrispettivo intel io ipotizzavo che di base, volendo recuperare mercato, puntino a prezzare in basso per risultare una soluzione più economicamente attrattiva abbinato al fatto che intel integra comunque una gpu che volente o nolente avrà una qualche incidenza sul prezzo a parità di prestazioni sul fronte della cpu, questo a prescindere da eventuali +/-10% su ipc e/o frequenze, comparando esclusivamente due prodotti che possano essere presi in considerazione come alternativi l'uno all'altro.

poi va bhè, se con l'8/16 si proponessero prezzandolo alla mia portata farei i salti di gioia :D

A parte che forse intendevi Kaby Lake (sempre di laghi si tratta) comunque la piattaforma AMD è molto interessante, intanto perché su un unico socket si può montare tutta la serie di CPU e le APU nuove, poi sembrerebbe che Ryzen sia realmente un serio concorrente per Intel e che verrà offerto ad un prezzo sicuramente concorrenziale dato che AMD deve recuperare quote di mercato.
Sicuramente se non si ha fretta merita attendere la mossa di AMD.
credo intendesse skylake-x, non la serie 6xxx

the_joe
28-12-2016, 16:28
poi va bhè, se con l'8/16 si proponessero prezzandolo alla mia portata farei i salti di gioia :D

A chi lo dici, sono qua a convertire un video in H.265 e il mio i7 4770 ci mette ore, 16 thread allo stesso prezzo degli 8 attuali mi farebbero comodo.


credo intendesse skylake-x, non la serie 6xxx
Ok scusate ;)

Gioz
28-12-2016, 16:32
Ma che senso ha riportare un dato accorpato di giochi vecchi, che già con un i5/8350+ vga di fascia alta fanno 70/80 fps seppur in condizione di cpu limited? A quanto pare per l'anno prossimo saremo tutti pronti con monitor 21/9 a 144hz e sli di titan pascal già montato in attesa di cpu capaci di reggere.

http://uploads.tapatalk-cdn.com/20161227/8337ce7a0bfd0f394170081a27d4a875.jpg

Ovviamente non saranno tutti così ma
l'andazzo é più o meno questo, se poi vogliamo ancora pensare in termini di 1366x768....dual core....
prendili con le pinze questi grafici.
come ti dicevo nell'altro topic è una demo ottimizzata in modo pessimo di un gioco che nasce per una compatabilità con piattaforme e perifiche molto diverse tra loro (da ps4 a psvr a pc), ha più senso per caprie che tipo di gioco sia che non per valutare come giri, su reddit c'è un topic dove fanno valutazioni in lungo e in largo in merito.
quando si parla di giochi poi c'è anche da dire che molto sta alla metodologia del test, tipo guardando velocemente c'è l'analisi di prestazioni di space hulk
http://gamegpu.com/images/stories/Test_GPU/Action/Space_Hulk_Deathwing/shd_proz.png
dalla loro analisi "sembra" che dal "8350 in su" non ci siano differenze e che l'fps non scenda sotto 44...in realtà io quel gioco l'ho preso (secondo me soldi buttati) e tutto sta alla missione, da tutorial a fasi esplorative giri fisso al massimo che la tua config riesce a fare (senza differenze sensibili sui settaggi - sia con dettagli max e AA sia al minimo senza filtri faccio stesso fps), quando giocando prosegui però ti spawnano 30-40 mostri simultaneamente e il framerate cala con picchi anche di 18 fps e una media sotto i 28(anche in questo caso a prescindere dai settaggi grafici), nei topic su steam riguardanti problemi col gioco questa stessa situazione pare affliggere anche chi ha configurazioni molto più prestanti ed è quindi dovuta ad una ottimizzazione "ad membrum canis" che si attenuano e/o pare non affliggano con configurazioni "top".
premesso che il gioco secondo me fa abbastanza schifo, dall'analisi passerebbe l'idea che giri in maniera totalmente diversa da come gira giocandolo realmente.

Gioz
28-12-2016, 16:34
A chi lo dici, sono qua a convertire un video in H.265 e il mio i7 4770 ci mette ore, 16 thread allo stesso prezzo degli 8 attuali mi farebbero comodo.

io spesso faccio di notte o mentre sono al lavoro, tipo stanotte 5 ore e 46 di encoding, quindi in realtà le prestazioni superiori non mi servono realmente sul pc domestico...però il capo aveva affermato che quest'anno avremmo cambiato pc, quindi un po' ci spero nella possibilità di avere molto a basso costo dato che non ha ancora definito il budget e prevedo che sarà molto più basso del necessario :D

the_joe
28-12-2016, 16:40
io spesso faccio di notte o mentre sono al lavoro, tipo stanotte 5 ore e 46 di encoding, quindi in realtà le prestazioni superiori non mi servono realmente sul pc domestico...però il capo aveva affermato che quest'anno avremmo cambiato pc, quindi un po' ci spero nella possibilità di avere molto a basso costo dato che non ha ancora definito il budget e prevedo che sarà molto più basso del necessario :D

In genere lo faccio anche io in background, però la potenza non è mai abbastanza, quando si montano filmati con 2/3 tracce video e 1 traccia audio da registratore esterno e si mettono effetti dissolvenze e titolazioni, il "povero" i7 arranca un po' e anche se la visualizzazione in tempo reale resta fluida, non mi dispiacerebbe raddoppiare e poter lavorare in tempo reale o + anche per le conversioni;)

paolo.oliva2
28-12-2016, 16:53
A parte che con questa sparata hai solo confermato che di mercato ne capisci quanto me di astrofisica, COL CAZZO che Huawei vende i telefonini ad 1/5 di Samsung, c'è parità o addirittura il P9 costa più del Samsung.....

Comunque vedremo se uscirà questo 8/16 da 300$ e non ad 1$ meno di Intel come dici tu e poi potremo riparlarne.
Io non so cosa fai tu nella vita, ma io ho venduto PC per 30 anni e ancora praticamente sono nel mercato, il tutto da 35 anni... Se di mercato non ne capisci una mazza, non solo non ti da' da mangiare per 35 anni, ma ti porta via pure le mutande. Onestamente mi posso permettere di vivere di rendita per ciò che il mercato mi ha permesso di guadagnare... quindi tanto idiota come tu mi descrivi, non credo di esserlo. :)

Per quanto riguarda il prezzo, come più volte ho detto, AMD potrebbe vendere Zen X8+8 anche a 200$ guadagnandoci di più che con BR X4 APU. Quello che non si vuole mettere in chiaro, è che c'è un costo definito e ci deve essere un guadagno. Però vogliamo proporzionare il guadagno al costo? Costo inteso nel complesso, R&D, silicio, package.
Per me 300$ per un Zen X8+8 sarebbero già molti rispetto alle spese, c'è chi dice che deve costare 400$, chi 500$, chi 700$. Ma forse non vogliamo capire che Intel ne chiede 1100$? Produce con silicio di Marte e top-model che ti portano il procio a casa? Suvvia, cerchiamo di essere seri e obiettivi... tanto lo sappiamo tutti che quando Zen uscirà sarà prezzato un tot di meno di Intel... sarà tutto un cercare il pelo per giustificare il perchè costerà almeno la metà :)

the_joe
28-12-2016, 17:27
Io non so cosa fai tu nella vita, ma io ho venduto PC per 30 anni e ancora praticamente sono nel mercato, il tutto da 35 anni... Se di mercato non ne capisci una mazza, non solo non ti da' da mangiare per 35 anni, ma ti porta via pure le mutande. Onestamente mi posso permettere di vivere di rendita per ciò che il mercato mi ha permesso di guadagnare... quindi tanto idiota come tu mi descrivi, non credo di esserlo. :)

Per quanto riguarda il prezzo, come più volte ho detto, AMD potrebbe vendere Zen X8+8 anche a 200$ guadagnandoci di più che con BR X4 APU. Quello che non si vuole mettere in chiaro, è che c'è un costo definito e ci deve essere un guadagno. Però vogliamo proporzionare il guadagno al costo? Costo inteso nel complesso, R&D, silicio, package.
Per me 300$ per un Zen X8+8 sarebbero già molti rispetto alle spese, c'è chi dice che deve costare 400$, chi 500$, chi 700$. Ma forse non vogliamo capire che Intel ne chiede 1100$? Produce con silicio di Marte e top-model che ti portano il procio a casa? U Suvvia, cerchiamo di essere seri e obiettivi... tanto lo sappiamo tutti che quando Zen uscirà sarà prezzato un tot di meno di Intel... sarà tutto un cercare il pelo per giustificare il perchè costerà almeno la metà :)

Se Zen top 8/16 esce a 500 € non ci sarà giustificazione ai 1100+€ di un 6900k quindi Intel sarà costretta ad abbassare i prezzi con conseguente figura di menta.

bjt2
28-12-2016, 17:47
Allacciate le cinture...

Guardate l'ultima pagina di queste scansioni:

http://library.madeinpresse.fr/samples/MPqY2Vg2I71P-f

C'è un codice binario nella parte superiore della pagina...

010110100110010101101110010011110100001101000000010000010110100101110010001111010011010101000111

Che vuol dire: ZenOC@Air=5G

Immagino il sample A0 che hanno in mano...

Che nerd! :D

Paolo stai calmo! :D

Se non hanno scritto stronzate, avevo ragione... Come al solito! :O :asd: :yeah:

Su anand sto già festeggiando... :asd: https://forums.anandtech.com/threads/zen-es-benchmark-from-french-hardware-magazine.2495505/page-13#post-38653310 e seguenti... :asd:

cdimauro
28-12-2016, 17:48
Comunque tra il tizio amd, il sito giapponese e la rivista francese che dicono 3 cose diverse io non mi fido più di nessuno... :fagiano: Aspettiamo le MISURE di Agner Fog...
Credo che serva anche un po' di buon senso, cercando di inquadrare le cose nel loro contesto. Nello specifico, parliamo del frontend, e dunque delle istruzioni che vengono via via incontrate, per essere poi elaborate.

Se la uop-queue può sparare soltanto 6 uop per ciclo di clock al dispatcher, riceverne 8 non avrebbe senso, perché sono le 6 uop a fare sempre da collo di bottiglia.

Ricordiamoci che la uop-queue accumula soltanto le uop da eseguire serialmente: non ha alcuna logica out-of-order, perché questa attiene al dispatcher e, soprattutto, agli scheduler.

E che ci sia un solo thread, o due, non cambia di una virgola la situazione: la uop-queue ha comunque quel limite di 6 uop per ciclo di clock, che possono provenire da qualunque parte.

Per cui credo sia ragionevole supporre che la uop-cache invii alla uop-queue un massimo di 6 uop per ciclo di clock. ;)
sono gli haters amd a dire che ha strappato il contratto ad nvidia per i margini ridotti, ed oltretutto nvidia non ha mai detto nulla di tutto ciò ma semplicemente che il mercato console non le interessava, e questa era la sua versione ufficiale :asd:
Il fatto che tu non sappia certe cose, non ti autorizza a spacciare le tue idee per vere, e a classificare quelle degli altri come invenzioni da hater.

Ecco qui: Nvidia didn’t want to work with Sony on PS4 at the price they offered (http://gamingbolt.com/nvidia-didnt-want-to-work-with-sony-on-ps4-at-the-price-they-offered). E all'epoca (vedi la data), le attuali console non erano nemmeno uscite (c'erano solo rumor).
...infatti adesso fa la console portatile con nintendo :D
Riciclando un chip vecchio, che è presente da tempo nel suo prodotto di punta (la Shield), che viene venduta a molto meno rispetto alla futura Nintendo Switch.

Dunque è tutto guadagno garantito col minimo sforzo. Anzi, dubito che si sia sforzata, da quel che si legge in giro riguardo alle specifiche.
di larrabee non ne ho mai sentito parlare come possibile soc per la ps4
A quanto pare non hai mai sentito parlare di un sacco di cose. :fagiano:

PS4: via NVIDIA, entra Larrabee? (http://www.appuntidigitali.it/3216/ps4-via-nvidia-entra-larrabee/)

La fonte originale è andata persa (vedi il link all'interno del pezzo), ma all'epoca era accessibile e fece discutere non poco.
No, le console basate su SoC AMD non furono scelte perché il contratto era estremamente vantaggioso per loro, poi il margine alla lunga (Visto le vendite).
Ecco qui un pezzo che parla proprio dei margini: AMD: Console chip business is thriving, margins to grow to 20%+ (http://www.kitguru.net/components/anton-shilov/amd-console-chip-business-is-thriving-margins-set-to-grow-to-over-20/)

Quoto la parte rilevante:

"Under the terms of the contract between AMD and its partners – Microsoft Corp. and Sony Corp. – the chip developer sells them system-on-chips for their latest game consoles at pre-determined price-ranges in volumes they demand. The prices are believed to have minimal flexibility, so AMD initially believed that it would sell the SoCs with 10 – 12 per cent (low double-digit percent) margin."

AMD ha POI (notare la data del pezzo: le console erano già state commercializzate da un anno) operato in modo da aumentare il margine. Prima al 15%, e IN FUTURO per il 20% o più.

In ogni caso parliamo di margini nettamente inferiori a quelli usuali:

"While 20+ per cent profit margin is well below AMD’s average gross margin of 35 per cent (in Q3 FY2014), it is considerably higher compared to the company’s original expectations for the projects."

che mi pare abbastanza eloquente. :read:
Su Invidia ricordi male ,non si rifiuto di scendere con i margini ,quella fu la "scusa "per cadere in piedi:D ,
Ho riportato sopra il link alla dichiarazione ufficiale.

Inoltre, come vedi, i margini dell'accordo erano troppo bassi.

Infine, nVidia non era così disperata da dover accettare, visto che da tanti anni ormai la sia situazione è di gran lunga migliore di quella di AMD.
la verità fu che Microsoft e Sony preferirono una società in grado di dargli un prodotto finito con tecnologia definita e collaudata, e non un assemblamento di pezzi hardaware come la prima ibox e PS3 ,il perché tutto ciò avrebbe portato a dei collaudi e prove di compatibilità che avrebbe richiesto altro tempo e denaro.
Intanto vedi sopra. Poi, al contrario di quel che sostieni, nVidia ha da tempo una piattaforma SoC che poteva tranquillamente essere usata allo scopo: Tegra.

Il Tegra 4 è stato commercializzato nel Q2 2013. Dunque ci sono state 4 generazioni di questa piattaforma presenti sul mercato un po' di mesi prima della commercializzazione delle suddette console.

Direi che di tempo per avere una piattaforma integrata e stabile, ne abbia avuto non poco nVidia, non credi? :O
Poi per quanto riguarda Larrabee di Intel ......Sony fu inizialmente interessata (2010) soprattutto non come processore grafico (visto che ha confronto alle controparti Amd e Invidia faceva ridere), ma Sony si interesso come vera e propria cpu soprattutto se Intel l'avrebbe sviluppata da 45 a 32 mn,
Lo so bene, visto che ai tempi scrissi anche un pezzo in proposito: Perché Sony metterà una pietra tombale su Cell (http://www.appuntidigitali.it/5965/perche-sony-mettera-una-pietra-tombale-su-cell/) :cool:
poi vabbè si dovette arrendere alle soluzioni più potenti e collaudate di Amd;)
A livello di GPU, sicuramente. Larrabbe è stato un flop perché non poteva competere in questo mercato.

Ma dalle sue ceneri è nata la famiglia Xeon Phi, che in ambito GPGPU sta dando a Intel delle soddisfazioni. :cool:
Io penso che bisogna considerare (e valutare) AMD per come è AMD e non AMD per come opera Intel.

Quando AMD realizza un componente per terzi, ci prende i soldi ma acquisisce un konw-out che gli rimane, che può utilizzare per altri o in proprio, ma di fatto pagato da altri.

Non era venuta la notizia che buona parte dell'R&D di Zen era venuta proprio da questi "lavoretti"?
Zen è molto diverso, per cui ne dubito. Cos'avrebbe potuto prendere da questi "lavoretti"?
Ci sono molte cose che a prima vista non rientrano nel prezzo di un prodotto, ma che a tutti gli effetti porterebbero un guadagno ulteriore "nascosto". Facendo un esempio... AMD produrrà Zen APU per la prox generazione di console, e AMD incasserà un guadagno per quel progetto. Ma non si ferma tutto lì.
AMD produceva già APU ben prima che Sony e Microsoft bussassero alla sua porta.

La cosa interessante dei progetti delle console è stata la realizzazione di un SoC, dunque integrando anche il chipset.

Ma Zen non ha il chipset integrato, e non mi pare che lo saranno le APU su di esso basate.
Non so se il contratto preveda un prezzo a die finito o che AMD incassi i soldi per il progetto e la produzione di silicio non sia un suo problema...
Ho riportato un link in proposito.
ma in ambedue i casi, vogliamo pensare che qualcosina non percepisca da GF? O come sconto (un prezzo più basso) su quanto produce per lei (VGA, Proci) o come percentuale?
Assolutamente no, e sono d'accordo con the_joe.

Con le fonderie ci sono accordi per wafer. In alcuni casi per pezzi buoni. Ma niente di quello che hai ipotizzato.
SE GF è un fornitore di AMD perché dovrebbe pagare per fare i suoi prodotti?
Che ragionamento contorto è scusa?

Il prezzo di costo è uno, il tuo fornitore se riusciva a scucire dello sconto in più non vendeva a prezzo di costo perché alla fine il prodotto gli costava di meno, non fare confusione coi termini commerciali.

Comunque ti ripeto che a perderci di più in una guerra di prezzi è sempre il concorrente più debole, quindi in questo caso AMD che come per le VGA giustamente non farà una guerra di prezzi con Intel, semplicemente applicherà il giusto prezzo alle sue soluzioni (-20/30% rispetto a Intel ed è già molto) per renderle appetibili e non fare una guerra.
*
A parte che con questa sparata hai solo confermato che di mercato ne capisci quanto me di astrofisica, COL CAZZO che Huawei vende i telefonini ad 1/5 di Samsung, c'è parità o addirittura il P9 costa più del Samsung.....
*
Io non so cosa fai tu nella vita, ma io ho venduto PC per 30 anni e ancora praticamente sono nel mercato, il tutto da 35 anni... Se di mercato non ne capisci una mazza, non solo non ti da' da mangiare per 35 anni, ma ti porta via pure le mutande. Onestamente mi posso permettere di vivere di rendita per ciò che il mercato mi ha permesso di guadagnare... quindi tanto idiota come tu mi descrivi, non credo di esserlo. :)

Hai venduto PC, e con tutti i dubbi del caso, ma ciò non ti autorizza a sparare una balla colossale sugli smartphone.

Reitero per l'n-esima volta la domanda: ma perché non parli solo di cose che REALMENTE conosci?

suneatshours86
28-12-2016, 17:52
Allacciate le cinture...

Guardate l'ultima pagina di queste scansioni:

http://library.madeinpresse.fr/samples/MPqY2Vg2I71P-f

C'è un codice binario nella parte superiore della pagina...

010110100110010101101110010011110100001101000000010000010110100101110010001111010011010101000111

Che vuol dire: ZenOC@Air=5G

Immagino il sample A0 che hanno in mano...

Che nerd! :D

Paolo stai calmo! :D

Se non hanno scritto stronzate, avevo ragione... Come al solito! :O :asd: :yeah:

Su anand sto già festeggiando... :asd: https://forums.anandtech.com/threads/zen-es-benchmark-from-french-hardware-magazine.2495505/page-13#post-38653310 e seguenti... :asd:

se così fosse giù il cappello :cool: e chapeau a bjt in primis
poi ad amd

bjt2
28-12-2016, 18:01
Zen è molto diverso, per cui ne dubito. Cos'avrebbe potuto prendere da questi "lavoretti"?

Non ne sono sicuro, sai? Quel video che ho postato, nella sezione Q&A, ultimi minuti, c'è un tizio che gli chiede che fine ha fatto K12 e se queste tecnologie ci saranno anche li. Lui conferma che la roadmap di K12 è rimasta invariata (e che quindi dovrebbe uscire) e poi dice testualmente più o meno: "noi sviluppiamo architetture, siamo agnostici all'ISA, quindi tutte queste tecnologie le useremo per tutte le architetture che produrremo". Immagino che valga anche per il passato. Magari qualche tecnologia di Zen (non tutte perchè ovviamente la uop cache non c'è nelle console ad esempio) è stata sviluppata per le console...

cdimauro
28-12-2016, 18:03
Zen e K12 saranno intercambiabili per la maggior parte delle cose, e questo si sapeva.

Ma dalle console francamente non so cosa potrebbero prendere.

Piedone1113
28-12-2016, 18:29
Zen e K12 saranno intercambiabili per la maggior parte delle cose, e questo si sapeva.

Ma dalle console francamente non so cosa potrebbero prendere.

Per esempio creare la scena ad una risoluzione più bassa e poi upscalarla in 4k con perdita di qualità quasi impercettibile?

Cesare ti sbagli circa i soc delle consolle:
il 35% del ricavo è il minimo se il costo di sviluppo è a carico del produttore, AMD invece ha girato i costi di sviluppo a Sony e MS, mantenendo in casa i risultati e sottoscrivendo un accordo con i clienti dove per alcune tecnologie nuove avrebbe ritardato l'implementazione sui propri prodotti di 1 o due generazioni (su una minima parte).
Quindi come vedi l'accordo non è poi così tirato per i capelli, anzi ad esser precisi AMD ha tratto maggior vantaggio di quanto si possa credere analizzando solo i numeri.

cdimauro
28-12-2016, 18:32
Per esempio creare la scena ad una risoluzione più bassa e poi upscalarla in 4k con perdita di qualità quasi impercettibile?
OK, ma questo che c'entra con Zen? :stordita:
Cesare ti sbagli circa i soc delle consolle:
il 35% del ricavo è il minimo se il costo di sviluppo è a carico del produttore, AMD invece ha girato i costi di sviluppo a Sony e MS, mantenendo in casa i risultati e sottoscrivendo un accordo con i clienti dove per alcune tecnologie nuove avrebbe ritardato l'implementazione sui propri prodotti di 1 o due generazioni (su una minima parte).
Quindi come vedi l'accordo non è poi così tirato per i capelli, anzi ad esser precisi AMD ha tratto maggior vantaggio di quanto si possa credere analizzando solo i numeri.
Per quanto riguarda le tecnologie sì, ma i SoC di queste console hanno poche caratteristiche peculiari, per cui le ricadute in futuri prodotti saranno, quindi, ben poche.

E i costi di sviluppo, parimenti, poca roba.

Mentre i margini per le vendite dei singoli pezzi rimangono ben al di sotto delle normali cifre. Vedi sopra al link che ho riportato.

Piedone1113
28-12-2016, 18:44
OK, ma questo che c'entra con Zen? :stordita:

Con Zen nulla, ma con APU Zen (che avrà pure la variante opteron) c'entra


Per quanto riguarda le tecnologie sì, ma i SoC di queste console hanno poche caratteristiche peculiari, per cui le ricadute in futuri prodotti saranno, quindi, ben poche.

E i costi di sviluppo, parimenti, poca roba.

Mentre i margini per le vendite dei singoli pezzi rimangono ben al di sotto delle normali cifre. Vedi sopra al link che ho riportato.
Poche caratteristiche peculiari lato cpu, non vga, ed i costi di sviluppo di polaris sono stati in parte integrati con quelle dei soc, non è che AMD produce solo CPU.
A maggior ragione poi se i costi di sviluppo sarebbero "nulli" (secondo la tua idea) non implica che tegra per essere il soc delle consolle non avrebbe portato costi di sviluppo sulle spalle di nvidia che non avrebbe potuto avere ricarichi inferiori ad una certa soglia senza rimanare sopra il bilancio operativo (cosa che amd ha fatto).
E poi tutto fa brodo, inclusa la nuova variante consolle e probabilmente anche la prossima generazione.

Ren
28-12-2016, 19:17
A maggior ragione poi se i costi di sviluppo sarebbero "nulli" (secondo la tua idea) non implica che tegra per essere il soc delle consolle non avrebbe portato costi di sviluppo sulle spalle di nvidia che non avrebbe potuto avere ricarichi inferiori ad una certa soglia senza rimanare sopra il bilancio operativo (cosa che amd ha fatto).
E poi tutto fa brodo, inclusa la nuova variante consolle e probabilmente anche la prossima generazione.

Te credo, con 25 milioni di macchine l'anno di sicuro possono accontentarsi anche del 15-20% di margine. Hanno coperto buona parte delle perdite annuali con quei soldoni.

Sony e microsoft ringraziano per il contributo ed infatti hanno ordinato un altro SOC.:D

cmq il soc tegra custom è una versione decurtata di quello già in produzione. Stiamo parlando di un chip da 80-100mm2 con rese a spanne di 600-700 die per wafer. Il 30-40% di margine è assicurato, i volumi della console un pò meno...:p

ps. Tegra-pascal come consumi è anni luce avanti alla concorrenza(imgtec,arm,vivante, etc...). Quasi una scelta obbligata per nintendo.

Ryddyck
28-12-2016, 19:21
Io ho trovato questo 0101001101100011011001010110110101101111001000000110001101101000011010010010000001101100011001010110011101100111011001010010000100100000010101000101001001001111010011000100111101001100010011110100110001001111010011000100111101001100
Comunque si potrebbe fare riferimento anche al vecchio rumor della maxsun http://tieba.baidu.com/p/4864984399?pn=1

Mi sembra comunque la burla di fine anno :ciapet:

sgrinfia
28-12-2016, 20:31
Credo che serva anche un po' di buon senso, cercando di inquadrare le cose nel loro contesto. Nello specifico, parliamo del frontend, e dunque delle istruzioni che vengono via via incontrate, per essere poi elaborate.

Se la uop-queue può sparare soltanto 6 uop per ciclo di clock al dispatcher, riceverne 8 non avrebbe senso, perché sono le 6 uop a fare sempre da collo di bottiglia.

Ricordiamoci che la uop-queue accumula soltanto le uop da eseguire serialmente: non ha alcuna logica out-of-order, perché questa attiene al dispatcher e, soprattutto, agli scheduler.

E che ci sia un solo thread, o due, non cambia di una virgola la situazione: la uop-queue ha comunque quel limite di 6 uop per ciclo di clock, che possono provenire da qualunque parte.

Per cui credo sia ragionevole supporre che la uop-cache invii alla uop-queue un massimo di 6 uop per ciclo di clock. ;)

Il fatto che tu non sappia certe cose, non ti autorizza a spacciare le tue idee per vere, e a classificare quelle degli altri come invenzioni da hater.

Ecco qui: Nvidia didn’t want to work with Sony on PS4 at the price they offered (http://gamingbolt.com/nvidia-didnt-want-to-work-with-sony-on-ps4-at-the-price-they-offered). E all'epoca (vedi la data), le attuali console non erano nemmeno uscite (c'erano solo rumor).

Riciclando un chip vecchio, che è presente da tempo nel suo prodotto di punta (la Shield), che viene venduta a molto meno rispetto alla futura Nintendo Switch.

Dunque è tutto guadagno garantito col minimo sforzo. Anzi, dubito che si sia sforzata, da quel che si legge in giro riguardo alle specifiche.

A quanto pare non hai mai sentito parlare di un sacco di cose. :fagiano:

PS4: via NVIDIA, entra Larrabee? (http://www.appuntidigitali.it/3216/ps4-via-nvidia-entra-larrabee/)

La fonte originale è andata persa (vedi il link all'interno del pezzo), ma all'epoca era accessibile e fece discutere non poco.

Ecco qui un pezzo che parla proprio dei margini: AMD: Console chip business is thriving, margins to grow to 20%+ (http://www.kitguru.net/components/anton-shilov/amd-console-chip-business-is-thriving-margins-set-to-grow-to-over-20/)

Quoto la parte rilevante:

"Under the terms of the contract between AMD and its partners – Microsoft Corp. and Sony Corp. – the chip developer sells them system-on-chips for their latest game consoles at pre-determined price-ranges in volumes they demand. The prices are believed to have minimal flexibility, so AMD initially believed that it would sell the SoCs with 10 – 12 per cent (low double-digit percent) margin."

AMD ha POI (notare la data del pezzo: le console erano già state commercializzate da un anno) operato in modo da aumentare il margine. Prima al 15%, e IN FUTURO per il 20% o più.

In ogni caso parliamo di margini nettamente inferiori a quelli usuali:

"While 20+ per cent profit margin is well below AMD’s average gross margin of 35 per cent (in Q3 FY2014), it is considerably higher compared to the company’s original expectations for the projects."

che mi pare abbastanza eloquente. :read:

Ho riportato sopra il link alla dichiarazione ufficiale.

Inoltre, come vedi, i margini dell'accordo erano troppo bassi.

Infine, nVidia non era così disperata da dover accettare, visto che da tanti anni ormai la sia situazione è di gran lunga migliore di quella di AMD.

Intanto vedi sopra. Poi, al contrario di quel che sostieni, nVidia ha da tempo una piattaforma SoC che poteva tranquillamente essere usata allo scopo: Tegra.

Il Tegra 4 è stato commercializzato nel Q2 2013. Dunque ci sono state 4 generazioni di questa piattaforma presenti sul mercato un po' di mesi prima della commercializzazione delle suddette console.

Direi che di tempo per avere una piattaforma integrata e stabile, ne abbia avuto non poco nVidia, non credi? :O

Lo so bene, visto che ai tempi scrissi anche un pezzo in proposito: Perché Sony metterà una pietra tombale su Cell (http://www.appuntidigitali.it/5965/perche-sony-mettera-una-pietra-tombale-su-cell/) :cool:

A livello di GPU, sicuramente. Larrabbe è stato un flop perché non poteva competere in questo mercato.

Ma dalle sue ceneri è nata la famiglia Xeon Phi, che in ambito GPGPU sta dando a Intel delle soddisfazioni. :cool:

Zen è molto diverso, per cui ne dubito. Cos'avrebbe potuto prendere da questi "lavoretti"?

AMD produceva già APU ben prima che Sony e Microsoft bussassero alla sua porta.

La cosa interessante dei progetti delle console è stata la realizzazione di un SoC, dunque integrando anche il chipset.

Ma Zen non ha il chipset integrato, e non mi pare che lo saranno le APU su di esso basate.

Ho riportato un link in proposito.

Assolutamente no, e sono d'accordo con the_joe.

Con le fonderie ci sono accordi per wafer. In alcuni casi per pezzi buoni. Ma niente di quello che hai ipotizzato.

*

*

Hai venduto PC, e con tutti i dubbi del caso, ma ciò non ti autorizza a sparare una balla colossale sugli smartphone.

Reitero per l'n-esima volta la domanda: ma perché non parli solo di cose che REALMENTE conosci?

I margini sulle xbox e pley 4 cì sono , infatti le previsioni di mercato sono andate oltre le più rosee aspettative (il sole 24 ore ).
Poi sul comunicato ufficiale di Invidia......cosa pensi doveva comunicare ?:D ,
in verità Invidia doveva mettere su uno staff di "cervelloni" è inventare una nuova consol, sulla parte video avrebbe detto sicuramente la sua ma......sulla parte cpu.......dio cene scampi :D .
Poi su Larrabbe ......soldi buttati :asd: :asd: ,purtroppo Intel sulla sezione video a uno svantaggio temporale su Invidia e Amd.:D

paolo.oliva2
28-12-2016, 21:42
Se Zen top 8/16 esce a 500 € non ci sarà giustificazione ai 1100+€ di un 6900k quindi Intel sarà costretta ad abbassare i prezzi con conseguente figura di menta.
Io non attaccherei Intel se ha applicato quei prezzi... semplicemente perchè io, al suo posto, li avrei fatti ancor più alti.

paolo.oliva2
28-12-2016, 21:48
Reitero per l'n-esima volta la domanda: ma perché non parli solo di cose che REALMENTE conosci?
Non creiamo polemica inutile. Non eri tu che dicevi che Intel decide le cose e di AMD non gliene frega nulla? Cacchio... se silurano il CEO Intel perchè ha sottovalutato AMD, a me sembra che gliene frega e parecchio... quindi penso che se ne hai parlato, era di cose che assolutamente non potevi conoscere, o sbaglio?

Pozhar
28-12-2016, 21:52
Io non attaccherei Intel se ha applicato quei prezzi... semplicemente perchè io, al suo posto, li avrei fatti ancor più alti.

Paolo, con tutto il rispetto ma delle volte (molte volte) noto bipolarismo nei tuoi commenti.
Cioè passi dall'infangarla pesantemente per poi arrivare ad "accarezzarla" (Intel)

Ma si può sapere? Almeno personalmente, è già da un po' che non ti capisco.

Ps: E ti prego, se devi quotarmi per rispondermi che tu su certi aspetti sei d'accordo con Intel e altri no, ok e qui ci può stare ed è normale. Il problema è che come nel caso in oggetto, cambi completamente la tua opinione sullo stesso argomento. Cioè se andiamo a prendere tuoi post precedenti, affermi che quei prezzi sono da ladri etc... ora invece mi vieni a dire che sei d'accordo e anzi li aumenteresti ancora di più?

Un po' di coerenza cacchio...

paolo.oliva2
28-12-2016, 22:13
Paolo, con tutto il rispetto ma delle volte (molte volte) noto bipolarismo nei tuoi commenti.
Cioè passi dall'infangarla pesantemente all’"accarezzarla" (Intel)
Ma si può sapere? Almeno personalmente, è già da un po' che non ti capisco.
Non è bipolarismo... è obiettività.
Da consumatore non ho il benchè minimo problema a dire a tutta voce che Intel ci ha marciato con i prezzi... però, moralmente, se io fossi il capo di Intel, cosa avrei fatto?
Diverso se giudico un politico o un prete, perchè prima di prendere l'incarico di ministro (esempio) si presta giuramento (fedeltà alla patria) e idem i voti nel caso di un prete. Infatti se giudico "loro", sono peggio di un nazista :).

Pozhar
28-12-2016, 22:14
Leggi il mio PS... e come prevedevo... :muro:

paolo.oliva2
28-12-2016, 22:23
Allacciate le cinture...

Guardate l'ultima pagina di queste scansioni:

http://library.madeinpresse.fr/samples/MPqY2Vg2I71P-f

C'è un codice binario nella parte superiore della pagina...

010110100110010101101110010011110100001101000000010000010110100101110010001111010011010101000111

Che vuol dire: ZenOC@Air=5G

Immagino il sample A0 che hanno in mano...

Che nerd! :D

Paolo stai calmo! :D

Se non hanno scritto stronzate, avevo ragione... Come al solito! :O :asd: :yeah:

Su anand sto già festeggiando... :asd: https://forums.anandtech.com/threads/zen-es-benchmark-from-french-hardware-magazine.2495505/page-13#post-38653310 e seguenti... :asd:

Io sarei già super-soddisfatto di un RS/DU Zen @3,8/4GHz, e se lì dicono 5GHz ad aria, direi che un RS/DU @4,5GHz ci rientri tutto... anche stracaricandolo, il procio.

Se poi l'OC di Zen in OC-Bench può dare soddisfazioni... beh... se fa 5GHz ad aria, credo che in OC-Bench si possa arrivare oltre i 5,3GHz...
Onestamente aspetterei solamente questo... è dall'8350 @5,2GHz che non faccio più una mazza... c'ho un bunker che attende solamente di essere sfruttato... ho terminato tutto... mi manca solamente il cemento bianco da mettere nelle piastrelle e il lavoro è finito.

Roland74Fun
28-12-2016, 22:24
Comunque é incredibile quanto sia tollerato in questo forum il quoting selvaggio.
Su runningforum roba del genere comporta il ban quasi istantaneo.... :cool:

paolo.oliva2
28-12-2016, 22:38
Leggi il mio PS... e come prevedevo... :muro:
Ti ho risposto prima del P.S.
Non è che se non ho soldi sono comunista e se li ho sono capitalista... ma sarà perchè ho 53 anni, semplicemente cerco di avere un'idea della vita coerente a situazioni differenti.
Esempio, io sono in Africa con l'obiettivo di aiutare... ma aiuto chi ha uno stato disagiato, non chi è disagiato perchè non ha voglia di lavorare... (e sono la maggior parte).

tuttodigitale
28-12-2016, 23:43
edit

shellx
29-12-2016, 00:11
Rumors di digitimes.com sulla presunta uscita di Ryzen: fine febbraio 2017...

Clicca qui... (http://www.digitimes.com/news/a20161226PD208.html)

Confermata la mia previsione che feci quest'estate. Avevo detto febbraio: azzeccato ! ;)
Adesso ve ne predico un'altra: a partire da metà Gennaio vedremo la presentazione delle prime mobo am4 top e non top dei vari player's per il mercato consumer.

affiu
29-12-2016, 05:22
Più che una iperbole una utupia: 20tflop di grafica e 16core zen te li puoi scordare, anche a 7 nm e 250w...già oggi si parla di 4 core zen+ e circa 2tflop (che vuoi che sia uno zero in meno :asd:) di igpu navi a 7nm per il 2019...vero che già oggi le console hanno igpu più potenti, come ps4pro, MA con una sezione cpu da tablet nemmeno lontanamente paragonabili a livello di singolo core zen per complessità e prestazioni...figurarsi 16 con una mega gpu :sofico:

D'accordo....ma come te lo spiegheresti le performance di scorpio di 6 teraflops?:read:

Ci puo stare che con l'ultima play sono arrivati a 4,2 teraflops passando per un uno degli 8 core jaguar da 1,8ghz a 2,1 ghz....ma da 4,2 teraflops a 6teraflops???

Può darsi che restino sempre i core jaguar ed aumentano la sola potenza gpu ma con zen core non credi che i 10 teraflops non si raggiungono?

Questo video esprime alcune cose:
https://youtu.be/F1dRgWpGePs

Al minuto 2:54 si sente una voce che dice ...''it's a monster'':read: :eek:

cdimauro
29-12-2016, 07:15
Con Zen nulla, ma con APU Zen (che avrà pure la variante opteron) c'entra
Non credo che gli Opteron siano interessati all'upscaling. Ma anche riguardo alle APU, l'upscaling del framebuffer si fa da una vita, per cui bisogna vedere se hanno implementato un algoritmo particolare e/o se hanno un'apposita sezione on-chip allo scopo.
Poche caratteristiche peculiari lato cpu, non vga, ed i costi di sviluppo di polaris sono stati in parte integrati con quelle dei soc, non è che AMD produce solo CPU.
Scusami, ma che ci sarebbe di peculiare lato CPU? Hai qualche informazione in merito?

E riguardo alla VGA, mi sembra che AMD avesse già una roadmap per le sue GPU, mentre per le console ha riciclato la tecnologia che aveva già sviluppato.

Dunque continua a sfuggirmi cos'è che avrebbe guadagnato da quest'accordo.
A maggior ragione poi se i costi di sviluppo sarebbero "nulli" (secondo la tua idea) non implica che tegra per essere il soc delle consolle non avrebbe portato costi di sviluppo sulle spalle di nvidia che non avrebbe potuto avere ricarichi inferiori ad una certa soglia senza rimanare sopra il bilancio operativo (cosa che amd ha fatto).
E poi tutto fa brodo, inclusa la nuova variante consolle e probabilmente anche la prossima generazione.
Su questo ha già risposto Ren, ma aggiungo che il brodo di cui parli è semplicemente una continuazione degli accordi che aveva già preso con Sony e Microsoft.
ps. Tegra-pascal come consumi è anni luce avanti alla concorrenza(imgtec,arm,vivante, etc...). Quasi una scelta obbligata per nintendo.
No, sembra che Switch utilizzerà Tegra basato sul vecchio Maxwell. E' per questo che dicevo che probabilmente a nVidia non sarà costato niente il SoC di
questa console, visto che ha riciclato pari pari ciò che già aveva in casa.
I margini sulle xbox e pley 4 cì sono , infatti le previsioni di mercato sono andate oltre le più rosee aspettative (il sole 24 ore ).
Margini e volumi sono due cose diverse. :read:
Poi sul comunicato ufficiale di Invidia......cosa pensi doveva comunicare ?:D ,
Dati alla mano (vedi link), penso che abbiano avuto le loro buone ragioni: AMD s'è svenduta pur di ottenere un po' ossigeno, e lo sai che ne aveva veramente bisogno.

Mentre nVidia non aveva alcun bisogno di arrivare a tanto, e i suoi bilanci parlano chiaro.
in verità Invidia doveva mettere su uno staff di "cervelloni" è inventare una nuova consol, sulla parte video avrebbe detto sicuramente la sua ma......sulla parte cpu.......dio cene scampi :D .
Sei male informato anche qui.

In primis, poteva benissimo riciclare le sue soluzioni quad-core basate su ARM Cortex-A53, e fare come AMD: metterne assieme 2 in cluster. Non avendo gli stretti limiti di consumo dei Tegra (che sono stati realizzati per il mercato mobile, e non desktop), avrebbe potuto anche alzargli il clock.

Secondo, e non meno importante, nVidia ha sviluppato un'architettura completamente nuova, ad elevate prestazioni (battaglia con gli iPhone in termini prestazionali). Mai sentito parlare del cosiddetto Project Denver? Ecco qui: Tegra K1 64-bit Denver core analysis: Are Nvidia’s x86 efforts hidden within? (https://www.extremetech.com/computing/174023-tegra-k1-64-bit-denver-core-analysis-are-nvidias-x86-efforts-hidden-within)

Dunque non avrebbe avuto alcun problema a fornire anche una buona componente CPU. Come peraltro ha fatto qualche mese dopo (Tegra K1 è stato rilasciato nel Q2 2014).
Poi su Larrabbe ......soldi buttati :asd: :asd: ,purtroppo Intel sulla sezione video a uno svantaggio temporale su Invidia e Amd.:D
Senz'altro. Infatti è stato un flop. Mentre Xeon Phi non lo è.

A parte questo, Sony non sarebbe stata interessata a Larrabbe come componente GPU, ma per rimpiazzare la CPU, visto che il Cell della PS3 era ormai da buttare. E qui non credo che avrebbe problemi a sfoderare prestazioni molto interessanti. :cool:
Non creiamo polemica inutile. Non eri tu che dicevi che Intel decide le cose e di AMD non gliene frega nulla? Cacchio... se silurano il CEO Intel perchè ha sottovalutato AMD, a me sembra che gliene frega e parecchio... quindi penso che se ne hai parlato, era di cose che assolutamente non potevi conoscere, o sbaglio?
Hai tagliato la riga precedente del mio commento, che si riferiva agli smartphone!

Ecco qui l'intero testo:

"Hai venduto PC, e con tutti i dubbi del caso, ma ciò non ti autorizza a sparare una balla colossale sugli smartphone.

Reitero per l'n-esima volta la domanda: ma perché non parli solo di cose che REALMENTE conosci?"

Infatti non c'entrava nulla col CEO di Intel, che non so da dove hai tirato fuori, visto che nel tuo precedente commento nemmeno avevi accennato a questa cosa, che peraltro ti ricordo essere un RUMOR.

Questo è il classico metodo Travaglio, del taglia & incolla, prendendo ad arte certe frasi dal loro contesto, e inserendole in un altro che non c'entra nulla, inventandosi una storia completamente nuova.

Infine sì, avevo già detto che Intel va per la sua strada, perché, e l'ho già scritto altre volte: i suoi progetti sono già in lavorazione DA TEMPO (e non hai nemmeno idea da quanto, ovviamente. Ma io sì!).
Mentre ho già detto che, invece, riguardo ai prezzi, ovviamente si livelleranno se AMD presenterà prodotti concorrenziali. E ti ripeto la frase che ho scritto non so quante volte: il prezzo lo fa il mercato.

In conclusione, hai scritto un commento su cose che ti sei inventato di sana pianta, stravolgendo completamente quello che t'avevo scritto.

E meno male che non volevi fare polemica inutile, perché questa lo è sicuramente.
Paolo, con tutto il rispetto ma delle volte (molte volte) noto bipolarismo nei tuoi commenti.
Cioè passi dall'infangarla pesantemente per poi arrivare ad "accarezzarla" (Intel)

Ma si può sapere? Almeno personalmente, è già da un po' che non ti capisco.

Ps: E ti prego, se devi quotarmi per rispondermi che tu su certi aspetti sei d'accordo con Intel e altri no, ok e qui ci può stare ed è normale. Il problema è che come nel caso in oggetto, cambi completamente la tua opinione sullo stesso argomento. Cioè se andiamo a prendere tuoi post precedenti, affermi che quei prezzi sono da ladri etc... ora invece mi vieni a dire che sei d'accordo e anzi li aumenteresti ancora di più?

Un po' di coerenza cacchio...
:asd:
Leggi il mio PS... e come prevedevo... :muro:
:asd: :asd: :asd:
Comunque é incredibile quanto sia tollerato in questo forum il quoting selvaggio.
Su runningforum roba del genere comporta il ban quasi istantaneo.... :cool:
Ogni forum ha le sue regole. Qui c'è addirittura lo strumento per il multiquote. :O
D'accordo....ma come te lo spiegheresti le performance di scorpio di 6 teraflops?:read:

Ci puo stare che con l'ultima play sono arrivati a 4,2 teraflops passando per un uno degli 8 core jaguar da 1,8ghz a 2,1 ghz....ma da 4,2 teraflops a 6teraflops???

Può darsi che restino sempre i core jaguar ed aumentano la sola potenza gpu ma con zen core non credi che i 10 teraflops non si raggiungono?
No: Zen è una CPU, e non contribuisce a quella potenza, che è appannaggio delle GPU (o di soluzioni GPGPU, come gli Xeon Phi).

Inoltre resteranno gli stessi core Jaguar anche per Scorpio, similmente alla nuova PS4. Non ha senso cambiare questo componente (molto semplice ed economico), quando ti basta aumentargli un po' il clock (com'è stato fatto) grazie al nuovo processo produttivo, per essere in linea coi carichi di lavoro previsti.

suneatshours86
29-12-2016, 07:22
Io non attaccherei Intel se ha applicato quei prezzi... semplicemente perchè io, al suo posto, li avrei fatti ancor più alti.

:mbe: ma Paolo proprio tu che ne hai dette di tutti i colori proprio su questa questione? :mbe:
Oh per carità cambiare opinione non è mai un male però mi fa strano sentirtelo dire :D

cdimauro
29-12-2016, 07:23
A chi lo dici. :asd:

paolo.oliva2
29-12-2016, 07:25
Io direi che con Zen siano state soddisfatte le più rosee aspettative. :sofico:
Al momento il core Zen non sembra avere nulla da invidiare in al core Intel Bradwell/Skylake, perchè per certo nella versione X8 Zen avrà una frequenza superiore al 6900K e nel prodotto IPC * frequenza. Il TDP rispettato.

L'ultima ciliegina rimane il prezzo/prestazioni.

bjt2
29-12-2016, 07:33
AMD is tweaking the final frequencies. Latest revisions of Zen are allowing higher frequencies than expected.

https://twitter.com/BitsAndChipsEng/status/814184127339655169

paolo.oliva2
29-12-2016, 07:37
:mbe: ma Paolo proprio tu che ne hai dette di tutti i colori proprio su questa questione? :mbe:
Oh per carità cambiare opinione non è mai un male però mi fa strano sentirtelo dire :D
:confused: non è assolutamente cambiare idea.
Dove ho cambiato idea? Se dico che AMD può vendere un Zen X8 a partire da 300$, e Intel ne chiede 1100$, mi dici dove ho cambiato idea?
Non posso giudicare ladra Intel, semplicemente perchè Intel non ti obbliga ad acquistare i suoi prodotti, quindi se ti fa pagare 4 volte di più, lo fa con il consenso del cliente, ed il cliente con i suoi soldi può fare ciò che vuole, magari pure fare una donazione.

cdimauro
29-12-2016, 07:37
Veramente è proprio quello che hai fatto in passato. :rolleyes:

A questo punto propendo per la sindrome bipolare...

paolo.oliva2
29-12-2016, 07:40
https://twitter.com/BitsAndChipsEng/status/814184127339655169

AMD è tweaking le frequenze finali. Ultime revisioni di Zen stanno permettendo frequenze più alte del previsto

Non oso pensare come si sta rosicando il fegato chi prevedeva frequenze Zen massime sui 3GHz a 140W :sofico:

Che sia troppo sperare in un Zen X8 @3,8GHz/4GHz def?

Lo dicevo che alla fine le performances di Zen sarebbero state tutte nelle mani del silicio... ma non in un silicio miracoloso, ma in un silicio che non avrebbe azzoppato l'architettura quanto il 32nm su BD.

fabius21
29-12-2016, 07:46
Paolo, con tutto il rispetto ma delle volte (molte volte) noto bipolarismo nei tuoi commenti.
Cioè passi dall'infangarla pesantemente per poi arrivare ad "accarezzarla" (Intel)

Ma si può sapere? Almeno personalmente, è già da un po' che non ti capisco.

Ps: E ti prego, se devi quotarmi per rispondermi che tu su certi aspetti sei d'accordo con Intel e altri no, ok e qui ci può stare ed è normale. Il problema è che come nel caso in oggetto, cambi completamente la tua opinione sullo stesso argomento. Cioè se andiamo a prendere tuoi post precedenti, affermi che quei prezzi sono da ladri etc... ora invece mi vieni a dire che sei d'accordo e anzi li aumenteresti ancora di più?

Un po' di coerenza cacchio...

Si chiamano punti di osservazione, o immedesimazione , che portano a dover prendere in considerazioni altri fattori nella valutazione del fatto, in questo caso i prezzi intel. il tutto astrattamente , altrimenti sarebbe fondato il vostro parere della bipolarità di paolo
Se non capite o non fate mai ciò , open the mind please. :D


Veramente è proprio quello che hai fatto in passato. :rolleyes:

A questo punto propendo per la sindrome bipolare...

mi meraviglio di te che non capisci una cosa così semplice , mi spiace per te.

paolo.oliva2
29-12-2016, 07:47
Veramente è proprio quello che hai fatto in passato. :rolleyes:
A questo punto propendo per la sindrome bipolare...

Mi meravigli... visto che quoti quello che scrivo, più volte ho detto la stessa cosa... che vuoi che ti dica... continua pure una polemica che è perfettamente inutile.
Io punterei più l'attenzione su come si comporterà Intel, perchè vista la situazione che sembra delinearsi AMD/Zen, sarà il banco di prova sul discorso "perde il pelo ma non il vizio", perchè Intel potrebbe anche ritrovarsi nella situazione Lambretta anni '60.

cdimauro
29-12-2016, 07:52
Mi meravigli... visto che quoti quello che scrivo, più volte ho detto la stessa cosa... che vuoi che ti dica... continua pure una polemica che è perfettamente inutile.
Non sono stato l'unico a fartelo notare: magari potresti farci un pensierino sopra, e valutare la possibilità che gli altri abbiano ragione.

In alternativa, puoi sempre prendere i numerosi commenti che hai scritto in questo thread, e in cui hai dato della ladra a Intel per i prezzi che fa.
Io punterei più l'attenzione su come si comporterà Intel, perchè vista la situazione che sembra delinearsi AMD/Zen, sarà il banco di prova sul discorso "perde il pelo ma non il vizio", perchè Intel potrebbe anche ritrovarsi nella situazione Lambretta anni '60.
E rieccola qui la solita ipotesi fantasiosa che esce fuori, da buon fanatico integralista.

cdimauro
29-12-2016, 07:53
Si chiamano punti di osservazione, o immedesimazione , che portano a dover prendere in considerazioni altri fattori nella valutazione del fatto, in questo caso i prezzi intel. il tutto astrattamente , altrimenti sarebbe fondato il vostro parere della bipolarità di paolo
Se non capite o non fate mai ciò , open the mind please. :D

mi meraviglio di te che non capisci una cosa così semplice , mi spiace per te.
Io capisco benissimo, se permetti. Per il resto, vatti a rileggere i suoi precedenti commenti in proposito. :rolleyes:

Roland74Fun
29-12-2016, 08:05
Ogni forum ha le sue regole. Qui c'è addirittura lo strumento per il multiquote. :O


Il multiquote c'è pure lì ed in quasi tutti i forum che ho frequentato.
Comunque l'osservazione non era per te (che quoti correttamente), o nessun altro in particolare.
L'aggettivo selvaggio era riferito più al "come" che al "quanto".
Per una migliore fruibilità e scorrevolezza del thread é sempre meglio riportare solo la parte a cui si replica. Specialmente in thread tecnici come questo, dove chi come il sottoscritto magari ignora un deteminato aspetto tecnico può comunque mettere meglio a fuoco capendo a cosa si riferisce la replica/spiegazione.
Scusate. :mad: :mad:

cdimauro
29-12-2016, 08:06
Capito. In effetti c'è gente che quota interamente i miei WoT, rispondendo poi solo a poche parti: non è un bel vedere. :stordita:

fabius21
29-12-2016, 08:06
Io capisco benissimo, se permetti. Per il resto, vatti a rileggere i suoi precedenti commenti in proposito. :rolleyes:

ha usato "se fossi" o "io al posto di intel", che significa ciò? Che anche lui al posto di intel avrebbe voluto guadagnare il più possibile. Che poi diventi sbagliato quando ritorna a pensare come consumatore , e nn come produttore, non ci vedo nessuna sindrome bipolare. :mbe:

edit:
anzi ci vedo una mente aperta

suneatshours86
29-12-2016, 08:48
https://twitter.com/CPCHardware/status/814263696948162560

trollati pesantemente? :stordita:

the_joe
29-12-2016, 08:53
Io non attaccherei Intel se ha applicato quei prezzi... semplicemente perchè io, al suo posto, li avrei fatti ancor più alti.

I prezzi sono il frutto di attente ricerche di mercato e di mediazione per quanto riguarda il prezzo massimo e i pezzi stimati che si vogliono vendere, non sono certo buttati lì a caso, certamente il prezzo che sta applicando Intel è il massimo possibile secondo le loro ricerche.

Quello che c'è da biasimare è il fatto che ancora si ostina a vendere soluzioni dual core in basso e quad core in alto del settore mainstream quando la logica porterebbe a presupporre che già da qualche anno le soluzioni dual core avrebbero dovuto sparire e in alto si sarebbe dovuti arrivare ai 6/8 core tranquillamente.

A questo giro come ho già detto, vedo avvantaggiata AMD che proponendo la stessa piattaforma per l'intera produzione di processori, può permettersi una più ampia gamma di soluzioni per il mercato mainstream che è quello che fa i numeri contro Intel che invece propone 2 piattaforme diverse con costi che chiaramente salgono in ordini di grandezza.

Basta che AMD si sbrighi a far uscire qualcosa di concreto.

Free Gordon
29-12-2016, 09:16
https://twitter.com/BitsAndChipsEng/status/814184127339655169

Scaldate i motori gente.. :sofico:

Gioz
29-12-2016, 09:33
volendo spezzare una lancia a favore di paolo, non mi sembra incoerente affermare che:
a) il prezzo quella tal cosa secondo me è superiore al suo valore;
b) nelle stesse condizioni di mercato io cercherei di spremere un prezzo ancora superiore;
solitamente anche una supercar di quelle da 1 milione di euro non costa al produttore tanto da giustificare quel prezzo di vendita, è un prezzo elitario che viene fissato per altre ragioni, primo tra tutti l'esclusività del prodotto e quindi l'interesse da parte di una certa particolare nicchia di mercato.
su altri discorsi può essere stato incoerente, sinceramente non ricordo tutto quanto abbia affermato, ma su questo non mi pare.

D'accordo....ma come te lo spiegheresti le performance di scorpio di 6 teraflops?:read:

Ci puo stare che con l'ultima play sono arrivati a 4,2 teraflops passando per un uno degli 8 core jaguar da 1,8ghz a 2,1 ghz....ma da 4,2 teraflops a 6teraflops???

Può darsi che restino sempre i core jaguar ed aumentano la sola potenza gpu ma con zen core non credi che i 10 teraflops non si raggiungono?

sta praticamente tutto alla gpu, le prestazioni lato cpu influiscono molto meno.
esistono pochi giochi in cui, contro tendenza, ad esempio la xbox 1(che lato gpu è meno potente) ottiene prestazioni mediamente migliori rispetto a ps4 mi vengono in mente Hitman(ed è uno dei primi motori che anche su pc trae effettivamente benefici dalle dx12) ed assassin's creed "non ricordo quale" che nell'analisi del fps di digital foundry girano un pochino meglio sulla console microsoft proprio grazie alla cpu con clocka maggiore.
la ps4pro mi pare che mantiene cpu praticamente inalterata rispetto al modello standard ma ha circa raddoppiato le capacità della gpu, da cui la possibilità di usare supersampling/migliorare l'fps/renderizzare a 1800p(o giù di li) e upscalare in 2160p con "poca perdita", probabilmente microsoft nella prossima console migliorerà tutto il sistema ma quando parlano di 6Tflops si intende che la componente molto "sviluppata" e che garantirà prestazioni superiori sia la gpu.
inoltre, potenza a parte, contano molto le librerie e gli sdk, tanto più puoi riuscire ad ottimizzare le risorse tanto migliore può essere il risultato anche se hai componenti meno spinti.
come esemplificavo precedentemente per paolo, ti da di più un fx4300 con una 1080 che non un 6700k con una 750, quindi per quanto passare a cpu più prestante gli dia vantaggi il "core" di una console sta nel chip grafico.

Ryddyck
29-12-2016, 09:56
AMD is tweaking the final frequencies. Latest revisions of Zen are allowing higher frequencies than expected.
E fu così che Ryzen passò dai 349$ pietosi a 699$...

cdimauro
29-12-2016, 10:28
ha usato "se fossi" o "io al posto di intel", che significa ciò? Che anche lui al posto di intel avrebbe voluto guadagnare il più possibile. Che poi diventi sbagliato quando ritorna a pensare come consumatore , e nn come produttore, non ci vedo nessuna sindrome bipolare. :mbe:

edit:
anzi ci vedo una mente aperta
Se sei consapevole dei ruoli di produttore e consumatore, non vai a etichettare il primo come ladro. Paolo l'ha fatto perché, da fanatico AMD, se non infanga Intel non ci dorme la notte.

Infatti se fosse coerente avrebbe etichettato come ladra anche AMD quando, un po' di tempo fa, un utente postò i prezzi (da 6900K) delle prime CPU dual core, che furono introdotte inizialmente soltanto da questa casa, e dunque ne sfruttò l'esclusività. Invece... il silenzio più completo.

Prova a chiedergli se AMD, in quei casi, è stata ladra, e vedi un po' SE ti risponde...
ma non sono "mie idee", sono notizie reali che avevo letto ed nvidia non voleva entrare nel mercato console, erano dichiarazioni ufficiali ci facevamo pure le risate sopra a queste dichiarazioni lo ricordo benissimo tanto quanto il link che ha messo e che non ho mai letto guarda caso non sarà rimbalzato su quasi tutti i siti che leggo ogni tanto, ma la prendo per vera mi fido.
Beh, anch'io ho letto delle informazioni in merito, che però dicevano esattamente quello che poi ho riportato.

Forse la differenza è che io leggo le notizie da portali tecnologici come questo, e non frequento altri posti dove ci si lascia andare a ruota libera.
dai, dire che non esistono haters amd è come dire che la terra è piatta :asd:
Questo è un discorso completamente diverso. :read:
...nemmeno di larrabee non ho mai letto nulla, facciamone una inquisizione :sofico: che poi meno male si andata così :D

... non ho mai letto nulla che cosa posso farci :cry:
Semplice: non ti esprimi sull'argomento. Oppure ti documenti. O chiedi informazioni.

Ma quanto meno dovresti lasciare il beneficio del dubbio che chi ha riportato quell'informazione magari potrebbe avere ragione. :fagiano:
ma nella vita la fuori sei così? spero di no metti ansia :eek:
Non so tu, ma nella vita reale non è che sei libero di sparare quello che vuoi, senza che quelli che ti sono vicini ti contestino. ;)

La differenza è che questo è un forum, dunque è più facile scrivere a una moltitudine di persone, e di conseguenza avere più possibilità che qualcuno ti replichi. :read: :cool:
volendo spezzare una lancia a favore di paolo, non mi sembra incoerente affermare che:
a) il prezzo quella tal cosa secondo me è superiore al suo valore;
b) nelle stesse condizioni di mercato io cercherei di spremere un prezzo ancora superiore;
solitamente anche una supercar di quelle da 1 milione di euro non costa al produttore tanto da giustificare quel prezzo di vendita, è un prezzo elitario che viene fissato per altre ragioni, primo tra tutti l'esclusività del prodotto e quindi l'interesse da parte di una certa particolare nicchia di mercato.
su altri discorsi può essere stato incoerente, sinceramente non ricordo tutto quanto abbia affermato, ma su questo non mi pare.
Ma non ho sentito nessuno dare della ladra a Bugatti, Jaguar, Rolls-Royce, ecc., per i prezzi dei loro prodotti.

Il nocciolo della questione è tutto qui.
la ps4pro mi pare che mantiene cpu praticamente inalterata rispetto al modello standard
AFAIK il clock dovrebbe essere stato leggermente aumentato. Ma poca roba.
ma ha circa raddoppiato le capacità della gpu, da cui la possibilità di usare supersampling/migliorare l'fps/renderizzare a 1800p(o giù di li)
Dovrebbe essere 1440p. 1800p è davvero chiedere troppo (a meno di tagliare selvaggiamente dettagli / qualità).
e upscalare in 2160p con "poca perdita",
La perdita c'è, e non è poca, perché la differenza fra 1440p e 2160p è di più del doppio (2,25 volte) di pixel da processare nel secondo caso.
probabilmente microsoft nella prossima console migliorerà tutto il sistema ma quando parlano di 6Tflops si intende che la componente molto "sviluppata" e che garantirà prestazioni superiori sia la gpu.
Esatto. Ma non basterà per arrivare a processare scene a 4K, a meno di tagli anche qui.

Piedone1113
29-12-2016, 10:44
La perdita c'è, e non è poca, perché la differenza fra 1440p e 2160p è di più del doppio (2,25 volte) di pixel da processare nel secondo caso.


Molti giochi in 4k verranno renderizzati a 1800, ma la questione non è che vengono renderizzati a 1440 o 1800 e poi upscalati, mi è sembrato di capire che la scena venga renderizzata in modo ibrido:
una parte a 1800 (o 1440) ed una parte a 2560.
L'upscaling avrebbe anche la funzione di approssimazione (sempre da come ho capito) traslando di un pixel la creazione iniziale della scena tra un frame e l'altro e poi applicando un filtro tenendo conto del frame precedente e interpolando i pixel mancanti per approssimazione.
Non dovrebbe essere un semplice upscaling difatti la tecnologia usata non verrà implementata nella prossima gen di vga per accordi tra sony (e forse anche ms) e AMD.
Un semplice upscaling non avrebbe questa limitazione contrattuale, ti pare?

cdimauro
29-12-2016, 10:46
No, certamente.

Comunque 2560 è la risoluzione orizzontale di 1440p.

Francamente non credo che possa renderizzare a 1800p, anche se è un frame sì e l'altro no: ci vuole troppa potenza di calcolo.

Ovviamente a meno di tagliare dettagli.

Piedone1113
29-12-2016, 10:54
A meno di tagliare i dettagli o limitare gli oggetti sulla scena.
In fondo è più facile trovare il giusto equilibrio tra capacità computazionale e massima resa grafica quando si programma per un'unica struttura (a differenza dei giochi per pc che dovrebbero girare sia su entry level, magari integrata, sia su vga da 1200€).

cdimauro
29-12-2016, 11:01
@Antonio: appunto. D'altra parte se non hai abbastanza potenza computazionale, miracoli non ne puoi fare, ma soltanto trovare qualche palliativo.
Non volevo dire che non ho letto nulla in merito, ma che quel poco, evidentemente, che avevo letto ai tempi dicevano quello che sostengo; il che era soltanto una parte, tutto qui, hai fatto bene a riportarlo.
Io dico che la verità sta nel mezzo, così come i margini sono bassi è anche vero che il soc amd era la strada più facile per diversi motivi.
Come già detto, nVidia ha commercializzato la QUARTA versione del suo Tegra mesi prima che lo fossero le nuove console.

Dunque aveva tutte le capacità per realizzare un SoC per esse, similmente a quello che ha fatto AMD.

Semplicemente non ha voluto rinunciare al lauto pasto a cui è, da tempo abituata.
No no ci mancherebbe solo che non puoi replicare, ma contesti ogni singola parola! :eek: ...magari questa malattia ha un nome che io non conosco :Prrr:
Potrebbe essere deformazione professionale. :D

In realtà frequento banche dati (BBS) e forum da 26 anni, per cui diciamo che sono ben allenato ormai a seguire le discussioni, e a rispondere ai vari punti. :sofico:
ps. secondo me quelli di HU ti hanno fatto un tasto apposta per dividere e spezzettare lo stesso post :sofico:

:)
Ctrl-C (solo una volta), Ctrl-V (per ogni quote). :cool:

Gioz
29-12-2016, 11:34
Ma non ho sentito nessuno dare della ladra a Bugatti, Jaguar, Rolls-Royce, ecc., per i prezzi dei loro prodotti.

Il nocciolo della questione è tutto qui.

bhè si, ma un commento di quel tipo non è correlato direttamente ad una posizione incoerente.

AFAIK il clock dovrebbe essere stato leggermente aumentato. Ma poca roba.

Dovrebbe essere 1440p. 1800p è davvero chiedere troppo (a meno di tagliare selvaggiamente dettagli / qualità).
il problema è che stiamo generalizzando il discorso indicativamente ma tu puntualizzi su un aspetto che non è così deterministico e determinabile. esiste sia software nativo in 2160p, che "samplato" e upscalato, tutto sta al gioco in se e per se non viene renderizzato il frame ad una risoluzione fissata a prescindere.
vari giochi renderizzano a risoluzioni diverse a seconda di come sono stati sviluppati. ad esempio TESV/TES Online sono stati annunciati come 4K nativi, così come altre produzioni, chiaramente ci si riesce con cose più leggere o vecchie e remastered, non con i tripla A in uscita...ma i lsenso del discorso era che la tecnica è quella, non che tutto giri alla risoluzione nativa che ho indicato.

La perdita c'è, e non è poca, perché la differenza fra 1440p e 2160p è di più del doppio (2,25 volte) di pixel da processare nel secondo caso.
bhè è ovvio, se effettuo uno scaling per forza di cose qualcosa "lo invento" e per quanto bene possa farlo si perderà rispetto ad un rendering effettuato direttamente in quella risoluzione nativa, ho scritto appunto "poca perdita" non "senza perdita".
*considera anche che su un pannello UHD ha senso giocare indicativamente(indicativamente, non sto dicendo che sono fattori da prendere con precisione) sui 2 metri mezzo di distanza da 34" in su oppure a distanza inferiore su dimensioni di schermo ridotte, il ché si traduce in una perdita ancor meno evidente.
cioè se analizziamo il segnale a prescindere possiamo avere una differenza che puoi considerare anche pessima, se guardi al risultato nelle condizioni di utilizzo effettivo è molto ridimensionata...
è come guardare all'accelerazione di un'auto, 0-100Km/h in 7 secondi vs 3,5 secondi è un abisso, se poi devi girare nel traffico cittadino di brescia in realtà non cambia niente.

Esatto. Ma non basterà per arrivare a processare scene a 4K, a meno di tagli anche qui.
è quello che intendevo poco sopra, giustamente hai ragione e infatti i giochi 4K nativi o renderizzati a risoluzioni più alte tendenzialmente hanno ed avranno più compromessi in altri sensi.

EDIT: * mi sono accorto che ho fatto casino con il calcolatore delle distanze, 34" era rapprotato ad 1 metro e mezzo, 60" a 2 metri e mezzo, combinando le due cose ho riportato dati incongruenti, anche se il senso del discorso rimane invariato.

suneatshours86
29-12-2016, 11:37
ahahhh, grandi :asd:

a marzo sostanzialmente avevano fatto lo stesso giochetto (Intel GPU = AMD).
Vero? non vero?
Di solito qualcosa di vero c'è.

certezze dell'ultimo periodo: amd a dicembre presenta uno zen 8c16t in OC a 3.4ghz (ES con 3.15ghz base si suppone) con turbo disattivato dicendo che questa è una frequenza base e da qui ci saranno miglioramenti. Ci mostra prestazioni in MT ottime ma nessuno sa da quando il progetto zen è in atto quali siano i reali valori nel ST. Bocca cucita e tanti nda, forum che vengono chiusi, news che vengono cancellate etc.

rumors dell'ultimo periodo di dicembre:
- zen potrebbe avere sorprese nel ST
- zen a 5ghz aria OC
- zen nelle ultime rev supera le aspettative nelle feq (e ricordo che fottemberg, lo stesso che ha twittato questo rumors prevedeva zen con turbo a 4ghz, quindi si suppone tradotto che il turbo superi i 4ghz)

Ora non voglio dare per buono niente di questi rumors e giro a voi tutti la domanda:
zen che ci hanno mostrato poche settimane fa pare fosse un 3.15ghz in OC a 3.4. Posso capire il turbo disabilitato ma non riesco a collegare come amd in così poco tempo possa aver generato sample che ad aria raggiungono i 5ghz :mbe:
Dite la vosta :stordita:

stefanonweb
29-12-2016, 11:45
Non ho capito: Da dove è uscita la notizia dei 5 Giga? E' presumibilmente veritiera? Grazie.

suneatshours86
29-12-2016, 11:59
Non ho capito: Da dove è uscita la notizia dei 5 Giga? E' presumibilmente veritiera? Grazie.

non si sa. Si sa che questa rivista è riuscita ad avere tra le mani l'ES di zen a 3.15 ghz e che all'interno della rivista stessa sopra ad un'immagine ha inserito un codice binario (come già in passato aveva fatto per altre hot news del tipo "Intel GPU = AMD" a marzo) che qualche utente ha voluto tradurre ed è saltato fuori "ZenOC@Air=5G".

qui il link, ultima pagina: http://library.madeinpresse.fr/samples/MPqY2Vg2I71P-f

su anand si stanno ammazzando per questo. In compenso viene confermato un precedende rumor comparso su un forum chiuso ora... qualcosa vi dice niente carbonite? un bug grosso con smt e uop cache che taglia le prestazioni di tot%? Ecco la rivista conferma che il problema c'è! esattamente qui:
http://uploads.tapatalk-cdn.com/20161227/1a0cae2a0ae409a9e61e99f8c9795ccf.jpg

non ti sto dicendo di prendere per vero quello che era stato anticipato su carbonite mesi fa... però facci un pensierino a questo punto :)

OEidolon
29-12-2016, 11:59
Io non sono nemmeno sicuro che in quel confronto vs 6900K Zen fosse a 3.4GHz. Se l'hanno detto espressamente me lo sono perso.

https://youtu.be/4DEfj2MRLtA?t=1882

al minuto 31:40 dice chiaramente che è a 3.4 ghz senza boost

Gioz
29-12-2016, 12:06
Ora non voglio dare per buono niente di questi rumors e giro a voi tutti la domanda:
zen che ci hanno mostrato poche settimane fa pare fosse un 3.15ghz in OC a 3.4. Posso capire il turbo disabilitato ma non riesco a collegare come amd in così poco tempo possa aver generato sample che ad aria raggiungono i 5ghz :mbe:
Dite la vosta :stordita:
premesso che parliamo di rumors e supposizioni, quindi siamo nel dominio del "BHO".
durante new horizon che sia stata una cpu nativa a 3.4GHz o una 3.15/3.2/3.3 sovralimentata ed overclockata credo che amd abbia puntato a restare nell'intorno dei consumi della controparte.
cioè considerato che sull'efficienza energetica han promosso parte della pubblicità di zen e spesso per questa sono state mal considerate le cpu precedenti, suppongo che abbiano fatto un test ad hoc per dire "prestazioni e consumi ci sono", poi per fare stime ed analisi bisognerà comunque aspettare le cpu definitive.

quanto al discorso 5GHz ad aria probabilmente per raggiungere quei clock si ricorre a sovralimentazione notevole e ci si ritrova a gestire consumi e calore di molto aumentati, quindi impresentabili come offerta di mercato e rapportati ad una scheda madre di fascia alta, non necessariamente che dall'oggi al domani si siano ritrovati con cpu clockabili molto più alto, anche se rimane il fatto che non sappiamo a che periodo siano associabili i vari ES e quanto possano essere migliorati di volta in volta anche in questo senso.

george_p
29-12-2016, 12:35
Ma "intel gpu=amd" è riferito all'accordo tra amd e intel di cui si sa di recente?

Ren
29-12-2016, 12:42
No, sembra che Switch utilizzerà Tegra basato sul vecchio Maxwell. E' per questo che dicevo che probabilmente a nVidia non sarà costato niente il SoC di
questa console, visto che ha riciclato pari pari ciò che già aveva in casa

Ho i miei dubbi, ma quello che conta è l'uso del finfet, dato che la versione di maxwell tegra già integra le fp16.
Il vecchio maxwell-tegra gira sul 20nm. Probabilmente il devkit è un X1 20nm.

Attualmente Nvidia ha in produzione il Tegra Parker 16nm FF (pascal con i medesimi CUDA del X1). Possono benissimo riciclare il parker ridimensionando i blocchi funzionali superflui (encoder60fps,controller,cpu core etc) per ridurre il diesize.

Rinunciare al finfet in un chip mobile (portatile) è una bestialità eccessiva anche per nintendo la "tirchia":p...

suneatshours86
29-12-2016, 12:58
...
suppongo di si, non si ancora cosa ci sia di certo ma qualcosa c'è. E loro pare l'avessero previsto a marzo

paolo.oliva2
29-12-2016, 13:11
a marzo sostanzialmente avevano fatto lo stesso giochetto (Intel GPU = AMD).
Vero? non vero?
Di solito qualcosa di vero c'è.

certezze dell'ultimo periodo: amd a dicembre presenta uno zen 8c16t in OC a 3.4ghz (ES con 3.15ghz base si suppone) con turbo disattivato dicendo che questa è una frequenza base e da qui ci saranno miglioramenti. Ci mostra prestazioni in MT ottime ma nessuno sa da quando il progetto zen è in atto quali siano i reali valori nel ST. Bocca cucita e tanti nda, forum che vengono chiusi, news che vengono cancellate etc.

rumors dell'ultimo periodo di dicembre:
- zen potrebbe avere sorprese nel ST
- zen a 5ghz aria OC
- zen nelle ultime rev supera le aspettative nelle feq (e ricordo che fottemberg, lo stesso che ha twittato questo rumors prevedeva zen con turbo a 4ghz, quindi si suppone tradotto che il turbo superi i 4ghz)

Ora non voglio dare per buono niente di questi rumors e giro a voi tutti la domanda:
zen che ci hanno mostrato poche settimane fa pare fosse un 3.15ghz in OC a 3.4. Posso capire il turbo disabilitato ma non riesco a collegare come amd in così poco tempo possa aver generato sample che ad aria raggiungono i 5ghz :mbe:
Dite la vosta :stordita:

Secondo me la spiegazione è che AMD non ha mai dato in pasto degli ES più nuovi dell'A0, semplicemente perchè cerca di coprire le massime frequenze turbo, ma non nei confronti di un 7700K, tanto quello è e quello rimane, quanto invece verso gli Skylake-X, nella fattispecie X6.

Supponiamo Zen X8+8 a partire da 300$ ed il top a 500$, come riportano i rumors.
Cosa potrebbe fare Intel?

O ridurre di parecchio il prezzo di un 7700K, o puntare su un Skylake-X X6 a frequenze massime.

A parte R&D e quant'altro, non credo che tra produrre un X4+4 APU e un X6+6 X86 i costi possano essere sensibilmente differenti, quidi tra deprezzare un 7700K e un Skylake E X6, la via migliore sarebbe quella dell'X6.

Ed è questo il punto... AMD che dice? 3,4GHz+... ma un 6850K non è già 3,5GHz? Di Zen le voci parlano di turbo sui 4GHz, il 6850K non è già 4GHz?
Quindi Intel potrebbe accontentarsi di Skylake-X X6 di come è e avviare la fase finale.

Perchè escono ora le voci di frequenze massime di Zen più alte? Prendi un calendario e guarda le date... Skylake E Q2 2017? 3 mesi per un Tape-Out? Non c'è più tempo. O Intel manda in produzione Skylake E per come lo ha ora, o se ne riparla nel Q3 2017.

P.S.
Del resto era poco credibile che da un ES di dicembre 2015 AMD avesse guadagnato così poco, come del resto, e questo mette molto il dubbio, che il 13 dicembre non avesse un ES Zen con turbo funzionante e dopo 75 giorni (tra fine ES, produzione in volumi e commercializzazione) noi avremmo Zen negli scaffali?

alexsky8
29-12-2016, 13:24
Ora non voglio dare per buono niente di questi rumors e giro a voi tutti la domanda:
zen che ci hanno mostrato poche settimane fa pare fosse un 3.15ghz in OC a 3.4. Posso capire il turbo disabilitato ma non riesco a collegare come amd in così poco tempo possa aver generato sample che ad aria raggiungono i 5ghz :mbe:
Dite la vosta :stordita:

fosse vero AMD starebbe tenendo "segreto" l'asso nella manica per dare una bella spallata ad Intel nella fascia alta e facendola di colpo scalare a media

se prestazioni e prezzi fossero quelli dei rumors i piani di Intel sarebbero stravolti e l'unica via percorribile a beve termine sarebbe un drastico calo dei listini in attesa delle evoluzioni future a 10nm

Emaximus
29-12-2016, 13:37
https://www.techpowerup.com/229076/gigabyte-ax370-gaming-socket-am4-motherboard-pcb-pictured

M4R1|<
29-12-2016, 13:49
Carissimi dopo qualche anno ci si rivede.

Ma che è successo, avete messo in pensione il Capo?

Domanda più specifica a Zen, vi pare plausibile una disponibilità a febbraio? Il sistema in firma è deceduto da tempo e devo ri-aquistare un po' di roba.
X99 non vale il gioco e il "fantastico" z270 è imminente ma sembra che sia morto prima di uscire (a quanto pare non supporterà Coffee Lake... Follia che solo Intel può partorire abusando chiaramente della sua posizione dominante)

Grazie!!

Antostorny
29-12-2016, 14:07
Carissimi dopo qualche anno ci si rivede.
Domanda più specifica a Zen, vi pare plausibile una disponibilità a febbraio?
Dovrebbe essere disponibile l'ultima settimana di febbraio, quindi in scorte tra aprile/marzo.

capitan_crasy
29-12-2016, 14:13
https://www.techpowerup.com/229076/gigabyte-ax370-gaming-socket-am4-motherboard-pcb-pictured

:old:
Clicca qui... (http://www.hwupgrade.it/forum/showpost.php?p=44305465&postcount=10369)
Ma come al solito nessuno mi caga...:O

Carissimi dopo qualche anno ci si rivede.

Ma che è successo, avete messo in pensione il Capo?

Ma ciao!!!:D
Si, sono andato in "pensione", il mio fegato non avrebbe retto un altro thread sull' aspettando un altra CPU AMD...:asd::cry:

Domanda più specifica a Zen, vi pare plausibile una disponibilità a febbraio? Il sistema in firma è deceduto da tempo e devo ri-aquistare un po' di roba.
X99 non vale il gioco e il "fantastico" z270 è imminente ma sembra che sia morto prima di uscire (a quanto pare non supporterà Coffee Lake... Follia che solo Intel può partorire abusando chiaramente della sua posizione dominante)

Grazie!!

Diciamo che è la data più plausibile tra tutti i rumors sentiti fino ad ora...;)

capitan_crasy
29-12-2016, 14:20
non si sa. Si sa che questa rivista è riuscita ad avere tra le mani l'ES di zen a 3.15 ghz e che all'interno della rivista stessa sopra ad un'immagine ha inserito un codice binario (come già in passato aveva fatto per altre hot news del tipo "Intel GPU = AMD" a marzo) che qualche utente ha voluto tradurre ed è saltato fuori "ZenOC@Air=5G".

qui il link, ultima pagina: http://library.madeinpresse.fr/samples/MPqY2Vg2I71P-f

su anand si stanno ammazzando per questo. In compenso viene confermato un precedende rumor comparso su un forum chiuso ora... qualcosa vi dice niente carbonite? un bug grosso con smt e uop cache che taglia le prestazioni di tot%? Ecco la rivista conferma che il problema c'è! esattamente qui:
http://uploads.tapatalk-cdn.com/20161227/1a0cae2a0ae409a9e61e99f8c9795ccf.jpg

non ti sto dicendo di prendere per vero quello che era stato anticipato su carbonite mesi fa... però facci un pensierino a questo punto :)

Figuriamoci che AMD stessa non fa vedere ne le prestazioni, ne tanto meno gli OPN degli ES e questi si sono procurati una piattaforma ZEN A0, quindi con annessa la scheda mamma AM4 da laboratorio.
Che ci siano dei BUG pesanti su alcuni ES A0 è plausibile, non lo è che una rivista divulghi materiale sotto NDA e non le paghi le conseguenze!!!:read:

paolo.oliva2
29-12-2016, 14:41
Figuriamoci che AMD stessa non fa vedere ne le prestazioni, ne tanto meno gli OPN degli ES e questi si sono procurati una piattaforma ZEN A0, quindi con annessa la scheda mamma AM4 da laboratorio.
Che ci siano dei BUG pesanti su alcuni ES A0 è plausibile, non lo è che una rivista divulghi materiale sotto NDA e non le paghi le conseguenze!!!:read:

:D

Inoltre basta fare 2 considerazioni, ma proprio 2 di numero... c'è un rumor della fine di febbraio sulla data di Zen, ma c'è anche AMD che ufficialmente non fa altro che riportare Zen nel Q1 2017... vogliamo credere che l'ultimo Zen che ha AMD abbia 2 bug eclatanti che ancora dovrebbe risolvere, oppure che Zen sia ultimato e prossimo alla produzione di massa?
E guarda a caso i rumors di frequenze def oltre le aspettative, seppur da verificare, indubbiamente, almeno per tempistica, ci stanno tutte, quanto sopra direi assolutamente no!.

zla_Stobb
29-12-2016, 14:57
avendo mandato a puttane la scheda madre del mio i 5 :( aspetto zen

ad occhio quando dovrei spendere per avere qualcosa di equivalente ?

fabius21
29-12-2016, 15:32
Se sei consapevole dei ruoli di produttore e consumatore, non vai a etichettare il primo come ladro. Paolo l'ha fatto perché, da fanatico AMD, se non infanga Intel non ci dorme la notte.

Infatti se fosse coerente avrebbe etichettato come ladra anche AMD quando, un po' di tempo fa, un utente postò i prezzi (da 6900K) delle prime CPU dual core, che furono introdotte inizialmente soltanto da questa casa, e dunque ne sfruttò l'esclusività. Invece... il silenzio più completo.

Prova a chiedergli se AMD, in quei casi, è stata ladra, e vedi un po' SE ti risponde...


Comprendo il tuo punto di vista sul primo pezzo , ma non lo condivido , perchè capisco anche il punto di vista di paolo, e le tue conclusioni son esagerate , come dar della ladra ad intel.

Si ricordo i primi dual-core , ma se non erro costavano il doppio della controparte che non ne aveva, e tutto sommato ci stava, in quel periodo presi i 2 xeon al costo del dual-core.

Invece oggi abbiamo le parti invertite e di conseguenza il mio pensiero è ribaltato, perchè penso a me ;) , ma non dico che intel non fà bene a farlo , alla fine l'economia capitalista insegna quello, però giustamente con quei prezzi non vedrà i miei soldi , mi pare ovvio.

Io spero che con l'uscita di zen, intel debba abbassare di 1k il suo top di gamma e dalle voci sembra che sia possibile questo scenario , perchè penso che sia il giusto prezzo che debba avere , almeno avendo capito i vari costi.

Emaximus
29-12-2016, 15:35
:old:
Clicca qui... (http://www.hwupgrade.it/forum/showpost.php?p=44305465&postcount=10369)
Ma come al solito nessuno mi caga...:O

Errore mio capitano. Ero convinto che quella scheda fosse un'altra della serie gaming. :doh:

tuttodigitale
29-12-2016, 15:59
cdimauro...ammazza risponfi punto su punto :eek:
farò altrettanto :cool:

Non ci siamo capiti. Mi riferivo al fatto che coi transistor definisco il comportamento del chip, in termini prestazionali.

in che senso scusa?
un core jaguar è 3,1mmq (28nm bulk HDL), un core SB circa 18mmq (32nm bulk), senza contare che la l2 di Jaguar operà a metà della velocità di clock (meno della l3 di bulldozer), il prodotto Intel non va certo e consuma, 6 volte tanto.
E qui dove gioca un ruolo fondamentale il FO4.


Vedi SandyBridge, nello specifico, che nonostante abbia a disposizione meno transistor di BD, li usa per ottenere ottime prestazioni sia in ST sia in MT.

perchè il parallelo con k10, vede quest'ultimo prevalere non solo con BD, ma anche con SB, quando si parla di throughput per mmq a parità di clock (i core k10 sono grandi circa 9,6mmq)...
ma ripeto la conta dei transistor è importante fino ad un certo punto, e Jaguar è un esempio, proprio perchè estremo, rappresentativo.


Prima avevi scritto questo:

"Il fatto che l'ipc superiore a Jaguar, sia ottenuto allungando a dismisura le pipeline, ha permesso di ridurre il consumo"

Se sono leggermente più lunghe, non si capisce in che modo XV abbia potuto beneficarne per ridurre così tanto i consumi rispetto a Jaguar, pur lavorando a frequenze ben più elevate, e con più transistor.

mi sono in effetti lasciato andare ad una espressione infelice, ma questo non toglie il fatto che le pipeline di BD non sono propriamente corte, infatti si passa da 15 (dato ufficiale per Jaguar) a 19/22 (secondo Anandtech).

Appare piuttosto chiaro che il relativo alto ipc di Jaguar con un numero davvero misero di transistor, è stato ottenuto massacrando il FO4...
quello che sto cercando di dire che si può aumentare l'ipc senza sacrificare il FO4 e senza aumentare il numero degli stadi, ma ovviamente a scapito della conta dei transistor. Bjt2 aveva fatto l'esempio della moltiplicazione....
secondo te è un caso se in Jaguar non esiste uno stadio di pre-decodifica presente invece in k10 che di stadi ne ha solo 12?

Se Jaguar avesse il FO4 di XV sarebbe una supercpu, che consumerebbe meno di 1/6 di SB a parità di clock, ma non è proprio il caso.....


Makes sense. Però la cache non incide così tanto sui consumi (rispetto a tutto il core, intendo).

proprio per questo, preferisco fare confronti a livello di core, trascurando le cache l2, l3.


Quindi AMD avrebbe fatto pagare il costo di un progetto server anche alle sue soluzioni desktop.
Non è mica una novità per AMD. Non ricordo un solo die progettato esclusivamente per il mercato server.
Anche se non si hanno conferme ufficiali, sembrerebbe che Naples sia formato da 4 die ZEN x8.


Ma allora come fai a dire che i core di BD e SB sono sovrapponibili?

hai parlato di immagini di confronto.
comunque le ho trovate:
http://www.chip-architect.com/news/Llano_vs_SandyBridge_vs_Westmere.jpg
http://pc.watch.impress.co.jp/img/pcw/docs/430/044/9.jpg
un modulo BD, un dual core k10, e un core SB sono del tutto paragonabili come dimensioni.



Sì, ma a quelle frequenze i consumi sono molto elevati. IBM docet.

il problema come dicevo che il SOI non pare essere molto efficiente in basso.


Per il resto non so quale sia la forbice fra SOI e Bulk. Sappiamo per certo che Intel col suo processo BULK, e dunque orientato alle alte prestazioni, non sia andata molto in alto con le frequenze (SB i7-2700K 4C/8T è arrivato a 3.5Ghz base, 3.9Ghz turbo, in 95W. i7-3970X 6C/12T a 3.5/4.0 in 150W). Non so a quanto sarebbe potuto arrivare in frequenza il SOI alle stesse condizioni.

io credo che sia piuttosto elevata, un k10 non può murare in OC a 3,6GHz con consumi idle-to-power di 180W....
quando era uscito si dava colpa all'igp (ma inutile far notare che questa non era attiva con una gpu discreta), è uscita la versione "K", e si dava la colpa alla natura APU (anche questa volta era praticatamente inutile far notare che anche SB aveva l'igp integrata).
è uscito infine Trinity e tutti a dare la colpa alla fretta di AMD di immettere sul mercato llano (anche questa volta dimenticandosi del fatto che è stato necessario arrivare allo step B0 e con 6 mesi di ritardo sulla tabella di marcia)


Sempre per chiarezza, mi chiedo se, tolto di mezzo il processo a 32 nm, per tutti quelli precedenti ci fossero marcate differenze fra SOI e BULK in termini di massime frequenze raggiunte (con analoghi consumi).

si ci dovrebbero essere differenze anche piuttosto significative....esistevano delle cpu come POWER6 con fo4 13, come peraltro è accreditato il Prescott, che raggiungevano i 6GHz con i 65nm (lo stesso processo che ha dato qualche problemino ad AMD, visto che miglioramenti significativi rispetto al 90nm SOI non ci sono stati).

la verità, stiamo valutando differenze relative, il 45nm LK è secondo me migliore dei 45nm bulk di Intel nonostante il HMKG.


Ricordi male. Avevo già riportato che POWER7 raggiunge i 4,25Ghz soltanto in turbo usando la metà dei core. POWER7+ i 4,4Ghz li raggiunge con tutti i core (e consumano anche meno). Dunque fra POWER7 e POWER7+ c'è almeno un 10% di differenza "pura", in favore del secondo.

correggimi se sbaglio, il sistema 780 prevede metà core per le soluzioni occate a 4,42GHz rispetto a quelle a 3,72GHz.
E IBM ha offerto comunque i power7 a 45nm anche nel 2014 nelle soluzioni HPC, senza offrire all'aggiornamento al P7+, dove la l3 non è molto importante. Se avesse consumato molto meno (un quad che consuma più di un octa core) avrebbe certamente aggiornato tutte le sue soluzioni. Su questo sei d'accordo



Non mi pare proprio. (http://www.anandtech.com/show/4955/the-bulldozer-review-amd-fx8150-tested/7) Notare i test single-thread con Cinebench, e il first pass di x264 (anch'esso usa sostanzialmente un solo thread).
Rimane sotto (http://www.anandtech.com/show/4955/the-bulldozer-review-amd-fx8150-tested/8) anche in Crysis: Warhead, Dirt 3, e infine in Rage vt_benchmark (con un solo thread, ovviamente)

il confronto andrebbe fatto con llano, che è costruito sullo stesso silicio
http://www.anandtech.com/bench/product/1262?vs=399


Peraltro in casa Intel abbiamo avuto il già citato Pentium 4, che ha fatto storia coi suoi 20 stadi di pipeline (Willamette prima e Northwood poi). E 31 con Prescott, che però ha guadagnato soltanto pochi Mhz su Northwood. E immagino che entrambi avessero FO4 molto bassi.
ma il SOI dovrebbe garantire un maggior controllo del leakage...il power6 è un ottimo esempio, imho.


Premesso che non sappiamo cos'abbiano combinato, mi riquoto:

cosa avrebbero dovuto combinare di così tragico in AMD?


"una micro-architettura diversa e più simile alle precedenti"
sai simile, lascia molto spazio ad interpretazioni....un 10-15% di ipc come con il passaggio da Nehalem a SB, non avrebbe trasformato llano in un missile...

maxsona
29-12-2016, 16:11
https://www.techpowerup.com/229076/gigabyte-ax370-gaming-socket-am4-motherboard-pcb-pictured
Mi pare che abbiano aggiunto altre foto :mbe:

suneatshours86
29-12-2016, 16:47
...

alt io non ho detto niente, io ho provocato tutti per avere qualcosa su cui discutere :)
e vedo che in tanti stanno rispondendo :)
Comunque ho preso una cantonata violenta, non so perchè solo ora ricordo che in realtà non era OC ma che aveva voltaggi piu tosti per tenerlo stabile :fagiano: pardòn, succede
Sulla questione delle frequenze io rimango dell'opinione che come dici tu e come dice bjt si possono tranquillamente raggiungere traguardi alti, tutti gli indizi portano a questo. Il punto è: quando? Siamo pur sempre di fronte a qualcosa di estremamente nuovo e raggiungere già determinate frequenze al day1 la vedo difficile, non impossibile. AMD ci riuscirà? I rumors dicono che ci sta riuscendo? tanto meglio :Prrr:

Figuriamoci che AMD stessa non fa vedere ne le prestazioni, ne tanto meno gli OPN degli ES e questi si sono procurati una piattaforma ZEN A0, quindi con annessa la scheda mamma AM4 da laboratorio.
Che ci siano dei BUG pesanti su alcuni ES A0 è plausibile, non lo è che una rivista divulghi materiale sotto NDA e non le paghi le conseguenze!!!:read:
chi te lo ha detto che fosse sotto nda e che invece la notizia e l'hardware non siano sfuggiti sotto banco di proposito?
"Ops, ho lasciato l'iphone 8 sul tavolo del bar :eek: non è mai successo?"
su anand discutono proprio su questo ed io come detto in precedenza voglio non prendere per buono nessun rumors... manca così poco alla fine.

capitan_crasy
29-12-2016, 17:00
chi te lo ha detto che fosse sotto nda e che invece la notizia e l'hardware non siano sfuggiti sotto banco di proposito?
"Ops, ho lasciato l'iphone 8 sul tavolo del bar :eek: non è mai successo?"
su anand discutono proprio su questo ed io come detto in precedenza voglio non prendere per buono nessun rumors... manca così poco alla fine.

I fatti sono che AMD non avrebbe MAI permesso la divulgazione di numeri su quella particolare CPU, qualora OPN diffuso dalla rivista sia reale.
Le pippe mentali bizantine GomBlottiste da forum non cambiano la natura di quella preview che rischia di creare danni d'immagine pagabili a caro prezzo...:rolleyes:

paolo.oliva2
29-12-2016, 17:02
alt io non ho detto niente, io ho provocato tutti per avere qualcosa su cui discutere :)
e vedo che in tanti stanno rispondendo :)
Comunque ho preso una cantonata violenta, non so perchè solo ora ricordo che in realtà non era OC ma che aveva voltaggi piu tosti per tenerlo stabile :fagiano: pardòn, succede
Sulla questione delle frequenze io rimango dell'opinione che come dici tu e come dice bjt si possono tranquillamente raggiungere traguardi alti, tutti gli indizi portano a questo. Il punto è: quando? Siamo pur sempre di fronte a qualcosa di estremamente nuovo e raggiungere già determinate frequenze al day1 la vedo difficile, non impossibile. AMD ci riuscirà? I rumors dicono che ci sta riuscendo? tanto meglio :Prrr:
Se non sbaglio, è la stessa AMD che aveva detto che l'avevano leggermente overvoltato... quindi va beh, non overcloccato, ma overvoltato si, c'è sempre un over :)

chi te lo ha detto che fosse sotto nda e che invece la notizia e l'hardware non siano sfuggiti sotto banco di proposito?
"Ops, ho lasciato l'iphone 8 sul tavolo del bar :eek: non è mai successo?"
su anand discutono proprio su questo ed io come detto in precedenza voglio non prendere per buono nessun rumors... manca così poco alla fine.
Oddio... concordo che sull'ipotesi di violare l'NDA ci deve essere il consenso di AMD... ma io dubito fortemente che AMD abbia permesso di violare l'NDA per riportare 2 bug... specie dopo il culo che si è fatta per far vedere Zen rose e fiori.

suneatshours86
29-12-2016, 17:27
I fatti sono che AMD non avrebbe MAI permesso la divulgazione di numeri su quella particolare CPU, qualora OPN diffuso dalla rivista sia reale.
Le pippe mentali bizantine GomBlottiste da forum non cambiano la natura di quella preview che rischia di creare danni d'immagine pagabili a caro prezzo...:rolleyes:

Quindi tu mi stai dicendo che nel 2017 è impensabile che zen un processore, non un'arma di distruzione di massa, in fase di produzione avviata e in sviluppo sulle schede madri dei produttori (non aree segrete dell'esercito USA) sia sfuggito sotto banco da un produttore stesso?
Va bene, posso anche crederti

bjt2
29-12-2016, 17:39
http://www.realworldtech.com/forum/?threadid=163466&curpostid=163829

Questo è Charlie, capoccia di semiaccurate, che risponde al famoso juanrga sul forum di realworldtech, sul rumor di OC a 5GHz ad aria.
Dice che non ha dati diretti, ma amici gli dicono che si clocca bene. Dice anche che non ha notizie di particolari colli di bottiglia (cold bug?) e che appena gli overclokker pro ci metteranno mano lo sapremo. Dice che anche se la frequenza base dovesse essere 3.4, i pro non dovrebbero avere problemi ad arrivare a 5Ghz...

paolo.oliva2
29-12-2016, 18:29
http://www.realworldtech.com/forum/?threadid=163466&curpostid=163829

Questo è Charlie, capoccia di semiaccurate, che risponde al famoso juanrga sul forum di realworldtech, sul rumor di OC a 5GHz ad aria.
Dice che non ha dati diretti, ma amici gli dicono che si clocca bene. Dice anche che non ha notizie di particolari colli di bottiglia (cold bug?) e che appena gli overclokker pro ci metteranno mano lo sapremo. Dice che anche se la frequenza base dovesse essere 3.4, i pro non dovrebbero avere problemi ad arrivare a 5Ghz...

Per curiosità... quando parlano di 5GHz, cosa intendono? RS o bench?
Comunque sto sentendo il gong del king che bussa al kong.
5GHz ad aria, sale meglio di BD... mi sta piacendo sto Zen...

Ho avuto un flash... dopo anni di osannamento Cinebench (di ridicolo ho sempre considerato quello ST), se Zen si occa a 5,5GHz o più, chissà quanti 7700K si fonderanno per l'ST Cinebench... tutti belli scoperchiarti ma.... nisba.

capitan_crasy
29-12-2016, 18:42
Quindi tu mi stai dicendo che nel 2017 è impensabile che zen un processore, non un'arma di distruzione di massa, in fase di produzione avviata e in sviluppo sulle schede madri dei produttori (non aree segrete dell'esercito USA) sia sfuggito sotto banco da un produttore stesso?
Va bene, posso anche crederti

http://i.imgur.com/saEkznw.gif

bjt2
29-12-2016, 18:47
Per curiosità... quando parlano di 5GHz, cosa intendono? RS o bench?
Comunque sto sentendo il gong del king che bussa al kong.
5GHz ad aria, sale meglio di BD... mi sta piacendo sto Zen...

Ho avuto un flash... dopo anni di osannamento Cinebench (di ridicolo ho sempre considerato quello ST), se Zen si occa a 5,5GHz o più, chissà quanti 7700K si fonderanno per l'ST Cinebench... tutti belli scoperchiarti ma.... nisba.

Non ne ho proprio idea, ma se le mie previsioni di stock 4/5 turbo sono vere allora è RS...
Ma questo io lo dicevo prima di new horizon. Ho sempre sperato che qualcuno introducesse un autoOC come quello AMD, ma non pensavo che lo facessero ora... Penso che dovrebbero pubblicizzarlo come es 4Ghz base e 5+ turbo... In breve 4/5+...

maxsona
29-12-2016, 19:13
:D :D

http://www.leparoledianita.it/wp-content/uploads/2015/11/castelli-in-aria.jpg

paolo.oliva2
29-12-2016, 19:18
Non ne ho proprio idea, ma se le mie previsioni di stock 4/5 turbo sono vere allora è RS...
Ma questo io lo dicevo prima di new horizon. Ho sempre sperato che qualcuno introducesse un autoOC come quello AMD, ma non pensavo che lo facessero ora... Penso che dovrebbero pubblicizzarlo come es 4Ghz base e 5+ turbo... In breve 4/5+...

Io credo che AMD farà con Zen come per le RX 480.... 95W TDP e frequenze def conservative.... tranne, se vuole, un modello TOP per OC magari a 125W def e variabile.

Comunque, se ci pensi, il turbo di Zen sarebbe la soluzione ideale per non menomare un X8+8 vs gli i7 X4 e nel contempo non segarsi le vendite di un modello X8+8 che sale come X8.

Nel senso... se il turbo lavora al max 95W, nel funzionamento come X4+4 (e quindi in alternativa agli i7 X4+4), avrà comunque frequenze non limitate dal TDP, perchè 95W come X8+8 e 95W come X4+4....
Però, nel contempo, lo limiti come X8+8 per via dei 95W, che possono si far variare la frequenza finale a seconda del carico, però di certo non come un 6900K che in determinate situazioni comunque i 140W def li sfrutta tutti.
Un modello Zen X8+8 sbloccato nel limite TDP, ovviamente si potrebbero assegnare 140W come limite e quindi tutta la logica turbo avrebbe un limite ben più alto.

Come vendita... ovviamente un Zen X8+8 base lo si può anche prezzare 300$, per il fatto che deve essere allettante agli Intel 11XX... i modelli Zen X8+8 con più frequenza come X8 (nel senso TDP def superiore o variabile), non avrebbero problema di prezzo, perchè ovviamente sarebbero l'alternativa ad un 6900K, quindi AMD li potrebbe pure prezzare 500€ se non 700€ per una super-selezione, ma ovviamente l'alternativa sarebbe 1100€, poco importa.

Vediamo i prezzi... ma se AMD li conferma... non farò 1 sistema Zen e 2 muletti 8350/8370, ma credo 2 sistemi Zen e 1 muletto. Il sistema BD mi serve perchè faro 1000 confronti...

paolo.oliva2
29-12-2016, 19:27
Quindi tu mi stai dicendo che nel 2017 è impensabile che zen un processore, non un'arma di distruzione di massa, in fase di produzione avviata e in sviluppo sulle schede madri dei produttori (non aree segrete dell'esercito USA) sia sfuggito sotto banco da un produttore stesso?
Va bene, posso anche crederti

Non so come operi Intel, ma con AMD, per avere un ES, praticamente devi firmare tante di quelle carte che basta che scorreggi troppo forte e sei in penale :).

Poi le info possono anche trapelare... ma indubbiamente una cosa è il Tizio amico di Caio che conosce Sempronio, al quale hanno detto che.... e tutt'altro un ES con tanto di PIN (che equivale a dire "l'ho io") che postato in rete risulta praticamente un assegno firmato in bianco sulla cifra che sarebbe compilata da AMD... scusa l'espressione, ma col cazzo che io mi faccio spennare per 4 persone dei forum...

Se non mi credi, fai mente locale.
Le frequenze più alte comparse in rete sono quelle fatte da AMD. Tutto il resto è "ES a frequenza X,Y" e "gli ES arrivano sopra i 4GHz in turbo X8", il resto nulla. Gli ES sono in giro da marzo... siamo a 60 giorni dal lancio... impossibile che le ditte produttrici di mobo non abbiano le versioni finali di Zen, ma bocche cucite o, meglio, cementate.

Forum Rift
29-12-2016, 20:00
ma ma....

https://www.techpowerup.com/229090/amds-upcoming-ryzen-chips-to-reportedly-overclock-5-ghz-on-air


https://www.techpowerup.com/img/16-12-29/262a64c3b5ab.jpg

:eek:

Roland74Fun
29-12-2016, 20:18
5GHz ad aria, sale meglio di BD... mi sta piacendo sto Zen...
............
se Zen si occa a 5,5GHz o più, chissà quanti 7700K si fonderanno per l'ST Cinebench... tutti belli scoperchiarti ma.... nisba.


Penso che dovrebbero pubblicizzarlo come es 4Ghz base e 5+ turbo... In breve 4/5+...

Si, si, certo, certo......
Possono scrivere quello che vogliono.
Cose già viste.

http://uploads.tapatalk-cdn.com/20161229/c67545f6f3ef78d421217ede40848f1a.jpg

paolo.oliva2
29-12-2016, 20:51
A me basterebbe che si occhi uguale. :sofico:

Fino a poco fa, qualche mese, sarei rimasto soddisfatto se in RS/DU Zen mi avrebbe tenuto 3,8GHz... ora ci sarebbe la possibilità addirittura di una frequenza superiore nei 95W...
Ma tu non saresti contento di uno Zen X8+8 sbloccato, sui 500€, OC 5GHz ad aria? Io si :)

M4R1|<
29-12-2016, 21:14
Ma ciao!!!:D
Si, sono andato in "pensione", il mio fegato non avrebbe retto un altro thread sull' aspettando un altra CPU AMD...:asd::cry:

Ahahahha mi sa che qui pochi si ricordano le attese per K10 ed il famoso messaggio di leggere la stramaledetta prima pagine :sofico:


Diciamo che è la data più plausibile tra tutti i rumors sentiti fino ad ora...;)

Ottimo!
Zen ed in generale la piattaforma X370 sebrano davvero interessanti.
Vediamo che cosa succedera' settimana prossima al CES e c'e' davvero da incrociare le dita, che magari questa volta i piani di conquista del mondo di Intel si rilassino un pochino :D

Roland74Fun
29-12-2016, 21:19
Ma tu non saresti contento di uno Zen X8+8 sbloccato, sui 500€, OC 5GHz ad aria? Io si :)

Mi accontenterei che il mio FX-8350 durasse 10 anni senza pieghe come il mio vecchio Barton.

capitan_crasy
29-12-2016, 21:26
Ahahahha mi sa che qui pochi si ricordano le attese per K10 ed il famoso messaggio di leggere la stramaledetta prima pagine :sofico:



Solo per te!:D

http://www.capitancrasy.com/images/5POST.gif
http://www.capitancrasy.com/images/5POST0006.gif

Ale55andr0
29-12-2016, 21:37
5°post, prima pagina="benvenuto" :confused:

capitan_crasy
29-12-2016, 21:40
5°post, prima pagina="benvenuto" :confused:

:asd: :D
Sono passati quasi 10 anni, sei troppo giovane per capire...;)

M4R1|<
29-12-2016, 21:46
Quindi tu mi stai dicendo che nel 2017 è impensabile che zen un processore, non un'arma di distruzione di massa, in fase di produzione avviata e in sviluppo sulle schede madri dei produttori (non aree segrete dell'esercito USA) sia sfuggito sotto banco da un produttore stesso?
Va bene, posso anche crederti

Ho lavorato per HP per circa un anno e mezzo e posso dirti che i controlli sull'hardware erano davvero serrati. Nella procedente vita lavorativa ero a capo del gruppo di ingegneri dietro il piu' grosso cloud pubblico europe. L'azienda era in partnership con Supermicro e li i controlli erano letteralmente da ispezione ad entrata ed uscita.
Solo di recente sono venuto a conoscenza invece che la maggior parte degli ES Intel in commercio (TaoBao, eBay, etc) vengano da contratti di EAF (early adopter forum).
Intel nella fattispecie, non richiede indietro ES delle CPU (questi sono solitamente i grossi cloud provider come Amazon e Microsoft e quelli che hanno servizi imponenti come Facebook e Google).

Io stesso comprai il mio E5-2680 prima della commercializzazione degli Xeon E5 nella fine del 2011 ed ancor prima un 2600K Q1EB due mesi prima della commercializzazione di Sandy Bridge ;)

Pero' nella mia esperienza non ho mai visto AMD fare cose simili.
Infatti gli ES degli Opteron sono rarissimi.

Detto cio', tutto e' plausibile visto che quella rivista francese avra' incassato piu' in pubblicita' di quanto speso per Zen ;)

Detto cio' e' un A0, aka non prenderei in considerazione nemmeno mezza virgola di quello che rappresenta.

M4R1|<
29-12-2016, 21:47
Solo per te!:D

http://www.capitancrasy.com/images/5POST.gif
http://www.capitancrasy.com/images/5POST0006.gif

:sofico:

Non sai quanti ricordi iniziano ad affiorare!
Grazie Caro!

Rez
29-12-2016, 22:05
:asd: :D
Sono passati quasi 10 anni, sei troppo giovane per capire...;)

:sofico: :sofico:
sti razzi... che tempi ... :oink:

Ibanez89
29-12-2016, 22:18
A me basterebbe che si occhi uguale. :sofico:

Fino a poco fa, qualche mese, sarei rimasto soddisfatto se in RS/DU Zen mi avrebbe tenuto 3,8GHz... ora ci sarebbe la possibilità addirittura di una frequenza superiore nei 95W...
Ma tu non saresti contento di uno Zen X8+8 sbloccato, sui 500€, OC 5GHz ad aria? Io si :)

Un sogno sarebbe tutta la serie sbloccata come gli fx, altrimenti addio OC semplice semplice per me, 500€ per una cpu non li potrei spendere proprio :(

io ho un 8320e a 5Ghz, e già quei 140€ mi pesarono :cry:

tuttodigitale
29-12-2016, 23:23
Intanto a 3.4ghz consuma circa come il 6900k, e questo la dice lunga sul fatto che fosse in OC, era semplicemente clockato il giusto per stare circa alla pari nei test o poco sopra in quelli fatti da amd, che sono blender e handbrake... magari vedremo altri test al CES o più avanti nei prossimi 2 mesi.

a quanto arriva circa in massimo OC il 6900k ad aria? 4.5ghz? non vedo perché zen 8c non possa arrivare in OC a 5ghz avendo FO4 minore, meno L3 e consumi comparabili su un silicio di poco inferiore a pari efficienza/clock/prestazioni: sarebbe segno che l'architettura scala bene e non ha colli evidenti.
allora è vero che non si dovrebbe parlare di OC, ma altresì vero che non può consumare come il 6900K, ovvero circa 90W in un test di conversione video, dove di regola il turbo core entra in funzione in virtù dell'utilizzo non proprio ottimale dei thread....
Con quelle specifiche di vcore/frequenza quel ES di ZEN non rientra nel TDP di 95W.

marchigiano
29-12-2016, 23:29
Un sogno sarebbe tutta la serie sbloccata come gli fx, altrimenti addio OC semplice semplice per me, 500€ per una cpu non li potrei spendere proprio :(

io ho un 8320e a 5Ghz, e già quei 140€ mi pesarono :cry:

va be magari salgono di bus alla vecchia maniera... già si imposta il molti al max turbo + un 20% di bus e via andare :sofico:

oppure sulle mobo riescono a settare dei moltiplicatori fissi tipo 1,33x o 1,7x stile intel e a quel punto te la giochi di moltiplicatore cpu

Pozhar
29-12-2016, 23:33
Magari si ritorna ai tempi dell'overlock con la "matita" :cool:

https://s18.postimg.org/nxxdrs049/hntuki76yo.gif

tuttodigitale
29-12-2016, 23:43
fosse vero AMD starebbe tenendo "segreto" l'asso nella manica per dare una bella spallata ad Intel nella fascia alta e facendola di colpo scalare a media
più che segreto, credo che quel ES non fosse definitivo, ma da li a poco sarebbe uscito una nuova revisione....AMD aveva detto che un paper launch, ovvero test fatte da testate giornalistiche, ci sarebbe stato per il q4 del 2016...hanno smentito pure le voci su un probabile, ma a quanto pare più che fondato ritardo....
secondo me, il problema non è neppure il silicio, ma tutti i problemi di ottimizzazione delle tecnologia a risparmio energetico...
se vi ricordate i grafici di Carrizo, veniva riportato un aumento dei consumi a causa del AVFS alle frequenze più alte. Tecnologie così sofisticate non sembrerebbero privi di effetti collaterali.
Non voglio portare sfiga, ma in qualche problemino si sono imbattuti, imho.

bmw320d150cv
30-12-2016, 00:32
Magari si ritorna ai tempi dell'overlock con la "matita" :cool:

https://s18.postimg.org/nxxdrs049/hntuki76yo.gif

pencil mod :eek: :eek:

cdimauro
30-12-2016, 08:15
bhè si, ma un commento di quel tipo non è correlato direttamente ad una posizione incoerente.
Lo è perché, come ho già riportato prima, Paolo non ha mai dato della ladra ad AMD quando questa commercializzava prodotti esclusivi vendendoli a peso d'oro. Infatti ha SISTEMATICAMENTE evitato di intervenire, persino quando ieri l'ho esplicitamente tirato in ballo sull'argomento.

Questo a dimostrazione che il suo presunto interesse da consumatore è esclusivamente di facciata, in quanto è e rimane un cieco fanatico integralista di AMD.

Piuttosto che ammettere una cosa del genere, per giunta pubblicamente, preferirebbe tagliarsi tutte e due le mani. :rolleyes:

Hai presente Fonzie quando doveva dire di aver sbagliato (https://www.youtube.com/watch?v=pZmGRnFXsX8)? Lui è peggio, perché nemmeno ci prova! :D
il problema è che stiamo generalizzando il discorso indicativamente ma tu puntualizzi su un aspetto che non è così deterministico e determinabile. esiste sia software nativo in 2160p, che "samplato" e upscalato, tutto sta al gioco in se e per se non viene renderizzato il frame ad una risoluzione fissata a prescindere.
vari giochi renderizzano a risoluzioni diverse a seconda di come sono stati sviluppati. ad esempio TESV/TES Online sono stati annunciati come 4K nativi, così come altre produzioni, chiaramente ci si riesce con cose più leggere o vecchie e remastered, non con i tripla A in uscita...ma i lsenso del discorso era che la tecnica è quella, non che tutto giri alla risoluzione nativa che ho indicato.
Permettimi: il gioco in sé può benissimo essere renderizzato sempre a 2190p, anziché ricorrere ad upscaling. Non lo si fa perché, per l'appunto, manca la potenza di calcolo.
bhè è ovvio, se effettuo uno scaling per forza di cose qualcosa "lo invento" e per quanto bene possa farlo si perderà rispetto ad un rendering effettuato direttamente in quella risoluzione nativa, ho scritto appunto "poca perdita" non "senza perdita".
*considera anche che su un pannello UHD ha senso giocare indicativamente(indicativamente, non sto dicendo che sono fattori da prendere con precisione) sui 2 metri mezzo di distanza da 34" in su oppure a distanza inferiore su dimensioni di schermo ridotte, il ché si traduce in una perdita ancor meno evidente.
cioè se analizziamo il segnale a prescindere possiamo avere una differenza che puoi considerare anche pessima, se guardi al risultato nelle condizioni di utilizzo effettivo è molto ridimensionata...
è come guardare all'accelerazione di un'auto, 0-100Km/h in 7 secondi vs 3,5 secondi è un abisso, se poi devi girare nel traffico cittadino di brescia in realtà non cambia niente.
Assolutamente d'accordo su questo, ma non è il fulcro del discorso.
è quello che intendevo poco sopra, giustamente hai ragione e infatti i giochi 4K nativi o renderizzati a risoluzioni più alte tendenzialmente hanno ed avranno più compromessi in altri sensi.
Esattamente.
EDIT: * mi sono accorto che ho fatto casino con il calcolatore delle distanze, 34" era rapprotato ad 1 metro e mezzo, 60" a 2 metri e mezzo, combinando le due cose ho riportato dati incongruenti, anche se il senso del discorso rimane invariato.
No problem: l'importante era il discorso generale. :)
Ho i miei dubbi, ma quello che conta è l'uso del finfet, dato che la versione di maxwell tegra già integra le fp16.
Il vecchio maxwell-tegra gira sul 20nm. Probabilmente il devkit è un X1 20nm.

Attualmente Nvidia ha in produzione il Tegra Parker 16nm FF (pascal con i medesimi CUDA del X1). Possono benissimo riciclare il parker ridimensionando i blocchi funzionali superflui (encoder60fps,controller,cpu core etc) per ridurre il diesize.

Rinunciare al finfet in un chip mobile (portatile) è una bestialità eccessiva anche per nintendo la "tirchia":p...
Al momento le notizie sono queste: Specifiche Nintendo Switch: Tegra con architettura Maxwell e non Pascal (http://gaming.hwupgrade.it/news/videogames/specifiche-nintendo-switch-tegra-con-architettura-maxwell-e-non-pascal_66189.html)

Per cui X1 è usato come Devkit, e il SoC dovrebbe essere sempre lo stesso: niente Pascal, ma solo Maxwell.

Certamente Nintendo potrebbe risparmiare di più passando ai 16nm FinFET, e magari salire un po' con le frequenze, tenendo a bada i consumi, ma dal pezzo sembra emergere che abbia avuto poco tempo, e dunque si sia ritrovata col prendere ciò che c'era già a disposizione. Penso che il declino inesorabile di Wii U l'abbia spinta a prendere una decisione drastica, e in tempi rapidi.

Comunque non so se ci siano i margini per uno shrink dell'X1 sui 16nm FinFET. Magari, se non ci sono altre modifiche, sarebbe possibile in tempi rapidi. Al limite è un passaggio che potrebbe riservarsi più avanti, per una versione "Lite" dello Switch. ;)
Perchè escono ora le voci di frequenze massime di Zen più alte? Prendi un calendario e guarda le date... Skylake E Q2 2017? 3 mesi per un Tape-Out? Non c'è più tempo. O Intel manda in produzione Skylake E per come lo ha ora, o se ne riparla nel Q3 2017.
Purtroppo continui ad avere il brutto vizio di viaggiare alacremente con la fantasia, peraltro cercando di imporla come fosse la realtà.

1) Intel, a differenza di AMD, ha delle PROPRIE fonderie, e dunque non deve andare a bussare alla porta di nessuno per realizzare i suoi prodotti.
2) Inoltre ha AMPIA capacità produttiva (tant'è che la vende anche a terzi), e dunque non si deve mettere in fila con nessuno, perché ha sicuramente spazio nelle sue fonderie per qualunque suo prodotto.
3) Ha un processo produttivo maturo, visto che è da più di 2 anni che lo usa e lo affina, e dunque non si aspetta nessuna sorpresa né tanto meno problemi di rese.
4) Last but not really least, Skylake-E ha quote di mercato di estrema nicchia rispetto agli altri prodotti più consumer, e dunque non sono previsti né necessari lotti di parecchi pezzi. Ergo: supponendo che il rilascio sia per il Q2 2017, che il mese target sia Giugno (la sparo qui), e che ci vogliano un paio di mesi per i produttori per rilasciare prodotti su di esso basati, le basterebbe consegnare i (pochi) lotti per fine Aprile.

In conclusione quella che Intel, PER TE, dovrebbe per forza avere ADESSO in produzione Skylake-E, è soltanto la sparata di un fanboy che non sa quello che dice.

E che tu sia un fanboy è evidente, visto che per Zen, previsto per il Q1 2017, hai ipotizzato tapeout in corso fino a "ieri", affinamenti vari con innalzamento mostruoso delle frequenze, risoluzioni dei problemi vari, e chi più ne ha più ne metta. E tutto questo ben di dio tutto nel giro di pochi giorni, perché Q1 = al massimo Marzo.

Intel con rilascio per il Q2 non avrebbe più tempo. AMD, col Q1, sì.

Only AMD makes it possible... (sic!) :rolleyes:
Comprendo il tuo punto di vista sul primo pezzo , ma non lo condivido , perchè capisco anche il punto di vista di paolo, e le tue conclusioni son esagerate , come dar della ladra ad intel.

Si ricordo i primi dual-core , ma se non erro costavano il doppio della controparte che non ne aveva, e tutto sommato ci stava, in quel periodo presi i 2 xeon al costo del dual-core.

Invece oggi abbiamo le parti invertite e di conseguenza il mio pensiero è ribaltato, perchè penso a me ;) , ma non dico che intel non fà bene a farlo , alla fine l'economia capitalista insegna quello, però giustamente con quei prezzi non vedrà i miei soldi , mi pare ovvio.
La questione non è questa. Vedi sopra, la mia replica a Gio.
Io spero che con l'uscita di zen, intel debba abbassare di 1k il suo top di gamma e dalle voci sembra che sia possibile questo scenario , perchè penso che sia il giusto prezzo che debba avere , almeno avendo capito i vari costi.
Avere prodotti competitivi aiuta la concorrenza e le tasche dei consumatori. Ma è cosa ben nota, e non conosco gente che la pensi diversamente. ;)
Non so come operi Intel, ma con AMD, per avere un ES, praticamente devi firmare tante di quelle carte che basta che scorreggi troppo forte e sei in penale :).
Intel è ben nota per due cose nell'industry: per essere la leader nel settore dei semiconduttori, e... per il suo ufficio legale. E ho detto tutto...
Ho lavorato per HP per circa un anno e mezzo e posso dirti che i controlli sull'hardware erano davvero serrati. Nella procedente vita lavorativa ero a capo del gruppo di ingegneri dietro il piu' grosso cloud pubblico europe. L'azienda era in partnership con Supermicro e li i controlli erano letteralmente da ispezione ad entrata ed uscita.
Solo di recente sono venuto a conoscenza invece che la maggior parte degli ES Intel in commercio (TaoBao, eBay, etc) vengano da contratti di EAF (early adopter forum).
Intel nella fattispecie, non richiede indietro ES delle CPU (questi sono solitamente i grossi cloud provider come Amazon e Microsoft e quelli che hanno servizi imponenti come Facebook e Google).

Io stesso comprai il mio E5-2680 prima della commercializzazione degli Xeon E5 nella fine del 2011 ed ancor prima un 2600K Q1EB due mesi prima della commercializzazione di Sandy Bridge ;)

Pero' nella mia esperienza non ho mai visto AMD fare cose simili.
Infatti gli ES degli Opteron sono rarissimi.

Detto cio', tutto e' plausibile visto che quella rivista francese avra' incassato piu' in pubblicita' di quanto speso per Zen ;)

Detto cio' e' un A0, aka non prenderei in considerazione nemmeno mezza virgola di quello che rappresenta.
Non è questo il punto. Non serve far uscire un ES per avere informazioni su Zen.

Anche con tutti i controlli all'entrata e all'uscita, è da una vita che saltano fuori leak su informazioni, e persino benchmark. Ed è tutta roba relativamente semplice da far uscire, perché non devi portarti via il chip infilato da qualche parte.
allora è vero che non si dovrebbe parlare di OC, ma altresì vero che non può consumare come il 6900K, ovvero circa 90W in un test di conversione video, dove di regola il turbo core entra in funzione in virtù dell'utilizzo non proprio ottimale dei thread....
Con quelle specifiche di vcore/frequenza quel ES di ZEN non rientra nel TDP di 95W.
Beh, se lo overvolti è perché quelle frequenze non riesci a raggiungerle. Non stabilmente, per lo meno. Per cui si potrebbe benissimo parlare di overclock.
più che segreto, credo che quel ES non fosse definitivo, ma da li a poco sarebbe uscito una nuova revisione....AMD aveva detto che un paper launch, ovvero test fatte da testate giornalistiche, ci sarebbe stato per il q4 del 2016...hanno smentito pure le voci su un probabile, ma a quanto pare più che fondato ritardo....
secondo me, il problema non è neppure il silicio, ma tutti i problemi di ottimizzazione delle tecnologia a risparmio energetico...
se vi ricordate i grafici di Carrizo, veniva riportato un aumento dei consumi a causa del AVFS alle frequenze più alte. Tecnologie così sofisticate non sembrerebbero privi di effetti collaterali.
Non voglio portare sfiga, ma in qualche problemino si sono imbattuti, imho.
Meno male che l'hai detto tu, perché quando l'ho fatto io mi hanno puntato il fucile a canne mozze. :D

Comunque oggi è il 30 dicembre: AMD ha ancora almeno un giorno per commercializzare i primi Ryzen entro fine 2016, come da precedente dichiarazione di Lisa Su. :O

digieffe
30-12-2016, 08:33
Intel con rilascio per il Q2 non avrebbe più tempo. AMD, col Q1, sì.

*

Antostorny
30-12-2016, 08:45
Ci pensate a cosa accadesse se, dopo tutta questa attesa, queste CPU Ryzen si rivelassero una cag**a pazzesca?
Ragazzi calma...c'è troppo hype, cerchiamo di prepariamoci ad ogni eventualità per non rimanere delusi :D

E non parlo solo riguardo le prestazioni. Potrebbero essere ottimi lato performance, ma poniamo il caso che AMD mettesse dei prezzi assurdi in linea con gli attuali Intel. Cosa accadrebbe secondo voi?

AkiraFudo
30-12-2016, 08:50
Ci pensate a cosa accadrebbe se, dopo tutta questa attesa, queste CPU Ryzen si rivelassero una cag**a pazzesca?
Ragazzi calma...c'è troppo hype, cerchiamo di prepariamoci ad ogni eventualità per non rimanere delusi :D

E non parlo solo riguardo le prestazioni. Potrebbero essere ottimi lato performance, ma poniamo il caso che AMD mettesse dei prezzi assurdi in linea con gli attuali Intel. Cosa accadrebbe secondo voi?

naaa :D impossibile perché Lisa Su a new horizon nella comprativa con zen, ha rimarcato il fatto che il 6900k costasse 1100usd.

cdimauro
30-12-2016, 08:52
cdimauro...ammazza risponfi punto su punto :eek:
farò altrettanto :cool:
Purtroppo... no. Ma ne parlo alla fine. :fagiano:
in che senso scusa?
un core jaguar è 3,1mmq (28nm bulk HDL), un core SB circa 18mmq (32nm bulk), senza contare che la l2 di Jaguar operà a metà della velocità di clock (meno della l3 di bulldozer), il prodotto Intel non va certo e consuma, 6 volte tanto.
E qui dove gioca un ruolo fondamentale il FO4.

perchè il parallelo con k10, vede quest'ultimo prevalere non solo con BD, ma anche con SB, quando si parla di throughput per mmq a parità di clock (i core k10 sono grandi circa 9,6mmq)...
ma ripeto la conta dei transistor è importante fino ad un certo punto, e Jaguar è un esempio, proprio perchè estremo, rappresentativo.
Non riusciamo a capirci. Quando parlo di quello che riesci a farci coi transistor, mi riferisco al fatto che hai un certo budget X, e decidi di spenderlo in un modo anziché in un altro.

L'esempio è rappresentato da SB e BD, che hanno un budget simile, ma che è stato utilizzato in modo completamente diverso. Portando a risultati nettamente diverse.

Alla fine ne faccio un altro di esempio, più attinente al discorso "passaggio 32nm".

Comunque, benchmark alla mano (vedi il link che ho postato prima), sicuramente BD ha un throughput inferiore a SB. E pure a K10 in alcuni casi.
mi sono in effetti lasciato andare ad una espressione infelice, ma questo non toglie il fatto che le pipeline di BD non sono propriamente corte, infatti si passa da 15 (dato ufficiale per Jaguar) a 19/22 (secondo Anandtech).

Appare piuttosto chiaro che il relativo alto ipc di Jaguar con un numero davvero misero di transistor, è stato ottenuto massacrando il FO4...
quello che sto cercando di dire che si può aumentare l'ipc senza sacrificare il FO4 e senza aumentare il numero degli stadi, ma ovviamente a scapito della conta dei transistor. Bjt2 aveva fatto l'esempio della moltiplicazione....
secondo te è un caso se in Jaguar non esiste uno stadio di pre-decodifica presente invece in k10 che di stadi ne ha solo 12?

Se Jaguar avesse il FO4 di XV sarebbe una supercpu, che consumerebbe meno di 1/6 di SB a parità di clock, ma non è proprio il caso.....
Non so che in che modo AMD abbia arrangiato la pipeline di Jaguar rispetto a quella di K10, e perché abbia fatto quelle scelte. Probabilmente con 2 sole vie le sarà convenuto così.

Io, nello specifico, sono intervenuto per rimarcare che la lunghezza delle pipeline di BD non era smisurata.

E dunque è difficile, per me, pensare che così pochi stadi possano fare così tanta differenza riguardo a frequenze più elevate & annessi consumi. Giusto per essere chiari.
proprio per questo, preferisco fare confronti a livello di core, trascurando le cache l2, l3.
Idem. Ma nello specifico la situazione, da questo punto di vista, non può che peggiorare. Ne parlo meglio dopo.
Non è mica una novità per AMD. Non ricordo un solo die progettato esclusivamente per il mercato server.
Mentre Intel, pur mantenendo il design dei singoli core sostanzialmente uguali, offre una certa varietà in ambito server. Questo perché i core si prestano bene sia per i carichi di lavoro da server, sia da desktop.

Possiamo dire, a questo punto, che lo sbaglio di AMD con BD potrebbe ANCHE essere relativo a questo? Troppo server-oriented.
Anche se non si hanno conferme ufficiali, sembrerebbe che Naples sia formato da 4 die ZEN x8.
Sì. E a sua volta Zen x8 sarebbe costituito da 2 cluster quad-core.
hai parlato di immagini di confronto.
comunque le ho trovate:
http://www.chip-architect.com/news/Llano_vs_SandyBridge_vs_Westmere.jpg
http://pc.watch.impress.co.jp/img/pcw/docs/430/044/9.jpg
un modulo BD, un dual core k10, e un core SB sono del tutto paragonabili come dimensioni.
Invece queste immagini mostrano l'esatto contrario. Di seguito riporto i dati.

SandyBridge
Core (inclusa cache L2): 18.4mm^2.
Core + 2MB cache L3: 29.5mm^2.

Llano
Core: 9.69mm^2.
Core + 1MB cache L2: 16mm^2. (dividendo per due la dimensione dell'intero blocco dual core)
Core + 2MB cache L2: 22.31mm^2. (togliendo rozzamente la parte di un core)

Bulldozer
Core: 18mm^2.
Core + 2MB cache L2: 30.9mm^2.
Core + 2MB cache L2 + 2MB cache L3: non pervenuto. Ma mettiamo almeno 12mm^2 (i 32nmSOI sono meno densi dei 32nm BULK), e abbiamo: 42.9mm^2.

Direi che i numeri parlano da soli, ma accompagnamoli pure col fatto che SB ha 3 porte a 256 bit per l'FPU, mentre BD 4 da 128-bit (ma solo 2 per SSE/AVX in termini di floating point, anche se ha 2 FMAC. Le altre 2 sono per x87, MMX, e la parte intera delle SSE). Dunque SB ha un'FPU più complessa e che presumibilmente che richiede più transistor e più area.
il problema come dicevo che il SOI non pare essere molto efficiente in basso.
Ma nemmeno in alto, a quanto pare. Vedi sotto.
io credo che sia piuttosto elevata, un k10 non può murare in OC a 3,6GHz con consumi idle-to-power di 180W....
quando era uscito si dava colpa all'igp (ma inutile far notare che questa non era attiva con una gpu discreta), è uscita la versione "K", e si dava la colpa alla natura APU (anche questa volta era praticatamente inutile far notare che anche SB aveva l'igp integrata).
è uscito infine Trinity e tutti a dare la colpa alla fretta di AMD di immettere sul mercato llano (anche questa volta dimenticandosi del fatto che è stato necessario arrivare allo step B0 e con 6 mesi di ritardo sulla tabella di marcia)
SB quad core NON aveva/ha l'IGP...
si ci dovrebbero essere differenze anche piuttosto significative....esistevano delle cpu come POWER6 con fo4 13, come peraltro è accreditato il Prescott, che raggiungevano i 6GHz con i 65nm (lo stesso processo che ha dato qualche problemino ad AMD, visto che miglioramenti significativi rispetto al 90nm SOI non ci sono stati).

la verità, stiamo valutando differenze relative, il 45nm LK è secondo me migliore dei 45nm bulk di Intel nonostante il HMKG.
Lascia perdere POWER.

Nella storia di AMD, che frequenze è riuscita a ottenere con le sue microarchitetture x86?
correggimi se sbaglio, il sistema 780 prevede metà core per le soluzioni occate a 4,42GHz rispetto a quelle a 3,72GHz.
E IBM ha offerto comunque i power7 a 45nm anche nel 2014 nelle soluzioni HPC, senza offrire all'aggiornamento al P7+, dove la l3 non è molto importante. Se avesse consumato molto meno (un quad che consuma più di un octa core) avrebbe certamente aggiornato tutte le sue soluzioni. Su questo sei d'accordo
Dovrei andare a controllare, e mi servirebbe altro tempo, ma francamente non ho proprio voglia di farlo per la terza volta.

Anche perché il nocciolo della questione lo riporto subito sotto, alla fine.
il confronto andrebbe fatto con llano, che è costruito sullo stesso silicio
http://www.anandtech.com/bench/product/1262?vs=399
Non vedo perché: hai detto tu stesso, sopra, che BD, confrontato clock-for-clock con SB e K10, ha un throughput superiore. Dai test, a parità di frequenza o simile (SB viaggia a frequenze inferiore), la situazione è ben lontana da quella che hai dipinto.

Inoltre BD e Phenom-II X4 non hanno IGP, e viaggiando a frequenze simili è più facile capire quanto incida la differenza microarchitetturale.
ma il SOI dovrebbe garantire un maggior controllo del leakage...il power6 è un ottimo esempio, imho.
Vedi sopra: lascia perdere POWER. AMD cos'è riuscita a ottenere?
cosa avrebbero dovuto combinare di così tragico in AMD?
Anche qui, ne parlo sotto.
sai simile, lascia molto spazio ad interpretazioni....un 10-15% di ipc come con il passaggio da Nehalem a SB, non avrebbe trasformato llano in un missile...
Ma in compenso il passaggio ai 32nmSOI dell'architettura Z di IBM ha trasformato zNext in un missile: +25% in ST, +50% core, +5% di frequenze, il tutto con lo stesso power-budget (del predecessore), per un processorone CISC molto complesso.

E con ciò mi riallaccio a quanto t'avevo scritto prima: no, non hai risposto punto per punto, perché hai la tendenza a evitare sistematicamente di prendere in considerazione zNext, e ti ostini continuamente a parlare di POWER, che peraltro è un processore ben più diverso (zNext è di gran lunga più affine a x86).

Come già detto diverse volte in passato, zNext è la dimostrazione di come il passaggio ai 32nmSOI abbia fruttato, e molto, a IBM.

Ed è la dimostrazione di come, avendo un certo transistor budget, si può decidere di impiegarlo per una (micro)architettura di un certo tipo che offre i suoi bei vantaggi. In questo mi riferisco anche a POWER7+, dove IBM ha preferito impiegare il suddetto budget in maniera completamente diversa, e con risultati parimenti ben diversi.

Antostorny
30-12-2016, 08:58
naaa :D impossibile perché Lisa Su a new horizon nella comprativa con zen, ha rimarcato il fatto che il 6900k costasse 1100usd.
Siamo d'accordo, ma se AMD dovesse prezzare la versione del Ryzen SR7 mostrata all'avento New Horizons a 899.99/950$? Non è che cambi tanto...

Ryddyck
30-12-2016, 09:19
Fresco fresco http://www.cpchardware.com/cpc-hardware-n31-precisions-elucubrations/

Piedone1113
30-12-2016, 09:28
tl;dr in una lingua comprensibile? :>

Translate lo traduce più che bene (tranne che il termine nda, a volte)

Ryddyck
30-12-2016, 09:39
Che sostanzialmente hanno linkato allo shop per acquistare il 7700k a pochi euro :sofico:

Sostanzialmente l'articolo parla di quello che è avvenuto in questi giorni, tra chi ha scansionato le pagine della rivista e l'nda dove hanno chiarito il fatto che per loro l'nda dovrebbe valere tra i partner e non per giornalisti (in pratica se ne stanno sbattendo le balle e fanno riferimento anche alla preview dell'athlon 64 avvenuta 8 mesi prima dal lancio nel 2003).
Lato test hanno scritto che avevano due diversi bios con due diverse prestazioni, i bench di riferimento sono stati fatti con il bios migliore (il bios peggiore dava prestazioni poco superiori a sandybridge); per le prestazioni nei confronti dell'8370 sono stati fatti rispettivamente 1core/2thread per zen e 1core/2cluster per l'fx8370; gli overclocker dovrebbero avere già tra le mani i sample e che probabilmente se riescono a portarsi avanti con il lavoro potrebbero darne dimostrazioni al ces (si parla comunque che il sample di canardpc fosse instabile e che i 5 GHz erano solo per un singolo core e che poi i vrm della mobo non hanno permesso di fare altro).

bjt2
30-12-2016, 09:41
I punti più interessanti:

- +35% di prestazioni rispetto a Piledriver. Come al solito su semi juanrga è partito per la tangente, dicendo che AMD non ha rispettato le promesse. Ma quel +35% è riferito a 1c/2t vs 1m/2t, quindi è chiaro che non può essere +65% perchè è SMT vs CMT. Questo ci dice indirettamente che l'SMT di AMD è al max -30% efficiente rispetto al CMT. Se il CMT è +80%, allora SMT è + +50%... :D

- dati grezzi nascosti: perchè i dati sono molto riproducibili e quindi AMD avrebbe potuto riconoscere ES/BIOS e AGESA e scoprire chi è la fonte. Loro dicono di non aver violato l'NDA perchè non hanno firmato nulla con AMD. L'ha violata la sua fonte. E comunque non è un crimine perchè è una scrittura tra privati...

- Avevano almeno 2 BIOS/AGESA e hanno pubblicato solo quello con prestazioni più elevate. Resta ancora qualche bachetto su uop cache e SMT e quindi credono che il retail possa anadare ancora meglio

- OC 5GHz. Non hanno fatto loro l'OC, ma la fonte che glielo ha dato ha detto che ha fatto OC con un solo core a 5GHz ad aria con dissipatore "mastodontico". Non hanno potutto fare tutti i core perchè i VRM non reggevano, quindi sembra che il problema non fosse la CPU. I moltiplicatori non sono bloccati verso l'alto e si può andare a passi di 0.25x. Quindi suppongo che il base clock sia 100MHz così da avere incrementi di 25MHz.

Gioz
30-12-2016, 09:48
Lo è perché, come ho già riportato prima, Paolo non ha mai dato della ladra ad AMD quando questa commercializzava prodotti esclusivi vendendoli a peso d'oro...
non è mia intenzione proseguire nel discorso, semplicemente a mio avviso non è stato incoerente con la sua posizione in merito, altre cose si ma non ho visto incoerenza. ad ogni modo è responsabile lui di ciò che scrive.

Permettimi: il gioco in sé può benissimo essere renderizzato sempre a 2190p, anziché ricorrere ad upscaling. Non lo si fa perché, per l'appunto, manca la potenza di calcolo.

Assolutamente d'accordo su questo, ma non è il fulcro del discorso.

Esattamente.

No problem: l'importante era il discorso generale. :)
ci siamo capiti perfettamente, riportavo dati di giochi noti solo per fare riferimento alla questione :)

Per cui X1 è usato come Devkit, e il SoC dovrebbe essere sempre lo stesso: niente Pascal, ma solo Maxwell.

Certamente Nintendo potrebbe risparmiare di più passando ai 16nm FinFET, e magari salire un po' con le frequenze, tenendo a bada i consumi, ma dal pezzo sembra emergere che abbia avuto poco tempo, e dunque si sia ritrovata col prendere ciò che c'era già a disposizione. Penso che il declino inesorabile di Wii U l'abbia spinta a prendere una decisione drastica, e in tempi rapidi.
conoscendo nintendo è altamente probabile che abbiano optato per la cosa più veloce e conveniente, anche in virtù del fatto che sono molto forti nel mercato delle portatili e che questa console sarà in un certo senso anche portatile...

Comunque non so se ci siano i margini per uno shrink dell'X1 sui 16nm FinFET. Magari, se non ci sono altre modifiche, sarebbe possibile in tempi rapidi. Al limite è un passaggio che potrebbe riservarsi più avanti, per una versione "Lite" dello Switch. ;)
...e non mi stupirei poi se, come han fatto già con altre console in passato - e come "hanno imparato sony e microsoft" -, aggiorneranno la piattaforma in seguito con una variante potenziata(ovvero pascal).
siamo fortemente offtopic, ma nintendo ha sempre fatto ste cose:
gameboy-> gameboy pocket-> gameboy color.
gameboy advance-> gameboy advance sp-> gameboy advance micro
e così via un sacco di volte fin dagli anni '90.

Comunque oggi è il 30 dicembre: AMD ha ancora almeno un giorno per commercializzare i primi Ryzen entro fine 2016, come da precedente dichiarazione di Lisa Su. :O
a me sembra anche improbabile anche fine febbraio considerando che ad inizio mese hanno parlato di turbo e precision boost senza aver dato una dimostrazione di quelli, però resta il fatto che non sapendo come "datare" gli ES preferisco non sbilanciarmi.

Ci pensate a cosa accadesse se, dopo tutta questa attesa, queste CPU Ryzen si rivelassero una cag**a pazzesca?
Ragazzi calma...c'è troppo hype, cerchiamo di prepariamoci ad ogni eventualità per non rimanere delusi :D

E non parlo solo riguardo le prestazioni. Potrebbero essere ottimi lato performance, ma poniamo il caso che AMD mettesse dei prezzi assurdi in linea con gli attuali Intel. Cosa accadrebbe secondo voi?
secondo me da quel poco che si è visto è interessante, quindi non credo possa deludermi in senso assoluto.
resta da capire quanto vada effettivamente e come si collochi a livelllo di costi (sia del singolo componente che dell'intera gamma e motherboard). anche costasse al pari di intel (e io non credo anche solo perchè intel ha la gpu integrata che per me qualcosa deve costare anche se all'utente può non interessare) sarebbe da valutare il costo della scheda madre, se per esempio con 130-150€ prendi una scheda abbastanza buona mainstream e a 200-250€ prendi una mobo di fascia alta pure costare pari al 2011 può essere vantaggioso, dato che la schede sotto 200€ non ce ne sono e si sale oltre i 400€ per quelle top di gamma, inoltre l'am4 potrà vedere generazioni future di cpu sullo stesso socket e risultare aggiornabile mentre le prossime cpu intel potrebbero uscire su socket nuovi, il ché può essere preso in considerazione come valutazione a lungo termine visto che l'eventuale upgrade potrebbe richiedere nuovamente il cambio mobo e sarebbero indicativamente ulteriori 200-400€.

paolo.oliva2
30-12-2016, 09:54
Lo è perché, come ho già riportato prima, Paolo non ha mai dato della ladra ad AMD quando questa commercializzava prodotti esclusivi vendendoli a peso d'oro. Infatti ha SISTEMATICAMENTE evitato di intervenire, persino quando ieri l'ho esplicitamente tirato in ballo sull'argomento.
Come ti ho detto altre volte, evitiamo 2 pesi e 2 misure.

Ora... come ho detto, AMD quando applicava prezzi simili ad Intel (mai con rapporto prezzo/prestazioni caro come Intel), aveva altre quote di mercato e un brand più solido.
Oggi deve riprendere le fette di mercato perse e riacquisire il brand che si merita, quindi NON PUO' fare un prodotto di nicchia ma un prodotto di massa, con Zen.

Quando io riporto che Intel ha applicato procedure illecite ed è stata condannata, tiri in ballo che sono cose di 10 anni fa, che il CEO è cambiato, e bla bla bla.

Ora... dimmi la TUA posizione razionale, visto che i prezzi di AMD sono oltre 10 anni fa, ma per questo il tempo per te non esiste, mentre invece per le operazioni illecite di Intel tu metti la mano sul fuoco che non le rifarà mai.

E vieni a parlare a me di bipolarismo?


"Questo a dimostrazione che il suo presunto interesse da consumatore è esclusivamente di facciata, in quanto è e rimane un cieco fanatico integralista di AMD."

E vai in bestia se si dice "speriamo che Intel non rifaccia pratiche illegali"?


Purtroppo continui ad avere il brutto vizio di viaggiare alacremente con la fantasia, peraltro cercando di imporla come fosse la realtà.

Io direi che sei tu... visto che sei l'unico che continua a riportare che Intel prende decisioni indipendentemente da quello che fa AMD... non li hai letti i rumors sul CEO Intel? :D

1) Intel, a differenza di AMD, ha delle PROPRIE fonderie, e dunque non deve andare a bussare alla porta di nessuno per realizzare i suoi prodotti.

Questo che c'entra? La sparata di turno per evidenziare Intel superiore?

2) Inoltre ha AMPIA capacità produttiva (tant'è che la vende anche a terzi), e dunque non si deve mettere in fila con nessuno, perché ha sicuramente spazio nelle sue fonderie per qualunque suo prodotto.

Idem come sopra

3) Ha un processo produttivo maturo, visto che è da più di 2 anni che lo usa e lo affina, e dunque non si aspetta nessuna sorpresa né tanto meno problemi di rese.
Si parla di frequenze, quello che scrivi non c'entra nulla.

4) Last but not really least, Skylake-E ha quote di mercato di estrema nicchia rispetto agli altri prodotti più consumer, e dunque non sono previsti né necessari lotti di parecchi pezzi. Ergo: supponendo che il rilascio sia per il Q2 2017, che il mese target sia Giugno (la sparo qui), e che ci vogliano un paio di mesi per i produttori per rilasciare prodotti su di esso basati, le basterebbe consegnare i (pochi) lotti per fine Aprile.
In conclusione quella che Intel, PER TE, dovrebbe per forza avere ADESSO in produzione Skylake-E, è soltanto la sparata di un fanboy che non sa quello che dice.

Hai fuorviato tutto, e mi meraviglio che fai finta di non capire.

Cerchiamo di spiegare meglio.

SE SKYLAKE 1155 avesse 6GHz def e SKYLAKE-E fosse 5GHz def, AMD non andrebbe MAI in produzione con un Zen 3GHz perchè sarebbe INUTILE produrlo.

Intel è già in produzione con Skylake 11XX, quindi non può ricercare frequenze superiori per QUEL prodotto. SKYLAKE-E era in progettazione sul 14nm+ da tempo, e Intel (COME TUTTE LE DITTE DEL MONDO) smette di spendere nel miglioramento del prodotto nel momento in cui ha raggiunto quanto voleva, e il quanto voleva è rapportato al prodotto delle case concorrenti. Ovviamente perchè non è più conveniente spendere di più quando non puoi incassare di più, nel senso che il prezzo del prodotto è deciso e performances superiori non aumenterebbero il prezzo ma sicuramente i costi.

SE ZEN AVESSE UNA FREQUENZA DEF SI 4GHz X8+8 e un IPC comparabile a Skylake (ipotizzo), mi sembra ovvio che Skylake-X con -10/20% di frequenza non sarebbe idoneo alla produzione, e quindi Intel dovrebbe ricercare un modo per aumentare la potenza, o più layer, o un affinamento ulteriore del 14nm+ (che a frequenze superiori a parità di TDP ma a frequenze basse, sembra funzioni, ma a frequenze alte, stile 7700K, mi sembra di utilità zero), o comunque qualche cosa dovrà inventarsi (speriamodi no le pratiche di 10 anni fa), è chiaro?

E che tu sia un fanboy è evidente, visto che per Zen, previsto per il Q1 2017, hai ipotizzato tapeout in corso fino a "ieri", affinamenti vari con innalzamento mostruoso delle frequenze, risoluzioni dei problemi vari, e chi più ne ha più ne metta. E tutto questo ben di dio tutto nel giro di pochi giorni, perché Q1 = al massimo Marzo.

Veramente eri tu che affermavi che le frequenze massime erano quelle perchè "non si vedevano altri ES oltre ad A0", e che erano impossibili da nascondere. Io ho sempre detto che AMD ufficialmente riporta Q1, e fino a che AMD riporta Q1, è Q1 e non le teorie da bar.
Se ora compaiono frequenze superiori, è ovvio che gli A1o BX c'erano ma non li si conoscevano... quindi non sei tu fanboy Intel che se non vede non crede (per i prodotti AMD) ma io fanboy AMD.

Intel con rilascio per il Q2 non avrebbe più tempo. AMD, col Q1, sì.
Perchè se Zen avrà frequenze sui 4GHz e Skylake-X è sui 3,2GHz, AMD non ha bisogno di Tape-out per il Q1, ma se Intel si ritrova Skylake-X non competitivo, dovrà fare dei Tape-out che allungherebbero il tempo di 90 giorni, e si arriverebbe al Q2.
La differenza è che GF produce Zen su un unico die X8 nativo, e nel Q1 sono previsti Zen X8+8 e i fallati derivati, nel Q2 gli Opteron, sempre composti da die X8+8 nativi. Intel, invece, ha più versioni di die nativi, ha un volume da produrre nettamente superiore rispetto ad AMD, inoltre Intel deve prestare molta più attenzione di AMD, perchè una scarsità di pezzi porterebbe a speculazioni nocive per lei.

Ma tra i bla bla bla che hai sparato, ti è venuto in mente di fare una correlazione Zen-BD come Opteron?

Magari prova a riflettere che da un 8350 125W 4GHz, l'opteron BD raddoppia i core con un -40% di frequenza ed un +10% di TDP.

Se Zen fosse 95W TDP 4GHz, prova a pensare che Intel era a 2,2GHz fino a ieri (oggi a 2,3GHz per 1000$ in più) per un X22, l'X32 che frequenze avrebbe? Conserverebbe la nicchia di mercato?

Comunque oggi è il 30 dicembre: AMD ha ancora almeno un giorno per commercializzare i primi Ryzen entro fine 2016, come da precedente dichiarazione di Lisa Su. :O
Ovvia l'ultima battutina fanboy Intel.
Lisa Su non ha mai espressamento pronunciato "commercializzazione di zen per il 2016", ma ha riportato disponibilità di piccole quantita di Zen per gli OEM.
Quindi, mi dispiace... la tua campagna discriminatoria su AMD, è fallace.

paolo.oliva2
30-12-2016, 10:04
I punti più interessanti:

- +35% di prestazioni rispetto a Piledriver. Come al solito su semi juanrga è partito per la tangente, dicendo che AMD non ha rispettato le promesse. Ma quel +35% è riferito a 1c/2t vs 1m/2t, quindi è chiaro che non può essere +65% perchè è SMT vs CMT. Questo ci dice indirettamente che l'SMT di AMD è al max -30% efficiente rispetto al CMT. Se il CMT è +80%, allora SMT è + +50%... :D

- dati grezzi nascosti: perchè i dati sono molto riproducibili e quindi AMD avrebbe potuto riconoscere ES/BIOS e AGESA e scoprire chi è la fonte. Loro dicono di non aver violato l'NDA perchè non hanno firmato nulla con AMD. L'ha violata la sua fonte. E comunque non è un crimine perchè è una scrittura tra privati...

- Avevano almeno 2 BIOS/AGESA e hanno pubblicato solo quello con prestazioni più elevate. Resta ancora qualche bachetto su uop cache e SMT e quindi credono che il retail possa anadare ancora meglio

- OC 5GHz. Non hanno fatto loro l'OC, ma la fonte che glielo ha dato ha detto che ha fatto OC con un solo core a 5GHz ad aria con dissipatore "mastodontico". Non hanno potutto fare tutti i core perchè i VRM non reggevano, quindi sembra che il problema non fosse la CPU. I moltiplicatori non sono bloccati verso l'alto e si può andare a passi di 0.25x. Quindi suppongo che il base clock sia 100MHz così da avere incrementi di 25MHz.

Per tutta la parte OC, se i VRM non hanno tenuto, che mobo era? Una X370 o quelle inferiori?

Per l'OC io non mi preoccuperei più di tanto... perchè, se vi ricordate, overcloccare un 8150 con mobo commerciali e bios di ultima data, erqa un disastro (e loro in una situazione di gran lunga peggiore).
Io ricordo che i software di monitoraggio sistema mi davano dati discordanti, ivi compreso il bios.
Ricordo che NON SAPEVO per certo manco la frequenza ottenuta e men che meno il Vcore REALE... loro hanno tutto beta... e ancor più il procio, A0, che con tutta probabilità non ha manco fatto test per quelle frequenze, figuriamoci un affinamento architetturale.

Edit
Per la parte in grassetto, ovvio che intendevo dire al D-DAY.

Piedone1113
30-12-2016, 10:10
Che sostanzialmente hanno linkato allo shop per acquistare il 7700k a pochi euro :sofico:

Sostanzialmente l'articolo parla di quello che è avvenuto in questi giorni, tra chi ha scansionato le pagine della rivista e l'nda dove hanno chiarito il fatto che per loro l'nda dovrebbe valere tra i partner e non per giornalisti (in pratica se ne stanno sbattendo le balle e fanno riferimento anche alla preview dell'athlon 64 avvenuta 8 mesi prima dal lancio nel 2003).
Lato test hanno scritto che avevano due diversi bios con due diverse prestazioni, i bench di riferimento sono stati fatti con il bios migliore (il bios peggiore dava prestazioni poco superiori a sandybridge); per le prestazioni nei confronti dell'8370 sono stati fatti rispettivamente 1core/2thread per zen e 1core/2cluster per l'fx8370; gli overclocker dovrebbero avere già tra le mani i sample e che probabilmente se riescono a portarsi avanti con il lavoro potrebbero darne dimostrazioni al ces (si parla comunque che il sample di canardpc fosse instabile e che i 5 GHz erano solo per un singolo core e che poi i vrm della mobo non hanno permesso di fare altro).

Veramente c'è scritto che loro non hanno firmato nessun NDA con AMD, quindi non sono tenuti a rispettarlo (come fai a rispettare qualcosa di non sottoscritto?).
La loro fonte (e qui ho capito che loro non hanno ZEN, ma la loro fonte ha fatto i test e gli ha girati, ha fatto tutti i test possibili, anche in ST.
Test ST che non vengono pubblicati perchè molto dipendenti da rev CPU, rev Bios e Rev MB. Ne consegue che pubblicandoli si sarebbe potuto facilmente risalire alla fonte e mettarla in difficoltà.
Sull'oc rimarcano che loro non hanno ZEN, ma che la fonte crede che il limite di 5 ghz ad aria su un solo core e non su più di uno sia dovuto alla bassa stabilità dei vrm sui carichi ( speriamo che sia quello, e non all'incapacità dei pin di andare sopra determinati carichi).

digieffe
30-12-2016, 10:11
I punti più interessanti:

- +35% di prestazioni rispetto a Piledriver. Come al solito su semi juanrga è partito per la tangente, dicendo che AMD non ha rispettato le promesse. Ma quel +35% è riferito a 1c/2t vs 1m/2t, quindi è chiaro che non può essere +65% perchè è SMT vs CMT. Questo ci dice indirettamente che l'SMT di AMD è al max -30% efficiente rispetto al CMT. Se il CMT è +80%, allora SMT è + +50%... :D



espliciteresti un po' meglio queste differenze/conti?

Mister D
30-12-2016, 10:21
I punti più interessanti:

- +35% di prestazioni rispetto a Piledriver. Come al solito su semi juanrga è partito per la tangente, dicendo che AMD non ha rispettato le promesse. Ma quel +35% è riferito a 1c/2t vs 1m/2t, quindi è chiaro che non può essere +65% perchè è SMT vs CMT. Questo ci dice indirettamente che l'SMT di AMD è al max -30% efficiente rispetto al CMT. Se il CMT è +80%, allora SMT è + +50%... :D

- dati grezzi nascosti: perchè i dati sono molto riproducibili e quindi AMD avrebbe potuto riconoscere ES/BIOS e AGESA e scoprire chi è la fonte. Loro dicono di non aver violato l'NDA perchè non hanno firmato nulla con AMD. L'ha violata la sua fonte. E comunque non è un crimine perchè è una scrittura tra privati...

- Avevano almeno 2 BIOS/AGESA e hanno pubblicato solo quello con prestazioni più elevate. Resta ancora qualche bachetto su uop cache e SMT e quindi credono che il retail possa anadare ancora meglio

- OC 5GHz. Non hanno fatto loro l'OC, ma la fonte che glielo ha dato ha detto che ha fatto OC con un solo core a 5GHz ad aria con dissipatore "mastodontico". Non hanno potutto fare tutti i core perchè i VRM non reggevano, quindi sembra che il problema non fosse la CPU. I moltiplicatori non sono bloccati verso l'alto e si può andare a passi di 0.25x. Quindi suppongo che il base clock sia 100MHz così da avere incrementi di 25MHz.

Infatti se prendi 100 il valore di un core PD il modulo fa 180.
Zen 1c/2th è quindi 180*1,35= 243
E se uno prende 100*1,65(aumento ipc tra PD e zen)=165
Ora basta divedere 243/165=1,472 ergo quasi il +50% di aumento prestazione grazie al SMT di amd. Se fossero veri quei risultati e se fossero poi su un ES A0 con vari problemi e frequenze pure più basse di quello che avrà alla fine è un grande risultato.
Faccio notare a tutti che per logica matematica, se il +65% di IPC fosse troppo in ST (infatti rimane solo un'ipotesi) e in realtà fosse meno, allora vorrebbe dire che il SMT pompa pure di più. ES:
243/160=1,52 o 243/155=1,57.

Dai bjt2, vallo a spiegare al tipo ahahahahah:sofico:

bjt2
30-12-2016, 10:29
Per tutta la parte OC, se i VRM non hanno tenuto, che mobo era? Una X370 o quelle inferiori?

Per l'OC io non mi preoccuperei più di tanto... perchè, se vi ricordate, overcloccare un 8150 con mobo commerciali e bios di ultima data, erqa un disastro (e loro in una situazione di gran lunga peggiore).
Io ricordo che i software di monitoraggio sistema mi davano dati discordanti, ivi compreso il bios.
Ricordo che NON SAPEVO per certo manco la frequenza ottenuta e men che meno il Vcore REALE... loro hanno tutto beta... e ancor più il procio, A0, che con tutta probabilità non ha manco fatto test per quelle frequenze, figuriamoci un affinamento architetturale.

Non saprei... Non lo hanno detto neanche loro perchè magari la loro fonte è proprio un produttore di MB e l'avrebbero sgamato...

espliciteresti un po' meglio queste differenze/conti?

Mister D lo ha fatto per me... :D

Infatti se prendi 100 il valore di un core PD il modulo fa 180.
Zen 1c/2th è quindi 180*1,35= 243
E se uno prende 100*1,65(aumento ipc tra PD e zen)=165
Ora basta divedere 243/165=1,472 ergo quasi il +50% di aumento prestazione grazie al SMT di amd. Se fossero veri quei risultati e se fossero poi su un ES A0 con vari problemi e frequenze pure più basse di quello che avrà alla fine è un grande risultato.
Faccio notare a tutti che per logica matematica, se il +65% di IPC fosse troppo in ST (infatti rimane solo un'ipotesi) e in realtà fosse meno, allora vorrebbe dire che il SMT pompa pure di più. ES:
243/160=1,52 o 243/155=1,57.

Dai bjt2, vallo a spiegare al tipo ahahahahah:sofico:

Il tipo scrive su semi che ha le iscrizioni chiuse... Potrei beccarlo su realworldtech, ma mi scoccio... Qualcuno lo farà per me prima o poi... :D :asd: :sofico:

Ryddyck
30-12-2016, 10:50
Veramente c'è scritto che loro non hanno firmato nessun NDA con AMD, quindi non sono tenuti a rispettarlo (come fai a rispettare qualcosa di non sottoscritto?).
La loro fonte (e qui ho capito che loro non hanno ZEN, ma la loro fonte ha fatto i test e gli ha girati, ha fatto tutti i test possibili, anche in ST.
Test ST che non vengono pubblicati perchè molto dipendenti da rev CPU, rev Bios e Rev MB. Ne consegue che pubblicandoli si sarebbe potuto facilmente risalire alla fonte e mettarla in difficoltà.
Sull'oc rimarcano che loro non hanno ZEN, ma che la fonte crede che il limite di 5 ghz ad aria su un solo core e non su più di uno sia dovuto alla bassa stabilità dei vrm sui carichi ( speriamo che sia quello, e non all'incapacità dei pin di andare sopra determinati carichi).
Non ho scritto che sono sotto NDA...
Però se si legge tra le righe dove dicono Les Engineering Sample circulent désormais assez largement et nous connaissons plusieurs autres journalistes – et quelques overclockers – qui ont pu effectuer des tests sur une plateforme fonctionnelle
e poi CPC Hardware a la chance de n’être sensible à aucune pression de ce type, ce qui permet à nos sources de nous faire pleinement confiance.

A mio avviso la verità sta nel mezzo, hanno sicuramente una fonte che gli ha mostrato le prestazioni nei vari bench (di st dove ne parla?) e poi gli ha buttato qualcosa del tipo "ieri ho provato a farci un po' di overclock, si è inchiodato a 5 GHz su singolo core causa scheda madre di cacca".

Alla fine sono solo fisime, si aspetta la presentazione e basta...

davo30
30-12-2016, 11:07
Tralsciando tutto questo turbinio di rumors, abbiamo la certezza che sto benedetto Ryzen venga presentato al CES?