PDA

View Full Version : [Thread Ufficiale] Aspettando ZEN


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 [31] 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103

Piedone1113
09-11-2016, 23:30
Onestamente non ho idea di come potrebbe funzionare, presumo la batteria starebbe sulla mobo e appena tolto il SoC si ottenga un CLR CMOS, però siamo a discutere di una cosa che fosse vera non ho mai visto prima per poter fare ragionamenti basati su qualcosa che già conosco. Quindi per quel che mi riguarda siamo nel dominio del "BOH"

Sent from my HTC One M9 using Tapatalk

Invece avrebbe senso se sulla cpu sono memorizzati soltanto i parametri di voltaggio, moltiplicatore e parametri nb.
In caso di reset non verranno cancellati i dato, ma letto i dati base nella porzione di compatibilità e poi scritti nella rom della cpu.
Spostare il BIOS nella cpu significa zero upgrade ( voglio cambiare mio con una più recente e chip raid lesi, oppure supporto allo SLI? ) e maggiori problemi, inserirvi i limiti min e Max di voltaggio limiterebbe gli rma da guasti dovuti a problemi BIOS o pc.

Free Gordon
09-11-2016, 23:59
CMOS sulla CPU? mi pare proprio strano... Cmq Hawell-E era anche a 22nm ...

Anche Zen.. :asd: purtroppo... ;)

tuttodigitale
10-11-2016, 00:26
è da un pò che non seguo il forum di anandtech...vedo un certo bjt2 :D

paolo.oliva2
10-11-2016, 00:40
Invece avrebbe senso se sulla cpu sono memorizzati soltanto i parametri di voltaggio, moltiplicatore e parametri nb.
In caso di reset non verranno cancellati i dato, ma letto i dati base nella porzione di compatibilità e poi scritti nella rom della cpu.
Spostare il BIOS nella cpu significa zero upgrade ( voglio cambiare mio con una più recente e chip raid lesi, oppure supporto allo SLI? ) e maggiori problemi, inserirvi i limiti min e Max di voltaggio limiterebbe gli rma da guasti dovuti a problemi BIOS o pc.

Se il bios (una parte) è sul procio, praticamente bloccato o sbloxxato dipende dal bios nel procio. Chissà se sarebbe possibile taroccarlo :)

Onestamente vorrei dire una cosa... sulle mobo AM3/AM3+ i bios facevano pena... ci sono voluti 6 anni per avere dei bios decenti e solamente sulle mobo top... ma molti parametri di OC erano incompleti... perchè con AOD alcune mobo facevano delle cose e non altre, e altre facevano quello che altre non facevano.
Un Bios su procio fatto da AMD, forse non potrà fare cose superlative, ma perlomeno difficilmente non sarebbe possibile settare quello che il procio supporterebbe.
Potrebbe anche averlo fatto per evitare un sacco di boicottaggi, sempre se vero.

paolo.oliva2
10-11-2016, 00:48
Per me quel tizio può aver detto la verità come una bugia.
Per frequenze e OC, non ci vedo fudzillate... nel senso che non ha riportato frequenze da capogiro.
Il punto comunque buono è che dice che lo sviluppo silicio procede e che le frequenze non sono definitive (onestamente lo si è sempre detto).
Comunque sotto azoto ha perso 100/200MHz rispetto all'8350 a liquido. :doh: Però non è< detto che recuperi.. nei tempi supplementari :)
Sarebbe una certa libidine benchare a 5GHz.

bjt2
10-11-2016, 07:25
Biglietti, prego! :ciapet:
https://cdn.meme.am/instances/500x/60017336.jpg

Hanno chiuso il thread ai non loggati... :asd:
Oppure il tizio era sotto NDA e ha chiesto l'oscuramento...

Invece avrebbe senso se sulla cpu sono memorizzati soltanto i parametri di voltaggio, moltiplicatore e parametri nb.
In caso di reset non verranno cancellati i dato, ma letto i dati base nella porzione di compatibilità e poi scritti nella rom della cpu.
Spostare il BIOS nella cpu significa zero upgrade ( voglio cambiare mio con una più recente e chip raid lesi, oppure supporto allo SLI? ) e maggiori problemi, inserirvi i limiti min e Max di voltaggio limiterebbe gli rma da guasti dovuti a problemi BIOS o pc.

Ma penso che il BIOS sia modulare, un po' come i BIOS aggiuntivi dei controllr SCSI o per il netboot. Il bios principale sarà fatto da AMD, con tutti i vantaggi del caso, e se il produttore mette dei chip aggiuntivi, metterà anche una ROM aggiuntiva, che sarà chiamata dal BIOS principale proprio come si farebbe per un controller SCSI aggiuntivo...

è da un pò che non seguo il forum di anandtech...vedo un certo bjt2 :D

:asd:

cdimauro
10-11-2016, 07:25
Al solito, sono di corsa.
Tutto quello che hai scritto è un vantaggio con codice a 256 bit.
Certamente.
Ma lo hai detto anche tu che la maggior parte del codice è SSE128 (nemmeno AVX).
Esatto, ma qui c'è una cosa da precisare. Le AVX sono estensioni a 128 E 256 bit. I 256 bit non sono appannaggio delle sole AVX-2. Queste ultime aggiungono un po' di istruzioni, soprattutto "intere", broadcasting, ecc.; non ricordo adesso se è stato con le AVX-2 che sono state aggiunte le FMA.
In questo caso AMD ha 4 unità FP (che possono fare anche vecint, non si sa in che mix) dedicate, contro 3 condivise con le porte intere. Stesso discorso per le unità load/store. Ok con codice a 256 bit, ma per operazioni a 128 bit, c'è solo il vantaggio di avere 3 AGU.
Ricapitoliamo. Con codice a 128 bit (SSE, AVX), Zen offre 4 porte per l'FPU e 2 per AGU/Load&Store, mentre Intel offre 3 porte per l'FPU e 4 totali per AGU/Load&Store (2 AGU per load, e 1 AGU + 1 store).
Per la questione AGU: su AMD storicamente le LEA sono state fatte anche sulle unità intere,
Intel ha una porta condivisa intera/FPU per le LEA.
perciò le AGU servono necessariamente solo per le operazioni su memoria, e immagino che su modi di indirizzamento semplici come immediato, diretto o indiretto senza offset, l'AGU non serva neanche.
Sì. Ci sono anche delle differenze nel manuale delle ottimizzazioni (o in quello di Agner Fog) relativamente alle modalità d'indirizzamento utilizzato.
E sullo stack c'è l'unità dedicata con la/le sue AGU. Quindi il fatto che ci siano 2 agu e non ce ne sia una terza dispari non è questo grande svantaggio e il fatto che serva la AGU per una operazione su memoria è quasi scontato...
Beh, se hai 2 sole operazioni in memoria (non stack) da effettuare... sì: non è uno svantaggio. Altrimenti... lo è. ;)
E ridaie con la fantasia. Ma non puoi veramente discutere senza in qualche modo offendere?

Che mazza importa se un Zen X8 verrà commercializzato a 95W ed avrebbe il TDP di un 6700K che è X4 e 45W in meno di un 6900K?

Il confronto di potenza lo si avrà nelle frequenze a parità di TDP. Se il 99% acquista un procio e lo mantiene def, a me non interessa, a me interessa cosa riesco ad ottenere in prestazioni massime con i soldi con cui ho acquistato quel procio. Chi acquista un 6900K, è liberissimo di tenerlo a def o di occarlo, ed idem chi acquisterà un modello sbloccabile di Zen.
Se acquistassi un 6900K, lo lascerei a def? Certamente no, come del resto con Zen.

Mi sembra che non vuoi capire che è il TDP che dice la frequenza massima del procio, e le prestazioni di Zen dipenderanno praticamente nella totalità dalla frequenza, visto che l'IPC oramai ha delineato un certo livello.

Io penso che per avere un RS/DU tranquillo ed affidabile, il TDP max è attorno a 170W per un impianto a liquido "normale" senza problemi di estate/inverno e per un PC acceso 12h e più.

Guarda bene il TDP del 6900K sotto Prime95. 149W a 3,2GHz. Che aspettative si avrebbero per 170W?
Zen versione OC avrà già una frequenza maggiore def e quindi già almeno +100MHz su un 6900K, e quasi 50W di TDP in meno. Quali sarebbero le aspettative?

Per arrivare a 170W, il 6900K avrebbe 21W di margine, Zen 75W. Zen per pareggiare i 45W in più del 6900K, avrebbe IL DOPPIO del TDP che il 6900K avrebbe per tutto l'OC.
Sicuro come la fame dirai che sono fantasie, sono tutte fantasie quando AMD può fare meglio di Intel. Per me un'aspettativa di +500MHz in RS/DU sul 6900K a parità di TDP sarebbe il minimo.
Se non capisci e continui a non voler capire, mica è un'offesa dirtelo.

Come ti ho già detto e te lo ripeto, parlare di overclocking non ha alcun senso, specialmente sparando cifre come 140W per un processore che nemmeno è uscito, e di cui non sai minimamente il comportamento in overclocking. Fantasia, per l'appunto.

Infatti, ed è quello che cerco di ripetere da un pezzo (poi ti lamenti perché ti dico che non vuoi capire), i soldi sia Intel sia AMD li fanno coi processori che escono dalla fabbrica, di cui sono imbotti CENTINAIA DI MILIONI di dispositivi, e che NON verranno overclockati.

Per dirla in un altro modo, quello degli overclocker è un mercato di nicchia che NON influenza i grandi numeri, che sono quelli che decretano il successo o meno di un prodotto.

Ed è per queste ragioni che al momento è del tutto insensato tirare in ballo overclock e consumi stratosferici. Atteniamoci alle poche informazioni sui processori "mainstream", che sono quelle che contano.

Vediamo se lo capisci una buona volta, perché non so in che altro modo dirtelo.
http://carbonite.co.za/f20/amd-zen-141214/

C'è sto tizio che dice di avere ES Zen, test in corso... C'è un bug simile al TLB bug che, per fixarlo, si fa da BIOS e si perde un 30-40% di prestazioni.

Tutti i test li ha fatti senza il fix.

OC 3.8 GHz ad agosto e ora 4.2 (con il sample attuale). 5.1GHz sotto LN2. Fa 2000 a cinebench a 5.1, contro 2100 di un Haswell-E (5960x?) a 5.1GHz. Ma questo è un quad channel e gli attuali ES hanno il IMC bloccato a 2133.

Dice IPC di Haswell-E anche in ST.

1.3V il Vcore vs 1.2 per INTEL (non ho capito se a default o in OC).

Ma 90W il TDP di Zen, contro 130 quello di INTEL. (immagino a default)

Poi altre cose sul fatto che è un SoC ed è tutto sul package o forse sul chip, compresa la CMOS, ed è complicato resettare il BIOS e che forse questa cosa cambierà...


L'ultima pagina dice che sono in arrivo nuove notizie buone (nuovo ES?): ST strepitoso e che INTEL deve iniziare a preoccuparsi...

Mah. Non so che pensare... Un altro thread da seguire...
Io penso che sia una bufala: troppe cose imprecise o assurde. CMOS e firmware on chip... addirittura parametri di overclock gestibili esclusivamente dal s.o. (manco da UEFI?!?). E la ciliegina sulla torta dei 30 minuti per azzerare il BIOS. :D

Poi parla di BIOS/UEFI: mi pare che da parecchi anni ci sia soltanto quest'ultimo. Qualcuno conosce di PC venduti col vecchio BIOS?

Infine processori con 8 core, sia Intel sia AMD, sparati a 5,1Ghz, quando le frequenze in questi case sono decisamente più basse. Ma sono sotto azoto liquido?!? Ci sono notizie del 6900K fatto arrivare a 5GHz in overclock?

E se ad Agosto Zen raggiungeva i 3,8Ghz, perché non l'hanno mostrato a questa frequenza? O, meglio ancora, perché hanno dovuto downclockare a 3Ghz Broadwell-E, quando bastava far lavorare il loro a 3,2Ghz?

I voltaggi mi sembrano anche troppo elevati.

E infine le prestazioni ST stellari, sulle quali avrei non pochi dubbi. Difatti l'unico test "ufficiale" è stato fatto in MT.

OK, adesso di corsa a lavoro. Buona giornata a tutti.

bjt2
10-11-2016, 08:16
Beh, se hai 2 sole operazioni in memoria (non stack) da effettuare... sì: non è uno svantaggio. Altrimenti... lo è. ;)

Quindi ricapitolando: per essere limitati a 2 sole operazioni memoria per ciclo deve succedere contemporaneamente:
- nessuna operazione stack
- tutte e 3 le operazioni con indirizzamenti complessi che richiedono l'AGU
- 3 operazioni separate (nessuna RMW)

Basta che una delle tre sia stack, abbia un indirizzamento semplice, sia una RMW che se ne possono fare 3 in un ciclo (conflitto tra banchi permettendo)... Già sono rari i casi in cui ci sono 3 operazioni su memoria in flight in uno stesso ciclo di clock... Figuriamoci questo ulteriore caso... :D
Diciamo che possiamo tranquillamente trascurarlo... :)

E se ad Agosto Zen raggiungeva i 3,8Ghz, perché non l'hanno mostrato a questa frequenza? O, meglio ancora, perché hanno dovuto downclockare a 3Ghz Broadwell-E, quando bastava far lavorare il loro a 3,2Ghz?

I voltaggi mi sembrano anche troppo elevati.

Beh, può essere una bufala, ma per il clock: l'ES era già 2.8GHz nominali, overcloccarlo a 3.8 sarebbe stato un rischio. Il tizio ha affermato che 3.8 era l'OC max... Non si sa con che stabilità... Già c'era il bug, che magari ad agosto non era stato scoperto ancora, mo pure 1GHz di OC? :D

digieffe
10-11-2016, 08:58
E ridaie con la fantasia. Ma non puoi veramente discutere senza in qualche modo offendere?

Che mazza importa se un Zen X8 verrà commercializzato a 95W ed avrebbe il TDP di un 6700K che è X4 e 45W in meno di un 6900K?

Il confronto di potenza lo si avrà nelle frequenze a parità di TDP. Se il 99% acquista un procio e lo mantiene def, a me non interessa, a me interessa cosa riesco ad ottenere in prestazioni massime con i soldi con cui ho acquistato quel procio. Chi acquista un 6900K, è liberissimo di tenerlo a def o di occarlo, ed idem chi acquisterà un modello sbloccabile di Zen.
Se acquistassi un 6900K, lo lascerei a def? Certamente no, come del resto con Zen.

Mi sembra che non vuoi capire che è il TDP che dice la frequenza massima del procio, e le prestazioni di Zen dipenderanno praticamente nella totalità dalla frequenza, visto che l'IPC oramai ha delineato un certo livello.

Io penso che per avere un RS/DU tranquillo ed affidabile, il TDP max è attorno a 170W per un impianto a liquido "normale" senza problemi di estate/inverno e per un PC acceso 12h e più.

Guarda bene il TDP del 6900K sotto Prime95. 149W a 3,2GHz. Che aspettative si avrebbero per 170W?
Zen versione OC avrà già una frequenza maggiore def e quindi già almeno +100MHz su un 6900K, e quasi 50W di TDP in meno. Quali sarebbero le aspettative?

Per arrivare a 170W, il 6900K avrebbe 21W di margine, Zen 75W. Zen per pareggiare i 45W in più del 6900K, avrebbe IL DOPPIO del TDP che il 6900K avrebbe per tutto l'OC.
Sicuro come la fame dirai che sono fantasie, sono tutte fantasie quando AMD può fare meglio di Intel. Per me un'aspettativa di +500MHz in RS/DU sul 6900K a parità di TDP sarebbe il minimo.

Se il 99% acquista un procio e lo mantiene def,
a me non interessa, a me interessa cosa riesco ad ottenere in prestazioni massime con i soldi con cui ho acquistato quel procio

Chi acquista un 6900K, è liberissimo di tenerlo a def o di occarlo, ed idem chi acquisterà un modello sbloccabile di Zen.
Se acquistassi un 6900K, lo lascerei a def? Certamente no, come del resto con Zen.

giusto per disinnescare un eventualità: mi sembra che, anche se non proprio esclusivamente, stia parlando del suo caso personale (almeno in questo post)

digieffe
10-11-2016, 09:05
Beh, può essere una bufala, ma per il clock: l'ES era già 2.8GHz nominali, overcloccarlo a 3.8 sarebbe stato un rischio. Il tizio ha affermato che 3.8 era l'OC max... Non si sa con che stabilità... Già c'era il bug, che magari ad agosto non era stato scoperto ancora, mo pure 1GHz di OC? :D

aggiungo il caso (forse) più verosimile: Zen non avrebbe avuto problemi a girare >3ghz, ma non essendo amd sicura di poterlo commercializzare a frequenze più alte (per via del tdp), ha fatto il test alla frequenza che in quel momento non sforava il tpd.

paolo.oliva2
10-11-2016, 09:12
Vedi CDimauro.

Prima porti il TDP < di 100W rilevato con il 6900K in determinati test come TDP reale e molto più basso del TDP nominale 140W, poi porti la potenza dell'FP 256 bit di Intel come se quella potenza fosse raggiunta a parità di TDP, poi al fatto che con le AVX2 l'FP può ridurre la frequenza per non sforare il TDP, porti ciò che riporta Intel (e Intel quando deve ammettere che riduce frequenze def tende sempre a sminuire).

1° Prime95 utilizza le AVX2 ed il TDP rilevato SFORA di 9W quello nominale di 140W, quindi per me è palese che Intel abbassi il clock dell'FP perchè EFFETTIVAMENTE sta sforando il TDP nominale, 140W, tutt'altro che extra-large.

2° Che il 6900K risulti più potente di un Zen X8 è una cosa, ma che lo ottenga a parità di TDP, tutt'altra. Che c'entra il fatto che non esistendo (al momento) una versione Zen commerciale 140W, sarebbero fantasie? E' un dato di fatto e ti porto un riscontro.
Un Zen X8 95W, per 140W permetterebbe un aumento del 50% dei core.
Chiaramente per te sono fantasie perchè non esiste un Zen X12 a 140W, però esiste che Zen Opteron è previsto con 32 core massimi contro i 22 core massimi di Intel, dove il +50% di core è ottenuto realmente a parità di TDP.

Questo per renderti chiaro che una cosa, se possibile, può diventare reale, diverso da una cosa impossibile che non potrà mai diventare reale.

Il tuo concetto di fantasia è sbagliato, semplicemente perchè il concetto di fantasia è applicato ad una cosa non reale ed irrealizzabile, quindi.
Un Zen 95W desktop potrebbe essere commercializzato a 140W? Questo è possibile, quindi potrebbe diventare realtà. Un 6900K può conservare la frequenza 3,2GHz ed essere venduto a 95W? Questo è impossibile e quindi non potrà MAI diventare realtà.

Poi secondo me sottovaluti il discorso overclock. Sia AMD che Intel, affiancano prodotti overcloccabili a proci lisci, all'uscita fanno presentazioni di quale frequenza il loro procio può raggiungere, e applicano un listino maggiorato per quelle versioni, e la gente compra.

Mi sembra ovvio che un Zen 95W contro un 6900K 140W probabile che pareggerà in efficienza, ma dubito che superi il 6900K in prestazioni (se a quel TDP non seguono frequenze superiori alle odierne, possibile SE l'FO4 fosse come quello di BD).
Ma il modello Zen per OC, come si comporterà? Quale frequenza raggiungerà? Qui la cosa è da vedere perchè Zen avrebbe un margine del 50% in più di TDP che si può tradurre in una frequenza maggiore.

Siccome il rumor di un Zen espressamente per OC c'è, a me pare tutt'altro che fantasia il discorso sopra.

Vedi... nel TH ci sono pensieri differenti, come giustamente deve essere. Il bilanciamento del tutto è la razionalità. Di certo quando si unisce il pessimismo a senso unico verso AMD e si vuole far apparire Intel meglio di quello che è in realtà, le cose diventano molto difficili.

paolo.oliva2
10-11-2016, 09:24
Beh, può essere una bufala, ma per il clock: l'ES era già 2.8GHz nominali, overcloccarlo a 3.8 sarebbe stato un rischio. Il tizio ha affermato che 3.8 era l'OC max... Non si sa con che stabilità... Già c'era il bug, che magari ad agosto non era stato scoperto ancora, mo pure 1GHz di OC? :D

Però secondo me la spiegazione è semplice.

AMD cosa voleva dimostrare? Prestazioni e consumi simili ad Intel.

Per l'IPC può essere stata partigiana con Blender ottimizzato, ma l'efficienza è legata alla frequenza per quanto risponde il silicio per quella frequenza, ed ovviamente legato al livello di affinamento silicio/architettura raggiunto da quell'ES. Se AMD avesse avuto l'ES a 3,150GHz per 95W contro i 2,8GHz del primo, avrebbe alzato probabilmente la frequenza di confronto.

Però penso che ci sia altro... da quello che vedo Intel ha una gestione molto reattiva della frequenza in base al TDP. Forse l'underclock è stata una scelta per far sì che il 6900K non sforasse in frequenza visto che portato a lavorare a TDP molto inferiori al nominale.

bjt2
10-11-2016, 09:29
Assurdo... :asd:
Il thread su quel sito sudafricano è stato chiuso (in realtà tutta la sezione), per colpa di un DDoS di fanboy (INTEL?)... :asd: Almeno così mi ha risposto su twitter Dresdenboy... :asd: Ho chiesto maggiori informazioni...

Ma allora quelle notizie sono vere? :confused:

Ryddyck
10-11-2016, 09:32
Boh... io mi sono registrato senza problemi :stordita:

bjt2
10-11-2016, 09:35
Boh... io mi sono registrato senza problemi :stordita:

Ma il thread è visibile ai registrati, dunque?
Se si, mi devo registrare allora?

Ryddyck
10-11-2016, 09:37
Sono in attesa della mail da parte dell'amministratore, sostanzialmente tutto il forum è bloccato.

Gioz
10-11-2016, 09:53
Sono in attesa della mail da parte dell'amministratore, sostanzialmente tutto il forum è bloccato.
lo avrà hackerato amd per non far trapelare informazioni di rilievo :D :D

Ryddyck
10-11-2016, 10:03
Sarà stato Trump :ciapet:

bjt2
10-11-2016, 10:30
Certo che se è vero che è stato un attacco DDoS di fanboy INTEL... :asd: A cosa si sono ridotti... :asd:

AceGranger
10-11-2016, 10:34
Certo che se è vero che è stato un attacco DDoS di fanboy INTEL... :asd: A cosa si sono ridotti... :asd:

o un piu probabile finto attacco per farsi pubblicita :fagiano:, oh to guarda hanno uno shop...

ma a chi mai importera di "bloccare" un forum inutile e anonimo come quello ? bloccare cosa poi ? info a vanvera su un prodotto che tanto arrivera alla luce del sole fra poco ?

Gioz
10-11-2016, 10:41
o un piu probabile finto attacco per farsi pubblicita :fagiano:, oh to guarda hanno uno shop...

ma a chi mai importera di "bloccare" un forum inutile e anonimo come quello ? bloccare cosa poi ? info a vanvera su un prodotto che tanto arrivera alla luce del sole fra poco ?
anche a me sembra assurdo, bho.

Ryddyck
10-11-2016, 10:55
Clickbait, sky's the limit

paolo.oliva2
10-11-2016, 12:07
Gombloddo!11!!1!

...comunque pare sempre più sensata l'idea di Zen a fine Q1 o Q2 2017, poco prima di Skylake (Q2-Q3 2017).

dopotutto 3-6 mesi di ritardo su un progetto dalla durata di +4 anni, ci stanno tutti, considerando poi oltre che al progetto c'è di mezzo pure un PP nuovo e da rodare.

Skylake lo facevo prima, ma non era già in prevendita? Che senso avevano alla fine quei prezzi se alla fine ancora dovrebbe essere prodotto? Sempre che Intel non li abbia in magazzino ed aspetti Zen :D.

paolo.oliva2
10-11-2016, 12:09
Certo che se è vero che è stato un attacco DDoS di fanboy INTEL... :asd: A cosa si sono ridotti... :asd:

Per me fanno prima a fare come fanno sempre, ogni notizia negativa diventa sacrosanta e ogni positiva fake.
Fortuna che l'ultimo ES di Zen trapelato in rete era 3,150GHz, se fosse stato 1MGHz in più del 6900K, sai che guerra.

AceGranger
10-11-2016, 12:13
Skylake lo facevo prima, ma non era già in prevendita? Che senso avevano alla fine quei prezzi se alla fine ancora dovrebbe essere prodotto?

Skylake gia lo vendono, Skylake-E arrivera nel 2017; che prezzi ? anche perchè per la quesitone prezzi non credo saranno differenti da Broadwell-E, forse giusto qualche centone in meno per il top gamma 10 core.


Sempre che Intel non li abbia in magazzino ed aspetti Zen :D.

sicuramente :asd:

paolo.oliva2
10-11-2016, 12:38
che margine può avere Sony PlayStation in termini di richieste inoltrate ad AMD per avere l'esclusività di alcune funzioni?

http://gaming.hwupgrade.it/articoli/videogames/4771/ps4-pro-tutto-quello-che-c-e-da-sapere-sull-hardware_index.html

Sony PlayStation parla di caratteristiche Polaris per PS4 Pro e di caratteristiche Post-Polaris, ovvero non presenti neanche nelle schede video PC basate sulla nuova architettura di AMD. Sostanzialmente si tratta di un lavoro a stretto contatto tra Sony e AMD, con il produttore giapponese che richiede a quello americano alcune funzionalità in esclusiva che possano consentire di personalizzare le proprie console. Mark Cerny ha per esempio detto che tutto lo studio alla base dell'Asynchronous Compute è stato iniziato e portato avanti congiuntamente da Sony e da AMD. Questi studi sono confluiti in Mantle prima e sono alla base anche delle DirectX 12. Questo per dire che diventa importante capire che margine può avere Sony PlayStation in termini di richieste inoltrate ad AMD: quali di queste caratteristiche non potranno esserci sulla rivale Scorpio per via degli accordi tra Sony e AMD?

Per esempio la capacità di eseguire calcoli in virgola mobile a 16 bit è propria anche della versione di base di Polaris: potranno, insomma, esserci giochi per PC capaci di sfruttarla. Non è così, invece, per quanto riguarda l'allocazione di due variabili a 16 bit nella stessa chiamata di registro. Questa sembra, perlomeno per il momento, una caratteristica Post-Polaris presente unicamente in PS4 Pro.

paolo.oliva2
10-11-2016, 12:49
la serie 6000 sul socket 2011 è Broadwell 6-10c , mentre sul socket 1151 è Skylake max 4c

al CES, o entro fine anno, dovrebbe debuttare la serie 7000 sul socket 1151 max 4c, e si parla per Skylake 6-10c nel Q2-Q3 2017, cioè non è che si parla è la roadmap di Intel ci vuole poco a trovarla...

si dice che Intel abbia inviato i primi ES di SL-X adesso ad alcuni overclocker, con frequenza base 2.4ghz

:doh: Vero... è che pensando Zen unico socket per tutta la gamma, non mi sono ricordato di Intel che divide l'offerta. :doh:
2,4GHz? Beh, le frequenze aumenteranno... come è chiaro per un ES, ma ciò non vale quando gli ES sono AMD.

P.S.
Ma di solito gli E non seguono a 1 anno i 11XX? O i 11XX sono in ritardo, o gli E sono in anticipo, rispetto alla roadmap Intel, no?

Ryddyck
10-11-2016, 12:52
Nel frattempo Intel sta aspettando Amd...
https://benchlife.info/intel-skylake-x-cpu-start-sampling-11072016/

bjt2
10-11-2016, 12:57
Nel frattempo Intel sta aspettando Amd...
https://benchlife.info/intel-skylake-x-cpu-start-sampling-11072016/

Socket 2066? Urrà! Altre schede madri da buttare nel ce***... :D
La poca concorrenza fa male... Al portafogli!

Ryddyck
10-11-2016, 13:02
Se amd per sfornare un processore ed un nuovo socket perde circa 4 anni e che per altro va meno dei prodotti concorrenti attuali succede questo...

OvErClOck82
10-11-2016, 13:08
va meno.. cazz, son già usciti gli zen e mi son perso qualcosa ? :asd:

Ryddyck
10-11-2016, 13:12
Se anche il più folle dei fake dice che va quanto haswell-e che vuoi che ne sappia io :mc:

paolo.oliva2
10-11-2016, 13:54
Se amd per sfornare un processore ed un nuovo socket perde circa 4 anni e che per altro va meno dei prodotti concorrenti attuali succede questo...

Le performances (procio) mica dipendono dal socket e manco dal chipset.

Ti faccio notare che il socket, in quanto tale, la necessità di cambiarlo è data più che altro dal cambio delle RAM su mobo (DDR2/3/4). Per il resto, la necessità potrebbe essere un cambio architetturale, se poi vuoi far passare come cambio architetturale le micro-modifiche Intel... Di certo cambiare sigla al procio non corrisponde ad un cambio architetturale... come pure prendere LO STESSO procio e produrlo dal nodo precedente al nodo successivo di certo non comporta ucambio socket e/o chip-set.

Comunque non comprendo... perchè sarebbe colpa di AMD se Intel tratta i suoi fan a pesci in faccia? Fammi capire... preservare l'acquisto del cliente una ditta lo dimostra quando c'è la concorrenza? Io direi l'esatto opposto, perchè se c'è la concorrenza è costretta, è senza concorrenza che si svela per quello che è, ed Intel, come detto altre volte, tratta i suoi affezzionati clienti a pesci in faccia.

AMD ha commercializzato il socket AM2 con le DDR2, il socket AM3 con le DDR3, passato a AM3+ per Thuban e BD, rimasto in AM3+ sia con BD versione Zambesi che BD versione Piledriver, e passa ora a AM4 per le DDR4. Che ti piaccia o no, avrebbe fatto la medesima cosa sia che BD fosse stato competitivo o meno. Prima che tiri fuori il chip-set I/O, quello è un altro mondo e non è correlato al socket.

Ryddyck
10-11-2016, 14:07
Le performances (procio) mica dipendono dal socket e manco dal chipset.

Ti faccio notare che il socket, in quanto tale, la necessità di cambiarlo è data più che altro dal cambio delle RAM su mobo (DDR2/3/4). Per il resto, la necessità potrebbe essere un cambio architetturale, se poi vuoi far passare come cambio architetturale le micro-modifiche Intel... Di certo cambiare sigla al procio non corrisponde ad un cambio architetturale... come pure prendere LO STESSO procio e produrlo dal nodo precedente al nodo successivo di certo non comporta ucambio socket e/o chip-set.

Comunque non comprendo... perchè sarebbe colpa di AMD se Intel tratta i suoi fan a pesci in faccia? Fammi capire... preservare l'acquisto del cliente una ditta lo dimostra quando c'è la concorrenza? Io direi l'esatto opposto, perchè se c'è la concorrenza è costretta, è senza concorrenza che si svela per quello che è, ed Intel, come detto altre volte, tratta i suoi affezzionati clienti a pesci in faccia.
Ti sei risposto da solo del perché abbia scritto in quel modo, per il resto non sto dando la "colpa" ad amd ma la mancanza di un concorrente in qualsiasi settore comporta il comportamento da te descritto, a scanso di possibili regolamentazioni a tutela del consumatore.

Poi se vogliamo fare i precisini hai dimenticato il socket am2+, fm1, fm2, fm2+ quindi non è che adesso amd di socket non abbia fatti restando sempre nel mondo consumer...

Mister D
10-11-2016, 14:18
Ti sei risposto da solo del perché abbia scritto in quel modo, per il resto non sto dando la "colpa" ad amd ma la mancanza di un concorrente in qualsiasi settore comporta il comportamento da te descritto, a scanso di possibili regolamentazioni a tutela del consumatore.

Vero e il comportamento descritto da Paolo è ascrivibile a tutte le grande aziende (vedi apple, nvidia nell'informatica ma in tutti i campi è così). Perché questo comportamento? Semplicemente perché in una società capitalistica le società usano la propria forza del marketing e del proprio marchio per indurre nei proprio clienti una sorta di riverenza oltre che di giusta fidelizzazione. Questo complice il peggioramento di NOI consumatori (che siamo pigri di cercare le informazioni, fare confronti, usare il cervello - che non è un comodino-) e l'assenza di concorrenza porta a tali problematiche.
Se tutti NOI consumatori non comprassimo i beni come questi (non strettamente necessari) di tutte le aziende che in mancanza di concorrenza cercano di sfilarci più soldi di quelli che il prodotto vale, vedreste come questi inizierebbero comunque ad abbassare i prezzi, anche senza concorrenza, anche senza AMD per esempio (che non è una santa si è solo comportata meglio in questa fase). Leggasi leggi del mercato. Iniziate TUTTI a non comprare intel o nvidia, voglio vedere poi, se le mangieranno i loro chip :sofico: oppure più pragmaticamente calerebbero i loro prodotti.
Solo che nessuno vuole iniziare questa battaglia perché tutti vogliamo alla fine avere il nostro bel pc, ergo AMEN :sofico:

Non è una crociata contro i consumatori o il capitalismo ma solo un dato di fatto e chi non lo vede per me ha due salomoni sugli occhi:D

Ryddyck
10-11-2016, 14:27
Il ragionamento funziona solo se tutti fossimo capaci di farlo, cosa abbastanza dubbia.
Si può però agire regolando il mercato, molto probabilmente la via sarebbe quella dell'abuso di posizione dominante (ma attualmente non credo sia possibile vista la situazione, ci manca solo che intel abbia una posizione dominante :/ ).

AceGranger
10-11-2016, 14:47
Socket 2066? Urrà! Altre schede madri da buttare nel ce***... :D
La poca concorrenza fa male... Al portafogli!

sono aumentate le linee PCI-EX del processore.

Ryddyck
10-11-2016, 15:03
Con tutto il rispetto, però anche se non è un thread dedicato ad Intel è da pagine e pagine (e pagine...) che si parla di confronto amd vs intel basandosi su un solo bench, silicio, avx, fp, etc. etc.

techfede
10-11-2016, 15:22
Ecco, altra cosa: si sa nulla, o ci sono considerazioni sul numero di linee PCI-e di Zen?
Dite che potrebbero essere andati sul semplice, come per la scelta delle ram dual channel invece che quad?

Ryddyck
10-11-2016, 15:23
Discorso tecnico basato su... confronti con Intel ed ipotesi (più o meno di fantasia)

Comunque, da quello che ho visto dal video di Paul's hardware non mi sembra ci siano configurazioni quad channel (forse si dubita un eight channel per Naples) https://youtu.be/lH3R4kvyOY8?t=2m55s o ancora meglio Anandtech http://www.anandtech.com/show/10581/early-amd-zen-server-cpu-and-motherboard-details-codename-naples-32cores-dual-socket-platforms-q2-2017
Per le linee pcie si dubita sempre da Naples che si possa andare da 32 a 64 linee.

paolo.oliva2
10-11-2016, 17:45
Discorso tecnico basato su... confronti con Intel ed ipotesi (più o meno di fantasia)

Comunque, da quello che ho visto dal video di Paul's hardware non mi sembra ci siano configurazioni quad channel (forse si dubita un eight channel per Naples) https://youtu.be/lH3R4kvyOY8?t=2m55s o ancora meglio Anandtech http://www.anandtech.com/show/10581/early-amd-zen-server-cpu-and-motherboard-details-codename-naples-32cores-dual-socket-platforms-q2-2017
Per le linee pcie si dubita sempre da Naples che si possa andare da 32 a 64 linee.

:confused:
A prescindere che è più complesso creare una architettura performante che aggiungere/potenziare un MC, direi che qualsiasi cosa avrà Zen, sarà proporzionata al macinamento core.

Se un BD FX 4 moduli aveva 4 banchi e 2 canali (A0 A1, B0 e B1), non credo che AMD abbia fatto un passo indietro a fronte di una richiesta dati il doppio superiore. Zen presumibilmente (almeno) avrà lo stesso MC con le dovute correzioni/potenziamento per le DDR4.
Un Zen X32 è formato da 4 die Zen X8, ognuno dei quali lo stesso MC di Zen X8. Quindi avrà minimo 16 banchi e 8 canali.
Per le linee PCI, vale lo stesso discorso. Se è dubbio (per te) se Naples avrà 32 o 64 linee PCI, basta che quadruplichi le linee PCI di un Zen X8 (a me sembra di ricordare 128 linee PCI)

Penso che ti stia sbagliando... il dubbio di 4 banchi e 2 canali si era creato semplicemente perchè un Zen X8 è formato da 2 moduli X4, quindi 1 canale dell'MC servirebbe un modulo e l'altro canale l'altro modulo. Ipotizzando un Zen X4 derivato da un Zen X8 fallato, veniva ovvio pensare che l'MC avesse un canale disabilitato, ma parliamo di un X4. Da notare che comunque Zen X86 evolverà in APU, e l'APU avrà le HBM, che farebbe la funzione di una L3 ultra-veloce e ultra-capiente.
Nota... per L3 si parla di MB, per HBM di parla di GB. Praticamente il taglio minimo dovrebbe essere 8GB e quello massimo 16GB, credo che a tutt'oggi la ram installata su un PC varia da 4 a 8 GB.

paolo.oliva2
10-11-2016, 18:14
sono aumentate le linee PCI-EX del processore.
Questo già avrebbe un suo perchè sia cambiato socket.


Poi se vogliamo fare i precisini hai dimenticato il socket am2+, fm1, fm2, fm2+ quindi non è che adesso amd di socket non abbia fatti restando sempre nel mondo consumer...

Allora, se vogliamo fare i precisini, tieni a mente che i proci erano comunque interscambiabili salvo per modelli con MC esclusivo ad un tipo di memoria.
Quello che voglio dire, è che un 8370 lo posso pure montare sua AM3 (anche se il procio è AM3+), ma di certo (mi sembra avessero pure messo dei pin chiusi per impedirne il montaggio) non si può montare un procio con MC per DDR2 su una mobo con DDR3 e viceversa.

Io gli APU non li ho mai utilizzati, salvo nel mobile, ma avendo il bios chiuso, non ci posso smanettare.
Può darsi che il socket fm1/2/2+ sia stato cambiato perchè gli APU hanno variato di molto la potenza della iGPU e forse avrebbe a che vedere con le linee PCI.
Ma ritorna il discorso a quello che ho fatto all'inizio... se c'è da cambiare perchè c'è una esigenza, di certo non la si può negare, ma è possibile che ci siano esigenze annuali e tutto sommato per incrementi ridicoli (per +3/5% prestazionali uno è costretto a cambiare tutto?).
Io non so, ma se AMD mi proponesse un +5% di prestazioni ad un costo di 500€ (se bastano tra procio e mobo), io non cambierei sistema e non comprerei una mazza.

shellx
10-11-2016, 18:31
Assurdo... :asd:
Il thread su quel sito sudafricano è stato chiuso (in realtà tutta la sezione), per colpa di un DDoS di fanboy (INTEL?)... :asd: Almeno così mi ha risposto su twitter Dresdenboy... :asd: Ho chiesto maggiori informazioni...

Ma allora quelle notizie sono vere? :confused:

Se il sito in questione è car_nite_co.za, non c'è stato nessun attacco ddos. Per curiosità ho effettuato un packet_sniffing per intercettare passivamente i dati in transito (della situazione attuale) e dopo una analisi storica del traffico di rete su <196.46.186.152>. Non indivuo picchi di traffico ne attuali e ne su un analisi degli ultimi 60 giorni di attività di transito http di tcp/udp packet.

Ergo tutte boiate.

edit OT: tra le altre cose, chi è il folle che rischia di far collassare nodi di botnet solo per inibire il servizio di un sito web inutile con info inutili ?
Un ddos a differenza del dos, è gestito da una botnet formata da n.mila nodi (router's/server/vari terminali e device in rete) infetti e metaexploitati, ogni volta che si lancia un attacco ddos alcuni di questi nodi collassano e cadono per eccessivo overflow, (perchè la maggiorparte sono router infettati con trojan_injiected, modem e router residenziali di normali persone e normali isp, ergo facili al crash hardware in eccessivo upload di pacchetti), più nodi si perdono di una botnet, meno efficiente risulta l'attacco futuro, comporta quindi scansionare e/o infettare altri apparati per riaumentare il numero di nodi della botnet. Sta roba viene susata per dossare robe serie, no un sito da 40 centesimi.
FINE OT
;)

cdimauro
10-11-2016, 18:37
Quindi ricapitolando: per essere limitati a 2 sole operazioni memoria per ciclo deve succedere contemporaneamente:
- nessuna operazione stack
- tutte e 3 le operazioni con indirizzamenti complessi che richiedono l'AGU
- 3 operazioni separate (nessuna RMW)

Basta che una delle tre sia stack, abbia un indirizzamento semplice, sia una RMW che se ne possono fare 3 in un ciclo (conflitto tra banchi permettendo)... Già sono rari i casi in cui ci sono 3 operazioni su memoria in flight in uno stesso ciclo di clock... Figuriamoci questo ulteriore caso... :D
Diciamo che possiamo tranquillamente trascurarlo... :)
No. E a questo punto ne parlo meglio, perché è evidente che dal precedente commento non era chiaro.

Intanto preciso che QUALUNQUE operazione di load/store (qualunque sia l'indirizzamento utilizzato per referenziare la memoria) deve passare per forza dalle AGU (per Zen; per i processori Intel, come già detto, lo store data ha una porta separata, mentre per i due load vale lo stesso di Zen).

Quindi anche togliendo di mezzo per il momento le operazioni di stack, che hanno AGU / gestione dedicata in Zen, se devi arrivare alla memoria devi prima attraversare le AGU.

Questo, in sintesi, significa che Zen rimane limitato a 2 operazioni verso la memoria, contro le 3 di Intel.

Infine anche lo stack engine di Zen deve passare necessariamente da una delle due AGU per poter accedere a una delle due code di load & store. Di questo, se ricordi, ne abbiamo parlato abbondantemente su AnandTech.

Mentre ci sono chiarisco che le istruzioni FMA sono state aggiunte con Haswell, e dunque assieme ad AVX-2, ma hanno un apposito flag che indica la loro presenza, perché non sono parte delle AVX-2.
Beh, può essere una bufala, ma per il clock: l'ES era già 2.8GHz nominali, overcloccarlo a 3.8 sarebbe stato un rischio. Il tizio ha affermato che 3.8 era l'OC max... Non si sa con che stabilità... Già c'era il bug, che magari ad agosto non era stato scoperto ancora, mo pure 1GHz di OC? :D
Appunto per questo mi puzza: se 3.8GHz fosse stato il clock massimo, ne sarà ben stata al corrente AMD, che per il test con Blender avrebbe potuto benissimo usare un sample "fortunello" in grado di reggere stabilmente almeno i 3,2Ghz, che sono di gran lunga inferiori ai 3,8Ghz massimi. In questo modo avrebbe potuto benissimo effettuare un test "alla pari", pur continuando a disabilitare il Turbo a entrambi.

Se a ciò aggiungiamo che l'ultima notizia trapelata di recente parla di un clock arrivato a 3,15Ghz, dopo tutto questo tempo, beh, la cosa mi puzza di bufala ancora di più.
Assurdo... :asd:
Il thread su quel sito sudafricano è stato chiuso (in realtà tutta la sezione), per colpa di un DDoS di fanboy (INTEL?)... :asd: Almeno così mi ha risposto su twitter Dresdenboy... :asd: Ho chiesto maggiori informazioni...

Ma allora quelle notizie sono vere? :confused:
Vabbé, che un professionista scada nel becero complottismo è singolare.

Potevi almeno esprimerti sulle osservazioni che ho fatto sulle cose assurde / inverosimili di cui avevo parlato in maniera dettagliata.

Ma se ti basta un rumor per ignorarli, e credere alle favole, alzo le mani...
aggiungo il caso (forse) più verosimile: Zen non avrebbe avuto problemi a girare >3ghz, ma non essendo amd sicura di poterlo commercializzare a frequenze più alte (per via del tdp), ha fatto il test alla frequenza che in quel momento non sforava il tpd.
Questo, però, confermerebbe i problemi a scalare in frequenza.

cdimauro
10-11-2016, 18:39
Se il 99% acquista un procio e lo mantiene def,
a me non interessa, a me interessa cosa riesco ad ottenere in prestazioni massime con i soldi con cui ho acquistato quel procio

Chi acquista un 6900K, è liberissimo di tenerlo a def o di occarlo, ed idem chi acquisterà un modello sbloccabile di Zen.
Se acquistassi un 6900K, lo lascerei a def? Certamente no, come del resto con Zen.

giusto per disinnescare un eventualità: mi sembra che, anche se non proprio esclusivamente, stia parlando del suo caso personale (almeno in questo post)
Nell'ultimo commento sì, ma in precedenza no.

E per inciso, ho un 6700K che non ho affatto overclockato né ho intenzione di farlo perché non m'interessa: l'ho preso esclusivamente perché il processore con clock massimo. Esattamente come lo era il precedente 4790K: preso per la massima frequenza raggiungibile, e non per l'overclock.

cdimauro
10-11-2016, 18:43
Vedi CDimauro.

Prima porti il TDP < di 100W rilevato con il 6900K in determinati test come TDP reale e molto più basso del TDP nominale 140W,
Non l'ho riportato io, ma altri.
poi porti la potenza dell'FP 256 bit di Intel come se quella potenza fosse raggiunta a parità di TDP,
Mai fatto, ma sei sempre libero di quotarmi e farmelo vedere.
poi al fatto che con le AVX2 l'FP può ridurre la frequenza per non sforare il TDP, porti ciò che riporta Intel (e Intel quando deve ammettere che riduce frequenze def tende sempre a sminuire).
Falso: la riduzione della frequenza è ben nota. Inoltre non sono stato io il primo a parlare di frequenza ridotta usando le AVX (in generale: non solo con le AVX-2).
1° Prime95 utilizza le AVX2 ed il TDP rilevato SFORA di 9W quello nominale di 140W, quindi per me è palese che Intel abbassi il clock dell'FP perchè EFFETTIVAMENTE sta sforando il TDP nominale, 140W, tutt'altro che extra-large.
Ovvio. Qualcuno l'ha per caso negato?
2° Che il 6900K risulti più potente di un Zen X8 è una cosa, ma che lo ottenga a parità di TDP, tutt'altra.
MAI DETTO QUESTO!
Che c'entra il fatto che non esistendo (al momento) una versione Zen commerciale 140W, sarebbero fantasie? E' un dato di fatto e ti porto un riscontro.
Il dato di fatto è che non esiste, e dunque rimane una fantasia.
Un Zen X8 95W, per 140W permetterebbe un aumento del 50% dei core.
Chiaramente per te sono fantasie perchè non esiste un Zen X12 a 140W, però esiste che Zen Opteron è previsto con 32 core massimi contro i 22 core massimi di Intel, dove il +50% di core è ottenuto realmente a parità di TDP.

Questo per renderti chiaro che una cosa, se possibile, può diventare reale, diverso da una cosa impossibile che non potrà mai diventare reale.
Qui stai già dicendo di una cosa completamente diversa, visto che adesso parli di sfruttare il TDP per aggiungere core, che non c'entra nulla con quello di cui stavi parlando prima, il quale era legato alla sola frequenza.
Il tuo concetto di fantasia è sbagliato, semplicemente perchè il concetto di fantasia è applicato ad una cosa non reale ed irrealizzabile, quindi.
Fantasia è qualcosa che non esiste.

Poi che si possa realizzare, è tutto da vedere, per l'appunto, e ne riparleremo quando ci saranno quanto meno dei dati sui primi processori commercializzati.
Un Zen 95W desktop potrebbe essere commercializzato a 140W? Questo è possibile, quindi potrebbe diventare realtà.
Vedi sopra: al momento rimane fantasia.

Peraltro i 140W sono appannaggio di un altro segmento di mercato, diverso da quello desktop.
Un 6900K può conservare la frequenza 3,2GHz ed essere venduto a 95W? Questo è impossibile e quindi non potrà MAI diventare realtà.
Nulla da dire su questo.
Poi secondo me sottovaluti il discorso overclock. Sia AMD che Intel, affiancano prodotti overcloccabili a proci lisci, all'uscita fanno presentazioni di quale frequenza il loro procio può raggiungere, e applicano un listino maggiorato per quelle versioni, e la gente compra.
Ti risulta che Intel indichi l'overclock massimo che i suoi processori K possono raggiungere?
Mi sembra ovvio che un Zen 95W contro un 6900K 140W probabile che pareggerà in efficienza, ma dubito che superi il 6900K in prestazioni (se a quel TDP non seguono frequenze superiori alle odierne, possibile SE l'FO4 fosse come quello di BD).
Bisognerà anche vedere se Zen sforerà i 95W col Turbo attivo.
Ma il modello Zen per OC, come si comporterà? Quale frequenza raggiungerà? Qui la cosa è da vedere perchè Zen avrebbe un margine del 50% in più di TDP che si può tradurre in una frequenza maggiore.
E adesso ritorni nuovamente con questa fantasia. Dove sta scritto che un Zen possa arrivare a 140W salendo in frequenza, e sia in grado di reggere questo consumo (nonché dissipazione del calore)?!?

Fattelo spiegare da bjt2, a questo punto, visto che proprio oggi ha scritto qualche post su AnandTech in cui parlava dei limiti di dissipazione per mm^2 di un chip.

Perché a questo punto ci rinuncio, visto che non capisci o non vuoi capire.
Siccome il rumor di un Zen espressamente per OC c'è, a me pare tutt'altro che fantasia il discorso sopra.
E rimarrà fantasia, invece, perché non puoi alzare arbitrariamente la frequenza e sparare TDP a tuo piacimento, solo perché UN ALTRO processore arriva a 140W...
Vedi... nel TH ci sono pensieri differenti, come giustamente deve essere. Il bilanciamento del tutto è la razionalità. Di certo quando si unisce il pessimismo a senso unico verso AMD e si vuole far apparire Intel meglio di quello che è in realtà, le cose diventano molto difficili.
Vabbé, il paternalismo potevi anche risparmiartelo.

cdimauro
10-11-2016, 18:44
che margine può avere Sony PlayStation in termini di richieste inoltrate ad AMD per avere l'esclusività di alcune funzioni?

http://gaming.hwupgrade.it/articoli/videogames/4771/ps4-pro-tutto-quello-che-c-e-da-sapere-sull-hardware_index.html

Sony PlayStation parla di caratteristiche Polaris per PS4 Pro e di caratteristiche Post-Polaris, ovvero non presenti neanche nelle schede video PC basate sulla nuova architettura di AMD. Sostanzialmente si tratta di un lavoro a stretto contatto tra Sony e AMD, con il produttore giapponese che richiede a quello americano alcune funzionalità in esclusiva che possano consentire di personalizzare le proprie console. Mark Cerny ha per esempio detto che tutto lo studio alla base dell'Asynchronous Compute è stato iniziato e portato avanti congiuntamente da Sony e da AMD. Questi studi sono confluiti in Mantle prima e sono alla base anche delle DirectX 12.
Ma anche no: le DirectX12 non sono nate da Mantle, ma erano già in lavorazione da tempo.

Infatti la prima dimostrazione è stata realizzata da Intel con le sue GPU, appena qualche mese dopo la presentazione di Mantle da parte di AMD.

Questo per sottolineare che c'erano già.
Questo per dire che diventa importante capire che margine può avere Sony PlayStation in termini di richieste inoltrate ad AMD: quali di queste caratteristiche non potranno esserci sulla rivale Scorpio per via degli accordi tra Sony e AMD?
Dipende se ci siano degli accordi di esclusiva o meno, ma non lo sappiamo.
Per esempio la capacità di eseguire calcoli in virgola mobile a 16 bit è propria anche della versione di base di Polaris: potranno, insomma, esserci giochi per PC capaci di sfruttarla. Non è così, invece, per quanto riguarda l'allocazione di due variabili a 16 bit nella stessa chiamata di registro. Questa sembra, perlomeno per il momento, una caratteristica Post-Polaris presente unicamente in PS4 Pro.
E' possibilissimo.

Ryddyck
10-11-2016, 18:44
Questo già avrebbe un suo perchè sia cambiato socket.




Allora, se vogliamo fare i precisini, tieni a mente che i proci erano comunque interscambiabili salvo per modelli con MC esclusivo ad un tipo di memoria.
Quello che voglio dire, è che un 8370 lo posso pure montare sua AM3 (anche se il procio è AM3+), ma di certo (mi sembra avessero pure messo dei pin chiusi per impedirne il montaggio) non si può montare un procio con MC per DDR2 su una mobo con DDR3 e viceversa.

Io gli APU non li ho mai utilizzati, salvo nel mobile, ma avendo il bios chiuso, non ci posso smanettare.
Può darsi che il socket fm1/2/2+ sia stato cambiato perchè gli APU hanno variato di molto la potenza della iGPU e forse avrebbe a che vedere con le linee PCI.
Ma ritorna il discorso a quello che ho fatto all'inizio... se c'è da cambiare perchè c'è una esigenza, di certo non la si può negare, ma è possibile che ci siano esigenze annuali e tutto sommato per incrementi ridicoli (per +3/5% prestazionali uno è costretto a cambiare tutto?).
Io non so, ma se AMD mi proponesse un +5% di prestazioni ad un costo di 500€ (se bastano tra procio e mobo), io non cambierei sistema e non comprerei una mazza.
Ti stai dimenticando anche che alcune mobo non erano compatibili con determinati processori (soprattutto quelli con tdp superiore a 125w) quindi non è che hanno fatto un socket nuovo tanto per.

cdimauro
10-11-2016, 18:47
Le performances (procio) mica dipendono dal socket e manco dal chipset.

Ti faccio notare che il socket, in quanto tale, la necessità di cambiarlo è data più che altro dal cambio delle RAM su mobo (DDR2/3/4). Per il resto, la necessità potrebbe essere un cambio architetturale, se poi vuoi far passare come cambio architetturale le micro-modifiche Intel... Di certo cambiare sigla al procio non corrisponde ad un cambio architetturale... come pure prendere LO STESSO procio e produrlo dal nodo precedente al nodo successivo di certo non comporta ucambio socket e/o chip-set.

Comunque non comprendo... perchè sarebbe colpa di AMD se Intel tratta i suoi fan a pesci in faccia? Fammi capire... preservare l'acquisto del cliente una ditta lo dimostra quando c'è la concorrenza? Io direi l'esatto opposto, perchè se c'è la concorrenza è costretta, è senza concorrenza che si svela per quello che è, ed Intel, come detto altre volte, tratta i suoi affezzionati clienti a pesci in faccia.

AMD ha commercializzato il socket AM2 con le DDR2, il socket AM3 con le DDR3, passato a AM3+ per Thuban e BD, rimasto in AM3+ sia con BD versione Zambesi che BD versione Piledriver, e passa ora a AM4 per le DDR4. Che ti piaccia o no, avrebbe fatto la medesima cosa sia che BD fosse stato competitivo o meno. Prima che tiri fuori il chip-set I/O, quello è un altro mondo e non è correlato al socket.
A parte quello che ha riportato Ryddyck sui numerosi socket di AMD e l'altro di AceGranger sulle linee PCI-Expresse, ti sfugge che Intel usa già DA EONI socket diversi per segmenti di mercato diversi. Ed è proprio questo il caso.

In ambito desktop un nuovo socket viene utilizzato da 2 o 3 generazioni di processori, che non mi sembra affatto poco.

Ryddyck
10-11-2016, 18:50
Mi sono dimenticato anche il socket AM1 (che a mio avviso non è stato un gran successo).
Per il resto i socket di Intel per quello che ho potuto vedere cambiano usualmente a due anni/refresh per processore, ambito mainstream ovviamente.

cdimauro
10-11-2016, 18:51
Mi sono dimenticato anche il socket AM1 (che a mio avviso non è stato un gran successo).
Per il resto i socket di Intel per quello che ho potuto vedere arrivano usualmente a due anni/refresh per processore, ambito mainstream ovviamente.
Tre con il nuovo ciclo tick/tock/optimize.

Wolfhang
10-11-2016, 18:53
Socket 2066? Urrà! Altre schede madri da buttare nel ce***... :D
La poca concorrenza fa male... Al portafogli!

Beh scusa, uscirà nella seconda metà del 2017 andando a sostituire la piattaforma enthusiast 2011-3 dopo tre anni, lo stesso socket mainstream 1151 ne durerà almeno altrettanti, mi sembra un periodo ragionevole, stai sicuro che per alcuni è anche troppo lungo....

cdimauro
10-11-2016, 18:55
Tutto fa brodo per sparare su Intel...

Ryddyck
10-11-2016, 18:55
Siamo comunque ancora dentro il secondo step Pao, nel terzo se si degnano a far uscire kabylake. Ancora non si sa nemmeno se facciano uscire cannonlake sullo stesso socket (ma ne dubito).

paolo.oliva2
10-11-2016, 19:17
Ma anche no: le DirectX12 non sono nate da Mantle, ma erano già in lavorazione da tempo.
Infatti la prima dimostrazione è stata realizzata da Intel con le sue GPU, appena qualche mese dopo la presentazione di Mantle da parte di AMD.
Questo per sottolineare che c'erano già.
Dipende se ci siano degli accordi di esclusiva o meno, ma non lo sappiamo.
E' possibilissimo.

Guarda che io ho messo il link all'articolo e ho copiato un pezzo. Non c'è nulla che ho scritto io :)

Per quello in grassetto... come fa ad avere fatto la prima dimostrazione Intel se l'ha fatto qualche mese dopo AMD?

devil_mcry
10-11-2016, 19:23
AMD ha commercializzato il socket AM2 con le DDR2, il socket AM3 con le DDR3, passato a AM3+ per Thuban e BD, rimasto in AM3+ sia con BD versione Zambesi che BD versione Piledriver, e passa ora a AM4 per le DDR4. Che ti piaccia o no, avrebbe fatto la medesima cosa sia che BD fosse stato competitivo o meno. Prima che tiri fuori il chip-set I/O, quello è un altro mondo e non è correlato al socket.


Si beh li in mezzo manca giusto l'AM2+ che è l'unico che spezza il gioco, visto che era DDR2 ma i processori AM2+ non potevano essere montati su schede AMD perché non c'era l'HT3.0.

AM3+ comunque è il Socket per BD/PD, non per Thuban che è nato per AM3 (anche perché le schede AM3+ sono arrivate dopo) come puoi vedere qui (https://en.wikipedia.org/wiki/List_of_AMD_Phenom_microprocessors) ma già solo come puoi immaginare dal fatto che Thuban supportava le DDR2.

Le schede AM3+ le hanno tirate fuori solo perché senno saltavano le fasi alle AM3 come è capitato a diverse persone come giustamente ha indicato Ryddyck

jadafire
10-11-2016, 19:23
Bisogna aspettare gennaio per vedere le nuove pcu in vendita negli stores?

george_p
10-11-2016, 19:43
Tutto fa brodo per sparare su Intel...

Idem per amd... ormai questo thread è diventato il thread intellisti Vs amdisti.

paolo.oliva2
10-11-2016, 19:43
Qui stai già dicendo di una cosa completamente diversa, visto che adesso parli di sfruttare il TDP per aggiungere core, che non c'entra nulla con quello di cui stavi parlando prima, il quale era legato alla sola frequenza.
Ma ambedue sono sempre collegati al TDP. La frequenza def come viene applicata? In base al TDP prefissato. Il numero di core come lo si applica? Mediante il calcolo n° di core a frequenza X in un determinato TDP.

Ti risulta che Intel indichi l'overclock massimo che i suoi processori K possono raggiungere?

Ma mi risulta che vendono la versione K per occare il procio, ovviamente garantendo che raggiungerà frequenze superiori rispetto allo stesso ma non K, e per questo (più frequenza = aumento di prestazioni) chiede un prezzo più alto.
Guarda che se Intel non garantisce una determinata frequenza, non è perchè non sa quale frequenza potrà raggiungere (esempio un 8350 AMD lo potrebbe vendere a occhi chiusi per 4,6GHz), ma perchè una cosa è impostare il procio dalla casa madre e magari fare un pacchetto con dissipazione adeguata (esempio FX 9590), tutt'altro venderlo senza dissi e in caso di reso imputare la colpa alla dissipazione non adeguata cosi da risultare cactus del cliente e non in garanzia.

Bisognerà anche vedere se Zen sforerà i 95W col Turbo attivo.

Lascia perdere questo tasto. AMD ha fino ad ora usato una tipologia di consumo predittiva mentre Intel effettiva. Quindi AMD ha sempre garantito che il TDP nominale non viene superato un qualsiasi condizione. Intel, avendo una gestione TDP reale in tempo reale, ha potuto anche optare per soluzioni tipo sforamento per 10" e/o frequenze inferiori nel caso che il TDP venga superato.

Per farti un esempio, il mio 5500U. E' dato 2,5GHz def e 2,9GHz Turbo, ma anche se sono all'Equatore ci sono volte che la frequenza arriva a +100MHz, cioè 2,9999GHz. Ma se lancio OCCT, la frequenza base arriva a 1,8GHz, ben più in basso del nominale def di 2,4GHz.

Devi guardarla in quest'ottica. Se la ditta X mi vende un procio a 2GHz e poi questo va a 2,5GHz, io ringrazio. Ma se la stessa ditta mi vende un procio per 2,5GHz che poi mi va a 2GHz, io mi sento preso per le :ciapet:, perchè magari ho acquistato quel procio proprio per le frequenze dichiarate superiori alla concorrenza.

Ti posso garantire (sulla mia pelle) che AMD in passato non ha mai sforato il TDP nominale e tantomeno in condizione turbo (cacchio, 125W per 8 core a 4GHz e con gli stessi 125W applica un turbo di 200MHz su 2 core? C'era un modello BD a 95W in cui il turbo aveva la stessa frequenza di quello a 125W). AMD per frequenze turbo TROPPO conservative è stata criticata a iosa.


E adesso ritorni nuovamente con questa fantasia. Dove sta scritto che un Zen possa arrivare a 140W salendo in frequenza, e sia in grado di reggere questo consumo (nonché dissipazione del calore)?!?

Semplicemente perchè è la stessa cosa che ho fatto con qualsiasi procio.
Non stiamo parlando di un X2 che si porta a 140W, stiamo parlando di un X8, ovvero da 10W a core lo porti a 15W, non come in un X2 che da 10W a core lo porteresti a 70.
La dissipazione? E perchè sarebbe un problema? Aumenti il TDP procio, aumenti la potenza dell'impianto di dissipazione. Secondo te tutte le ditte che producono sistemi di dissipazione più performanti di quelli di serie, per chi li vendono?

capitan_crasy
10-11-2016, 19:57
Idem per amd... ormai questo thread è diventato il thread intellisti Vs amdisti.

Avevi qualche dubbio?:rolleyes:

bjt2
10-11-2016, 20:17
Se il sito in questione è car_nite_co.za, non c'è stato nessun attacco ddos. Per curiosità ho effettuato un packet_sniffing per intercettare passivamente i dati in transito (della situazione attuale) e dopo una analisi storica del traffico di rete su <196.46.186.152>. Non indivuo picchi di traffico ne attuali e ne su un analisi degli ultimi 60 giorni di attività di transito http di tcp/udp packet.

Ergo tutte boiate.

edit OT: tra le altre cose, chi è il folle che rischia di far collassare nodi di botnet solo per inibire il servizio di un sito web inutile con info inutili ?
Un ddos a differenza del dos, è gestito da una botnet formata da n.mila nodi (router's/server/vari terminali e device in rete) infetti e metaexploitati, ogni volta che si lancia un attacco ddos alcuni di questi nodi collassano e cadono per eccessivo overflow, (perchè la maggiorparte sono router infettati con trojan_injiected, modem e router residenziali di normali persone e normali isp, ergo facili al crash hardware in eccessivo upload di pacchetti), più nodi si perdono di una botnet, meno efficiente risulta l'attacco futuro, comporta quindi scansionare e/o infettare altri apparati per riaumentare il numero di nodi della botnet. Sta roba viene susata per dossare robe serie, no un sito da 40 centesimi.
FINE OT
;)

Non sono molto esperto di queste cose, ma alle persone normali è possibile fare packet sniffing? :eek: O tu lavori in un ISP?

No. E a questo punto ne parlo meglio, perché è evidente che dal precedente commento non era chiaro.

Intanto preciso che QUALUNQUE operazione di load/store (qualunque sia l'indirizzamento utilizzato per referenziare la memoria) deve passare per forza dalle AGU (per Zen; per i processori Intel, come già detto, lo store data ha una porta separata, mentre per i due load vale lo stesso di Zen).

Quindi anche togliendo di mezzo per il momento le operazioni di stack, che hanno AGU / gestione dedicata in Zen, se devi arrivare alla memoria devi prima attraversare le AGU.

Questo, in sintesi, significa che Zen rimane limitato a 2 operazioni verso la memoria, contro le 3 di Intel.

Infine anche lo stack engine di Zen deve passare necessariamente da una delle due AGU per poter accedere a una delle due code di load & store. Di questo, se ricordi, ne abbiamo parlato abbondantemente su AnandTech.

Scusa, ma allora che ce l'ha a fare la L1D 2 porte a 128 bit in lettura e una in scrittura? Per fare in un ciclo una lettura a 256 bit? Oppure per svuotare le code su un picco (perchè immagino che le AGU poi mettano tutto in coda e lavorino su altro)? Sei sicuro che debba per forza passare tutto per le AGU?

Appunto per questo mi puzza: se 3.8GHz fosse stato il clock massimo, ne sarà ben stata al corrente AMD, che per il test con Blender avrebbe potuto benissimo usare un sample "fortunello" in grado di reggere stabilmente almeno i 3,2Ghz, che sono di gran lunga inferiori ai 3,8Ghz massimi. In questo modo avrebbe potuto benissimo effettuare un test "alla pari", pur continuando a disabilitare il Turbo a entrambi.

Se a ciò aggiungiamo che l'ultima notizia trapelata di recente parla di un clock arrivato a 3,15Ghz, dopo tutto questo tempo, beh, la cosa mi puzza di bufala ancora di più.

Vabbé, che un professionista scada nel becero complottismo è singolare.

Era una battuta... :D Ho messo una faccina e poi era in forma dubitativa... Non ho fatto una affermazione... E poi in questo settore sono solo un amatore... A ingegneria (purtroppo) non avevo nel piano di studi l'esame "architettura dei sistemi integrati"... Ho solo nozioni di elettronica, dimensionamento dei MOS ecc... Oppure parlavi di Dresdenboy? :confused:

Potevi almeno esprimerti sulle osservazioni che ho fatto sulle cose assurde / inverosimili di cui avevo parlato in maniera dettagliata.

Ma se ti basta un rumor per ignorarli, e credere alle favole, alzo le mani...

Non ho capito... :confused: Su cosa devo risponderti? :confused:
Se non rispondo a qualcosa che scrivi, è sottointeso che sono d'accordo con te... Non sto a ripetere la tua frase e sotto ci scrivo "concordo"... Mi sembrava sottointeso...

EDIT: forse ho capito: non ti ho risposto punto per punto, perchè penso anche io che sono cose troppo strane...

Fattelo spiegare da bjt2, a questo punto, visto che proprio oggi ha scritto qualche post su AnandTech in cui parlava dei limiti di dissipazione per mm^2 di un chip.

Questa cosa non è farina del mio sacco... Ho letto da più parti questa cosa dei 0.5W/mm2 e mi è sembrato ragionevole... Non sto a fare i calcoli... Se so che il TjMax è 100, assumendo il worst case di Tamb=40C e conoscendo la conducibilità termica massima del silicio+dissipatore stock medio di una CPU è possibile anche calcolarlo, ma mi sono fidato... E i conti tornano anche con le GPU... I modelli "piccoli" che io sappia non esistono con TDP da 250W...

Tutto fa brodo per sparare su Intel...

Beh, aumentare i pin comporta che tutti i produttori di MB devono rifare il progetto, i tracciati, il test... Se facevano un 2011v4 con le nuove specifiche per supportare le nuove CPU era anche meglio... MB più velocemente sul mercato, economie di scala e prezzi inferiori...
Per qualche linea PCIex in più abbiamo una piattaforma più costosa del necessario...
Sono abituato male con AMD che fa le CPU dual controller RAM che possono andare su due socket diversi...
Per esempio prevedo che AMD, quando uscirà il PCIex 4.0, non richiederà un nuovo socket, ma sfruttando la retrocompatibilità dello standard, continuerà a usare il PCIex 3.0 sulle vecchie MB o sulle nuove MB con vecchia CPU, ma userà il 4.0 sulle nuove MB con nuova CPU...

sgrinfia
10-11-2016, 20:22
Comunque prima dell'uscita di Zen si può solo suppore , però tutto e possibile......, basta per esempio guardare la Playstation 4 pro,ha fatto segnare un consumo pari a 155W contro i 148W della PlayStation 4 originale", ha fatto segnare un consumo pari a 156W contro i 149W della PlayStation 4 originale", con +500mhz clock cpu e +111mhz clock Gpu e raddoppio CU e tutto questo con un semplice passaggio tra i 28 ai 14nm .Quindi è tangibile .

Piedone1113
10-11-2016, 20:27
Mi sono dimenticato anche il socket AM1 (che a mio avviso non è stato un gran successo).
Per il resto i socket di Intel per quello che ho potuto vedere cambiano usualmente a due anni/refresh per processore, ambito mainstream ovviamente.

Ma il socket AM1 è il corrispettivo BGA degli atom, più costosa come soluzione, ma più flessibile per l'utente (ed in fondo anche un valido prodotto)

paolo.oliva2
10-11-2016, 20:28
Si beh li in mezzo manca giusto l'AM2+ che è l'unico che spezza il gioco, visto che era DDR2 ma i processori AM2+ non potevano essere montati su schede AMD perché non c'era l'HT3.0.

AM3+ comunque è il Socket per BD/PD, non per Thuban che è nato per AM3 (anche perché le schede AM3+ sono arrivate dopo) come puoi vedere qui (https://en.wikipedia.org/wiki/List_of_AMD_Phenom_microprocessors) ma già solo come puoi immaginare dal fatto che Thuban supportava le DDR2.

Le schede AM3+ le hanno tirate fuori solo perché senno saltavano le fasi alle AM3 come è capitato a diverse persone come giustamente ha indicato Ryddyck

Per l'ultimo pezzo, le schede AM3+ avevano un power-plane differente, e alcune utility di risparmio non funzionavano (non ti so dire quali perchè ho sempre tenuto i proci in OC e conseguentemente il risparmio energetico disattivato). Personalmente io ho tenuto un 8150 su una CF IV AM3 per mesi e un 8350 su una Asrock 95W AM3+ ma ricicloc di una AM2, dubito abbiano aggiornato le fasi, anche se riciclata come AM3+.

Per come la penso io, se avevi una AM3 140W problemi che saltavano le fasi non c'erano... o perlomeno avresti avuto lo stesso problema con una AM3+ debole di alimentazione.

Edit
Comunque pensa alla mia situazione. Devo fare scorta di tutto perchè qui in Costa d'Avorio non troverei una mazza di componenti sfusi (e se si, probabile che abbiano 10 anni, visto che ancora vendono i Pentium IV).
Quindi qualsiasi sistema acquisterei, probabile che debba prenderlo doppio, cioè 1 sistema mobo/procio/DDR4 e una mobo e DDR4 a parte. Con AMD direi che ci sia forte probabilità che comunque la mobo di scorta la potrei utilizzare con Zen+ e quindi relegare Zen X86 come muletto. Facessi la stessa cosa con Intel, che faccio? Mi prendo una top 2011V3 a 450€ di scorta per poi farci un quadro il prox anno?

Ryddyck
10-11-2016, 20:44
Ma il socket AM1 è il corrispettivo BGA degli atom, più costosa come soluzione, ma più flessibile per l'utente (ed in fondo anche un valido prodotto)
Beh ci sono ancora le soluzioni integrate che da questo punto di vista permettono di risparmiare un po'.

Per l'ultimo pezzo, le schede AM3+ avevano un power-plane differente, e alcune utility di risparmio non funzionavano (non ti so dire quali perchè ho sempre tenuto i proci in OC e conseguentemente il risparmio energetico disattivato). Personalmente io ho tenuto un 8150 su una CF IV AM3 per mesi e un 8350 su una Asrock 95W AM3+ ma ricicloc di una AM2, dubito abbiano aggiornato le fasi, anche se riciclata come AM3+.

Per come la penso io, se avevi una AM3 140W problemi che saltavano le fasi non c'erano... o perlomeno avresti avuto lo stesso problema con una AM3+ debole di alimentazione.

Edit
Comunque pensa alla mia situazione. Devo fare scorta di tutto perchè qui in Costa d'Avorio non troverei una mazza di componenti sfusi (e se si, probabile che abbiano 10 anni, visto che ancora vendono i Pentium IV).
Quindi qualsiasi sistema acquisterei, probabile che debba prenderlo doppio, cioè 1 sistema mobo/procio/DDR4 e una mobo e DDR4 a parte. Con AMD direi che ci sia forte probabilità che comunque la mobo di scorta la potrei utilizzare con Zen+ e quindi relegare Zen X86 come muletto. Facessi la stessa cosa con Intel, che faccio? Mi prendo una top 2011V3 a 450€ di scorta per poi farci un quadro il prox anno?
Ma già parli di signore mobo, se abbassi le pretese prendendo pur sempre anche una con l'890 alcune non sono state nemmeno aggiornate dalle case produttrici.
Per il resto la tua situazione penso sia abbastanza differente rispetto a tutti gli altri quindi pone anche soluzioni differenti. Una curiosità, che ci fai in Costa d'Avorio? Lavoro?

shellx
10-11-2016, 20:54
Non sono molto esperto di queste cose, ma alle persone normali è possibile fare packet sniffing? :eek: O tu lavori in un ISP?


Lo sniffing non è il potere di un supereroe. Qualsiasi utente con conoscenza di base di reti può effettuarlo. Io sono un programmatore ed amministratore/progettista di reti in ambienti unix, lavoro in questo settore. Mi occupo di conseguenza di sicurezza nelle infrastrutture di rete aziendali. Evitare attacchi ai danni dei miei clienti per causa di Distribuited Denial of Service è ormai diventato per me all'ordine del giorno. Ti assicuro che un attacco di questo tipo non dura cosi tanto, e comunque a prescindere da ogni cosa, per un eventuale maleintenzionato (capace) è molto più efficiente, soddisfacente e definitivo defacciare una infrastruttura DB_php di un determinato sito, anzichè renderlo inaccessibile per opera di un ddos per alcune ore e dopo rivederlo attivo. Tramite un defacciamento dell'interfaccia db di un sito, (sqlmap,o ovviamente in unix os), puoi avere in mano password e l'intera struttura (dati di campi, colonne, records, formati) del database del sito, puoi fare molti più danni con il minimo rischio, e senza disturbare e compromettere una ddosnet (botnet).

Tuttavia dò per certo che non è stato effettuato nessun tipo di attacco a quel sito in questione. Per cui secondo me la verità è tutt'altra....

Ryddyck
10-11-2016, 21:07
Viene il dubbio del perché abbiano detto di aver subito un attacco ddos.
Per il resto che io sappia ci sono sempre dei modi per limitare gli attacchi come ad esempio cloudflare o altri che offrono anti ddos.

bjt2
10-11-2016, 21:10
Lo sniffing non è il potere di un supereroe. Qualsiasi utente con conoscenza di base di reti può effettuarlo. Io sono un programmatore ed amministratore/progettista di reti in ambienti unix, lavoro in questo settore. Mi occupo di conseguenza di sicurezza nelle infrastrutture di rete aziendali. Evitare attacchi ai danni dei miei clienti per causa di Distribuited Denial of Service è ormai diventato per me all'ordine del giorno. Ti assicuro che un attacco di questo tipo non dura cosi tanto, e comunque a prescindere da ogni cosa, per un eventuale maleintenzionato (capace) è molto più efficiente, soddisfacente e definitivo defacciare una infrastruttura DB_php di un determinato sito, anzichè renderlo inaccessibile per opera di un ddos per alcune ore e dopo rivederlo attivo. Tramite un defacciamento dell'interfaccia db di un sito, (sqlmap,o ovviamente in unix os), puoi avere in mano password e l'intera struttura (dati di campi, colonne, records, formati) del database del sito, puoi fare molti più danni con il minimo rischio, e senza disturbare e compromettere una ddosnet (botnet).

Tuttavia dò per certo che non è stato effettuato nessun tipo di attacco a quel sito in questione. Per cui secondo me la verità è tutt'altra....

Ah, non avevo pensato che tu intendessi che hai monitorato la botnet... Immagino che si possa fare... Mica hai la possibilità di monitorare tutto il traffico di quel sito? Immagino che tu possa monitorare il traffico della/delle botnet note e sapere se è diretto verso quel sito, giusto?

Ryddyck
10-11-2016, 21:17
Alcune società monitorano le botnet, tipo trend micro http://www.trendmicro.com/us/security-intelligence/current-threat-activity/global-botnet-map/

paolo.oliva2
10-11-2016, 21:52
Beh ci sono ancora le soluzioni integrate che da questo punto di vista permettono di risparmiare un po'.

Ma già parli di signore mobo, se abbassi le pretese prendendo pur sempre anche una con l'890 alcune non sono state nemmeno aggiornate dalle case produttrici.
Per il resto la tua situazione penso sia abbastanza differente rispetto a tutti gli altri quindi pone anche soluzioni differenti.
Per me in un sistema le cose importanti sono mobo e ali. L'ali lo compri una volta e te lo porti dietro. Rimane solo la mobo quando acquisti un nuovo procio. Con AMD e BD, tra una mobo scrausa 70€ e il top come alimentazione (Sabertooth = CF Vz) 140€ devi sborsare la differenza. Considerato che faccio OC, 70€ sono nulla, considerando che a suo tempo avevo acquistato ali da 750W, dissipazione a liquido e WC.


Una curiosità, che ci fai in Costa d'Avorio? Lavoro?
E' una conseguenza della "spremitura" tasse italiana. Fino a qualche anno fa campavo di rendita... avevo 3 case e le affittavo agli universitari e vivevo bene. Poi con l'aumento delle tasse praticamente non mi restava nulla... che potevo fare? O violare la legge e fare tutto in nero, o andare a lavorare o vendere tutto e trasferirmi in un paese dove potevo vivere di rendita. Ho scelto l'ultima opzione, visto che ero sposato con un'ivoriana.
Qui le banche danno il 6,5% di interessi (e sono francesi), le tasse non esistono e con 300€/mese fai quello che vuoi, quindi posso campare di rendita. Per avere qualche cosa da fare, mi sono messo nel cacao, caffè, nivea... Acquisto direttamente sul terreno e pagando in contanti ho un prezzo molto basso, e il tutto lo trasporto al porto (Abidjan) dove lo pagano in contanti e lo imbarcano. 1 giornata di lavoro (da parte mia unicamente di controllo), e ci guadagno almeno un 30% pulito su quanto investito. Praticamente mi basterebbe 1 trasporto l'anno per vivere.
Ovvio che ho dovuto fare dei compromessi... ma a over 50 è facile. L'unico prb reale che ho è a volte la malaria.

Ryddyck
10-11-2016, 21:57
Ah
https://cdn.meme.am/instances/49638260.jpg

Gioz
10-11-2016, 22:16
Edit
Comunque pensa alla mia situazione. Devo fare scorta di tutto perchè qui in Costa d'Avorio non troverei una mazza di componenti sfusi (e se si, probabile che abbiano 10 anni, visto che ancora vendono i Pentium IV).
Quindi qualsiasi sistema acquisterei, probabile che debba prenderlo doppio, cioè 1 sistema mobo/procio/DDR4 e una mobo e DDR4 a parte. Con AMD direi che ci sia forte probabilità che comunque la mobo di scorta la potrei utilizzare con Zen+ e quindi relegare Zen X86 come muletto. Facessi la stessa cosa con Intel, che faccio? Mi prendo una top 2011V3 a 450€ di scorta per poi farci un quadro il prox anno?
mmm, al di la del fatto che mi sento istantaneamente meno povero(e quindi mi hai rallegrato la giornata)...non so fino a che punto quello che poni sia un vantaggio di amd rispetto ad intel, bisognerà valutare al momento di zen+ come verrà realmente trattato il passaggio, perchè caso per caso può non essere stato così indolore sui socket precedenti mantenere la mobo vecchia adattando una cpu nuova.

shellx
10-11-2016, 23:25
Ah, non avevo pensato che tu intendessi che hai monitorato la botnet... Immagino che si possa fare... Mica hai la possibilità di monitorare tutto il traffico di quel sito? Immagino che tu possa monitorare il traffico della/delle botnet note e sapere se è diretto verso quel sito, giusto?

No. Ho monitorato proprio tutto il traffico del sito degli ultimi 60 giorni. Per monitorare una botnet bisogna conoscere l'ip del server che pilota l'intera botnet in mano del/degli hacker responsabili (no l'ip del sito), cosa non difficile da avere con un giro di comandi in una shell , lo si fa solitamente per risalire ai responsabili e anche per capire quali siti/ip ha preso di mira la botnet responsabile dell'attacco ddos. Ma nel mio caso non è necessario disturbare la botnet solo per sapere se nel sito è avvenuto un attacco syn_flooding, basta fare un packet_sniffing sull'ip del sito web (ip che nel post di prima ho citato), e tramite questo approccio si conosce in dettaglio quanto traffico c'è stato (in termini di pacchetti syn tcp/udp che entrano ed escono dal sito ed anche in termini di tipo di dati pacchetto, grandezze di dati, tempi di trasferimenti, e per quanto tempo il flusso è avvenuto). Solitamente quando è in corso o è stato in corso un attacco ddos, si vede un chiaro picco di xbyte di pacchetti x o y in entrata nel sito, per minuti, ore, o addirittura giorni, solitamente pacchetti senza senso, utili solo per fare collassare i servizi del server che ospita la piattaforma con conseguente divieto dei servizi del sito e inaccessibilità di quest'ultimo.

Comunque siamo OT meglio chiuderla qui , anche visto la tipologia dell'argomento delicato. Capisci me che conoscere certe tecniche per rendere efficienti le sicurezze di rete non ti fa molto diverso da chi le utilizza per violarle. In sostanza devi aver ben chiaro come si produce e si finalizza un attacco informatico di qualsiasi tipo per comprendere come fermarlo o evitarlo. ;)

Tuttavia tornando in tema thread, quel sito è una bufala anche dalla tipologia di informazioni che eroga. Esempio: trovo alquanto una minchiata colossale che il bios sarà nella cpu. Io non sono un ingegnere elettronico, ma ipotizzo che dal punto di vista elettronico non ha nessun senso implementare hub's nel package superflui, incasinando l'infrastruttura del chip. Ma poi il bios ? Dai. Era più sensato se dicevano i regolatori di tensione (vrm), ma il bios proprio è na mera bufala.

shellx
10-11-2016, 23:57
Viene il dubbio del perché abbiano detto di aver subito un attacco ddos.
Per il resto che io sappia ci sono sempre dei modi per limitare gli attacchi come ad esempio cloudflare o altri che offrono anti ddos.

Gli antiddos che ti propongono e tanto sbandierano i provider, sono giocattoli, palliativi ideati dalle server farm per far spendere più denaro negli abbonamenti ai propri clienti. Questi strumenti (che non sono firewall hardware) limitano solo la bandwitch in fase di un attacco, in dettaglio se per tot.minuti il server ha richieste syn udp continue e con picchi elevati, il servizio si arresta impedendo danni al nodo host_server. Risultato: il sito per ovvi motivi rimane comunque irrangiungibile (e no più per il ddos ma per quei giocattoli implementati). Dopo un ora circa l'antiddos si disabilita e i servizi http/web della piattaaforma riprendono a funzionare....ma...eh eh..peccato che l'attacco potrebbe essere ancora in corso, dopo 1 minuto di accessibilità ritorna inaccessibile per il ddos continuo, e cosi via ciclicamente. Questo dipende da quanto fanno durare l'attacco i maleintenzionati.
Invece un buon firewall hardware, configurato con le contropalle, è sempre il metodo più efficiente, e neppure definitivo.

descartes2
11-11-2016, 00:31
potreste togliermi una curiosità che mi porto avanti da tanto tempo?....
in questi anni ho avuto sia cpu amd che intel, in particolar modo 8320e e i7 4770 e tra le due non ho trovato la benché minima differenza... (per questo motivo sia sui forum che altrove ho sempre consigliato amd per via della convenienza di prezzo...), infatti per i programmi standard non cambia nulla..., per i videogiochi conta praticamente la sola gpu... e quindi viene spontaneo chiedersi per quale motivo una persona dovrebbe spendere più di 100€ per una cpu quando un athlon o un pentium o un fx 6xxx svolgono egregiamente il loro lavoro. A che serve, in buona sostanza, una cpu zen da 8 core o i7 da 10 core?, quali sono i campi di applicazione nei quali è possibile riscontrare qualche differenza...? eccezion fatta per chi usa i programmi di grafica a livello professionale...
quello che mi sorprende è il numero di persone che acquistano cpu come l'i7 6700k o l'i5 6600k cioè cosa se ne fanno? saranno mica tutti fotografi professionisti? grafici o designer?

Gioz
11-11-2016, 00:48
potreste togliermi una curiosità che mi porto avanti da tanto tempo?....
in questi anni ho avuto sia cpu amd che intel, in particolar modo 8320e e i7 4770 e tra le due non ho trovato la benché minima differenza... (per questo motivo sia sui forum che altrove ho sempre consigliato amd per via della convenienza di prezzo...), infatti per i programmi standard non cambia nulla..., per i videogiochi conta praticamente la sola gpu... e quindi viene spontaneo chiedersi per quale motivo una persona dovrebbe spendere più di 100€ per una cpu quando un athlon o un pentium o un fx 6xxx svolgono egregiamente il loro lavoro. A che serve, in buona sostanza, una cpu zen da 8 core o i7 da 10 core?, quali sono i campi di applicazione nei quali è possibile riscontrare qualche differenza...? eccezion fatta per chi usa i programmi di grafica a livello professionale
fuori da un uso molto particolare, o da confronti tra prodotti talmente distanti da non aver senso il paragone...spesso è difficile notare davvero la differenza. è così in pressochè tutti i campi, basta vedere i cambiamenti delle reflex ad ogni modello, o i cellulari, le tv e via discorrendo tutto il mercato mainstream e di consumo.
adesso va di moda l'editing video, pare che tutti debbano fare filmati professionali ad ogni ora del giorno, e spesso vengono suggerite cpu per via delle ottime prestazioni in quel caso d'uso o con un certo software specifico.
a mio avviso il punto rilevante è quell' equilibrio tra ciò che un prodotto offre e la relativa risposta alle proprie esigenze, ma poi la cosa sfugge di mano e spesso si estremizzano anche differenze che magari non ci toccano ed interessano realmente.

Free Gordon
11-11-2016, 00:58
Ah https://cdn.meme.am/instances/49638260.jpg

Quoto!!! :rotfl: :rotfl: :rotfl:

descartes2
11-11-2016, 01:09
fuori da un uso molto particolare, o da confronti tra prodotti talmente distanti da non aver senso il paragone...spesso è difficile notare davvero la differenza. è così in pressochè tutti i campi, basta vedere i cambiamenti delle reflex ad ogni modello, o i cellulari, le tv e via discorrendo tutto il mercato mainstream e di consumo.
adesso va di moda l'editing video, pare che tutti debbano fare filmati professionali ad ogni ora del giorno, e spesso vengono suggerite cpu per via delle ottime prestazioni in quel caso d'uso o con un certo software specifico.
a mio avviso il punto rilevante è quell' equilibrio tra ciò che un prodotto offre e la relativa risposta alle proprie esigenze, ma poi la cosa sfugge di mano e spesso si estremizzano anche differenze che magari non ci toccano ed interessano realmente.

capisci quello che intendo dire.... ogni volta che uno gira su qualche forum in base alle specifiche che vengono richieste sembra che siano tutti Steven Spielberg.... sembra che tutti siano esperti di software per modellazione o roba simile, quindi l'unica spiegazione che posso darmi è che sia tutto frutto di una moda.. cioè che differenze ci sono tra un i5 2500k e uno odierno? ... tanto di cappello per amd se riuscirà a portare un optacore in una fascia di prezzo "umana" ma in fin dei conti a chi servirà? sempre a chi deve fare editing rendering a livello professionale immagino...

paolo.oliva2
11-11-2016, 01:51
capisci quello che intendo dire.... ogni volta che uno gira su qualche forum in base alle specifiche che vengono richieste sembra che siano tutti Steven Spielberg.... sembra che tutti siano esperti di software per modellazione o roba simile, quindi l'unica spiegazione che posso darmi è che sia tutto frutto di una moda.. cioè che differenze ci sono tra un i5 2500k e uno odierno? ... tanto di cappello per amd se riuscirà a portare un optacore in una fascia di prezzo "umana" ma in fin dei conti a chi servirà? sempre a chi deve fare editing rendering a livello professionale immagino...

Se posso dire la mia, certamente dipende da quello che fai con il PC (ovvio che se usi programmi MT, l'avere più core da' un bel sprint aggiuntivo), ma conta anche come usi il PC.

Per farti un esempio... se hai un portatile, non è che non puoi fare le stesse cose che farebbe un 6950X, ma ci vuole più tempo e nel contempo non puoi fare più cose contemporaneamente.
Ad esempio, con l'FX 8350 potevo avere "sotto" pure 2 conversioni video contemporaneamente, torrent e nel contempo cazzeggiare in internet oppure giocare, senza il minimo lag. Certo, l'8350 non è un 6950X, però la dimensione del tempo la percepisci quando devi aspettare, tipo davanti al PC, che se è lento o con pochi core non puoi fare più cose contemporaneamente, e l'attesa è estenuante. Se invece puoi fare altro, che mazza ti frega se il PC ci mette 10 minuti o 20 o 30? Tanto al PC ci resti 1-2h, quindi non ti importa nulla, ma l'importante che in quelle ore fai quello che vuoi, non 1 o 2 cose e stai li a grattarti.

Io almeno cerco più core per questo motivo... altri... potrebbe essere una similitudine con un'auto. Per i limiti di velocità, una Panda sarebbe più che sufficiente, però sono in tanti a voler acquistare auto ben più potenti ma senza l'effettiva necessità. Cosa fa da metro? Il costo. Se vuoi/puoi spendere 30.000€ in un'auto, non ti prendi una panda. Stessa cosa con i proci. La maggioranza prende un X4 e non un X2 semplicemente perchè un X4 è accessibile (se non i modelli di punta). Se un X6 costasse tanto quell'X4, probabile che si acquisterebbe un X6, ed idem dicasi per un X8. E' ovvio che se un X6 top costa quanto 2 X4 ed un X8 1100€, o lo prendi perchè ti serve per lavoro, o lo prendi da hobbista se hai il portafoglio gonfio, altrimenti amen. Stesso dicasi per le auto... Le Ferrari in giro se ne vedono poche, ovviamente, ma per il costo di 350.000€. Se una Ferrari costasse 15.000€, esensione bollo, benzina a 50 centesimi al litro e assicurazione umana, saremmo tutti in Ferrari. Ma a chi servirebbe effettivamente una Ferrari? (certo che se vuoi rimorchiare una donna, la Ferrari ti aiuta e non poco :))

Piedone1113
11-11-2016, 08:53
Gli antiddos che ti propongono e tanto sbandierano i provider, sono giocattoli, palliativi ideati dalle server farm per far spendere più denaro negli abbonamenti ai propri clienti. Questi strumenti (che non sono firewall hardware) limitano solo la bandwitch in fase di un attacco, in dettaglio se per tot.minuti il server ha richieste syn udp continue e con picchi elevati, il servizio si arresta impedendo danni al nodo host_server. Risultato: il sito per ovvi motivi rimane comunque irrangiungibile (e no più per il ddos ma per quei giocattoli implementati). Dopo un ora circa l'antiddos si disabilita e i servizi http/web della piattaaforma riprendono a funzionare....ma...eh eh..peccato che l'attacco potrebbe essere ancora in corso, dopo 1 minuto di accessibilità ritorna inaccessibile per il ddos continuo, e cosi via ciclicamente. Questo dipende da quanto fanno durare l'attacco i maleintenzionati.
Invece un buon firewall hardware, configurato con le contropalle, è sempre il metodo più efficiente, e neppure definitivo.
Hai esposto in modo semplice quello che è un argomento molto complesso.
Complimenti per la sintesi e la spiegazione.
Una curiosità adotti una lista storica degli ip legittimi per limitare il traffico in caso di attocco ddos nel caso questo avvenga per preservare un minimo di continuità dei servizi?

the_joe
11-11-2016, 09:06
capisci quello che intendo dire.... ogni volta che uno gira su qualche forum in base alle specifiche che vengono richieste sembra che siano tutti Steven Spielberg.... sembra che tutti siano esperti di software per modellazione o roba simile, quindi l'unica spiegazione che posso darmi è che sia tutto frutto di una moda.. cioè che differenze ci sono tra un i5 2500k e uno odierno? ... tanto di cappello per amd se riuscirà a portare un optacore in una fascia di prezzo "umana" ma in fin dei conti a chi servirà? sempre a chi deve fare editing rendering a livello professionale immagino...

Non serve fare editing a livello professionale, basta farlo a livello amatoriale, ti posso assicurare che la potenza non è mai abbastanza (troppa nemmeno a pensarci a meno di spendere migliaia di euro in piattaforme PRO come gli Xeon) e un filmato in full-hd ti impegna un i7 4 core bello corrazzato, nel senso che ci lavori tranquillamente, ma appena applichi un po' di correzioni, di effetti e montaggi di più tracce, quando arrivi a convertirlo puoi andare via che ci mette le sue belle orette, naturalmente puoi continuare a lavorare al pc perché non è piantato, ma se non devi fare altro, devi solo aspettare che finisca, magari con un 8c/16th riesci anche a vedere gli effetti in tempo reale invece di dover aspettare il tempo che il pc ci mette a renderizzarli e la conversione finale dura 1/4 quindi da 3 ore si passa a 3/4 d'ora mica poco come miglioria....

E parlo di full-h se andiamo al 4K hai voglia di mettere dentro core e MHZ ;)

Per la conversione delle foto anche impegnative come raw da 24mp i processori restano al 40/50% per cui la potenza avanza.

descartes2
11-11-2016, 09:15
Se posso dire la mia, certamente dipende da quello che fai con il PC (ovvio che se usi programmi MT, l'avere più core da' un bel sprint aggiuntivo), ma conta anche come usi il PC.

Per farti un esempio... se hai un portatile, non è che non puoi fare le stesse cose che farebbe un 6950X, ma ci vuole più tempo e nel contempo non puoi fare più cose contemporaneamente.
Ad esempio, con l'FX 8350 potevo avere "sotto" pure 2 conversioni video contemporaneamente, torrent e nel contempo cazzeggiare in internet oppure giocare, senza il minimo lag. Certo, l'8350 non è un 6950X, però la dimensione del tempo la percepisci quando devi aspettare, tipo davanti al PC, che se è lento o con pochi core non puoi fare più cose contemporaneamente, e l'attesa è estenuante. Se invece puoi fare altro, che mazza ti frega se il PC ci mette 10 minuti o 20 o 30? Tanto al PC ci resti 1-2h, quindi non ti importa nulla, ma l'importante che in quelle ore fai quello che vuoi, non 1 o 2 cose e stai li a grattarti.

Io almeno cerco più core per questo motivo... altri... potrebbe essere una similitudine con un'auto. Per i limiti di velocità, una Panda sarebbe più che sufficiente, però sono in tanti a voler acquistare auto ben più potenti ma senza l'effettiva necessità. Cosa fa da metro? Il costo. Se vuoi/puoi spendere 30.000€ in un'auto, non ti prendi una panda. Stessa cosa con i proci. La maggioranza prende un X4 e non un X2 semplicemente perchè un X4 è accessibile (se non i modelli di punta). Se un X6 costasse tanto quell'X4, probabile che si acquisterebbe un X6, ed idem dicasi per un X8. E' ovvio che se un X6 top costa quanto 2 X4 ed un X8 1100€, o lo prendi perchè ti serve per lavoro, o lo prendi da hobbista se hai il portafoglio gonfio, altrimenti amen. Stesso dicasi per le auto... Le Ferrari in giro se ne vedono poche, ovviamente, ma per il costo di 350.000€. Se una Ferrari costasse 15.000€, esensione bollo, benzina a 50 centesimi al litro e assicurazione umana, saremmo tutti in Ferrari. Ma a chi servirebbe effettivamente una Ferrari? (certo che se vuoi rimorchiare una donna, la Ferrari ti aiuta e non poco :))

Hai ragione, anche io in passato (in questo e in altri forum) portavo l'esempio di due macchine per spiegare che in fin dei conti la maggior parte di operazioni eseguibili con una cpu potevano essere svolte anche dall'altra a minor prezzo, e la cpu che riusciva a fare le stesse cose a minor prezzo era puntualmente una cpu amd. Ma, se nella pratica la capacita di svolgere più operazioni contemporaneamente (tipo 2 Gameplay, 10 estrazioni winnrar, e chi più ne ha più ne metta) ce l'ha un 8320 da 140€ anziché un i5 da 220€ , ritengo che il vero motivo che spinge a tenere un numero enorme di applicazioni aperte costituisce più un modo per testare le capacità della propria cpu che per vere esigenze personali, a meno che come dicevamo prima uno non faccia editing video tutto il giorno. Quindi mi chiedo che senso avrebbe comprare un i7 o uno zen x8 o un i5 quando nel campo del Multitasking basta una cpu intorno ai 130€...., cioè gli fx 8xxx nella fascia dei 150€ (sempre secondo me) offrono già una quantità di funzioni esagerata per un hobbista....

descartes2
11-11-2016, 09:34
Non serve fare editing a livello professionale, basta farlo a livello amatoriale, ti posso assicurare che la potenza non è mai abbastanza (troppa nemmeno a pensarci a meno di spendere migliaia di euro in piattaforme PRO come gli Xeon) e un filmato in full-hd ti impegna un i7 4 core bello corrazzato, nel senso che ci lavori tranquillamente, ma appena applichi un po' di correzioni, di effetti e montaggi di più tracce, quando arrivi a convertirlo puoi andare via che ci mette le sue belle orette, naturalmente puoi continuare a lavorare al pc perché non è piantato, ma se non devi fare altro, devi solo aspettare che finisca, magari con un 8c/16th riesci anche a vedere gli effetti in tempo reale invece di dover aspettare il tempo che il pc ci mette a renderizzarli e la conversione finale dura 1/4 quindi da 3 ore si passa a 3/4 d'ora mica poco come miglioria....

E parlo di full-h se andiamo al 4K hai voglia di mettere dentro core e MHZ ;)

Per la conversione delle foto anche impegnative come raw da 24mp i processori restano al 40/50% per cui la potenza avanza.

quindi da un punto di vista pratico i potenziali acquirenti di uno zenx8 sarebbero tutti quelli che fanno (o vorrebbero fare) video editing in hd.... cioè i motivi per comprarlo restano sempre il rendering e l'editing in hd, solo in questi ambiti pratici sarebbe possibile notare un miglioramento delle prestazioni, giusto?

Ryddyck
11-11-2016, 09:57
anch'io :rotfl:
mi sta già più simpatico Ryddyck :p

È la prima impressione, alla fine non potrai fare a meno di me :ciapet:

Gli antiddos che ti propongono e tanto sbandierano i provider, sono giocattoli, palliativi ideati dalle server farm per far spendere più denaro negli abbonamenti ai propri clienti. Questi strumenti (che non sono firewall hardware) limitano solo la bandwitch in fase di un attacco, in dettaglio se per tot.minuti il server ha richieste syn udp continue e con picchi elevati, il servizio si arresta impedendo danni al nodo host_server. Risultato: il sito per ovvi motivi rimane comunque irrangiungibile (e no più per il ddos ma per quei giocattoli implementati). Dopo un ora circa l'antiddos si disabilita e i servizi http/web della piattaaforma riprendono a funzionare....ma...eh eh..peccato che l'attacco potrebbe essere ancora in corso, dopo 1 minuto di accessibilità ritorna inaccessibile per il ddos continuo, e cosi via ciclicamente. Questo dipende da quanto fanno durare l'attacco i maleintenzionati.
Invece un buon firewall hardware, configurato con le contropalle, è sempre il metodo più efficiente, e neppure definitivo.
Si ma nel caso di un firewall hardware non si dovrebbe fare i conti con la banda? Ed anche con i costi?
Se ti va possiamo parlarne in privato

potreste togliermi una curiosità che mi porto avanti da tanto tempo?....
in questi anni ho avuto sia cpu amd che intel, in particolar modo 8320e e i7 4770 e tra le due non ho trovato la benché minima differenza... (per questo motivo sia sui forum che altrove ho sempre consigliato amd per via della convenienza di prezzo...), infatti per i programmi standard non cambia nulla..., per i videogiochi conta praticamente la sola gpu... e quindi viene spontaneo chiedersi per quale motivo una persona dovrebbe spendere più di 100€ per una cpu quando un athlon o un pentium o un fx 6xxx svolgono egregiamente il loro lavoro. A che serve, in buona sostanza, una cpu zen da 8 core o i7 da 10 core?, quali sono i campi di applicazione nei quali è possibile riscontrare qualche differenza...? eccezion fatta per chi usa i programmi di grafica a livello professionale
Sarò il più sintetico possibile... se consideri software sostanzialmente single threaded tipo autocad vedi che anche un pentium g4500 va meglio di un fx8000; photoshop è in gran parte singlethreaded tranne per qualche effetto e vale la stessa regola; in ambito giochi la cosa si cerca di migliorare tramite dx12 o mantle/vulkan ma fino a quando si parla di dx11 gli intel vanno sempre meglio visto che non si sfruttano quasi mai più di due core (a parte negli ultimi giochi dove c'è questa propensione anche a bloccare chi possiede un pentium); lato multitasking un fx8000 è superiore ad un i5, poi bisogna vedere il tipo di applicazioni usate; lato multithreading ovviamente un fx8000 può tranquillamente paragonarsi ad un i7 3000/4000 soprattutto in quello che è la transcodifica. In linea generale per quanto si possa poi overclockare un fx8000 o un intel i7, a parità di clock un i7 andrà di più questo sempre grazie ad un ipc molto più alto (è chiaro che se vai oltre i 5.5GHz molto probabilmente hai prestazioni simili ad un i7 overclockato a 4.7GHz). Comunque bisogna vedere caso per caso per creare una configurazione ad hoc.

descartes2
11-11-2016, 11:08
Sarò il più sintetico possibile... se consideri software sostanzialmente single threaded tipo autocad vedi che anche un pentium g4500 va meglio di un fx8000; photoshop è in gran parte singlethreaded tranne per qualche effetto e vale la stessa regola; in ambito giochi la cosa si cerca di migliorare tramite dx12 o mantle/vulkan ma fino a quando si parla di dx11 gli intel vanno sempre meglio visto che non si sfruttano quasi mai più di due core (a parte negli ultimi giochi dove c'è questa propensione anche a bloccare chi possiede un pentium); lato multitasking un fx8000 è superiore ad un i5, poi bisogna vedere il tipo di applicazioni usate; lato multithreading ovviamente un fx8000 può tranquillamente paragonarsi ad un i7 3000/4000 soprattutto in quello che è la transcodifica. In linea generale per quanto si possa poi overclockare un fx8000 o un intel i7, a parità di clock un i7 andrà di più questo sempre grazie ad un ipc molto più alto (è chiaro che se vai oltre i 5.5GHz molto probabilmente hai prestazioni simili ad un i7 overclockato a 4.7GHz). Comunque bisogna vedere caso per caso per creare una configurazione ad hoc.

si, in questi anni ho assistito diverse volte a scontri tra intel e amd fan fondati su differenze prestazionali delle cpu che in se e per se riguardavano più che altro il modo mediante il quale alcuni programmi (quelli che ad esempio hai citato) vengono ottimizzati. Ma nella pratica, ovvero per un uso hobbistico, per quale motivo vai a comprare un i7 o un i5 se un pentium 4400 in autocad va ugualmente bene...? in questa pagina

http://www.bozzabench.com/Tests/TestView/tabid/95/id/1646/currentpage/1/Maticne-ploce-cipsetovi-procesori/AMD-Athlon-X4-845-.aspx

avevo visto le prestazioni dei pentium e degli athlon in diversi ambiti... ed entrambi (chi in un campo chi in un altro) vanno benissimo per la maggior parte di usi... cioè secondo me non ha senso spendere più di 150€ (anzi anche meno) per una cpu . E' vero che non ho mai fatto editing video ma spendere 300 o 250€ per farlo (a livello amatoriale) mi sembra un inutile spreco... e per questo che non riesco a spiegarmi il volume di vendita degli i7 ! ritornando al discorso di prima sembrano tutti ingegneri, registi, fotografi professionisti, cacciatori di fps... in una sola parola lo comprano per una questione di moda, per avere l'ultimo modello...

paolo.oliva2
11-11-2016, 11:09
Ma già parli di signore mobo, se abbassi le pretese prendendo pur sempre anche una con l'890 alcune non sono state nemmeno aggiornate dalle case produttrici.

La mobo è il cuore del sistema, e più è top e più la parte alimentazione è curata (mi piace occare), più il bios è ben fatto (vitale per occare) e più sarà corposa la dotazione di porte SATA e/o l'opzione di inserire HD a caldo (ho 20TB di video (anni e anni di duro lavoro torrent :)).

Il mio progetto (stroncato alla radice dalle temp africane), era quello di avere un sistema top per divertimento (OC e svago), e 2 muletti a lato che mi fanno da magazzino dati (ed utilizzabile per conversioni, visto che ho un 8350 e 8370, sarebbe come avere un 5960X come muletto). Ho un frutta mista di HD, gli ultimi sono da 4TB per un totale di 5-6 unità, ed il rimanente tagli da 2-4TB.
I 50€ spesi in più a mobo, già sfruttati in OC, li posso ancora utilizzare come NAS per creare 2 sistemi (uno la copia dell'altro) per la videoteca. Non prevedo RAID perchè ho la grandissima paura che se si rompesse la scheda, l'impronta lasciata dal raid non sia compatibile con altri sistemi.

Il passaggio da un 8370 ad un X8+8 (a me sarebbe andato benissimo un XV X16) è per aumentare le prestazioni di carico e di elaborazione MT, oltre al fatto di avere un procio diverso su cui fare OC. In questo senso AMD o Intel sarebbero equivalenti, rimarrebbe la comparazione del costo/prestazioni/OC.
Rimarrebbe l'opinione personale che preferirei occare un AMD che un Intel, sia perchè AMD la conosco meglio, sia perchè l'ambiente OC AMD è più umano sia per costo d'acquisto che per n° antagonisti :). Con AMD, CF V + 1090T spesa contenutissima, idem CF V-z + 8350 ed ancor più Sabertooth + 8370. Con Zen le mobo AM4 dovrebbero costare meno delle precedenti AM3+, Zen male che costerà quanto un Intel ma solamente se più performante, quindi comunque un prezzo/prestazioni migliore e con la previsione che non venga cambiato per 2-3 anni. Intel cambia il socket già nel Q2/Q3 prox anno.

paolo.oliva2
11-11-2016, 11:22
si, in questi anni ho assistito diverse volte a scontri tra intel e amd fan fondati su differenze prestazionali delle cpu che in se e per se riguardavano più che altro il modo mediante il quale alcuni programmi (quelli che ad esempio hai citato) vengono ottimizzati. Ma nella pratica, ovvero per un uso hobbistico, per quale motivo vai a comprare un i7 o un i5 se un pentium 4400 in autocad va ugualmente bene...? in questa pagina

http://www.bozzabench.com/Tests/TestView/tabid/95/id/1646/currentpage/1/Maticne-ploce-cipsetovi-procesori/AMD-Athlon-X4-845-.aspx

avevo visto le prestazioni dei pentium e degli athlon in diversi ambiti... ed entrambi (chi in un campo chi in un altro) vanno benissimo per la maggior parte di usi... cioè secondo me non ha senso spendere più di 150€ (anzi anche meno) per una cpu . E' vero che non ho mai fatto editing video ma spendere 300 o 250€ per farlo (a livello amatoriale) mi sembra un inutile spreco... e per questo che non riesco a spiegarmi il volume di vendita degli i7 ! ritornando al discorso di prima sembrano tutti ingegneri, registi, fotografi professionisti, cacciatori di fps... in una sola parola lo comprano per una questione di moda, per avere l'ultimo modello...

Io sinceramente la comprendo la fobia del computer più potente :sofico:, ma non comprendo il perchè della motivazione. Cioè, io vorrei ad esempio un 6950X, ma non lo acquisto perchè ha un prezzo/prestazioni troppo alto.
Cioè, se già un 6900K costa quanto 3 i7 X4 ma una potenza inferiore a 2X, un 6950X sfora i 6 i7 X4 per manco arrivare a 3X.
Tra i5 e i7 il prezzo-prestazioni è sulla linea di un 6900K, cioè un costo +50% a fronte di un 20/30% sulla carta, ma ipotizzo inferiore considerando TDP/OC di un i5 inferiore e quindi occabile a frequenze superiori.

descartes2
11-11-2016, 11:33
Io sinceramente la comprendo la fobia del computer più potente :sofico:, ma non comprendo il perchè della motivazione. Cioè, io vorrei ad esempio un 6950X, ma non lo acquisto perchè ha un prezzo/prestazioni troppo alto.
Cioè, se già un 6900K costa quanto 3 i7 X4 ma una potenza inferiore a 2X, un 6950X sfora i 6 i7 X4 per manco arrivare a 3X.
Tra i5 e i7 il prezzo-prestazioni è sulla linea di un 6900K, cioè un costo +50% a fronte di un 20/30% sulla carta, ma ipotizzo inferiore considerando TDP/OC di un i5 inferiore e quindi occabile a frequenze superiori.

quindi per molti, in linea di massima si risolve in questo... ovvero avere un pc potente... anche se nella pratica avere una cpu da 10 core per il nostro utilizzo non serve ad una mazza... anzi, magari le cpu che abbiamo sono già buone di per conto loro ma non ci sono programmi utilizzati per sfruttarle a pieno.

Gioz
11-11-2016, 11:34
avevo visto le prestazioni dei pentium e degli athlon in diversi ambiti... ed entrambi (chi in un campo chi in un altro) vanno benissimo per la maggior parte di usi... cioè secondo me non ha senso spendere più di 150€ (anzi anche meno) per una cpu . E' vero che non ho mai fatto editing video ma spendere 300 o 250€ per farlo (a livello amatoriale) mi sembra un inutile spreco... e per questo che non riesco a spiegarmi il volume di vendita degli i7 ! ritornando al discorso di prima sembrano tutti ingegneri, registi, fotografi professionisti, cacciatori di fps... in una sola parola lo comprano per una questione di moda, per avere l'ultimo modello...
alla fine è così. per fare un altro esempio basta vedere quanti hanno un suv o un crossover senza reali necessità di carico: vengono prodotte auto pensate per chi necessita di capacità di carico pari a furgoncini e magari non può/vuole mantenere sia l'auto di famiglia/personale che un mezzo dedicato al trasporto di medi o grossi volumi, ma spesso le compra "la tizia che porta il bimbo a scuola";
sicuramente se hai esigenze computazionali di un certo tipo anche prestazioni poco superiori in quello specifico ambito ti fanno la differenza(e può essere così pure a livello amatoriale, dato che non significa far quel tipo di uso solo 1 volta ogni tanto) ma la tendenza è quella di ricercare il massimo(o almeno il massimo entro una certa spesa) a prescindere dal bisogno reale.
quanto al multicore e al multi thread c'è anche da dire che il passaggio single->dual->quad->"di più" è sensibile specialmente nel fatto che se un processo va in priorità con una macchina a singolo processore/singolo core/singolo thread non puoi fare niente altro, in passato bastava un software ottimizzato male(o che andava fisso al 100%) che non muovevi più nemmeno il mouse...poi chiaro che se leggo le mail e chatto con gli amici un processore da 400€ è a dir poco ridicolo per la mia esigenza.

Ryddyck
11-11-2016, 11:50
Ma il discorso è abbastanza relativo, la convenienza economica c'è solamente adesso che i prezzi sono bassi e vogliono eliminare le rimanenze in magazzino... un anno fa tra un i7 ed un fx8350/8370 in una configurazione da overclock la differenza era di circa 100€.
Per il discorso esigenze bisogna vedere se poi l'esigenza è reale o meno.

the_joe
11-11-2016, 12:04
capisci quello che intendo dire.... ogni volta che uno gira su qualche forum in base alle specifiche che vengono richieste sembra che siano tutti Steven Spielberg.... sembra che tutti siano esperti di software per modellazione o roba simile, quindi l'unica spiegazione che posso darmi è che sia tutto frutto di una moda.. cioè che differenze ci sono tra un i5 2500k e uno odierno? ... tanto di cappello per amd se riuscirà a portare un optacore in una fascia di prezzo "umana" ma in fin dei conti a chi servirà? sempre a chi deve fare editing rendering a livello professionale immagino...

Infatti non credo siano in molti a sostituire un i5 2500K con un i5 di oggi, piuttosto andrà su in i7 per avere un salto di qualità notevole.

anzi, magari le cpu che abbiamo sono già buone di per conto loro ma non ci sono programmi utilizzati per sfruttarle a pieno.

Non tutti i programmi sono parallelizzabili, specie quelli come i giochi che devono attendere input dal giocatore, viceversa proprio le conversioni e la modellazione sono i programmi più facilmente parallelizzabili, basta dare in pasto alla cpu una porzione di file da convertire/renderizzare ed ecco fatta la parallelizzazione, ma se il programma deve attendere le mosse del giocatore, non è che può portarsi avanti col lavoro tirando ad indovinare ;)

davo30
11-11-2016, 13:15
quindi per molti, in linea di massima si risolve in questo... ovvero avere un pc potente... anche se nella pratica avere una cpu da 10 core per il nostro utilizzo non serve ad una mazza... anzi, magari le cpu che abbiamo sono già buone di per conto loro ma non ci sono programmi utilizzati per sfruttarle a pieno.

Vero, non hai idea di quante perosne si sparano degli i7 per giocare, e poi ci affiancano dedicate infime. I top configurazione che spesso vedo sono tipo i7+960/1060 o 370/380....
riguardo alla questione FX8000, derivando da un 6300, negli ultimi periodi li sconsigliavo per due questioni:
-mobo ormai vetuste per il 2015/2016
-differenze di costi irrisori rispetto a una configurazione gaming intel, con i5 e mobo di fascia media.

Poi, se devo essere sincero, a livello prestazionale, tra l'FX6300 e l'i5 6500, ti posso pure dire che preferivo paradossalmente il primo (al netto che giocando, col secondo la differenza un po si sente). Per il resto il primo tirato a 4.2 bastava e avanzava per quello che dovevo fare, anzi, addirittura mi sembrava tutto piu fluido e scattante.....

Nui_Mg
11-11-2016, 14:16
e tra le due non ho trovato la benché minima differenza... (per questo motivo sia sui forum che altrove ho sempre consigliato amd per via della convenienza di prezzo...), infatti per i programmi standard non cambia nulla...,
Dipende da cosa intendi per standard.
Per esempio io ho la stra-abitudine di comprimere tantissimi file e usarli/modificarli automaticamente nel loro archivio compresso (l'operazione di decompressione e ri-compressione la fa automaticamente, e ne ricorda lo stato, il filemanager che uso), quindi la potenza nel single core e poco più core è fondamentale. Per me è un modus operandi che incontro praticamente sempre anche nelle più banali/semplici necessità.

Roba meno standard: i miei dati importanti, ammontano a giga e ho la necessità di memorizzarli ben al sicuro senza essere costretto a farne troppe copie, ecco che allora utilizzo programmi che generano nel media finale (e inseriti nei punti in cui di solito il media ottico inizia la sua degradazione: anche se io uso roba di qualità e durevole come gli m-disc e dual/triple layer originali di panasonic) tutta una serie di codici correzione errore (da reed-solomon) e per far questo quando si tratta di giga di roba da archiviare il processo è piuttosto lungo perché richiede un bel po' di potenza computazionale, soprattutto in single core, così come anche quando si fanno tanti backup compressi.

Ecco, per quanto mi riguarda è questa la potenza che mi serve e che non è mai abbastanza, oltre magari a qualche aiutino per Blender e Processing (programmazione multimediale in ambiente simil-java).

A tal scopo, per ora vedo come possibile candidato un i5 kabylake (di cui mi interessa molto anche il suo reparto multimediale nella decodifica hw), ma ovviamente tengo un occhio pure su Zen, anche se non ci credo troppo :rolleyes: , sperem.

Grizlod®
11-11-2016, 14:33
Dipende da cosa intendi per standard.
Per esempio io ho la stra-abitudine di comprimere tantissimi file e usarli/modificarli automaticamente nel loro archivio compresso (l'operazione di decompressione e ri-compressione la fa automaticamente, e ne ricorda lo stato, il filemanager che uso), quindi la potenza nel single core e poco più core è fondamentale. Per me è un modus operandi che incontro praticamente sempre anche nelle più banali/semplici necessità.

Roba meno standard: i miei dati importanti, ammontano a giga e ho la necessità di memorizzarli ben al sicuro senza essere costretto a farne troppe copie, ecco che allora utilizzo programmi che generano nel media finale (e inseriti nei punti in cui di solito il media ottico inizia la sua degradazione: anche se io uso roba di qualità e durevole come gli m-disc e dual/triple layer originali di panasonic) tutta una serie di codici correzione errore (da reed-solomon) e per far questo quando si tratta di giga di roba da archiviare il processo è piuttosto lungo perché richiede un bel po' di potenza computazionale, soprattutto in single core, così come anche quando si fanno tanti backup compressi.

Ecco, per quanto mi riguarda è questa la potenza che mi serve e che non è mai abbastanza, oltre magari a qualche aiutino per Blender e Processing (programmazione multimediale in ambiente simil-java).

A tal scopo, per ora vedo come possibile candidato un i5 kabylake (di cui mi interessa molto anche il suo reparto multimediale nella decodifica hw), ma ovviamente tengo un occhio pure su Zen, anche se non ci credo troppo :rolleyes: , sperem.Visto che ormai l'OT è quasi la regola su questo thread...hai provato ad usare Bandzip, è freeware e supporta il multithread.

Nui_Mg
11-11-2016, 14:44
Visto che ormai l'OT è quasi la regola su questo thread...hai provato ad usare Bandzip, è freeware e supporta il multithread.
Uso già da tempo 7z con multithread (ma a linea di comando, automatizzando il tutto tramite total commander), ma nonostante questo anche in tal frangente gli intel macinano di più.

descartes2
11-11-2016, 15:47
Ma il discorso è abbastanza relativo, la convenienza economica c'è solamente adesso che i prezzi sono bassi e vogliono eliminare le rimanenze in magazzino... un anno fa tra un i7 ed un fx8350/8370 in una configurazione da overclock la differenza era di circa 100€.
Per il discorso esigenze bisogna vedere se poi l'esigenza è reale o meno.

si è vero, dal grafico qui sotto si vede che il prezzo di lancio si aggirava sui 200€ (marzo 2013) quindi la differenza era di circa 100€

http://it.camelcamelcamel.com/AMD-FX-8350-Processore-Socket-cache/product/B009O7YUF6

inoltre il discorso del rapporto qualità prezzo, a mio parere sarà sempre a favore della fascia sotto i 150€... un i7 pur costando il doppio non ha (chiaramente) prestazioni che equivalgono al doppio di un i3,... quindi paradossalmente dovrebbero vendere più i3 che i7, invece avviane il contrario...

Ryddyck
11-11-2016, 15:55
Se pensi che raddoppiando il prezzo raddoppi le prestazioni non è che sia proprio corretto, in molti ambiti (tra cui quello informatico per limiti soprattutto software) non è così.

Per il resto, per chi volesse sapere come è andata a finire faccio parte ufficialmente della comunità della carbonella ma non c'è più l'ombra del thread e molto probabilmente è stato spostato/oscurato (si trova ancora su google comunque).

descartes2
11-11-2016, 16:09
Non tutti i programmi sono parallelizzabili, specie quelli come i giochi che devono attendere input dal giocatore, viceversa proprio le conversioni e la modellazione sono i programmi più facilmente parallelizzabili, basta dare in pasto alla cpu una porzione di file da convertire/renderizzare ed ecco fatta la parallelizzazione, ma se il programma deve attendere le mosse del giocatore, non è che può portarsi avanti col lavoro tirando ad indovinare ;)

però i giochi pesano più sulla gpu che sulla cpu, ho visto alcuni benchmark di titanfall2 che sembravano una barzelletta... un i7 6700k stava allo stesso livello di un i5, di un i3 e di un 8320e a frequenza base... per i giochi CPU-bound ho visto pentium stare alla pari degli i7 pentium G4400



Vero, non hai idea di quante perosne si sparano degli i7 per giocare, e poi ci affiancano dedicate infime. I top configurazione


si, si.... ma anzi questo è meno grave rispetto a quei casi che per configurazioni di pc da ufficio hanno gli i7, secondo quelli del forum di tom's se non prendi un i5 non ti si apre Word



A tal scopo, per ora vedo come possibile candidato un i5 kabylake (di cui mi interessa molto anche il suo reparto multimediale nella decodifica hw), ma ovviamente tengo un occhio pure su Zen, anche se non ci credo troppo :rolleyes: , sperem.

io con la compressione mi trovavo bene con l'8320e, però da quanto ho capito tu la utilizzi in modo massiccio, comunque per quanto la si possa utilizzare un i5 secondo me è eccessivo, se ti può essere utile puoi dare un'occhiata a questo:

http://www.techspot.com/review/1087-best-value-desktop-cpu/page2.html

ma anche qui come dicevo prima un i3 (quindi una cpu sotto i 150€) non si discosta di molto da un i5

descartes2
11-11-2016, 16:15
Se pensi che raddoppiando il prezzo raddoppi le prestazioni non è che sia proprio corretto, in molti ambiti (tra cui quello informatico per limiti soprattutto software) non è così.

Per il resto, per chi volesse sapere come è andata a finire faccio parte ufficialmente della comunità della carbonella ma non c'è più l'ombra del thread e molto probabilmente è stato spostato/oscurato (si trova ancora su google comunque).

si infatti... è per questo che il rapporto qualità/prezzo sarà sempre a favore di quella fascia di prezzo (sotto i 150), proprio perché a prezzi doppi non equivalgono prestazioni pari al doppio ma di percentuali che analizzate caso per caso forse non raggiungono neanche il 50% ecco perchè non riesco a spiegarmi le vendite degli i7, passi per un i5 da 180€ ma un i7 da 350€.... bhooo!!

Ryddyck
11-11-2016, 16:16
Nessuno si sognerebbe di stare con un i3 a fare rendering per ore e ore quando con un i7 si fa molto prima... uno dei tanti casi ecco

PS: in merito al rumor di amd zen che si overclocka alle stelle, mi ricordavo che quel nick non fosse poi così sconosciuto (potrebbe pure essere un altro eh)... ed infatti http://egmr.net/2015/10/rage-2015-nag-oc-workshop-winning-at-overclocking/
Tornate a bordo
https://az616578.vo.msecnd.net/files/responsive/embedded/any/desktop/2015/09/25/635787550977653630273730233_1d3.png

descartes2
11-11-2016, 16:31
Nessuno si sognerebbe di stare con un i3 a fare rendering per ore e ore quando con un i7 si fa molto prima... uno dei tanti casi ecco
[/url]

quindi si ritorna sempre al punto di partenza... i7 zenx8 e altre cpu di (presumibilmente) quella fascia di prezzo hanno un senso solo per il rendering e video editing... cioè non ha quindi senso aspettare uno zenx8 se non si fa almeno una di queste cose...

Ryddyck
11-11-2016, 16:33
Beh che compri a fare un'auto da 750cv se poi cammini a 50Km/h e la usi per fare la spesa...? Dipende dalle esigenze, dal portafogli, dalla propia capacità ad ostentare qualcosa, etc... Non posso psicanalizzare una persona
Ma comunque ci sono sempre altri ambiti sfruttabili, tipo macchine virtuali o multitasking sfrenato ad esempio...

descartes2
11-11-2016, 16:55
Beh che compri a fare un'auto da 750cv se poi cammini a 50Km/h e la usi per fare la spesa...? Dipende dalle esigenze, dal portafogli, dalla propia capacità ad ostentare qualcosa, etc... Non posso psicanalizzare una persona
Ma comunque ci sono sempre altri ambiti sfruttabili, tipo macchine virtuali o multitasking sfrenato ad esempio...

scriviamolo bello grande..... tranne che magari uno che si compra una bella macchina lo può fare anche per attirare l'attenzione altrui (o per fare bella figura con una ragazza, come diceva paolo prima) ma avere una cpu da 350€ in un case per farci del multitasking sfrenato e postare il video su youtube per dire "guardate cosa è capace di fare la mia cpu" è una cosa priva di senso..... allora è molto più semplice dire la compro perchè mi piace "l'oggetto" ma non perchè ci sia dietro una reale utilità.

paolo.oliva2
11-11-2016, 17:33
Ma il discorso è abbastanza relativo, la convenienza economica c'è solamente adesso che i prezzi sono bassi e vogliono eliminare le rimanenze in magazzino... un anno fa tra un i7 ed un fx8350/8370 in una configurazione da overclock la differenza era di circa 100€.
Per il discorso esigenze bisogna vedere se poi l'esigenza è reale o meno.

Dici?, Io 1 anno fa ho pagato l'8370 190€ a fronte di un 6700€ che allora veniva 400€. più di -200€, altro che 100€. La differenza era più notevole 1 anno fa rispetto a oggi, perchè il 6700K è calato di 70€ e non penso che l'8350 sia calato in equal misura... viene 120€?

Ryddyck
11-11-2016, 17:41
Ma dipende anche dove acquisti, l'i7 6700k è da tipo novembre dall'anno scorso che è sotto i 360€ (periodo natalizio a parte) e parliamo sempre di un prodotto uscito nell'estate 2015.
E poi devi comunque metterci scheda madre (dove si può anche lesinare parecchio rispetto ad amd), dissipatore e ram (le ddr3 che praticamente costano ormai di più delle ddr4).

paolo.oliva2
11-11-2016, 17:53
scriviamolo bello grande..... tranne che magari uno che si compra una bella macchina lo può fare anche per attirare l'attenzione altrui (o per fare bella figura con una ragazza, come diceva paolo prima) ma avere una cpu da 350€ in un case per farci del multitasking sfrenato e postare il video su youtube per dire "guardate cosa è capace di fare la mia cpu" è una cosa priva di senso..... allora è molto più semplice dire la compro perchè mi piace "l'oggetto" ma non perchè ci sia dietro una reale utilità.

Beh... se vuoi la mia opinione, il punto del calo vendite dei PC starebbe tutto qui.

La gente spende ma i soldi di una volta non ci sono, quindi nella fascia tipo di acquisto, sono utenti che al primo posto hanno telefono e PC.
Fino a qualche anno fa, un telefono alla moda costava quanto una mobo/procio/DDR e magari pure VGA accettabile. Oggi spendi di più nel solo procio e complessivamente più del doppio rispetto ad un telefonino X8 che ti parte da sotto i 300€.

Io sono stra-convinto che se un PC tornasse a costare come un telefonino, vedrai che le vendite di PC ritornerebbero a salire.

paolo.oliva2
11-11-2016, 17:56
Ma dipende anche dove acquisti, l'i7 6700k è da tipo novembre dall'anno scorso che è sotto i 360€ (periodo natalizio a parte) e parliamo sempre di un prodotto uscito nell'estate 2015.
E poi devi comunque metterci scheda madre (dove si può anche lesinare parecchio rispetto ad amd), dissipatore e ram (le ddr3 che praticamente costano ormai di più delle ddr4).

Dici? Asrock AM3+ pagata 35€ e l'ho fatta andare con un 8350 125W downcloccato (in quanto supporto sino a 95W). Cè una mobo da 35€ per il 6700K?
Poi penso che praticamente nessuno acquisti un PC ex-novo senza averne un altro (vecchio) in casa... quindi le DDR3 le dovrebbe racimolare dal vecchio, diverso invece quando per un 6700K difficilmente avrà DDR4 in casa, perchè vorrebbe dire che avrebbe un PC da meno di 1 anno, quindi comunque le dovrebbe comprare.
Poi... scusami, ma se uno spende 100€ in più in un i7 al posto di un i5 per avere performances, e poi andrebbe a lesinare 30€ nella mobo? Da qualche parte avevo letto che per fare OC decenti con un 6700K devi andare su una fascia di prezzo sui 200€. In AM3+ c'è la Sabertooth che ha la stessa parte alimentazione della CF V-z, soltando che la CF V-z costa sopra i 200€ e la Sabertooth 140€.

Ryddyck
11-11-2016, 17:59
Le vendite non salirebbero a mio avviso, ormai c'è stato uno spostamento nelle esigenze del consumatore... Chi una volta acquistava un pc lo faceva anche per lavorare (e per lavorare intendo anche chi svolgeva le classiche operazioni da ufficio) e svago (multimedia in genere), poi hanno capito che avere un cassone in casa non se ne facevano nulla e sono passati al portatile, ora manco più i portatili interessano visto che ci sono i tablet.
Chi ha uno smartphone ormai lo cambia per moda, vedi cosa ormai è successo con apple o samsung

Dici? Asrock AM3+ pagata 35€ e l'ho fatta andare con un 8350 125 downcloccato. Cè una mobo da 35€ per il 6700K?
Poi penso che praticamente nessuno acquisti un PC ex-novo senza averne un altro in casa... quindi le DDR3 le dovrebbe racimolare dal vecchio, diverso invece quando per un 6700K difficilmente avrà DDR4 in casa, perchè vorrebbe dire che avrebbe un PC da meno di 1 anno.
Poi... scusami, ma se uno spende 100€ in più in un i7 al posto di un i5 per avere performances, e poi va andrebbe a lesinare 30€ nella mobo? Da qualche parte avevo letto che per fare OC decenti con un 6700K devi andare su una fascia di prezzo sui 200€...
Si ma qua te inizi a mettere roba usata e che si ha in casa con roba nuova -.-' Poi 35€ di mobo cosa? Io ho parlato di configurazione da overclock e non "downvoltiamo a piacere perché la mobo è scrausa".
Poi non so chi scriva queste cose di avere mobo da 200€, sarebbe da prendere a bastonate. Con una asrock fatal1ty z170 gaming k4 si possono fare pure numeri :/

shellx
11-11-2016, 19:05
Si ma nel caso di un firewall hardware non si dovrebbe fare i conti con la banda? Ed anche con i costi?
Se ti va possiamo parlarne in privato
.

I costi ? Un azienda o privato importante (commercialisti, avvocati), non badano a spese pur di sapere che la loro rete è sicura.
Considera che il trucco per evitare ddos sta nell'honeypot. Quest'ultimo si maschera come se fosse il server principale reale, il firewall viene configurato in modo tale che in caso vede richieste syn tcp/udp alte e continue, devia tutto all'honeypot, ergo l'attaccante crede che sta dossando il server invece dossa l'honeypot (che condivide l'analogo indirizzo ip del vero server), e i servizi non subiscono alcuna interruzione. L'honeypot è una vera e propria macchina server che fa da bersaglio per salvare il resto, affiancando firewall, server principale, nas, client's, stampanti, e affini. Una infrastruttura di rete seria parte da 6000 euro per i piccoli privati (avvocati ecc ecc) ad arrivare a 20.000 euro per aziende più grosse. Sono tutti clienti che hanno dati di milioni di euro, figurati che gli sbatte di 5 o 10 mila euro, pur di sapere di essere dentro una botte di ferro.

Per quanto riguarda la banda centra poco, come spiegato prima, se ricevi un ddos, un firewall bene configurato cambia il binario di instradamento dell'ascolto dei pacchetti tcp/udp verso l'altra macchina server fake (honeypot), e salva tutto il resto. Finito l'attacco, l'honeypot si riavvia e torna operativo per fare da cavia. La banda nativa di una infrastruttura di rete ha poco senso a riguardo, puoi avere anche una 7 megabit, se ricevi un ddos e non sei preparato ti collassano pure la lavastoviglie (se è condivisa in rete) :D

Adesso però chiudiamola seriamente qui con questi discorsi, perchè v a finire che qualcuno ci lincia. Se vuoi continuiamo seriamente in privato.

;)

Piedone1113
11-11-2016, 20:30
I costi ? Un azienda o privato importante (commercialisti, avvocati), non badano a spese pur di sapere che la loro rete è sicura.
Considera che il trucco per evitare ddos sta nell'honeypot. Quest'ultimo si maschera come se fosse il server principale reale, il firewall viene configurato in modo tale che in caso vede richieste syn tcp/udp alte e continue, devia tutto all'honeypot, ergo l'attaccante crede che sta dossando il server invece dossa l'honeypot (che condivide l'analogo indirizzo ip del vero server), e i servizi non subiscono alcuna interruzione. L'honeypot è una vera e propria macchina server che fa da bersaglio per salvare il resto, affiancando firewall, server principale, nas, client's, stampanti, e affini. Una infrastruttura di rete seria parte da 6000 euro per i piccoli privati (avvocati ecc ecc) ad arrivare a 20.000 euro per aziende più grosse. Sono tutti clienti che hanno dati di milioni di euro, figurati che gli sbatte di 5 o 10 mila euro, pur di sapere di essere dentro una botte di ferro.

Per quanto riguarda la banda centra poco, come spiegato prima, se ricevi un ddos, un firewall bene configurato cambia il binario di instradamento dell'ascolto dei pacchetti tcp/udp verso l'altra macchina server fake (honeypot), e salva tutto il resto. Finito l'attacco, l'honeypot si riavvia e torna operativo per fare da cavia. La banda nativa di una infrastruttura di rete ha poco senso a riguardo, puoi avere anche una 7 megabit, se ricevi un ddos e non sei preparato ti collassano pure la lavastoviglie (se è condivisa in rete) :D

Adesso però chiudiamola seriamente qui con questi discorsi, perchè v a finire che qualcuno ci lincia. Se vuoi continuiamo seriamente in privato.

;)

Lo so che è ot, ma il fake server (che presumo possa avere lo stesso ip del vero server) è sotto un ramo separato della lan?
Come fai a simulare gli altri client ? (sistema ottimo per un ddos, ma se cercano di prendere il controllo del server non si accorgono dell'inganno? )

Ryddyck
11-11-2016, 21:09
Dalla mia nubbiaggine in merito:
Dipende dal tipo di honeypot utilizzato, ci sono quelli puri (non virtualizzati) e quelli a bassa/alta interazione (virtualizzati). Quelli a bassa interazione emulano servizi (vedi honeyd) mentre quelli ad alta interazione interi sistemi (vedi honeynet) virtualmente così da far credere all'attaccante di attaccare il server ma invece sta peredendo tempo nel nulla. Si utilizzano comunque ip non usati...
Esistono poi anche le farm dove deviare tutto l'attacco, comunque credo che poi bisogna vedere se l'attacco proviene dall'esterno (il firewall dmz dovrebbe deviare tutto) o dall'interno (credo si utilizzino una sorta di honeypot redirector).

Gioz
11-11-2016, 21:10
Le vendite non salirebbero a mio avviso, ormai c'è stato uno spostamento nelle esigenze del consumatore... Chi una volta acquistava un pc lo faceva anche per lavorare (e per lavorare intendo anche chi svolgeva le classiche operazioni da ufficio) e svago (multimedia in genere), poi hanno capito che avere un cassone in casa non se ne facevano nulla e sono passati al portatile, ora manco più i portatili interessano visto che ci sono i tablet.
Chi ha uno smartphone ormai lo cambia per moda, vedi cosa ormai è successo con apple o samsung


Si ma qua te inizi a mettere roba usata e che si ha in casa con roba nuova -.-' Poi 35€ di mobo cosa? Io ho parlato di configurazione da overclock e non "downvoltiamo a piacere perché la mobo è scrausa".
Poi non so chi scriva queste cose di avere mobo da 200€, sarebbe da prendere a bastonate. Con una asrock fatal1ty z170 gaming k4 si possono fare pure numeri :/
concordo.
per altro spesso chi spara il suggerimento di i7 con mobo da 200-250€ lo fa dopo aver visto i vari video di gigi 2 centesimi, i componenti di paolo, i suggerimenti tecnologici di lino...dove sentendo dire "x è più performante di y in questo specifico benchmark", assume la posizione che di conseguenza tutto il resto sia inutile, e poi la conseguenza è che si crea un'idea collettiva impropria e si va appunto verso quegli estremi in cui uno per giocare crede di aver bisogno di un i7 o 64 gb di ram(e non scherzo, ho visto un video di un gruppo di ragazzi intenti a montare 64 Gb per potenziare il computer...spero debbano farci 4-5 macchine virtuali).

Ryddyck
11-11-2016, 21:12
A volte mostrano cose sensate e comunque configurazioni in generale (gli youtuber esteri almeno) a volte le fanno con un po' di criterio (altri recensiscono random).
Per quello che riguarda quelli italiani... stendiamo in velo pietoso tra referral di amazon e le continue partnership verso i soliti noti cooler master ed msi (ed ho pure capito perfettamente di chi stai parlando, ma sai com'è... giocano a minecraft o quei giochini dementi di cui non ho mai capito il senso e fanno un video al giorno ma guadagnano fin troppo per i miei gusti... ah si poi le top configurazioni mettendo radiatori lontani dalle ventole, doppia pompa e doppio circuito - il tutto senza rubinetto per drenare - forse è meglio se la finisco qui per evitare danni)

tmx
11-11-2016, 21:22
postato da poco su reddit, in /amd
[rumor]


From [1] [2]

Apologies if there's another thread about AMD's upcoming CPU architecture and of course desktop CPUs, if there is, delete or perhaps merge this info. This is the current state of the retail CPUs, which have been improving by the month.

There are some errata issues present in the current testing samples, similar in a way to the TLB bug of the Phenom. The workaround right now is done via the BIOS. The workaround however, strips around 30 ~ 40% of the CPU performance.

The CPUs are well behind schedule and every day there's real progress and bug fixing being done. Unlike with INTEL's E0 CPUs which make it to the wild that are almost completely final silicon. AMD's samples will continue to get bug fixes right up until retail spec sampling to partners.

In August Clock speeds were 3.8GHz, right now 4.2GHz overclocking is possible, with LN2 5GHz is doable. Again this will change of course, but it is just the current silicon that is behaving like this.

AM4/ZEN uses an SOC design, that means even CMOS/BIOS configuration is on package (not necessarily on silicon, I can't confirm this) so it is possible to clear the "BIOS" and still have old value applied 30 minutes later. How this will be addressed remains to be seen. Perhaps it won't be the same scenario for final silicon

Operating voltages (nominal) are 1.3v and all the way up to 1.5v should be fine it seems for AIO cooling. Frequency scaling isn't a strong point but again that may have everything to do with the process at this point rather than an inherent design limitation.

Performance is particularly strong at this point vs. INTEL's latest offerings. Single thread performance is matching Haswell-E and of course multi-threading performance as well. Tests that are memory bandwidth dependent may go to the INTEL platform simply as a result of having more memory channels, but I can't confirm that right now and have no info on that. The important thing here is that the 16Thread/8-Core CPU is minimum 5960X performance if not better actually. (Based on Cinebench R15) with the error fix disabled.

Can't speak to how well the IMC is working as current samples are locked to low DRAM frequencies (2133MHz and lower) and of course this has an impact on performance.

As stated in the beginning, every week is progress and AMD is working at an unprecedented rate to get these ready by March.

You're unlikely to see any high end boards for the CPUs prior to launch or at launch, simply because no vendors can commit to too much right now as plenty is changing at a rapid rate.

All overclocking is done via Overdrive, you can't change any performance features at all in the BIOS (on to that next) at all.

BIOS or UEFI is actually built into the CPU, so only AMD can update the "BIOS" or microcode. All overclocking must take place within the Operating system

Right now it takes up to 30 minutes to clear the BIOS. If you remove the CPU and place it on another motherboard, it'll have the same settings applied as on the previous board. So debugging is a nightmare

6850K SKU (May not be final designation) is wait for it.... $300 roughly. That's 8 Cores and 16 Threads

AMD's Hyper Threading is called SMU and it is ************ good. The same efficiency as Intel's HT.

Performance is really good, be it SuperPi, Cinebench, 3DMark etc, it's FPU performance is incredibly good and easily matching that of what Intel offers.

Current performance is staggering even though it is limited to 2133MHz (as mentioned before) and NorthBridge Frequency is limited to 2400MHz

There will be a nigher SKU than the 6850K, but it is a higher bin so it will certainly overclock better than 6850K and that may carry a premium price, but unlikely to be double.

There's plenty of excitement from all board vendors about the platform, so we will see how it all pans out. (Especially with the hot mess that INTEL has in store for us H2 2017, that we can leave to another thread)

For Gaming, the CPU is neck and neck with INTEL, even at low res where CPU bound.

tmx
11-11-2016, 21:24
da qui: https://m.reddit.com/r/Amd/comments/5cffyt/newish_details_about_zen/?compact=true
scusate il link da mobile / se sono cose vecchie.
*può darsi che siano un mucchio di cavolate eh, per carità, ma nel dubbio riporto :p

Gioz
11-11-2016, 21:31
A volte mostrano cose sensate e comunque configurazioni in generale (gli youtuber esteri almeno) a volte le fanno con un po' di criterio (altri recensiscono random).
Per quello che riguarda quelli italiani... stendiamo in velo pietoso tra referral di amazon e le continue partnership verso i soliti noti cooler master ed msi (ed ho pure capito perfettamente di chi stai parlando, ma sai com'è... giocano a minecraft o quei giochini dementi di cui non ho mai capito il senso e fanno un video al giorno ma guadagnano fin troppo per i miei gusti... ah si poi le top configurazioni mettendo radiatori lontani dalle ventole, doppia pompa e doppio circuito - il tutto senza rubinetto per drenare - forse è meglio se la finisco qui per evitare danni)
no ma li seguo anche io(quelli usa), per carità, sono molto bravi alcuni in particolare.
però la gente tende a pescare un dettaglio per poi edificarci sopra un castello immenso, e poi fare le cose che descrivi.

Ryddyck
11-11-2016, 21:31
da qui: https://m.reddit.com/r/Amd/comments/5cffyt/newish_details_about_zen/?compact=true
scusate il link da mobile / se sono cose vecchie.
*può darsi che siano un mucchio di cavolate eh, per carità, ma nel dubbio riporto :p
Era stato già postato qualche giorno fa, poi il thread è stato spostato/oscurato e quindi non più visibile. Meglio comunque avere una "copia" del messaggio completa anche su reddit/semiaccurate.
Per il resto mi sono messo in contatto con il tizio oggi, vediamo se risponde.

tmx
11-11-2016, 22:00
Era stato già postato qualche giorno fa, poi il thread è stato spostato/oscurato e quindi non più visibile. Meglio comunque avere una "copia" del messaggio completa anche su reddit/semiaccurate.
Per il resto mi sono messo in contatto con il tizio oggi, vediamo se risponde.
ah ok.
da come si esprime, il tizio dell'elenco mi sembra cinese o giù di lì.
Così, a pelle... :D

Ryddyck
11-11-2016, 22:02
Abbastanza, comunque se è il tizio che penso io potrebbe essere molto affidabile (anche se molte cose non tornano)...

Mister D
11-11-2016, 22:11
Abbastanza, comunque se è il tizio che penso io potrebbe essere molto affidabile (anche se molte cose non tornano)...

Vero ma magari per es la storia del bios così è solo perché sono ES e amd non vuole che chi le riceva ci smanetti troppo. Questo potrebbe aver senso, poi invece nelle versione definitiva saranno come tutte le altre cpu, anche perché se fosse così sarebbe veramente una gran bella rottura per chi vuole fare oc e non avrebbe senso il rumors di un edizione speciale per l'oc. CHissà.

PS: è un piacere cmq vederti anche qui nella sezione processori;)

Ryddyck
11-11-2016, 22:14
Mi stavo annoiando, celsius100 non mi da tempo :sofico:

Mister D
11-11-2016, 22:49
Mi stavo annoiando, celsius100 non mi da tempo :sofico:

Ahahaha ogni tanto penso che Celsius100 in realtà sia un cyborg :sofico:

Crysis90
11-11-2016, 22:50
Il mio parere è che la TOTALE assenza di rumors e leak di benchmark ha letteralmente mandato tutti in paranoia totale. :stordita: :stordita: :stordita: :stordita: :fagiano:

Ma che ca**o aspettano a farci vedere 1 fottutissimo bench. serio!?!?!?! :muro: :muro: :mc: :mbe:

Capellone
11-11-2016, 22:51
Bisogna aspettare fino a marzo per gli Zen? io Non vedo l'ora....
devo sostituire il mio vecchio Thuban :old:

Roland74Fun
11-11-2016, 22:59
Ahahaha ogni tanto penso che Celsius100 in realtà sia un cyborg :sofico:
Colpa mia che sto sempre a trollare.

paolo.oliva2
11-11-2016, 23:15
Se è vero come sembra che AMD presenterà Zen il 5 gennaio, lo si saprà immediatamente da cosa e come lo presenteranno.
Se AMD tiporterà modelli e frequenze, allora a breve sarà disponibile commercialmente (perchè per sapere frequenze e modelli deve essere già in produzione volumi).
Onestamente, avrebbe poco senso una mini-presentazione... in fin dei conti cosa riporterebbero in più di ciò che hanno fatto finora? Puoi dire quanto vuoi dell'architettura, ma senza bench e senza frequenze, cosa sapresti di più di quello che si sa oggi?

Comunque, sempre se per il 5 gennaio AMD togliesse l'NDA a Zen, ci sta che a breve salti qualche bench, semplicemente perchè AMD dovrebbe creare delle aspettative, per far sì che qualcuno possa saltare gli acquisti natalizi ed aspettare la disponibilità di Zen.

Mister D
11-11-2016, 23:29
Bisogna aspettare fino a marzo per gli Zen? io Non vedo l'ora....
devo sostituire il mio vecchio Thuban :old:

Non dirlo a me che vorrei provare BR->SR-RR per scegliere quale tenere per sostituire il mio glorioso FX-60 (non pensate male, fu uno dei miei primi acquisti sulla baia per 300 dollari :cool: :ciapet: quando tutti andavano sui nuovi conroe ma io avevo un athlon64 4000+ da sostituire:D ) su DFI prima e su asrock dopo (che :oink: ).

shellx
11-11-2016, 23:43
Lo so che è ot, ma il fake server (che presumo possa avere lo stesso ip del vero server) è sotto un ramo separato della lan?
Come fai a simulare gli altri client ? (sistema ottimo per un ddos, ma se cercano di prendere il controllo del server non si accorgono dell'inganno? )

No. L'ip del honeypot è identico al server padre reale, e identico all'intera infrastuttura che compone l'intera rete lan/wan (se configurato da chi c'è la capisce).

Ma ripeto: perfavore se hai domande chiedimele in privato, ti rispondo, non ho problemi. Basta su questo thread, non ha senso. A partire da questo momento non rispondo più in pubblico su questo argomento. Non è per cattiveria, ma cerchiamo di rispettare il thread....

FINE OT DEFINITIVO ! !

Gioz
12-11-2016, 00:08
Se è vero come sembra che AMD presenterà Zen il 5 gennaio, lo si saprà immediatamente da cosa e come lo presenteranno.
Se AMD tiporterà modelli e frequenze, allora a breve sarà disponibile commercialmente (perchè per sapere frequenze e modelli deve essere già in produzione volumi).
Onestamente, avrebbe poco senso una mini-presentazione... in fin dei conti cosa riporterebbero in più di ciò che hanno fatto finora? Puoi dire quanto vuoi dell'architettura, ma senza bench e senza frequenze, cosa sapresti di più di quello che si sa oggi?

Comunque, sempre se per il 5 gennaio AMD togliesse l'NDA a Zen, ci sta che a breve salti qualche bench, semplicemente perchè AMD dovrebbe creare delle aspettative, per far sì che qualcuno possa saltare gli acquisti natalizi ed aspettare la disponibilità di Zen.
credo anche io, se fossero pronti al lancio commerciale vero e proprio con i primi volumi di produzione pronti per la distribuzione è facile che verrebbero presentati modelli/frequenze.

george_p
12-11-2016, 01:24
http://www.bitsandchips.it/9-hardware/7692-anche-la-apu-della-ps4-pro-e-prodotta-da-tsmc-sui-16nm-finfet

A questo punto potrebbe non essere impossibile un leggero posticipo di Zen nel mercato Retail (1Q16 inoltrato), che ricordiamo ha effettuato il tape out sia sui 14nm FF sia sui 16nm FF, al fine di far uscire una versione sotto steroidi prodotta da TSMC

paolo.oliva2
12-11-2016, 08:51
http://www.bitsandchips.it/9-hardware/7692-anche-la-apu-della-ps4-pro-e-prodotta-da-tsmc-sui-16nm-finfet

A prescindere dalla notizia, se la versione GF di Zen arriva a 3,2GHz e AMD passerebbe a TSMC (non si comprende se solamente per la versione Zen OC o per l'intera produzione), sarebbe come dire che i 3,150GHz ottenuti da Zen prodotto da GF sarebbero ben inferiori come clock rispetto a Zen prodotto da TSMC.
Non è che ci sia tanto da ricamare... TSMC è più cara, fare i tape-out in 2 distinte FAB è dispendioso monetariamente, dividere il volume prodotto sempre su 2 FAB diminuisce le probabilità di avere un prezzo produzione inferiore... fare tutto questo per cosa? Per 100/200MHz di frequenza in più?

Secondo me il fatto che Zen, un X8+8, arrivi già a 3,2GHz con 95W, è segno che l'FO4 di Zen è simile a quello di BD, e se AMD si rivolge a TSMC (o anche a TSMC), vuol dire che il PP di TSMC permette frequenze superiori rispetto al PP di GF.

Potrebbe anche essere che il 14nm GF vada meglio a frequenze inferiori come TDP, e quindi produzione stile Opteron, ma richieda più TDP al salire della frequenza, ovvero Zen Desktop.

A tutto ciò non riesco a collegare la notizia di Zen tassativamente a 95W. Se AMD volesse produrre Zen in forma "efficiente" a scapito di "potente", resterebbe in GF. Ma se vuole Zen potente, visto il passaggio a TSMC, non ha senso la ricerca di maggiore potenza se non aumentando la frequenza, e questo con il paletto 95W?

Altra cosa... io penso che la voce di un Zen nativo X4 sia dovuta al "parallelismo" dell'info di produzione Zen a TSMC. Se Zen GF arriva a 3,2GHz, possiamo considerare Zen TSMC a frequenze superiori. E' ovvio che per rendere allettabile Zen GF sui 3,2GHz, AMD può fare unicamente in 2 modi. O riducendone di molto il prezzo a paritò di core, o vendendo più core allo stesso prezzo.

Ovviamente il discorso va relegato alla forza bruta core. Un Zen a 3,2GHz perderebbe un 33% di potenza (3,2GHz vs 4,2GHz). A parità di IPC, quindi, AMD dovrebbe prezzare Zen con il +33% di core, = >5,2 core per pareggiare l'MT, ma dovrebbe comunque prezzarlo meno per via dell'inferiorità ST.
Non esistendo Zen nativo X6, ma solamente nativamente X4 e X8, la scelta della offerta Zen X4/X8 si traduce in frequenza = potenza a core = Zen nativo solo X8 e X8 + X4.

Formula semplice. Zen X8 200mmq, Zen X4 120mmq. Se devi prezzare Zen X4 a 150$, meglio vendere 200mmq (X8) a 350$ che meno della metà 120mmq ad un prezzo ancor più inferiore, perchè un X8 a 350$ lo venderesti benissimo, non altrettanto un Zen X4 a 150$. A seguito produrre o meno X4 nativo, cioè a condizione che i 120mmq di Zen X4 possano capitalizzare meglio di 200mmq X8, porterebbe Zen X4 sui 200$, e questa cifra è compatibile con frequenze prossime ai 4,2GHz di Intel.

Ovviamente la frequenza di Zen X4 sarebbe replicabilissima in un Zen X8. Una cosa sarebbe Zen 4GHz X4 vs 7700K, altro un Zen X8 3,8GHz vs Intel 3,2GHz X8 e 3GHz X10. Notare che Zen versione OC con gli steroidi è MOLTO compatibile con questo.

Piedone1113
12-11-2016, 09:17
No. L'ip del honeypot è identico al server padre reale, e identico all'intera infrastuttura che compone l'intera rete lan/wan (se configurato da chi c'è la capisce).

Ma ripeto: perfavore se hai edit avete domande chiedimele in privato, ti rispondo, non ho problemi. Basta su questo thread, non ha senso. A partire da questo momento non rispondo più in pubblico su questo argomento. Non è per cattiveria, ma cerchiamo di rispettare il thread....

FINE OT DEFINITIVO ! !

Capito, eravamo in due (io e Ryddyck) a chiedere, mi basta come risposta che è più che chiara.
La mia era più una curiosità da piccolo installatore.

Tornando al th:
Le ultime notizie vanno prese con le molle, e molto lunghe.
Il bios nella cpu potrebbe essere fattibile ed anzi sarebbe una soluzione elegante per aggiornare il microcode della cpu per eliminare bug sfuggiti ed aggiungere pat più performanti (non bisogna più scaricare il bios della mb ed installarlo, ma si userebbe un software di aggiornamento automatico).
In fondo l'infrastruttura è tutta made in amd ed avrebbe il totale controllo della stessa senza sottostare ai produttori che hanno effettivamente tralasciato amd negli ultimi tempi.
Le prestazioni e i bug paventati sono troppo strani e quindi da tralasciare per il momento.
La storia del 16+ FF di tsmc sembra ormai certa ( in parte giustificata dalla ricontrattazione degli accordi con gf) e mi fa credere che ci saranno due serie diverse di zen:
Zen (14 nm gf) dal basso tdp e relative basse frequenze (8 core da 3200 mhz)
Zen+ (lo so, il nome è riservato per la seconda revisione di zen) prodotto sui 16+ FF tsmc, con frequenze maggiori e molti sbloccato ( e limitato da bios, come pure i voltaggi) con clock più alto e cpu più costose.
Con queste premesse credo che la versione base degli 8 core possa avere un prezzo tra i 250 ed i 300$.
Probabilmente le apu ad alte prestazione saranno soltando made in tsmc.

paolo.oliva2
12-11-2016, 10:24
Capito, eravamo in due (io e Ryddyck) a chiedere, mi basta come risposta che è più che chiara.
La mia era più una curiosità da piccolo installatore.

Tornando al th:
Le ultime notizie vanno prese con le molle, e molto lunghe.
Il bios nella cpu potrebbe essere fattibile ed anzi sarebbe una soluzione elegante per aggiornare il microcode della cpu per eliminare bug sfuggiti ed aggiungere pat più performanti (non bisogna più scaricare il bios della mb ed installarlo, ma si userebbe un software di aggiornamento automatico).
In fondo l'infrastruttura è tutta made in amd ed avrebbe il totale controllo della stessa senza sottostare ai produttori che hanno effettivamente tralasciato amd negli ultimi tempi.
Le prestazioni e i bug paventati sono troppo strani e quindi da tralasciare per il momento.
La storia del 16+ FF di tsmc sembra ormai certa ( in parte giustificata dalla ricontrattazione degli accordi con gf) e mi fa credere che ci saranno due serie diverse di zen:
Zen (14 nm gf) dal basso tdp e relative basse frequenze (8 core da 3200 mhz)
Zen+ (lo so, il nome è riservato per la seconda revisione di zen) prodotto sui 16+ FF tsmc, con frequenze maggiori e molti sbloccato ( e limitato da bios, come pure i voltaggi) con clock più alto e cpu più costose.
Con queste premesse credo che la versione base degli 8 core possa avere un prezzo tra i 250 ed i 300$.
Probabilmente le apu ad alte prestazione saranno soltando made in tsmc.
E' l'ipotesi più razionale, che creerebbe che per la prima volta i proci AMD desktop non sarebbero lo scarto di selezione di quelli Opteron.

Esempio i 9590 che hanno un Vcore/frequenza molto migliore al range selezione 8350.

Per contro... so caxxi. Zen X8 OC costerà un botto di più... almeno 600/700€, se raggiungerà circa i 4GHz a def e 4,5GHz almeno in OC (aria/liquido).
Però... non penso che AMD/TSMC possono inglobare il tutto su 1 modello X8... supporrei 2 modelli almeno Zen OC X8 e forse anche 2 Zen X4 (tanto comunque i fallati X8 dove li metterebbero?).

bjt2
12-11-2016, 10:59
La storia del BIOS on chip potrebbe essere vera...
Ecco che ho scritto su anand (scusate, non ho tempo per tradurre):

I remember that the BIOSes are modular: a network controller with netboot, a SCSI controller has their own BIOSes, that is called after regular BIOS for their initialization... If a MB requires its own code for some custom additional chip (e.g. additiona SATA controller), this can be put on an external on board ROM, called by the master BIOS.
EDIT: and the AMD BIOS can manage also the optional AMD SB, as the 350... So an external BIOS will be needed only for additional SATA, SCSI controller... I don't see this as a big problem...

The advantage of this scheme is that the internal CPU devices, are managed by AMD itself: its code, its responsibility. BIOS and UEFI are standards. If both AMD and the MB manufacturer will comply to the rules, i don't see problems.
Another advantage is price: if a MB manufacturer wants, it can produce a board without additional controllers and even without BIOS chip and traces. I think that only the CMOS battery will be needed on board (we can even verify this if there is an AM4 pin assignment table and there is some Vcmos pin or similar). In this case all BIOS testing is on AMD shoulders and the MB manufacturer must take care only of electrical compliance. Such a board can cost lower than 40$...

Piedone1113
12-11-2016, 11:29
La storia del BIOS on chip potrebbe essere vera...
Ecco che ho scritto su anand (scusate, non ho tempo per tradurre):

I remember that the BIOSes are modular: a network controller with netboot, a SCSI controller has their own BIOSes, that is called after regular BIOS for their initialization... If a MB requires its own code for some custom additional chip (e.g. additiona SATA controller), this can be put on an external on board ROM, called by the master BIOS.
EDIT: and the AMD BIOS can manage also the optional AMD SB, as the 350... So an external BIOS will be needed only for additional SATA, SCSI controller... I don't see this as a big problem...

The advantage of this scheme is that the internal CPU devices, are managed by AMD itself: its code, its responsibility. BIOS and UEFI are standards. If both AMD and the MB manufacturer will comply to the rules, i don't see problems.
Another advantage is price: if a MB manufacturer wants, it can produce a board without additional controllers and even without BIOS chip and traces. I think that only the CMOS battery will be needed on board (we can even verify this if there is an AM4 pin assignment table and there is some Vcmos pin or similar). In this case all BIOS testing is on AMD shoulders and the MB manufacturer must take care only of electrical compliance. Such a board can cost lower than 40$...

Avevo i miei dubbi ed ero molto scettico, in fondo però pensandoci questo potrebbe portare molti benifici ad amd.
Una cosa che reputo possibile è l'aggiornamento delle cpu via software.
Immagina un software che ti permette di sbloccare e modificare i tag del microcode, cpu naples x24 che potrebbero essere aggiornate a x32 senza il fermo macchina (considerando che per riempire l'offerta si potrebbero usare cpu perfettamente funzionanti declassate in frequenza o numero core).
opteron x24 a 2000$, opteron x24+ a 2200$, opteron x32 a 3000$.
possibilità di upgradare le cpu x24+ a x32 tramite aggiornamento del microcode via software a 800$.
Stesso discorso per cpu x4 o x6 o x8 e relative apu.
Gia mi immagino preassemblati apu x4 con gpu da 128 cu a 500$ e poi aggiornamento a pagamento trasformate in apu x4ht con gpu da 256 o 512 cu

Ryddyck
12-11-2016, 11:42
A mio parere dovreste scordarvi gli aggiornamenti del microcode fatti in casa, non verrà mai attuata una cosa del genere visto che si aprirebbero moltissime porte per il reverse. Per il discorso sblocco dei core vi rimando a quello che successe anni fa per i phenom, erano i produttori di mobo e non Amd a dare la possibilità di sbloccare i core dormienti (se funzionanti) e tanto è vero che poco dopo Amd rilasciò il microcode per bloccare la possibilità di questa feature sulle mobo (un po' come ha fatto Intel con l'overclock di processori non k nell'ultimo anno o come successe anche in passato).

PS: There are still some leaked #AMDZen benchmarks, which haven't been noticed yet... (pagina twitter di dresdenboy)
Ah comunque sono spariti i bench di blender dalla pagina ufficiale...

fabius21
12-11-2016, 11:43
Se inseriranno il bios nella cpu , e come dite voi upgrade tramite sblocchi via software......, io tramite le efivar son riuscito ad abilitare amd-v sul kabini e cancellare la password del bios che non ricordavo :muro: (questo portatile non ha un reset bios)

Piedone1113
12-11-2016, 11:59
A mio parere dovreste scordarvi gli aggiornamenti del microcode fatti in casa, non verrà mai attuata una cosa del genere visto che si aprirebbero moltissime porte per il reverse. Per il discorso sblocco dei core vi rimando a quello che successe anni fa per i phenom, erano i produttori di mobo e non Amd a dare la possibilità di sbloccare i core dormienti (se funzionanti) e tanto è vero che poco dopo Amd rilasciò il microcode per bloccare la possibilità di questa feature sulle mobo (un po' come ha fatto Intel con l'overclock di processori non k nell'ultimo anno o come successe anche in passato).

veramente amd non ha mai bloccato il ripristino dei core dormienti.
Per la cronaca un algoritmo criptato per la firma del microcode non è che sia tanto facile da trovare, e quasi impossibile da farci reverse (con chiave di crittografia maggiore di 256bit.)
A prescindere da tutto, se la cpu deve scaricare il microcode da un server amd che controlla l'avvenuto pagamento per aggirare lo sblocco dovresti falsificare un server, le firme digitali del server e l'algoritmo di verifica, insomma non proprio semplice come attivare un flag nel bios (bios che produrrebbe amd e non i costruttori di motherboard).
Ma sto parlando solo di ipotesi tutt'altro che irrealizzabili.

Piedone1113
12-11-2016, 12:00
Se inseriranno il bios nella cpu , e come dite voi upgrade tramite sblocchi via software......, io tramite le efivar son riuscito ad abilitare amd-v sul kabini e cancellare la password del bios che non ricordavo :muro: (questo portatile non ha un reset bios)
Non parlo di sbloccare funzionalità del bios, ma di aggiornare il microcode della cpu, che è una cosa molto diversa.

Ryddyck
12-11-2016, 12:15
veramente amd non ha mai bloccato il ripristino dei core dormienti.
Per la cronaca un algoritmo criptato per la firma del microcode non è che sia tanto facile da trovare, e quasi impossibile da farci reverse (con chiave di crittografia maggiore di 256bit.)
A prescindere da tutto, se la cpu deve scaricare il microcode da un server amd che controlla l'avvenuto pagamento per aggirare lo sblocco dovresti falsificare un server, le firme digitali del server e l'algoritmo di verifica, insomma non proprio semplice come attivare un flag nel bios (bios che produrrebbe amd e non i costruttori di motherboard).
Ma sto parlando solo di ipotesi tutt'altro che irrealizzabili.
Ma non dissero ai tempi che volevano bloccare questa feature? http://www.tomshardware.com/news/gigabyte-motherboard-amd-phenom-cpu,8015.html

Piedone1113
12-11-2016, 12:32
Ma non dissero ai tempi che volevano bloccare questa feature? http://www.tomshardware.com/news/gigabyte-motherboard-amd-phenom-cpu,8015.html

Mai ufficialmente, e non lo fecero:
http://www.asrock.com/mb/AMD/890FX%20Deluxe3/index.it.asp
Scheda madre am3 (quindi niente fx) ancora in commercio e come puoi vedere è presente la funzionalità ucc (per lo sbloccaggio dei core).
Addirittura asrock ha implementato tale funzionalità anche su mb con chipset di derivazione NF4 di nvidia e dal costo inferiore alle 40€ (N68C-S UCC) che supporta sia ddr2 che ddr3 (l'ultima revisione anche fx da 95w vero paolo?) :oink:

Ryddyck
12-11-2016, 12:34
Troppo tempo è passato, non ricordo più nulla :mc:

Crysis90
12-11-2016, 12:50
http://www.bitsandchips.it/9-hardware/7692-anche-la-apu-della-ps4-pro-e-prodotta-da-tsmc-sui-16nm-finfet

Io spero che non ci siano rinvii.
E' anche vero però che se devono far uscire un chip di merda per colpa del nodo scarso di GF, meglio aspettare 2 mesi in più e far uscire un chip al TOP che buttarsi alla cieca e poi viene fuori che il chip non performa come dovrebbe, soprattutto in OC. :rolleyes:

paolo.oliva2
12-11-2016, 14:04
Mai ufficialmente, e non lo fecero:
http://www.asrock.com/mb/AMD/890FX%20Deluxe3/index.it.asp
Scheda madre am3 (quindi niente fx) ancora in commercio e come puoi vedere è presente la funzionalità ucc (per lo sbloccaggio dei core).
Addirittura asrock ha implementato tale funzionalità anche su mb con chipset di derivazione NF4 di nvidia e dal costo inferiore alle 40€ (N68C-S UCC) che supporta sia ddr2 che ddr3 (l'ultima revisione anche fx da 95w vero paolo?) :oink:

Verissimo. Ma ti dirò... inspiegabilmente mi vedeva 16GB di ram contro i massimi 8GB (non ricordo se perchè >2133 o altro), il Vcore ballava il tango, non c'era nessuna dissipazione nella parte alimentazione, eppure ho postato l'8350 come X2 con OCCT a 5,3GHz.
Tra l'altro mi faceva brodo la RS232C on-board. Per una mobo da 35€, cacchio potevo chiedere di più? Comunque l'acquisto l'aveva fatto mia moglie, e succome nella mia città tirano a vendere Intel, come specifica avevo detto che supporti un FX X8 a 125W, ma ovviamente le donne si sono ricordate X8.

paolo.oliva2
12-11-2016, 14:11
Io spero che non ci siano rinvii.
E' anche vero però che se devono far uscire un chip di merda per colpa del nodo scarso di GF, meglio aspettare 2 mesi in più e far uscire un chip al TOP che buttarsi alla cieca e poi viene fuori che il chip non performa come dovrebbe, soprattutto in OC. :rolleyes:

Però qualche cosa non mi torna.
SE fosse motivo di frequenze, l'affinamento di Zen sul 14nm FF dovrebbe essere senz'altro ben più avanti della sterzata di produzione a TSMC.

Potrebbero sempre uscire con modelli Zen X8 a basso clock (almeno 3,2GHz) e poi Zen-FX (ci sta, almeno per le frequenze) TSMC, successivamente.

In ogni caso un Zen X8+8 a 4GHz farebbe un botto immane. Praticamente potrebbe riuscire a portare la potenza ST degli i7 X4 nella classe di X8 ed un aumento dell'MT MOSTRUOSO. In ogni caso un Zen, con IPC simile ad Intel, su un silicio inferiore del 15% almeno che riesce a girare a +30% di frequenza al nassimo a parità di TDP, può essere possibile solamente grazie ad un FO4 come BD.

paolo.oliva2
12-11-2016, 14:36
@Piedone113

C'è una cosa che non riesco a capire.

Io non riesco a trovare il confine tra un processo LP e HP, nel senso che LP è per basso consumo e HP per alte performances, ma non è detto che un LP con un buon PP debba obbligatoriamente avere frequenze inferiori rispetto ad un processo HP, soprattutto considerando il legame tra frequenza e FO4.

Altro punto. Se il problema finale fosse il TDP massimo a die, cosa vieterebbe di ottenere il massimo TDP ma con più die (tipo somma) anzichè in un unico die? O magari sempre solamente 1 die ma con all'interno più "pessi" con alimentazioni divise.

Gioz
12-11-2016, 15:22
Altro punto. Se il problema finale fosse il TDP massimo a die, cosa vieterebbe di ottenere il massimo TDP ma con più die (tipo somma) anzichè in un unico die? O magari sempre solamente 1 die ma con all'interno più "pessi" con alimentazioni divise.
premesso che non me ne sia mai occupato personalmente...le metalizzazioni/interconnessioni potrebbero rendere più complesso/costoso ottenere lo stesso risultato rispetto ad integrare tutto direttamente in un unico die.

paolo.oliva2
12-11-2016, 16:07
premesso che non me ne sia mai occupato personalmente...le metalizzazioni/interconnessioni potrebbero rendere più complesso/costoso ottenere lo stesso risultato rispetto ad integrare tutto direttamente in un unico die.

Indubbiamente, però un processo HP non andrebbe come LP, un processo LP costa meno di un HP, e, teoricamente, un processo LP, ricercando il minimo TDP a parità di frequenza, otterrebbe comunque più efficienza quando comunque la frequenza non sarebbe alta, quindi un procio server con molti core, ma frequenze <3GHz, teoricamente sarebbe perfettamente compatibile con un processo LP "spezzettando" i die.
Se colleghi questo al fatto di Zen/BD modulare, ben si sposerebbe a questo contesto. Poi non so se al posto di più die a package sia possibile un unico die prodotto con più parti non condivise in alimentazione.

george_p
12-11-2016, 17:09
azz :O

sono proprio curioso a questo punto, vediamo se solo amd si terrà ancora sto silicio puzzoso di GF, non la vuole più nessuno :asd:

Ha preferito pagare 300 milioni di dollari per potersi sganciare da glofofofo
http://www.bitsandchips.it/enterprise-business/9-hardware/7399-amd-modifica-il-wafer-supply-agreement-con-glofo

Alla fine ci sono arrivati in amd :O

Piedone1113
12-11-2016, 17:16
@Piedone113

C'è una cosa che non riesco a capire.

Io non riesco a trovare il confine tra un processo LP e HP, nel senso che LP è per basso consumo e HP per alte performances, ma non è detto che un LP con un buon PP debba obbligatoriamente avere frequenze inferiori rispetto ad un processo HP, soprattutto considerando il legame tra frequenza e FO4.

Altro punto. Se il problema finale fosse il TDP massimo a die, cosa vieterebbe di ottenere il massimo TDP ma con più die (tipo somma) anzichè in un unico die? O magari sempre solamente 1 die ma con all'interno più "pessi" con alimentazioni divise.

Il processo lp ed hp prescinde la complessità del chip, ma sono caratteristiche proprie dei transistor.
I transistor nei processi LP hanno bisogno di minor tensione e potenza per commutare, ma offrono un range di corrente con una finestra più bassa.
Se per esempio due chip simili non limitati in frequenza dall'architettura devono lavorare a 1ghz avremo nel processo LP consumi decisamente più bassi ipotizzando un voltaggio di 1,0v per il primo e 1,2v per il secondo.
Ma se i transistor del processo LP possono lavorare con tensioni (ipotetiche) di 1,2v max (dove gia si perde gran parte del vantaggio dell'LP sull'HP) offriranno una frequenza di 2 ghz max.
Per andare oltre bisogna alzare il voltaggio a 1.25v cosa che non garantirebbe la durata o il funzionamento del transistor.
Il processo HP magari a 2 ghz vuole 1.22v, ma supportando voltaggi fino a 1,3v può spingersi fino a 3ghz.
Il discorso metallizazioni è molto complesso:
Bisogna dividere i collegamenti di alimentazioni su più strati (per non localizzarli tutti su un unico layer), ma al tempo stesso sufficientemente schermati dai canali data (per non creare interferenze).
Va da se che maggiori sono le correnti in gioco, maggiore saranno le iterazione da interferenze e più accorta deve essere la disposizione (per questo parlavo di possibili problemi dovuti ai due layer in meno di BD vs Power di IBM).
Se i transistor hanno bisogno di 1.35v per funzionare a 4 ghz, ma queste tensioni generano interferenze al limite per i segnali data sarai costretto ad usare 1,38v per rafforzare la potenza del segnale e renderlo meno suscettibile ad interferenze.
Il modello di costruzione a moduli permette di progettare un modulo ( completo di metallizazioni) e replicarlo sul chip diverse volte risparmiando sulla progettazione.
Il rovescio della medaglia che l'ottimizzazione a singolo modulo è disottimizzato nell'uso di più moduli.
Per il resto non credo che un processo LP sia tanto economico rispetto all'HP, semplicemente si hanno maggiori richieste per tale processo e di conseguenza è quello che vende di più.
Da parte mia sono convinto che se Intel decidesse di produrre con un processo LP sviluppato con priorità di investimenti le attuali architetture x86 farebbero rabbrividire gli ARM anche a livello consumo (oltre che a distanziarle enermemente come prestazioni), basta vedere cosa riesce a fare con atom ed i corrispettivi AMD tutt'altro che frutto di ingenti investimenti.

paolo.oliva2
12-11-2016, 17:22
Comunque GF è della famiglia reale di Abudabi...
Se guardate le auto della polizia più costose, Abudabi da sola ha un valore superiore a tutte le super car della polizia nel mondo. Stanno realizzando il nuovo treno a lievitazione... velocità circa 1200KM/h, costo sopra il miliardo di $.
Per loro aver acquistato GF è come per una persona normale andare al bar a prendere un caffè.

paolo.oliva2
12-11-2016, 17:28
Ha preferito pagare 300 milioni di dollari per potersi sganciare da glofofofo
http://www.bitsandchips.it/enterprise-business/9-hardware/7399-amd-modifica-il-wafer-supply-agreement-con-glofo

Alla fine ci sono arrivati in amd :O

Nota.

GloFo, la quale è senz’altro colpevole di aver messo ancora più in difficoltà AMD: pessimi 32nm SOI, cancellazione dei 28nm PD-SOI, cancellazione dei 20nm BULK, cancellazione dei 14nm XM.

Sono solamente gli intellisti che giudicano il 32nm SOI eccellente, perchè chiaramente DEVE essere tutta colpa dell'architettura BD ed ovviamente tutti sti problemi sul silicio sono ininfluenti per le performances.

shellx
12-11-2016, 17:45
La storia del BIOS on chip potrebbe essere vera...
Ecco che ho scritto su anand (scusate, non ho tempo per tradurre):

I remember that the BIOSes are modular: a network controller with netboot, a SCSI controller has their own BIOSes, that is called after regular BIOS for their initialization... If a MB requires its own code for some custom additional chip (e.g. additiona SATA controller), this can be put on an external on board ROM, called by the master BIOS.
EDIT: and the AMD BIOS can manage also the optional AMD SB, as the 350... So an external BIOS will be needed only for additional SATA, SCSI controller... I don't see this as a big problem...

The advantage of this scheme is that the internal CPU devices, are managed by AMD itself: its code, its responsibility. BIOS and UEFI are standards. If both AMD and the MB manufacturer will comply to the rules, i don't see problems.
Another advantage is price: if a MB manufacturer wants, it can produce a board without additional controllers and even without BIOS chip and traces. I think that only the CMOS battery will be needed on board (we can even verify this if there is an AM4 pin assignment table and there is some Vcmos pin or similar). In this case all BIOS testing is on AMD shoulders and the MB manufacturer must take care only of electrical compliance. Such a board can cost lower than 40$...

Già le mainboard mano a mano perdono il senso di esistere, gli levano pure la possibilità di gestire la componentistica tramite bios, è finita. Praticamente per quanto riguarda l'i/o standard è gestito da un bios on chip, in caso di i/o supplementare, i player mb potrebbero mettere un eeprom aggiuntivo con bios particolare on mainboard.
Non sono per mia natura un catastrofista, ma mi sa che amd ha iniziato a seguire pari pari Intel e fa pure peggio (fine oc per il 90% delle cpu, solo i modelli K, overcloccabili ossia una o due per miracolo). Praticamente vogliono pilotare ogni virgola del settore, devono decidere loro chi, quando e come usare i loro prodotti e chi deve guadagnarci su.

Sono proprio curioso di vedere come i player di mobo si comporteranno per fare marketing, visto questa ulteriore stangata alle gambe. Si devono inventare adesso bios moddati che permettono alla mobo di farti il caffè per poterti prezzare una mobo enthusiast ? Per forza :D

Piedone1113
12-11-2016, 17:48
Nota.

GloFo, la quale è senz’altro colpevole di aver messo ancora più in difficoltà AMD: pessimi 32nm SOI, cancellazione dei 28nm PD-SOI, cancellazione dei 20nm BULK, cancellazione dei 14nm XM.

Sono solamente gli intellisti che giudicano il 32nm SOI eccellente, perchè chiaramente DEVE essere tutta colpa dell'architettura BD ed ovviamente tutti sti problemi sul silicio sono ininfluenti per le performances.
Se ti riferisce a Cesare la questione derivante dalla discussione avvenuta tra me e lui è stata:
IBM ha fatto due signore cpu su 32 soi (ok con 2 strati di metallizazioni in più)
Il silicio con IBM ha rispettato quanto preventivato (con che costo non è dato saperlo)
L'accoppiata 32soi e bd è stata sotto le attese (e di molto).
Ci sono 3 possibili cause:
1 architettura sbagliata (e questo è vero)
2 32 Soi da schifo (ma ibm ha raggiunto ottimi risultati)
3 Il 32 SOI ha sforato di poco il budget energetico per una tot frequenze.

Quest'ultima ipotesi che possiamo accreditare come la più probabile significa che:
BD doveva girare a frequenze maggiori
13 layer di metallizazione sono rappresentativi di un prodotto costruito al risparmio.
Il 32 soi invece di volere 1,28 v per 4 ghz ne richiedeva 1,35.
1,35v sono insufficienti per la stabilità operativi e gestione degli scarti su 13 metal gate di BD.
Risultato è stato che BD progettato per avere un prodotto economico da produrre ha avuto scarse performance dovute all'intersecarsi di voltaggio più alto di quanto preventivato, architettura che richiedeva una frequenza maggiore per raggiungere l'optimum, layer metallici sottodimensionati per il voltaggio richiesto.

Quindi peccano sia GF che AMD ( mancanze che prese singolarmente avrebbero segato la cpu di un 5% di prestazioni, sommate tra di loro un buon 30%)

Piedone1113
12-11-2016, 17:52
Già le mainboard mano a mano perdono il senso di esistere, gli levano pure la possibilità di gestire la componentistica tramite bios, è finita. Praticamente per quanto riguarda l'i/o standard è gestito da un bios on chip, in caso di i/o supplementare, i player mb potrebbero mettere un eeprom aggiuntivo con bios particolare on mainboard.
Non sono per mia natura un catastrofista, ma mi sa che amd ha iniziato a seguire pari pari Intel e fa pure peggio (fine oc per il 90% delle cpu, solo i modelli K, overcloccabili ossia una o due per miracolo). Praticamente vogliono pilotare ogni virgola del settore, devono decidere loro chi, quando e come usare i loro prodotti e chi deve guadagnarci su.

Sono proprio curioso di vedere come i player di mobo si comporteranno per fare marketing, visto questa ulteriore stangata alle gambe. Si devono inventare adesso bios moddati che permettono alla mobo di farti il caffè per poterti prezzare una mobo enthusiast ? Per forza :D
Sono solo speculazioni, ma se fosse vero non dovremmo vedere + mobo con bug gravi abbandonate dai produttori che non aggiornano più il bios. (e niente cpu nuova su mobo con bios datato che non bootta come è successo ultimamente con Intel)

Nui_Mg
12-11-2016, 17:54
Non sono per mia natura un catastrofista, ma mi sa che amd ha iniziato a seguire pari pari Intel e fa pure peggio
Non ha alcun senso, sarebbe il suicidio definitivo e irrimontabile, soprattutto in questo momento più che critico per lei nel mainstream.

mtk
12-11-2016, 18:05
Comunque GF è della famiglia reale di Abudabi...
Se guardate le auto della polizia più costose, Abudabi da sola ha un valore superiore a tutte le super car della polizia nel mondo. Stanno realizzando il nuovo treno a lievitazione... velocità circa 1200KM/h, costo sopra il miliardo di $.
Per loro aver acquistato GF è come per una persona normale andare al bar a prendere un caffè.

mica devono fare il pane con il treno a lievitazione paolo :D levitazione

paolo.oliva2
12-11-2016, 18:07
Il processo lp ed hp prescinde la complessità del chip, ma sono caratteristiche proprie dei transistor.
I transistor nei processi LP hanno bisogno di minor tensione e potenza per commutare, ma offrono un range di corrente con una finestra più bassa.
Se per esempio due chip simili non limitati in frequenza dall'architettura devono lavorare a 1ghz avremo nel processo LP consumi decisamente più bassi ipotizzando un voltaggio di 1,0v per il primo e 1,2v per il secondo.
Ma se i transistor del processo LP possono lavorare con tensioni (ipotetiche) di 1,2v max (dove gia si perde gran parte del vantaggio dell'LP sull'HP) offriranno una frequenza di 2 ghz max.
Per andare oltre bisogna alzare il voltaggio a 1.25v cosa che non garantirebbe la durata o il funzionamento del transistor.
Il processo HP magari a 2 ghz vuole 1.22v, ma supportando voltaggi fino a 1,3v può spingersi fino a 3ghz.
Il discorso metallizazioni è molto complesso:
Bisogna dividere i collegamenti di alimentazioni su più strati (per non localizzarli tutti su un unico layer), ma al tempo stesso sufficientemente schermati dai canali data (per non creare interferenze).
Va da se che maggiori sono le correnti in gioco, maggiore saranno le iterazione da interferenze e più accorta deve essere la disposizione (per questo parlavo di possibili problemi dovuti ai due layer in meno di BD vs Power di IBM).
Se i transistor hanno bisogno di 1.35v per funzionare a 4 ghz, ma queste tensioni generano interferenze al limite per i segnali data sarai costretto ad usare 1,38v per rafforzare la potenza del segnale e renderlo meno suscettibile ad interferenze.
Il modello di costruzione a moduli permette di progettare un modulo ( completo di metallizazioni) e replicarlo sul chip diverse volte risparmiando sulla progettazione.
Il rovescio della medaglia che l'ottimizzazione a singolo modulo è disottimizzato nell'uso di più moduli.
Per il resto non credo che un processo LP sia tanto economico rispetto all'HP, semplicemente si hanno maggiori richieste per tale processo e di conseguenza è quello che vende di più.
Da parte mia sono convinto che se Intel decidesse di produrre con un processo LP sviluppato con priorità di investimenti le attuali architetture x86 farebbero rabbrividire gli ARM anche a livello consumo (oltre che a distanziarle enermemente come prestazioni), basta vedere cosa riesce a fare con atom ed i corrispettivi AMD tutt'altro che frutto di ingenti investimenti.

si, ho capito a grandi linee... però, ad esempio, l'FO4 non potrebbe stravolgere il rapporto LP/HP?

L'HP regge Vcore superiori e quindi aumenta il limite della massima frequenza, verso un LP che è studiato per consumare meno e funzionare con Vcore inferiori.

Ma se si creasse un'architettura il cui punto di incontro IPC * frequenza fosse ottimale ad un silicio LP che tramite l'FO4 basso permettesse 3GHz al posto di 2GHz (con FO4 "normale", si avrebbe un risultato simile ad un procio con FO4 alto e silicio HP (circa).

--------------

Il 16nm di TSMC è quello delle VGA di Nvidia, di Jaguar a 2GHz e rotti della console, ma è un PP LP o HP?

Sto ipotizzando questo perchè il silicio Intel è migliore di un 15% rispetto a quello GF/TSMC, quindi i 95W di Zen, se realizzato sul 14nm Intel, risulterebbero quasi 80W, vs un TDP di 140W del 6900K, e questo porterebbe a pensare che un Zen X8, a quel TDP, dovrebbe avere prestazioni di poco superiori alla metà di un 6900k.

Non sto trollando nè per l'uno nè per l'altro, ma dico semplicemente che le cose non tornano, perchè anche se Blender è un test e forse pure partigiano per Zen, comunque ha fatto vedere delle performances (IPC) che difficilmente in altre condizioni calerebbero del -50% (anche perchè un procio SMT può essere efficiente in SMT solamente a condizione di avere un IPC nativo alto, altrimenti meglio il CMT).

Secondo me, la sparo, Zen ha un FO4 basso e hanno fatto il confronto consumo/prestazioni in modo favorevole, nel senso Blender che ha piallato le differenze di IPC, 3GHz che tramite l'FO4 17 non ha evidenziato prb di PP del 14nm FinFet Samsung, e quindi consumi bassi.

Gioz
12-11-2016, 18:07
Sono solo speculazioni, ma se fosse vero non dovremmo vedere + mobo con bug gravi abbandonate dai produttori che non aggiornano più il bios. (e niente cpu nuova su mobo con bios datato che non bootta come è successo ultimamente con Intel)
effettivamente non ci avevo pensato, questo sarebbe un grosso punto a favore.

capitan_crasy
12-11-2016, 18:17
http://www.bitsandchips.it/9-hardware/7692-anche-la-apu-della-ps4-pro-e-prodotta-da-tsmc-sui-16nm-finfet

Ragazzi però non creiamoci troppe aspettative...
I SOC di Microsoft e Sony sono sempre stati prodotti da TSMC ed è chiaro che un die shrink a 16nm era la cosa più logica da fare per i semi-custom di XBS e PS4slim/PS4pro.
Non ce nessun cambio di rotta in atto, AMD ha fatto bene a fare dei tape-out di ZEN e Polaris sui 16nm ma vi ricordo che il mercato principale di AMD ora è quello del semi custom, dove alla fine devi produrre milioni di pezzi avendo pronte altre vie in caso di "problemi" con le fonderie...

shellx
12-11-2016, 18:34
Sono solo speculazioni, ma se fosse vero non dovremmo vedere + mobo con bug gravi abbandonate dai produttori che non aggiornano più il bios. (e niente cpu nuova su mobo con bios datato che non bootta come è successo ultimamente con Intel)

Se fosse vero, questo da te citato è effettivamente il lato positivo della situazione. Ma quello negativo è che l'overclock sarà pilotato da amd.
Detta meglio, secondo me i margini di regolazione delle impostazioni dell'intero sistema (vcore,nb,frequenze,offset ecc ecc) saranno risicati. Praticamente fanno prima a farti un pulsante sulla mobo, con overclock forzato a come dicono loro. Se vuoi invece (tipo paolo.oliva) smadonnarti dietro impostazioni per trovare la frequenza maggiore del tuo esemplare (per test, per gioco, per sfizio), non puoi farlo a quanto ho capito. Beh, questo è uccidere il rimanente e già risicato mercato desktop, ciò che lo tiene in piedi è appunto, gaming, overclocked e professional. Mah, sarà che sto esagerando, forse la sto vedendo troppo in termini catastrofici. Speriamo che non sia vero, e se lo è che la cosa sia per determinati eventi lasciandoti spazio di overclocking manuale a 360 gradi, come è sempre stato.

paolo.oliva2
12-11-2016, 18:40
Se ti riferisce a Cesare la questione derivante dalla discussione avvenuta tra me e lui è stata:
IBM ha fatto due signore cpu su 32 soi (ok con 2 strati di metallizazioni in più)
Il silicio con IBM ha rispettato quanto preventivato (con che costo non è dato saperlo)
L'accoppiata 32soi e bd è stata sotto le attese (e di molto).
Ci sono 3 possibili cause:
1 architettura sbagliata (e questo è vero)
2 32 Soi da schifo (ma ibm ha raggiunto ottimi risultati)
3 Il 32 SOI ha sforato di poco il budget energetico per una tot frequenze.

Quest'ultima ipotesi che possiamo accreditare come la più probabile significa che:
BD doveva girare a frequenze maggiori
13 layer di metallizazione sono rappresentativi di un prodotto costruito al risparmio.
Il 32 soi invece di volere 1,28 v per 4 ghz ne richiedeva 1,35.
1,35v sono insufficienti per la stabilità operativi e gestione degli scarti su 13 metal gate di BD.
Risultato è stato che BD progettato per avere un prodotto economico da produrre ha avuto scarse performance dovute all'intersecarsi di voltaggio più alto di quanto preventivato, architettura che richiedeva una frequenza maggiore per raggiungere l'optimum, layer metallici sottodimensionati per il voltaggio richiesto.

Quindi peccano sia GF che AMD ( mancanze che prese singolarmente avrebbero segato la cpu di un 5% di prestazioni, sommate tra di loro un buon 30%)

Minimo investimento nell'architettura CMT, zero in evoluzione performances cache, MC e quant'altro. Realizzazione del tutto unicamente sull'aspettativa silicio 32nm +FO4, quindi toppato tutto in funzione frequenze/IPC.

Il bilanciamento del turbo era stato previsto in salti di 500MHz (frequenza base, +500MHz frequenza turbo su tutti i core, +500MHz frequenza turbo massima), che avrebbe portato +1GHz dalla frequenza def, passati a +600MHz nell'8150, calati a +300MHz in un 8370.

Io non discuto sul fatto che un 7700K a @4,5GHz se ne sbatte di un Piledriver foss'anche a 5,5GHz def, come pure che il top Intel è un 6950X vs un 8370 :doh: però è un confronto che ignora che FX Piledriver è legato al 32nm SOI, mentre BD è arrivato all'evoluzione Excavator, ed il numero di core è EVIDENTEMENTE condizionato sia dal PP del 32nm che dall'assenza di alternative.

Di certo penso che confrontare un 8370 vs un XV X16, siano 2 cose nettamente differenti, per quanto comunque sempre BD, architetturalmente.

P.S. Edit.
Le prestazioni di BD in ambito ST sono quello che sono, ma un BD XV X16 (almeno 4GHz def), per chi lavora in MT e per chi utilizza più programmi in contemporanea (ambiti di cui dell'ST te ne sbatti), la sua figura la farebbe e sarebbe competitivo affiancato da un prezzo stile FX.

paolo.oliva2
12-11-2016, 18:48
Se fosse vero, questo da te citato è effettivamente il lato positivo della situazione. Ma quello negativo è che l'overclock sarà pilotato da amd.
Detta meglio, secondo me i margini di regolazione delle impostazioni dell'intero sistema (vcore,nb,frequenze,offset ecc ecc) saranno risicati. Praticamente fanno prima a farti un pulsante sulla mobo, con overclock forzato a come dicono loro. Se vuoi invece (tipo paolo.oliva) smadonnarti dietro impostazioni per trovare la frequenza maggiore del tuo esemplare (per test, per gioco, per sfizio), non puoi farlo a quanto ho capito. Beh, questo è uccidere il rimanente e già risicato mercato desktop, ciò che lo tiene in piedi è appunto, gaming, overclocked e professional. Mah, sarà che sto esagerando, forse la sto vedendo troppo in termini catastrofici. Speriamo che non sia vero, e se lo è che la cosa sia per determinati eventi lasciandoti spazio di overclocking manuale a 360 gradi, come è sempre stato.

Secondo me non è nell'interesse di AMD bloccare il bios del modello per OC, sarebbe una mazzata sui piedi.

Io invece sarei più dell'idea che la suite AOC + OC FX creata a suo tempo da AMD per BD, sia tonfata proprio per bios approssimativi che non supportavano appieno o comunque in parte quello che i proci potevano fare.

Un Bios proprietario realizzato da AMD, me lo aspetterei più funzionale con le possibilità del procio, magari bloccato su proci lisci, ma confido che farebbe di tutto di più per il modello OC.

Piedone1113
12-11-2016, 20:08
Non ho capito, davvero, cosa cambia dove sta il BIOS, per i metodi che può esporre all'utente.

Sent from my HTC One M9 using Tapatalk

Cambia che bios alla DFI (per citare un marchio da oc aimè storico) potremmo vederlo solo sulle vecchie riviste.

paolo.oliva2
12-11-2016, 21:19
Dipende da cosa espone esternamente e se "tutto" vuol dire poi la possibilità di filtro da parte del produttore di mobo.

(il tutto dando per vera una cosa che potrebbe facilmente non esserlo, o comunque essere vero ma relativamente solo all'ES)

Sent from my HTC One M9 using Tapatalk

Sta cosa è interessante (ovviamente con valutazione del se circa la veridicità).

Ovvio che non troveremo un bios alla DFI (e sinceramente non è che mi freghi più di tanto, visto che l'unica volta che ho smanettato su una DFI, ci ho messo 2 mesi per arrivare alla stessa frequenza di OC che su una Asus TOP ci ho messo 5 minuti. Questo ovviamente in base alle mie limitazioni), ma come farebbe un produttore di mobo a "filtrare" parametri bios quando bios nel procio e chip-set sono nativamente AMD?

Cioè... di per se il bios è il punto a livello più basso e quindi più vicino alla macchina (a parte il filmware del procio, ma se andassimo avanti saremmo dentro i core)... cosa ci dovrebbe essere ancor di più basso che possa pilotare il bios?

mack.gar
12-11-2016, 21:39
Dresdenboy ha postato i bench di naples che ha trovato:
http://dresdenboy.blogspot.it/2016/11/leaked-zennaples-benchmarks-appeared-in.html?m=1

shellx
12-11-2016, 21:47
Sta cosa è interessante (ovviamente con valutazione del se circa la veridicità).

Ovvio che non troveremo un bios alla DFI (e sinceramente non è che mi freghi più di tanto, visto che l'unica volta che ho smanettato su una DFI, ci ho messo 2 mesi per arrivare alla stessa frequenza di OC che su una Asus TOP ci ho messo 5 minuti. Questo ovviamente in base alle mie limitazioni), ma come farebbe un produttore di mobo a "filtrare" parametri bios quando bios nel procio e chip-set sono nativamente AMD?

Cioè... di per se il bios è il punto a livello più basso e quindi più vicino alla macchina (a parte il filmware del procio, ma se andassimo avanti saremmo dentro i core)... cosa ci dovrebbe essere ancor di più basso che possa pilotare il bios?

Io mi auguro che MSI mi tiri fuori per zen una mobo degna di quella che ho adesso per bd.
Sono passato ad msi anni fa, più per ripiego, usavo solo DFI e Abit. Le migliori schede madri fino al socket 939 per DFI e socket A per Abit. Purtroppo hanno deciso (l'ultima dfi) ad abbandonare il mercato di mobo retail. Oggi dfi produce solo mobo industrial. Ti assicuro che le DFI fino al socket 939 erano le regine dell'oc. Non posso mai dimenticarmi QUESTA (http://www.hardwaresecrets.com/dfi-lanparty-venus-nf4-sli-dr-expert-motherboard/), la prima mobo in assoluto ad avere condensatori solidi, tiratura limitata, sono stato uno dei pochi ad averla (pagata 480 euro al tempo) avendo già dentro il case la DFI Lanparty UT nF4 SLI-DR Expert (non venus). E nel socket precedente avevo la Abit NF7-S.
:( Che ricordi meravigliosi dell'informatica, mi viene da piangere, al solo pensiero....mi viene da piangere a come siamo ridotti adesso, manipolati e pilotati dai brand. L'oc oggi non l'ho decidi tu, o meglio tu decidi un range che loro ti mettono a disposizione. Un tempo invece non era cosi, un athlon xp palomino da 50 euro con una abit lo facevi andare a 2,6ghz (oltre la frequenza del athlon xp 3200+ (2200mhz) e che costa 4 volte di più. Potevi poi farti il ganzone ultra con gli amici dicendogli con voce da chi vuole umiliare "eh eh bravo hai speso 300 euro ed io 50, ed ho un processore più potente del tuo...complimenti pollo" :D

Wolfhang
12-11-2016, 21:48
Non ho capito, davvero, cosa cambia dove sta il BIOS, per i metodi che può esporre all'utente.

Cambia che se prima brikkavi il tutto gettavi la mainboard (sempre non avessi la possibilità di sostituire il chip del bios) ora butti la CPU...:D

shellx
12-11-2016, 21:52
Cambia che se prima brikkavi il tutto gettavi la mainboard (sempre non avessi la possibilità di sostituire il chip del bios) ora butti la CPU...:D

Manco più il gusto di riprogrammarti gli eeprom. Dopo che ho speso 120 euro di programmatore con tutti i moduli socket's completo :(

Piedone1113
12-11-2016, 22:57
Manco più il gusto di riprogrammarti gli eeprom. Dopo che ho speso 120 euro di programmatore con tutti i moduli socket's completo :(

Abit nf2-s rev2
MSI k2 platinum ( non ricordo il nome ma aveva nf3 e slot agp, con abbinato il marchingegno ocz che sparava le ram a 4v, con kit redini utt benchavo a 270 mhz Cas 2225 con 3.6v sulla ram)
Dfi LP NF4
Dfi LP SLI DR
DFI LP RDX 200
e l'ultima Dfi che ho avuto una Dfi infinity Dark (p965 slot 775).
Poi ho avuto rampage Asus x48 ed evga 762 x58.
Poi ho smesso perché gli oc erano telecomandato, non si riesce più a metterci una pezza ai limiti di una CPU se ci arrivi ci arrivi comunque, invece prima con i settaggio riuscivo a tirare fino a 200 mhz in più.
Il mio record è stato di 3075 mhz su opteron 146 e 3ghz su fx60 ( oltre ai 4400 ht on su evga con uno xeon w3540 1366 ma nonostante la frequenza altissima non mi sono affatto divertito).

george_p
12-11-2016, 23:08
Ragazzi però non creiamoci troppe aspettative...
I SOC di Microsoft e Sony sono sempre stati prodotti da TSMC ed è chiaro che un die shrink a 16nm era la cosa più logica da fare per i semi-custom di XBS e PS4slim/PS4pro.
Non ce nessun cambio di rotta in atto, AMD ha fatto bene a fare dei tape-out di ZEN e Polaris sui 16nm ma vi ricordo che il mercato principale di AMD ora è quello del semi custom, dove alla fine devi produrre milioni di pezzi avendo pronte altre vie in caso di "problemi" con le fonderie...

Personalmente non mi creo nessuna aspettativa, solo che ora Amd può variare dalla solita e unica (fino ad oggi) fonderia per le cpu, e questo non è poco.

Capellone
12-11-2016, 23:12
Visto che le principali funzioni saranno integrate nella cpu e le schede madri non faranno più quasi nulla, mi aspetto che le mobo modelli high-end costino al massimo 120 $
a 150 $ sarebbe già un furto!

shellx
12-11-2016, 23:18
Abit nf2-s rev2
MSI k2 platinum ( non ricordo il nome ma aveva nf3 e slot agp, con abbinato il marchingegno ocz che sparava le ram a 4v, con kit redini utt benchavo a 270 mhz Cas 2225 con 3.6v sulla ram)
Dfi LP NF4
Dfi LP SLI DR
DFI LP RDX 200
e l'ultima Dfi che ho avuto una Dfi infinity Dark (p965 slot 775).
Poi ho avuto rampage Asus x48 ed evga 762 x58.
Poi ho smesso perché gli oc erano telecomandato, non si riesce più a metterci una pezza ai limiti di una CPU se ci arrivi ci arrivi comunque, invece prima con i settaggio riuscivo a tirare fino a 200 mhz in più.
Il mio record è stato di 3075 mhz su opteron 146 e 3ghz su fx60 ( oltre ai 4400 ht on su evga con uno xeon w3540 1366 ma nonostante la frequenza altissima non mi sono affatto divertito).

La MSI K8N Neo2 Platinum e MSI K8N NEO2-F avevano nf3 ultra con agp. Usci dopo la platinum e diamond con nForce4 e pci-e 1.0 (K8N Neo4).
Asus, Gigabyte, Asrock, Biostar, ECS, Sapphire, Jetway ecc ecc... non ne ho mai comprate. Ho solo avuto in vita mia DFI, Abit ed MSI. E la mia prossima per Zen sarà un'altra MSI. Peccato solo che i tipi di modello come la mia sono fuori produzione, soppiantate tutte dal marchio MSI Gaming, e sono sicuro che le prossime top saranno sempre brand Gaming (che mi sta sui maroni). A meno che non facciano anche qualcosa military class (come la mia gd80). Se cerchi la mia sul web praticamente non esiste più (a mno di qualche residuo magazzino all'estero), vieni reindirizzato alla MSI 990FXA-GAMING (https://it.msi.com/Motherboard/990FXA-GAMING.html#hero-overview)...orribile ai miei gusti da vedere. La cercavo l'altro giorno per cambiarla (la mia inizia ada vere problemi nel reparto di alimentazione, non mi tiene bene l'oc come prima) dopo quasi 6 anni di lavoro, ma non sono riuscito a trovarne una neppure all'estero. Anzi se qualcuno conosce uno store dove la vendono ancora segnalatemelo per favore in pvt, so bene che adesso esce Zen e per qualcuno può non valere la pena, ma non mi importa personalmente, la mia macchina attuale non verrà sostituita da zen, ma lo affiancherà.

tuttodigitale
13-11-2016, 00:12
Il processo lp ed hp prescinde la complessità del chip, ma sono caratteristiche proprie dei transistor.
I transistor nei processi LP hanno bisogno di minor tensione e potenza per commutare, ma offrono un range di corrente con una finestra più bassa.
visto la maggior rapidità di risposta dei transistor nei processi HP, direi che quanto detto sia generalmente vero il contrario.

Se ti riferisce a Cesare la questione derivante dalla discussione avvenuta tra me e lui è stata:
IBM ha fatto due signore cpu su 32 soi (ok con 2 strati di metallizazioni in più)

mi sembra che nel thread si abbia parlato, dei relativi scarsi miglioramenti sia di IPC che di frequenza ottenuti con il passaggio ai 32nm SOI.


1 architettura sbagliata (e questo è vero)
ma anche no....il vcore usato in BD è praticamente il max possibile per il silicio....ad essere cotto era quest'ultimo.


2 32 Soi da schifo (ma ibm ha raggiunto ottimi risultati)
:mbe: Abbiamo già detto che i miglioramenti prestazionali da k10 (45nm) a PD (32nm) sono migliori, di poco sia chiaro, del passaggio P7 (45nm) a P7+(32nm)...e assai ridotti rispetto al passaggio dal 970(45nm) al 990x(32nm) di Intel..

Il modello 7, più potente ha una frequenza di 3,7-4,25 , quello 7+ 3,72-4,42GHz (si quel + vicino a GHz indica un formidabile +0,4%) raggiunti spegnendo la metà dei core
Di certo ci saranno dei carichi di lavoro dove le cache faranno enormi differenze.

Visto che oggettivamente l'aumento di frequenza è miserabile...vediamo cosa offre lato IPC
dati IBM (HPC Performance Report)
Power 7+ 3,6GHz 8 core 102,4
Power 7 3,7GHz 8 core 101,6

per un pauroso aumento di IPC del 3,6%...
in soldoni è come un ipotetico 1100 +8% (3,6%IPC+ 4%Frequenza), ovvero un Phenom x6 da 3,6GHz...che francamente non mi pare meglio di un FX8350....


3 Il 32 SOI ha sforato di poco il budget energetico per una tot frequenze.
BD doveva girare a frequenze maggiori

di "poco"....
AMD aveva dichiarato prestazioni superiori del 50% rispetto al 1100T, su 3 test, compreso cinebench e 3dmark...
avevo fatto i conti tempo fa, ed era uscita una frequenza di 5GHz su tutti i core (non necessariamente base)....se poi vogliamo fare finta che a "soli" 3 mesi dal lancio AMD non conoscesse l'ipc di Bulldozer....


13 layer di metallizazione sono rappresentativi di un prodotto costruito al risparmio.
13 layer sono comunque tanti (Sandy Bridge ne aveva 9).......non facciamo passare BD come progetto economico, solo perchè le sue prestazioni, come il power7+, sono state ampiamente disattese.


Quindi peccano sia GF che AMD ( mancanze che prese singolarmente avrebbero segato la cpu di un 5% di prestazioni, sommate tra di loro un buon 30%)
ma anche no....le cpu BD, dovevano essere cpu da 95W, eccetto il top di gamma....le CPU PD, invece dovevano dieci core....
altro che 5%....il silicio da solo è stato artefice di un significativo -25%...:cry:

Piedone1113
13-11-2016, 00:26
La MSI K8N Neo2 Platinum e MSI K8N NEO2-F avevano nf3 ultra con agp. Usci dopo la platinum e diamond con nForce4 e pci-e 1.0 (K8N Neo4).
Asus, Gigabyte, Asrock, Biostar, ECS, Sapphire, Jetway ecc ecc... non ne ho mai comprate. Ho solo avuto in vita mia DFI, Abit ed MSI. E la mia prossima per Zen sarà un'altra MSI. Peccato solo che i tipi di modello come la mia sono fuori produzione, soppiantate tutte dal marchio MSI Gaming, e sono sicuro che le prossime top saranno sempre brand Gaming (che mi sta sui maroni). A meno che non facciano anche qualcosa military class (come la mia gd80). Se cerchi la mia sul web praticamente non esiste più (a mno di qualche residuo magazzino all'estero), vieni reindirizzato alla MSI 990FXA-GAMING (https://it.msi.com/Motherboard/990FXA-GAMING.html#hero-overview)...orribile ai miei gusti da vedere. La cercavo l'altro giorno per cambiarla (la mia inizia ada vere problemi nel reparto di alimentazione, non mi tiene bene l'oc come prima) dopo quasi 6 anni di lavoro, ma non sono riuscito a trovarne una neppure all'estero. Anzi se qualcuno conosce uno store dove la vendono ancora segnalatemelo per favore in pvt, so bene che adesso esce Zen e per qualcuno può non valere la pena, ma non mi importa personalmente, la mia macchina attuale non verrà sostituita da zen, ma lo affiancherà.

Esattamente k8n neo2 platinum ( la preso perché avevo una x800pro agp ereditata dalla nf7-s).
Poi ho avuto solo DFI ( tranne una asrock dual sata) fino alla Infinity dark.
Ps la prima DFI che ho avuto era nel 99 con un super7 e k6 iii 400 in oc a 575 mhz impostazioni miste jumper BIOS.
Si, erano bei tempi ( ed altra età).
Per il resto oggi solo schede di fascia medio-bassa, ma esclusivamente msi (giga mai provate e le Asus dopo il 462 non mi piacciono)
Unico rammarico non aver mai provato una epox 462 o una chaintech 754.

Gioz
13-11-2016, 00:33
Visto che le principali funzioni saranno integrate nella cpu e le schede madri non faranno più quasi nulla, mi aspetto che le mobo modelli high-end costino al massimo 120 $
a 150 $ sarebbe già un furto!
non credo, considera che le fasi di alimentazione, slot di espansione o ché faranno comunque la differenza sul piano fisico delle possibilità dell'una o l'altra mobo, quando prendi una top gamma non ha solo un bios superiore...poi è improtante non dimenticare delle serie gaming con le lucine :muro: ce le proporranno sempre e comunque a cifre assurde a prescindere.
Sta cosa è interessante (ovviamente con valutazione del se circa la veridicità).

Ovvio che non troveremo un bios alla DFI (e sinceramente non è che mi freghi più di tanto, visto che l'unica volta che ho smanettato su una DFI, ci ho messo 2 mesi per arrivare alla stessa frequenza di OC che su una Asus TOP ci ho messo 5 minuti. Questo ovviamente in base alle mie limitazioni), ma come farebbe un produttore di mobo a "filtrare" parametri bios quando bios nel procio e chip-set sono nativamente AMD?

Cioè... di per se il bios è il punto a livello più basso e quindi più vicino alla macchina (a parte il filmware del procio, ma se andassimo avanti saremmo dentro i core)... cosa ci dovrebbe essere ancor di più basso che possa pilotare il bios?
il bios è a basso livello, ma la sua configurazione potrebbe avvenire a diversi strati interfacciandosi tramite un setup di stampo tradizionale e dipendente dalla mobo. siccome stando al rumor sarebbe tutto sul processore se in qualche modo viene salvata la configurazione e la cpu se la può "trascinare" su altro sistema potrei avere problemi anche solo se per esempio la dovessi montare su una mobo con caratteristiche fisiche differenti che non riesce ad erogare la tensione preconfigurata. dal lato del produttore mobo credo che vorrei offrire al mio cliente la possibilità di gestire i parametri, credo che dipenderà tutto da come l'hanno pensato, se è così.

Gioz
13-11-2016, 00:38
Esattamente k8n neo2 platinum ( la preso perché avevo una x800pro agp ereditata dalla nf7-s).
Poi ho avuto solo DFI ( tranne una asrock dual sata) fino alla Infinity dark.
Ps la prima DFI che ho avuto era nel 99 con un super7 e k6 iii 400 in oc a 575 mhz impostazioni miste jumper BIOS.
Si, erano bei tempi ( ed altra età).
Per il resto oggi solo schede di fascia medio-bassa, ma esclusivamente msi (giga mai provate e le Asus dopo il 462 non mi piacciono)
Unico rammarico non aver mai provato una epox 462 o una chaintech 754.
una k8n l'ho avuta anche io, sostituita con una lanparty non ricordo quale dopo la sua morte prematura.
msi ne ho avuta 1 con i thoro 1800+, ricordo un bios indecente...ma era una scheda estremamente economica, mentre la abit nf7-s l'avevo presa per dei test comparativi quando collaboravo con oclabs ed ero admin del portale.
k6-3 400 è stata la prima cpu amd che ho preso

Roland74Fun
13-11-2016, 00:48
Chi ha parlato di MSI?

Ecco la mia msi ex 970 gaming military class.....
Qui in partenza per l'RMA. :( :(

http://uploads.tapatalk-cdn.com/20161112/aeb769d29e8da879a0b2598012a73258.jpg

http://uploads.tapatalk-cdn.com/20161112/c1cae783f42673875ad9e99b709f647e.jpg

http://uploads.tapatalk-cdn.com/20161112/52fe6a139f94269fa2750f7c9d1302a3.jpg

shellx
13-11-2016, 01:50
Chi ha parlato di MSI?

Ecco la mia msi ex 970 gaming military class.....
Qui in partenza per l'RMA. :( :(

cut...

Ecco perfetto ! La mia dopo 6 anni di duro lavoro inizia a fare la schizzinosa con le impostazioni del bios (risolto abbassando di qualche mhz la frequenza e alzando di mezzo step il voltaggio della cpu e dell'nb). Però sinceramente a questo punto posso pure pensare che sia la cpu che non regge più come prima. Ma ho pensato sia la mobo perchè mi ha dato problemi anche con un modulo di ram nel secondo slot, ma anche qui mi è bastato invertire due moduli negli slot e ha smesso di rompere le palles.
Ma con questo cosa voglio dire ? Sarà che ho culo io, ma la mia continua a rullare dopo 6 anni (msi 990fxa-gd80), se per ipotesi dovessi prendere una 990fxa-gaming adesso , mi esploderebbe in faccia (come un pedardo mega magnum) appena gli collego il connettore di alimentazione 24pin :D
Non lo so ma ho come la senzazione che più tempo passa e più calano la qualità di costruzione dei prodotti informatici (intendo tutti i prodotti anche schede video). Per marketing ti fanno credere che stai prendendo robe dove la qualità è stata scelta con la lente a contatto, ma invece poi si rivelano quasi tutte cineserie da 4 cent... bhuu ?

Ma che gli è successo alla tua ? Vedo strane macchie dietro ? Non è che per errore guardavi youpoxx mentre il case che tieni in terra era aperto e rivolto frontalmente a te dalla parte di dietro della paratia ? Mi da quella sensazione :rotfl:
Scherzi a parte che sono quelle chiazze ?

Roland74Fun
13-11-2016, 02:32
Perdita di liquido dalle sue belle 8 fasi di alimentazione....
Neanche he 6 mesi....

Concordo con tutto quello che hai detto. La qualità dei prodotti odierni spesso non é all'altezza delle aspettative.

Il miei vecchi sistemi altlhon Burton, e l'athlon x ll hanno quasi 15 anni il primo è 10 il secondo. E vanno egregiamente.
Vedremo questo. La Asus presa per rimpiazzate O' MSI mi pare molto meglio.

Se dovessi prendere un altro pc in futuro, AMD con Zen o Intel, prenderei sempre Asus come scheda madre.

paolo.oliva2
13-11-2016, 07:48
non credo, considera che le fasi di alimentazione, slot di espansione o ché faranno comunque la differenza sul piano fisico delle possibilità dell'una o l'altra mobo, quando prendi una top gamma non ha solo un bios superiore...poi è improtante non dimenticare delle serie gaming con le lucine :muro: ce le proporranno sempre e comunque a cifre assurde a prescindere.

il bios è a basso livello, ma la sua configurazione potrebbe avvenire a diversi strati interfacciandosi tramite un setup di stampo tradizionale e dipendente dalla mobo. siccome stando al rumor sarebbe tutto sul processore se in qualche modo viene salvata la configurazione e la cpu se la può "trascinare" su altro sistema potrei avere problemi anche solo se per esempio la dovessi montare su una mobo con caratteristiche fisiche differenti che non riesce ad erogare la tensione preconfigurata. dal lato del produttore mobo credo che vorrei offrire al mio cliente la possibilità di gestire i parametri, credo che dipenderà tutto da come l'hanno pensato, se è così.

Ma la stessa cosa l'abbiamo capovolta per la mobo. Se io cambio il procio su una mobo senza fare il reset del bios della mobo, comunque alla partenza il bios della mobo riconosce che non c'è il più il procio di prima e cambia i parametri (Vcore/moltiplicatore e quant'altro) ad un valore standard del procio (se lo riconosce) o a valori conservativi se non lo riconosce.
Lo stesso potrebbe tranquillamente succedere se il bios è sul procio. Non credo che abbia una lista di mobo, penso piuttosto che ci sarà una tabella dei valori massimi/minimi della mobo che il procio possa leggere e relazionarsi.

Comunque stavo pensando che le mobo AM4 già pubblicizzate (3 modelli) sono "classiche", cioè hanno la batteria e il bios a fianco, e per quanto si sa sarebbero compatibili sia con BR che con Zen.
Il 4° modello, specifico per Zen, non se ne sa nulla, ma mi pare strano che AMD pubblicizzi il fatto di avere un unico socket per tutta la produzione desktop e poi, nella realtà, non si potrebbero montare proci diversi?
Io mi immagino invece che le mobo top per Zen abbiano una alimentazione più corposa (un conto è un X4 APU 95W, un altro 8 core + SMT), una dotazione più ampia con chip di terzi per quanto riguarda HD, USB, ecc., più (FORSE) la possibilità che Zen abbia features aggiuntive e quindi qualche cosa che per BR non serva.
Il fatto che le mobo AM4 per Zen siano comunque sotto NDA, è una realtà. Il perchè, mi sfugge, non ci vedo il senso di segretare una mobo "standard" che monta il BR e sulla quale in seguito si potrebbe upgradare Zen.

paolo.oliva2
13-11-2016, 08:01
Per me occare un procio è come un viaggio :D.
Se acquisti una macchina nuova, cosa fai le prime volte? Come tiene in curva, il comportamento sul bagnato, la frenata, ecc., con il procio è idem. Guardi come reagisce con il moltiplicatore, con l'OC della FSB, con i timing della ram e l'MC, il guadagno con l'OC NB, a quel punto fai il mix di tutte le info e spingi a seconda di dove hai più margine (lato frequenza), in relazione ai timing (aumento prestazioni a parità di frequenza), dove ottieni meglio e pure a parità di TDP (occare i core aumenta il TDP e occare l'NB idem, quindi è da verificare frequenze ingeriori procio ma il tutto (frequenza DDR, NB, ecc.) settato al max vs frequenze superiori procio e il tutto settato conservativo.
E il tutto è a naso. Il divertende è il capire il procio nel minor tempo possibile, senza contare che Zen è un'architettura completamente nuova. Immaginiamoci un Zen il cui modulo possa supportare la disabilitazione dei core, immagigniamo di poterlo occare e fare bench in ST con 1 core che ha l'intera L2 di 4 core ed una L3 a tutta sua disposizione.

Comunque io credo che Zen avrà un rilevamento TDP in tempo reale, non predittivo, come sino ad ora. Questo lascia spazio a disabilitazione core/overclock gestibile su ogni core e quant'alltro.
Guardate che oggi come oggi la battaglia non è realmente sul consumo, ma sullo sfruttare interamente il TDP. Quando si confrontano 2 proci di 2 marche differenti allo stesso TDP, non importa se le case assegnano lo stesso TDP, importa il procio che va di più. Se uno sfrutta il TDP al 99,9% avrà il massimo sfruttamento del TDP nominale, se l'altro si fermasse a 90% o 85%, alla fine quale sarebbe la differenza? Più prestazioni tangibili vs un consumo leggermente superiore (5-10W non li noti, ma un 10% di frequenza si, eccome).
Una gestione individuale (tipo quella di Intel che assegna al core più performante il turbo), lascierebbe aperta una porta, cioè quella di ottenere le massime frequenze al minimo TDP, magari avendo una frequenza soggettiva ad ogni core nel conseguimento dell'ottenere la massima frequenza complessiva al minor TDP.

Gioz
13-11-2016, 09:05
Ma la stessa cosa l'abbiamo capovolta per la mobo. Se io cambio il procio su una mobo senza fare il reset del bios della mobo, comunque alla partenza il bios della mobo riconosce che non c'è il più il procio di prima e cambia i parametri (Vcore/moltiplicatore e quant'altro) ad un valore standard del procio (se lo riconosce) o a valori conservativi se non lo riconosce.
Lo stesso potrebbe tranquillamente succedere se il bios è sul procio. Non credo che abbia una lista di mobo, penso piuttosto che ci sarà una tabella dei valori massimi/minimi della mobo che il procio possa leggere e relazionarsi.

Comunque stavo pensando che le mobo AM4 già pubblicizzate (3 modelli) sono "classiche", cioè hanno la batteria e il bios a fianco, e per quanto si sa sarebbero compatibili sia con BR che con Zen.
Il 4° modello, specifico per Zen, non se ne sa nulla, ma mi pare strano che AMD pubblicizzi il fatto di avere un unico socket per tutta la produzione desktop e poi, nella realtà, non si potrebbero montare proci diversi?
Io mi immagino invece che le mobo top per Zen abbiano una alimentazione più corposa (un conto è un X4 APU 95W, un altro 8 core + SMT), una dotazione più ampia con chip di terzi per quanto riguarda HD, USB, ecc., più (FORSE) la possibilità che Zen abbia features aggiuntive e quindi qualche cosa che per BR non serva.
Il fatto che le mobo AM4 per Zen siano comunque sotto NDA, è una realtà. Il perchè, mi sfugge, non ci vedo il senso di segretare una mobo "standard" che monta il BR e sulla quale in seguito si potrebbe upgradare Zen.
si, sicuramente basta un checksum al boot. con una configurazione tramite un preset, ma significherebbe che la mobo comunicando con il bios on chip gli passa dati per sovrascrivere la config e quindi potrebbe anche offrire la possibilità di interfacciarsi lato utente tramite un suo setup interno o che richiede un reset a parametri standard. non so se ho reso l'idea.

the_joe
13-11-2016, 09:37
Per me occare un procio è come un viaggio :D.


Ok, per te l'OC è una passione.

Però il fatto che AMD a quanto pare faccia una serie di processori dedicata all'OverClock, non fa certo ben sperare per i prezzi.

Se finora bastava prendere un processore di qualsiasi serie e si poteva provare ad overcloccarlo per portarlo alle prestazioni delle serie superiori, questo gioco con ZEN sembrerebbe non possibile, diventa un po' come con Intel che se vuoi il processore da Overclock devi già prendere il top di gamma e pagarlo come tale.

Inoltre per quanto riguarda l'overcloccabilità sembra che con il nodo a 14nm ci siano parecchi problemi per la dissipazione e non è detto che si possa arrivare tanto in alto con il Vcore e di conseguenza il Clock, speriamo che Zen smentisca questa cosa.

Gioz
13-11-2016, 09:51
Ok, per te l'OC è una passione.

Però il fatto che AMD a quanto pare faccia una serie di processori dedicata all'OverClock, non fa certo ben sperare per i prezzi.

Se finora bastava prendere un processore di qualsiasi serie e si poteva provare ad overcloccarlo per portarlo alle prestazioni delle serie superiori, questo gioco con ZEN sembrerebbe non possibile, diventa un po' come con Intel che se vuoi il processore da Overclock devi già prendere il top di gamma e pagarlo come tale.

Inoltre per quanto riguarda l'overcloccabilità sembra che con il nodo a 14nm ci siano parecchi problemi per la dissipazione e non è detto che si possa arrivare tanto in alto con il Vcore e di conseguenza il Clock, speriamo che Zen smentisca questa cosa.
sarà da vedere...alcuni thoro si sbloccavano ponticellando dei contatti sul package, o collegando dei punti sul socket.
un mucchio di roba in passato non era pensata per essere fatta funzionare fuori specifica ma ci si riusciva ugualmente...oggi c'è il rischio che ci rilascino qualcosa di totalmente insbloccabile e la variante "premium" con massima possibilità di personalizzazione sovraprezzandola, ma fino all'uscita queste cose saranno fortemente incerte.

paolo.oliva2
13-11-2016, 11:09
Ok, per te l'OC è una passione.

Però il fatto che AMD a quanto pare faccia una serie di processori dedicata all'OverClock, non fa certo ben sperare per i prezzi.

Se finora bastava prendere un processore di qualsiasi serie e si poteva provare ad overcloccarlo per portarlo alle prestazioni delle serie superiori, questo gioco con ZEN sembrerebbe non possibile, diventa un po' come con Intel che se vuoi il processore da Overclock devi già prendere il top di gamma e pagarlo come tale.

Inoltre per quanto riguarda l'overcloccabilità sembra che con il nodo a 14nm ci siano parecchi problemi per la dissipazione e non è detto che si possa arrivare tanto in alto con il Vcore e di conseguenza il Clock, speriamo che Zen smentisca questa cosa.

Il nodo 14nm Samsung come del resto il 16nm TSMC, non sono reali, ma è il valore ottenuto teorizzando il vantaggio del FinFet. L'OC non è dipendente in senso stretto dalla miniaturizzazione silicio, ma alla bontà del PP e dal problema sempre maggiore che la miniaturizzazione sempre più spinta riduce la dimensione di ciò che produce calore, ovvero con più problemi per la dissipazione.

Però, se ci mettessero l'impegno nella dissipazione tanto quanto nella miniaturizzazione, cacchio, oggi avremmo proci senza ventola a 300W TDP, magari con auto-raffreddamento.

Per quanto riguarda il prezzo, tutto dipenderà dalla frequenza def raggiunta e dalla frequenza def per il modello OC.

Comunque ti faccio notare che la politica proci sbloccati è da inquadrare bene. Quando prendi un i7 6700K, c'è il modello i7 non K ed il modello i5, quindi hai 3 prezzi. Quanto prendi un 6900K, è quello il modello X8 e punto e basta, e visto il prezzo del 6900K, prativamente raggruppa tutti i prezzi al più alto (se non ancor di più).
Penso che gli i7 X6 siano gli X8 fallati o comunque volutamente castrati, semplicemente perchè comunque Intel vende i 200mmq di un die X8 ad almeno 400€, che già questo rappresenterebbe un ottimo prezzo/guadagno.

la situazione AMD è ben differente (ipotizzando Zen potente quanto un 6900K).

In primis, Zen X8 a sto punto dovrebbe avere almeno 4 modelli (2 almeno per quelli lisci e 2 probabili per OC), contro 1 solo del 6900K. E già di per sè vuole dire 4 prezzaggi differenti (tutti più bassi) del 6900K.

In secondo luogo, tutto dipenderà dalle frequenze massime ottenute, perchè mi pare ovvio che un 7700K a 4,2GHz def, non lo vendi un Zen X4 a 3,5GHz, quindi la soluzione è o prezzare basso Zen X4 o applicare un prezzo/core inferiore e vendere Zen >X4 a meno di un X4 Intel.

In ambedue i casi, il prezzo di un Zen X8 base DEVE calare, perchè non puoi vendere un Zen X4 a 150$ ed un X8 a 1000€ (con la produzione Zen che è X8 per la maggiore (Opteron)) ed idem se abbassi il prezzo di un X8 per rappresentare un'alternativa ad un X4 7700K, non lo fai comunque a 1000$.

Come la giri la giri, in ogni caso Zen X8 base liscio dovrebbe avere un prezzo competitivo, e nel gradino superiore un Zen X8 liscio a frequenza superiore. I modelli per OC, vale lo stesso discorso. Non lo vendi (in quantità) un procio per OC a >30% del prezzo sullo stesso procio modello liscio (o almeno Intel la pensa così nel suo listino).
Quindi Zen liscio sarà sui 300/500$ nei 2 modelli e il K sotto i 700$, ma probabilmente Zen X8 350$ il base, 450$ il liscio top, 600$ il top per OC.

cdimauro
13-11-2016, 11:35
Guarda che io ho messo il link all'articolo e ho copiato un pezzo. Non c'è nulla che ho scritto io :)

Per quello in grassetto... come fa ad avere fatto la prima dimostrazione Intel se l'ha fatto qualche mese dopo AMD?
Intel ha fatto la prima dimostrazione delle DirectX12 (che all'epoca erano in alpha), mentre AMD aveva presentato Mantle pochi mesi prima.
Ma ambedue sono sempre collegati al TDP. La frequenza def come viene applicata? In base al TDP prefissato. Il numero di core come lo si applica? Mediante il calcolo n° di core a frequenza X in un determinato TDP.
Ma frequenze a core incidono in maniera diversa sul TDP.
Ma mi risulta che vendono la versione K per occare il procio, ovviamente garantendo che raggiungerà frequenze superiori rispetto allo stesso ma non K, e per questo (più frequenza = aumento di prestazioni) chiede un prezzo più alto.
No, le versioni K non vengono vendute soltanto per overclockare il processore. Hai il moltiplicatore sbloccato e PUOI farlo, ma non sta scritto da nessuna parte che lo si debba fare.

Come già detto, ho comprato il 6700K perché garantisce il TOP a livello di frequenza base e turbo. Se ci fosse stato un i3 con le stesse caratteristiche, molto probabilmente non avrei speso il doppio.
Guarda che se Intel non garantisce una determinata frequenza, non è perchè non sa quale frequenza potrà raggiungere (esempio un 8350 AMD lo potrebbe vendere a occhi chiusi per 4,6GHz), ma perchè una cosa è impostare il procio dalla casa madre e magari fare un pacchetto con dissipazione adeguata (esempio FX 9590), tutt'altro venderlo senza dissi e in caso di reso imputare la colpa alla dissipazione non adeguata cosi da risultare cactus del cliente e non in garanzia.
Prima avevi parlato di frequenza garantita, e adesso stai dicendo una cosa completamente diversa. Perché t'inventi le cose?
Lascia perdere questo tasto. AMD ha fino ad ora usato una tipologia di consumo predittiva mentre Intel effettiva. Quindi AMD ha sempre garantito che il TDP nominale non viene superato un qualsiasi condizione. Intel, avendo una gestione TDP reale in tempo reale, ha potuto anche optare per soluzioni tipo sforamento per 10" e/o frequenze inferiori nel caso che il TDP venga superato.

Per farti un esempio, il mio 5500U. E' dato 2,5GHz def e 2,9GHz Turbo, ma anche se sono all'Equatore ci sono volte che la frequenza arriva a +100MHz, cioè 2,9999GHz. Ma se lancio OCCT, la frequenza base arriva a 1,8GHz, ben più in basso del nominale def di 2,4GHz.

Devi guardarla in quest'ottica. Se la ditta X mi vende un procio a 2GHz e poi questo va a 2,5GHz, io ringrazio. Ma se la stessa ditta mi vende un procio per 2,5GHz che poi mi va a 2GHz, io mi sento preso per le :ciapet:, perchè magari ho acquistato quel procio proprio per le frequenze dichiarate superiori alla concorrenza.

Ti posso garantire (sulla mia pelle) che AMD in passato non ha mai sforato il TDP nominale e tantomeno in condizione turbo (cacchio, 125W per 8 core a 4GHz e con gli stessi 125W applica un turbo di 200MHz su 2 core? C'era un modello BD a 95W in cui il turbo aveva la stessa frequenza di quello a 125W). AMD per frequenze turbo TROPPO conservative è stata criticata a iosa.
Non puoi garantire niente, invece, perché i processori AMD che trovi nei portatili vanno in throttling, e le prestazioni vengono letteralmente uccise se si usano assieme CPU e GPU.
Semplicemente perchè è la stessa cosa che ho fatto con qualsiasi procio.
Non stiamo parlando di un X2 che si porta a 140W, stiamo parlando di un X8, ovvero da 10W a core lo porti a 15W, non come in un X2 che da 10W a core lo porteresti a 70.
La dissipazione? E perchè sarebbe un problema? Aumenti il TDP procio, aumenti la potenza dell'impianto di dissipazione. Secondo te tutte le ditte che producono sistemi di dissipazione più performanti di quelli di serie, per chi li vendono?
Secondo te tutti i processori li puoi portare alle frequenze che vuoi, semplicemente perché hai la possibilità di cambiare dei valori nel firmware e hai un buon sistema di dissipazione?

I nuovi processi produttivi non sembrano dei campioni nel raggiungere frequenze elevate, mantenendo al contempo consumi ridotti. E non credo che la cosa possa essere così facilmente risolta con un buon impianto.

cdimauro
13-11-2016, 11:49
Scusa, ma allora che ce l'ha a fare la L1D 2 porte a 128 bit in lettura e una in scrittura? Per fare in un ciclo una lettura a 256 bit? Oppure per svuotare le code su un picco (perchè immagino che le AGU poi mettano tutto in coda e lavorino su altro)?
La seconda che hai detto. Non è che puoi completare un'operazione di load (che è quella più critica) in un ciclo di clock. Magari! Per cui è ovvio e ha senso poter avere una coda per gestire le richieste che arrivano.
Sei sicuro che debba per forza passare tutto per le AGU?
Ne abbiamo già parlato su AnandTech: è quel che emerge dalla documentazione & slide di AMD.

Ed è anche ovvio / sensato che sia così, considerate le problematiche legati agli accessi in memoria.
Era una battuta... :D Ho messo una faccina e poi era in forma dubitativa... Non ho fatto una affermazione... E poi in questo settore sono solo un amatore... A ingegneria (purtroppo) non avevo nel piano di studi l'esame "architettura dei sistemi integrati"... Ho solo nozioni di elettronica, dimensionamento dei MOS ecc... Oppure parlavi di Dresdenboy? :confused:
Di Dresdenboy ne hai parlato tu, e non so se effettivamente la pensava così, o fosse una semplice battuta.

Ma la tua non appare di certo una battuta, perché hai continuato a speculare (nonché a fare altre "battute") su BIOS et similia, sia qui sia su AnandTech.

Quando sia qui sia su AnandTech (soprattutto) ci sono altri utenti che hanno smontato certe assurdità emerse da quel thread.
Non ho capito... :confused: Su cosa devo risponderti? :confused:
Se non rispondo a qualcosa che scrivi, è sottointeso che sono d'accordo con te... Non sto a ripetere la tua frase e sotto ci scrivo "concordo"... Mi sembrava sottointeso...

EDIT: forse ho capito: non ti ho risposto punto per punto, perchè penso anche io che sono cose troppo strane...
Ma continui a crederci, e a ricamarci sopra: è questo il punto.

Vuoi continuare a credere che servano TRENTA minuti per azzerare la sola memoria CMOS per i settaggi (perché è di questo si parlava, e non di flashare l'intero firmware), che peraltro è costituita da pochi KB? Fai pure.

Io preferisco dedicarmi ad altro di ben più utile. ;)
Beh, aumentare i pin comporta che tutti i produttori di MB devono rifare il progetto, i tracciati, il test... Se facevano un 2011v4 con le nuove specifiche per supportare le nuove CPU era anche meglio... MB più velocemente sul mercato, economie di scala e prezzi inferiori...
Per qualche linea PCIex in più abbiamo una piattaforma più costosa del necessario...
Non mi pare che si tratti di qualche linea PCI-Express in più, ma di diverse.

Inoltre Skylake-X sarà dotato di 10 core, anziché 8. Il tutto sotto il classico cappello dei 140W.

Non mi sembrano cambiamenti da poco.
Sono abituato male con AMD che fa le CPU dual controller RAM che possono andare su due socket diversi...
Per esempio prevedo che AMD, quando uscirà il PCIex 4.0, non richiederà un nuovo socket, ma sfruttando la retrocompatibilità dello standard, continuerà a usare il PCIex 3.0 sulle vecchie MB o sulle nuove MB con vecchia CPU, ma userà il 4.0 sulle nuove MB con nuova CPU...
De gustibus, ma gli standard non cambiano così rapidamente da giustificare simili decisioni. Passano anni...

cdimauro
13-11-2016, 11:51
Comunque prima dell'uscita di Zen si può solo suppore , però tutto e possibile......, basta per esempio guardare la Playstation 4 pro,ha fatto segnare un consumo pari a 155W contro i 148W della PlayStation 4 originale", ha fatto segnare un consumo pari a 156W contro i 149W della PlayStation 4 originale", con +500mhz clock cpu e +111mhz clock Gpu e raddoppio CU e tutto questo con un semplice passaggio tra i 28 ai 14nm .Quindi è tangibile .
A che frequenze? :O

cdimauro
13-11-2016, 12:02
però i giochi pesano più sulla gpu che sulla cpu, ho visto alcuni benchmark di titanfall2 che sembravano una barzelletta... un i7 6700k stava allo stesso livello di un i5, di un i3 e di un 8320e a frequenza base... per i giochi CPU-bound ho visto pentium stare alla pari degli i7 pentium G4400
Guarda gli ultimi giochi, che usano molto di più la CPU.

In particolare AotS sembra essere particolarmente vorace di core.

Ed è normale che sia così, visto che le attuali console sono dotate di ben 8 core, e questi non sono particolarmente performanti. Per cui devono cercare di sfruttare tutti questi core meglio che possono.

Col vantaggio che parecchie di queste ottimizzazioni si possono poi riciclare tout court nei port su PC.
io con la compressione mi trovavo bene con l'8320e, però da quanto ho capito tu la utilizzi in modo massiccio, comunque per quanto la si possa utilizzare un i5 secondo me è eccessivo, se ti può essere utile puoi dare un'occhiata a questo:

http://www.techspot.com/review/1087-best-value-desktop-cpu/page2.html

ma anche qui come dicevo prima un i3 (quindi una cpu sotto i 150€) non si discosta di molto da un i5
Chiaramente non è che si passi tutto il tempo a comprimere file, ma quando ti serve ti assicuro che fra l'i7-6700K del mio PC e l'i3-6320 che ho preso di recente per bambini & moglie, le differenze sono notevoli. :cool:

cdimauro
13-11-2016, 12:15
A mio parere dovreste scordarvi gli aggiornamenti del microcode fatti in casa, non verrà mai attuata una cosa del genere visto che si aprirebbero moltissime porte per il reverse. Per il discorso sblocco dei core vi rimando a quello che successe anni fa per i phenom, erano i produttori di mobo e non Amd a dare la possibilità di sbloccare i core dormienti (se funzionanti) e tanto è vero che poco dopo Amd rilasciò il microcode per bloccare la possibilità di questa feature sulle mobo (un po' come ha fatto Intel con l'overclock di processori non k nell'ultimo anno o come successe anche in passato).
*

Senza contare che alcuni s.o. (sicuramente Linux; non so come sia messo Windows), aggiornano il microcodice delle CPU al loro avvio, e dunque provvedono a fornire l'ultima versione che il produttore di CPU ha messo a disposizione.
PS: There are still some leaked #AMDZen benchmarks, which haven't been noticed yet... (pagina twitter di dresdenboy)
Che non non brillano. :fagiano:
Ah comunque sono spariti i bench di blender dalla pagina ufficiale...
?!? Mi pare insensato, visto che è stata la stessa AMD a presentare Zen usando Blender.

cdimauro
13-11-2016, 12:29
Nota.

GloFo, la quale è senz’altro colpevole di aver messo ancora più in difficoltà AMD: pessimi 32nm SOI, cancellazione dei 28nm PD-SOI, cancellazione dei 20nm BULK, cancellazione dei 14nm XM.

Sono solamente gli intellisti
Ed ecco il classico attacco ad hominem, nota fallacia logica di cui fai ampio uso.

Ho già riportato non poca documentazione, sia tecnica sia finanziaria, che a differenza delle tue fantasie sono FATTI.
che giudicano il 32nm SOI eccellente, perchè chiaramente DEVE essere tutta colpa dell'architettura BD ed ovviamente tutti sti problemi sul silicio sono ininfluenti per le performances.
Guarda che all'epoca GF era anche di AMD.

Per il resto ne abbiamo già ampiamente discusso in passato, ed è singolare che continui a tornarci.

Ecco qui le pagine salienti sull'argomento:

http://www.hwupgrade.it/forum/showthread.php?t=2748581&page=249
http://www.hwupgrade.it/forum/showthread.php?t=2748581&page=250
http://www.hwupgrade.it/forum/showthread.php?t=2748581&page=256

Dagli una rinfrescata.
Non sto trollando nè per l'uno nè per l'altro, ma dico semplicemente che le cose non tornano, perchè anche se Blender è un test e forse pure partigiano per Zen, comunque ha fatto vedere delle performances (IPC) che difficilmente in altre condizioni calerebbero del -50% (anche perchè un procio SMT può essere efficiente in SMT solamente a condizione di avere un IPC nativo alto, altrimenti meglio il CMT).
Perché non ti guardi il leak coi risultati dei test su AotS? Ma tieni a portata di mano un pacco di fazzoletti. :asd:
Io non discuto sul fatto che un 7700K a @4,5GHz se ne sbatte di un Piledriver foss'anche a 5,5GHz def, come pure che il top Intel è un 6950X vs un 8370 :doh: però è un confronto che ignora che FX Piledriver è legato al 32nm SOI, mentre BD è arrivato all'evoluzione Excavator, ed il numero di core è EVIDENTEMENTE condizionato sia dal PP del 32nm che dall'assenza di alternative.
Solo per AMD, visto che IBM è riuscita a ottenere il 75% in più di transistor nel passaggio ai 32nm SOI, che ha comportato un aumento spropositato nella cache L3 nel Power7+, e l'aumento del 50% dei core in z12 (oltre a un aumento nella cache).

Ma, ribadisco, di questo ne abbiamo già ampiamente discusso in passato, e puoi rileggerti i 3 link che ho riportato sopra.
:mbe: Abbiamo già detto che i miglioramenti prestazionali da k10 (45nm) a PD (32nm) sono migliori, di poco sia chiaro, del passaggio P7 (45nm) a P7+(32nm)...e assai ridotti rispetto al passaggio dal 970(45nm) al 990x(32nm) di Intel..
Sì, ne abbiamo già parlato, ma vedi sopra.

Poi "casualmente" eviti sistematicamente di citare gli enormi cambiamenti che sono arrivati con z12, e continui a citare solo i Power7+ (che comunque ne hanno avuto anch'essi, di benefici). Chissà perché... :O

paolo.oliva2
13-11-2016, 12:37
No, le versioni K non vengono vendute soltanto per overclockare il processore. Hai il moltiplicatore sbloccato e PUOI farlo, ma non sta scritto da nessuna parte che lo si debba fare.
Come da nessuna parte sta scritto che non lo si debba fare. Ma spiegami una cosa... se io occo e aumento il Vcore... il TDP non può aumentare perchè sono FANTASIE un procio con maggiore TDP di quello dichiarato dalla casa?

Gente, se occate non comprate alcun dissipatore, perchè cdimauro dice che sono fantasie perchè NON ESISTE un procio con TDP superiore rispetto a quello venduto.

Prima avevi parlato di frequenza garantita, e adesso stai dicendo una cosa completamente diversa. Perché t'inventi le cose?

Mi posti dove ho detto ciò?
Io ho detto che l'OC è garantito, dove ho scritto una spedifica frequenza GHz garantita?
Perchè devi distorgere quello che dico per girare la frittata e far passare che dico cazzate?
Per te non esiste un Zen 140W SOLAMENTE sulla base che non è venduto :doh:, quando già una versione OC SENZA DISSI, è palesemente per far installa il kit di dissipazione al cliente in base a quale TDP vorrà arrivare in OC.

Non puoi garantire niente, invece, perché i processori AMD che trovi nei portatili vanno in throttling, e le prestazioni vengono letteralmente uccise se si usano assieme CPU e GPU.
Invece il mio INTEL marchiato i7 ma in effetti X2, 5500U, pagato la bellezza di 750€ per un X2+2, dato per 2,4GHz def, passa a 1,8GHz SENZA CARICO VGA con OCCT, ma perchè è Intel (e non AMD), fa notizia BR, venduto alla metà, con una VGA di un grattacielo superiore all'equivalente Intel, abbassa il clock se pure la iGPU lavora al massimo. Si vedono gli aghi per AMD, ma passano inosservate le travi per Intel?

Ma dipende il tutto dalle temp. Il procio non è scritto da nessuna parte che deve avere un determinato TDP altrimenti non lavora, perchè dello stesso modello procio ci sono anche più versioni TDP (45W, 65W, 95W) ma la temperatura di funzionamento idonea ed il TDP è relativo (naturalmente denrtro i limiti del package e silicio) perchè a TDP superiore ovviamente serve una dissipazione più performante.

Il trolling dei proci non è dovuto al TDP in senso stretto, ma alla temperatura raggiunta. Se sei con il mobile d'inverno, probabile che il procio non abbassa la frequenza (AMD come Intel) contrariamente ai mesi estivi, semplicemente perchè non sfora il TDP ma sfora la massima temperatura e quindi va in protezione.
E' ben differente la cosa, tra esempio un 6900K ed un BR APU.
Nel primo si applica una diminuzione della frequenza con la FP e AVX2 perchè i 3,2GHz non li può tenere perchè sfora i 140W TDP.
Nel secondo caso, BR in qualsiasi condizione non sfora il TDP, ma se non ben dissipato, il calore sale e il procio va in protezione, ma questo NON vuole dire SEMPRE, come nel 6900K, ma per le temp.
Poi ti chiedo... ma Intel quando ti vende il procio, te lo dice che non sempre va alla frequenza def? Perchè io sta cosa l'ho saputa qui... e penso che la maggior parte di chi l'ha acquistato non lo sappia...

Secondo te tutti i processori li puoi portare alle frequenze che vuoi, semplicemente perché hai la possibilità di cambiare dei valori nel firmware e hai un buon sistema di dissipazione?

MAI DETTO (postami dove l'avrei scritto)
Io ho detto che quando ci sono margini (ed un Zen X8 95W l'ha di più risèetto ad un altro procio sempre X8 ma 140W) aumentare i parametri Vcore si può ottenere frequenze maggiori.
Siccome un 6900K ha (al momento) +50MHz a fronte di +45W, io direi che difficilmente (IMPOSSIBILE) che un Zen a parità di TDP di un 6900K non possa abbondantemente superare i -50MHz, che poi tu dica che sono fantasticherie perchè non esiste un Zen >95W, quello è un tuo problema, mio no di certo, io occo e chi occa porta il TDP al massimo di quello che il proprio impianto di dissipazione può reggere.

I nuovi processi produttivi non sembrano dei campioni nel raggiungere frequenze elevate, mantenendo al contempo consumi ridotti. E non credo che la cosa possa essere così facilmente risolta con un buon impianto.
Aspetta, di nuovi processi produttivi di chi? Stai evidenziando la situazione Intel e deducendo che se Intel non ci riesce allora nessun'altro? Sulla base di cosa? Nel desktop cosa hai di alternative al 32nm SOI e al 28nm Bulk entrambi di GF? Per me possibilissimo (anzi, direi scontato nero su bianco) che Zen sul 14nm GF o 16nm TSMC avrà certamente frequenze superiori per proci 8 core maggiori di Intel.

Ryddyck
13-11-2016, 12:47
*

Senza contare che alcuni s.o. (sicuramente Linux; non so come sia messo Windows), aggiornano il microcodice delle CPU al loro avvio, e dunque provvedono a fornire l'ultima versione che il produttore di CPU ha messo a disposizione.

Che non non brillano. :fagiano:

?!? Mi pare insensato, visto che è stata la stessa AMD a presentare Zen usando Blender.
Sinceramente non saprei, usualmente visto che l'aggiornamento del microcode viene rilasciato tramite aggiornamento del bios per i vari produttori non si necessità di un sistema operativo in linea generale.
Per i bench di blender, completamente spariti nel nulla! http://blenchmark.com/cpu-benchmarks

bjt2
13-11-2016, 12:51
Di Dresdenboy ne hai parlato tu, e non so se effettivamente la pensava così, o fosse una semplice battuta.

Non lo so... Ha anche detto che sarebbe stato meglio se avesse cancellato quel tweet... Ma non lo ha fatto: https://twitter.com/Dresdenboy/status/796628148771287040
https://twitter.com/Dresdenboy/status/796632942391001088

Ma la tua non appare di certo una battuta, perché hai continuato a speculare (nonché a fare altre "battute") su BIOS et similia, sia qui sia su AnandTech.

Quando sia qui sia su AnandTech (soprattutto) ci sono altri utenti che hanno smontato certe assurdità emerse da quel thread.

Ma continui a crederci, e a ricamarci sopra: è questo il punto.

Vuoi continuare a credere che servano TRENTA minuti per azzerare la sola memoria CMOS per i settaggi (perché è di questo si parlava, e non di flashare l'intero firmware), che peraltro è costituita da pochi KB? Fai pure.

Io preferisco dedicarmi ad altro di ben più utile. ;)

Stavo cercando di capire e fare ipotesi sulla possibile veridicità... Ma i 30 minuti di reset del BIOS, gli altissimi (troppo alti) vcore, fanno pensare anche a me che siano tutte (o quasi) cazzate. Alcune affermazioni verosimili (3.8GHz OC) e altre inventate... Ho cambiato idea. Solo gli stupidi non cambiano idea... :)

Non mi pare che si tratti di qualche linea PCI-Express in più, ma di diverse.

Inoltre Skylake-X sarà dotato di 10 core, anziché 8. Il tutto sotto il classico cappello dei 140W.

Non mi sembrano cambiamenti da poco.

De gustibus, ma gli standard non cambiano così rapidamente da giustificare simili decisioni. Passano anni...

Beh i cambiamenti ai core senza cambio di TDP non necessitavano di un nuovo socket. Le linee PCIexpress in più possono però effettivamente aiutare, se sono dedicate ai nuovi SSD... Ormai NVIDIA e AMD stanno dismettendo CF e SLI a molte schede... Ma una piattaforma high end con molti SSD PCIEx, magari in RAID... :sbav:

bjt2
13-11-2016, 12:54
Senza contare che alcuni s.o. (sicuramente Linux; non so come sia messo Windows), aggiornano il microcodice delle CPU al loro avvio, e dunque provvedono a fornire l'ultima versione che il produttore di CPU ha messo a disposizione.

Mi pare che sia questo il compito del driver del processore, su Windows...

paolo.oliva2
13-11-2016, 13:07
@cdimauro.

Io conosco il 45nm SOI come conosco il 32nm SOI per esperienza diretta in OC.
Conosco architetturalmente i limiti (in OC) di un Thuban e di un 8350.
Riesco a percepire dove sta il limite silicio e dove il limite architetturale.

Il 32nm ha segato le prestazioni di BD mentre un Phenom II ha potuto esprimere tutta la potenza architetturale senza ostacolo alcuno dal silicio. Il confronto Thuban vs 8150 è normale, visto che sono prodotti commerciali. Non è normale il confronto di architettura sulla base dei risultati dei proci commerciali, semplicemente perchè a quel punto entra in scena il silicio e differenze di PP. E' ovvio che Phenom II + 45nm SOI giudicato uno dei migliori PP di AMD ed il 32nm che per molti ha un PP peggiore del 65nm che a detta della stessa AMD è stato il processo in assoluto peggiore, di differenze ne mette e molte.

I FATTI:
Un 9590 venduto a 4,7GHz def e 5GHz turbo e aperto a +600MHz di OC sulla frequenza base ne è la prova... ma a 220W TDP nominali.
Prova a ipotizzare un Thuban a 220W, IMPOSSIBILE, perchè architetturalmente il Phenom II ha un muro a 4,5GHz e l'RS lo perde oltre i 4,4GHz, mentre un 8370 a quella frequenza lo porti con il dissi stock e downvoltando e pure ad un TDP inferiore al nominale.

Questo non è il silicio, ma l'FO4 magico di BD. Sullo stesso 32nm il Phenom II ha fatto schifo. Tu continui a guardare frequenze senza considerare l'FO4, ed è lo stesso errore sulla valutazione delle frequenze di Zen.

Il 32nm SOI è arrivato a 4GHz di frequenza def simile ai 4GHz del 6700K. Come mai? Ma se l'FO4 17 dovrebbe guadagnare dai 500MHz a 1GHz, come mai Intel ci arriva con un FO4 molto più alto alla stessa frequenza e con un TDP migliore?
Ti dirò, sinceramente... a me che Zen vada o meno, non mi importa, mi importa il prezzo prestazioni. Però vorrei che vada per vedere dove pari, se fino ad ora non fai altro che dire che il silicio Intel è migliore del 15% verso tutti gli altri, l'architettura Intel è lo stato dell'arte, ma se un Zen avrà consumo/prestazioni se non migliore almeno uguale, come lo spiegheresti? Nessuno toglie la bontà dell'architettura Intel, ma nessuno vuole capire che l'attuale differenza prestazionale viene solo in parte dall'architettura, il più è tutto merito del silicio, perchè i 4,2GHz di Skylake non è l'architettura (per l'FO4 dovrebbe girare a 3,5GHz al max, il resto sono i miliardi di $ nel PP silicio) come un X10 nei 140W NON LO FAI con un 32nm (a frequenze desktop).
E vedrai che qualsiasi consumo/prestazioni avrà zen, è dovuto non al cambio architetturale ma al pareggio (ops, Zen 20nm e Intel 14nm) del silicio, e la tanto decantata efficienza architetturale Intel, sparirà completamente (nonostante il silicio migliore).

Prova a domandare in questo TH a chi ha avuto un FX se è dispiaciuto dell'acquisto o soddisfatto del prezzo/prestazioni e per quanto ci ha smanettato, magari in OC.
E' questo il punto... perchè per te BD è stato un fail, per me e per altri è stata la manna perchè per 300€ facevi un sistema con 8350 e una mobo al top dell'alimentazione, quando con gli stessi soldi ti bastavano appena per un i3, che tu battezzi stato dell'arte, ma che rimane sempre ed unicamente un X2 + SMT.
Comunque è sorprendente che chi giudica un cesso l'architettura BD ha sempre una opinione sbalorditiva del PP 32nm SOi.

sgrinfia
13-11-2016, 13:34
A che frequenze? :O

Dai 1.6Ghz vs 2.0Ghz,tutto questo dentro una scatola mal dissipata :) .

Gioz
13-11-2016, 13:50
Perché non ti guardi il leak coi risultati dei test su AotS? Ma tieni a portata di mano un pacco di fazzoletti. :asd:

però li sarà da vedere che cpu è questa da 2.8/3.2GHz e dove si colloca nel listino amd.
credo che quel bench "servisse" per mostrare il guadagno sugli FX8XXX e più in generale con le cpu "di quella generazione", a prescidnere da quanto sia avanti o dietro i due intel messi a paragone.
per fare un esempio, non è che siccome qui (http://www.techspot.com/review/1081-dx11-vs-dx12-ashes/page5.html) nel primo test e nel terzo fx8350, i3 6100 ed i7 6700K hanno una performances perfettamente confrontabile allora chi prende l'i7 6700K deve dispiacersi perché ha un processore pari all'i3 6100.

Roland74Fun
13-11-2016, 14:59
per fare un esempio, non è che siccome qui (http://www.techspot.com/review/1081-dx11-vs-dx12-ashes/page5.html) nel primo test e nel terzo fx8350, i3 6100 ed i7 6700K hanno una performances perfettamente confrontabile allora chi prende l'i7 6700K deve dispiacersi perché ha un processore pari all'i3 6100.
Qualcuno mi spieghi perché se l'8350 fa 50 fps con una 980 e 37 con una fury la colpa é del processore....
A quanto ho letto il problema é che Nvidia sfrutta meglio le cpu....o non ho capito bene?

cdimauro
13-11-2016, 15:31
Come da nessuna parte sta scritto che non lo si debba fare.
Mai negato questo, mi pare. Ho solo precisato che non è affatto vero che i processori "K" debbano essere usati per l'overclock.
Ma spiegami una cosa... se io occo e aumento il Vcore... il TDP non può aumentare perchè sono FANTASIE un procio con maggiore TDP di quello dichiarato dalla casa?

Gente, se occate non comprate alcun dissipatore, perchè cdimauro dice che sono fantasie perchè NON ESISTE un procio con TDP superiore rispetto a quello venduto.
Se non te ne fossi ancora accorto, parlo di processori stock & mainstream: quelli che fanno il mercato E (congiunzione) i soldi di Intel, AMD, ecc.

Poi tu puoi farci quello che vuoi. Ovviamente se ci riesci.
Mi posti dove ho detto ciò?
Io ho detto che l'OC è garantito, dove ho scritto una spedifica frequenza GHz garantita?
Ecco qui:

"Poi secondo me sottovaluti il discorso overclock. Sia AMD che Intel, affiancano prodotti overcloccabili a proci lisci, all'uscita fanno presentazioni di quale frequenza il loro procio può raggiungere, e applicano un listino maggiorato per quelle versioni, e la gente compra."

:read:
Perchè devi distorgere quello che dico per girare la frittata e far passare che dico cazzate?
Mi pare di aver dimostrato innumerevoli volte che non ho affatto bisogno di rigirare alcunché: sono perfettamente in grado di discutere e argomentare senza passare per questi mezzucci retorici. Piuttosto dovresti badare a quello che fai tu, invece.

Per il resto, direi che sì: ne hai scritte parecchie balle.
Per te non esiste un Zen 140W SOLAMENTE sulla base che non è venduto :doh:, quando già una versione OC SENZA DISSI, è palesemente per far installa il kit di dissipazione al cliente in base a quale TDP vorrà arrivare in OC.
Intanto vedi sopra.

Poi, che ti piaccia o meno, il limite del TDP non dipende dai desiderata e/o kit di dissipazione. Giusto per essere chiari, non è che se prendo un processore da 95W allora sarà sicuramente in grado di fargli consumare 950W perché ho deciso così.
Invece il mio INTEL marchiato i7 ma in effetti X2, 5500U, pagato la bellezza di 750€ per un X2+2, dato per 2,4GHz def, passa a 1,8GHz SENZA CARICO VGA con OCCT, ma perchè è Intel (e non AMD), fa notizia BR, venduto alla metà, con una VGA di un grattacielo superiore all'equivalente Intel, abbassa il clock se pure la iGPU lavora al massimo. Si vedono gli aghi per AMD, ma passano inosservate le travi per Intel?
Qui stai cercando di ribaltare la frittata. E meno male che accusi me di questo.

Cosa non ti è chiaro del fatto che sei stato TU ad accusare Intel di fare così, E (congiunzione) al contempo hai messo la mano sul fuoco che con AMD questo non succede?

Io ho SOLTANTO (!) dimostrato che per AMD, invece, succede eccome.
Ma dipende il tutto dalle temp. Il procio non è scritto da nessuna parte che deve avere un determinato TDP altrimenti non lavora, perchè dello stesso modello procio ci sono anche più versioni TDP (45W, 65W, 95W) ma la temperatura di funzionamento idonea ed il TDP è relativo (naturalmente denrtro i limiti del package e silicio) perchè a TDP superiore ovviamente serve una dissipazione più performante.
E serve che il processore sia in grado di arrivarci. Altrimenti si sarebbe arrivati a processori da 95W alimentati direttamente dal nocciolo di una centrale nucleare: tanto basta aver un buon dissipatore...
Il trolling dei proci non è dovuto al TDP in senso stretto,
Trolling? :D
ma alla temperatura raggiunta. Se sei con il mobile d'inverno, probabile che il procio non abbassa la frequenza (AMD come Intel) contrariamente ai mesi estivi, semplicemente perchè non sfora il TDP ma sfora la massima temperatura e quindi va in protezione.
E' ben differente la cosa, tra esempio un 6900K ed un BR APU.
Nel primo si applica una diminuzione della frequenza con la FP e AVX2 perchè i 3,2GHz non li può tenere perchè sfora i 140W TDP.
Nel secondo caso, BR in qualsiasi condizione non sfora il TDP, ma se non ben dissipato, il calore sale e il procio va in protezione, ma questo NON vuole dire SEMPRE, come nel 6900K, ma per le temp.
Non è così, e peraltro se ne sta discutendo proprio su AnandTech: non soltanto BR sfora nel TDP, ma le frequenze si riducono drasticamente a pieno carico.

Chiedi a bjt2.
Poi ti chiedo... ma Intel quando ti vende il procio, te lo dice che non sempre va alla frequenza def? Perchè io sta cosa l'ho saputa qui... e penso che la maggior parte di chi l'ha acquistato non lo sappia...
C'è tutto su ark.intel.com.
MAI DETTO (postami dove l'avrei scritto)
E io non te l'ho mai affibbiato (anche perché, come già detto, non ne ho affatto bisogno): era una domanda (retorica).
Io ho detto che quando ci sono margini (ed un Zen X8 95W l'ha di più risèetto ad un altro procio sempre X8 ma 140W) aumentare i parametri Vcore si può ottenere frequenze maggiori.
SE regge, sì.
Siccome un 6900K ha (al momento) +50MHz a fronte di +45W, io direi che difficilmente (IMPOSSIBILE) che un Zen a parità di TDP di un 6900K non possa abbondantemente superare i -50MHz, che poi tu dica che sono fantasticherie perchè non esiste un Zen >95W, quello è un tuo problema, mio no di certo, io occo e chi occa porta il TDP al massimo di quello che il proprio impianto di dissipazione può reggere.
Ti ho già spiegato cosa ne penso, in tutte le salse. Vedi anche sopra.
Aspetta, di nuovi processi produttivi di chi? Stai evidenziando la situazione Intel e deducendo che se Intel non ci riesce allora nessun'altro? Sulla base di cosa? Nel desktop cosa hai di alternative al 32nm SOI e al 28nm Bulk entrambi di GF? Per me possibilissimo (anzi, direi scontato nero su bianco) che Zen sul 14nm GF o 16nm TSMC avrà certamente frequenze superiori per proci 8 core maggiori di Intel.
Intel ha UN solo processo produttivo, mentre prima ho parlato al plurale. Per cui era ovvio che non mi riferissi a Intel...

Per il resto, se permetti, vedremo, visto che quell di TSMC sono speculazioni tirate fuori dallo scimmione.
@cdimauro.

Io conosco il 45nm SOI come conosco il 32nm SOI per esperienza diretta in OC.
Conosco architetturalmente i limiti (in OC) di un Thuban e di un 8350.
Riesco a percepire dove sta il limite silicio e dove il limite architetturale.

Il 32nm ha segato le prestazioni di BD mentre un Phenom II ha potuto esprimere tutta la potenza architetturale senza ostacolo alcuno dal silicio. Il confronto Thuban vs 8150 è normale, visto che sono prodotti commerciali. Non è normale il confronto di architettura sulla base dei risultati dei proci commerciali, semplicemente perchè a quel punto entra in scena il silicio e differenze di PP. E' ovvio che Phenom II + 45nm SOI giudicato uno dei migliori PP di AMD ed il 32nm che per molti ha un PP peggiore del 65nm che a detta della stessa AMD è stato il processo in assoluto peggiore, di differenze ne mette e molte.

I FATTI:
Un 9590 venduto a 4,7GHz def e 5GHz turbo e aperto a +600MHz di OC sulla frequenza base ne è la prova... ma a 220W TDP nominali.
Prova a ipotizzare un Thuban a 220W, IMPOSSIBILE, perchè architetturalmente il Phenom II ha un muro a 4,5GHz e l'RS lo perde oltre i 4,4GHz, mentre un 8370 a quella frequenza lo porti con il dissi stock e downvoltando e pure ad un TDP inferiore al nominale.

Questo non è il silicio, ma l'FO4 magico di BD. Sullo stesso 32nm il Phenom II ha fatto schifo. Tu continui a guardare frequenze senza considerare l'FO4, ed è lo stesso errore sulla valutazione delle frequenze di Zen.

Il 32nm SOI è arrivato a 4GHz di frequenza def simile ai 4GHz del 6700K. Come mai? Ma se l'FO4 17 dovrebbe guadagnare dai 500MHz a 1GHz, come mai Intel ci arriva con un FO4 molto più alto alla stessa frequenza e con un TDP migliore?
Ti dirò, sinceramente... a me che Zen vada o meno, non mi importa, mi importa il prezzo prestazioni. Però vorrei che vada per vedere dove pari, se fino ad ora non fai altro che dire che il silicio Intel è migliore del 15% verso tutti gli altri, l'architettura Intel è lo stato dell'arte, ma se un Zen avrà consumo/prestazioni se non migliore almeno uguale, come lo spiegheresti? L'architettura Intel super, mazza, fanti et plus de plus, meno efficiente di Zen?

Prova a domandare in questo TH a chi ha avuto un FX se è dispiaciuto dell'acquisto o soddisfatto del prezzo/prestazioni e per quanto ci ha smanettato, magari in OC.
E' questo il punto... perchè per te BD è stato un fail, per me e per altri è stata la manna perchè per 300€ facevi un sistema con 8350 e una mobo al top dell'alimentazione, quando con gli stessi soldi ti bastavano appena per un i3, che tu battezzi stato dell'arte, ma che rimane sempre ed unicamente un X2 + SMT.
Comunque è sorprendente che chi giudica un cesso l'architettura BD ha sempre una opinione sbalorditiva del PP 32nm SOi.
Beh, se lo dimostrano anche i benchmark che sono stati fatti, c'è solo da prenderne atto. In passato ho postato NUMEROSI link, ma a quanto pare li hai saltati a pié pari.

Per il resto ho DIMOSTRATO, FATTI e NON fantasie alla mano, che IBM ha tratto tranquillamente beneficio degli "schifosi" 32nm SOI.

Che, te lo ricordo ancora una volta, erano frutto del lavoro di AMD, che peraltro all'epoca era pure pure ancora proprietaria (in parte) di GF, ossia della SUA costola. :read:

cdimauro
13-11-2016, 15:36
Non lo so... Ha anche detto che sarebbe stato meglio se avesse cancellato quel tweet... Ma non lo ha fatto: https://twitter.com/Dresdenboy/status/796628148771287040
https://twitter.com/Dresdenboy/status/796632942391001088
IMO anche lui aveva abboccato all'ipotesi del complotto. Peccato.
Stavo cercando di capire e fare ipotesi sulla possibile veridicità... Ma i 30 minuti di reset del BIOS, gli altissimi (troppo alti) vcore, fanno pensare anche a me che siano tutte (o quasi) cazzate. Alcune affermazioni verosimili (3.8GHz OC) e altre inventate... Ho cambiato idea. Solo gli stupidi non cambiano idea... :)
Bene. :)

Ma nemmeno i 3,8Ghz per me erano verosimili. Come già detto, se già ad Agosto c'erano queste frequenze, AMD avrebbe potuto tranquillamente beccare un processore buono a 3,2Ghz, invece, di essere costretta a downclockare il processore della concorrenza per quel test su Blender.

Se poi consideriamo pure che da Agosto fino a pochi giorni fa si parla di frequenze che sono arrivate a malapena a 3,15Ghz, direi che anche possiamo mettere una bella pietra tombale su questa bufala che il tizio s'è inventato.
Beh i cambiamenti ai core senza cambio di TDP non necessitavano di un nuovo socket. Le linee PCIexpress in più possono però effettivamente aiutare, se sono dedicate ai nuovi SSD... Ormai NVIDIA e AMD stanno dismettendo CF e SLI a molte schede... Ma una piattaforma high end con molti SSD PCIEx, magari in RAID... :sbav:
Infatti. Gli SSD hanno dimostrato di avere fame di banda, e il protocollo/interfaccia NVMe (nonché gli slot M.*) fa proprio uso di linee PCI-Express. ;)

cdimauro
13-11-2016, 15:41
Sinceramente non saprei, usualmente visto che l'aggiornamento del microcode viene rilasciato tramite aggiornamento del bios per i vari produttori non si necessità di un sistema operativo in linea generale.
La necessità c'è se i produttori di schede madri non aggiornano. ;)
Per i bench di blender, completamente spariti nel nulla! http://blenchmark.com/cpu-benchmarks
Visto. Che dire: mi sembra che la cosa getti ancora più dubbi su quello che AMD avrebbe in mano.
Mi pare che sia questo il compito del driver del processore, su Windows...
Vero. Avevo scordato i driver del processore. :stordita:
Dai 1.6Ghz vs 2.0Ghz,tutto questo dentro una scatola mal dissipata :) .
Certamente, ma sempre di frequenze basse si tratta. Che ben si sposano con un processo low-power. ;)
però li sarà da vedere che cpu è questa da 2.8/3.2GHz e dove si colloca nel listino amd.
Era un 8C/16T. Trovi tutte le informazioni sulla prima pagina del thread dedicato alle prestazioni di Zen, su AnandTech.
credo che quel bench "servisse" per mostrare il guadagno sugli FX8XXX e più in generale con le cpu "di quella generazione", a prescidnere da quanto sia avanti o dietro i due intel messi a paragone.
per fare un esempio, non è che siccome qui (http://www.techspot.com/review/1081-dx11-vs-dx12-ashes/page5.html) nel primo test e nel terzo fx8350, i3 6100 ed i7 6700K hanno una performances perfettamente confrontabile allora chi prende l'i7 6700K deve dispiacersi perché ha un processore pari all'i3 6100.
Non tutte le applicazioni possono far uso di più core/thread hardware. Purtroppo (e la situazione non è certo destinata a cambiare).

Per il resto i confronti con AotS erano principalmente coi processori Intel.

Gioz
13-11-2016, 15:47
Era un 8C/16T. Trovi tutte le informazioni sulla prima pagina del thread dedicato alle prestazioni di Zen, su AnandTech.
non hai capito, non dico che non si conoscano i parametri, già nel bench del gioco esce 8/16...intendo dire che non si sa quale cpu sia del listino se sarà a listino, mi pare improbabile che sia il modello di punta e che di conseguenza si possano trarre conclusioni sull'intera serie di cpu.
Non tutte le applicazioni possono far uso di più core/thread hardware. Purtroppo (e la situazione non è certo destinata a cambiare).
Per il resto i confronti con AotS erano principalmente coi processori Intel.
bisognerà vedere, è un test in un gioco specifico, può rappresentare molto...come molto poco, non trarrei conclusioni a prescindere. l'incremento di prestazioni rispetto al 8350 è di quasi il 40%, che può "aver senso" in linea con la presentazione di amd però è sicuramente una situazione incerta.

paolo.oliva2
13-11-2016, 15:55
@cdimauro

Onestamente devo capire perchè fanno ancora i bench di confronto con l'8350.
L'8350 paga il -18% di IPC verso un BR. BR è l'ultima versione di BD, Excavator, AM4 è l'ultimo socket.

A prescindere dai risultati, è l'ennesimo bench su bench dove si testa una situazione dove il numero dei core non influisce (in quel contesto) e dove conta la forza bruta. E allora? Vorresti forse dire che il mio 8470 è inferiore all'i3 6100?

A prescindere che quei risultati sono ottenuti con l'SO pulito e il sistema libero da qualsiasi altro task (stile antivirus), il che è già una situazione tipo non replicabile nel 99,9% dei PC reali a casa (e dove l'i3 sarebbe MOLTO più sensibile).
E cosa devo vedere? Che un i3 6100 pompa più di un 8350 e quanto un 6700K? Per me un X2+2 è un procio antidiluviano (senza offesa alcuna per i possessori), ed è una vergogna che uno sputo di silicio possa essere prezzato a quel modo.

Mi hai detto del pazzo di fazzoletti... a parte che AMD non mi da' da mangiare, quindi un problema per AMD è un suo problema... ma ti dirò... io al tuo posto avrei rimorsi di coscienza di lavorare per una ditta che prezza un X2 quanto un X4 e poi ti fa pure passare per idiota facendoti vedere come pompa nelle situazioni tipo dove un X2 può andare quanto un X4. Prova a fare una compressione, una conversione video, o a lavorarci seriamente, dopo 10 minuti lo tiri dalla finestra, il procio e il marchio a seguito.

bjt2
13-11-2016, 16:21
Infatti. Gli SSD hanno dimostrato di avere fame di banda, e il protocollo/interfaccia NVMe (nonché gli slot M.*) fa proprio uso di linee PCI-Express. ;)

Lo so... Ma per i primi modelli dovevi stare attento all'accoppiata MB/SSD: alcuni supportavano SATA e PCEx e alcuni solo uno dei due... E dovevi stare attento a prendere mb e ssd che si accoppiavano... Speriamo che tra un po' finisca questa confusione...

paolo.oliva2
13-11-2016, 16:35
Mai negato questo, mi pare. Ho solo precisato che non è affatto vero che i processori "K" debbano essere usati per l'overclock.
Ma se lo fai l'overclock, si alza o no il TDP del procio?
Se non te ne fossi ancora accorto, parlo di processori stock & mainstream: quelli che fanno il mercato E (congiunzione) i soldi di Intel, AMD, ecc.
Forse magari non hai notato che qui parlano di Zen X86 desktop, ed inoltre perchè continui a postare dove AMD(Intel fanno i soldi? Ma tu ci vai a letto con loro? A me se guadagnano o meno non frega una tozza, MOLTO MENO di quanto invece importa a me del prezzaggio del procio.

Ecco qui:

"Poi secondo me sottovaluti il discorso overclock. Sia AMD che Intel, affiancano prodotti overcloccabili a proci lisci, all'uscita fanno presentazioni di quale frequenza il loro procio può raggiungere, e applicano un listino maggiorato per quelle versioni, e la gente compra."


E dov'è che ho scritto "frequenze garantite"?. AMD fa la presentazione dell'8150, supera gli 8 GHz ad azoto, FA VEDERE CHE IL PROCIO PUO' AUMENTARE LA FREQUENZA DEF, ma non ti garantisce nulla su quale frequenza il TUO procio potrà arrivare, tranne garantirti (in senso lato) che il procio predisposto per l'OC dovrebbe far parte di una selezione migliore e garantire più frequenza a parità di TDP (nel senso più frequenza rispetto a quella def allo stesso TDP).
Poi è ovvio che sta nel buon senso di chi acquista capire l'aspettativa reale. Esempio, ti possono postare 1000 rece di 6700K @5GHz, resta il fatto che nel
reale è difficile guadagnare 100MHz oltre la frequenza turbo, cio+ si parla di max 4,3GHz, ma in fin dei conti siamo MOLTO abituati agli OC delle rece. Con gli AMD puntualmente perdono qualche centinaia di MHz rispetto ai nostri OC, con gli Intel l'esatto contrario, qualche centinaia di MHz in più (chissà perchè) e nel contempo OC ad aria interpretati per liquido per AMD (esempio BD @4,8GHz) e viceversa dissipazioni extraterrestri per Intel fatti passare per aria, ma oramai ci abbiamo fatto il callo, del motivo ce ne sbattiamo (sudditanza, mazzette, proci selezionati, a piacere, quello che è sicuro, che non sono REALI).

Mi pare di aver dimostrato innumerevoli volte che non ho affatto bisogno di rigirare alcunché: sono perfettamente in grado di discutere e argomentare senza passare per questi mezzucci retorici. Piuttosto dovresti badare a quello che fai tu, invece.
Poi, che ti piaccia o meno, il limite del TDP non dipende dai desiderata e/o kit di dissipazione. Giusto per essere chiari, non è che se prendo un processore da 95W allora sarà sicuramente in grado di fargli consumare 950W perché ho deciso così.

Lo vedi o no che continui sempre a sparare stronzate su cose che non ho detto?

HO PARLATO DI OC RS/DU 170W (tu fai un esempio a 950W?:confused: ma che mazza c'entra? Ma chi porterà mai un procio oltre a 220W a liquido?) Addirittura ho specificato 8 core, perchè chiaramente 170W sarebbero troppi per un X2.


Qui stai cercando di ribaltare la frittata. E meno male che accusi me di questo.

Azzo, mi sembra di avere a che fare con i bambini. 3 righe con scritte ad cactus e poi mi fai la paternale?


Cosa non ti è chiaro del fatto che sei stato TU ad accusare Intel di fare così, E (congiunzione) al contempo hai messo la mano sul fuoco che con AMD questo non succede?
Cosa non ti è chiaro in questo? Io non ringrazio Intel di fare i proci e non la ringrazio per quanto li fa pagare e per me la reputazione di Intel vale quanto la carta igienica che getti nel WC a fine travaglio. Il mondo del commercio è così? Benissimo... spero in AMD, se poi AMD farà la stessa cosa, saranno 2 i rotoli di carta igienica. Ma se tu sei innocentista finchè non ci sono prove, perchè dovrei colpevolizzare AMD quando non c'è manco il comportamento? Del comportamento di Intel lo conosciamo tutti, solo tu non vedi e non ricordi

Non è così, e peraltro se ne sta discutendo proprio su AnandTech: non soltanto BR sfora nel TDP, ma le frequenze si riducono drasticamente a pieno carico.

A prescindere che non ho BR e quindi la cosa non mi importa... ma sono i tuoi aggettivi che sono di bandiera. Per il 6900K hai usato "cali di frequenza irrilevanti" e "TDP reali bassi in base ai test sui consumi" e portavi ad esempio TDP sotto i 110W.
Il reale è che il 6900K supera i 140W e di quasi 10W, e le frequenze calano, ma il risultato che fai finta di non capire è che Intel vende un procio a 3,2GHz per 140W quando NON PUO' reggere quella frequenza a quel TDP.
E ti ricordo che questo Intel l'ha fatto altre volte in passato (ne abbiamo già discusso e ti avevo postato i modelli), e per me NON E' CORRETTO!!! ed il primo motivo, è che non ha NESSUNISSIMA esigenza per farlo, tranne giustificare costi in base a frequenze maggiori del reale. Io pago un procio 1100€ per 3,2GHz e poi come scusa mi verrebbero a dire che la circolare Intel riporta.... che cacchio me ne frega? PRIMA di venderlo te lo devono dire, non dopo. E questo per Intel è la prassi normale, per me NON E' corretto, ed è per questo che Intel continua a non piacermi.

Intel ha UN solo processo produttivo, mentre prima ho parlato al plurale. Per cui era ovvio che non mi riferissi a Intel...

Quello che intendevo era differente. Il PP è unico, ma nella ricerca di quel PP, Intel ha perseguito più strade, e si ritroverà affinamenti differenti, nel bilanciamento frequenze/consumo.
E' logico che a parità di PP, un 6700K sarà più proiettato alla frequenza massima rispetto ai consumi di quanto un X22 sempre Intel e sempre lo stesso PP.
Ad esempio, il mio 5500U richiede 0,98V in idle e 1,286V a 3GHz. Leggevo dei 6900K/6950X a Vcore sotto 1V a 3GHz, cacchio, c'è una differenza di 0,3V, UNA VITA.

Per il resto ho DIMOSTRATO, FATTI e NON fantasie alla mano, che IBM ha tratto tranquillamente beneficio degli "schifosi" 32nm SOI.
Veramente non hai dimostrato assolutamente nulla, visto che ti hanno postato anche altri.
Guadagni irrisori, proci non confrontabili in quanto costo produzione nettamente differente (IBM può aver aumentato il costo di produzione inserendo più layer, cosa che AMD non poteva fare, in quando BD aveva un target di 300€, quanto costa un power di IBM?). L'unica cosa che hai dimostrato è che vuoi addossare interamente sull'architettura BD il non raggiungimento di determinate potenze, e vai tranquillo che l'hai dimostrato più che bene (questo) ma non hai convinto nessuno del PP 32nm SOI, perchè non c'è nulla da capire, lo conosciamo già che è al di sotto delle aspettative, inutile che ti sforzi ulteriormente, come del resto oggi si confronta ancora l'8350 sul 32nm al posto di BR che è sempre BD ma versione Excavator, che almeno sul 28nm come APU è 65W, facendo credere che i consumi siano dovuti all'architettura e non (come in realtà) per l'85% e più al silicio.

Che, te lo ricordo ancora una volta, erano frutto del lavoro di AMD, che peraltro all'epoca era pure pure ancora proprietaria (in parte) di GF, ossia della SUA costola. :read:
Ti ricordo ancora una volta che AMD ha capitalizzato bene vendendo le SUE FAB proprio perchè acquisivano valore sulla futura produzione 32nm SOi e 22nm SOI. Nessuno sapeva allora che il 32nm SOI sarebbe stato una ciofeca ed il 22nm SOI addirittura cancellato. L'8150 è stato commercializzato quando AMD aveva già venduto le FAB a GF da almeno 6 mesi (se non 1 anno), ben prima che ci si accorse delle frequenze inferiori del silicio (a riprova è quanto ha pagato GF per acquisirle, senza 32nm SOI e soprattutto senza l'aspettativa del 32nm SOI, AMD non ci avrebbe preso una mazza).
Quindi come fai a collegare il progetto BD al 32nm SOI ancora di proprietà di AMD? NON HA SENSO. Non distorgiamo sempre la realtà a bandiera.

shellx
13-11-2016, 17:42
Senza contare che alcuni s.o. (sicuramente Linux; non so come sia messo Windows), aggiornano il microcodice delle CPU al loro avvio, e dunque provvedono a fornire l'ultima versione che il produttore di CPU ha messo a disposizione.

cut..

No no aspetta: si è vero che linux aggiorna il microcode della cpu ad ogni avvio, ma riferendosi sempre al bios, nel senso controlla che il bios non sia stato aggiornato (e quindi avente un nuovo m.code della cpu), se vede sempre lo stesso, il microcode rimane l'analogo (come tutto il resto), in caso invece al check-start vede un nuovo bios, allora aggiorna il funzionamento di tutti i cambiamenti hardware (apportati dal nuovo bios), ricompilandolo al kernel. Non si collega di certo ai mirrors del produttore per aggiornare il microcode, anche perchè questo approccio sarebbe instabile, in quanto se per motivi "x" il produttore cambia target ftp dei mirror, il tuo sistema operativo rimarrebbe sempre obsoleto dal punto di vista di istruzioni di funzionamento hardware all'interno del kernel.
E comunque sembra buffo, ma la stessa cosa fa pure winzozz, ma lo fa con un approccio diverso.

paolo.oliva2
13-11-2016, 18:50
Volevo fare una precisazione sul contesto frequenza e TDP.

Ricordiamoci che fino ad oggi, il TDP di AMD era predittivo, cioè le frequenze e relativo TDP erano calcolati a priori, nelle condizioni più disparate, e si assegnavano le frequenze idonee.
Per chiarire il concetto, un 8150 era venduto per 3,6GHz, ma poteva arrivare a 3,9GHz con carico su tutti i core (anche se in realtà mai visto superare i 3,7GHz :D). Il turbo se 2 core era 4,2GHz.

Da consumatore, io reputo corretto che AMD abbia venduto l'8150 per 3,6GHz def e non per 3,9GHz def.

AMD quando imposta un TDP, dichiara che il procio IN QUALSIASI CONDIZIONE DI CARICO non supererà quel TDP.

Ma con il TDP il produttore evidenzia 2 cose, il calore da smaltire e il consumo del procio.
Ovviamente il calore è una cosa, e sia il produttore del procio che l'assemblatore del sistema ne tengono conto, ma non è ruschioso, perchè il procio si "difende" automaticamente da solo, abbassando le frequenze.
Il consumo invece è un tasto delicato, perchè se il produttore mi dichiara 95W, dimensionerò l'alimentatore e mobo per 95W e non per 100W o più.
Ma un effettivo consumo maggiore, potrebbero quindi far saltare alimentatore e/o mobo del sistema, con rivalsa al produttore del procio.
E' ovvio che il produttore del procio se ne guarda e bene di sforarlo.

Di tutta sta storia, che tra l'altro non me ne fotte una mazza, puntualizzo che un 6900K ha un TDP 140W nominale, viene fatto passare come se non consuma una mazza perchè i test di pinco pallo riportano... No! Il 6900K con l'uso dell'FP arriva tranquillamente a 140W e li passa (149W) nonostante il procio abbassi le frequenze operative per contenere lo sforamento. Io avrei trovato più corretto commercializzarlo ad una frequenza inferiore e magari pubblicizzarlo Turbo su 8 core a 3,2GHz, a seconda del carico, che 3,2GHz e poi non li mantiene. A me piace riportare la verità, e questa è la realtà. PUNTO.

Ryddyck
13-11-2016, 19:02
Il tdp non è il consumo di picco del processore, ne avevamo già discusso sempre in questo thread alcune pagine fa...

Gioz
13-11-2016, 19:12
Volevo fare una precisazione sul contesto frequenza e TDP.

Ricordiamoci che fino ad oggi, il TDP di AMD era predittivo, cioè le frequenze e relativo TDP erano calcolati a priori, nelle condizioni più disparate, e si assegnavano le frequenze idonee.
Per chiarire il concetto, un 8150 era venduto per 3,6GHz, ma poteva arrivare a 3,9GHz con carico su tutti i core (anche se in realtà mai visto superare i 3,7GHz :D). Il turbo se 2 core era 4,2GHz.

Da consumatore, io reputo corretto che AMD abbia venduto l'8150 per 3,6GHz def e non per 3,9GHz def.

AMD quando imposta un TDP, dichiara che il procio IN QUALSIASI CONDIZIONE DI CARICO non supererà quel TDP.

Ma con il TDP il produttore evidenzia 2 cose, il calore da smaltire e il consumo del procio.
Ovviamente il calore è una cosa, e sia il produttore del procio che l'assemblatore del sistema ne tengono conto, ma non è ruschioso, perchè il procio si "difende" automaticamente da solo, abbassando le frequenze.
Il consumo invece è un tasto delicato, perchè se il produttore mi dichiara 95W, dimensionerò l'alimentatore e mobo per 95W e non per 100W o più.
Ma un effettivo consumo maggiore, potrebbero quindi far saltare alimentatore e/o mobo del sistema, con rivalsa al produttore del procio.
E' ovvio che il produttore del procio se ne guarda e bene di sforarlo.

Di tutta sta storia, che tra l'altro non me ne fotte una mazza, puntualizzo che un 6900K ha un TDP 140W nominale, viene fatto passare come se non consuma una mazza perchè i test di pinco pallo riportano... No! Il 6900K con l'uso dell'FP arriva tranquillamente a 140W e li passa (149W) nonostante il procio abbassi le frequenze operative per contenere lo sforamento. Io avrei trovato più corretto commercializzarlo ad una frequenza inferiore e magari pubblicizzarlo Turbo su 8 core a 3,2GHz, a seconda del carico, che 3,2GHz e poi non li mantiene. A me piace riportare la verità, e questa è la realtà. PUNTO.
Il tdp non è il consumo di picco del processore, ne avevamo già discusso sempre in questo thread alcune pagine fa...
ed inoltre paolo, se mi aspetto che potrà assorbire 95-100-140-250 W allora sarà bene metterci un alimentatore e la mobo per "un tot" oltre, dato che un sistema di alimentazione al 90-100% del suo possibile carico non potrà mai essere efficiente e stabile quanto uno analogo al 50-60-80% del suo carico massimo.

il tdp è fortemente correlato al consumo per ovvie ragioni, quanto calore sviluppo dipende da quanta energia assumo, ma il consumo e come vada dimensionata l'alimentazione non è così scontato come sostieni.

Ren
13-11-2016, 19:59
no capitano, sia la PS4 che la XboxOne sono state prodotte da GF a 28nm, per lo shrink sono passate tutte e due a TSMC... la 480 ha un rapporto perf/watt peggiore della 1060 anche per questo, utilizza il nodo di GF, così come nvidia per il gp107 (1050/ti) utilizza il nodo a 14nm di GF e non il 16nm di TSMC come per le schede superiori, e i test hanno dimostrato propensione minore all'OC e maggior tensione per la stessa frequenza.

...qualcosa vorrà pur dire no :rolleyes:
speriamo bene...

Ha ragione il capitano. I vecchi SOC sono di produzione TSMC.
Adesso non cominciamo con il pianto del silicio 14nm per polaris...:p

PS4 :

https://www.chipworks.com/about-chipworks/overview/blog/look-sony’s-playstation-4-core-processor
The cross-section shows eleven copper metal layers, plus a top level aluminum not in the image. If we zoom in on the transistors we can see that they are using TSMC's 28-nm high-k, metal gate process, likely the 28HP variant used for the Radeon GPUs.

https://1.bp.blogspot.com/-Xvy-E9on0UM/VVCshAu8IRI/AAAAAAAAAWo/Ahci4webNsALF9JJEvFO-Sh2nbMfl21UQCKgB/s640/One7.png

capitan_crasy
13-11-2016, 20:00
no capitano, sia la PS4 che la XboxOne sono state prodotte da GF a 28nm, per lo shrink sono passate tutte e due a TSMC... la 480 ha un rapporto perf/watt peggiore della 1060 anche per questo, utilizza il nodo di GF, così come nvidia per il gp107 (1050/ti) utilizza il nodo a 14nm di GF e non il 16nm di TSMC come per le schede superiori, e i test hanno dimostrato propensione minore all'OC e maggior tensione per la stessa frequenza.

...qualcosa vorrà pur dire no :rolleyes:
speriamo bene...

Non insisto perchè ho solo conferme indirette (e non voglio neanche aprire un altra discussione inutile su questo thread) , ma basta fare delle ricerche e leggere i numeri OPN (che purtroppo sono un casino da decifrare visto la natura del processore stesso) sui SOC per stabilirne la provenienza.
Inoltre Jaguar e GPU AMD 28nm sono prodotti da TSMC e non avrebbe senso riprogettare e riadattare il silicio di GF, nato solo per far quadrare il post SOI con Kaveri/Carrizo, per andare poi su un altra fonderia.
Il progetto SONY per l'infrastruttura PS4 prevedeva un passaggio ai 16nm e anche il progetto Microsoft sulla versione slim; se si crede veramente che queste "nuove" versioni non siano il frutto di pianificazioni già studiate a tavolino anni prima si pecca di ingenuità.
La vera novità (chiamiamola così) si chiama scorpio e se non ci saranno sorprese anch'essa avrà il silicio made in TSMC.

Ren
13-11-2016, 20:01
Non insisto perchè ho solo conferme indirette (e non voglio neanche aprire un altra discussione inutile su questo thread) , ma basta fare delle ricerche e leggere i numeri OPN (che purtroppo sono un casino da decifrare visto la natura del processore stesso) sui SOC per stabilirne la provenienza.
Inoltre Jaguar e GPU AMD 28nm sono prodotti da TSMC e non avrebbe senso riprogettare e riadattare il silicio di GF, nato solo per far quadrare il post SOI con Kaveri/Carrizo, per andare poi su un altra fonderia.
Il progetto SONY per l'infrastruttura PS4 prevedeva un passaggio ai 16nm e anche il progetto Microsoft sulla versione slim; se si crede veramente che queste "nuove" versioni non siano il frutto di pianificazioni già studiate a tavolino anni prima si pecca di ingenuità.
La vera novità (chiamiamola così) si chiama scorpio e se non ci saranno sorprese anch'essa avrà il silicio made in TSMC.

Vedi sopra capitano ;)

bye

paolo.oliva2
13-11-2016, 20:06
ed inoltre paolo, se mi aspetto che potrà assorbire 95-100-140-250 W allora sarà bene metterci un alimentatore e la mobo per "un tot" oltre, dato che un sistema di alimentazione al 90-100% del suo possibile carico non potrà mai essere efficiente e stabile quanto uno analogo al 50-60-80% del suo carico massimo.
A suo tempo avevo acquistato l'Arkangel come ali, 750W, l'impianto a liquido è composto da 4 radiatori, 2 doppi e 2 singoli. Pompa e WB sono discreti. Ho un WC per pesci polari, il suo max è +3°, di certo non è il max ma aiuta.
Ovvio che poi la mobo è dimensionata al procio, ma il tutto regge bene un procio sui 220W TDP, almeno.

Il tdp è fortemente correlato al consumo per ovvie ragioni, quanto calore sviluppo dipende da quanta energia assumo, ma il consumo e come vada dimensionata l'alimentazione non è così scontato come sostieni.
Ho fatto un discorso semplice, ma il mio non era un discorso tecnico in sè, quanto la differenza tra riduzione frequenza per temperature procio (che si possono avere anche senza sforamento TDP) e per sforamento TDP, che ovviamente è la conseguenza di una frequenza troppo alta a monte.

Il discorso di sforamento temperature, è basato sulla potenza del sistema di dissipazione ma in stretta correlazione alla temperatura ambiente più che al carico. Non siamo nel genere militare dove tutto deve essere garantito al 100%, siamo in ambito civile, quindi è probabile (ipotizzo) che l'impianto di dissipazione (quale può essere il dissi stock) presumibilmente venga calcolato su una temp ambiente di certo non 0°. Per farti un esempio... il dissi stock dell'8150 e 8350 erano più che sufficienti in Italia, in condizione def, ma in Costa d'Avorio l'8150 ho dovuto portarlo a 3,5GHz e disabilitando il turbo e undervoltando, altrimenti mi sforava i 60°.
A grandi linee, ma non è una formula matematica nè precisione assoluta, se il procio è 40° con una temp ambiente di 20°, ogni grado ulteriore alla temp ambiente te lo ritrovi sul procio. Ovviamente se da 20° la temp ambiente ti passa a 45°, il procio da 40° arriva bene a 60° e di qui la diminuzione delle frequenze.
Lo stesso capita al mio portatile... se io lancio OCCT, la diminuzione della frequenza non è dovuta ad un sforamento del TDP, quanto invece temperature procio superiori. Se lo faccio la notte, si attesta a 2GHz, di giorno, con temp più alte, a 1,8GHz.

davo30
13-11-2016, 20:24
Non insisto perchè ho solo conferme indirette (e non voglio neanche aprire un altra discussione inutile su questo thread) , ma basta fare delle ricerche e leggere i numeri OPN (che purtroppo sono un casino da decifrare visto la natura del processore stesso) sui SOC per stabilirne la provenienza.
Inoltre Jaguar e GPU AMD 28nm sono prodotti da TSMC e non avrebbe senso riprogettare e riadattare il silicio di GF, nato solo per far quadrare il post SOI con Kaveri/Carrizo, per andare poi su un altra fonderia.
Il progetto SONY per l'infrastruttura PS4 prevedeva un passaggio ai 16nm e anche il progetto Microsoft sulla versione slim; se si crede veramente che queste "nuove" versioni non siano il frutto di pianificazioni già studiate a tavolino anni prima si pecca di ingenuità.
La vera novità (chiamiamola così) si chiama scorpio e se non ci saranno sorprese anch'essa avrà il silicio made in TSMC.
Però la penale pagata da Amd risale allo scorso trimestre. Imho c'è qualquadra che non cosa....

Inviato dal mio XT1092 utilizzando Tapatalk

george_p
13-11-2016, 20:33
Però la penale pagata da Amd risale allo scorso trimestre. Imho c'è qualquadra che non cosa....

Inviato dal mio XT1092 utilizzando Tapatalk

Penso che dietro quella penale ci sia la volontà di amd di rendersi più indipendente da glofo, e non sia troppo legata ad essa. Sarebbe ora.

Gioz
13-11-2016, 20:42
Ho fatto un discorso semplice, ma il mio non era un discorso tecnico in sè, quanto la differenza tra riduzione frequenza per temperature procio (che si possono avere anche senza sforamento TDP) e per sforamento TDP, che ovviamente è la conseguenza di una frequenza troppo alta a monte.

Il discorso di sforamento temperature, è basato sulla potenza del sistema di dissipazione ma in stretta correlazione alla temperatura ambiente più che al carico. Non siamo nel genere militare dove tutto deve essere garantito al 100%, siamo in ambito civile, quindi è probabile (ipotizzo) che l'impianto di dissipazione (quale può essere il dissi stock) presumibilmente venga calcolato su una temp ambiente di certo non 0°. Per farti un esempio... il dissi stock dell'8150 e 8350 erano più che sufficienti in Italia, in condizione def, ma in Costa d'Avorio l'8150 ho dovuto portarlo a 3,5GHz e disabilitando il turbo e undervoltando, altrimenti mi sforava i 60°.
A grandi linee, ma non è una formula matematica nè precisione assoluta, se il procio è 40° con una temp ambiente di 20°, ogni grado ulteriore alla temp ambiente te lo ritrovi sul procio. Ovviamente se da 20° la temp ambiente ti passa a 45°, il procio da 40° arriva bene a 60° e di qui la diminuzione delle frequenze.
Lo stesso capita al mio portatile... se io lancio OCCT, la diminuzione della frequenza non è dovuta ad un sforamento del TDP, quanto invece temperature procio superiori. Se lo faccio la notte, si attesta a 2GHz, di giorno, con temp più alte, a 1,8GHz.
il tdp serve a dimensionare il sistema di raffreddamento, quando pagine fa dicevo che nell'ottica del tuo discorso il tdp fa ben sperare il senso era "se il pp permette di salire tanto in oc, supponendo un tdp basso ma un ipc molto migliorato rispetto all'architettura attuale, allora basterà un raffreddamento semplice ed economico per aumentare sensibilmente le prestazioni nominali" non significa che sarà ottimo da overclock a prescindere o che scalderà pochissimo, è un gioco di "se" sul pp e sulla frequenza conoscendo che serve un raffreddamento relativamente semplice per mantenerlo in condizione.
come utente il tdp interessa per capire cosa mettergli sopra per raffreddarlo e farlo funzionare sempre e comunque;
come progettista dell'heatsink serve per capire che superficie devo sviluppare e realizzare, così da creare un disegno geometrico/massa adeguato a partire dalla base di contatto. stop, altro non dice pur essendo chiaramente legato ad altre questioni.

il tuo discorso risulta un po' confusionale perché mischi il senso di quel valore un po' come assorbimento di energia elettrica/dimensionamento alimentazione e un po' come indice di overclockabilità, io credo che tu stia leggendo il tdp in modo improprio.
come dicevo pagine fa in passato i tdp indicati da intel/amd erano poco confrontabili perché basati su misurazioni diverse, ma un utente faceva notare che oggi applicano lo stesso metodo di misurazione...anche supponendo che sia così però non ti chiarisce le idee su tutto, se per ipotesi uno potessere reggere temperature molto più alte, allora alla stessa condizione ambientale leggeresti valori diverso rispetto all'altro e si tradurrebbe in un tdp nominale inferiore senza che necessariamente questo consumi meno.

il portatile che cala di frequenza perché supera la temperatura, lato raffreddamento, lo vedo proprio come un dissipatore progettato per un carico...che non riesce a smaltirlo e di conseguenza esce dal range di temperatura a cui può sostenere la tal frequenza.
la temperatura è un indice di stato, leggerla ti serve per capire cosa accade, se in seguito al lavoro svolto sale oltre la soglia entro cui il chip è in grado di funzionare in un certo modo dipende dal fatto che non stai smaltendo tanto calore quanto dovresti, la cosa è strettamente vincolata al tdp perché io disegno quel dissipatore in funzione di esso(che mi indica la potenza da smaltire alla tale temperatura ambientale per non superare la temperatura di esercizio prefissata).

quanto all'impianto suppongo ti occorra per forza una cosa del genere se vuoi overclockare questi processori, non sono mai stato in costa d'avorio ma deve fare un pelino più caldo che qua :sofico:

Theodorakis
13-11-2016, 20:45
Ha ragione il capitano. I vecchi SOC sono di produzione TSMC.
Adesso non cominciamo con il pianto del silicio 14nm per polaris...:p

PS4 :

https://www.chipworks.com/about-chipworks/overview/blog/look-sony’s-playstation-4-core-processor
The cross-section shows eleven copper metal layers, plus a top level aluminum not in the image. If we zoom in on the transistors we can see that they are using TSMC's 28-nm high-k, metal gate process, likely the 28HP variant used for the Radeon GPUs.

https://1.bp.blogspot.com/-Xvy-E9on0UM/VVCshAu8IRI/AAAAAAAAAWo/Ahci4webNsALF9JJEvFO-Sh2nbMfl21UQCKgB/s640/One7.png

https://www.techpowerup.com/reviews/Gigabyte/GTX_1050_Ti_G1_Gaming/images/gpu.jpg

GP107 è prodotto da Samsung ma sul chip c'è sempre Taiwan. Come mai? :D

capitan_crasy
13-11-2016, 20:45
Vedi sopra capitano ;)

bye

Visto grazie Ren ;) , ho in giro la stessa immagine ma è sperduta nel mio HDD...

Ren
13-11-2016, 20:53
https://www.techpowerup.com/reviews/Gigabyte/GTX_1050_Ti_G1_Gaming/images/gpu.jpg

GP107 è prodotto da Samsung ma sul chip c'è sempre Taiwan. Come mai? :D

Microsoft stessa ha pubblicata un paper dove specifica TSMC 28HPM. L'immagine è estrapolata del documento tecnico.
Se non ti basta trovati il Paper.;)

Forse il taiwan(forse) del gp107 è riferito alla società di packaging\testing o chissà cos'altro...

Bye

bjt2
13-11-2016, 23:12
Però la penale pagata da Amd risale allo scorso trimestre. Imho c'è qualquadra che non cosa....

Inviato dal mio XT1092 utilizzando Tapatalk

Probabilmente hanno prima fatto il tapeout su tsmc... Una volta visto che andava bene hanno pagato la penale...

Wolfhang
14-11-2016, 00:10
@cdimauro
Mi hai detto del pazzo di fazzoletti... a parte che AMD non mi da' da mangiare, quindi un problema per AMD è un suo problema... ma ti dirò... io al tuo posto avrei rimorsi di coscienza di lavorare per una ditta che prezza un X2 quanto un X4 e poi ti fa pure passare per idiota facendoti vedere come pompa nelle situazioni tipo dove un X2 può andare quanto un X4. Prova a fare una compressione, una conversione video, o a lavorarci seriamente, dopo 10 minuti lo tiri dalla finestra, il procio e il marchio a seguito.

Se prendi un A10 7870, che costa uguale ad un i3 6100, e ti metti a fare una compressione o una conversione video, magari lo butti prima dalla finestra...
http://www.anandtech.com/show/10543/the-skylake-core-i3-51w-cpu-review-i3-6320-6300-6100-tested/4
http://www.anandtech.com/show/10543/the-skylake-core-i3-51w-cpu-review-i3-6320-6300-6100-tested/5

tuttodigitale
14-11-2016, 00:18
no capitano, sia la PS4 che la XboxOne sono state prodotte da GF a 28nm, per lo shrink sono passate tutte e due a TSMC... la 480 ha un rapporto perf/watt peggiore della 1060 anche per questo, utilizza il nodo di GF, così come nvidia per il gp107 (1050/ti) utilizza il nodo a 14nm di GF e non il 16nm di TSMC come per le schede superiori, e i test hanno dimostrato propensione minore all'OC e maggior tensione per la stessa frequenza.

...qualcosa vorrà pur dire no :rolleyes:
speriamo bene...
a mio modo di vedere, POLARIS è semplicemente un progetto fatto in fretta e furia, per avere il prima possibile la produzione in volumi. I picchi nell'analisi di consumo, sono relativamente bassi per una scheda che consuma 150W e certamente una regressione di quanto visto in Fiji.

sulle più scarse prestazioni lato clock di gp107, non è certamente da imputare al processo Samsung....

Stando ai rumors, Vega sarà comunque sui 14nm LPP.

Wolfhang
14-11-2016, 01:05
di "poco"....
AMD aveva dichiarato prestazioni superiori del 50% rispetto al 1100T, su 3 test, compreso cinebench e 3dmark...
avevo fatto i conti tempo fa, ed era uscita una frequenza di 5GHz su tutti i core (non necessariamente base)....se poi vogliamo fare finta che a "soli" 3 mesi dal lancio AMD non conoscesse l'ipc di Bulldozer....


Alla faccia dei tre mesi, quelle dichiarazioni risalgono come minimo a nove mesi prima del lancio di Bulldozer, guarda caso sono uscite poco dopo il lancio di Sandy Bridge:
http://www.hwupgrade.it/forum/showpost.php?p=34268777&postcount=8312
poi non so da dove ti risultino quei 5GHZ su tutti i core visto che Bulldozer ha un 33% in più di core, frequenza maggiore (specie con Piledrive) e come minimo, ripeto, come minimo, ma proprio come minimo, avrebbe dovuto avere un IPC uguale a K10.
Col senno di poi è facile fare previsioni ma non sto qui a riportare vecchi post (riportanti anche dichiarazioni di AMD) dei guru del thread aspettando Bulldozer, riguardanti l'IPC dello stesso, altrimenti verrei accusato di ineleganza, scarsa sensibilità, scarso rispetto e chi più ne ha più ne metta, ma intanto tutto fa brodo per dichiarare frequenze di fantasia delle quali non esiste traccia in nessuna dichiarazione o slide ufficiale di AMD.
Se qualcuno, in quel thread, avesse osato dire che Bulldozer aveva un IPC inferiore a K10 sarebbe stato, nelle migliori delle ipotesi, messo al muro e fucilato immediatamente.
Poi è divertente leggere (con sfottò dei sostenitori AMD) che Intel da una generazione all'altra di processori guadagna solamente il 5/10% di IPC, mentre AMD, con Bulldozer ne ha perso, ad essere ottimisti, il 20% e lo aveva addirittura previsto, ca@@o, ma devono essere proprio dei geni!

paolo.oliva2
14-11-2016, 03:12
Alla faccia dei tre mesi, quelle dichiarazioni risalgono come minimo a nove mesi prima del lancio di Bulldozer, guarda caso sono uscite poco dopo il lancio di Sandy Bridge:
http://www.hwupgrade.it/forum/showpost.php?p=34268777&postcount=8312
poi non so da dove ti risultino quei 5GHZ su tutti i core visto che Bulldozer ha un 33% in più di core, frequenza maggiore (specie con Piledrive) e come minimo, ripeto, come minimo, ma proprio come minimo, avrebbe dovuto avere un IPC uguale a K10.
Col senno di poi è facile fare previsioni ma non sto qui a riportare vecchi post (riportanti anche dichiarazioni di AMD) dei guru del thread aspettando Bulldozer, riguardanti l'IPC dello stesso, altrimenti verrei accusato di ineleganza, scarsa sensibilità, scarso rispetto e chi più ne ha più ne metta, ma intanto tutto fa brodo per dichiarare frequenze di fantasia delle quali non esiste traccia in nessuna dichiarazione o slide ufficiale di AMD.
Se qualcuno, in quel thread, avesse osato dire che Bulldozer aveva un IPC inferiore a K10 sarebbe stato, nelle migliori delle ipotesi, messo al muro e fucilato immediatamente.
Poi è divertente leggere (con sfottò dei sostenitori AMD) che Intel da una generazione all'altra di processori guadagna solamente il 5/10% di IPC, mentre AMD, con Bulldozer ne ha perso, ad essere ottimisti, il 20% e lo aveva addirittura previsto, ca@@o, ma devono essere proprio dei geni!

A parte che l'IPC da solo non fa testo, quindi devi calcolare IPC * frequenza, così magari ti viene fuori che BD ha guadagnato sia in ST e di gran lunga in MT sul Phenom II.

La mia posizione su Zen è pura matematica.
primissimo ES Zen 2,8GHz. 2° ES Zen 3,150GHz.
Notizia di una versione di Zen espressamente per OC, che avrebbe sempre 95W ma frequenze superiori.
Se l'ES precedente ha 3,150GHz def, 3,3GHz turbo su tutti i core, 3,6GHz Turbo, mi aspetto Zen OC >3,150GHz def, >3,3GHz Turbo su tutti i core e >3,6GHz Turbo.

Come dissi altre volte, AMD sino ad ora ha sempre portato dei proci la cui frequenza turbo non solo si poteva replicare su tutti i core, ma anche aumentare, quindi (per me) la frequenza turbo di Zen è un chiaro indice di quali frequenze si possano raggiungere (con il beneficio del dubbio se chiaramente AMD ha cambiato).
Un Zen con massima frequenza turbo def a 3,6GHz, non rappresenta per me un Zen competitivo, semplicemente per il discorso che l'IPC di Zen non sembra superiore a quello Intel, ed ovviamente a parità di frequenza operativa o inferiore, renderebbe Zen meno competitivo.
Ho parlato di OC RS/DU sui 140/170W. Un 6900K mi sembra di capire che i 3,5GHz/3,6GHz li prende facilmente e nei 170W, quindi più performante di un Zen @3,6GHz.
Se l'annuncio del modello Zen per OC fosse vero, e che le frequenze riportate comunque maggiori lo fossero di 200/400MHz? Un Zen a 3,8/4GHz a 170W lo si potrebbe tenere, e potrebbe essere competitivo sul 6900K proprio per la frequenza superiore.
A tutto questo si aggiunge pure il bailame circa il passaggio di AMD da GF a TSMC. SE fosse vero, mi viene da pensare che AMD abbia lasciato GF per TSMC per frequenze/TDP maggiori, e se colleghi il fatto che AMD abbia pagato 300 milioni di $ per questo oltre al fatto di rifare il lavoro sul 16nm TSMC ed un altro tape-out, a me non viene da pensare a +200MHz, ma anche 300/400MHz e forse più. 3,6GHz + 300/400MHz, 3,9GHz/4GHz cominciano ad essere frequenze impegnative per un 6900 occato, specie in proiezione RS/DU (ovviamente non OC BENCH).

-----

Ma a parte questo, perchè vi imbufalite ogni qual volta che sembra Zen sia migliore in qualche cosa vs Intel? Ma dov'è il problema se poi Zen avrà più o meno IPC, più o meno potenza? Per me sinceramente è meglio se sia peggio, proprio per pagarlo meno a patto che consenta un OC => rispetto a quello Intel :oink:.
E' come se chiedessi ad un tifoso rosso se al prossimo GP vincerà la McLaren, e questo mi rispondesse "NO! Vincerà la Ferrari, la Ferrari (alias Intel) NON PUO' PERDERE. :eek:

sgrinfia
14-11-2016, 08:17
Se prendi un A10 7870, che costa uguale ad un i3 6100, e ti metti a fare una compressione o una conversione video, magari lo butti prima dalla finestra...
http://www.anandtech.com/show/10543/the-skylake-core-i3-51w-cpu-review-i3-6320-6300-6100-tested/4
http://www.anandtech.com/show/10543/the-skylake-core-i3-51w-cpu-review-i3-6320-6300-6100-tested/5

Purtroppo però, questi test non raccontano dei singhiozzi e blocchi di immagine dei dualcore in certi fragenti con i motori grafici più moderni.
La dove un 4-6- e 8 core magari danno meno fotogrammi ma più fluidità , e quindi un esperienza di gioco migliore.

george_p
14-11-2016, 10:42
Alla faccia dei tre mesi, quelle dichiarazioni risalgono come minimo a nove mesi prima del lancio di Bulldozer, guarda caso sono uscite poco dopo il lancio di Sandy Bridge:
http://www.hwupgrade.it/forum/showpost.php?p=34268777&postcount=8312
poi non so da dove ti risultino quei 5GHZ su tutti i core visto che Bulldozer ha un 33% in più di core, frequenza maggiore (specie con Piledrive) e come minimo, ripeto, come minimo, ma proprio come minimo, avrebbe dovuto avere un IPC uguale a K10.
Col senno di poi è facile fare previsioni ma non sto qui a riportare vecchi post (riportanti anche dichiarazioni di AMD) dei guru del thread aspettando Bulldozer, riguardanti l'IPC dello stesso, altrimenti verrei accusato di ineleganza, scarsa sensibilità, scarso rispetto e chi più ne ha più ne metta, ma intanto tutto fa brodo per dichiarare frequenze di fantasia delle quali non esiste traccia in nessuna dichiarazione o slide ufficiale di AMD.
Se qualcuno, in quel thread, avesse osato dire che Bulldozer aveva un IPC inferiore a K10 sarebbe stato, nelle migliori delle ipotesi, messo al muro e fucilato immediatamente.
Poi è divertente leggere (con sfottò dei sostenitori AMD) che Intel da una generazione all'altra di processori guadagna solamente il 5/10% di IPC, mentre AMD, con Bulldozer ne ha perso, ad essere ottimisti, il 20% e lo aveva addirittura previsto, ca@@o, ma devono essere proprio dei geni!

Solo con XV quell'IPC è stato recuperato per pareggiarlo con il glorioso K10, altro che passi avanti con BD :D .
Keller e ingegneri amd hanno fatto miracoli solo per l'IPC per dare a Zen quel giusto boost che può permettere a Zen di recuperare il gap con intel almeno in parte.

Ora, lato architettura dovremo esserci, vediamo quale silicio sarà più adeguato a parità di soldi per rendere la cpu al massimo.

Wolfhang
14-11-2016, 11:20
Ma a parte questo, perchè vi imbufalite ogni qual volta che sembra Zen sia migliore in qualche cosa vs Intel? Ma dov'è il problema se poi Zen avrà più o meno IPC, più o meno potenza? Per me sinceramente è meglio se sia peggio, proprio per pagarlo meno a patto che consenta un OC => rispetto a quello Intel :oink:.
E' come se chiedessi ad un tifoso rosso se al prossimo GP vincerà la McLaren, e questo mi rispondesse "NO! Vincerà la Ferrari, la Ferrari (alias Intel) NON PUO' PERDERE. :eek:

Scusa, mica ho parlato di Zen, Zen mi sembra di ben altra pasta rispetto Bulldozer, e se lo sviluppo come sembra è iniziato già nel 2012 in AMD avranno avuto i loro buoni motivi e guarda caso (a parte il cambio di rotta con l'abbandono del CMT a favore dell'SMT) l'accento è stato subito posto sull'aumento sostanzioso dell'IPC.
Uno Zen 8+8 in 95W, anche avesse frequenze di 3/3,2 GHz, che arriva a giocarsela con gli Intel serie E mi sembra tanta roba rispetto a Bulldozer che in 125W fatica a tenere testa ad un i5.

Free Gordon
14-11-2016, 11:38
Ora, lato architettura dovremo esserci, vediamo quale silicio sarà più adeguato a parità di soldi per rendere la cpu al massimo.

TSMC sicuro. :)

Ormai mi son fatto l'idea che se non avessero problemi a produrre Zen a frequenze ottimali.. con GF, a quest'ora avremmo già degli ES in giro e vari test sbucati qui e la'.

Imho usciranno versioni low power di Zen, prodotte da GF (tanto quando le frequenze/V son basse, anche il suo 14nm funge bene), e versioni a frequenze più tirate, magari anche per OC (come dichiarato qualche giorno fà), prodotte da TSMC.

tuttodigitale
14-11-2016, 12:05
Alla faccia dei tre mesi, quelle dichiarazioni risalgono come minimo a nove mesi prima del lancio di Bulldozer, guarda caso sono uscite poco dopo il lancio di Sandy Bridge:
la memoria ha tratto un piccolo scherzo, ma non erano certo 9 mesi...

la slide risale a Dicembre 2010, Bulldozer era UFFICIALMENTE previsto per Aprile/Maggio 2011: solo 4-5 mesi....devo credere che in AMD non sapevano l'ipc di BD?

PS anche llano ha subito un vistoso ritardo e dubito che sia imputabile all'ipc...

Wolfhang
14-11-2016, 13:35
A parte che l'IPC da solo non fa testo, quindi devi calcolare IPC * frequenza, così magari ti viene fuori che BD ha guadagnato sia in ST e di gran lunga in MT sul Phenom II.

Si, ma è anche vero che se al posto di avere un 20% in meno di IPC ne avessi avuto un 5/10% in più (e non mi sembrano valori trascendentali), come NORMALMENTE SUCCEDE, specialmente dopo anni e anni di gestazione, avresti avuto comunque un signor processore.

tuttodigitale
14-11-2016, 14:30
Si, ma è anche vero che se al posto di avere un 20% in meno di IPC ne avessi avuto un 5/10% in più (e non mi sembrano valori trascendentali), come NORMALMENTE SUCCEDE, specialmente dopo anni e anni di gestazione, avresti avuto comunque un signor processore.
davvero pensi che k10 abbia un ipc medio superiore del 25% rispetto a bulldozer/piledriver? :rolleyes:
se così fosse un FX8350, mediamente andrebbe un 5% nel MT più lento di un 1100T e soprattutto andrebbe più lento con carichi che non sfruttano bene i thread aggiuntivi...(nei giochi non mi pare che un vecchio phenom vada meglio, o sbaglio :rolleyes: )
imho, devi rivedere a rialzo l'ipc dell'architettura bulldozer.



Uno Zen 8+8 in 95W, anche avesse frequenze di 3/3,2 GHz, che arriva a giocarsela con gli Intel serie E mi sembra tanta roba rispetto a Bulldozer che in 125W fatica a tenere testa ad un i5.
ma diamo 2 pesi e 2 misure....
uno zen con frequenza turbo di 3,2GHz fa schifo, perchè offrirebbe le stesse prestazioni di un ipotetico excavator con fmax da 4,5GHz...quindi con addirittura una possibile regressione delle prestazioni di un ipotetico XV@95W su 28nm......

Ho il sospetto che XV ti faccia schifo a prescindere, quando invece con TDP da 15W sembrerebbeveloce quanto intel Haswell...
secondo notebookcheck, il fx9800p 15W è più veloce di un a10-5750, piledriver da 35W...in cinebench 11.5 è veloce quanto un Intel Core i5-3210M, IB da 35W..:cool:

ocio, che la base di partenza, considerando il processo di partenza, è solidissima.

A parte che l'IPC da solo non fa testo, quindi devi calcolare IPC * frequenza, così magari ti viene fuori che BD ha guadagnato sia in ST e di gran lunga in MT sul Phenom II.
ad essere precisi, BD/PD guadagna vistosamente solo nel ST, con guadagni a doppia cifra...a parità di thread invece le prestazioni di PD con k10 sono del tutto simili, questo è quello che è possibile osservare con il confronto llano-Richland.
Ma non è una colpa...le lacune di k10 erano solo nel ST,ma queste sembrerebbero essere state colmate proprio da Bulldozer...

tuttodigitale
14-11-2016, 15:55
Poi "casualmente" eviti sistematicamente di citare gli enormi cambiamenti che sono arrivati con z12, e continui a citare solo i Power7+ (che comunque ne hanno avuto anch'essi, di benefici). Chissà perché... :O
se parliamo di silicio, mi pare giusto evitare di introdurre l'incognita offerta da una nuova architettura.
Ho visto i benchmark dello zec12 confrontato con lo z195, e la differenza è nell'ordine del 20-25% (che sarebbe un guadagno assai modesto per un salto di nodo, figuriamoci se ottenuto sacrificando l'ipc), nonostante il 50% di core e il 5% di clock in più.
Ci sono differenze più profonde tra le 2 architetture?

Preferisco comunque parlare di P7 e P7+, e non per difendere AMD, ma solo per evitare di introdurre variabili che ben poco hanno con il silicio.
perchè di questo passo, dobbiamo pensare che i 28nm siano praticamente 2 volte più efficienti dei 32nm a 2,5GHz...

infine, mi pare giusto ribadire che è stato con Gulftown, dove Intel ha guadagnato e di brutto nei confronti di k10, e non certo i guadagni, seppur non insignificanti ottenuti con SB
http://www.anandtech.com/bench/product/697?vs=444

PS il fatto che i 32nm siano ottimi per la cache non ho mai detto nulla a riguardo (anche se va detto che AMD dichiarò che la cache l3 sarebbe dovuta viaggiare nei core bulldozer a 2400MHz+ con un voltaggio di 1,1V, in effetti qualche problemino lato frequenza l'hanno avuto anche li se pensiamo che gli FX avevano la l3 a 2000/2200MHz...)...anzi sono quasi certo che l'errore è stato quello di attendere che i vantaggi si sarebbero trasferiti pari pari, anche ai core.

paolo.oliva2
14-11-2016, 16:37
Si, ma è anche vero che se al posto di avere un 20% in meno di IPC ne avessi avuto un 5/10% in più (e non mi sembrano valori trascendentali), come NORMALMENTE SUCCEDE, specialmente dopo anni e anni di gestazione, avresti avuto comunque un signor processore.

Aspetta, a chiunque chiedi ti risponderà che l'IPC di BD era TROPPO basso, ed anche io concordo perchè era la realtà.

Il problema è che si vuole confondere il problema dell'IPC di BD focalizzando sulla scelta del CMT al posto dell'SMT, e questo è sbagliato.
In secondo luogo, il CMT può essere efficiente anche su un core non particolarmente forte in IPC, perchè il 2° TH nel CMT rende l'80% contro il 30% dell'SMT di Intel.

Il problema di AMD è che ha realizzato BD spendendo il meno possibile in innovazioni e si è affidata alle previsioni del silicio 32nm per ottenere più prestazione ST (con frequenze superiori grazie all'FO4) e l'MT l'avrebbe comunque ottenuto, però su base silicio che permettesse 1 modulo AMD CMT vs core + SMT Intel.

Cosa è successo? Il silicio 32mn ha disatteso completamente con frequenze inferiori almeno di -700MHz, Intel ha fatto ancor più cazzuto il suo silicio (portando un pareggio di frequenza (4GHz) nonostante l'FO4 superiore), e la cancellazione del 22nm e nessun altro silicio alternativo ha segato la possibilità di aumentare i moduli a die e quindi di offrire potenze MT superiori.

Ognuna delle cose sottolineate sopra, presa singolarmente, non avrebbero influito più di tanto, ma tutte assieme sono una montagna.
Esempio. Se il 32nm avesse concesso 700MHz in meno, sarebbe stato circa il -20%, amen.
Ma Intel ha aumentato la frequenza massima grazie ad un affinamento PP super, e ipotizziamo che ha guadagnato 400MHz.
Quindi ai -700MHz si deve aggiungere anche +400MHz di Intel, e la somma è più di 1 GHz.
Con un silicio 22nm avrebbe potuto realizzare un XV X12 almeno. Non sto dicendo che avrebbe gareggiato con un 6950X, dico solamente che in proiezione ST, una cosa è un 6700K a 4GHz, altro un 6900K a 3,2GHz, quindi comunque, AMD, con un silicio migliore del 32nm SOI, avrebbe potuto commercializzare un BD con un MT simile/superiore ad un 6800K ed essere più competitivo in ST semplicemente perchè gli E hanno frequenze massime inferiori e quindi meno potenza ST degli i7 X4.

Mi sembra evidente che non gli è andato bene nulla ad AMD... me con tutti le circostanze ed eventi che ha subito BD, non credo che qualsiasi altra architettura avrebbe fatto meglio.

Per farti un esempio... Un Zen X8 andrebbe quanto due 8350, quindi è ovvio che un Zen X4 = 8350.
Il 32nm SOI permetterebbe un Zen X4+4 al posto di un 8350 e probabilmente allo stesso TDP. Cosa guadagnerebbe Zen?
Nessun guadagno in MT su BD (a patto che Zen arrivi alla stessa frequenza di un 8350, cioè 4GHz), ed una potenza ST +40% (sempre a parità dell'8350 cioè a 4,2GHz). Si potrebbe confrontare con un 6950X? Nemmeno per sogno.
Allora mi sembra più che evidente che il 32nm SOI non può reggere il confronto con un 14nm Intel, sia che monti l'architettura BD che quella di Zen. Allora perchè invece sembra tutto colpa di BD? La più pazzesca cagata è prendere il TDP di un 8350 e confrontarlo con un procio Intel attuale e giudicare i 125W TDP imputabili all'architettura BD inefficiente. Peccato che la stessa architettura, sul 28nm ciofeca, permette comunque un APU a cavallo dei 4GHz a 65W.

fatantony
14-11-2016, 18:12
Per farti un esempio... Un Zen X8 andrebbe quanto due 8350, quindi è ovvio che un Zen X4 = 8350.
Il 32nm SOI permetterebbe un Zen X4+4 al posto di un 8350 e probabilmente allo stesso TDP. Cosa guadagnerebbe Zen?
Nessun guadagno in MT su BD (a patto che Zen arrivi alla stessa frequenza di un 8350, cioè 4GHz), ed una potenza ST +40% (sempre a parità dell'8350 cioè a 4,2GHz).

Mi permetto solo di fare anche il mio di pronostico;)
Secondo me Zen X4+4 (quindi con SMT) andrà, in MT, quanto un 8350 (+/-10%). L'aumento di IPC dato dall'architettura servirà a compensare le "perdite" date dal passaggio da CMT a SMT...
Speriamo solo non ritardino troppo la commercializzazione in volumi...

okorop
14-11-2016, 18:23
Mi permetto solo di fare anche il mio di pronostico;)
Secondo me Zen X4+4 (quindi con SMT) andrà, in MT, quanto un 8350 (+/-10%). L'aumento di IPC dato dall'architettura servirà a compensare le "perdite" date dal passaggio da CMT a SMT...
Speriamo solo non ritardino troppo la commercializzazione in volumi...

sarebbe cosi poca la differenza di performance? io vorrei zen x16 speriamo in bene ho una scimmia pazzesca per sto processore :D

Roland74Fun
14-11-2016, 18:25
Secondo me Zen X4+4 (quindi con SMT) andrà, in MT, quanto un 8350 (+/-10%).
Perfetto. Allora mi tengo l'8350 a 4.4 GHz. Se poi iTunes (che non uso) o qualche altra cagosa applicazione che sfrutta ancora un solo core ci mette 1.8 secondi anziché 1,32.... allora, come dicevano un tempo,... me ne frego!

paolo.oliva2
14-11-2016, 19:38
Per quanto dichiara AMD, Zen avrebbe +40% di IPC su BD XV, che equivarrebbe +65% su PD.

quindi il core BD PD 100, il modulo BD 180 (2 TH)
Core Zen 165 (100+65%), core Zen + SMT 30% = 214

Ma il core Zen vs BD XV darebbe:
100 + 40% = 140 + 30% SMT = 182 vs BD XV 180 La differenza in MT è marginale.

Per questo nell'ottica di molto carico e sull'MT, da un BD XV X16 ad un Zen X8+8 (ovvero CMT vs SMT) le differenze sarebbero minime, ma siccome BD sappiamo cge ha un FO4 basso e quindi frequenze che a parità di PP concederebbero più frequenza a BD, andrebbe quantificato il tutto, perchè solamente con il +10% di frequenza, BD otterrebbe +10% di MT e l'avere -40% di IPC si ridurrebbe a perdita di circa -20%.

Il passaggio dal 32nm al 14nm, permetterebbe di avere Zen X4+4 in 65W (contro i 125W di BD) e nel contempo di avere un raddoppio di potenza (Zen X8+8 = 2 * 8350) in 95W contro 250W (125W * 2).

Ovvio che il guadagno in TDP è dovuto in gran parte al silicio, ma VS PD, vi sono features di risparmio che BD Excavator implementa e PD no.

von Clausewitz
14-11-2016, 21:31
Per quanto dichiara AMD, Zen avrebbe +40% di IPC su BD XV, che equivarrebbe +65% su PD.

quindi il core BD PD 100, il modulo BD 180 (2 TH)
Core Zen 165 (100+65%), core Zen + SMT 30% = 214

Ma il core Zen vs BD XV darebbe:
100 + 40% = 140 + 30% SMT = 182 vs BD XV 180 La differenza in MT è marginale.

Per questo nell'ottica di molto carico e sull'MT, da un BD XV X16 ad un Zen X8+8 (ovvero CMT vs SMT) le differenze sarebbero minime, ma siccome BD sappiamo cge ha un FO4 basso e quindi frequenze che a parità di PP concederebbero più frequenza a BD, andrebbe quantificato il tutto, perchè solamente con il +10% di frequenza, BD otterrebbe +10% di MT e l'avere -40% di IPC si ridurrebbe a perdita di circa -20%.

Il passaggio dal 32nm al 14nm, permetterebbe di avere Zen X4+4 in 65W (contro i 125W di BD) e nel contempo di avere un raddoppio di potenza (Zen X8+8 = 2 * 8350) in 95W contro 250W (125W * 2).

Ovvio che il guadagno in TDP è dovuto in gran parte al silicio, ma VS PD, vi sono features di risparmio che BD Excavator implementa e PD no.

forse dopo il tuo ennesimo ghirigori è giunto il momento di stabilire qualche paletto, cioè:

1) che quello che AMD says non è da prendere per oro colato

2) che quello che tu interpreti dell'oro colato è già molto diverso rispetto all'assunto 1

3) che le tue interpretazioni dell'oro colato applicato ad improbabili espressioni algebriche non hanno molto senso (per usare un eufemismo)

4) che ZEN come suo tempo Bulldozer andrà visto alla prova dei FATTI, cioè test approfonditi in vari ambiti, perchè in ultima analisi solo questi contano e AMD visto i trascorsi degli ultimi anni ha qualcosa da dimostrare in tal senso

ps e tralasciamo dove AMD avrebbe mai detto che Zen è sopra del 65% rispetto a PD, in ST ovviamente, come sempre sono solo tue personali digressioni, per cui dato il tuo assunto iniziale sbagliato il resto delle equazioni vanno a farsi benedire :D e questo senza contare le n variabili del caso ovviamente da te minimamente prese in considerazione
ma lo so dai tempi della discussione su BD, i numeri li dai un po' a caso, ma naturalmente sempre favorevoli ad AMD e sempre sfavorevoli a Intel, così sei contento ;)

feldvonmanstein
14-11-2016, 22:49
forse dopo il tuo ennesimo ghirigori è giunto il momento di stabilire qualche paletto, cioè:

1) che quello che AMD says non è da prendere per oro colato

2) che quello che tu interpreti dell'oro colato è già molto diverso rispetto all'assunto 1

3) che le tue interpretazioni dell'oro colato applicato ad improbabili espressioni algebriche non hanno molto senso (per usare un eufemismo)

4) che ZEN come suo tempo Bulldozer andrà visto alla prova dei FATTI, cioè test approfonditi in vari ambiti, perchè in ultima analisi solo questi contano e AMD visto i trascorsi degli ultimi anni ha qualcosa da dimostrare in tal senso

ps e tralasciamo dove AMD avrebbe mai detto che Zen è sopra del 65% rispetto a PD, in ST ovviamente, come sempre sono solo tue personali digressioni, per cui dato il tuo assunto iniziale sbagliato il resto delle equazioni vanno a farsi benedire :D e questo senza contare le n variabili del caso ovviamente da te minimamente prese in considerazione
ma lo so dai tempi della discussione su BD, i numeri li dai un po' a caso, ma naturalmente sempre favorevoli ad AMD e sempre sfavorevoli a Intel, così sei contento ;)

il fatto che zen abbia un IPC del 65 % maggiore di Piledriver amd forse nn lo ha specificato ma per logica, non di certo per quelle che tu reputi fantasie di paolo, dato che si dichiara una + 40% rispetto ad excavator che incassa a sua volta almeno un + 25 % nelle migliori condizioni su PD; va da sè che il +65% sia molto probabile... poi è chiaro qualcosa può andare storto, nessuno ha la sfera di cristallo ma mi aspetto questo risultato come il minimo indispensabile per infastidire in qualche modo le proposte avversarie.

PS:1 è logico altrsì che l'ipc venga inteso per il ST il resto va a catena.
2 le "equazioni" di paolo non hanno certo la presunzione di dare risultati precisi, quelli si avranno solo all'uscita; ma sono utili a fare una comparativa di massima su quelle che sarebbero le differenze tra approcci architetturali differenti ( cmt vs smt) al netto del rinnovato IPC in base a quella che potrà essere l'offerta di proci in un detreminato tdp e numero di core. Dato che si conoscono grossomodo i vantaggi percentuali dell'uno o dell'altro approccio, quelle equazioni sono molto più attendibili di quanto pensi. fai 214 * 8 = 1712 (zen 8+8 ) , ti accorgerai che il risultato è più del doppio di un procio PD ( 180*4 = 720 ) ( quindi basterebbe anche meno del 65%) e ciò corrisponde alle dichiarazione che danno un octa zen più veloce del doppio rispetto ad un 8350. un procio ZEN 4+4 ( 214*4 = 856) sarebbe comq più veloce di un 8350, al livello degli attuali i 7 4 + 4 ma conun tdp effettivamente molto basso.

Wolfhang
14-11-2016, 22:51
davvero pensi che k10 abbia un ipc medio superiore del 25% rispetto a bulldozer/piledriver? :rolleyes:
se così fosse un FX8350, mediamente andrebbe un 5% nel MT più lento di un 1100T e soprattutto andrebbe più lento con carichi che non sfruttano bene i thread aggiuntivi...(nei giochi non mi pare che un vecchio phenom vada meglio, o sbaglio :rolleyes: )
imho, devi rivedere a rialzo l'ipc dell'architettura bulldozer.

Se per te Zambesi aveva un IPC soddisfacente puoi pure tenerti le tue convinzioni, io mi tengo le mie


ma diamo 2 pesi e 2 misure....
uno zen con frequenza turbo di 3,2GHz fa schifo, perchè offrirebbe le stesse prestazioni di un ipotetico excavator con fmax da 4,5GHz...quindi con addirittura una possibile regressione delle prestazioni di un ipotetico XV@95W su 28nm......

AMD ha reso pubblico un test dove fa intendere che uno Zen 95W ha prestazioni uguali o leggermente migliori di un Broadwell-E a pari core e frequenza, se poi non saprà mantenere le promesse non sono problemi miei

Ho il sospetto che XV ti faccia schifo a prescindere, quando invece con TDP da 15W sembrerebbeveloce quanto intel Haswell...
secondo notebookcheck, il fx9800p 15W è più veloce di un a10-5750, piledriver da 35W...in cinebench 11.5 è veloce quanto un Intel Core i5-3210M, IB da 35W..:cool:

SI, con l'IPC attuale XV mi fa pena a prescindere

paolo.oliva2
15-11-2016, 01:41
forse dopo il tuo ennesimo ghirigori è giunto il momento di stabilire qualche paletto, cioè:

1) che quello che AMD says non è da prendere per oro colato

2) che quello che tu interpreti dell'oro colato è già molto diverso rispetto all'assunto 1

3) che le tue interpretazioni dell'oro colato applicato ad improbabili espressioni algebriche non hanno molto senso (per usare un eufemismo)

4) che ZEN come suo tempo Bulldozer andrà visto alla prova dei FATTI, cioè test approfonditi in vari ambiti, perchè in ultima analisi solo questi contano e AMD visto i trascorsi degli ultimi anni ha qualcosa da dimostrare in tal senso


:confused: Dovresti capire che si fanno UNICAMENTE previsioni, e questa è la mia previsione. Punto.
Non si tratta di dare per oro colato ASSOLUTAMENTE NULLA, io faccio UNICAMENTE una previsione, e che ti piaccia o meno, i dati li scelgo IO, e metto il link per dimostrare che sono una fonte e non cose unventate.
Se poi per te sono legubrazioni, felice per te, ma a me che me frega?
,

ps e tralasciamo dove AMD avrebbe mai detto che Zen è sopra del 65% rispetto a PD, in ST ovviamente, come sempre sono solo tue personali digressioni,
E' molto semplice.

AMD ha dichiarato un +40% di IPC rispetto la precedente architettura.
Ovviamente parla di BD e mi sempre palese che non consideri BD Zambesi, BD Piledriver, BD Steamroller ma l'ultima evoluzione di BD, cioè Excavator.

Quindi se Excavator guadagna +18% di IPC su Piledriver, ovviamente Zen incrementa il suo 40% di IPC su XV di un ulteriore 18% ovvero 65,2%. Ho scritto 65%? Dov'è l'errore? Una mia degressione o una tua cecità/ottusità?


del +1su
per cui dato il tuo assunto iniziale sbagliato il resto delle equazioni vanno a farsi benedire :D e questo senza contare le n variabili del caso ovviamente da te minimamente prese in considerazione
ma lo so dai tempi della discussione su BD, i numeri li dai un po' a caso, ma naturalmente sempre favorevoli ad AMD e sempre sfavorevoli a Intel, così sei contento ;)
Purtroppo non faccio parte della tua casta di illuminati... eh, si, sono ateo, e pergiunta non credo al dio Intel.

paolo.oliva2
15-11-2016, 01:58
Se per te Zambesi aveva un IPC soddisfacente puoi pure tenerti le tue convinzioni, io mi tengo le mie
Zambesi è stato il primo passo dell'architettura BD, quando si giudica un'architettura, mi sembra ovvio che lo si faccia con l'ultima soluzione, Zambesi quanti anni ha? 6 o 7? Tu giudichi un i7 in base ad un 2600K o 6700K?


AMD ha reso pubblico un test dove fa intendere che uno Zen 95W ha prestazioni uguali o leggermente migliori di un Broadwell-E a pari core e frequenza, se poi non saprà mantenere le promesse non sono problemi miei

Quello non era un test per far vedere chi l'ha più lungo, ma quanto ha recuperato su Intel dopo BD.
Foss'anche -20% su un 6900K ti sembra poco? Adesso sta dietro al 6700K.

Anche se non mantenesse le promesse, converrai con me che l'offerta AMD aumenterà in potenza, nel senso che Zen X8+8 lo collochi certamente nella fascia E Intel. E' questo che conta, perchè se oggi voglio di più da un 8350, o vado sul 6700K o vado sugli E Intel, che entrambi non sono assolutamente economici e con un prezzo/prestazioni esorbitante.
Quindi Zen, entrando nella fascia E, importa relativamente se battaglia con il 6950X o sta sotto un 6900K, quello che importa è che l'offerta AMD in potenza salga, per aumentare le alternative dal 6500K in su fino ad arrivare a dove arriverà Zen.


SI, con l'IPC attuale XV mi fa pena a prescindere
IPC da solo forse, ma IPC * frequenza fa un prodotto diverso.

Wolfhang
15-11-2016, 08:08
Zambesi è stato il primo passo dell'architettura BD, quando si giudica un'architettura, mi sembra ovvio che lo si faccia con l'ultima soluzione, Zambesi quanti anni ha? 6 o 7? Tu giudichi un i7 in base ad un 2600k o 6700k?

Si stava parlando di quando è stato presentato Bulldozer (che doveva andare una volta e mezza K10) e che l'IPC fosse quello previsto

suneatshours86
15-11-2016, 09:08
15 novembre e manco un mezzo screen ufficioso abbiamo :incazzed:

paolo.oliva2
15-11-2016, 09:36
Si stava parlando di quando è stato presentato Bulldozer (che doveva andare una volta e mezza K10) e che l'IPC fosse quello previsto

Ma l'8150 è stato un accrocchio perchè concepito su un silicio con prestazioni differenti e sfornato con dei compromessi enormi.
Quello che dico lo si evince dalla logica turbo massimo ST.
Il turbo su meno core è per aumentare la potenza ST.
1 core a modulo = +10% di potenza ST perchè eliminando la condivisione CMT, non si perde più l'IPC dovuta alla condivisione di 2 core nel modulo, la quale fa perdere il 10%. (100 -10% = 90, 90 per arrivare a 100 +11% ho accorpato tutto a +10% per facilitare la comprensione e comunque far comprendere la logica).
Nel funzionamento "normale", la frequenza su 8 core può variare da 3,6GHz a 3,9GHz, e quella massima turbo arriva a 4,2GHz, cioè +300MHz, ma da 3,9GHz a 4,2GHz il +10% del discorso precedente, con 1 core a modulo si otterrebbe una frequenza equivalente di 4,290GHz, cioè renderebbe di più applicare il turbo su 1 core a modulo su 4 moduli che aumentare la frequenza ma su 4 core su 2 moduli (aggiungerei, visto che il turbo non sfrutta il margine di TDP che si ha, si potrebbe ipotizzare le medesime frequenze turbo ma al max 1 core a modulo, così da accorpare il +11% per aver disabilitato la condivisione, al +8% dell'aumento frequenza).
Ma se accorpi le aspettative per le quali Zen doveva avere un Turbo di 2 scalini ma a +500MHz (e non +300MHz), è ovvia che la scelta AMD del turbo a modulo perchè, appunto, avrebbe incrementato 500MHz vs 390MHz (equivalenti, in quanto nessun aumento di frequenza reale).
Questo a me fa supporre che (forse) AMD sia stata costretta a castrare Zambesi per far rientrare una determinata frequenza nel TDP 125W (già enorme rispetto alla previsione che tutti gli FX dovevano essere 95W con uno solamente a 125W).
Tieni presente che Piledriver ha richiesto tempo per implementare l'RCM per aumentare la frequenza a parità di TDP, e questo ha permesso di aggiungere una pipeline nell'FP e altre migliorie per un incremento del 7% di IPC. Ripeto, +7% di IPC, che accorpando l'aumento di frequenza a parità di TDP, hanno portato sul 18% l'incremento prestazionale massimo def di Piledriver su Zambesi. Un incremento del 18% a distanza di 1 anno e sulla stessa architettura, è possibile, ovviamente, solo a condizione che la precedente commercializzazione (Zambesi) non sia certo al massimo di efficienza architetturale e silicio, e per questo io dico Zambesi 8150 un accrocchio tra progetto su carta e silicio.
Ovviamente, io non vedo Zambesi come indice della potenzialità architettura BD, quanto invece un indice chiaro ed evidente del silicio 32nm SOI.
Inoltre tutte le evoluzioni successive di BD, hanno visto la costante non della ricerca massima potenza senza badare al TDP, quanto invece una ricerca della massima potenza condizionata enormemente dal TDP perchè il 28nm è il 28nm Bulk, e ciò nonostante, BD ha aumentato un ulteriore 18%, arrivando nel complesso sul +40% a core. Mi sembra ovvio che Zambesi non rappresenti il potenziale dell'architettura BD, ma ovviamente una commercializzazione goffa di un prodotto che non andava commercializzato (ma ricordiamoci che AMD era già in ritardo di 6 mesi/1 anno).p
Per farti un esempio di ciò che voglio dire, Intel può potenziare la sua architettura a piacere, perchè la concorrenza è molto indietro, dietro ai suoi X4+4.
Intel potrebbe scegliere se aumentare la potenza a core lasciando il die invariato per numero dei core max, oppure potenziare di poco il core e aumentare il die di 2 core.
AMD che scelta aveva? Aumentare i core NON poteva farlo (il 28nm non lo permette), l'aumento dell'l'IPC a core è condizionato dal TDP, quindi mi sembra ovvio che AMD non possa aver aumentato l'IPC di BD perlomeno quanto invece lato architettura avrebbe potuto offrire.
Se poi a questo si unisce il bailame creato sul fatto che BR riduca le frequenze ai core se la iGPU è sotto carico, vuol dire che non la si vuole proprio capire che AMD è sul 28nm e Intel sul 14nm, e Intel ha dalla sua un -50% di TDP regalato dal silicio.

the_joe
15-11-2016, 09:46
Scusa Paolo, ma secondo il tuo ragionamento allora anche l'architettura dei PIV non era male, se poi non hanno raggiunto i 10GHZ previsti e a parità di clock andavano meno dei PIII non significava niente, tanto dovevano andare molto di più.........Poi sappiamo com'è finita.

Se un'architettura non è buona ci si mette una pietra sopra e bon, inutile rivangare cosa doveva e non è stato.

Comunque per avere un'idea delle tue aspettative, per uno ZEN 8+8 in versione da overclock che vada un po' meno di un i7 8+8 che prezzo ti andrebbe bene?

suneatshours86
15-11-2016, 09:47
è un giorno importante il 15 novembre?

dai su hai perfettamente capito il concetto ;)

suneatshours86
15-11-2016, 10:35
...che domani scriverai 16 novembre

e mi chiederai se il 16 novembre è una data importante.
INCEPTION :p