View Full Version : [Thread Ufficiale] Aspettando ZEN
tuttodigitale
23-06-2016, 15:38
F04 alto :sofico:
https://www.youtube.com/watch?v=Zl4SmzIreSs
comunque si è troppo alto... per Carrizo siamo a 3,4GHz a 1,27V
PS dresdenboy aveva supposto un fo4 più basso per ZEN rispetto a BD, dopo la patch...:read:
paolo.oliva2
23-06-2016, 15:42
Si ma carrizo va bene solo entro un certo basso tdp.
Secondo me la si dovrebbe vedere in modo diverso.
Il 28nm bulk da' un metro sul TDP e fino ai 3,7GHz su TDP/Frequenza, ma poi subisce un crollo di prestazioni... ma a parità di FO4 vediamo che sul 32nm SOI (anche se non un ottimo PP) le frequenze massime aumentano, insomma, si arriva a 5,2GHz in OC a liquido, mica una paglia.
Per tutto quanto il po' po' di roba ufficiale sul 14nm FinFet, sappiamo che garantirà una diminuzione del TDP (transistor/frequenza) almeno del 50% sul 28nm Bulk, a cui si dovrebbe sommare una migliore scalabilità in frequenza.
Quindi la certezza è che se Zen avrà lo stesso FO4 di BD, di certo non può avere frequenze inferiori rispetto a BD sul 28nm Bulk, la speranza è che se il 14nm FinFet avrà un PP migliore del 32nm SOI, Zen a parità di FO4 di BD dovrebbe avere frequenze superiori a BD sul 32nm SOI.
Quindi ha lo stesso FO4 di prescott?
be allora mi aspetto 6 ghz def in 95w :D
Se non ricordo male:what: 17 vs 13(Pentium4), ma secondo il fenomeno bisogna abbassarlo.:D
excavator ha un F04 alto :sofico:
Ma si! viva il pentium 4 prescott.:sofico:
FO4 basso non significa IPC basso... Tu fai l'architettura con alto IPC e poi spezzi le pipeline per abbassare il FO4, perdendo proporzionalmente in IPC in quel 10% (ad esagerare) in cui il predittore di salto sbaglia...
Facciamo 2 calcoli con un esempio:
Pipeline monstre da 8 stadi con IPC 3 e predittore salto che indovina nel 90% dei casi.
Spezzo la pipeline in 3 per avere 24 stadi e l'IPC scende da 3 ad almeno 3*.9 (non mi va di calcolare l'IPC in quel 10% del tempo in cui il predittore sbaglia ed assumo 0)=2.7. Si perde il 10% di IPC, ma si guadagna almeno il +100% di frequenza (non si può pretendere di triplicarla, perchè triplicherebbe anche la potenza dinamica. Il Vcore rimane invariato)
Risultato? IPC -10%, frequenza +100%.
Il problema del P4 è che aveva di partenza un basso IPC: 2 ALU a 16 bit dual pumped, nessuna cache istruzioni L1, ma ci si affidava interamente alla L0 che era troppo piccola, pochi decoder, FPU al risparmio come le ALU... Un disastro...
Il problema del P4 è che aveva di partenza un basso IPC: 2 ALU a 16 bit dual pumped, nessuna cache istruzioni L1, ma ci si affidava interamente alla L0 che era troppo piccola, pochi decoder, FPU al risparmio come le ALU... Un disastro...
Chissà perché non hanno aumentato le porte, i decoder, il reorder buffer e la trace cache.
Forse il branch miss ed i consumi non sono così buoni come credi.
So tutti scemi alla intel.:p
tuttodigitale
23-06-2016, 15:56
Se non ricordo male:what: 17 vs 13(Pentium4), ma secondo il fenomeno bisogna abbassarlo.:D
ma tu pensi davvero che con un fo4 alla Intel, AMD sarebbe andata meglio.
i7 2700k 1,1-1,15V 3,5GHz
a10-7800 1,2V 3,5GHz
32nm bulk Intel = +30% di frequenza a parità di vcore....
le schifezze di GF si sono mangiati i vantaggi sul fo4 ridotto: SB avrebbe faticato a raggiungere i 3GHz su questo processo anche in turbo boost...
per completezza sul 32nm SOI:
a8-3870k 3 GHz 1,4125V, e poi ci si chiede perchè AMD ha levato il turbo....
32nm bulk Intel = +30% di frequenza a parità di vcore....
Nel sogno di sicuro, anche il 50%...:sofico::sofico: :sofico:
Piedone1113
23-06-2016, 16:01
Se non ricordo male:what: 17 vs 13(Pentium4), ma secondo il fenomeno bisogna abbassarlo.:D
Ho sempre letto con piacere i tuoi interventi, come quelli di Cesare e quelli di marco ( e qualche altro utente che posta spesso su questo th), ma lo sfottò che stai usando non ti si addice e credo non ti appartenga nemmeno.
Ognuno in base alle proprie conoscenze è libero di fare previsioni, ma alcuni utenti lo fanno con conoscenze maggiori rispetto agli altri.
Onestamente se Marco mi fa un ragionamento e Cesare arriva con controragionamenti (suffragati da dati e tesi) e tu con altri, diventa un bel leggere (perchè si parla di tesi ed ipotesi ragionate e logiche, che possono essere tutti giusti presi singolarmente, ma che in pratica possono venir azzoppati da fattori non identificabili da fuori).
Ma leggere di questi continui punzecchiamenti più che irritarmi mi deprime.
Per tutti (senza offendere nessuno):
Mai discutere con un idiota, la gente ascoltando non distinguerebbe il saggio dall'idiota.
tuttodigitale
23-06-2016, 16:07
Nel sogno di sicuro, anche il 50%...:sofico::sofico: :sofico:
allora rasenti l'ignoranza, scusami ma è così :rolleyes:
se nel ridurre il fo4, non si ha il vantaggio di raggiungere frequenze più elevate a parità di gate delay e quindi di vcore, cosa si fa a fare?
Chissà perché non hanno aumentato le porte, i decoder, il reorder buffer e la trace cache.
Forse il branch miss ed i consumi non sono così buoni come credi.
So tutti scemi alla intel.:p
Le ALU, FPU, ecc consumano transistors, quindi leakage e potenza dinamica... Il 90nm INTEL non era famoso per avere basso leakage... Inoltre una architettura a basso FO4 ha un numero maggiore di flip flop, che consumano ulteriore area e potenza... Insomma, per il tempo, anche con un core così semplificato, comunque ci voleva un discreto numero di transistors...
Per tutti (senza offendere nessuno):
Mai discutere con un idiota, la gente ascoltando non distinguerebbe il saggio dall'idiota.
Menomale che non vuoi offendere... :asd:
Nel sogno di sicuro, anche il 50%...:sofico::sofico: :sofico:
Forse hai frainteso cosa voleva dire... Io ho capito che il 32nm bulk di intel era meglio del 28nm bulk GF, tanto che a parità di vcore, intel va il 30% di più...
allora rasenti l'ignoranza, scusami ma è così :rolleyes:
se nel ridurre il fo4, non si ha il vantaggio di raggiungere frequenze più elevate a parità di gate delay e quindi di vcore, cosa si fa a fare?
Capisci sempre quello che vuoi. ;)
Mi riferivo al silicio brutto e cattivo che ha stroncato i sogni sulle frequenze bestiali.:sofico:
george_p
23-06-2016, 16:11
Ho sempre letto con piacere i tuoi interventi, come quelli di Cesare e quelli di marco ( e qualche altro utente che posta spesso su questo th), ma lo sfottò che stai usando non ti si addice e credo non ti appartenga nemmeno.
Ognuno in base alle proprie conoscenze è libero di fare previsioni, ma alcuni utenti lo fanno con conoscenze maggiori rispetto agli altri.
Onestamente se Marco mi fa un ragionamento e Cesare arriva con controragionamenti (suffragati da dati e tesi) e tu con altri, diventa un bel leggere (perchè si parla di tesi ed ipotesi ragionate e logiche, che possono essere tutti giusti presi singolarmente, ma che in pratica possono venir azzoppati da fattori non identificabili da fuori).
Ma leggere di questi continui punzecchiamenti più che irritarmi mi deprime.
Per tutti (senza offendere nessuno):
Mai discutere con un idiota, la gente ascoltando non distinguerebbe il saggio dall'idiota.
Hai pienamente ragione.
Più che fargli presente un paio di volte, questo suo atteggiamento da bambino arrabbiato perché gli si sta mettendo in pericolo il suo giocattolo preferito*, non mi ci metto più perché alla fine divento come lui.
Mi spiace perché in tanti suoi interventi non ho mai visto tanto fegato e voglia di insultare come in questi giorni. Che tutta l'intelligenza se ne va con questi post infantili.
Tra l'altro facendosi accompagnare nei flame dai suoi compagni di brand.
Ma anche i fanboy amd vanno nei threads intel e nvidia a fare i cafoni in questo modo?
Immagino di si, se è vero fanboy.
Spiace un pò
*Vero significato e atteggiamento da fanboy che tanto disprezza negli altri.
Piedone1113
23-06-2016, 16:14
Menomale che non vuoi offendere... :asd:
Non era riferito a te (e non mi sognerei di darti dell'idiota, anche se ti stai comportando in modo infantile).
Il senso, se vuoi intenderlo è quello di darsi una calmata:
Immagina Plank, Fermi ed Einstein (tre geni indiscussi) discutere tra loro con gli stessi toni che state usundo:
Chi ascoltandoli non gli scambierebbe per perfetti Idioti?
Forse hai frainteso cosa voleva dire... Io ho capito che il 32nm bulk di intel era meglio del 28nm bulk GF, tanto che a parità di vcore, intel va il 30% di più...
Il 32nm SOi di certo non era peggio del 30%, ma il libro delle scuse fa comodo.
Capisci sempre quello che vuoi. ;)
Mi riferivo al silicio brutto e cattivo che ha stroncato i sogni sulle frequenze bestiali.:sofico:
Infatti il Power 6 è arrivato a 6GHz sul 65nm per MAGIA... :D
Il 32nm SOi di certo non era peggio del 30%, ma il libro delle scuse fa comodo.
Se non mi sbaglio, l'A10-7800 da lui nominato è sul 28nm BULK...
D'altronde 1,2 mi sembra un Vcore bassino... Il vantaggio del SOI è che puoi salire di Vcore senza avere alto leakage e quindi poter salire di più...
george_p
23-06-2016, 16:28
Capisci sempre quello che vuoi. ;)
Mi riferivo al silicio brutto e cattivo che ha stroncato i sogni sulle frequenze bestiali.:sofico:
Se fossi obbiettivo sapresti che il SOI ha sempre avuto miglioramenti lungo l'arco di oltre un anno e mezzo, e non di 400 MHz e basta.
Come mai PD ha avuto un solo aumento di frequenza (400 MHz) rimanendo nei 125 W di tdp?
Pensi sia dovuto al silicio?
No al RCM aggiunto da amd altrimenti non avrebbe avuto manco quello. E infatti la serie FX9XXX quando sfora la frequenza default fa volare in alto anche i consumi.
Quindi si, quel silicio è pessimo sotto tutti gli aspetti.
Ma anche i fanboy amd vanno nei threads intel e nvidia a fare i cafoni in questo modo?
Immagino di si, se è vero fanboy.
Il tifo non mi appartiene caro. Lo lascio a voi.:sofico:
Non ho azioni ne mi pagano per pubblicizzarli.:Prrr:
george_p
23-06-2016, 16:37
Il tifo non mi appartiene caro. Lo lascio a voi.:sofico:
Non ho azioni ne mi pagano per pubblicizzarli.:Prrr:
I tuoi post da bambino arrabbiato parlano per te.
tuttodigitale
23-06-2016, 16:46
Il 32nm SOi di certo non era peggio del 30%, ma il libro delle scuse fa comodo.
Aspetta perchè metti in bocca cose che non ho detto...
il mio era un chiaro riferimento al silicio con cui è stato costruito kaveri....è evidente che per un motivo o per un altro quello di INTEL è molto meglio.
Questo non significa che Kaveri dovesse girare a frequenze del 30% superiori, ma a Vcore più favorevoli unito ad un aumento di clock si....
tuttodigitale
23-06-2016, 16:52
Quindi si, quel silicio è pessimo sotto tutti gli aspetti.
la cosa simpatica che abbiamo avuto una discussione tempo fa, dove gli avevo fatto notare che i miglioramenti nel settore HPC, a livello di ipc è del 3% passando dal power7 a l power7+, e il clock era passato da 4,24 a 4,42GHz (+4%) e che la stessa IBM pubblicizzava un misero +10% (gonfiato) di prestazioni per watt....
tutto questo, quasi un anno dopo dalla commercializzazione del fx8150....ovvero a processo produttivo maturo.
nonostante ciò continua ancora a ribadire che il problema non è stato del silicio, ma di AMD....:rolleyes:
ritornando il pd-soi a 22nm, la stessa IBM afferma che i finfet (soi?) sono meglio...
http://semimd.com/hars/files/2013/02/IBMCarbonNanotubesSOI1.jpg
poi anche i fd-soi a 28nm, sulla carta parevano chissaché
http://semimd.com/hars/files/2012/03/STslide32.jpeg
Peter Sellers
23-06-2016, 17:23
Aspetta perchè metti in bocca cose che non ho detto...
il mio era un chiaro riferimento al silicio con cui è stato costruito kaveri....è evidente che per un motivo o per un altro quello di INTEL è molto meglio.
Questo non significa che Kaveri dovesse girare a frequenze del 30% superiori, ma a Vcore più favorevoli unito ad un aumento di clock si....
si ma andando a memoria voi amd-fan avete sempre spaccato i maroni che il silicio globalfoundries SOI altro che quello schifiltoso intel un bulk di terz'ordine come tutto quello che fa intel d'altronde, a vostro dire (e ne dite, in pratica parlate più di intel che di amd in questo genere di discussioni) un azienda di ciappini retta da ciappini che fa cose sgrause ma sta lì solo grazie agli abusi di posizione dominante, ovviamente al compilatore taroccato, ai commessi di supermercati testati da paolo oliva, al passaparola della ggggggenteee, ai siti di parte (tutti in pratica) con sempre ovviamente toms in testa, oltre che varie ed eventuali
insimma un mix di caricature, disinformazione, voli pindarici, fantasie autoreferenziali (della serie qualcuno riporta qualcun'altro che ha detto qualcosa in questa discussione non importa se fondato, e a furia di ripeterlo diventa vero), sofismi ecc. paolo oliva ha pure accusato intel di far crollare grattacieli per colpa dei suoi processori :sofico:
poi se qualcuno obietta qualcosa qui come in discussioni similari addirittura su siti esteri lo fa perchè mosso da amd suck e intel rulez
ma se siete voi a ragionare unicamente al parametro che intel suck e amd rulez che forse non ve ne rendete nemmeno conto :confused:
risultato discussione tecnica regolarmente in vacca e senso critico 0
zen sta lì non tanto a provare a rimettere in moto un meccanismo concorrenziale che evidentemente in questi anni è mancato (quello è lo scopo d'altronde per cui il team retto da Suzanne Plummer è nato ma per voi come di consueto più realisti del re non certo è colpa di amd se ha latitato, essa è sempre esente da colpe o limiti che dir si voglia) no zen sta li a vendicarvi di 10 anni di torti intelliani..... :rolleyes:
il senso di tutto questo ambaradan che imbastite lo sapete solo voi, ma forse volete convincere solo voi stessi...
Peter Sellers
23-06-2016, 17:33
la cosa simpatica che abbiamo avuto una discussione tempo fa, dove gli avevo fatto notare che i miglioramenti nel settore HPC, a livello di ipc è del 3% passando dal power7 a l power7+, e il clock era passato da 4,24 a 4,42GHz (+4%) e che la stessa IBM pubblicizzava un misero +10% (gonfiato) di prestazioni per watt....
tutto questo, quasi un anno dopo dalla commercializzazione del fx8150....ovvero a processo produttivo maturo.
nonostante ciò continua ancora a ribadire che il problema non è stato del silicio, ma di AMD....:rolleyes:
quindi chi ha progettato BD (o meglio chi ha capeggiato il progetto non era Meyer che poi si è dimesso qualche mese prima della sua uscita?) non doveva mettere in conto eventuali problematiche di questo tipo?
ma stai scherzando?
insomma mica è colpa di intel se non ha potuto portare i suoi prescott a 7Ghz, ma del silicio cinico e baro...
e poi non abbiamo forse un 9590 che malgrado i suoi 5Ghz vede il 6700 con i binocoli e di un A10 carrizo (malgrado gli innegabili progressi ottenuti) che continua a vedere sempre con i binocoli un i5 entry level?
ma di cosa stiamo parlando?
Infatti il Power 6 è arrivato a 6GHz sul 65nm per MAGIA... :D
UP :D
Non ho nessuna verità in tasca, ma non elargisco certezze basandomi su una slide di una macro FPU (su un ARM a9), oltretutto non abbiamo nulla su ZEN.
Quella macro è realistica perchè sul 28nm va da 0.97 (LPP) a 1.17 GHz (HPP) @330mW, quindi rappresenta realisticamente quello che si può ottenere dal 28nm su una architettura ARM mid/low range...
Che la stessa architettura più che raddoppi il clock massimo a parità di potenza è semplicemente indice del salto dal 28nm scrauso al 14nm che quasi raggiunge il 14nm INTEL.
Non mi aspetto un raddoppio di frequenza alle alte frequenze, è OVVIO che c'è un diminishing return, ma l'immagine in firma è una stima realistica del comportamento del silicio...
-NINGEN-
23-06-2016, 17:58
quindi chi ha progettato BD (o meglio chi ha capeggiato il progetto non era Meyer che poi si è dimesso qualche mese prima della sua uscita?) non doveva mettere in conto eventuali problematiche di questo tipo?
Nessuno ha la sfera di cristallo, magari se facevano un architettura che rendeva a bassa frequenza ma murava prima e il silicio permetteva di salire "oltre il muro" avevano sprecato potenziale.
e poi non abbiamo forse un 9590 che malgrado i suoi 5Ghz vede il 6700 con i binocoli [...]
Stai confrontando 32nm con 14nm, confrontando 9590 con 2600k (http://www.anandtech.com/bench/product/1289?vs=287) e 9590 con 3820 (http://www.anandtech.com/bench/product/1289?vs=523) (i "top" 4 core a 32nm per intel e amd) il confronto non è così impari...
UP :D
Magia in-order con un IPC da Pentium 1.:p (poi ti lamenti del ipc del Pentium 4:p )
Un dualcore con un ipc ridicolo con immagino un tdp da 300watt che ti piace tanto. (cestinato da ibm al primo colpo)
Un campione di efficienza...:sofico:
I 6ghz giusto in laboratorio... (5ghz a spinta nei prodotti commerciali)
paolo.oliva2
23-06-2016, 19:46
si ma andando a memoria voi amd-fan avete sempre spaccato i maroni che il silicio globalfoundries SOI altro che quello schifiltoso intel un bulk di terz'ordine come tutto quello che fa intel d'altronde, a vostro dire (e ne dite, in pratica parlate più di intel che di amd in questo genere di discussioni) un azienda di ciappini retta da ciappini che fa cose sgrause ma sta lì solo grazie agli abusi di posizione dominante, ovviamente al compilatore taroccato, ai commessi di supermercati testati da paolo oliva, al passaparola della ggggggenteee, ai siti di parte (tutti in pratica) con sempre ovviamente toms in testa, oltre che varie ed eventuali
insimma un mix di caricature, disinformazione, voli pindarici, fantasie autoreferenziali (della serie qualcuno riporta qualcun'altro che ha detto qualcosa in questa discussione non importa se fondato, e a furia di ripeterlo diventa vero), sofismi ecc. paolo oliva ha pure accusato intel di far crollare grattacieli per colpa dei suoi processori :sofico:
Visto che mi hai messo in causa 2 volte
- per il silicio, devi pensare a quei tempi e non adesso. A quei tempi come si comportava il 45nm SOI vs 45nm BULK HKMG LOW-K? Il passaggio dal 45nm SOI al 32nm SOI con aggiunta dell'HKMG e ULK prometteva un salto ENORME. Se poi il 32nm SOI si è rivelato al di sotto delle attese, beh, se lo avesse saputo pure AMD, avrebbe fatto un BD con un FO4 più alto, no?
- per il boicottaggio negli iper e per i bench di parte, bisogna avere il paraocchi per non vederlo (o ammetterlo)
- Per il fatto di Intel accusata di far cadere i grattacieli, non ho voglia di cercarlo, ma era sul Pentium 90/100 1 120, che avevano la FP bacata che sbagliava oltre i 2 punti decimali. Allora l'esempio era che se si fosse costruito un grattacielo, la somma di dati errati consecutivi avrebbe portato un grattacielo a crollare. Me lo ricordo bene perchè allora io assemblavo i PC e geometri/architetti erano andati tutti sul Pentium 90/100, e dall'oggi al domani me li sono ritrovati sfunati come belve nel mio negozio e quell'articolo me lo hanno portato loro, ma fortunatamente li ho rassicurati perchè nel medesimo tempo Intel aveva comunicato che bastava comunicare l'SN e lo cambiava gratis all'istante. Non facciamo un puzzle sul nulla.
cdimauro
23-06-2016, 19:51
Beh è anche una questione di economia di scala...
I portatili HP immagino che debbano essere ingegnerizzati.
Spesso hanno schede madri Custom.
In ogni caso bisogna mettere su una linea di produzione e dividere il costo di ricerca e sviluppo sul numero previsto di pezzi venduti...
Se AMD ha un volume 1/10 di INTEL, è chiaro che anche se la APU AMD costa 150$ in meno, probabilmente i costi di sviluppo per unità è 10 volte INTEL...
Se per INTEL il sovraprezzo è 20$, per AMD sarà 200$... E quindi questo si mangia tutto lo sconto AMD.
Non necessariamente c'è un complotto...
Esattamente.
E' vero che INTEL probabilmente farà uno sconto ad HP, ma sarà correlato con le quantità...
Ad HP come a qualunque altro venditore che gli garantisce gli stessi volumi.
Questo è il motivo di AM4 e il FCH integrato, IMHO... Le schede madri saranno uguali per i vari segmenti, FP4 sul mobile e AM4 sul desktop, nessun FCH obbligatorio, tutto integrato sul DIE e magari prezzo anche inferiore ad INTEL... Se iniziano a vendere, vedrete che poi INTEL dovrà inventarsi qualcosa: farà anche lei un full SoC e/o ridurrà i listini...
Intel ha già SoC, ma in ambito desktop predilige avere chipset dedicati in modo da aumentare l'offerta per i clienti.
Anche la flessibilità ha il suo valore aggiunto.
inflazionatissimo? tu quanti server ARM-based hai visto?
X-Gene e Thunder-X attualmente. Entrambi che lasciano il tempo che trovano (nonostante l'esorbitante numero di core nel secondo caso), ma questo penso che tu lo sappia già. ;)
Sono curioso di sapere cosa sarà questo k12 : motore più grande (cit. Keller) di ZEN, cosa vorrà significare? :stordita:
Che i transistor risparmiati su decoder e uROM sono finiti in qualche unità di calcolo addizionale, ad esempio.
Comunque su chip da diversi miliardi di transistor qualche milionata di transistor in più per il decoder di ogni core sostanzialmente non fa la differenza. Per cui non mi aspetto che un core di K12 sia così "grosso".
Anche perché se da un lato l'architettura CISC ti porta via dei transistor, è anche vero che ne benefica la densità di codice, e di conseguenza ti puoi permettere delle cache istruzioni più piccole. Il che significa che c'è un risparmio di transistor...
Per cui sono curioso di vedere in cosa consista questa maggior grandezza.
David Kanter, si è sbilanciato dicendo che k12 sarà veloce il 10-15% più di ZEN.
Visto, e son cose note, peraltro, anche se omette di parlare dei vantaggi, che ci sono, in architetture CISC come IA-32/x64.
L'unica spiegazione per quell'aumento è che a K12 hanno rinforzato non poco il backend.
Purtroppo non ci sono altre informazioni.
Comunque mi pare che Keller fosse a capo del progetto Athlon64, e abbia definito lui l'estensione a 64 bit. Della situazione attuale, dunque, non è che sia esente da colpe, perché poteva fare scelte ben diverse. MOLTO diverse, considerato che x64 NON è 100% compatibile con IA-32, e dunque le applicazioni andavano come minimo ricompilate, e in alcune parti riscritte.
Sarebbe interessante sapere come mai non abbia osato di più con x64, e si sia limitato al minimo indispensabile per avere puntatori e dati a 64-bit, sebbene sia stato pregevole l'aver raddoppiato i registri general purpose e SIMD, e aggiunto la modalità d'indirizzamento della memoria relativa al PC/RIP.
paolo.oliva2
23-06-2016, 20:02
quindi chi ha progettato BD (o meglio chi ha capeggiato il progetto non era Meyer che poi si è dimesso qualche mese prima della sua uscita?) non doveva mettere in conto eventuali problematiche di questo tipo?
ma stai scherzando?
insomma mica è colpa di intel se non ha potuto portare i suoi prescott a 7Ghz, ma del silicio cinico e baro...
L'aspettativa era 10GHz, non 7GHz.
e poi non abbiamo forse un 9590 che malgrado i suoi 5Ghz vede il 6700 con i binocoli e di un A10 carrizo (malgrado gli innegabili progressi ottenuti) che continua a vedere sempre con i binocoli un i5 entry level?
ma di cosa stiamo parlando?
Io direi di che cosa stai parlando...
stai paragonando un PIV perchè non è arrivato a 10GHz ma a 3GHz (quindi il -70% dell'aspettativa) a BD che invece al posto di 4GHz doveva essere 4,7GHz (<-20%), poi porti a confronto una architettura Piledriver (manco Steamroler o Excavator) sul 32nm con l'untima Broadwell sul 14nm, ignorando la differenza silicio e quant'altro, poi un A10 che è X4 ma 2 moduli con X4 Intel (ma il modulo AMD doveva contrastare il core + HT Intel. Da un X4 Intel ad un X4+4 sempre Intel c'è il 30% di differenza, da 2 moduli AMD a 4 moduli AMD c'è il 100% di differenza, è come se paragoni un X2 ad un X4), ma tu vedi la differenza prestazionale solamente nell'architettura.
Hanno postato a 1000 che 2 8350 vanno tanto un 5960X. Lo concordi?
Il 14nm FinFet permetterebbe tranquillamente un X16 XV.
Un 6900K, Broadwell sul 14nm, quanto incrementa sul 5960X? 5% di IPC e <7% di clock?
Un XV incrementa su PD più del 15%, quindi se XV guadagna su PD di più che il 6900K sul 5960X, mi sembra ovvio che BD a parità di miniaturizzazione con Broadwell, non sia così distante a visuale binocolo (veramente dovrebbe andare di più in MT).
Sei te e quelli come te che generano disinformazione, perchè confrontano proci su miniaturizzazione di silicio differenti e poi, guardando il TDP e potenza MT, attribuiscono i valori migliori all'architettura.
cdimauro
23-06-2016, 20:13
Tanto remota non direi, e molto probabilmente si è fermata nel 2006 quando è stata portata in tribunale.
Remota = è passato parecchio tempo. Ere geologiche, informaticamente parlando.
Non mi occupo di cercare nuovi casi di pratiche scorrette di aziende, però se ti va apri un thread dedicato e avvisami pure privatamente così magari se interessato vengo a leggerti.
Idem: non m'interessa aprire thread, perché non sono stato io a fare certe affermazioni campate per aria.
Come già detto, l'onere della prova è di chi afferma una tesi, e dunque io sono qui che aspetto queste prove che, però, tardano ad arrivare. Chissà perché...
Sei venuto con il solo intento di flammare, vedo.
Premesso che, per le poche pagine che ho visto, questo thread è già di per sé un megaflame, ti sarà sfuggito che sia intervenuto per chiedere conto di certe affermazioni strampalate, per non dire diffamatorie.
Non l'avrei fatto altrimenti, ma certe cose non potevo certo farle passare allegramente, anche se comprendo di aver rotto le uova nel paniere ai fanatici integralisti che usano questi mezzucci retorici per sfogarsi.
Altra cosa, non meno importante, dovresti dare un'occhiata al carico di letame che m'è arrivato addosso solo per questo. Su questo immagino che non avrai nulla da dire, visto che è opera dei tuoi amici fanboy.
Ciao Mauro,
Cesare. :)
se per te 10 anni possono sembrare poco
Veramente è l'esatto contrario: reputo siano tanti.
ti vorrei ricordare il concetto di memoria storica che sembri non voler tener presente e che vale molto di più del "Non so tu, ma io è da un pezzo che ho smesso di festeggiare i mondiali che abbiamo vinto, visto che risalgono a 10 anni fa...". A parte che i mondiali vinti sono un episodio positivo mentre il comportamento di intel è invece un episodio negativo e il concetto di memoria storica serve proprio ad evitare che le generazioni future dimentichino quello che è accaduto, per evitare il ripetersi degli errori. Ti faccio degli esempi anche se credo non ce ne sia bisogno: il nazzismo, Stalin, Pinochet, la bomba di Hiroshima, ecc.
Questo concetto l'ho imparato quando ero alle medie da una bravissima insegnante di Italiano e Storia e il mio rammarico che l'uomo invece di tenerlo presente, sembra proprio sbattarsene amabilmente e questo porta al ripetersi di certe situazioni, come fossimo incastrati in loop storico. Sicuramente gli esempi che ti ho portato sono ben più importanti e significativi della diatriba amd intel ma l'ho fatto per farti tornare in mente il concetto, sicuro che anche tu sappia di cosa sto parlando.
Non mi sfugge il concetto, ma la sua applicazione distorta sì.
Cosa dovremmo trarre dalla storia? Che i tedeschi siano tutti nazisti? Che continuino a esserlo dopo 70 anni dai crimini commessi? Che dovrebbero svegliarsi ogni mattina chiedendo perdono autofustigandosi col gatto a nove code per i crimini commessi dai loro avi?
Considerato che siamo stati loro felici alleati e che abbiamo anche noi perpetrato crimini contro l'umanità, la stessa cosa si applica anche a noi italiani, ovviamente. Tu come ti senti? Sei a posto con la coscienza? Consideri aprioristicamente criminali e fascisti tutti gli italiani, ancora oggi? Li guardi con sospetto qualunque cosa facciano?
Perché qui il problema non è certo ricordare, perché abbiamo tutti presente cosa sia successo. La questione è che con la scusa della memoria storica i fanboy scaricano su un'azienda i loro istinti, pretendendo di applicare quei fatti all'attualità/futuro, senza la benché minima prova ovviamente.
Intel sarebbe sempre e comunque colpevole. Un po' come l'Italia che, per analogia, è e rimane una nazione che compie atti criminali in eterno.
Premesso ciò, vero sono passati una decina d'anni da quando sono avvenute quelle pratiche commerciali scorrette (definite così nell'accordo extra-giudiziale per evidenti motivi) ma un accordo extragiudiziale, che tu ne dica, è un accordo tra due parti prima di arrivare ad un processo e rappresenta un ammissione di colpa per chi ha causato il danno. Per es Conte dopo la sentenza di assoluzione ha precisato di aver insistito per andare a processo proprio perché l'accordo proposto dall'accusa era un modo per ammettere qualche colpa e lui, sentendosi pienamente innocente, voleva invece dimostrare la sua innocenza. Visto che l'accordo l'ha proposto Intel per non andare avanti nella disputa giudiziale nel Delware e in Giappone, mi sembra palese che lo abbia proposto perché sapeva di perdere e quindi di essere colpevole. Questo è un fatto incontrovertibile e se vuoi pensarla diversamente, liberissimo ma sbagli.
Non mi pare di essermi mai espresso in merito, ma sei libero di quotarmi.
Ho, anzi, affermato che Intel abbia attuato delle politiche di concorrenza sleale.
Tu dici:
"In primis non c'è scritto da nessuna parte che si possa continuare a infrangere la legge."
Ti cito l'accordo:
[...]
Come vedi l'accordo dura 10 a partire dal novembre 2009 più 120 giorni ergo fino a fine 2019 l'accordo è valido.
Inoltre mi pare chiaro che l'accordo non vieta ad intel di commettere di nuovo le pratiche scorrette di cui alla sezione 2.0 che sono i capi d'accusa dati dal U.S. Federal Trade Commission e dall'antitrust europeo,
Non è così, ma ne parlo meglio dopo.
per cui non solo ha perso la causa in primo grado, ma ha perso pure il ridicolo ricorso ed è quindi stata condannata al pagamento delle spese processuali. Ridicolo perché non ho capito il motivo di ricorrere dopo aver firmato quell'accordo con amd. Faceva più bella figura a non ricorrere ma evidentemente, dall'alto della loro forte immagine hanno ritenuto che anche perdendo nel ricorso con la Commissione UE, non avrebbe pregiudicato una perdita d'immagine (come poi è stato).
In ballo non c'erano mica noccioline.
Ritornando in tema, l'accordo al punto 6.2 dice proprio che se per 4 trimestri consecutivi il market share di intel scendesse sotto il 65%, pubblicato dal Mercury Reserch, l'accordo decade e intel può di nuovo usare quelle pratiche commerciali scorrette che l'hanno portata ad avere problemi con gli antitrust e con amd stessa. Ergo non è assolutamente vero che c'è scritto che non può infrangere la legge. E' liberissima di farlo. Solo che se lo fa prima di essere scesa sotto il 65% sta violando anche un accordo extragiudiziale che amd impugnerà davanti ad un giudice USA mentre se lo fa quando sarà sotto il 65% allora non violerà l'accordo extragiudiziale ma bensì tutte le leggi antitrust del mondo per la seconda volta nella storia (seconda perché non ci sono prove che non lo abbia fatto anche altre volte).
Non è affatto così. Vedi dopo.
So che tu mi risponderai che nella sezione 2 intel scrive che quelle pratiche commerciali non violano nessuna legge nel mondo o ordine emesso da un organo di regolamentazione (vedi antitrust) peccato poi che per effetto della perdita della causa con la UE quel trafiletto vale come il 2 di picche a briscola. Quando è stato scritto Intel ancora non sapeva l'esito del ricorso della causa con il UE ed avendo perso è ovvio che quelle pratiche commerciali sono fuori legge almeno qua in territorio comunitario UE.;)
"2.0 BUSINESS PRACTICES
As part of the overall resolution of the Actions, and without conceding expressly or by implication that any of the following business practices are required by the laws of any jurisdiction, or any order issued by any regulatory or adjudicative body, anywhere in the world, or that contrary business practices would violate any such laws or orders, the Parties agree to adhere to the Business Practices set forth in Section 2.0 for the term, and subject to the conditions, set forth in Section 6.0."
Questo paragrafo è costituto da una principale:
"As part of the overall resolution of the Actions, the Parties agree to adhere to the Business Practices set forth in Section 2.0 for the term, and subject to the conditions, set forth in Section 6.0."
e una subordinata:
"and without conceding expressly or by implication that any of the following business practices are required by the laws of any jurisdiction, or any order issued by any regulatory or adjudicative body, anywhere in the world, or that contrary business practices would violate any such laws or orders"
La principale parla dei fatti che sono successi, ma è proprio la subordinata che ne limita l'azione al rispetto di eventuali leggi.
Dunque non è vero che Intel sarebbe libera di trasgredire nuovamente la legge. Quella parte certamente non lo afferma.
Posto che, manco a dirlo, anche se ciò non fosse stato negato, un accordo del genere è, di fatto nullo. Infatti la legge è e rimane sopra qualunque accordo.
Infine, e ben più importante, anche nell'ipotesi che possa essere in grado di farlo, ovviamente NON vuol dire che lo farà.
Qua potete scaricare il pdf integrale e ampliare la vostra memoria storica;)
http://www.mediafire.com/download/p2iqfed71b53i92/accordo_amd-intel.pdf
http://www.ilsole24ore.com/art/SoleOnLine4/Economia%20e%20Lavoro/2009/05/antitrust-ue-multa-intel.shtml?refresh_ce=1
Periodo 2002-2007 per cui ad onor del vero, le pratiche si sono concluse 9 anni fa.;)
http://www.nytimes.com/2008/06/05/business/worldbusiness/05intel.html?_r=0
ad onor del vero non solo in giappone ma persino dal governo coreano.:D
http://www.jftc.go.jp/en/pressreleases/yearly_2005/mar/2005_mar_8.files/2005-Mar-8.pdf
Avevo già letto sia il documento dell'accordo sia gli altri link.
@MisterD:
Guarda che è intervenuto in questo thread con l'intento di flammare, come ha scritto, a lui delle pratiche scorrette di i non gli frega nulla.
Questa si chiama mistificazione: non ho mai detto nulla del genere.
Ovviamente sei sempre libero di quotarmi e dimostrare ciò che vorresti appiopparmi.
Lascerei cadere il discorso e tornerei sull'argomento Zen che è il topic dedicato esclusivamente a questo.
Perché non lo fate voi, così si eviterebbe alla radice ogni questione?
Debbo ricordarti da dove sia partito tutto, e soprattutto da parte di chi? Chiedilo al tuo allegro compagno di merende.
Io ho chiesto conto e ragione di quelle affermazioni diffamatorie.
O forse la diffamazione cessa automaticamente di esistere quando a farne le spese sia Intel? Mi ricorda molto la fattoria degli animali, con le leggi ad personam...
Mi era scappato questo post, non so che dire, dalle risposte precedenti quel post mi sembravano pertinenti e con un tono appropriato. In quel post invece no, beh se ritieni che sia andato oltre le righe segnala e aspetta;)
Non è che quel post arrivi per puro caso, eh!
Sempre a proposito di memoria storica, dovresti vedere ciò che era stato scritto prima, in particolare dal partigiano numero uno di AMD, e tutto quello che gli è uscito dalla tastiera.
Tante di quelle frottole e balle inventate pur di difendere la sua amata marca del cuore, che una battuta del genere, se permetti, ci sta proprio benissimo.
Facile fare cherry-picking, prendendo una frase isolata dal contesto, e ricamandoci sopra l'accusa nei confronti dell'orco brutto e cattivo, non credi?
E sempre a proposito di giudizi a corrente alternata, a seconda delle simpatie, "stranamente" a Giorgio l'onesto è sfuggito tutto questo:
"Ma sei un dipendente Intel? Azzo, trema, Intel non ci pensa 2 volte a lasciarti il per terra se Zen rovina la sua previsione di bilancio (chiaramente onesta ma riveduta con -50%).
[...]
Certo che è buffa la questione... quando io riporto che AMD paga a GF Zen in base ai volumi prodotti (e quindi più basso sarà il prezzo di Zen = più ne venderà = meno li pagherà) gli intellisti fanno le 3 scimmie... si parla di sconti per quantità di Intel, si sollevano all'unisono per dire che è normale... Cacchio... certo che l'obiettività è proprio il marchio che vi contraddistingue."
scritto dal suo compagno di merende PRIMA della mia frase accuratamente selezionata.
Questo non è flammare, vero? Ma no, si chiama licenza poetica. :D
Ciliegina sulla torta:
"Io direi più INTEL PAGA!!!"
Diffamazione (peraltro con l'aggravante di essere a mezzo stampa) sulla quale NESSUNO qui ha avuto nulla da dire.
La banda degli onesti vi fa un baffo...
Non per difendere Ace, che mi sembra ben più capace di me, ma mi pare che stesse semplicemente correggendo paolo, il quale sosteneva che fosse la sola pratica degli sconti a configurarsi come concorrenza sleale e non, come invece riportato, praticare sconti a patto di tagliare fuori AMD.
Esattamente, ed è scritto chiarissimo e semplicissimo. Ci vuole proprio una gran malafede per sostenere il contrario.
@Paolo
@Cesare
@et company
Sulle pratiche scorrette (il termine scorrette vuol dire tutte e niente comunque) ci sarebbero pagine da scrivere, ma non è questo il luogo ed il momento.
Che Intel sia stata trovata con le mani nella marmellata è indubbio, che lo abbia fatto per nuocere indebitamente AMD è parzialmente vero.
Che Amd non era in grado di coprire la richiesta di cpu del mercato OEM è un'altra verità.
Non dimentichiamoci che il motivo principale per il quale gli OEM cedettero al "ricatto" Intel è stato principalmente a causa della relativa bassa capacità produttiva di Amd.
Cito Acer che fu la prima a sollevare la questione.
Acer si lamentava del fatto che Intel non approviggionava adeguatamente i propri magazzini perchè aveva a listino molti prodotti AMD inside (scusate l'intellismo).
Intel nei suoi contratti di fornitura con gli OEM chiedeva alcune cose:
Produzione di macchine AMD non superiore ad una certa produzione del totale (mi sembra di ricordare il 10%.
Offriva sconti alti sui propri prodotti (forse con la vendita anche in pareggio) e sopratutto garantiva la fornitura prioritaria delle proprie cpu e chipset.
I grandi big (ad esclusione della sola Acer se non sbaglio) valutarono la cosa ed accettarono non tanto per lo sconto, quanto piuttosto per la capacità di approvigionamento che Amd non avrebbe potuto garantire (non dimentichiamoci che siamo in pieno boom pc).
Questi sono i fatti al netto di eventuali doli o illegalità.
Scusami, "Piedone", ma chi ha sostenuto il contrario qui?
Non è delle cose passate, consolidate, e note a tutti che m'interessa discutere, ma della pretesa di appioppare le stesse azioni, di una decina d'anni fa, anche a oggi e addirittura in futuro (il maga Otelma può andare a nascondersi).
E' su queste ultime che ho chiesto conto e ragione, viste le accuse infamanti, ma ovviamente tutte le richieste sono sistematicamente cadute nel vuoto, a dimostrazione che risulta molto facile tirare la pietra e nascondere la mano.
Diciamoci la verità: è che i fanatici integralisti AMD vogliono avere il diritto di spalare liberamente letame, e guai a contraddirli o a chiederne le prove.
E' così: "so' ragazzi" che si devono sfogare con questi mezzucci retorici, e non si sa bene per quale motivo, visto che qui non mi pare ci siano dipendenti o azionisti AMD.
Tornando a noi:
Cesare credi possibile che Amd possa produrre una cpu con ipc vicino simile ad Intel e un tdp di 95-100w per 4 ghz su 8 core?
Sul piano delle possibilità tutto è possibile, ovviamente.
Ma mi astengo dall'esprimere un giudizio perché si sa poco di Zen, e poi nella mia posizione è meglio evitare.
Comunque su qualche questione tecnica mi sono già espresso e mi esprimerò (vedi dopo).
Pur con tutta la differenza di quote di mercato a vantaggio intel non ho mai visto costare meno l'hardware con i suoi prodotti, mai, in nessun caso nemmeno nei periodi di apice amd.
E alla faccia degli sconti che intel può permettersi di fare.
E' invece altamente probabile che certe "discriminazioni" non siano mai venute meno :)
Singolare questa tua affermazione, ovviamente del tutto priva di riscontri, quando in precedenza avevi affermato questo:
"Tanto remota non direi, e molto probabilmente si è fermata nel 2006 quando è stata portata in tribunale."
Dovresti fare un po' d'ordine, e metterti d'accordo con te stesso.
Ai posteri l'ardua sentenza.
A sentenza non ci si arriva senza prove. Anzi, non si apre nemmeno il procedimento.
son finiti gli schei?? :asd:
Fortunatamente e nonostante la flessione dei PC, le cose vanno abbastanza bene, grazie. :cool: :cool: :cool:
Piuttosto sono gli altri che devono preoccuparsi di arrivare a fine anno.
No, aspetta, il ricarico ZERO era riferito alle procedure precedenti.
La situazione di Carrizo è questa:
- Carrizo 150$ e Intel 300$
- Mobile Carrizo 1 singolo banco di ram e mobile Intel 2 banchi di ram.
- Mobile AMD = stesso prezzo mobile Intel.
Intel potrà anche fare uno sconto di 150$ su 300$ per portare il prezzo di costo = ad AMD, e questo è una cosa, ma a questo devi aggiungere che sul mobile AMD c'è un banco di RAM contro i 2 di Intel, vogliamo assegnare un valore? Tra l'altro non è manco specificato se Carrizo è 1 banco 4GB o 8GB, perchè potrebbe essere perfino Carrizo 4GB e Intel 8GB. Broadwell ha bisogno di chip.-set aggiuntivi? Perchè carrizo no, e anche questo aumenterebbe il prezzo di 20-30$.
Alla fine che ti trovi?
Se dai un valore di 70$ tra differenza RAM e chip-set, a parità di costo mobile, a un Carrizo 150$ Intel dovrebbe vendere Broadwell non a 150$, ma 150$ -il prezzo dei componenti aggiuntivi (a spannella ho messo 70$) e quindi a 80$.
Mi permetti che da un prezzo listino doppio per Broadwell se si arriva ad un prezzo Broadwell -50% quello AMD ci sia qualche cosa che esula allo sconto per quantità?
E che sarebbe? Su, esponiti pure, tanto ne hai già sparate abbastanza, per cui una più, una meno, non fa certo differenza.
Anzi, scrivi direttamente ad AMD con questa sensazionale scoperta: sia mai che la utilizzi per aprire un procedimento contro Intel. E magari come premio ti regalano pure il primo Zen con placchetta in oro e dedica annessa. :D
Fino a ieri AMD vende quasi sotto-costo e Intel ha i prezzi più alti GIUSTAMENTE, e mo Intel vende al -50% di AMD ed è normale?
Perché non dovrebbe esserlo? Intel ha le fabbriche (e dunque i relativi margini di differenza che si può permettere), e il suo processo a 14nm è ben più denso di quello della concorrenza (che è 14nm solo di nome), oltre al fatto che negli ultimi tempi le rese sono migliorate, e dunque ci sono molti più chip buoni.
Quella macro è realistica perchè sul 28nm va da 0.97 (LPP) a 1.17 GHz (HPP) @330mW, quindi rappresenta realisticamente quello che si può ottenere dal 28nm su una architettura ARM mid/low range...
L'FPU di ARM è di gran lunga più semplice di una x86. Specialmente se quest'ultima include estensioni come AVX/-2, o peggio ancora l'AVX-512 che arriverà il prossimo anno (ma è già presente negli Skylake server).
Non la prenderei come riferimento per fare calcoli e rapportarli a (micro)architetture IA-32/x64.
- per il boicottaggio negli iper e per i bench di parte, bisogna avere il paraocchi per non vederlo (o ammetterlo)
E' così evidente che "stranamente" lo stravedono solo i fanboy.
Poi uno gli chiede le prove, e ovviamente non arrivano mai.
L'FPU di ARM è di gran lunga più semplice di una x86. Specialmente se quest'ultima include estensioni come AVX/-2, o peggio ancora l'AVX-512 che arriverà il prossimo anno (ma è già presente negli Skylake server).
Non la prenderei come riferimento per fare calcoli e rapportarli a (micro)architetture IA-32/x64.
Lo so... :) Forse non hai seguito bene tutti i miei discorsi... :) Ho anche avuto uno scambio di tweet con il famoso Dresdenboy, che poi lo ha riportato sul forum di semiaccurate, dandomi sostanzialmente ragione, e anche li le persone che sostengono che Zen non possa superare i 3 GHz hanno dovuto arrendersi alle mie argomentazioni, anche perchè quello che ho affermato (vedi dopo) non contraddiceva quello che dicevano loro...
La FPU del Cortex A9 può eseguire 2 operazioni SIMD a 64 bit per ciclo, su interi e FP, un po' come le SSE/AVX, ma in scala ridotta.
La FPU di Zen, per quanto ci è dato sapere, può eseguire 2 operazioni a 128 bit, più altre 2 pipeline miscellanee. Io ho supposto che la FPU di Zen consumasse 4 volte quella del Cortex A9, visto che ho supposto il caso peggiore di 4x128bit operazioni per ciclo.
Poi ho supposto che un intero core consumi come 4 FPU, che mi sembra una stima eccessiva, soprattutto considerando il consumo supposto della FPU e considerando il consumo di un modulo XV a 2.7GHz sul 28nm stimato più dietro in questo thread (vedi sotto).
Poi ho moltiplicato per 8.
In sostanza: la FPU Neon sul 14nm FF LVT va a 2.41GHz a 0,72V (a 125 gradi C), con Vcore nominale di 0.8V e a 0.88V e 125 gradi consuma 330mW
Quindi uno Zen a 2.41 GHz dovrebbe poter girare a 0.8V nominali a 2.41GHz consumando 42.240W.
Questa è una stima per eccesso sia per la potenza, sia perchè la stima del FO4 del Cortex A9 è superiore a 30 e Zen non dovrebbe superare quella del K10 o di INTEL che si aggira sui 25-26.
A questi livelli di tensione, il processo GF/Samsung è in vantaggio, perchè per INTEL sembra ci voglia un VCore superiore per 2.41GHz (e tu forse me lo puoi confermare)
Tenendo conto del FO4, l'architettura Zen dovrebbe salire di più a 0.8V
Ma sembra che il 14nm FF regga fino a 1.1V a cui girano rumors di 4.3GHz a circa 1W per la macro, e quindi circa 128W per uno Zen a 4.3GHz con FO4 30.
questo è confermato dal grafico in firma, che fa parte di una presentazione confidenziale di ARM che mostrava lo scaling del processo 14nm.
Considerando anche i dati sui transistors HVT e RVT sulla macro, pubblicati qualche pagina indietro, questo grafico corrisponde esattamente (almeno fino ai 2.41GHz) ai dati appunto pubblicati sulla macro, se si pone 1=100mW sulle Y e frequenza in GHz sulla X.
Ma in ogni caso, tra FO4 inferiore, logica pulsed static, flip flop di tipo D veloci, RCM, AVFS, Zen dovrebbe andare notevolmente più veloce di una CPU ARM a parità di processo, potendo contare su altri 0,2V di margine per il Vcore (da verificare la potenza dissipata a 1V su 8 core, ma se ci arriva INTEL...)
EDIT: dimenticavo. Qui è stato pubblicato un consumo di circa 4,8W per un intero modulo XV a 2.7GHz sul 28nm HPP, mentre io ho stimato un consumo di 4.8W a 2.41 GHz di un core Zen sul 14nm LPP... Questo ti fa capire che probabilmente ho sovrastimato per eccesso in prudenza molte cose...
sta diventando difficile leggervi....io sono abituato a valutare cio' che posso "tastare" e non amo fare profezie.
tuttavia apprezzo un "frego" i post di bjt-tuttodigitale-ren-ecc ecc quando restano sul tecnico,reale e ipotizzato....pero' datevi una calmata perche' gli amdisti stanno rischiando grosso esponendosi cosi tanto e gli intellisti,che gli piaccia o meno,stanno facendo la figura dei bimbiminkia se insistono nel puro e semplice sfotto'.
detto cio',si parla di processori,se vi scannate per quelli,cosa dovremmo fare a chi gestisce sto paese da 45 anni?....dai,un bel respiro e relax....manca poco....:D
Poi dimenticavo... Se un modulo XV consuma 4.8W a 2.7GHz sul 28nm HPP, anche se supponiamo che dal 28nm al 14nm non si guadagna nulla, AMD potrebbe avere un X16 XV a 2.7GHz a circa 40W... Quindi sospetto che se AMD non ha preferito fare così, deve avere una soluzione migliore in Zen...
AceGranger
23-06-2016, 21:13
Rileggi bene allora a cosa risponde Ace con quel "assolutamente no" :)
Ciao
al massimo rileggi tu la sequenza di quote, che quello che ho scritto è chiarissimo.
Intel è stata condannata par una particolare pratica commerciale che NON era il semplice sconto che è piu che lecito.
No, aspetta, il ricarico ZERO era riferito alle procedure precedenti.
La situazione di Carrizo è questa:
- Carrizo 150$ e Intel 300$
- Mobile Carrizo 1 singolo banco di ram e mobile Intel 2 banchi di ram.
- Mobile AMD = stesso prezzo mobile Intel.
Intel potrà anche fare uno sconto di 150$ su 300$ per portare il prezzo di costo = ad AMD, e questo è una cosa, ma a questo devi aggiungere che sul mobile AMD c'è un banco di RAM contro i 2 di Intel, vogliamo assegnare un valore? Tra l'altro non è manco specificato se Carrizo è 1 banco 4GB o 8GB, perchè potrebbe essere perfino Carrizo 4GB e Intel 8GB. Broadwell ha bisogno di chip.-set aggiuntivi? Perchè carrizo no, e anche questo aumenterebbe il prezzo di 20-30$.
Alla fine che ti trovi?
Se dai un valore di 70$ tra differenza RAM e chip-set, a parità di costo mobile, a un Carrizo 150$ Intel dovrebbe vendere Broadwell non a 150$, ma 150$ -il prezzo dei componenti aggiuntivi (a spannella ho messo 70$) e quindi a 80$.
Mi permetti che da un prezzo listino doppio per Broadwell se si arriva ad un prezzo Broadwell -50% quello AMD ci sia qualche cosa che esula allo sconto per quantità?
Fino a ieri AMD vende quasi sotto-costo e Intel ha i prezzi più alti GIUSTAMENTE, e mo Intel vende al -50% di AMD ed è normale?
---------------------------------------------------------------------
Acer, "perchè è stata multata in passato c'è da menarla su ogni volta che AMD non vende o i ci sono prezzi simili sui prodotti degli OEM"...
Io da consumatore vedo questo... che un AMD dovrei pagarlo 150-200$ in meno rispetto ad Intel, ma non è che Intel ha calato, ma che il prezzo AMD è aumentato non giustificatamente, ed è ovvio che se nel mobile Intel mi ci metti pure 4GB di memoria in più, io acquisto Intel.
Ma ti torno a ripetere che io vedo il mobile Intel a prezzo normale e il mobile AMD a +250$ ingiustificatamente e non come vorrebbe un commercio "sano" un Intel a -300$.
si va bè, stai tentando di costruire una tesi ipotizzando costi a vanvera; la realta è semplicemente che producendo 100 pezzi puoi vendere a meno o uguale rispetto a produrne 10 anche se le materie prime costano meno nel secondo caso; poi se non ti va bene come risposta scrivi ad Acer o a chi vuoi e chiedigli perchè vendono quel portaile a quel prezzo, anzi chiedi al negozio e al grossista perchè magari il portatile Intel uscito dalla fabbrica ha un prezzo piu elevato ma subisce un ricarico differente dopo perchè magari la piattaforma deve raggiungere l'obiettivo numerico per riceve il premio sui volumi.
Ma visto che siamo in argomento, se come scrivi Intel può applicare sconti -80% sul listino per quantità, non equivale a dire che, sempre guadagnandoci, potrebbe segare dell'80% il listino? Questo non equivale a dire che un Zen a 400$ vorrebbe dire guadagno doppio di AMD su Intel?
Ma quando quoti, frasi come queste le eviti sempre....
generalemnte non le quoto perchè sono sempre ragionamenti a membro di segugio.
tu sai quanto effettivamente costa ad Intel o ad AMD un processore compreso di TUTTI i costi, dal silicio alla pubblicita, e non solo basandoti su 1 valore a vanvera di una slide ? NO, PUNTO, il discorso finisce li.
l'unica cosa che si sa è che Intel ha utili da capogiro e li puo fare solo se ha un determinato ricarico sulle CPU; poi puoi parlare quanto vuoi di aria fritta e farti tutti i fanta calcoli che vuoi, la realta poi tanto la vedi nei negozi e con le trimestrali.
george_p
23-06-2016, 21:43
@cdimauro:
Si, mi è sfuggita quella come tante altre cose che vi siete sparati a vicenda e di cui non mi riguarda particolarmente.
Chi riesce a seguire e leggere tutto di tutti i megapost che vi scrivete è un genio.
Il post che ho quotato era decisamente più visibile, e ok, sarà pure decontestualizzato ma il contenuto era tutt'altro che "pacifico".
A prescindere da ciò reputo chiunque scriva cercando di colpire "l'avversario" con insulti e offese, come ho letto tutto il giorno, un bambino arrabbiato per il suo giocattolino.
Non è escluso nemmeno Paolo per questo.
@Ace:
A me sembrava stessi dicendo che non era concorrenza sleale, io ho risposto a quello.
paolo.oliva2
23-06-2016, 21:50
sta diventando difficile leggervi....io sono abituato a valutare cio' che posso "tastare" e non amo fare profezie.
tuttavia apprezzo un "frego" i post di bjt-tuttodigitale-ren-ecc ecc quando restano sul tecnico,reale e ipotizzato....pero' datevi una calmata perche' gli amdisti stanno rischiando grosso esponendosi cosi tanto e gli intellisti,che gli piaccia o meno,stanno facendo la figura dei bimbiminkia se insistono nel puro e semplice sfotto'.
detto cio',si parla di processori,se vi scannate per quelli,cosa dovremmo fare a chi gestisce sto paese da 45 anni?....dai,un bel respiro e relax....manca poco....:D
Ciao MTK.
Purtroppo è l'assenza di informazioni ulteriori da parte di AMD che genera previsioni.
Però, essendo previsioni, hanno valore relativo ad una previsione, fondata sui pochi dati che si hanno.
Il problema del flame nel TH è nato nel preciso momento in cui le previsioni hanno superato prestazionalmente Intel, e questo probabilmente da' fastidio anche solamente ad ipotizzarlo.
Poi si prende tutto come pretesto per continuare un flame. Ad esempio io ho postato il fatto dei mobili AMD con Carrizo menomati prestazionalmente perchè in single-channel e commercialmente come prezzo perchè proposti a pari prezzo con gli Intel, ma non per punzecchiare Intel, ma per far capire che se Intel riesce a boicottare un BW a -50%, è ovvio che un Zen al -20% se lo pappa a colazione, quindi necessariamente deve proporlo ad un prezzo inferiore rispetto a -50% BR/BW.
Ma se noi calcoliamo un +40% di IPC per Zen su XV, e per XV ci affidiamo ai bench in rete (idem per differenze con BW), se il single-channel castra molto WiNRAR e prg simili, e minor impatto per altri, comunque darà una valore IPC più basso su cui noi calcoliamo l'incremento IPC di Zen e questi sia vs PD che verso BW.
A parte il fatto che se io eseguissi dei bench di confronto, specificherei che le performances possono essere migliori su BR montando un altro banco di ram, cosa ignorata assolutamente.
Quando io parlo di bench partigiani... ok, se leggo una rece sul Intel, viene perfino riportato se montando DDR con clock superiore si aumentano le prestazioni e tu fai una rece su AMD in single channel e non lo riporti neppure? Ma non è illegale, perchè le differenze sono reali in quanto PC def di fabbrca, ma irreali perchè fanno risultare BR meno performante della realtà a parità di componenti.
Se lo fa 1, 2, 3 e più, possibile che lo vedo solo io?
Si sta congetturando parecchio :D :D
Ciao MTK.
Purtroppo è l'assenza di informazioni ulteriori da parte di AMD che genera previsioni.
Però, essendo previsioni, hanno valore relativo ad una previsione, fondata sui pochi dati che si hanno.
Il problema del flame nel TH è nato nel preciso momento in cui le previsioni hanno superato prestazionalmente Intel, e questo probabilmente da' fastidio anche solamente ad ipotizzarlo.
Poi si prende tutto come pretesto per continuare un flame. Ad esempio io ho postato il fatto dei mobili AMD con Carrizo menomati prestazionalmente perchè in single-channel e commercialmente come prezzo perchè proposti a pari prezzo con gli Intel, ma non per punzecchiare Intel, ma per far capire che se Intel riesce a boicottare un BW a -50%, è ovvio che un Zen al -20% se lo pappa a colazione, quindi necessariamente deve proporlo ad un prezzo inferiore rispetto a -50% BR/BW.
Ma se noi calcoliamo un +40% di IPC per Zen su XV, e per XV ci affidiamo ai bench in rete (idem per differenze con BW), se il single-channel castra molto WiNRAR e prg simili, e minor impatto per altri, comunque darà una valore IPC più basso su cui noi calcoliamo l'incremento IPC di Zen e questi sia vs PD che verso BW.
A parte il fatto che se io eseguissi dei bench di confronto, specificherei che le performances possono essere migliori su BR montando un altro banco di ram, cosa ignorata assolutamente.
Quando io parlo di bench partigiani... ok, se leggo una rece sul Intel, viene perfino riportato se montando DDR con clock superiore si aumentano le prestazioni e tu fai una rece su AMD in single channel e non lo riporti neppure? Ma non è illegale, perchè le differenze sono reali in quanto PC def di fabbrca, ma irreali perchè fanno risultare BR meno performante della realtà a parità di componenti.
Se lo fa 1, 2, 3 e più, possibile che lo vedo solo io?
ciao paolo,capisco il tuo punto di vista e in un certo modo capisco anche quello di ren-acegranger ecc.,il succo pero' rimane quello,grandi,grandissime aspettative su zen,perche' sulla carta e stando alle dichiarazioni del ceo,zen deve essere l ariete che abbatte il serraglio in cui intel ha confinato amd..........pero' se evitate di scannarvi sulle ipotesi e' meglio,perche' il discorso convergenza arm e x86 fatto da amd,potrebbe anche essere indirizzato al rapporto costo-consumi-ipc e zen potrebbe essere una via di mezzo tra costo,inferiore a intel,consumi,inferiori a intel, e ipc leggermente inferiore a intel o viceversa essere un altra occasione persa...insomma va bene ipotizzare ma prendersi a legnate sulle orecchie in base a rumors,ipotesi e teoria mi pare eccessivo.
tutto qua :D
george_p
23-06-2016, 22:16
ciao paolo,capisco il tuo punto di vista e in un certo modo capisco anche quello di ren-acegranger ecc.,il succo pero' rimane quello,grandi,grandissime aspettative su zen,perche' sulla carta e stando alle dichiarazioni del ceo,zen deve essere l ariete che abbatte il serraglio in cui intel ha confinato amd..........pero' se evitate di scannarvi sulle ipotesi e' meglio,perche' il discorso convergenza arm e x86 fatto da amd,potrebbe anche essere indirizzato al rapporto costo-consumi-ipc e zen potrebbe essere una via di mezzo tra costo,inferiore a intel,consumi,inferiori a intel, e ipc leggermente inferiore a intel o viceversa essere un altra occasione persa...insomma va bene ipotizzare ma prendersi a legnate sulle orecchie in base a rumors,ipotesi e teoria mi pare eccessivo.
tutto qua :D
Anche perché c'è una variabile molto molto imprevedibile che si chiama gl glf gl ...silicio.
In effetti come aspettativa forse è addirittura molto più alta rispetto a BD... visti i precedenti anche.
paolo.oliva2
23-06-2016, 22:32
tu sai quanto effettivamente costa ad Intel o ad AMD un processore compreso di TUTTI i costi, dal silicio alla pubblicita, e non solo basandoti su 1 valore a vanvera di una slide ? NO, PUNTO, il discorso finisce li.
Mica vero, i valori LI HAI TUTTI e lo puoi calcolare benissimo.
Stando alle slide di Tuttodigitale sui costi, un BR verrebbe 12,5$ il die e se AMD lo vende a 150$, vuol dire che tutto quanto esiste dal die arrivare al pacchetto finale (taglio del die, test, package, dissipatore, scarto proci fallati e quant'altro) compreso il guadagno, deve stare in quei 150$ -12,5$, cioè 137,5$.
Se questo lo ribalti su Zen:
Il package rimane il medesimo, BR AM4, Zen AM4 (quindi stesso costo).
Il dissipatore è il medesimo (BR = a quello di Zen e quello dell'8370)
Trasporti vari non direi che cambino.
Quello che può cambiare è:
Costo die raddoppia, da 12,5$ a 25$.
Da quantificare il costo di testing, di selezione e la percentuale di die fallati.
Per quanto riguarda die fallati, avranno la spesa del die, del taglio e del test, ma certamente no tutto quello che viene dopo (cioè package, dissi, imballo, spedizione).
Tieni presente che il die BR è 244,62 mm2 con più di 3,1 miliardi di transistor, mentre Zen dovrebbe avere meno transistor rispetto a 2 8350, quindi 2,4 milioni di transistor, ed un die più piccolo, quindi da una parte avremmo un 28nm più rodato ma anche con numero superiore di transistor e quindi più probabilità di die fallato, dall'altra un 14nm meno rodato e più possibilità di die fallati, ma con un die meno grande avremmo comunque più die a wafer che compenserebbero comunque una incidenza maggiore di fallati.
Io credo di essere obiettivo che a costo produzione al max Zen potrebbe avere un 50% in più rispetto a BR, e questo con una incidenza di fallati almeno doppia a BR.
Se AMD dovesse prezzare Zen X8+8 unicamente sul costo e non sulla potenza, potrebbe venderlo a 225$ (150$ BR +50%).
Vogliamo essere ancora più certi? Aumenta +50%, aumenta +100%, un margine sicurezza mostruoso, ma a che prezzo arrivi? 350$, 400$.
I prezzi che riporto, se li confronti ai proci dei cellulari, sono la stessa identica proporzione... come il procio X8 cellulare ha preso il posto all'X4 allo stesso prezzo, l'X8 PC lo dovrebbe fare all'X4. Gli utili trimestrali di Intel che posti, sono per questo, perchè prezza un X4 a quello che dovrebbe essere un X8.
Io vorrei acquistare un X8 al prezzo di un X4, come (PER ME) sarebbe logico con ricarichi normalissimi.
Piedone1113
23-06-2016, 23:27
@cesare
Forse in pochi sanno degli avvenimenti passati, piuttosto tutta la storia è stata infarcita di leggende tali da diventare grottesche:
Ripeto la storia degli sconti è vera ma certamente non preminente.
Era l'approvvigionamento il problema, è vorrei ricordarvi che amd ebbe ritardi pure sulla fan di Dresda.
Quale azienda certa dell'approvvigionamento non avrebbe strappato in contratto di esclusiva con amd pubblicizzando il suo pc come l'unico preassemblato con la CPU più veloce del momento.
Non dimentichiamoci poi che non si è arrivato in usa ad una sentenza quindi il contratto di fornitura agli OEM potrebbe configurarsi anche come perfettamente legale.
Se un grosso OEM deve approntare una linea di pc (con i relativi elevati costi) e ricevere un componente al contagocce ( vi ricordate già la penuria che ci fu con i barton prima e con gli a64 3400 754 dopo) e sentirsi dire da intel: se vuoi essere nostro cliente privilegiato queste sono le condizioni altrimenti non possiamo garantire la disponibilità di prodotti in quanto dobbiamo garantire in primis i nostri partner.
Amd al tempo non avrebbe potuto soddisfare nemmeno la produzione dell.
Questa è la verità, e per tutto tengo a rimarcare che sono un fanboy amd.
Circa le recensioni pilotate: nessuno ha prove di pressioni da parte di amd, intel o Nvidia sui recensori.
Oltre alle mazzette vi sono altre possibilità :
Simpatia del recensore per una marca.
Sudditanza psicologica.
Paura di non avere più sample in anteprima.
Ma soprattutto mia menzionato:
Evitare di inimicarsi il 50% (ed oltre) dei lettori dei propri siti sminuendo la loro amata marca ( e l'altro giorno un ingegnere mi ha chiesto se il processore fx fosse compatibile con autocad)
Mister D
23-06-2016, 23:41
cut...
Cesare. :)
Veramente è l'esatto contrario: reputo siano tanti.
Sì mi sono sbagliato in tutti e due i casi e nel secondo è ovviamente un typo.
Chiaramente quoto solo la parte che mi riguarda e anzi ti invito a rispondere individualmente con il quote perché è difficile poi seguire.
Non mi sfugge il concetto, ma la sua applicazione distorta sì.
Cosa dovremmo trarre dalla storia? Che i tedeschi siano tutti nazisti? Che continuino a esserlo dopo 70 anni dai crimini commessi? Che dovrebbero svegliarsi ogni mattina chiedendo perdono autofustigandosi col gatto a nove code per i crimini commessi dai loro avi?
Considerato che siamo stati loro felici alleati e che abbiamo anche noi perpetrato crimini contro l'umanità, la stessa cosa si applica anche a noi italiani, ovviamente. Tu come ti senti? Sei a posto con la coscienza? Consideri aprioristicamente criminali e fascisti tutti gli italiani, ancora oggi? Li guardi con sospetto qualunque cosa facciano?
Perché qui il problema non è certo ricordare, perché abbiamo tutti presente cosa sia successo. La questione è che con la scusa della memoria storica i fanboy scaricano su un'azienda i loro istinti, pretendendo di applicare quei fatti all'attualità/futuro, senza la benché minima prova ovviamente.
Intel sarebbe sempre e comunque colpevole. Un po' come l'Italia che, per analogia, è e rimane una nazione che compie atti criminali in eterno.
Cesare o ti sfugge il concetto di cosa voglia dire memoria storica o non hai letto bene quello che ho scritto.
Innanzitutto non ho mai scritto e mai pensato che tutti i tedeschi siano nazzisti o che tutti gli italiani siano dei fascisti e ti chiedo cortesemente di non mettermi in bocca parole che non ho detto e che non si evincono in nessun modo da quello che ho scritto.
Avere memoria di quello che è successo serve per evitare di ripetere gli errori, mi sembra abbastanza chiaro. Storica è aggettivo che indica memoria di eventi storici ma avere memoria degli errori fatti permette a tutti noi di non sbagliare. Tutto qui. Penso che anche tu ti ricorderai di quando hai sbagliato (o non sbagli mai?), che so, nel programmare e che il ricordarti in futuro di quell'errore serva per non sbagliare. Parlando con un Ingegnere di Fiat Avio in pensione mi diceva che era stato richiamato da Fiat proprio perché i nuovi Ing., preparatissimi sul nuovo, avevano parecchie lacune sul vecchio e questo portava a ripetere errori che lui e quelli della sua generazione davano per assodati. Volgarmente detto addestramento per affiancamento a persona più esperta. Questo è anche l'obiettivo della memoria storica. Ricordare gli eventi passati negativi, e non solo quelli positivi, dovrebbe permettere alla generazione presente di non commettere gli stessi errori e non di fustigarsi con il gatto a nove code per quello che hanno commesso i loro avi. Ma come ti è venuto in mente? Sinceramente non capisco proprio. E con la mia coscienza mi sento apposto.
cut...
Ho, anzi, affermato che Intel abbia attuato delle politiche di concorrenza sleale.
Non è così, ma ne parlo meglio dopo.
In ballo non c'erano mica noccioline.
Non è affatto così. Vedi dopo.
Questo paragrafo è costituto da una principale:
"As part of the overall resolution of the Actions, the Parties agree to adhere to the Business Practices set forth in Section 2.0 for the term, and subject to the conditions, set forth in Section 6.0."
e una subordinata:
"and without conceding expressly or by implication that any of the following business practices are required by the laws of any jurisdiction, or any order issued by any regulatory or adjudicative body, anywhere in the world, or that contrary business practices would violate any such laws or orders"
La principale parla dei fatti che sono successi, ma è proprio la subordinata che ne limita l'azione al rispetto di eventuali leggi.
Scusami io non sarò bravissimo in inglese ma io lo traduco diversamente e anche usando google translate salta fuori questo:
"Come parte della risoluzione globale delle azioni , e senza concedere esplicitamente o implicitamente che una delle seguenti pratiche commerciali sono tenuti dalle leggi di qualsiasi giurisdizione , o di qualsiasi ordine emesso da un organo di regolamentazione o aggiudicativo , in qualsiasi parte del mondo , o che le pratiche commerciali contrarie violerebbe tali leggi o ordini , le parti decidono di aderire alle pratiche commerciali di cui al punto 2.0 per il termine , e fatte salve le condizioni , di cui al paragrafo 6.0 ."
Ti sottolineo l'utilizzo del termine senza concedere esplicitamente o implicitamente e violerebbe. In pratica quella frase ci dice solo che Intel con riferimento alla pratiche commerciali attuate ritiene di non aver violato nessuna legge e ordine di un organo di regolamentazione. Questo perché il documento è datato novembre 2009 e intel aveva pena chiesto il ricorso alla Corte di giustizia europea (e presumo anche davanti a quello coreano) e quindi pensava di poter dimostrare la sua innocenza. Cosa che in primo grado non è avvenuta (e bisognerà attendere l'ennesimo ricorso). E' altrettanto chiaro che non avrebbe potuto scrivere su un accordo che era colpevole di qualche legge perché equivaleva ad auto denunciarsi.
Dunque non è vero che Intel sarebbe libera di trasgredire nuovamente la legge. Quella parte certamente non lo afferma.
Posto che, manco a dirlo, anche se ciò non fosse stato negato, un accordo del genere è, di fatto nullo. Infatti la legge è e rimane sopra qualunque accordo.
Infine, e ben più importante, anche nell'ipotesi che possa essere in grado di farlo, ovviamente NON vuol dire che lo farà.
Ma come non è libera di trasgredire quelle regole? Chi la vieta? Cosa siamo in Minority Report che si interveniva prima di commettere un reato. Uno è libero di commettere tutti i reati che vuole, poi solo deve pagarne le conseguenze se si riesce a dimostrarne i fatti. Ma che ragionamento è.
Ti faccio un esempio. Esiste la regola che non di debba passare con il rosso. Perfetto. Cosa ti vieta di farlo? Le leggi esistono per regolamentare dei comportamenti ma non è che se esistono allora è implicito che nessuno possa trasgredire. Il modo se si vuole lo si trova.
Inoltre mi pare ovvio che l'accordo NON scriva che intel può trasgredire delle leggi antitrust, dice solo che l'accordo di non commettere più quelle pratiche decade qualora intel avesse meno del 65%. Il che equivale a dire implicitamente che può farlo, non che debba farlo per forza. E mi pare chiaro che non ho mai detto che ovviamente lo farà sicuramente (e siamo già a due volte che mi metti parole in bocca che non ho mai detto, suvvia un po' più di attenzione a quello che ti scrivo potresti porla).
Mi pare altrettanto ovvio che se non avesse negato che quelle pratiche erano illegali quell'accordo era nullo, equivaleva ad autodenunciarsi.
cut...
Non è che quel post arrivi per puro caso, eh!
Sempre a proposito di memoria storica, dovresti vedere ciò che era stato scritto prima, in particolare dal partigiano numero uno di AMD, e tutto quello che gli è uscito dalla tastiera.
Tante di quelle frottole e balle inventate pur di difendere la sua amata marca del cuore, che una battuta del genere, se permetti, ci sta proprio benissimo.
Facile fare cherry-picking, prendendo una frase isolata dal contesto, e ricamandoci sopra l'accusa nei confronti dell'orco brutto e cattivo, non credi?
E sempre a proposito di giudizi a corrente alternata, a seconda delle simpatie, "stranamente" a Giorgio l'onesto è sfuggito tutto questo:
"Ma sei un dipendente Intel? Azzo, trema, Intel non ci pensa 2 volte a lasciarti il per terra se Zen rovina la sua previsione di bilancio (chiaramente onesta ma riveduta con -50%).
[...]
Certo che è buffa la questione... quando io riporto che AMD paga a GF Zen in base ai volumi prodotti (e quindi più basso sarà il prezzo di Zen = più ne venderà = meno li pagherà) gli intellisti fanno le 3 scimmie... si parla di sconti per quantità di Intel, si sollevano all'unisono per dire che è normale... Cacchio... certo che l'obiettività è proprio il marchio che vi contraddistingue."
scritto dal suo compagno di merende PRIMA della mia frase accuratamente selezionata.
Questo non è flammare, vero? Ma no, si chiama licenza poetica. :D
Ciliegina sulla torta:
"Io direi più INTEL PAGA!!!"
Diffamazione (peraltro con l'aggravante di essere a mezzo stampa) sulla quale NESSUNO qui ha avuto nulla da dire.
La banda degli onesti vi fa un baffo...
Quindi ora vai sul personale. Non mi consoci e sai già che sono disonesto? Ma come ti permetti? Cerca di moderare i termini che non mi pare di averti giudicato o dato dei titoli. Anzi ho pure scritto che non mi pareva fossi venuto qui con l'intento di fare flame.
In merito a quel post ho visto che è in risposta ad altri precedenti ma allora il tuo ragionamento sarebbe: se altri fanno flame mi ci aggiungo anche io invece di segnalare? Bhe molto maturo. (per cui "una battuta del genere, se permetti, ci sta proprio benissimo." non esiste proprio). Quindi se sei in coda e vedi che qualcuno supera ingiustamente ti metti a superare anche te? Bel modo di ragionare veramente. Il modo giusto è invece che se ritieni che george o paolo abbiamo fatto flame, di usare il tasto segnala. Niente di più semplice.
Per quanto riguarda la diffamazione riguarderebbe intel. Starà a lei difendersi se si sente diffamata. O fai parte del suo settore legale? Come dipendente se credi che paolo veramente stia diffamando intel dovresti farlo presente in azienda. Secondo me si faranno due grosse risate:D Però potrei sbagliarmi.
Piedone1113
23-06-2016, 23:51
Sì mi sono sbagliato in tutti e due i casi e nel secondo è ovviamente un typo.
Chiaramente quoto solo la parte tche mi riguarda e anzi ti invito a rispondere individualmente con il quote perché è difficile poi seguire.
Cesare o ti sfugge il concetto di cosa voglia dire memoria storica o non hai letto bene quello che ho scritto.
Innanzitutto non ho mai scritto e mai pensato che tutti i tedeschi siano nazzisti o che tutti gli italiani siano dei fascisti e ti chiedo cortesemente di non mettermi in bocca parole che non ho detto e che non si evincono in nessun modo da quello che ho scritto.
Avere memoria di quello che è successo serve per evitare di ripetere gli errori, mi sembra abbastanza chiaro. Storica è aggettivo che indica memoria di eventi storici ma avere memoria degli errori fatti permette a tutti noi di non sbagliare. Tutto qui. Penso che anche tu ti ricorderai di quando hai sbagliato (o non sbagli mai?), che so, nel programmare e che il ricordarti in futuro di quell'errore serva per non sbagliare. Parlando con un Ingegnere di Fiat Avio in pensione mi diceva che era stato richiamato da Fiat proprio perché i nuovi Ing., preparatissimi sul nuovo, avevano parecchie lacune sul vecchio e questo portava a ripetere errori che lui e quelli della sua generazione davano per assodati. Volgarmente detto addestramento per affiancamento a persona più esperta. Questo è anche l'obiettivo della memoria storica. Ricordare gli eventi passati negativi, e non solo quelli positivi, dovrebbe permettere alla generazione presente di non commettere gli stessi errori e non di fustigarsi con il gatto a nove code per quello che hanno commesso i loro avi. Ma come ti è venuto in mente? Sinceramente non capisco proprio. E con la mia coscienza mi sento apposto.
Scusami io non sarò bravissimo in inglese ma io lo traduco diversamente e anche usando google translate salta fuori questo:
"Come parte della risoluzione globale delle azioni , e senza concedere esplicitamente o implicitamente che una delle seguenti pratiche commerciali sono tenuti dalle leggi di qualsiasi giurisdizione , o di qualsiasi ordine emesso da un organo di regolamentazione o aggiudicativo , in qualsiasi parte del mondo , o che le pratiche commerciali contrarie violerebbe tali leggi o ordini , le parti decidono di aderire alle pratiche commerciali di cui al punto 2.0 per il termine , e fatte salve le condizioni , di cui al paragrafo 6.0 ."
Ti sottolineo l'utilizzo del termine senza concedere esplicitamente o implicitamente e violerebbe. In pratica quella frase ci dice solo che Intel con riferimento alla pratiche commerciali attuate ritiene di non aver violato nessuna legge e ordine di un organo di regolamentazione. Questo perché il documento è datato novembre 2009 e intel aveva pena chiesto il ricorso alla Corte di giustizia europea (e presumo anche davanti a quello coreano) e quindi pensava di poter dimostrare la sua innocenza. Cosa che in primo grado non è avvenuta (e bisognerà attendere l'ennesimo ricorso). E' altrettanto chiaro che non avrebbe potuto scrivere su un accordo che era colpevole di qualche legge perché equivaleva ad auto denunciarsi.
Ma come non è libera di trasgredire quelle regole? Chi la vieta? Cosa siamo in Minority Report che si interveniva prima di commettere un reato. Uno è libero di commettere tutti i reati che vuole, poi solo deve pagarne le conseguenze se si riesce a dimostrarne i fatti. Ma che ragionamento è.
Ti faccio un esempio. Esiste la regola che non di debba passare con il rosso. Perfetto. Cosa ti vieta di farlo? Le leggi esistono per regolamentare dei comportamenti ma non è che se esistono allora è implicito che nessuno possa trasgredire. Il modo se si vuole lo si trova.
Inoltre mi pare ovvio che l'accordo NON scriva che intel può trasgredire delle leggi antitrust, dice solo che l'accordo di non commettere più quelle pratiche decade qualora intel avesse meno del 65%. Il che equivale a dire implicitamente che può farlo, non che debba farlo per forza. E mi pare chiaro che non ho mai detto che ovviamente lo farà sicuramente (e siamo già a due volte che mi metti parole in bocca che non ho mai detto, suvvia un po' più di attenzione a quello che ti scrivo potresti porla).
Mi pare altrettanto ovvio che se non avesse negato che quelle pratiche erano illegali quell'accordo era nullo, equivaleva ad autodenunciarsi.
Quindi ora vai sul personale. Non mi consoci e sai già che sono disonesto? Ma come ti permetti? Cerca di moderare i termini che non mi pare di averti giudicato o dato dei titoli. Anzi ho pure scritto che non mi pareva fossi venuto qui con l'intento di fare flame.
In merito a quel post ho visto che è in risposta ad altri precedenti ma allora il tuo ragionamento sarebbe: se altri fanno flame mi ci aggiungo anche io invece di segnalare? Bhe molto maturo. (per cui "una battuta del genere, se permetti, ci sta proprio benissimo." non esiste proprio). Quindi se sei in coda e vedi che qualcuno supera ingiustamente ti metti a superare anche te? Bel modo di ragionare veramente. Il modo giusto è invece che se ritieni che george o paolo abbiamo fatto flame, di usare il tasto segnala. Niente di più semplice.
Per quanto riguarda la diffamazione riguarderebbe intel. Starà a lei difendersi se si sente diffamata. O fai parte del suo settore legale? Come dipendente se credi che paolo veramente stia diffamando intel dovresti farlo presente in azienda. Secondo me si faranno due grosse risate:D Però potrei sbagliarmi.
Ps sotto il 65% di quota di mercato quella pratica commerciale potrebbe essere del tutto legale mancando i presupposti di posizione dominante.
Mister D
24-06-2016, 00:01
Ps sotto il 65% di quota di mercato quella pratica commerciale potrebbe essere del tutto legale mancando i presupposti di posizione dominante.
Legale da essere stata già multata dalla UE? L'accordo extragiudiziale è stato fatto anche per non far portare avanti l'accusa da amd alla FTC americana. Io ti pago e tu ritiri le accuse. Ma stiamo scherzando vero? Quelle pratiche sono illegali e intel è stata multata dalla UE e dall'antitrust coreano. Quello giapponese ha solo rilasciato una raccomandazione per intel. Ergo se intel sotto il 65% tornasse a praticare sconti in cambio di non commercializzare pc costruiti con cpu del concorrente, non violerebbe quell'accordo ma sicuramente potrebbe essere inquisita nuovamente dagli antitrust. La commissione UE sicuramente lo farebbe, visto che lo ha già fatto una volta e che la Corte di giustizia europea le ha pure dato ragione cassando l'annullamento richiesto da intel.
paolo.oliva2
24-06-2016, 00:03
...Circa le recensioni pilotate: nessuno ha prove di pressioni da parte di amd, intel o Nvidia sui recensori.
Oltre alle mazzette vi sono altre possibilità :
Simpatia del recensore per una marca.
Sudditanza psicologica.
Paura di non avere più sample in anteprima.
Ma soprattutto mia menzionato:
Evitare di inimicarsi il 50% (ed oltre) dei lettori dei propri siti sminuendo la loro amata marca ( e l'altro giorno un ingegnere mi ha chiesto se il processore fx fosse compatibile con autocad)
In effetti ci può stare il non coinvolgimento Intel... per far piacere ai lettori ed accaparrarsi più click... ma però devo capirne il motivo... perchè un 6700K è superiore ad un 9590, che cambia distorgere la realtà e da un X% aumentarlo del 2%? Perchè diffondere le bufale stile che un Intel si sarebbe ripagato la differenza di prezzo prechè in 3 mesi di utilizzo avrebbe risparmiato in bolletta? Perchè la bufala che un AMD non va bene nei giochi? E tutte ste merdate sono pure supportate da persone che si defiscono tecnici.
Bah... per me un tecnico può si avere bandiera, ma quando si trova danti ad un sistema, non importa se blu o verde, ma deve essere il più razionale possibile.
Io ho un Broadwell mobile, ho postato che scalda un tot di meno rispetto al precedente 22nm e pure al Trinity, la batteria dura parecchio, poi in MT io preferisco il modulo all'SMT (inteso n° moduli = n° core + SMT con tutte le differenze di clock del caso), ma quello direi che è pure normale, in fin dei conti come stazione fissa ho sempre avuto FX X8 ed il passaggio al mobile in MT/multi-programmi è traumatico...
Piedone1113
24-06-2016, 07:55
Legale da essere stata già multata dalla UE? L'accordo extragiudiziale è stato fatto anche per non far portare avanti l'accusa da amd alla FTC americana. Io ti pago e tu ritiri le accuse. Ma stiamo scherzando vero? Quelle pratiche sono illegali e intel è stata multata dalla UE e dall'antitrust coreano. Quello giapponese ha solo rilasciato una raccomandazione per intel. Ergo se intel sotto il 65% tornasse a praticare sconti in cambio di non commercializzare pc costruiti con cpu del concorrente, non violerebbe quell'accordo ma sicuramente potrebbe essere inquisita nuovamente dagli antitrust. La commissione UE sicuramente lo farebbe, visto che lo ha già fatto una volta e che la Corte di giustizia europea le ha pure dato ragione cassando l'annullamento richiesto da intel.
Se non sbaglio intel dalla ue è stata multata per l'accordo di esclusiva firmato nel 1997 con mediamarket.
La cpu ammazza pentium A64 è stata presentata nel 2003.
Mister D
24-06-2016, 08:07
Se non sbaglio intel dalla ue è stata multata per l'accordo di esclusiva firmato nel 1997 con mediamarket.
La cpu ammazza pentium A64 è stata presentata nel 2003.
Sì però leggete i link che posto altrimenti è come parlare al vento:
http://www.ilsole24ore.com/art/SoleOnLine4/Economia%20e%20Lavoro/2009/05/antitrust-ue-multa-intel.shtml?refresh_ce=1
periodo 2002-2007 in pieno athlon xp e athlon64. E alla faccia dell'esclusiva: intel pagò media saturn tra i 15 e i 20 milioni di dollari per vendere pc di varie marche che vendevano solo o la maggior parte di pc con cpu intel e non vendere quindi pc con cpu amd.
Inoltre basta leggersi il capitolo 2 dell'accordo per sapere le pratiche commerciali che hanno portato amd a chiedere all'antitrust americano di indagare, ovviamente poi ritirando le accuse una volta firmato l'accordo con intel.
La FTC americana ha continuato cmq ad indagare e nel dicembre 2009 ha portato le sue accuse ad intel che ha collaborato per evitare ulteriori ammende e si è arrivati a questo accordo nel 2010:
http://www.ictbusiness.it/cont/news/intel-accetta-la-gragnola-dell-ftc-l-antitrust-usa/25029/1.html#.V2zcpeuLSUl
In pratica la FTC gli ha dato una pacca sulla spalla perché già era stato fatto l'accordo extragiudiziario con amd, perché era già stata multata dalla UE e dal FTC coreana, esigendo solo un comportamento diverso da intel e da tutto il settore it per il futuro.
tuttodigitale
24-06-2016, 10:53
quindi chi ha progettato BD (o meglio chi ha capeggiato il progetto non era Meyer che poi si è dimesso qualche mese prima della sua uscita?) non doveva mettere in conto eventuali problematiche di questo tipo?
Meyer è stato messo da parte, perchè ha venduto la sezione mobile di ATI a Qualcomm...non fare disinformazione.
non doveva mettere in conto eventuali problematiche di questo tipo?
ma scusami, gli obiettivi resi pubblici per llano erano:
Vcore<=1,3V
clock > 3GHz
http://www.tomshw.it/files/2010/02/immagini/23920/amd-llano-3_t.jpg
sono usciti, con 6 mesi di ritardo e con almeno 2 revisioni ulteriori del silicio, con un prodotto da 2,9GHz@1,41V.
A me pare che il confronto k10.5 e PD sia stravinto, in tutte le versioni (da 25 a 100W) da Piledriver...
Si può dire lo stesso tra prescott e dothan?
tuttodigitale
24-06-2016, 11:14
poi se qualcuno obietta qualcosa qui come in discussioni similari addirittura su siti esteri lo fa perchè mosso da amd suck e intel rulez
obietta, ma oltre a dire adm suck e intel rulez, non dice altro...
gli fai notare che il gate delay offerto dai 32nm BULK di Intel è molto più basso dei 28nm bulk usati per kaveri. Se sono pari vuol dire che il fo4 di SB è più basso di SR, c'è poco da fare...
Di certo se Intel si ritrova quel silicio è merito degli enormi investimento che ha fatto...
La cosa singolare, gli ho fatto notare che il krait 450, sembrerebbe avere un fo4 simile a PD e se va bene per un dispositivo mobile, va n-mila volte meglio per una cpu server (anzi è pure troppo alto....).
Inutile ripetere che ipc e fo4 non devono essere necessariamente collegati. Anzi con il FO4 basso, puoi in teoria complicare molto di più il circuito...perchè il singolo transistor consuma meno (anche meno della metà) a parità di frequenza...
Nessuno ha la sfera di cristallo, magari se facevano un architettura che rendeva a bassa frequenza ma murava prima e il silicio permetteva di salire "oltre il muro" avevano sprecato potenziale.
esattamente: k10 docet
Ad HP come a qualunque altro venditore che gli garantisce gli stessi volumi.
L'importante che gli sconti non siano legati su quantità ammazza concorrenza...perchè è questo alla fine il reato contestato anni fa.
Comunque mi pare che Keller fosse a capo del progetto Athlon64, e abbia definito lui l'estensione a 64 bit. Della situazione attuale, dunque, non è che sia esente da colpe, perché poteva fare scelte ben diverse. MOLTO diverse, considerato che x64 NON è 100% compatibile con IA-32, e dunque le applicazioni andavano come minimo ricompilate, e in alcune parti riscritte.
alcune scelte sono state anche condizionate dall'implementazione fisica... sei sicuro al 100% che scelte molto diverse non avrebbero azzoppato l'a64, e tutte le cpu x64 che sono seguite, che hanno mantenuto la compatibilità con l'IA-32?
L'FPU di ARM è di gran lunga più semplice di una x86. Specialmente se quest'ultima include estensioni come AVX/-2, o peggio ancora l'AVX-512 che arriverà il prossimo anno (ma è già presente negli Skylake server).
La FPu di ZEN al momento pare essere molto più semplice di quella di skylake (non è detto che sia uno svantaggio:D ).
Free Gordon
24-06-2016, 11:42
http://i.imgur.com/7KjrooP.png
La curva di tensione/frequenza di Polaris10..
Uno dei problemi dei chip recenti è il leakage. Per fortuna il 14nm FF l'ha basso, meno di 1/6 del 28nm in condizioni simili.
Il leakage va esponenzialmente con la tensione e la temperatura. perciò si deve controllarle entrambe. La temperatura la si controlla facendo un chip parco di consumi e/o riducendo la densità dei transistors, ossia aumentando l'area occupata, oppure migliorando la dissipazione in altri modi. Il Vcore si controlla abbassando il clock oppure il FO4. Se si riesce ad abbassare il FO4 senza perdere troppo in IPC, è la soluzione vincente per i processi ad alto leakage come il 28nm GF/TSMC... Con il 14nm questa pressione non è così incombente, ma di nuovo, se si riesce a fare una CPU a basso FO4 che non perde troppo in IPC (vedi mio post di ieri) è meglio...
[IMGhttp://i.imgur.com/7KjrooP.png[/IMG]
La curva di tensione/frequenza di Polaris10..
Bene. Quindi il processo regge almeno 1,15V. Quanti V ci vogliono sul 28nm per, diciamo 1075 MHz?
In alternativa, se qualcuno recupera la stessa curva per una delle ultime GPU AMD sul 28nm (possibilmente Fiji... :D )
Questo non ci assicura che la nuova architettura non abbia un FO4 inferiore, ma ci può far avere una idea sul miglioramento che ci dobbiamo aspettare sulle frequenze.
Per fare ciò mi serve il TDP di questa (mi pare 115W?), il TDP della scheda di confronto e il confronto tra il numero di transistors per fare le proporzioni, supponendo FO4 comparabile.
tuttodigitale
24-06-2016, 12:04
Bene. Quindi il processo regge almeno 1,15V. Quanti V ci vogliono sul 28nm per, diciamo 1075 MHz?
1,275V@1,05GHz per hawaii
1,2V@1,05GHz per la fury
il tdp è di 150W mentre il consumo tipico è di 100W
per la fury il consumo tipico/TDP è di 275/300W
purtroppo il numero di transistor non è noto (la r9 390x ne ha 6,2...potrebbe essere simile) mentre la fury 8,9..
tuttodigitale
24-06-2016, 12:30
A titolo di curiosità:
IBM, con il passaggio dai 45 ai 32nm dice che l'enorme :Prrr: miglioramento delle prestazioni è dovuto per il 7% al silicio e dal 93% alle innovazioni....numeri imposrtanti per quello che è in fin dei conti un mero die shrink.....possiamo dire che il 32nm SOI, ha offerto un surplus di prestazioni del 1%....:sofico:
invece per il pd-soi a 22nm, il nuovo processo contribuirebbe per il 4% al miglioramento delle prestazioni. Stimando un +100% i mgilioramenti dal P7+ al P8 (non lo so)....direi che il pd-soi fa schifo esattamente quanto i 32nm...:D (ps anche se il power8 andasse 4 volte di più...)...
dove è il finito il mirabolante +50% sui 45nm?
1,275V@1,05GHz per hawaii
1,2V@1,05GHz per la fury
il tdp è di 150W mentre il consumo tipico è di 100W
per la fury il consumo tipico/TDP è di 275/300W
purtroppo il numero di transistor non è noto (la r9 390x ne ha 6,2...potrebbe essere simile) mentre la fury 8,9..
Allora... Facciamo il caso peggiore per i transistors, sottostimandoli, facendo il rapporto di SM. 4096 per la fury e 2304 per la 480, quindi supponiamo circa la metà: 4.5 miliardi di transistors. Supponiamo che la 480 abbia metà TDP.
Abbiamo che con la stessa potenza per transistors (metà tdp, metà transistors), abbiamo Fury 1.05@1.2V, contro 1.265@1.15V.
A parità di Vcore abbiamo quindi stesso consumo per transistors e 25% in più di frequenza (in realtà di più perchè il 14nm richiede 1.15).
Quindi se Zen ha il numero di transistors di 16 core XV possiamo calcolare un po' di cose:
Poniamo 95W. Ci serve la frequenza a cui un modulo XV dissipa diciamo 10W (supponiamo 80W per gli 8 core zen e 15W per il resto).
Supponiamo X con Y volt di tensione,
Allora abbiamo che Zen potrà andare a X+25% di frequenza a Y volt, dissipando 80+15W
Questo sarà valido se Y non supera gli 1.15V, perchè non sappiamo come si comporta il 14nm oltre gli 1.15V
Perchè? Il leakage dipende dalla temperatura (e una GPU in genere è più calda) e dal Vcore. Quindi se si può lavorare a 1.15V con un FO4 da GPU, si potrà lavorare anche per una CPU...
Questo è un limite inferiore, poichè le GPU usano transistors RVT se non addirittura HVT...
Un modulo XV consuma 10W diciamo che corrisponde alla frequenza turbo di una APU x4 (due moduli, ma supponiamo che siccome siamo in turbo, sia in funzione un solo modulo che assorbe tutti i 10W) XV da 15W (supponiamo 5W per tutto il resto e la GPU spenta). Questa frequenza è 3.6GHz. 3.6+25%=4.5GHz.
Quindi a 95W 4GHz o più non è una utopia...
sono usciti, con 6 mesi di ritardo e con almeno 2 revisioni ulteriori del silicio, con un prodotto da 2,9GHz@1,41V.
A me pare che il confronto k10.5 e PD sia stravinto, in tutte le versioni (da 25 a 100W) da Piledriver...
Un risultato geniale, hanno fatto peggio del 45nm.:doh: (l'ano ha un nome azzeccato:rotfl:)
IBM su 32nm ha più che raddoppiato la edram, (che consuma un Terawatt:p quando ti conviene:sofico: ), aggiunto SIMD, serdes ed acceleratori. Penso un pò, hanno pure aumentato di uno sputo:sofico: clock già al limite dell'efficienza.
Con clock conservativi hanno raddoppiato i core su MCM... (dimenticavo tu non guardi i watt, ma i giggiaErz:sofico: )
http://image.slidesharecdn.com/20130208annuncipower7plussitocta-130405173336-phpapp01/95/2013-02-08-annunci-power-7-plus-sito-cta-7-638.jpg?cb=1365183251
Free Gordon
24-06-2016, 15:40
Quindi a 95W 4GHz o più non è una utopia...
Vai che forse c'ho preso!!!! :sofico: :sofico: :sofico:
george_p
24-06-2016, 16:12
Ma il grafico di sopra è ufficiale?
Aspetterei pochi giorni, tanto ci siamo.
Si può evincere solo da questi pochi dati che il silicio GF sia buono?
E ancora, è valido riferirsi per questo confronto a un chip grafico? Conta solamente il valore della tensione?
Ma il grafico di sopra è ufficiale?
Aspetterei pochi giorni, tanto ci siamo.
Si può evincere solo da questi pochi dati che il silicio GF sia buono?
E ancora, è valido riferirsi per questo confronto a un chip grafico? Conta solamente il valore della tensione?
http://byfiles.storage.live.com/y1pza9bcT86040Ujb10mT_QbH7sL0a448-q3I_GpakIcbGFuLSpdYu7r296xnw-zjih1ReTHQ4aJxk
https://www.youtube.com/watch?v=rBtHW14nCb4
:sofico:
Ma il grafico di sopra è ufficiale?
Aspetterei pochi giorni, tanto ci siamo.
Si può evincere solo da questi pochi dati che il silicio GF sia buono?
E ancora, è valido riferirsi per questo confronto a un chip grafico? Conta solamente il valore della tensione?
Diciamo che si ha un 25% di frequenza in più a parità di potenza e, incidentalmente, quasi a parità di tensione (un po' di meno)...
EDIT: ma appena osi usare quel processo su una CPU (FO4 più basso), sopratutto se si chiama Zen, il leakage diventa 100 volte tale e servono 1000W e 2 V per andare a 2GHz... :O
tuttodigitale
24-06-2016, 16:43
...
Ma ci sei o ci fai?
Intel è passata da un i7 970, 4 core 3,2 GHz ad un i7 990x un 6 core 3,46GHz, senza cambiare architettura... e tu fa le pulci su un 10%...
IBM su 32nm ha più che raddoppiato la edram, (che consuma un Terawatt:p quando ti conviene:sofico: ),
ma anche AMD ha più che raddoppiato la cache memory L2: da 3 MB di thuban ai 8 MB di bulldozer...:rolleyes: E penso che la l2 consumi un poco di più di una l3...:rolleyes:
Un risultato geniale, hanno fatto peggio del 45nm.:doh: (l'ano ha un nome azzeccato:rotfl:)
cosa ti dice che IBM non abbia peggiorato il vcore?:rolleyes:
Poi va considerato che IBM ha avuto un anno aggiuntivo per pareggiare i conti con i 45nm....e AMD si è presa altri 3 mesi ulteriori per bulldozer...ricordo che il b1 era fermo a 3,2GHz contro i 3,6GHz del b2.
, aggiunto SIMD, serdes ed acceleratori. Penso un pò, hanno pure aumentato di uno sputo:sofico: clock già al limite dell'efficienza.
allora se guardiamo le unità SIMD, bulldozer è potente il doppio di Thuban, e skylake il quadruplo di sandy bridge....piaccia o non piaccia la differenza di ipc documentata è del 3%....(fonte: HPC report di IBM).
george_p
24-06-2016, 16:50
Diciamo che si ha un 25% di frequenza in più a parità di potenza e, incidentalmente, quasi a parità di tensione (un po' di meno)...
Aspetta, ho bisogno di riferimenti passo passo per capire. Intanto parliamo dello stesso silicio come base. Il 25% di frequenza in più in termini numerici di esempio su cosa sarebbero e riferiti a cosa?
grazie, ma altrimenti non capisco :)
tuttodigitale
24-06-2016, 17:00
Aspetta, ho bisogno di riferimenti passo passo per capire. Intanto parliamo dello stesso silicio come base. Il 25% di frequenza in più in termini numerici di esempio su cosa sarebbero e riferiti a cosa?
grazie, ma altrimenti non capisco :)
praticamente ha detto che un'ipotetico Polaris complesso quanto Fiji, consumerebbe uguale ma con una frequenza superiore del 25%...
ma è stato molto, molto e ripeto moltoconservativo....(numero di transistor esiguo e riferimento al tdp...)
il consumo tipico della rx480 secondo gli ultimi rumors è di 110W contro i 275W....probabilmente togliendo il contributo delle ram (maggiore per la scheda con le gddr5) saremmo arrivati nella condizione 90 vs 260....
a 4GHz@95W ci arriva facile, IMHO.
questo è il consumo della ram:
https://www.tomshw.it/data/images/9/7/9/2/amd-hbm-09-61896aa1532cbc6cf93009f1e8d831522.jpg
Aspetta, ho bisogno di riferimenti passo passo per capire. Intanto parliamo dello stesso silicio come base. Il 25% di frequenza in più in termini numerici di esempio su cosa sarebbero e riferiti a cosa?
grazie, ma altrimenti non capisco :)
Come ha detto tuttodigitale... :D
Fiji ha 4096 FPU e il controller HBM consuma meno del controller GDDR5
Ho supposto che Polaris abbia la metà dei transistors (non è vero, ne ha di più, se non altro perchè le FPU sono 2304)
Ho supposto che Polaris consuma la metà di Fiji (non è vero: consuma di meno).
Quindi ho supposto che 1 transistor a 1.265GHz@1.15V sul 14nm consumi come 1 transistor a 1.05GHz@1.2V sul 28nm
Ho approssimato dicendo che a parità di tensione e di transistors, si consuma lo stesso, ma con il 25% di frequenza in più. Sono stato cosi' conservativo, che a parità di Vcore probabilmente si fa +30% e a parità di consumo.
Non sto a ripetere il conto su Zen... :)
tuttodigitale
24-06-2016, 17:22
scimmiotto bjt2:
visto che io sono un noto fanboy faccio il caso favorevole...
partiamo dal consumo delle memorie
HBM = 15W
gddr5= 25W, ma 20 per non esagerare
consumo tipico
Fury x 275W
rx480 110W
consumo GPU
Fiji 8,9transistor 260W
Polaris 5,1 miliardi 90W
il numero di transistor per Polaris è stato ottenuto facendo il rapporto con gli SP (2306/2816) di hawaii che di transistor ne ha 6,2.
un ipotetico polaris da 8,9 miliardi di transistor consumerebbe 160W e avrebbe una frequenza superiore del 20%...
in definitiva tra il cambio di architettura e finfet AMD ha ottenuto
+20% di frequenza riducendo la tensione da 1,2 a 1,15V...
-39% consumi
aumento dell'efficienza del 95%....
pare che ci sia tanto di AMD
ritornando a quello che ci interessa, ovvero la CPU, a me interessa particolarmente la frequenza a 1,15V....perchè ci dà la misura di quanto possa girare un ipotetico excavator sui finfet..
detto fatto 3,5GHz -> 1,2 = 4,2GHz@1,15V....:cool:
Mi serve qualcuno che spulci i datasheet di XV per vedere a che frequenza e con che potenza dissipata va un modulo XV a 1.1-1.15V... :D
Così facciamo conti più precisi... Ho trovato uan APU da 15W che va a 3.6GHz in turbo (quindi su un modulo), ma mi serve sapere il Vcore per vedere se è minore o uguale a 1.2, che corrisponde a 1.15 sul 14nm...
tuttodigitale
24-06-2016, 17:34
Mi serve qualcuno che spulci i datasheet di XV per vedere a che frequenza e con che potenza dissipata va un modulo XV a 1.1-1.15V... :D
1,1V@3GHz -> 11W:cool:
EDIT come non detto...
a 3 GHz sono richiesti 1,2V
1,1V@3GHz -> 11W:cool:
OK, allora Zen andrà probabilmente a una frequenza maggiore di 3.75GHz negli 88W, a 1.05V. Considerando i margini che mi sono dato probabilmente si può arrivare ai 4GHz 1.1V@95W
scimmiotto bjt2:
visto che io sono un noto fanboy faccio il caso favorevole...
partiamo dal consumo delle memorie
HBM = 15W
gddr5= 25W, ma 20 per non esagerare
consumo tipico
Fury x 275W
rx480 110W
consumo GPU
Fiji 8,9transistor 260W
Polaris 5,1 miliardi 90W
il numero di transistor per Polaris è stato ottenuto facendo il rapporto con gli SP (2306/2816) di hawaii che di transistor ne ha 6,2.
un ipotetico polaris da 8,9 miliardi di transistor consumerebbe 160W e avrebbe una frequenza superiore del 20%...
in definitiva tra il cambio di architettura e finfet AMD ha ottenuto
+20% di frequenza riducendo la tensione da 1,2 a 1,15V...
-39% consumi
aumento dell'efficienza del 95%....
pare che ci sia tanto di AMD
ritornando a quello che ci interessa, ovvero la CPU, a me interessa particolarmente la frequenza a 1,15V....perchè ci dà la misura di quanto possa girare un ipotetico excavator sui finfet..
detto fatto 3,5GHz -> 1,2 = 4,2GHz@1,15V....:cool:
Ok. Quanto consuma 1 modulo XV a 3.5GHz@1.2V? Togli il 39% e moltiplica per 8 ed hai il consumo del tuo Zen a 4.2GHz... :D
tuttodigitale
24-06-2016, 17:52
Ok. Quanto consuma 1 modulo XV a 3.5GHz@1.2V? Togli il 39% e moltiplica per 8 ed hai il consumo del tuo Zen a 4.2GHz... :D
3,4GHz@1,27 va bene? 22W
107 W :cry: , una tensione più alta e frequenza più bassa..
PS ho preso dati riferiti a Carrizo, che in oc su desktop richiede 1,5V per 3,85GHz....
visto che BR è dato per 4,3GHz e il die nuovo ha senz'altro prestazioni migliori :sperem:
edit
quindi se prendo i valori di Carrizo a 3GHz...possiamo ottenere 3,6GHz in 65W (10w per il fatto che è un Soc).....BELLO...
george_p
24-06-2016, 18:15
Naturalmente per mia ignoranza non posso seguirvi in tutti i calcoli, come sempre.
Diciamo però che mi interessava il tutto rapportato a zen sullo stesso silicio.
Il +25% di frequenza naturalmente è solo tra fiji e polaris a parità di consumo sarebbe maggiore immagino.
Ma amd non aveva dichiarato un miglioramento performance/watt pari a 2,8?
Quindi il 95% è inferiore.
Se non ho capito male ovvio.
Inoltre, altra domanda. Il numero di transistor è fondamentale per poter capire da questi dati il consumo?
Magari lo avete scritto migliaia di volte ma io che non so "leggervi" ho bisogno di fare domande specifiche così che traduciate secondo le mie conoscenze :D
Grazie :)
tuttodigitale
24-06-2016, 18:46
Ma amd non aveva dichiarato un miglioramento performance/watt pari a 2,8?
Certamente non era riferito alla Fury. (sarebbe mostruoso)
.per avere il 2,8x di efficienza rispetto ad Hawaii, la rx480 dovrebbe essere più prestante della R9 390x del 12%...nell'ipotesi che consumi 110W...
AMD ha parlato di un "fino a" quindi credo che manterrà la parola.
Il +25% di frequenza naturalmente è solo tra fiji e polaris a parità di consumo sarebbe maggiore immagino.
un ipotetico Polaris grande come Fiji a 1266MHz consumerebbe solo il 61% della Fury, quindi la frequenza avrebbe molto margine di crescita (a proposito Polaris ha raggiunto i 1,6 GHz in overclock, c'è molto potenziale nascosto..:cool: )
Non a caso si fanno insistenti voci di un chip VEGA da 6000+ sp.....:sofico:
george_p
24-06-2016, 19:15
Certamente non era riferito alla Fury. (sarebbe mostruoso)
.per avere il 2,8x di efficienza rispetto ad Hawaii, la rx480 dovrebbe essere più prestante della R9 390x del 12%...nell'ipotesi che consumi 110W...
AMD ha parlato di un "fino a" quindi credo che manterrà la parola.
un ipotetico Polaris grande come Fiji a 1266MHz consumerebbe solo il 61% della Fury, quindi la frequenza avrebbe molto margine di crescita (a proposito Polaris ha raggiunto i 1,6 GHz in overclock, c'è molto potenziale nascosto..:cool: )
Non a caso si fanno insistenti voci di un chip VEGA da 6000+ sp.....:sofico:
Ok ok ora è un poco più chiaro il tutto :cool:
Ma quei 1600 MHz raggiunti da Polaris sono veri? O solo rumors/fake? Non ho avuto modo di seguire bene.
Un vega da 6000 :D azz, chissà quanto costerà :)
Quindi un chip grande quanto Fiji, potrebbe essere Vega con consumi inferiori almeno della metà :eek:
Speriamo che sto silicio sia davvero buono, dopo dieci anni GF, anche se con l'aiuto di samsung e ibm si rifarebbe.
cdimauro
24-06-2016, 19:24
Lo so... :) Forse non hai seguito bene tutti i miei discorsi... :)
No, seguo questo thread da pochi giorni, e ho letto soltanto la prima pagina, e una dozzina delle ultime, per cui non posso sapere tutto ciò che avete scritto finora.
Ho anche avuto uno scambio di tweet con il famoso Dresdenboy, che poi lo ha riportato sul forum di semiaccurate, dandomi sostanzialmente ragione, e anche li le persone che sostengono che Zen non possa superare i 3 GHz hanno dovuto arrendersi alle mie argomentazioni, anche perchè quello che ho affermato (vedi dopo) non contraddiceva quello che dicevano loro...
Francamente non li conosco, e non ho idea se siano persone affidabili o meno.
In ogni caso ci sono ancora poche informazioni in giro, e l'unica cosa che si può fare è speculare.
La FPU del Cortex A9 può eseguire 2 operazioni SIMD a 64 bit per ciclo, su interi e FP, un po' come le SSE/AVX, ma in scala ridotta.
La FPU di Zen, per quanto ci è dato sapere, può eseguire 2 operazioni a 128 bit, più altre 2 pipeline miscellanee. Io ho supposto che la FPU di Zen consumasse 4 volte quella del Cortex A9, visto che ho supposto il caso peggiore di 4x128bit operazioni per ciclo.
Ho (ri)dato un'occhiata adesso al diagramma presente a prima pagina (http://dresdenboy.blogspot.de/2015/10/amds-zen-core-family-17h-to-have-ten.html).
Posto che si tratti ancora di una speculazione e non di un diagramma ufficiale, Zen sarebbe in grado di eseguire al massimo 2 FADD a 128bit + 2 FMUL a 128 bit, oppure 1 FADD a 256 bit (128+128) e 1 FMUL a 128 bit (idem come prima), o un mix dei due casi, visto che le pipeline dell'FPU sono a 128 bit. Sull'FMAC non ci sono dati, ma sembra che l'FMAC venga emulata eseguendo la moltiplicazione, e una volta ottenuto il risultato eseguendo successivamente la somma. Dunque non è in grado di eseguire 2 FMAC per ciclo di clock, perché l'operazione viene internamente spezzettata in due. Sull'FMA, invece, non c'è proprio nessun dato.
Riguardo NEON, è vero che sull'A9 le istruzioni con vettore da 128-bit sono implementate/eseguite come 2 istruzioni da 64-bit, ma questo non riguarda tutte le istruzioni. Sicuramente quelle FP a singola precisione sono spezzate, ma diverse altre (e in particolare quelle sugli interi, no). Inoltre l'istruzione di FMAC non richiede più cicli per essere eseguita.
Quindi come vedi le due FPU, NEON e x86, sono abbastanza diverse. A ciò aggiungi anche il fatto che lo è anche il set d'istruzioni, dove x86 ne presenta parecchie. Ultimo, ma non meno importante, x86 deve supportare la tradizionale FPU x87 e le estensioni SIMD MMX, SSE, AVX, AVX-2 (tralasciando al momento le varie versioni di SSE).
Per cui un confronto fra le due FPU risulta tutt'altro che semplice. E, a mio avviso, non fattibile. A meno che tu non voglia restringere il tutto alle sole unità funzionali FADD e FMUL, ma non so quanto ciò possa essere utile, considerato che nemmeno sappiamo come siano state implementate.
Giusto per essere chiari, una moltiplicazione per 4 (4x128-bit) del "peso" dell'FPU dell'A9 non mi pare possa rappresentare alcunché, se non un numero fine a sé stesso.
Poi ho supposto che un intero core consumi come 4 FPU, che mi sembra una stima eccessiva, soprattutto considerando il consumo supposto della FPU e considerando il consumo di un modulo XV a 2.7GHz sul 28nm stimato più dietro in questo thread (vedi sotto).
Poi ho moltiplicato per 8.
OK
In sostanza: la FPU Neon sul 14nm FF LVT va a 2.41GHz a 0,72V (a 125 gradi C), con Vcore nominale di 0.8V e a 0.88V e 125 gradi consuma 330mW
Ti riferisci alla stessa, identica, implementazione di NEON/A9, ma con quel processo produttivo a 14nm?
Quindi uno Zen a 2.41 GHz dovrebbe poter girare a 0.8V nominali a 2.41GHz consumando 42.240W.
OK, ma vedi poi sotto.
Questa è una stima per eccesso sia per la potenza, sia perchè la stima del FO4 del Cortex A9 è superiore a 30 e Zen non dovrebbe superare quella del K10 o di INTEL che si aggira sui 25-26.
Qui sono solo ipotesi, però, perché non si sa ancora niente.
A questi livelli di tensione, il processo GF/Samsung è in vantaggio, perchè per INTEL sembra ci voglia un VCore superiore per 2.41GHz (e tu forse me lo puoi confermare)
Intel utilizza un processo HP, però.
Inoltre, per il processo di Samsung, Ren ha mostrato un grafico dove per superare i 2Ghz ci vuole più di 1v.
Tenendo conto del FO4, l'architettura Zen dovrebbe salire di più a 0.8V
Ma sembra che il 14nm FF regga fino a 1.1V a cui girano rumors di 4.3GHz a circa 1W per la macro, e quindi circa 128W per uno Zen a 4.3GHz con FO4 30.
questo è confermato dal grafico in firma, che fa parte di una presentazione confidenziale di ARM che mostrava lo scaling del processo 14nm.
Considerando anche i dati sui transistors HVT e RVT sulla macro, pubblicati qualche pagina indietro, questo grafico corrisponde esattamente (almeno fino ai 2.41GHz) ai dati appunto pubblicati sulla macro, se si pone 1=100mW sulle Y e frequenza in GHz sulla X.
Ma in ogni caso, tra FO4 inferiore, logica pulsed static, flip flop di tipo D veloci, RCM, AVFS, Zen dovrebbe andare notevolmente più veloce di una CPU ARM a parità di processo, potendo contare su altri 0,2V di margine per il Vcore (da verificare la potenza dissipata a 1V su 8 core, ma se ci arriva INTEL...)
OK, ma sono sempre speculazioni, e riguardo al processo a 14nm non c'è solo il grafico di ARM, ma anche il diagramma di Samsung riportato da Ren.
Quanto a Intel, come già detto, utilizza un processo HP, che dovrebbe essere abbastanza diverso da quello LP/LPP di Samsung/GF.
EDIT: dimenticavo. Qui è stato pubblicato un consumo di circa 4,8W per un intero modulo XV a 2.7GHz sul 28nm HPP, mentre io ho stimato un consumo di 4.8W a 2.41 GHz di un core Zen sul 14nm LPP... Questo ti fa capire che probabilmente ho sovrastimato per eccesso in prudenza molte cose...
XV è una microarchitettura diversa, e che usa un processo produttivo diverso. Difficile fare previsioni, soprattutto con tante importanti informazioni che mancano.
In ogni caso per l'utilizzo dell'FPU NEON/A9 come benchmark di riferimento mi sono già espresso prima.
Aggiungo, inoltre, che il codice che sfrutta un'FPU è ben diverso fra x86 (in tutte le varianti dell'FPU) e ARM. Per essere chiari, servono mix di istruzioni diverse per implementare ed eseguire un determinato algoritmo, e tutto ciò comporta prestazioni e consumi diversi fra le due diverse FPU.
Anche per questi motivi, oltre a ciò che ho scritto all'inizio sull'argomento, prendere l'FPU di A9 come riferimento per i calcoli non mi sembra una scelta che possa portare a qualcosa di utile.
Poi dimenticavo... Se un modulo XV consuma 4.8W a 2.7GHz sul 28nm HPP, anche se supponiamo che dal 28nm al 14nm non si guadagna nulla, AMD potrebbe avere un X16 XV a 2.7GHz a circa 40W... Quindi sospetto che se AMD non ha preferito fare così, deve avere una soluzione migliore in Zen...
Ma fra XV e Zen c'è anche una bella differenza di prestazioni, per cui anche se XV dovesse avere consumi minori, AMD è obbligata a passare a Zen per cercare di tornare a essere competitiva a livello prestazionale, dove manca ormai da tempo.
Per concludere, lascerei perdere previsioni et similia, perché ci sono ancora troppe poche informazioni (ufficiali), e certi confronti sono troppo azzardati, come già detto prima.
cdimauro
24-06-2016, 19:30
@cdimauro:
Si, mi è sfuggita quella come tante altre cose che vi siete sparati a vicenda e di cui non mi riguarda particolarmente.
Chi riesce a seguire e leggere tutto di tutti i megapost che vi scrivete è un genio.
Ho deciso di spezzare i post, rispondendo a singoli commenti, o quanto meno a commenti di una sola persona. Così dovrebbe essere più facile seguire la discussione. Spero.
Il post che ho quotato era decisamente più visibile, e ok, sarà pure decontestualizzato ma il contenuto era tutt'altro che "pacifico".
Il contenuto era soltanto una battuta, e nulla di più.
Sono stati gli altri i commenti decisamente poco pacifici, per cui se avessi voluto sottolineare quest'aspetto, avresti potuto scegliere di meglio invece di andare a pescare una banale battuta.
A prescindere da ciò reputo chiunque scriva cercando di colpire "l'avversario" con insulti e offese, come ho letto tutto il giorno, un bambino arrabbiato per il suo giocattolino.
Non è escluso nemmeno Paolo per questo.
E certo, a uno che mi arriva a dire pure drogato dovrei metter davanti il tappeto rosso e fare un inchino, vero? :rolleyes:
cdimauro
24-06-2016, 19:38
Il problema del flame nel TH è nato nel preciso momento in cui le previsioni hanno superato prestazionalmente Intel, e questo probabilmente da' fastidio anche solamente ad ipotizzarlo.
Al solito ti fai dei film tutti tuoi, perché nel tuo universo parallelo si vedono complotti a ogni angolo.
Come già detto nel commento di bjt2, frequento questo thread soltanto da pochi giorni, perché me l'ha fatto conoscere uno dei partecipanti, che mi aveva chiesto alcune informazioni un po' di giorni fa.
Sarà una decina d'anni che non frequentavo più la sezione Processori, ma considerato che il clima non mi sembra affatto cambiato (anzi), credo di aver fatto bene.
Poi si prende tutto come pretesto per continuare un flame. Ad esempio io ho postato il fatto dei mobili AMD con Carrizo menomati prestazionalmente perchè in single-channel e commercialmente come prezzo perchè proposti a pari prezzo con gli Intel, ma non per punzecchiare Intel, ma per far capire che se Intel riesce a boicottare un BW a -50%, è ovvio che un Zen al -20% se lo pappa a colazione, quindi necessariamente deve proporlo ad un prezzo inferiore rispetto a -50% BR/BW.
Di quale boicottaggio parli? Intel non boicotta proprio un bel niente.
Hai prove per poterlo affermare? O si tratta della solita sparata?
Quando io parlo di bench partigiani... ok, se leggo una rece sul Intel, viene perfino riportato se montando DDR con clock superiore si aumentano le prestazioni e tu fai una rece su AMD in single channel e non lo riporti neppure? Ma non è illegale,
Evidentemente no. Ma cambiare recensore invece di gridare al complotto, no? O sono tutti inaffidabili?
perchè le differenze sono reali in quanto PC def di fabbrca, ma irreali perchè fanno risultare BR meno performante della realtà a parità di componenti.
Se lo fa 1, 2, 3 e più, possibile che lo vedo solo io?
Ai complottisti nemmeno serve arrivare a 3: l'1 è più che sufficiente.
Per il resto, e come già detto, cambiare recensore.
cdimauro
24-06-2016, 19:44
@cesare
Forse in pochi sanno degli avvenimenti passati, piuttosto tutta la storia è stata infarcita di leggende tali da diventare grottesche:
Ripeto la storia degli sconti è vera ma certamente non preminente.
Sì, ma le condanne sono arrivate per gli sconti illegali.
Era l'approvvigionamento il problema, è vorrei ricordarvi che amd ebbe ritardi pure sulla fan di Dresda.
Quale azienda certa dell'approvvigionamento non avrebbe strappato in contratto di esclusiva con amd pubblicizzando il suo pc come l'unico preassemblato con la CPU più veloce del momento.
Vero, e i problemi della fab erano ben noti. Anche qui (sezione News) se ne parlò. Tempo fa (2-3 anni) feci una ricerca perché ci fu una discussione con un altro utente, e riportai vari link sull'argomento.
Non dimentichiamoci poi che non si è arrivato in usa ad una sentenza quindi il contratto di fornitura agli OEM potrebbe configurarsi anche come perfettamente legale.
Non credo che solo perché manchi una condanna sia illegale.
E' legale... ciò che la legge non impedisce. :)
Se un grosso OEM deve approntare una linea di pc (con i relativi elevati costi) e ricevere un componente al contagocce ( vi ricordate già la penuria che ci fu con i barton prima e con gli a64 3400 754 dopo) e sentirsi dire da intel: se vuoi essere nostro cliente privilegiato queste sono le condizioni altrimenti non possiamo garantire la disponibilità di prodotti in quanto dobbiamo garantire in primis i nostri partner.
Amd al tempo non avrebbe potuto soddisfare nemmeno la produzione dell.
Questa è la verità, e per tutto tengo a rimarcare che sono un fanboy amd.
Esatto. Non serve soltanto avere un ottimo processore, ma serve anche garantire i volumi per venderlo.
Circa le recensioni pilotate: nessuno ha prove di pressioni da parte di amd, intel o Nvidia sui recensori.
Oltre alle mazzette vi sono altre possibilità :
Simpatia del recensore per una marca.
Sudditanza psicologica.
Paura di non avere più sample in anteprima.
Ma soprattutto mia menzionato:
Evitare di inimicarsi il 50% (ed oltre) dei lettori dei propri siti sminuendo la loro amata marca ( e l'altro giorno un ingegnere mi ha chiesto se il processore fx fosse compatibile con autocad)
Esattamente, ma è troppo comodo gridare al complotto e puntare aprioristicamente il dito, senza uno straccio di prova, contro chi è stato identificato come il nemico.
Ma ci sei o ci fai?
Intel è passata da un i7 970, 4 core 3,2 GHz ad un i7 990x un 6 core 3,46GHz, senza cambiare architettura... e tu fa le pulci su un 10%...
12 core in MCM con le stesso TDP del vecchio modello (8core/45nm) non ti piacciono vero...;)
Tuoi vuoi 6ghz:p sul silicio dei SOGNI...
ps. ma che ti rispondo a fare...:confused:
tuttodigitale
24-06-2016, 20:01
Posto che si tratti ancora di una speculazione e non di un diagramma ufficiale, Zen sarebbe in grado di eseguire al massimo 2 FADD a 128bit + 2 FMUL a 128 bit, oppure 1 FADD a 256 bit (128+128) e 1 FMUL a 128 bit (idem come prima), o un mix dei due casi, visto che le pipeline dell'FPU sono a 128 bit. Sull'FMAC non ci sono dati, ma sembra che l'FMAC venga emulata eseguendo la moltiplicazione, e una volta ottenuto il risultato eseguendo successivamente la somma. Dunque non è in grado di eseguire 2 FMAC per ciclo di clock, perché l'operazione viene internamente spezzettata in due. Sull'FMA, invece, non c'è proprio nessun dato.
sono informazioni antiquate...dalla patch risulta che sono 2 FMAC+2FADD sempre a 128bit
No, seguo questo thread da pochi giorni, e ho letto soltanto la prima pagina, e una dozzina delle ultime, per cui non posso sapere tutto ciò che avete scritto finora.
Francamente non li conosco, e non ho idea se siano persone affidabili o meno.
In ogni caso ci sono ancora poche informazioni in giro, e l'unica cosa che si può fare è speculare.
Ho (ri)dato un'occhiata adesso al diagramma presente a prima pagina (http://dresdenboy.blogspot.de/2015/10/amds-zen-core-family-17h-to-have-ten.html).
Posto che si tratti ancora di una speculazione e non di un diagramma ufficiale, Zen sarebbe in grado di eseguire al massimo 2 FADD a 128bit + 2 FMUL a 128 bit, oppure 1 FADD a 256 bit (128+128) e 1 FMUL a 128 bit (idem come prima), o un mix dei due casi, visto che le pipeline dell'FPU sono a 128 bit. Sull'FMAC non ci sono dati, ma sembra che l'FMAC venga emulata eseguendo la moltiplicazione, e una volta ottenuto il risultato eseguendo successivamente la somma. Dunque non è in grado di eseguire 2 FMAC per ciclo di clock, perché l'operazione viene internamente spezzettata in due. Sull'FMA, invece, non c'è proprio nessun dato.
Riguardo NEON, è vero che sull'A9 le istruzioni con vettore da 128-bit sono implementate/eseguite come 2 istruzioni da 64-bit, ma questo non riguarda tutte le istruzioni. Sicuramente quelle FP a singola precisione sono spezzate, ma diverse altre (e in particolare quelle sugli interi, no). Inoltre l'istruzione di FMAC non richiede più cicli per essere eseguita.
Quindi come vedi le due FPU, NEON e x86, sono abbastanza diverse. A ciò aggiungi anche il fatto che lo è anche il set d'istruzioni, dove x86 ne presenta parecchie. Ultimo, ma non meno importante, x86 deve supportare la tradizionale FPU x87 e le estensioni SIMD MMX, SSE, AVX, AVX-2 (tralasciando al momento le varie versioni di SSE).
Per cui un confronto fra le due FPU risulta tutt'altro che semplice. E, a mio avviso, non fattibile. A meno che tu non voglia restringere il tutto alle sole unità funzionali FADD e FMUL, ma non so quanto ciò possa essere utile, considerato che nemmeno sappiamo come siano state implementate.
Giusto per essere chiari, una moltiplicazione per 4 (4x128-bit) del "peso" dell'FPU dell'A9 non mi pare possa rappresentare alcunché, se non un numero fine a sé stesso.
Il mio era solo un calcolo approssimativo e come caso peggiore. Cerco di calcolare il caso peggiore per entrambi e vedo in che relazione sono... Una FMUL è il caso peggiore per il consumo di una FPU (FDIV è microcodificata in genere e non ha un throughput di una per ciclo). Ho supposto che una FPU Neon possa fare 2x64=4 flop a 32 bit per ciclo di picco e l'ho confrontato con il caso peggiore, dal punto di vista del consumo di 4x128=16 flop. In realtà le pipelime che possono fare FLOP sono 2... Le altre sono per l'MMX, shuffle e operazioni intere e al più possono fare una istruzione legacy x87, quindi assumere 4x128=16 flop è una sovrastima del consumo della FPU.
Per quanto riguarda il cosnumo. Il FO4 di NENO è superiore a 30 e dalle latenze il numero di stadi di Zen dovrebbe essere lo stesso di BD, quindi un FO4 certamente inferiore a 30. Neanche Jaguar, che è l'architettura AMD a basso consumo e completamente sintetizzata ha un FO4 così alto (15 stadi per Jaguar vs 8-11 per il Cortex A9), quindi ho la ragionevole certezza che anche Zen abbia un FO4 inferiore a 30 poichè dovrebbe essere l'architettura ad alte prestazioni.
Quindi se il FO4 è inferiore, a 2.41GHz e 0.8V dovrebbe consumare meno a parità di flop. Di nuovo quindi una sovrastima.
OK
Ti riferisci alla stessa, identica, implementazione di NEON/A9, ma con quel processo produttivo a 14nm?
Si, qualche pagina indietro... Lo avevo detto a tuttodigitale di metterla in prima pagina! :D
OK, ma vedi poi sotto.
Qui sono solo ipotesi, però, perché non si sa ancora niente.
Intel utilizza un processo HP, però.
Inoltre, per il processo di Samsung, Ren ha mostrato un grafico dove per superare i 2Ghz ci vuole più di 1v.
Di una architettura ad alto FO4 e probabilmente fatta con transistors HVT... Infatti i 2.41 GHz si raggiungono con gli LVT. Con gli HVT mi pare la metà.
OK, ma sono sempre speculazioni, e riguardo al processo a 14nm non c'è solo il grafico di ARM, ma anche il diagramma di Samsung riportato da Ren.
Quanto a Intel, come già detto, utilizza un processo HP, che dovrebbe essere abbastanza diverso da quello LP/LPP di Samsung/GF.
Ok, ma quanti volts servono per 2.4GHz? E quanti GHz con 0.8V? E' questo che conta... Essendo HP probabilmente avrà alto leakage. Invece questo processo con transistors LVT (quindi non il massimo per il leakage) a 2.41GHz hanno 18mW su 330 buttati in leakage... Non male...
XV è una microarchitettura diversa, e che usa un processo produttivo diverso. Difficile fare previsioni, soprattutto con tante importanti informazioni che mancano.
In ogni caso per l'utilizzo dell'FPU NEON/A9 come benchmark di riferimento mi sono già espresso prima.
Aggiungo, inoltre, che il codice che sfrutta un'FPU è ben diverso fra x86 (in tutte le varianti dell'FPU) e ARM. Per essere chiari, servono mix di istruzioni diverse per implementare ed eseguire un determinato algoritmo, e tutto ciò comporta prestazioni e consumi diversi fra le due diverse FPU.
Anche per questi motivi, oltre a ciò che ho scritto all'inizio sull'argomento, prendere l'FPU di A9 come riferimento per i calcoli non mi sembra una scelta che possa portare a qualcosa di utile.
Ripeto che la mia era una stima del caso peggiore, anche se Zen dovesse avere un IPC altissimo e sparare istruzioni FPU a raffica. Inoltre dalle latenze nella patch al compilatore gcc si evince che le latenze non sono diminuite di molto, ma anzi aumentate per le MOVE FP... Non so il perchè, ma forse per abbassare il FO4 della FPU
Ma fra XV e Zen c'è anche una bella differenza di prestazioni, per cui anche se XV dovesse avere consumi minori, AMD è obbligata a passare a Zen per cercare di tornare a essere competitiva a livello prestazionale, dove manca ormai da tempo.
Per concludere, lascerei perdere previsioni et similia, perché ci sono ancora troppe poche informazioni (ufficiali), e certi confronti sono troppo azzardati, come già detto prima.
Per quanto riguarda il confronto sui consumi: sembra che un core Zen abbia circa gli stessi transistors di un modulo XV. Un modulo XV consuma 5W a 2.7GHz sul 28nm HPP. E dovremmo pensare che sul 14nm LPP consumi più di 5W, avendo lo stesso FO4 o forse inferiore? Suvvia...
Non ho bisogno di fare calcoli precisi per essere ragionevolmente convinto che Zen andrà almeno a una frequenza attorno ai 4GHz a 95W...
cdimauro
24-06-2016, 20:14
Cesare o ti sfugge il concetto di cosa voglia dire memoria storica o non hai letto bene quello che ho scritto.
Innanzitutto non ho mai scritto e mai pensato che tutti i tedeschi siano nazzisti o che tutti gli italiani siano dei fascisti e ti chiedo cortesemente di non mettermi in bocca parole che non ho detto e che non si evincono in nessun modo da quello che ho scritto.
Non t'ho messo niente in bocca: non ho mai avuto alcun bisogno di farlo in nessuna discussione, e non ho intenzione di cominciare adesso.
Quelle sono le mie riflessioni sull'argomento memoria storica.
Avere memoria di quello che è successo serve per evitare di ripetere gli errori, mi sembra abbastanza chiaro. Storica è aggettivo che indica memoria di eventi storici ma avere memoria degli errori fatti permette a tutti noi di non sbagliare. Tutto qui. Penso che anche tu ti ricorderai di quando hai sbagliato (o non sbagli mai?), che so, nel programmare e che il ricordarti in futuro di quell'errore serva per non sbagliare. Parlando con un Ingegnere di Fiat Avio in pensione mi diceva che era stato richiamato da Fiat proprio perché i nuovi Ing., preparatissimi sul nuovo, avevano parecchie lacune sul vecchio e questo portava a ripetere errori che lui e quelli della sua generazione davano per assodati. Volgarmente detto addestramento per affiancamento a persona più esperta. Questo è anche l'obiettivo della memoria storica. Ricordare gli eventi passati negativi, e non solo quelli positivi, dovrebbe permettere alla generazione presente di non commettere gli stessi errori e non di fustigarsi con il gatto a nove code per quello che hanno commesso i loro avi. Ma come ti è venuto in mente? Sinceramente non capisco proprio. E con la mia coscienza mi sento apposto.
Avevo già spiegato il motivo per cui ho scritto quelle cose, e lo trovi alla fine di quella parte della discussione. In sintesi, è una scusa dei fanboy per continuare aprioristicamente ad andare addosso al nemico costituito.
Spero che adesso sia chiaro.
Scusami io non sarò bravissimo in inglese ma io lo traduco diversamente e anche usando google translate salta fuori questo:
"Come parte della risoluzione globale delle azioni , e senza concedere esplicitamente o implicitamente che una delle seguenti pratiche commerciali sono tenuti dalle leggi di qualsiasi giurisdizione , o di qualsiasi ordine emesso da un organo di regolamentazione o aggiudicativo , in qualsiasi parte del mondo , o che le pratiche commerciali contrarie violerebbe tali leggi o ordini , le parti decidono di aderire alle pratiche commerciali di cui al punto 2.0 per il termine , e fatte salve le condizioni , di cui al paragrafo 6.0 ."
Ti sottolineo l'utilizzo del termine senza concedere esplicitamente o implicitamente e violerebbe. In pratica quella frase ci dice solo che Intel con riferimento alla pratiche commerciali attuate ritiene di non aver violato nessuna legge e ordine di un organo di regolamentazione. Questo perché il documento è datato novembre 2009 e intel aveva pena chiesto il ricorso alla Corte di giustizia europea (e presumo anche davanti a quello coreano) e quindi pensava di poter dimostrare la sua innocenza. Cosa che in primo grado non è avvenuta (e bisognerà attendere l'ennesimo ricorso). E' altrettanto chiaro che non avrebbe potuto scrivere su un accordo che era colpevole di qualche legge perché equivaleva ad auto denunciarsi.
Infatti è chiaro che quella subordinata equivalga a mettere le mani avanti.
D'altra parte è anche vero che un'azienda non è che si possa arrogare il diritto di decidere se una cosa sia legale o meno, pur avendo uno stuolo di avvocati.
Intanto dice: io sono in regola. Poi sarà eventualmente un giudice a decidere.
Ma come non è libera di trasgredire quelle regole? Chi la vieta? Cosa siamo in Minority Report che si interveniva prima di commettere un reato. Uno è libero di commettere tutti i reati che vuole, poi solo deve pagarne le conseguenze se si riesce a dimostrarne i fatti. Ma che ragionamento è.
Ti faccio un esempio. Esiste la regola che non di debba passare con il rosso. Perfetto. Cosa ti vieta di farlo? Le leggi esistono per regolamentare dei comportamenti ma non è che se esistono allora è implicito che nessuno possa trasgredire. Il modo se si vuole lo si trova.
Ma che ragionamento è il tuo, invece. E' OVVIO che chiunque, a prescindere dalle leggi, possa decidere di infrangerle. Non ci sarebbero né giudici né prigioni.
Io ho affermato una cosa diversa: che il venire meno di quell'accordo non implica che Intel possa nuovamente trasgredire le regole.
E anche questo mi pare sia ovvio.
Inoltre mi pare ovvio che l'accordo NON scriva che intel può trasgredire delle leggi antitrust, dice solo che l'accordo di non commettere più quelle pratiche decade qualora intel avesse meno del 65%. Il che equivale a dire implicitamente che può farlo, non che debba farlo per forza. E mi pare chiaro che non ho mai detto che ovviamente lo farà sicuramente (e siamo già a due volte che mi metti parole in bocca che non ho mai detto, suvvia un po' più di attenzione a quello che ti scrivo potresti porla).
Mi pare che siamo d'accordo, e no: non t'ho messo niente in bocca.
Quelle rimangono le mie riflessioni su quella parte del documento. O devo specificarlo ogni volta che scrivo qualcosa?
Mi pare altrettanto ovvio che se non avesse negato che quelle pratiche erano illegali quell'accordo era nullo, equivaleva ad autodenunciarsi.
Infatti.
Quindi ora vai sul personale. Non mi consoci e sai già che sono disonesto? Ma come ti permetti? Cerca di moderare i termini che non mi pare di averti giudicato o dato dei titoli. Anzi ho pure scritto che non mi pareva fossi venuto qui con l'intento di fare flame.
Premesso che la banda degli onesti (https://it.wikipedia.org/wiki/La_banda_degli_onesti) è un film comico, hai scritto tu quelle cose? Non mi pare. Hai preso tu una battuta e cercare di farla passare come flame? Non mi pare neppure.
Gli attori in gioco sono Paolo e Giorgio, come peraltro risulta pure da quello che avevo scritto e mi hai quotato.
L'uno che ha scritto quelle cose, e l'altro che ha fatto cherry-picking soltanto su un mio commento, "dimenticando" quello che aveva scritto il suo compare, a cui ovviamente doveva dare man forte.
In merito a quel post ho visto che è in risposta ad altri precedenti ma allora il tuo ragionamento sarebbe: se altri fanno flame mi ci aggiungo anche io invece di segnalare? Bhe molto maturo. (per cui "una battuta del genere, se permetti, ci sta proprio benissimo." non esiste proprio). Quindi se sei in coda e vedi che qualcuno supera ingiustamente ti metti a superare anche te? Bel modo di ragionare veramente. Il modo giusto è invece che se ritieni che george o paolo abbiamo fatto flame, di usare il tasto segnala. Niente di più semplice.
Rispondi a questa domanda allora: tu hai segnalato tutti i post polemici di Paolo?
Per quanto riguarda la diffamazione riguarderebbe intel. Starà a lei difendersi se si sente diffamata. O fai parte del suo settore legale? Come dipendente se credi che paolo veramente stia diffamando intel dovresti farlo presente in azienda. Secondo me si faranno due grosse risate:D Però potrei sbagliarmi.
Ma figurati se scomodo il dipartimento legale per le sparate di un fanatico esagitato. Hanno ben altro a cui pensare.
Ma mi è comodo evidenziare come i cosiddetti salvatori della patria che parlano tanto di onestà e pretendono di etichettare come disonesti i nemici costituiti, non si facciano scrupoli macchiarsi di reati che prevedono persino il carcere.
Gli unti dal signore si rivelano, insomma, piuttosto unti... :asd:
cdimauro
24-06-2016, 20:22
L'importante che gli sconti non siano legati su quantità ammazza concorrenza...perchè è questo alla fine il reato contestato anni fa.
In questi casi si parla di dumping, che è un reato.
alcune scelte sono state anche condizionate dall'implementazione fisica... sei sicuro al 100% che scelte molto diverse non avrebbero azzoppato l'a64, e tutte le cpu x64 che sono seguite, che hanno mantenuto la compatibilità con l'IA-32?
Non so che scelte avrebbe fatto Keller.
Intanto la compatibilità la puoi benissimo mantenere lo stesso, similmente ad ARM che con ARMv8 ha tirato fuori un'ISA a 64-bit interamente nuova, ma che fa girare anche quella vecchia a 32-bit, inclusa la modalità Thumb.
Per il resto, sì: sono sicuro al 100%. Ho ben 4 motivi/soluzioni per poterlo affermare, e perfino la prima, la più datata, consente di risolvere diverse problematiche, aumentare registri general purpose e SIMD, introdurre istruzioni a 3 (o anche 4) operandi, nuove modalità d'indirizzamento, e altre cosucce. Tutte cose che, come puoi immaginare, non solo colmano il gap con ARMv8, ma vanno oltre.
La FPu di ZEN al momento pare essere molto più semplice di quella di skylake (non è detto che sia uno svantaggio:D ).
Di Skylake purtroppo non ho trovato diagrammi in giro. :stordita:
tuttodigitale
24-06-2016, 20:22
12 core in MCM con le stesso TDP del vecchio modello (8core/45nm) non ti piacciono vero...;)
con la stessa frequenza immagino....o addirittura superiore come ha fatto Intel :rolleyes:
PS le configurazioni MCM sono esistite anche con il P7 liscio e arrivavano oltre i 700W di TDP....e non si fermavano certo a "soli" 12 core...ma arrivavano anche a 32 core...
i confronti quindi farli a pari frequenza...:rolleyes: come faccio a prenderti sul serio?
se la stessa IBM, ha ammesso che il miglioramento delle prestazioni è dipeso solo da 7% e al 93% dagli affinamenti architetturali (mentre per contro il rapporto Intel è 20% architettura e 80% silicio, imho), tu perchè vieni a dire che questo silicio è favoloso.
Ah dimenticavo, IBM ha tutti gli interessi di screditare il silicio che lei stessa ha sviluppato...:muro:
tuttodigitale
24-06-2016, 20:37
Tuoi vuoi 6ghz:p sul silicio dei SOGNI...
La cosa buffa che tu parli del power6, dimenticando i problemi che ha avuto AMD sui 65nm.....
l'unica cosa che ho capito che quelli di IBM sono degli incapaci assoluti (non c'è un'architettura che ti sia piaciuta), tranne quando si tratta di silicio...quello che non possono controllare al 100%, gli riesce sempre bene...
la fortuna dei principianti...
tuttodigitale
24-06-2016, 20:45
Per il resto, sì: sono sicuro al 100%. Ho ben 4 motivi/soluzioni per poterlo affermare, e perfino la prima, la più datata, consente di risolvere diverse problematiche, aumentare registri general purpose e SIMD, introdurre istruzioni a 3 (o anche 4) operandi, nuove modalità d'indirizzamento, e altre cosucce. Tutte cose che, come puoi immaginare, non solo colmano il gap con ARMv8, ma vanno oltre.
tutto questo non aumentando eccessivamente la complessità dell'ISA?
Mi pare molto molto complicato...avrebbero dovuto tagliare i ponti con il passato, per fare quello che dici, e probabilmente non sarebbe stata una cattiva idea...IMHO
Mister D
24-06-2016, 21:01
Non t'ho messo niente in bocca: non ho mai avuto alcun bisogno di farlo in nessuna discussione, e non ho intenzione di cominciare adesso.
Quelle sono le mie riflessioni sull'argomento memoria storica.
Avevo già spiegato il motivo per cui ho scritto quelle cose, e lo trovi alla fine di quella parte della discussione. In sintesi, è una scusa dei fanboy per continuare aprioristicamente ad andare addosso al nemico costituito.
Spero che adesso sia chiaro.
Ok ora è sicuramente più chiaro ma come avevi scritto ("Tu come ti senti? Sei a posto con la coscienza? Consideri aprioristicamente criminali e fascisti tutti gli italiani, ancora oggi? Li guardi con sospetto qualunque cosa facciano?") invece sembrava volessi mettermi parole in bocca che non penso minimamente. Non avevo sinceramente capito che erano tue riflessioni sull'utilità della memoria storica e quelle domande sembravano ben altro.
Infatti è chiaro che quella subordinata equivalga a mettere le mani avanti.
D'altra parte è anche vero che un'azienda non è che si possa arrogare il diritto di decidere se una cosa sia legale o meno, pur avendo uno stuolo di avvocati.
Intanto dice: io sono in regola. Poi sarà eventualmente un giudice a decidere.
Ma che ragionamento è il tuo, invece. E' OVVIO che chiunque, a prescindere dalle leggi, possa decidere di infrangerle. Non ci sarebbero né giudici né prigioni.
Io ho affermato una cosa diversa: che il venire meno di quell'accordo non implica che Intel possa nuovamente trasgredire le regole.
E non implica nemmeno il contrario. Comunque ora ho capito bene quello che volevi dire ma nel post precedente tu scrivevi così:
"Dunque non è vero che Intel sarebbe libera di trasgredire nuovamente la legge. Quella parte certamente non lo afferma."
Che è diverso da quello che hai scritto ora.
E anche questo mi pare sia ovvio.
Mi pare che siamo d'accordo, e no: non t'ho messo niente in bocca.
Quelle rimangono le mie riflessioni su quella parte del documento. O devo specificarlo ogni volta che scrivo qualcosa?
Infatti.
Ok dicevamo le stesse cose ma ho inteso male io :mano:
Premesso che la banda degli onesti (https://it.wikipedia.org/wiki/La_banda_degli_onesti) è un film comico, hai scritto tu quelle cose? Non mi pare. Hai preso tu una battuta e cercare di farla passare come flame? Non mi pare neppure.
Gli attori in gioco sono Paolo e Giorgio, come peraltro risulta pure da quello che avevo scritto e mi hai quotato.
L'uno che ha scritto quelle cose, e l'altro che ha fatto cherry-picking soltanto su un mio commento, "dimenticando" quello che aveva scritto il suo compare, a cui ovviamente doveva dare man forte.
Rispondi a questa domanda allora: tu hai segnalato tutti i post polemici di Paolo?
Ok ma hai usato il voi nell'affermazione "La banda degli onesti vi fa un baffo..." ergo, visto anche il multiquote multiutente :asd:, ho pensato che ti riferissi anche a me. Ti consiglio di stare più attento a come scrivi quello che vuoi dire, perché basta poco per creare mal comprensioni.;)
Io segnalo chi mi pare e non devo di certo rendere conto a te chi segnalo e se segnalo tutti i post polemici di un utente o di un altro. E questo vale per te e per tutti ovviamente. Il mio discorso mi pareva chiaro ma te lo ripeto: invece di usare battutine o frecciatine e continuare meglio segnalare se si pensa che il post sia offensivo o abbia creato flame. Sarà poi il moderatore a decidere se è così o no e non penso che se la prenda per una segnalazione in più da esaminare, d'altronde è uno dei suoi compiti. Chiaro così?;)
tuttodigitale
24-06-2016, 21:08
http://i.imgur.com/eezbRGE.jpg
interessante questa slide....i 14nm finfet sembrerebbero più economici dei 20nm TSMC e a maggior ragione dei 16nm finfet....
tuttodigitale
24-06-2016, 21:25
http://sk.uploads.im/d/KmijQ.png
http://sk.uploads.im/d/IcDFn.jpg
george_p
24-06-2016, 21:46
Ho deciso di spezzare i post, rispondendo a singoli commenti, o quanto meno a commenti di una sola persona. Così dovrebbe essere più facile seguire la discussione. Spero.
Il contenuto era soltanto una battuta, e nulla di più.
Sono stati gli altri i commenti decisamente poco pacifici, per cui se avessi voluto sottolineare quest'aspetto, avresti potuto scegliere di meglio invece di andare a pescare una banale battuta.
E certo, a uno che mi arriva a dire pure drogato dovrei metter davanti il tappeto rosso e fare un inchino, vero? :rolleyes:
Il tuo arrivo in questo thread è stato anticipato, per così dire, da una miriade di post flame da parte di alcuni utenti verso bjt2 e tuttodigitale in primis, e quella battuta era una risposta a uno di quegli stessi utenti, se non erro.
Non l'ho potuta interpretare in tutto il contesto come semplice battuta.
e l'altro che ha fatto cherry-picking soltanto su un mio commento, "dimenticando" quello che aveva scritto il suo compare, a cui ovviamente doveva dare man forte.
Mi spiace, prima di fare una cosa del genere, se me ne accorgo, preferisco stare zitto e da una parte.
Non ho letto per intero i vostri post "versus", troppo lunghi da leggere e davvero troppi, oltre al fatto che non mi riguardavano personalmente.
Ma ribadisco il concetto scritto la sera prima verso i fanboy e chi insulta, che siano rossi, verdi o blu. E non è nemmeno detto che un fanboy sia necessariamente un cafone... come viceversa.
Paolo si può dare una calmata scrivendo senza insultare, questo è sicuro e al pari degli altri non è giustificato nemmeno avesse piena ragione sull'argomento trattato.
In ogni caso mi sembra che qui si possa scrivere e speculare a prescindere dalle parti in gioco e dai colori.
Quando si discute senza usare toni offensivi è piacevole e interessante leggere chiunque la pensi anche in modo diverso, quindi tutti sono benvenuti, incluso te.
Ciao
paolo.oliva2
25-06-2016, 03:28
Paolo si può dare una calmata scrivendo senza insultare, questo è sicuro e al pari degli altri non è giustificato nemmeno avesse piena ragione sull'argomento trattato.
??? Se alludi a un mio post, era una risposta al precedente.
george_p
25-06-2016, 05:24
??? Se alludi a un mio post, era una risposta al precedente.
Ancora non ho nessuna idea a quale post e frase cdimauro si riferisca, non sono andato a ricercarmi nulla e non mi interessa in quanto riguarda voi due maggiormente.
Ma, a prescindere da tutto, se, ipoteticamente, lui ti insulta e tu rispondi con insulti ti poni al suo stesso piano e naturalmente viceversa.
Non rimandatemi adesso ai reciproci post per motivare le vostre battute e o insulti, non sono nè giudice nè papà di nessuno :)
Ho chiarito la mia posizione per l'accusa di faziosità a darti man forte per aver quotato un suo post (che, ripeto, in tutto il contesto non dava certo l'aria di semplice battuta) piuttosto che il tuo.
Questo non giustifica te e non giustifica lui a prescindere per la piega che hanno preso le vostre argomentazioni.
Poi, che sia tu, cdimauro, o altri a flammare e insultare di certo non vi rende gradevoli e non contribuisce alla sana lettura del thread.
Più di chiedervi una o due volte di tornare in toni normali non posso ne mi va di fare.
Tutto qua :)
Ciao
george_p
25-06-2016, 06:01
http://i.imgur.com/eezbRGE.jpg
interessante questa slide....i 14nm finfet sembrerebbero più economici dei 20nm TSMC e a maggior ragione dei 16nm finfet....
Ma quelli rapportati nel grafico sono tutti della sola glofo o includono anche tsmc?
Non vedendo nulla specificato e nemmeno i 16 nm (della sola tsmc quindi) presumo siano di glofo.
E' però vero che i 40 nm non sono certo glofo e i 20nm non li ha mai usati per produrre ("fregando" amd).
george_p
25-06-2016, 06:05
http://sk.uploads.im/d/KmijQ.png
http://sk.uploads.im/d/IcDFn.jpg
Speriamo sia davvero così, anche se dai confronti fatti ieri pare esserlo (mi riferisco alla bontà del silicio soprattutto).
cdimauro
25-06-2016, 08:26
sono informazioni antiquate...
Ma le avevo prese dal tuo primo post. :(
Vedi perché preferisco aspettare informazioni definitive prima di analizzare un'architettura? Con quelle parziali, e pure errate, si perde soltanto tempo...
dalla patch risulta che sono 2 FMAC+2FADD sempre a 128bit
OK, ma qui c'è da capire se le FMAC possono essere usate per eseguire (emulare) FMUL e/o FADD. Per le FMUL, intuitivamente penso di sì.
Ma usare un circuito FMAC per eseguire soltanto una FADD, sarebbe un po' come usare un cannone per sparare a una mosca; mi aspetto delle latenze maggiori di un normale circuito FADD, che non è il massimo.
tutto questo non aumentando eccessivamente la complessità dell'ISA?
Non credo, visto che già internamente una microarchitettura ha molti registri, e le istruzioni hanno già 3 o 4 operandi. La nuova ISA non fa che esplicitare ciò che c'è già.
Ovviamente al netto delle nuove istruzioni e modalità d'indirizzamento.
Mi pare molto molto complicato...avrebbero dovuto tagliare i ponti con il passato, per fare quello che dici, e probabilmente non sarebbe stata una cattiva idea...IMHO
Avendo le idee giuste non è complicato (al contrario l'ISA risulta semplificata, e ciò avvantaggia sia il decoder sia il backend) e si può anche tenere in piedi la compatibilità col passato. :)
D'altra parte non serve nemmeno buttare via tutto. Il backend per lo più si può riciclare (ma alcune cose sono rimosse o semplificate), mentre il decoder lo si può buttare via tranquillamente per la parte di decodifica (ma non quella che genera le micro-op), visto che quello nuovo è di gran lunga più semplice e immediato.
Tra l'altro a livello assembly la nuova ISA è 100% compatibile sia con IA-32 sia con x64, e rispetto a quest'ultima è ancora meglio, visto che è in grado di eseguire anche tutte le istruzioni "legacy" che sono state rimosse.
Quindi, sì: sono assolutamente convinto che si potesse di fare di meglio.
D'altra parte è proprio quello che ha fatto ARM: con A64/ARMv8 s'è permessa il lusso di progettare un'ISA a 64-bit completamente nuova, e in larga parte incompatibile con la precedente A32, il cui focus fossero le prestazioni. E mi pare che la sua scelta stia pagando.
Per x64 serviva qualcosa del genere...
cdimauro
25-06-2016, 08:28
Il mio era solo un calcolo approssimativo e come caso peggiore. Cerco di calcolare il caso peggiore per entrambi e vedo in che relazione sono... Una FMUL è il caso peggiore per il consumo di una FPU (FDIV è microcodificata in genere e non ha un throughput di una per ciclo). Ho supposto che una FPU Neon possa fare 2x64=4 flop a 32 bit per ciclo di picco e l'ho confrontato con il caso peggiore, dal punto di vista del consumo di 4x128=16 flop. In realtà le pipelime che possono fare FLOP sono 2... Le altre sono per l'MMX, shuffle e operazioni intere e al più possono fare una istruzione legacy x87, quindi assumere 4x128=16 flop è una sovrastima del consumo della FPU.
Aspetta, che c'è tanta confusione qui, e mi sto perdendo.
Se, come ha riportato tuttodigitale, Zen è in grado di eseguire 2 FMAC + 2 FADD a 128 bit per ciclo di clock, allora l'FPU deve necessariamente avere 4 porte per poterle eseguire indipendentemente.
Tu adesso mi dici che, invece, sono 2 (come Haswell, ma lui esegue istruzioni a 256-bit per ognuna), e che altre due servono per altre tipologie di istruzioni (e anche qui assomiglierebbe ad Haswell).
Com'è realmente la situazione? Si può chiarire questo punto?
A parte questo, e tolte di mezzo le istruzioni MMX (che, appunto, normalmente vengono eseguite su porte diverse), le istruzioni SIMD x86 devono tenere conto del diverso comportamento di SSE, AVX a 128 bit e AVX a 256 bit.
In particolare, avendo registri SIMD a 256 bit, si verificano questi casi:
SSE -> usa solo i 128-bit bassi, e lascia inalterati quelli alti. Ergo: serve un'operazione di "merge" prima di scrivere il nuovo valore nel registro.
AVX a 128 bit -> usa solo i 128-bit bassi, ma azzera quelli alti.
AVX a 256 bit -> usa tutti e 256 bit (quindi non serve nessuna operazione di merge o clear).
Come vedi un'FPU x86 si comporta in maniera diversa, e più complicata, rispetto a quella ARM, e questo ovviamente ha un costo in termini di transistor e consumo. Non credo sia eccessivo e non so quantificarlo, ma... c'è.
A parte questo, e come già detto, il mix di istruzioni generato ed eseguito fra architetture completamente diverse, come quelle in oggetto, pone una pressione diversa sulle FPU, e dunque sul relativo consumo.
Prendere in considerazione soltanto il caso in cui per ogni ciclo vengano eseguite FMUL a/o FADD è una condizione ideale, che può essere raggiunta (avvicinata, in realtà: vedi alla fine) soltanto con un codice costituito da una sequenza di queste istruzioni che riempiono interamente la cache codice L1, a parte un'istruzione finale di salto all'inizio del blocco per ripeterle nuovamente.
Va da sé che codice del genere è quanto di meno realistico si possa trovare nel codice che viene macinato tutti i giorni, anche in applicazioni pesanti di number crunching.
Ora, io non so in che condizioni sia stato calcolato il consumo di quella unità NEON. Il fatto che si parli esclusivamente dell'FPU, tralasciando tutto il resto, mi fa pensare che si tratti di una stima ingegneristica basata sul consumo dei transistor, con quel processo produttivo, frequenza, e voltaggio.
Da questo punto di vista una stima del genere ha perfettamente senso. Ma è chiaro che non si può affatto rapportarla a qualcosa di diverso.
Per quanto riguarda il cosnumo. Il FO4 di NENO è superiore a 30 e dalle latenze il numero di stadi di Zen dovrebbe essere lo stesso di BD, quindi un FO4 certamente inferiore a 30. Neanche Jaguar, che è l'architettura AMD a basso consumo e completamente sintetizzata ha un FO4 così alto (15 stadi per Jaguar vs 8-11 per il Cortex A9), quindi ho la ragionevole certezza che anche Zen abbia un FO4 inferiore a 30 poichè dovrebbe essere l'architettura ad alte prestazioni.
Personalmente penso anch'io che per Zen si stata usata la microarchitettura di BD e successori per molte cose. Non ha senso buttare via interamente un backend.
Quindi se il FO4 è inferiore, a 2.41GHz e 0.8V dovrebbe consumare meno a parità di flop. Di nuovo quindi una sovrastima.
Sì, al netto di quel che ho scritto sopra sulle FPU.
Si, qualche pagina indietro... Lo avevo detto a tuttodigitale di metterla in prima pagina! :D
Ha bisogno di un po' di aggiornamenti. :fagiano:
Di una architettura ad alto FO4 e probabilmente fatta con transistors HVT... Infatti i 2.41 GHz si raggiungono con gli LVT. Con gli HVT mi pare la metà.
OK
Ok, ma quanti volts servono per 2.4GHz? E quanti GHz con 0.8V? E' questo che conta... Essendo HP probabilmente avrà alto leakage.
Mi spiace, ma non sono al corrente di queste informazioni.
Invece questo processo con transistors LVT (quindi non il massimo per il leakage) a 2.41GHz hanno 18mW su 330 buttati in leakage... Non male...
Ma bisogna vedere come scala questo processo in base alla frequenza.
Finora l'idea che mi sono fatto leggendo quello che avete scritto, è che con tutti questi vantaggi non ha più senso affidarsi a processi HP, visto che quelli LP consentono di raggiungere ugualmente frequenze elevata mantenendo consumi ridotti.
A questo punto tanto vale buttare via l'HP e usare soltanto LP, non credi?
A meno che ci sia un inghippo da qualche parte.
Comunque queste sono mie riflessioni da profano, visto che non mi occupo di queste e francamente nemmeno m'interessano (prediligo l'analisi delle architetture).
Ripeto che la mia era una stima del caso peggiore, anche se Zen dovesse avere un IPC altissimo e sparare istruzioni FPU a raffica.
Che abbia un IPC alto dovrebbe essere assodato, a meno che AMD non abbia falsato le informazioni in merito, e questa volta, però, le potrebbe essere fatale.
Quanto all'FPU, se ha 4 porte per operazioni a 128-bit dovrebbe comportarsi molto bene, considerato che il decoder è in grado di fornire proprio 4 istruzioni per ciclo di clock (ma vedi all'inizio: idealmente non è che si eseguano sempre 4 istruzioni FP per ciclo di clock).
Inoltre dalle latenze nella patch al compilatore gcc si evince che le latenze non sono diminuite di molto, ma anzi aumentate per le MOVE FP... Non so il perchè, ma forse per abbassare il FO4 della FPU
Questo è veramente strano. La "MOVE" è l'istruzione più semplice in assoluto, e non vedo perché si dovrebbe aumentarne la latenza.
Tra l'altro con le SSE, che hanno quasi esclusivamente istruzioni a 2 operandi (quindi con la destinazione che funge anche da primo operando), sono necessarie più "MOVE"...
Per quanto riguarda il confronto sui consumi: sembra che un core Zen abbia circa gli stessi transistors di un modulo XV. Un modulo XV consuma 5W a 2.7GHz sul 28nm HPP. E dovremmo pensare che sul 14nm LPP consumi più di 5W, avendo lo stesso FO4 o forse inferiore? Suvvia...
Mah. Come faccia ad avere gli stessi transistor con tutte le migliorie apportate, rimane un mistero.
Non ho bisogno di fare calcoli precisi per essere ragionevolmente convinto che Zen andrà almeno a una frequenza attorno ai 4GHz a 95W...
Francamente, vista l'assenza di informazioni che non consentono di effettuare stime realistiche, io preferisco aspettare qualche mese. ;)
tecno789
25-06-2016, 08:35
Iscritto, spero che tirino fuori davvero qualcosa di buono che devo cambiare l'hardware, ormai sta diventando obsoleto :(
cdimauro
25-06-2016, 08:43
E non implica nemmeno il contrario.
Vabbé, ma così non ne usciamo più: è chiaro che tutto, idealmente, è possibile.
Comunque ora ho capito bene quello che volevi dire ma nel post precedente tu scrivevi così:
"Dunque non è vero che Intel sarebbe libera di trasgredire nuovamente la legge. Quella parte certamente non lo afferma."
Che è diverso da quello che hai scritto ora.
OK. Allora chiariamo questa cosa una volta per tutte: dove sta scritto in quella parte che Intel potrebbe continuare a fare quello che vuole?
Che poi è la cosa più importante.
Ok ma hai usato il voi nell'affermazione "La banda degli onesti vi fa un baffo..." ergo, visto anche il multiquote multiutente :asd:, ho pensato che ti riferissi anche a me. Ti consiglio di stare più attento a come scrivi quello che vuoi dire, perché basta poco per creare mal comprensioni.;)
Hai ragione, ci starò più attento.
Come avrai capito, l'ultima cosa che voglio è che vengano generate incomprensioni su quello che dico: non amo essere strumentalizzato. :fagiano:
Io segnalo chi mi pare e non devo di certo rendere conto a te chi segnalo e se segnalo tutti i post polemici di un utente o di un altro. E questo vale per te e per tutti ovviamente. Il mio discorso mi pareva chiaro ma te lo ripeto: invece di usare battutine o frecciatine e continuare meglio segnalare se si pensa che il post sia offensivo o abbia creato flame. Sarà poi il moderatore a decidere se è così o no e non penso che se la prenda per una segnalazione in più da esaminare, d'altronde è uno dei suoi compiti. Chiaro così?;)
Non era per questo che t'avevo fatto quella domanda.
Se ti accorgi che alcuni commenti contengono flame, offese o quant'altro sia contrario al regolamento, e non li segnali, allora vuol dire che ti sta bene così. Sei, in sostanza, complice della situazione che si viene a creare.
Ciò che trovo PERSONALMENTE singolare è che sia stato preso un mio commento (peraltro contenente una semplice battuta), e solo quello, per ricamarci sopra una storia di flame e invocare segnalazioni e interventi del moderatore. E questo quando c'era stato di ben peggio prima, e certamente non da me.
Coerenza impone che se si voglia stigmatizzare dei comportamenti contrari al regolamento, lo si debba fare sempre e comunque, chiunque sia l'attore.
E il tasto Segnala, peraltro, serve proprio a quello: a dare una mano al forum, di cui TUTTI usufruiscono, visto che i moderatori non sono onnipresenti.
Preciso nuovamente che questo è il MIO pensiero, onde evitare altri equivoci.
cdimauro
25-06-2016, 08:56
Visto che la questione si trascina da troppo, vediamo di chiarirla una volta per tutte e metterci una pietra sopra.
Il tuo arrivo in questo thread è stato anticipato, per così dire, da una miriade di post flame da parte di alcuni utenti verso bjt2 e tuttodigitale in primis, e quella battuta era una risposta a uno di quegli stessi utenti, se non erro.
Non l'ho potuta interpretare in tutto il contesto come semplice battuta.
Di quel che scrivono gli altri, che flammino o meno, non me ne può fregar di meno: io rispondo soltanto di quello che scrivo, e quindi dal mio arrivo in questo thread.
Giusto per essere chiari e tagliare la testa al toro, non ho alcun legame con altri utenti, e nemmeno sono stato chiamato da qualcuno a seguito dei flame di cui parli.
Dunque ciò che ho scritto devi prenderlo per quello che è: ho visto UNA affermazione infamante e sono intervenuto. Come peraltro si può facilmente appurare leggendo strettamente in sequenza i commenti che sono stati poi generati.
Mi spiace, prima di fare una cosa del genere, se me ne accorgo, preferisco stare zitto e da una parte.
Non ho letto per intero i vostri post "versus", troppo lunghi da leggere e davvero troppi, oltre al fatto che non mi riguardavano personalmente.
Ma ribadisco il concetto scritto la sera prima verso i fanboy e chi insulta, che siano rossi, verdi o blu. E non è nemmeno detto che un fanboy sia necessariamente un cafone... come viceversa.
Paolo si può dare una calmata scrivendo senza insultare, questo è sicuro e al pari degli altri non è giustificato nemmeno avesse piena ragione sull'argomento trattato.
In ogni caso mi sembra che qui si possa scrivere e speculare a prescindere dalle parti in gioco e dai colori.
Quando si discute senza usare toni offensivi è piacevole e interessante leggere chiunque la pensi anche in modo diverso, quindi tutti sono benvenuti, incluso te.
Ciao
E' importante chiarire un paio di cose anche qui.
Intanto una discussione andrebbe seguita in tutti i suoi post, prima di intervenire dicendo la propria, perché c'è il forte rischio di dire qualcosa di sbagliato perché non si è a conoscenza o non si è capito quello che era stato detto.
Il fatto che i post scambiati siano lunghi non è una giustificazione. Se sono lunghi da leggere, o si perde il filo della discussione e i contenuti non sono chiari, allora è molto meglio evitare d'intervenire, perché la situazione può addirittura peggiorare.
Infine, ma non meno importante, la scansione cronologica è fondamentale per attribuire le responsabilità di ognuno.
Giusto per essere chiari anche qui, non mi permetto di replicare duramente a qualcuno se questi non me ne ha dato ben motivo. Cosa che peraltro si può facilmente verificare: sono sempre gli altri a farla fuori dal vasino, perché non in grado di reggere la discussione sul piano del civile confronto. Sempre. Sistematicamente.
Per cui se si torna nuovamente su questo piano, per me non c'è assolutamente alcun problema. Ma di certo non puoi biasimarmi se rispondo duramente a uno che PRIMA mi ha perfino dato del drogato.
Spero sia chiaro una buona volta, e che possiamo metterci una pietra sopra.
paolo.oliva2
25-06-2016, 10:39
Cddimauro
Cerchiamo di impostare il discorso da persone adulte.
Io non ho scritto che sei un drogato, ma il tuo post rispondendo al mio facevano dei meandri che mi davano torto ed alla fine la conclusione era che mi dava ragione, e io ho scritto ti sei drogato? Che è diversa da dire che sei un drogato. Evitiamo di fare scenismi, perché in quel contesto non è un'offesa, dare del drogato ad una persona si.
Il tuo ingresso nel th è a seguito della mia affermazione che Intel rifà le pratiche vecchie, sul discorso BR vs BW. La tua risposta è che Intel non è responsabile. Ti faccio notare una cosa... Legalmente può essere, anzi, probabilmente lo è, ma moralmente di certo no. Se ogni 100 mobili 99 sono di Intel, e Intel ha le casse piene, non ti sembra esagerato? Guarda il mercato... Trovano una situazione simile e posta la.
Free Gordon
25-06-2016, 10:46
Non ho bisogno di fare calcoli precisi per essere ragionevolmente convinto che Zen andrà almeno a una frequenza attorno ai 4GHz a 95W...
Ma se, alla prova dei fatti, così non fosse... come te lo spiegheresti?
Significherebbe un FO4 decisamente differente da quello ipotizzato sin dall'inizio?
cdimauro
25-06-2016, 10:52
Cddimauro
Cerchiamo di impostare il discorso da persone adulte.
Io non ho scritto che sei un drogato, ma il tuo post rispondendo al mio facevano dei meandri che mi davano torto ed alla fine la conclusione era che mi dava ragione,
Non cercare di cambiare le carte in tavola: non esiste NULLA di quello che ho scritto che ti possa dare ragione.
Tant'è che dopo quell'infelice commento hai sistematicamente evitato di rispondere.
Ma sei sempre libero di quotarmi e farmi vedere dov'è che t'avrei dato ragione, eh! Io son qui che aspetto.
e io ho scritto ti sei drogato? Che è diversa da dire che sei un drogato. Evitiamo di fare scenismi, perché in quel contesto non è un'offesa, dare del drogato ad una persona si.
Questi sono sofismi: quella E' e rimane un'offesa del tutto gratuita, che potevi benissimo risparmiarti.
Il tuo ingresso nel th è a seguito della mia affermazione che Intel rifà le pratiche vecchie, sul discorso BR vs BW. La tua risposta è che Intel non è responsabile.
No, la mia non è una risposta ma una richiesta: hai le prove (non elucubrazioni personali) per sostenere quelle accuse diffamanti?
Te l'ho chiesto numerose volte, e hai sistematicamente evitato di rispondere.
Ti ricordo che l'onere della prova è di chi porta una tesi. Dunque sei TU che devi portare le prove di quel che hai detto, e non io. Io devo soltanto e semplicemente chiedertene conto, come ho fatto.
Ti faccio notare una cosa... Legalmente può essere, anzi, probabilmente lo è, ma moralmente di certo no. Se ogni 100 mobili 99 sono di Intel, e Intel ha le casse piene, non ti sembra esagerato? Guarda il mercato... Trovano una situazione simile e posta la.
Quindi stai confermando che ti sei inventato tutto e che non hai nessuna prova in mano. Bene. E' già qualcosa.
Inoltre non c'entra nulla la morale: quello di cui parli si chiama mercato, e nessuno punta la pistola alla gente per costringere a comprare processori Intel anziché AMD.
Anche qui, si tratta di una tua costruzione.
Sì, i numeri sono estremamente elevati a favore di Intel. E allora? E' esagerato? No, visto che è il risultato di scelte fatte dai consumatori.
Evidentemente Intel riesce a pubblicizzarsi meglio rispetto ad AMD, e di conseguenza a vendere molto di più.
D'altra parte ti faccio notare che è un'azienda di dimensioni DIECI volte più grandi, per cui ha più risorse da investire, e di conseguenza gli investimenti fruttano di più.
Quindi, come vedi, non c'è assolutamente nulla di male in quella che è e rimane la situazione del mercato.
Può far male ai fanboy AMD vedere tutto ciò, ma questo se permetti è un ALTRO discorso. Soprattutto non è da questo che si possa partire a costruire accuse false e infondate.
Detto in altri termini: nessuno qui ti vuol impedire di fare il fanboy AMD. Ma evita di diffamare un'azienda solo perché le cose vanno male a quella a cui sei attaccato.
@cdmauro
Non quoto il post perchè mi scoccio... :D
In ordine sparso:
C'è un brevetto AMD per una unità FMAC che con vari bypass può fare FMUL, o FADD o FMAC con lo stesso hardware, con un consumo minimo di transistors e senza latenze aggiuntive (o almeno trascurabile), che penso sia usato in BD, perchè è precedente. Non vedo perchè non dovrebbero usarlo in Zen.
La FPU di Zen è data a 4 pipeline, ma dubito che tutte e 4 possano fare FMAC (e FMUL e/o FADD), ma lieto di essere smentito. In ogni caso almeno qualcuna dovrà essere "multiuso" per fare le MMX, FMISC, x87 e le SSE/AVX intere.
Per quanto riguarda la questione 128/256 bit, immagino che i registri YMM saranno divisi in 128 bit superiori, 128 bit inferiori (con i 64 bit inferiori accessibili per le MMX), usati anche per gli 80 bit e sono accessibili singolarmente. Le macroistruzioni sono al massimo a 128 bit e quindi le istruzioni SSE/AVX a 128 bit sono una macroop e le 256 bit 2.
Io ho comunque fatto il calcolo per il caso peggiore di 4 pipeline multifunzione che possono fare tutto, ma i rumors parlano di 4 pipeline che possono fare FADD, di cui 2 possono fare anche le MMX, x87, Misc, Move e le altre 2 anche FMUL e FMAC. La vedo difficile che siano 4 pipeline identiche che possono fare tutto, ma lo spero.
Per il 14nm LPP e HPP. La versione HP dovrebbe consentire il 10% in più di frequenza e nei grafici portati sopra (e in firma) mancano i transistors sLVT (non sono esperto di processi, ma forse sono esclusivi del processo HP)
Per la questione numero transistors di Zen:
forse non hai letto bene. Ho scritto che un CORE Zen ha circa gli stessi transistors di un INTERO MODULO XV.
1 core Zen ha: 4(?) decoder, 4 FPU, 4 ALU (1MUL+1DIV?), 2 AGU, 32+32L1, 512L2
1 Modulo XV ha: 4+4 decoder, 4 FPU, 2+2 ALU (1+1MUL+1+1DIV), 2+2 AGU, 96+16+16L1, 2048L2
Ovviamente quello che ha in meno Zen dovrebbe essere compensata dalla L0, checkpointing, migliorie alla FPU (probabilmente è più potente) e altre migliorie.
Ma se, alla prova dei fatti, così non fosse... come te lo spiegheresti?
Significherebbe un FO4 decisamente differente da quello ipotizzato sin dall'inizio?
Anche, e processo non maturo. O ci hanno mentito. Oppure quel grafico in firma (che è del 2012) è stato disatteso oltre i 2.41GHz. Fino a 2.41GHz abbiamo talk e video che lo confermano, ma oltre potrebbe darsi che il processo scali male...
Ma polaris che guadagna il 25% in frequenza con -0.05V di Vcore e stessa potenza dissipata mi fa ben sperare (il FO4 delle GPU è astronomico e usano transistors RVT se non HVT)
Mister D
25-06-2016, 11:28
Vabbé, ma così non ne usciamo più: è chiaro che tutto, idealmente, è possibile.
OK. Allora chiariamo questa cosa una volta per tutte: dove sta scritto in quella parte che Intel potrebbe continuare a fare quello che vuole?
Che poi è la cosa più importante.
Hai ragione, ci starò più attento.
Come avrai capito, l'ultima cosa che voglio è che vengano generate incomprensioni su quello che dico: non amo essere strumentalizzato. :fagiano:
Non era per questo che t'avevo fatto quella domanda.
Se ti accorgi che alcuni commenti contengono flame, offese o quant'altro sia contrario al regolamento, e non li segnali, allora vuol dire che ti sta bene così. Sei, in sostanza, complice della situazione che si viene a creare.
Ciò che trovo PERSONALMENTE singolare è che sia stato preso un mio commento (peraltro contenente una semplice battuta), e solo quello, per ricamarci sopra una storia di flame e invocare segnalazioni e interventi del moderatore. E questo quando c'era stato di ben peggio prima, e certamente non da me.
Coerenza impone che se si voglia stigmatizzare dei comportamenti contrari al regolamento, lo si debba fare sempre e comunque, chiunque sia l'attore.
E il tasto Segnala, peraltro, serve proprio a quello: a dare una mano al forum, di cui TUTTI usufruiscono, visto che i moderatori non sono onnipresenti.
Preciso nuovamente che questo è il MIO pensiero, onde evitare altri equivoci.
Ciao,
ok nessun problema basta chiarirsi.
Per la domanda che mi hai posto quella particolare frase non dice né che intel potrebbe tornare a fare quello che vuole né che non potrebbe ma concorderai con me, dice solo che quelle pratiche sono da considerarsi esplicitamente e implicitamente legali fino a prova contraria.
Peccato che poi cronologicamente le prove sono arrivate. Vedi multa ue, ricorso cassato e multa confermata, vedi accordo di intel con ftc americana in cui si impegna a non fare più quelle pratiche ecc ecc.
Ma il ragionamento nasce dal punto 6.2 dove si dice che se scenderà sotto il 65% per 4 trimestri consecutivi l'accordo decade, ergo può (ma non deve per forza) ritornare a fare le pratiche di cui sopra che sono da ritenersi non violanti alcuna legge o alcun ordine di alcun organo fino a prova contraria.
Ecco così forse il ragionamento fila.
Personalmente ritengo che Intel non abbia più bisogno di usare quegli scorretti metodi e che anche se amd guadagnasse troppo avrebbe più da perdere che da guadagnarci a rifare quello che ha fatto, visto che è stata beccata una volta e che l'accordo con FTC prevede che se intel tornasse a rifare quello che ha firmato di non fare, FTC può direttamente, senza nessun ulteriore procedimento, multare intel. Non mi pare molto furbo, non credi?
Per il fatto della segnalazione è vero che si è complici quando ci si accorge di qualcosa che non va ma non si segnala ma non tieni conto che quello che per te è flame può non esserlo per altri e questo purtroppo (dico purtroppo perché non sono mai stato un sostenitore delle zone grigie) appartiene al mondo dell'interpretazione giuridica. Ergo banalmente vero che per coerenza si deve segnalare sempre e comunque ma se non si segnala non è automatico che lo si faccia per non coerenza o altro ma può essere che non si è segnalato perché si è ritenuto che quel post non contesse flame o insulti. O credi davvero che tutti non solo dovremmo pensarla allo stesso modo ma anche giudicare allo stesso modo? Domanda retorica perché non penso che tu possa arrivare a pretendere tanto;)
Mister D
25-06-2016, 11:50
cut...
Sì, i numeri sono estremamente elevati a favore di Intel. E allora? E' esagerato? No, visto che è il risultato di scelte fatte dai consumatori.
Evidentemente Intel riesce a pubblicizzarsi meglio rispetto ad AMD, e di conseguenza a vendere molto di più.
D'altra parte ti faccio notare che è un'azienda di dimensioni DIECI volte più grandi, per cui ha più risorse da investire, e di conseguenza gli investimenti fruttano di più.
Quindi, come vedi, non c'è assolutamente nulla di male in quella che è e rimane la situazione del mercato.
Può far male ai fanboy AMD vedere tutto ciò, ma questo se permetti è un ALTRO discorso. Soprattutto non è da questo che si possa partire a costruire accuse false e infondate.
Detto in altri termini: nessuno qui ti vuol impedire di fare il fanboy AMD. Ma evita di diffamare un'azienda solo perché le cose vanno male a quella a cui sei attaccato.
E invece c'è qualcosa di male nell'attuale situazione di mercato. L'attuale situazione di mercato è anche figlia del comportamento scorretto per concorrenza sleale commesso da intel ai danni di amd e di tutti i consumatori. Questo, anche se è stato oltre 10 anni fa, non cambierà le cose. Si chiama causa ed effetto. E non lo puoi non vedere o negare. Sottolineo anche perché la situazione attuale non è figlia solo delle colpe di intel ma anche di alcune scelte sbagliate di amd (acquisizione di ati strapagata, vendita a qualcomm della divisione mobile gpu, architetture bd a basso ipc, marketing assente o deficitario per non dire altro :D ) e di scelte non sue (silicio di gf sotto le aspettative, soprattutto il 32 soi). Lo sottolineo perché non vorrei essere frainteso e aggiungo che anche tra 20 anni, 30 anni quelle azioni di concorrenza sleale di intel hanno contribuito a darci queste e le future situazioni di mercato, e siccome non abbiamo la macchina del tempo, non possiamo tornare indietro per vedere di quanto sarebbe cambiato ma anche solo di un'inezia sarebbe cambiata l'attuale situazione, se intel non avesse commesso quello che ha fatto. Già solo perché amd avrebbe avuto più quote, ergo avrebbe guadagnato di più e avrebbe potuto investire di più nelle future architetture. Penso che concorderai con me;)
tuttodigitale
25-06-2016, 13:27
Se, come ha riportato tuttodigitale, Zen è in grado di eseguire 2 FMAC + 2 FADD a 128 bit per ciclo di clock, allora l'FPU deve necessariamente avere 4 porte per poterle eseguire indipendentemente.
confermo.
Questo è veramente strano. La "MOVE" è l'istruzione più semplice in assoluto, e non vedo perché si dovrebbe aumentarne la latenza.
ti rimando alla patch così ti fa un idea di quali siano le latenze in gioco e perchè pensiamo che il fo4 pare non essere diminuito
https://patchwork.ozlabs.org/patch/582226/
studiati un pò , quel pochissimo che si sa su ZEN, che poi vogliamo le tue previsioni :cool:
Ha bisogno di un po' di aggiornamenti. :fagiano:
i consigli sono sempre ben accetti..in questi giorni svecchio la prima pagina...
PS molte informazioni si trovano nei post di bjt2
http://www.hwupgrade.it/forum/showpost.php?p=43745339&postcount=3219
Ma quelli rapportati nel grafico sono tutti della sola glofo o includono anche tsmc?
Non vedendo nulla specificato e nemmeno i 16 nm (della sola tsmc quindi) presumo siano di glofo.
E' però vero che i 40 nm non sono certo glofo e i 20nm non li ha mai usati per produrre ("fregando" amd).
la mia ipotesi che i 20nm indicati sono i famosi 16nm FINFET...
in una slide del tutto simile 1 anno prima questi erano indicati come 20nm Finfet...e anche i costi attesi sono identici...
Oracle e AMD, per motivi ignoti continuano a chiamare i 16nm di TSMC, 20nm. Non mi chiedere il perchè, ma è così..
Ad occhio ogni singolo transistor sui 16nm costa il 30% più dei 14nm di GF. Dato che trova una parziale conferma dai rumors che danno le apu delle console next-gen costruite con il processo GloFo.
ma sappiamo che per le console le qualità importanti del silicio, è il costo contenuto e le rese....Speriamo che ci sia anche la velocità..
ecco ci vorrebbe una GIF con Leonida che dice: "IO....SONO.....ZEN":cool:
Non esattamente: ci vorrebbero meglio un paio di fiori da impollinare fino all'arrivo di Zen.
paolo.oliva2
25-06-2016, 17:07
[QUOTE=cdimauro;43805754]Non cercare di cambiare le carte in tavola: non esiste NULLA di quello che ho scritto che ti possa dare ragione.[\Quote]
Si? Allora portami prove che ho torto, le hai? Allora se tu non hai prove come non le ho io, perché sei tu ad aver ragione e io no?
[Quote]
Tant'è che dopo quell'infelice commento hai sistematicamente evitato di rispondere.
[\quote]
Ah, cacchio... Magari invece non è che la postazione fissa è saltato la VGA e il BW mobile è saltato l'hd e ti sto scrivendo dal cel e non posso gestire i toui post da km?
[Quote]
Ma sei sempre libero di quotarmi e farmi vedere dov'è che t'avrei dato ragione, eh! Io son qui che aspetto.[\quote]
Magari prenditi una bibita e siediti e rileggi i post
[Quote]
Questi sono sofismi: quella E' e rimane un'offesa del tutto gratuita, che potevi benissimo risparmiarti.[\quote]
Ancora? Mi hai dato del fanboy AMD che non capisce una mazza di commercio che spara stronzate quando gli si toccano i suoi totem, e i ti ho risposto che nel commercio ci sono da 40 anni e tu rispetto a me prendi il latte dalla mamma, io ho offeso te e tu non me? A me sembra che io ho detto una cosa vera e tu no...
[Quote]
No, la mia non è una risposta ma una richiesta: hai le prove (non elucubrazioni personali) per sostenere quelle accuse diffamanti?[\quote]
Elucubrazioni le devo intendere come offesa?
Io sono libero di pensare (non elucubrare) ciò che voglio, non prendo dictact da te
[Quote]
Te l'ho chiesto numerose volte, e hai sistematicamente evitato di rispondere.
[\quote]
Io porto una realtà di una situazione... Non siete voi intellisti che avete assolto Intel dicendo che ha fatto sconti maggiori? Dove è sta prova?
[Quote]
Ti ricordo che l'onere della prova è di chi porta una tesi. Dunque sei TU che devi portare le prove di quel che hai detto, e non io. Io devo soltanto e semplicemente chiedertene conto, come ho fatto.[\quote]
E rigiri tutto, come sempre. Io diffamò perché non ho prove, voi assolvete (SENZA PROVE)
[Quote]
Quindi stai confermando che ti sei inventato tutto e che non hai nessuna prova in mano. Bene. E' già qualcosa.
[\quote]
??? DOVE ho scritto ciò?
Tu hai un brutto vizio, come altri ti hanno detto. Metti in bocca di altri cose non dette ed estrapoli sensi che solo tu vedi.
Siccome sono con il cell (e non che non rispondo per altri motivi), ti torno a ripetere bene in chiaro come la penso: Intel è stata condannata per pratiche illegali in commercio e per me lo può ripetere in ogni momento, è chiaro? Il fatto dei BR fa pensare, è chiaro?
Perché anche per come l'hanno assolta i tuoi compagni di brand, da consumatore non è che sia una bella cosa che il procio che noi paghiamo 400$ arrivi a 50$ ad un OEM, perché alla fine gli utenti finali acquistano un volume ben più grande di un OEM... È per questo che un consumatore non può essere fan di Intel, ed ovviamente il contrario.
Devo ripeterti ancora come la penso? Spero di no, perché tanto non ti risponderei.
Sono con il cell, ripeto, non perché cerco FI nascondermi da te CHIARO?
george_p
25-06-2016, 17:54
@cdimauro: Ci metto la pietra sopra direttamente da ora ;)
tuttodigitale
25-06-2016, 18:36
Non esattamente: ci vorrebbero meglio un paio di fiori da impollinare fino all'arrivo di Zen.
In che senso? :oink:
dico la mia.
Che Intel abbia rubato soldi che spettavano nel periodo 2002-2007, nel mercato OEM e server ad AMD è comprovato...che la prima dovessere essere leggermente più povera e l'altra non essere sull'astrico anche.
AMD, ci ha messo del suo....pagando ATI quanto valeva nvidia...conoscendo tra le altre cose la propria condizione economica....quella scelta azzardata oggi è la sua arma più potente...
la sfortuna volle anche che ATI avrebbe avuto problemi con r600, per non parlare i problemi con il SOI a 65nm...nonostante le cache con latenze aumentate non riusci mai a superare il corrispettivo a64 a 90nm...
Poi, non meno importante sono USCITI da un mecato, che da li a poco (meno di due anni) avrebbe fatto il botto: parlo della grafica per smartphone. Hanno venduto tutto a Qualcomm per la ridicola cifra di 65 miliori di dollari...
poi siamo sorpresi se l'allora CEO, Dirk Meyer sia stato cacciato a calci....
probabilmente, se quei pochi spiccioli non servivano per far respirare AMD, una pazzia del genere (con il senno di poi è tutto più facile) Meyer non l'avrebbe mai fatta...(ricordo che comunque anche quel reparto necessitava di investimenti, per rimanere competitivo, soldi che erano finiti da tempo)
In un certo senso LISA SU, è stata costretta a seguire le orme di Meyer, entrare in un mercato come quello smartphone è molto complicato..se non impossibile, non resta che puntare sul mercato SERVER.
Poi, non meno importante sono USCITI da un mecato, che da li a poco (meno di due anni) avrebbe fatto il botto: parlo della grafica per smartphone. Hanno venduto tutto a Qualcomm per la ridicola cifra di 65 miliori di dollari...
poi siamo sorpresi se l'allora CEO, Dirk Meyer sia stato cacciato a calci....
Imgtec senza apple alle spalle sarebbe defunta, ed hanno la miglior gpu mobile.(già annaspa così)
Nvidia non è riuscita a sfondare nel mercato smartphone sebbene abbia investivo una barca di soldi, compresi i modem icera ed architettura proprietaria ARM.
Di certo Meyer non è stato cacciato solo per quello...;)
george_p
25-06-2016, 22:21
la mia ipotesi che i 20nm indicati sono i famosi 16nm FINFET...
in una slide del tutto simile 1 anno prima questi erano indicati come 20nm Finfet...e anche i costi attesi sono identici...
Oracle e AMD, per motivi ignoti continuano a chiamare i 16nm di TSMC, 20nm. Non mi chiedere il perchè, ma è così..
Ad occhio ogni singolo transistor sui 16nm costa il 30% più dei 14nm di GF. Dato che trova una parziale conferma dai rumors che danno le apu delle console next-gen costruite con il processo GloFo.
ma sappiamo che per le console le qualità importanti del silicio, è il costo contenuto e le rese....Speriamo che ci sia anche la velocità..
Anche su B&C scrivono così
16nm FF+ (FinFET Plus): evoluzione dei 20nm planari ma con gate FinFET. Si tratta di un PP per chip di bassa e media frequenza;
http://www.bitsandchips.it/forum/viewtopic.php?f=4&t=8849
In che senso? :oink:
Nel senso che:
extern "PC";{
#include "patacca.h"
#include "gnocca.h"
}
void main() {
char a = "estate";
char b = "bikini";
char c = "fiori";
char d = "culi;
char e = "impollina";
if a = b;
and if
a = c;
or
a = d;
printf e ("in" a /n);
printf ("fino all'arrivo di ZEN");
patacc_dofile (EnvOne, "patacca.h");
gnoc_dofile (EnvOne, "gnocca.h");
return(piùvolt);
}
;)
paolo.oliva2
26-06-2016, 00:38
BR si sa quando sarà disponibile? Io torno il 5 luglio... c'è speranza di disponibilità mobile? Una cosa... Io conosco BR come evoluzione Carrizo... Se in un mobile riportano Carrizo, come farei a riconoscere Carrizo 2 da Carrizo 1?
cdimauro
26-06-2016, 07:57
@cdmauro
Non quoto il post perchè mi scoccio... :D
OK :)
In ordine sparso:
C'è un brevetto AMD per una unità FMAC che con vari bypass può fare FMUL, o FADD o FMAC con lo stesso hardware, con un consumo minimo di transistors e senza latenze aggiuntive (o almeno trascurabile), che penso sia usato in BD, perchè è precedente. Non vedo perchè non dovrebbero usarlo in Zen.
Ma infatti non ho detto che non dovrebbe usarlo. Come già affermato, trovo sensato che venga utilizzato quanto più possibile il backend esistente.
Gli unici dubbi sono relativi alla latenza nell'usare l'unità FMAC per eseguire la somma.
La FPU di Zen è data a 4 pipeline, ma dubito che tutte e 4 possano fare FMAC (e FMUL e/o FADD), ma lieto di essere smentito. In ogni caso almeno qualcuna dovrà essere "multiuso" per fare le MMX, FMISC, x87 e le SSE/AVX intere.
Come scritto da tuttodigitale, ci sono 2FMAC e 2 FADD, quindi le porte non sono tutte uguali. Com'è logico che sia: 4 FMAC sono ben più costosi, e non servono sempre; tutt'altro.
Non è nota la disposizione delle varie funzionalità nelle 4 porte, ma al momento non è nemmeno necessario conoscerla.
Per quanto riguarda la questione 128/256 bit, immagino che i registri YMM saranno divisi in 128 bit superiori, 128 bit inferiori (con i 64 bit inferiori accessibili per le MMX), usati anche per gli 80 bit e sono accessibili singolarmente.
No, le MMX fanno uso dei registri della vecchia FPU x87 e, al contrario di AMD 3DNow!, non hanno istruzioni in virgola mobile: lavorano soltanto sugli interi.
Il problema è che hanno delle operazioni di moltiplicazione sugli interi, e dunque richiedono un'unità di questo tipo.
Non ricordo adesso come Haswell gestisca le MMX, ma è possibile che se ne faccia carico della stessa porta che esegue anche moltiplicazioni fra interi.
Le macroistruzioni sono al massimo a 128 bit e quindi le istruzioni SSE/AVX a 128 bit sono una macroop e le 256 bit 2.
Chiaro, ma avere il register set diviso in due banchi da 128-bit o unificato, a seconda della soluzione adottata, presenta pregi e difetti ovviamente.
Quel che è certo è che, a prescindere da ciò, l'FPU ha una complessità maggiore rispetto a NEON da questo punto di vista.
Inoltre devi pure considerare che l'FPU di NEON supporta soltanto operazioni SIMD a singola precisione (mezza precisione in alcuni casi), mentre quella x86 anche in doppia precisione (per non contare il numero di istruzioni/operazioni messe a disposizione).
Direi che ce n'è abbastanza per sottolineare ancora le profonde differenze fra le due FPU.
Io ho comunque fatto il calcolo per il caso peggiore di 4 pipeline multifunzione che possono fare tutto, ma i rumors parlano di 4 pipeline che possono fare FADD, di cui 2 possono fare anche le MMX, x87, Misc, Move e le altre 2 anche FMUL e FMAC. La vedo difficile che siano 4 pipeline identiche che possono fare tutto, ma lo spero.
Non saranno identiche, come già detto, ma il problema esposto in precedenza rimane: sono FPU troppo diverse da poter essere confrontabili in qualche modo.
Inoltre rimane il dubbio di come sia stata effettuata la misurazione del consumo della sola unità NEON. Se riguarda il consumo dei transistor (tutti: non solo quelli di FMAC/FADD) di quest'unità, come ho ipotizzato, questa misura diventa inutilizzabile per quel che vorresti fare.
Per il 14nm LPP e HPP. La versione HP dovrebbe consentire il 10% in più di frequenza e nei grafici portati sopra (e in firma) mancano i transistors sLVT (non sono esperto di processi, ma forse sono esclusivi del processo HP)
Il 10% non è tanto. Considerati i vantaggi del processo LP a frequenze inferiori (che sono diventate importantissime, non solo per mobile, ma anche in ambito server), direi che a questo punto non avrebbe più senso continuare con l'HP.
Per la questione numero transistors di Zen:
forse non hai letto bene. Ho scritto che un CORE Zen ha circa gli stessi transistors di un INTERO MODULO XV.
1 core Zen ha: 4(?) decoder, 4 FPU, 4 ALU (1MUL+1DIV?), 2 AGU, 32+32L1, 512L2
1 Modulo XV ha: 4+4 decoder, 4 FPU, 2+2 ALU (1+1MUL+1+1DIV), 2+2 AGU, 96+16+16L1, 2048L2
Ovviamente quello che ha in meno Zen dovrebbe essere compensata dalla L0, checkpointing, migliorie alla FPU (probabilmente è più potente) e altre migliorie.
OK. Sono d'accordo.
cdimauro
26-06-2016, 08:10
Ciao,
ok nessun problema basta chiarirsi.
Sono contento che siamo riusciti a recuperare, nonostante il passo falso iniziale. :)
Per la domanda che mi hai posto quella particolare frase non dice né che intel potrebbe tornare a fare quello che vuole né che non potrebbe ma concorderai con me, dice solo che quelle pratiche sono da considerarsi esplicitamente e implicitamente legali fino a prova contraria.
Peccato che poi cronologicamente le prove sono arrivate. Vedi multa ue, ricorso cassato e multa confermata, vedi accordo di intel con ftc americana in cui si impegna a non fare più quelle pratiche ecc ecc.
Ma il ragionamento nasce dal punto 6.2 dove si dice che se scenderà sotto il 65% per 4 trimestri consecutivi l'accordo decade, ergo può (ma non deve per forza) ritornare a fare le pratiche di cui sopra che sono da ritenersi non violanti alcuna legge o alcun ordine di alcun organo fino a prova contraria.
Ecco così forse il ragionamento fila.
Concordo.
Personalmente ritengo che Intel non abbia più bisogno di usare quegli scorretti metodi e che anche se amd guadagnasse troppo avrebbe più da perdere che da guadagnarci a rifare quello che ha fatto, visto che è stata beccata una volta e che l'accordo con FTC prevede che se intel tornasse a rifare quello che ha firmato di non fare, FTC può direttamente, senza nessun ulteriore procedimento, multare intel. Non mi pare molto furbo, non credi?
Assolutamente, ma è proprio quel che avevo detto prima. :p
Per il fatto della segnalazione è vero che si è complici quando ci si accorge di qualcosa che non va ma non si segnala ma non tieni conto che quello che per te è flame può non esserlo per altri e questo purtroppo (dico purtroppo perché non sono mai stato un sostenitore delle zone grigie) appartiene al mondo dell'interpretazione giuridica. Ergo banalmente vero che per coerenza si deve segnalare sempre e comunque ma se non si segnala non è automatico che lo si faccia per non coerenza o altro ma può essere che non si è segnalato perché si è ritenuto che quel post non contesse flame o insulti. O credi davvero che tutti non solo dovremmo pensarla allo stesso modo ma anche giudicare allo stesso modo? Domanda retorica perché non penso che tu possa arrivare a pretendere tanto;)
No, ma diciamo che se vedessi una persona piantare un coltello nel petto di un'altra, diciamo che sarebbe abbastanza probabile che l'opinione di tutti quelli che abbiano visto quella scena risulterebbe piuttosto unanime.
O no? Anche questa è una domanda retorica. :D
E invece c'è qualcosa di male nell'attuale situazione di mercato. L'attuale situazione di mercato è anche figlia del comportamento scorretto per concorrenza sleale commesso da intel ai danni di amd e di tutti i consumatori. Questo, anche se è stato oltre 10 anni fa, non cambierà le cose. Si chiama causa ed effetto. E non lo puoi non vedere o negare. Sottolineo anche perché la situazione attuale non è figlia solo delle colpe di intel ma anche di alcune scelte sbagliate di amd (acquisizione di ati strapagata, vendita a qualcomm della divisione mobile gpu, architetture bd a basso ipc, marketing assente o deficitario per non dire altro :D ) e di scelte non sue (silicio di gf sotto le aspettative, soprattutto il 32 soi). Lo sottolineo perché non vorrei essere frainteso e aggiungo che anche tra 20 anni, 30 anni quelle azioni di concorrenza sleale di intel hanno contribuito a darci queste e le future situazioni di mercato, e siccome non abbiamo la macchina del tempo, non possiamo tornare indietro per vedere di quanto sarebbe cambiato ma anche solo di un'inezia sarebbe cambiata l'attuale situazione, se intel non avesse commesso quello che ha fatto. Già solo perché amd avrebbe avuto più quote, ergo avrebbe guadagnato di più e avrebbe potuto investire di più nelle future architetture. Penso che concorderai con me;)
Sostanzialmente sì, perché rimaniamo nel campo del what-if. Però sappiamo che la storia non si fa solo coi se e coi ma.
Ad esempio, se hai letto la discussione che abbiamo avuto con Piedone, ci sono fondati motivi per ritenere che comunque AMD non avrebbe potuto avvantaggiarsi più di tanto, a causa della sua capacità produttiva. Anche questo è un tassello molto importante che deve necessariamente essere aggiunto al quadro che hai descritto.
In ogni caso tutto ciò riguarda la storia passata (e sono passati ormai quasi 10 anni dalla fine di quelle pratiche), mentre ciò che si stava discutendo era la situazione attuale. Adesso non ci sono più da un bel pezzo pratiche di concorrenza sleale, e il mercato è quello che mostrano i numeri, che derivano dalle scelte dei consumatori.
Per quanto riguarda la latenza della FADD calcolata nella FMAC, ho visto il circuito e c'è proprio un bypass. Non è implementata con la FMAC e il moltiplicando a 1. E' questo il succo del brevetto. Quindi si perde pochissimo...
Inoltre rimane il dubbio di come sia stata effettuata la misurazione del consumo della sola unità NEON. Se riguarda il consumo dei transistor (tutti: non solo quelli di FMAC/FADD) di quest'unità, come ho ipotizzato, questa misura diventa inutilizzabile per quel che vorresti fare.
A me interessava fare il caso peggiore per trovare un limite superiore al consumo di Zen. Siccome li usano il consumo in condizioni worst, tanto meglio se sono sfruttati a pieno regime... E' questo il senso di moltiplicare per 4 quando solo le FADD sono 4. Per trovare il caso peggiore. Ed infatti sono finito per stimare che un core Zen consuma più di un modulo XV sul 28nm! Che è improbabile, altrimenti AMD avrebbe fatto uno shrink di XV, perchè l'obbiettivo dichiarato di AMD è il mercato server e quindi interessa l'MT e a parità di frequenza un core Zen ha si un ST superiore, ma l'MT è forse leggermente inferiore e l'ST si potrebbe compensare con un turbo superiore.
cdimauro
26-06-2016, 08:21
confermo.
Bene. Ma è ufficiale? :fiufiu: :D
ti rimando alla patch così ti fa un idea di quali siano le latenze in gioco e perchè pensiamo che il fo4 pare non essere diminuito
https://patchwork.ozlabs.org/patch/582226/
Purtroppo studiare una patch in questo modo è decisamente complicato. Con uno strumento di code review, dove puoi vedere agevolmente quali siano i cambiamenti, è tutt'altra cosa.
Comunque c'era un'altra patch dove fortunatamente era visibile un +3 in tutte le latenze riportate, il che lascia pensare che abbiano aggiunto 3 stadi nella pipeline. Quanto meno dell'FPU.
studiati un pò , quel pochissimo che si sa su ZEN, che poi vogliamo le tue previsioni :cool:
Preferisco aspettare le informazioni ufficiali, come già detto. :)
Però se capita qualche discussione su certi particolari tecnici, come quelli di cui abbiamo parlato finora, se avrò qualcosa da dire la dirò. :fagiano:
i consigli sono sempre ben accetti..in questi giorni svecchio la prima pagina...
PS molte informazioni si trovano nei post di bjt2
http://www.hwupgrade.it/forum/showpost.php?p=43745339&postcount=3219
Visto. C'è tanta roba, ma... non ancora ufficiale. Per lo meno, non è chiaro cosa sia assolutamente assodato con ciò che potrebbe cambiare.
Un consiglio sarebbe, quindi, quello di riorganizzare queste informazioni in due gruppi: ufficiale/confermato(?) e non ufficiale/speculazioni(?).
In questo modo anche chi legge può capire cosa prendere con le molle. ;)
@tuttodigitale
Una cosa in quel post che riassume i miei post la toglierei o modificherei... :D
Quando parlo del test chip da 330mW... A quel tempo il tizio era stato abbastanza vago per cui si credeva che il test chip fossero due core ARM interi, e da li sono partito per la tangente :D ... Ora sappiamo che è solo una macro di FPU NEON... Quindi quella parte la toglierei o la sostituirei con una delle mie ultime elugubrazioni, ma corrette, come il mio tweet a dresdenboy... :D
cdimauro
26-06-2016, 08:42
Si? Allora portami prove che ho torto, le hai? Allora se tu non hai prove come non le ho io, perché sei tu ad aver ragione e io no?
Non funziona così: sei stato TU ad affermare che ti davo ragione, e dunque sei TU a doverlo dimostrare.
Logica e metodo scientifico alla mano, l'onere della prova rimane a carico di chi afferma una tesi.
Per cui è inutile che cerchi di ribaltare la questione: prenditi le TUE responsabilità per quello che hai cercato di appiopparmi, oppure quotami e fammi vedere dov'è/in che modo ciò che ho scritto ti darebbe ragione.
Troppo comodo spararle grosse, e poi pretendere che siano gli altri a dimostrare le tue balle.
Ah, cacchio... Magari invece non è che la postazione fissa è saltato la VGA e il BW mobile è saltato l'hd e ti sto scrivendo dal cel e non posso gestire i toui post da km?
Con gli altri ci discuti lo stesso. Cercane un'altra migliore.
Magari prenditi una bibita e siediti e rileggi i post
Ho ben chiaro come sia svolta la discussione e chi ha detto cosa.
E i commenti sono lì a dimostrarlo.
Ancora? Mi hai dato del fanboy AMD che non capisce una mazza di commercio che spara stronzate quando gli si toccano i suoi totem,
E no caro: sei stato tu a cambiare i toni della discussione, fino ad arrivare alle offese, a seguito delle mie contestazioni.
Io mi sono limitato a rispondere alle balle che continuavi a riportare.
Ma DOPO che mi hai risposto in malo modo ti ho restituito il pan per focaccia, come si può chiaramente vedere scorrendo in stressa sequenza tutti i commenti che ci siamo scambiati. :read:
e i ti ho risposto che nel commercio ci sono da 40 anni e tu rispetto a me prendi il latte dalla mamma, io ho offeso te e tu non me? A me sembra che io ho detto una cosa vera e tu no...
Che tu non capisca nulla di cosa significhi produrre chip e venderli è dimostrato dalle frottole che hai scritto in materia, visto che non hai la minima idea dei vantaggi che si hanno nel possedere una fonderia (e farla fruttare, ovviamente).
Vedi, realizzare e vendere chip non è come vendere banane al mercato.
Elucubrazioni le devo intendere come offesa?
elucubrazióne (http://www.treccani.it/vocabolario/elucubrazione/):
"L’elucubrare; più com. in senso concr., opera di pensiero fatta con lunga e paziente cura: una dotta e. (per lo più iron., di lavoro molto meditato ed elaborato ma che non approda a nulla)."
Direi che ricalca esattamente quello che hai fatto. :read:
Io sono libero di pensare (non elucubrare) ciò che voglio, non prendo dictact da te
E sono libero di far notare le balle che racconti, incluse le tue diffamazioni, caro il mio bugiardo e pubblico mentitore.
Io porto una realtà di una situazione...
Peccato che la tua realtà si trovi nel tuo universo parallelo.
Non siete voi intellisti che avete assolto Intel dicendo che ha fatto sconti maggiori? Dove è sta prova?
E qui si capisce che non hai capito ancora nulla della questione degli sconti. E sì che pure Ace aveva spiegato il tutto in maniera davvero elementare.
E rigiri tutto, come sempre. Io diffamò perché non ho prove,
Esatto. Perché non dai una ripassatina al codice penale alla voce diffamazione? Magari capisci una buona volta cosa puoi dire liberamente e cosa la legge ti vieta. :read:
voi assolvete (SENZA PROVE)
E cos'avremmo assolto? Mi pare che qui nessuno abbia negato le PASSATE vicende di Intel, per la quale è stata pure condannata.
??? DOVE ho scritto ciò?
Tu hai un brutto vizio, come altri ti hanno detto. Metti in bocca di altri cose non dette ed estrapoli sensi che solo tu vedi.
Ecco qui:
"Legalmente può essere, anzi, probabilmente lo è"
Questo l'hai scritto TU, mi pare. :read:
Siccome sono con il cell (e non che non rispondo per altri motivi), ti torno a ripetere bene in chiaro come la penso: Intel è stata condannata per pratiche illegali in commercio e per me lo può ripetere in ogni momento, è chiaro?
Certo, nel piano del possibile tutto è possibile. Che poi sia probabile, allora direi proprio di no, e vedi gli altri commenti che sono stati scritti.
Ma, vedi, il problema è che tu hai affermato, invece, che queste pratiche ci siano ancora. E il tutto senza prove.
Questa E' diffamazione ed è un reato penale. A meno che non porti le prove di quello che hai detto, ovviamente, e che io t'ho chiesto.
Il fatto dei BR fa pensare, è chiaro?
No: è chiaro solo a te.
Perché anche per come l'hanno assolta i tuoi compagni di brand, da consumatore non è che sia una bella cosa che il procio che noi paghiamo 400$ arrivi a 50$ ad un OEM, perché alla fine gli utenti finali acquistano un volume ben più grande di un OEM...
Ce ne faremo una ragione.
È per questo che un consumatore non può essere fan di Intel, ed ovviamente il contrario.
Questo è un tuo problema perché sei un fanboy AMD: ci sono tanti consumatori che sono ben contenti di comprare Intel.
Devo ripeterti ancora come la penso? Spero di no, perché tanto non ti risponderei.
Io, invece, ti rispondo, perché continui a riportare falsità e balle, che vanno ben evidenziate.
Sono con il cell, ripeto, non perché cerco FI nascondermi da te CHIARO?
Allora portami le prove di quello che hai detto. In mancanza potrò affermare che sei un bugiardo e pubblico mentitore, visto che diffami un'azienda senza avere nessuna prova. :read:
cdimauro
26-06-2016, 08:46
Per quanto riguarda la latenza della FADD calcolata nella FMAC, ho visto il circuito e c'è proprio un bypass. Non è implementata con la FMAC e il moltiplicando a 1. E' questo il succo del brevetto. Quindi si perde pochissimo...
OK. Quindi l'unica cosa che può incidere sarebbe un maggior tempo di risposta per il circuito, ma questo riguarda il famigerato FO4, se non erro.
A me interessava fare il caso peggiore per trovare un limite superiore al consumo di Zen. Siccome li usano il consumo in condizioni worst, tanto meglio se sono sfruttati a pieno regime...
Ma rimane il dubbio che ho espresso: da dove arriva quella misura dell'unità NEON? Transistor o test sul campo? A me pare la prima.
E' questo il senso di moltiplicare per 4 quando solo le FADD sono 4. Per trovare il caso peggiore. Ed infatti sono finito per stimare che un core Zen consuma più di un modulo XV sul 28nm! Che è improbabile, altrimenti AMD avrebbe fatto uno shrink di XV, perchè l'obbiettivo dichiarato di AMD è il mercato server e quindi interessa l'MT e a parità di frequenza un core Zen ha si un ST superiore, ma l'MT è forse leggermente inferiore e l'ST si potrebbe compensare con un turbo superiore.
Beh, Skylake mi pare che non sia messo benissimo coi consumi, nonostante sia a 14nm e con un'architettura nuova: Skylake vs Haswell (http://ark.intel.com/compare/88195,80807).
Per cui potrebbe benissimo essere lo stesso con Zen vs XV.
Si il problema potrebbe essere solo il FO4, ma se il muxer/demuxer per fare il bypass è messo in uno stadio non critico, non dovrebbe aumentare... Le operazioni FPU hanno almeno 4 stadi, e ce ne sarà sicuramente uno, quello di preparazione operandi, che non ha il FO4 massimo e li si può infilare il circuito.
Per quanto riguarda il consumo: da 28nm HPP a 14nm LPP dubito che non si riduca il consumo, visto che a 2.41GHz il leakage è 1/6 e la potenza dinamica è solo un po' di più di un circuito a 28nm che va a meno della metà della frequenza, e visto che sembra che il FO4 di Zen non sia superiore a quello di XV, o Zen è un mostro con tantissimi transistor (ma dalla foto del die non si direbbe), oppure le stime che ho fatto sono MOOOOLTO per eccesso...
tuttodigitale
26-06-2016, 11:38
@tuttodigitale
Una cosa in quel post che riassume i miei post la toglierei o modificherei... :D
Quando parlo del test chip da 330mW... A quel tempo il tizio era stato abbastanza vago per cui si credeva che il test chip fossero due core ARM interi, e da li sono partito per la tangente :D ... Ora sappiamo che è solo una macro di FPU NEON... Quindi quella parte la toglierei o la sostituirei con una delle mie ultime elugubrazioni, ma corrette, come il mio tweet a dresdenboy... :D
le incongruenze dovrebbero venire a galla visto che sono in ordine cronologico.
A limite facci un bel e robusto riassunto con le cose che sappiamo oggi...E lo metto nel primo post dopo le presentazioni...:D
Poi se magari ti è sfuggito qualcosa lo completo io.;)
In caso contrario non ti lamentare se scrivo stron... :)
Bene. Ma è ufficiale? :fiufiu: :D;)
in che senso? Neppure la l0, il checkpoint, il bus GMI e tante belle altre cose sono state annunciate da AMD.
ovviamente le patch possono presentare degli errori, come tu stesso hai potuto osservare per eseguire le FMA siamo passati da una configurazione fp0+fp3/fp1+fp3 a fp0/fp1.
ad esempio ad oggi le due FMAC paiono non essere in grado di eseguire le FADD. Questo oggi, domani questo potrebbe essere radicalmente diverso...
comunque come avrai intuito nessuna delle 4 pipeline è perfettamente uguale l'una all'altra...ma per le nostre considerazioni spannometriche è perfettamente inutile conoscere queste asimmetrie...come tu stesso hai ammesso
Prendile come informazioni attendibili.
le incongruenze dovrebbero venire a galla visto che sono in ordine cronologico.
A limite facci un bel e robusto riassunto con le cose che sappiamo oggi...E lo metto nel primo post dopo le presentazioni...:D
Poi se magari ti è sfuggito qualcosa lo completo io.;)
In caso contrario non ti lamentare se scrivo stron... :)
in che senso? Neppure la l0, il checkpoint, il bus GMI e tante belle altre cose sono state annunciate da AMD.
ovviamente le patch possono presentare degli errori, come tu stesso hai potuto osservare per eseguire le FMA siamo passati da una configurazione fp0+fp3/fp1+fp3 a fp0/fp1.
ad esempio ad oggi le due FMAC paiono non essere in grado di eseguire le FADD. Questo oggi, domani questo potrebbe essere radicalmente diverso...
comunque come avrai intuito nessuna delle 4 pipeline è perfettamente uguale l'una all'altra...ma per le nostre considerazioni spannometriche è perfettamente inutile conoscere queste asimmetrie...come tu stesso hai ammesso
Prendile come informazioni attendibili.
No, no, non mi lamento... :D
Tanto ho fatto già la mia bella figura con bulldozer... :asd:
L'unica cosa bella di quella esperienza è che la versione inglese del mio articolo su Bulldozer server su xtremehardware è piaciuta così tanto ai PR AMD, che ci hanno chiesto se potevano usare una MIA frase, non so dove... :D :eek:
Se vai su xtremehardware ho lo stesso pseudonimo e attorno al 2011 ho scritto una decina di articoli, anche in inglese... :D
tuttodigitale
26-06-2016, 12:32
Beh, Skylake mi pare che non sia messo benissimo coi consumi, nonostante sia a 14nm e con un'architettura nuova: Skylake vs Haswell (http://ark.intel.com/compare/88195,80807).
il rapporto andrebbe fatto con Sandy Bridge, che usa un processo molto simile sulla carta a quello utilizzato da excavator.
per skylake c'è un ampio range di valore di vcore...si passa da 1,1 a oltre 1,4V, hardware.fr ha avuto la sfiga di testare un esemplare con vcore di 1,42V e il consumo con prime95, era di un paio di watt superiore al TDP....dubito che l'esemplare con vcore basso consumi uguale..
Per contro, sempre su Hardware.fr, hanno avuto la fortuna di trovarsi un esemplare di i7 6950x con un vcore di soli 0,99V che consumava meno di 120W...
http://sl.uploads.im/d/0qmY2.jpg
http://sl.uploads.im/d/n40Vo.jpg
paolo.oliva2
26-06-2016, 18:06
Logica e metodo scientifico alla mano, l'onere della prova rimane a carico di chi afferma una tesi.
Azzo e tu? (alla mia affermazione che sono con il cell e ho stazione fissa VGA kaput e mobile HD rotto)
Con gli altri ci discuti lo stesso. Cercane un'altra migliore.
Allora, ma sei la Santa Inquisizione? Tu apri la bocca per dare aria, fai la parte del vittimismo, prendi posizione senza prova alcuna (mi dai del bugiardo o no? Che io dico che sono solo con il cell) e dagli altri pretendo prove perché osano toccare il tuo datore di lavoro?
Il server di foto mi da' problemi, ma ho già scattato le prove (stazione completamente smontata e BW mobile aperto, tra l'altro ti faccio notare che l'ho acquistato 7 mesi fa (qui lo sanno tutti, tante volte che vorresti la prova) e sarei in garanzia, ma siccome torno per 1-2 mesi, non lo posso inviare in garanzia e per questo l'ho aperto, così in Italia compro l'hd e bye bye.
Ho ben chiaro come sia svolta la discussione e chi ha detto cosa.
E i commenti sono lì a dimostrarlo.
E meno male che ci sono le prove, però io ho i miei dubbi che tu abbia capito lacdiscussione
E no caro: sei stato tu a cambiare i toni della discussione, fino ad arrivare alle offese, a seguito delle mie contestazioni.
Mi prendi per idiota? Ti riscrivo:
Chi ha scritto per 1 "che io sono un famboy AMD che non capisce una mazza di commercio e si altera quando gli toccano i suoi totem"?
Mia risposta:
Non sono un fanboy ma un consumatore, io nel commercio cibsono da 30 e tu rispetto a me prendi il latte dalla mamma
Tu fai la parte dell'offeso che io ho degenerato la conversazione? Mi prendi anche per i fondelli? (A modo tuo) le prove, voglio avere le prove che io ne so meno di te di commercio. Da parte mia, per me dire la verita non e offendere, ed io ho detto la verita.
Io mi sono limitato a rispondere alle balle che continuavi a riportare.
Balle che continuavo a riportare... Dimostrarlo? Continui a formulare sentenze in nome di cosa? Sei un filino egocentrico?
Ma DOPO che mi hai risposto in malo modo
Ancora? DOPO che Tu hai risposto in malo modo
ti ho restituito il pan per focaccia, come si può chiaramente vedere scorrendo in stressa sequenza tutti i commenti che ci siamo scambiati. :read:
Ma se la tua INUTILE diatriba è solo una puerile richiesta di prove (del resto, come Intel ha negato fino alla fine (LA VERITA') per poi accettare se no finiva pure peggio), dov'è sto pan per focaccia?
Quando posto le foto che prova che sono con ilcell, voglio avere la tua smentita della tua affermazione "inventarne un'altra"
Che tu non capisca nulla di cosa significhi produrre chip e venderli è dimostrato dalle frottole che hai scritto in materia, visto che non hai la minima idea dei vantaggi che si hanno nel possedere una fonderia (e farla fruttare, ovviamente).
Vedi, realizzare e vendere chip non è come vendere banane al mercato.
Tu forse non hai capito una cosa.... Oggi quello che la tua ditta produce come X4, ce lo fa pagare come X8 (ovviamente si che Intel sa sfruttare le sue fonderie) ha tutti i sensi commerciali che tu ci vuoi trovare, ma da diverso tempo ha perso ogni corrispondenza con i veri costi. Ogni miniaturizzazione successiva richiede soldi, ma questi sono ammortizzati da guadagni superiori, perché a regime la miniaturizzazione successiva concederà SEMPRE profitti maggiori. Mi sai dire perché il 2600k sul 32nm costava 250$ e oggi un 6700k sul 14nm (2 salti di nodo) ne costa 100$ in più contro un naturale calo grossomodo a metà del 2600k? Bada bene, io non critico Intel per i prezzi, perché non voglio passare per santo (al suo posto caricherei di più), ma da CONSUMATORE si!!!
VOGLIO coerenza, perché questo che ho scritto è la pura e semplice verità.
Oggi noi paghiamo un X4 a prezzi di un X8, e questo è dovuto al quasi monopolio Intel, che è per buona parte la conseguenza delle "pratiche commerciali" per le quali Intel è stata multata. E tu hai il coraggio di dire che sono passati 10 anni (in realtà 2009 7 anni) e oggi questo non duce nulla?
E poi, quando dico che AMD potrebbe vendere un Zen X8+8 a 400$ stra guadagnandoci, gli intellisti difendono Intel che il suo prezzo è giusto? E che AMD al max -20%? Cacchio, mo' ci troveremo l'80% del pianeta che esulterebbe se AMD prezzasse un Zen 800$ solamente perché la "poverina" Intel l'avrebbero insultata come usuraia? Io da consumatore dico che sarebbero 2 usurai, da consumatore e non da fanboy AMD.
Un BR viene 150$ agli OEM? È sul 28nm? Ha 3,2milioni di transistor? Ha 244mm2? Direi che è giusto... Un BW Intel sul 14nm non mi sorprende che Intel lo può prezzare meno agli OEM, ma DEVE costare meno sul listino degli umani.
Altro punto di BR e Zen. Hanno lo stesso package, quindinon vedo differenze di costo di package, stesso dissipatore (come annunciato da AMD), quello che cambia è il die, ma Zen sarà al max uguale come potrebbe essere della metà. Un numero di transistor inferiore di quasi 1 milione (BR 3,2 milioni ZEN non più di 2 8350 = 2,4 milioni), il costo a mm2 del 14nm è doppio rispetto al 28nm (ma parliamo di 10$ ogni 100mm2 contro i 5 del 28nm, al netto di fallati, con Zen die = BR si parla di 25$ vs 12,5$). Ovvio che va aggiunto tutto lo sviluppo procio/silicio e silicio meno rodato, ma in fin dei conti, Thuban 220$, 8150 300$, quindi mi pare chilometrico da un 8370 170$ ipotizzare già Zen a 400$.
Nella tua alta scuola silicio, che si dice? 300mm2 14nm Intel 1000$?
E sono libero di far notare le balle che racconti, incluse le tue diffamazioni, caro il mio bugiardo e pubblico mentitore.
Quando posto le foto (le prove che cerchi), ti prego di scrivere che mi ha diffamato dicendo che sono bugiardo e pubblico mentitore.
Peccato che la tua realtà si trovi nel tuo universo parallelo.
La realtà è che mi piacciono i PC e l'universo è fatto di merda grazie alla ditta per cui lavori, e dove si cambia la realtà in fantasia per mera comodità.
E qui si capisce che non hai capito ancora nulla della questione degli sconti. E sì che pure Ace aveva spiegato il tutto in maniera davvero elementare.
Forse non hai capito tu, io non ho detto ad ACE che Intel non può scontare di meno di AMD (non riporto forse che i listinibIntel sono gonfiati del 300/400%?), ma non è CORRETTO avere un listino che preveda sconti sino al 90% (e si può essere anche al limite della concorrenza sleale)
Esatto. Perché non dai una ripassatina al codice penale alla voce diffamazione? Magari capisci una buona volta cosa puoi dire liberamente e cosa la legge ti vieta. :read:
Rileggiti SOLAMENTE questo post e conta le volte che mi hai dato del bugiardo, diffamstore, che vivo su un altro universo e quant'altro... E poi perché ti ho dato del bambino che succhia ancora il latte dalla mamma, ti senti offeso. Guarda, prima forse ti davo 12 mesi, mi sbagliavo, non arrivi a 3 mesi.
Tra parentesi, non hai manco le ballotas, visto che quando sei in difensiva usi il plurale, significa sottostima, in effetti spiega il tuo comportamento da esibizionista.
Su, vai a comprati le caramelle.
tuttodigitale
26-06-2016, 19:18
RAgazzi se proprio volete affrontare il tema, fatelo nel merito. Gli attacchi personali li lasciamo alle persone immature...
l'azienda blu con pratiche illeggittime si è arricchita per 6 anni sulle spalle di AMD, compreso l'anno successivo all'uscita di conroe....
a netto del periodo conroe vs k8, AMD ha avuto la miglior piattaforma server nel periodo 2003-2009....mettete questo in relazione ai trimestrali registrati in quegli anni e.....
ognuno tragga le proprie conclusioni...
cdimauro
26-06-2016, 19:42
Si il problema potrebbe essere solo il FO4, ma se il muxer/demuxer per fare il bypass è messo in uno stadio non critico, non dovrebbe aumentare... Le operazioni FPU hanno almeno 4 stadi, e ce ne sarà sicuramente uno, quello di preparazione operandi, che non ha il FO4 massimo e li si può infilare il circuito.
Considerato che dovrebbero esserci 3 stadi in più, è possibile che abbiano trovato il modo/posto dove infilare il bypass.
Per quanto riguarda il consumo: da 28nm HPP a 14nm LPP dubito che non si riduca il consumo, visto che a 2.41GHz il leakage è 1/6 e la potenza dinamica è solo un po' di più di un circuito a 28nm che va a meno della metà della frequenza,
Bisogna vedere a che frequenza si arriverà.
e visto che sembra che il FO4 di Zen non sia superiore a quello di XV, o Zen è un mostro con tantissimi transistor (ma dalla foto del die non si direbbe), oppure le stime che ho fatto sono MOOOOLTO per eccesso...
No, da quel che hai riportato prima ha senso che il numero dei transistor siano sostanzialmente gli stessi. Questo però non significa che il consumo sia lo stesso, a parità di frequenza e voltaggio. Infatti in BD buona parte dei transistor sono usati per la generosa cache L2, che non consuma certo quanto una L1 o le unità di esecuzione.
cdimauro
26-06-2016, 19:57
in che senso? Neppure la l0, il checkpoint, il bus GMI e tante belle altre cose sono state annunciate da AMD.
Bisognerà vedere quanto di questo sarà vero, e in che misura.
ovviamente le patch possono presentare degli errori, come tu stesso hai potuto osservare per eseguire le FMA siamo passati da una configurazione fp0+fp3/fp1+fp3 a fp0/fp1.
ad esempio ad oggi le due FMAC paiono non essere in grado di eseguire le FADD. Questo oggi, domani questo potrebbe essere radicalmente diverso...
Domani sarà magari con Zen+, perché non è semplice risolvere questi problemi considerato che Zen è previsto per fine anno. Ci saranno al massimo 2 tapeout, o soltanto uno se arriverà prima di dicembre.
Prendile come informazioni attendibili.
Al momento preferisco prendere tutto con le pinze, a parte le informazioni che arrivano dalle patch. :fagiano:
il rapporto andrebbe fatto con Sandy Bridge, che usa un processo molto simile sulla carta a quello utilizzato da excavator.
Non so quanto siano confrontabili i due processi a 32nm (ad esempio i 22nm di Intel non sono propriamente 22, ma 26-28nm).
A parte questo, Sandy Bridge i7-2700K consuma 95W e ha 3,5Ghz di frequenza base e 3,9 con Turbo.
Haswell coi 22nm FinFET fa 500Mhz in più, ma consumando soltanto 88W. Un metto miglioramento, insomma.
Ma con Skylake a 14nm FinFET la situazione peggiora: stessa frequenza base di Haswell, ma soltanto 4,2Ghz col Turbo, e il consumo sale a 91W.
Considerato che dai 22nm (che non sono tali) ai 14nm c'è un bel salto, allora qualcosa non quadra.
per skylake c'è un ampio range di valore di vcore...si passa da 1,1 a oltre 1,4V, hardware.fr ha avuto la sfiga di testare un esemplare con vcore di 1,42V e il consumo con prime95, era di un paio di watt superiore al TDP....dubito che l'esemplare con vcore basso consumi uguale..
Per contro, sempre su Hardware.fr, hanno avuto la fortuna di trovarsi un esemplare di i7 6950x con un vcore di soli 0,99V che consumava meno di 120W...
http://sl.uploads.im/d/0qmY2.jpg
http://sl.uploads.im/d/n40Vo.jpg
Come dicevo qualche tempo fa, Intel di recente ha migliorato le rese coi 14nm: le differenze che hai riportato potrebbero essere dovute a questo, e si spiegherebbe anche il consumo ben più elevato di Skylake rispetto ad Haswell (considerando il netto passaggio di processo produttivo).
cdimauro
26-06-2016, 20:49
Accogliendo il suggerimento di tuttodigitale, mi limito asetticamente a smentire quello che hai scritto.
Azzo e tu? (alla mia affermazione che sono con il cell e ho stazione fissa VGA kaput e mobile HD rotto)
Non c'entra nulla: l'onere della prova di cui parlavo si riferiva alle tue accuse di concorrenza sleale che a TUO dire Intel continuerebbe (http://www.hwupgrade.it/forum/showthread.php?p=43798022#post43798022):
"immagina in ottica futura, Apple fa il software infischiandosene degli ostruzionismi Intel (stra-iper-confermati),"
Inclusi gli altri commenti in cui ne hai parlato (questo era soltanto il primo).
Allora, ma sei la Santa Inquisizione? Tu apri la bocca per dare aria, fai la parte del vittimismo, prendi posizione senza prova alcuna (mi dai del bugiardo o no? Che io dico che sono solo con il cell) e dagli altri pretendo prove perché osano toccare il tuo datore di lavoro?
Il server di foto mi da' problemi, ma ho già scattato le prove (stazione completamente smontata e BW mobile aperto, tra l'altro ti faccio notare che l'ho acquistato 7 mesi fa (qui lo sanno tutti, tante volte che vorresti la prova) e sarei in garanzia, ma siccome torno per 1-2 mesi, non lo posso inviare in garanzia e per questo l'ho aperto, così in Italia compro l'hd e bye bye.
Anche questo non c'entra nulla, perché mi riferivo alla mancanza di replica all'ultimo commento in cui t'avevo risposto riguardo a concorrenza sleale sconti et similia (http://www.hwupgrade.it/forum/showpost.php?p=43798944&postcount=4040).
Successivamente a questo hai continuato a scrivere agli altri (a partire da questo commento (http://www.hwupgrade.it/forum/showpost.php?p=43800036&postcount=4069)) con wall-of-text, ma non mi hai replicato.
E meno male che ci sono le prove, però io ho i miei dubbi che tu abbia capito lacdiscussione
Giudicheranno gli altri se permetti. Passiamo avanti.
Mi prendi per idiota? Ti riscrivo:
Chi ha scritto per 1 "che io sono un famboy AMD che non capisce una mazza di commercio e si altera quando gli toccano i suoi totem"?
Mia risposta:
Non sono un fanboy ma un consumatore, io nel commercio cibsono da 30 e tu rispetto a me prendi il latte dalla mamma
Tu fai la parte dell'offeso che io ho degenerato la conversazione? Mi prendi anche per i fondelli? (A modo tuo) le prove, voglio avere le prove che io ne so meno di te di commercio. Da parte mia, per me dire la verita non e offendere, ed io ho detto la verita.
Anche qui, basta prendere il tuo primo commento in cui hai cominciato a far deragliare la discussione (http://www.hwupgrade.it/forum/showpost.php?p=43798858&postcount=4029), senza che il mio precedente commento (http://www.hwupgrade.it/forum/showpost.php?p=43798846&postcount=4027) fosse dello stesso tono.
In particolare dal tuo commento:
"Ma fai l'avvocato del diavolo? Come fai a considerare lecito uno sconto eccessivo se è anche per questo che è stata condannata?
Siccome siamo OT, e questo discorso non è inerente a Zen... guarda, ti do' ragione, Intel è IMMACOLATA e nel mondo ci sono tante persone infime come me che gettano fanco sull'illibatezza di Intel.
P.S.
Ma sei un dipendente Intel? Azzo, trema, Intel non ci pensa 2 volte a lasciarti il :ciapet: per terra se Zen rovina la sua previsione di bilancio (chiaramente onesta ma riveduta con -50%)."
In particolare l'ultima parte è puro flame e un tentativo di presa in giro.
Stessa cosa si è verificata subito dopo. Ecco qui la mia replica (http://www.hwupgrade.it/forum/showpost.php?p=43798879&postcount=4030), dove non esiste alcuna battutina né offesa (nonostante il tuo precedente commento in cui, invece, l'hai fatto), mentre la tua successiva replica (http://www.hwupgrade.it/forum/showpost.php?p=43798885&postcount=4031) non lo è affatto e continua sulla stessa scia. In particolare:
"Certo che è buffa la questione... quando io riporto che AMD paga a GF Zen in base ai volumi prodotti (e quindi più basso sarà il prezzo di Zen = più ne venderà = meno li pagherà) gli intellisti fanno le 3 scimmie... si parla di sconti per quantità di Intel, si sollevano all'unisono per dire che è normale... Cacchio... certo che l'obiettività è proprio il marchio che vi contraddistingue."
Nella mia successiva replica (http://www.hwupgrade.it/forum/showpost.php?p=43798888&postcount=4032) l'UNICA parte in cui ti faccio una battuta è alla fine, in cui ti rispondo esattamente sull'ultima parte che ho quotato qui sopra:
"Ma LOL. Mentre i fanboy AMD a cui mancano proprio le basi dell'economia, possono sparare balle colossale per giustificare i loro sacri totem. :asd:"
Da cui il concetto di restituirti pan per focaccia, visto il tuo continuo flammare e andare sul personale.
Ma, ribadisco, è una reazione ai tuoi REITERATI comportamenti scorretti nei miei confronti.
Adesso andiamo avanti.
Balle che continuavo a riportare... Dimostrarlo? Continui a formulare sentenze in nome di cosa? Sei un filino egocentrico?
Eccole qua:
"immagina in ottica futura, Apple fa il software infischiandosene degli ostruzionismi Intel (stra-iper-confermati),
[...]
c'è una clausola che se AMD arriva ad una certa quota di mercato, Intel è LIBERA di fare quanto ha fatto prima (la dicitura è abbellita in "politiche commerciali")..
[...]
A Intel rompe BR? Nessun problema, evidentemente cambia il pelo ma non il vizio.
[...]
vogliamo pensare che sono i venditori che non rispettano AMD o Intel che ha "convinto" i venditori (con la stessa tecnica, vendi i miei proci ed io ti faccio sconti extra)
[...]
Ma non riguarda solamente AMD o Intel, riguarda NOI. Quanti BR AMD venderà di meno per questo? AMD vende di meno = Intel vende di più = noi paghiamo di più. [...] SONO LE STESSE IDENTICHE COSE, la concorrenza sleale era basata che Intel OBBLIGAVA a NON VENDERE AMD perchè altrimenti chiudeva i rubunetti ai suoi proci, se accettavi, ti REGALAVA sconti.
[...]
La storia dei compilatori non era solamente codice non ottimizzato, ma era espressamente "Not genuine Intel? Allora vai con i loop".
[...]
Magari facciamo una colletta per pagare 10 6950X al -50%, 750€ direi che si possono spendere.
AceGranger, quello che tu dici, si chiama CONCORRENZA SLEALE, e se Intel è stata condannata anche per questo, giustificazioni commerciali non esistono, è CONCORRENZA SLEALE e basta!!!
[...]
Non voglio sbagliarmi, ma esistono limiti ben precisi tra un prezzo al pubblico e sconti per OEM.
[...]
Tieni ben presente che l'America non è l'Italia dove da noi solamente l'IVA è già il 21% (o 22%?), negli USA non oltrepassa il 6% (varia da stato a stato) e in generale i prezzi sono molto livellati...
[...]
credo che tra quantità e quant'altro, la differenza non superi il 12-15%. -50% è fuori dal mondo, NON PUO' ESISTERE.
[...]
Come applicare sconti eccessivi
[...]
Come riportare prestazioni gonfiate che inducono poi i consumatori a scelte differenti da quello che sarebbe nella realtà
[...]
Come fai a considerare lecito uno sconto eccessivo se è anche per questo che è stata condannata?
[...]
L'antitrust ti controlla che in regime di monopolio (o quasi) non puoi caricare più di una certa percentuale rispetto al costo. Ma questo è ampiamente aggirabile semplicemente facendo apparire dei costi più alti, quali stipendi XL a dirigenti, opere di bene e quant'altro. Ma UNA VOLTA CHE DIMOSTRI CHE IL TUO PREZZO DI VENDITA è proporzionale ai tuoi costi, ecco la concorrenza sleale, perchè? Perchè se da una parte giustifichi che hai quel prezzo perchè i costi sono 200, se passi sotto i 200 è CONCORRENZA SLEALE.
AMD non può mettere il prezzo che vuole ma per l'Antitrust deve giustificare che prezza quel prezzo perchè gli costa X. Poi è chiaro che se il prezzo X è gonfiato, può scendere, ma non loo può fare perchè è concorrenza sleale.
[...]
Lo sconto quantità esiste, è ovvio, nei limiti che ti ho elencato sopra.
[...]
Intel ha le sue FAB e si paga lo sviluppo silicio... GF quando sviluppa il silicio lo fa gratis o lo paga? NON ESISTE differenza tra i 2, perchè Intel i costi di sviluppo li prende da te che acquisti un procio Intel, mentre AMD paga già a GF e chiaramente su quel costo fa il prezzo.
[...]
E questo che vuol dire? Le FAB esistono proprio per questo, per chi non vuole sobbarcarsi le spese di gestire FAB.
[...]
si parla di sconti per quantità di Intel, si sollevano all'unisono per dire che è normale...
[...]
L'antitrust ti blocca oltre un certo ricarico, quindi è ovvio che se Intel ha il listino doppio di AMD, dovrà pure certificare un prezzo di costo più alto. Nel momento che Intel ti sconta più di AMD, è ovvio che è in concorrenza sleale.
[...]
Mi permetti che da un prezzo listino doppio per Broadwell se si arriva ad un prezzo Broadwell -50% quello AMD ci sia qualche cosa che esula allo sconto per quantità?
[...]
Fino a ieri AMD vende quasi sotto-costo e Intel ha i prezzi più alti GIUSTAMENTE, e mo Intel vende al -50% di AMD ed è normale?
[...]
per il boicottaggio negli iper e per i bench di parte, bisogna avere il paraocchi per non vederlo (o ammetterlo)
[...]
per far capire che se Intel riesce a boicottare un BW a -50%, è ovvio che un Zen al -20% se lo pappa a colazione
[...]
Quando io parlo di bench partigiani... ok, se leggo una rece sul Intel, viene perfino riportato se montando DDR con clock superiore si aumentano le prestazioni e tu fai una rece su AMD in single channel e non lo riporti neppure? Ma non è illegale,
[...]
perchè le differenze sono reali in quanto PC def di fabbrca, ma irreali perchè fanno risultare BR meno performante della realtà a parità di componenti.
Se lo fa 1, 2, 3 e più, possibile che lo vedo solo io?
[...]
Io non ho scritto che sei un drogato, ma il tuo post rispondendo al mio facevano dei meandri che mi davano torto ed alla fine la conclusione era che mi dava ragione,
[...]
Il tuo ingresso nel th è a seguito della mia affermazione che Intel rifà le pratiche vecchie, sul discorso BR vs BW. La tua risposta è che Intel non è responsabile.
[...]
Ti faccio notare una cosa... Legalmente può essere, anzi, probabilmente lo è, ma moralmente di certo no."
Ancora? DOPO che Tu hai risposto in malo modo
Qui sopra trovi la dimostrazione di come siano andate realmente le cose, con tanto di post in sequenza temporale ed estratto delle parti "incivili".
Dunque sì: sei stato TU a rispondermi in malo modo, e DOPO (nemmeno subito, peraltro) ti ho risposto di conseguenza.
Ma se la tua INUTILE diatriba è solo una puerile richiesta di prove (del resto, come Intel ha negato fino alla fine (LA VERITA') per poi accettare se no finiva pure peggio), dov'è sto pan per focaccia?
Sopra te l'ho dimostrato, con tanto di commenti ed estratti.
Quando posto le foto che prova che sono con ilcell, voglio avere la tua smentita della tua affermazione "inventarne un'altra"
Te l'ho spiegato sopra il perché.
Tu forse non hai capito una cosa.... Oggi quello che la tua ditta produce come X4, ce lo fa pagare come X8 (ovviamente si che Intel sa sfruttare le sue fonderie) ha tutti i sensi commerciali che tu ci vuoi trovare, ma da diverso tempo ha perso ogni corrispondenza con i veri costi. Ogni miniaturizzazione successiva richiede soldi, ma questi sono ammortizzati da guadagni superiori, perché a regime la miniaturizzazione successiva concederà SEMPRE profitti maggiori. Mi sai dire perché il 2600k sul 32nm costava 250$ e oggi un 6700k sul 14nm (2 salti di nodo) ne costa 100$ in più contro un naturale calo grossomodo a metà del 2600k? Bada bene, io non critico Intel per i prezzi, perché non voglio passare per santo (al suo posto caricherei di più), ma da CONSUMATORE si!!!
VOGLIO coerenza, perché questo che ho scritto è la pura e semplice verità.
Oggi noi paghiamo un X4 a prezzi di un X8, e questo è dovuto al quasi monopolio Intel, che è per buona parte la conseguenza delle "pratiche commerciali" per le quali Intel è stata multata. E tu hai il coraggio di dire che sono passati 10 anni (in realtà 2009 7 anni) e oggi questo non duce nulla?
E poi, quando dico che AMD potrebbe vendere un Zen X8+8 a 400$ stra guadagnandoci, gli intellisti difendono Intel che il suo prezzo è giusto? E che AMD al max -20%? Cacchio, mo' ci troveremo l'80% del pianeta che esulterebbe se AMD prezzasse un Zen 800$ solamente perché la "poverina" Intel l'avrebbero insultata come usuraia? Io da consumatore dico che sarebbero 2 usurai, da consumatore e non da fanboy AMD.
Un BR viene 150$ agli OEM? È sul 28nm? Ha 3,2milioni di transistor? Ha 244mm2? Direi che è giusto... Un BW Intel sul 14nm non mi sorprende che Intel lo può prezzare meno agli OEM, ma DEVE costare meno sul listino degli umani.
Altro punto di BR e Zen. Hanno lo stesso package, quindinon vedo differenze di costo di package, stesso dissipatore (come annunciato da AMD), quello che cambia è il die, ma Zen sarà al max uguale come potrebbe essere della metà. Un numero di transistor inferiore di quasi 1 milione (BR 3,2 milioni ZEN non più di 2 8350 = 2,4 milioni), il costo a mm2 del 14nm è doppio rispetto al 28nm (ma parliamo di 10$ ogni 100mm2 contro i 5 del 28nm, al netto di fallati, con Zen die = BR si parla di 25$ vs 12,5$). Ovvio che va aggiunto tutto lo sviluppo procio/silicio e silicio meno rodato, ma in fin dei conti, Thuban 220$, 8150 300$, quindi mi pare chilometrico da un 8370 170$ ipotizzare già Zen a 400$.
Nella tua alta scuola silicio, che si dice? 300mm2 14nm Intel 1000$?
Questo non c'entra nulla con quella parte della discussione, di cui riporto per comodità le mie parti più interessanti:
"Ma infatti non è Intel che paga di più, visto che ha il totale controllo dei suoi prodotti grazie al fatto di possedere le fabbriche.
E' AMD che, avendo scaricato i costi di produzione ad altre aziende, deve dar da mangiare loro, e dunque pagare più di quanto farebbe se possedesse le fabbriche (E le facesse fruttare, ovviamente).
[...]
Dove avrei concordato?!? Cosa non ti è chiaro del fatto che Intel, avendo le proprie fonderie, non deve pagare IN PIU' un'azienda esterna per la produzione dei suoi chip, e dunque ha il controllo ANCHE del margine che normalmente una fonderia si becca (giustamente!) per la propria attività?"
Quando posto le foto (le prove che cerchi), ti prego di scrivere che mi ha diffamato dicendo che sono bugiardo e pubblico mentitore.
Come già detto, le prove che ho chiesto erano altre.
E riguardo al fatto che sei col telefonino, t'ho risposto sopra, ricostruendo la storia dei miei commenti e delle tue mancate risposte, mentre ad altri utenti, invece, rispondevi.
La realtà è che mi piacciono i PC e l'universo è fatto di merda grazie alla ditta per cui lavori, e dove si cambia la realtà in fantasia per mera comodità.
De gustibus.
Forse non hai capito tu, io non ho detto ad ACE che Intel non può scontare di meno di AMD (non riporto forse che i listinibIntel sono gonfiati del 300/400%?), ma non è CORRETTO avere un listino che preveda sconti sino al 90% (e si può essere anche al limite della concorrenza sleale)
Ho riportato sopra anche tutti i quote relativi ai tuoi discorsi su sconti e antitrust.
Ho evitato di riportare ciò che avevi preso da Wikipedia, perché comunque era sbagliato. Ma c'è un mio commento in merito in cui spiego per filo e per segno (http://www.hwupgrade.it/forum/showpost.php?p=43798944&postcount=4040).
Rileggiti SOLAMENTE questo post e conta le volte che mi hai dato del bugiardo, diffamstore, che vivo su un altro universo e quant'altro... E poi perché ti ho dato del bambino che succhia ancora il latte dalla mamma, ti senti offeso. Guarda, prima forse ti davo 12 mesi, mi sbagliavo, non arrivi a 3 mesi.
Ancora offese, ma non replico. Mi basta aver riportato tutti i quote e link ai commenti per dimostrare come stiano realmente le cose.
Quanto al bugiardo continuerò a dirtelo finché non porterai delle prove (e non fantasie) sul fatto che Intel continuerebbe a con le politiche di concorrenza sleale.
Tra parentesi, non hai manco le ballotas, visto che quando sei in difensiva usi il plurale, significa sottostima, in effetti spiega il tuo comportamento da esibizionista.
Su, vai a comprati le caramelle.
Dov'è che avrei usato il plurale? Quotami pure.
Io, come vedi, non ho avuto alcun problema a scansionare tutti i commenti precedenti riportando link e quote alle cose che sono state dette, ricostruendo in maniera precisa il tutto.
RAgazzi se proprio volete affrontare il tema, fatelo nel merito. Gli attacchi personali li lasciamo alle persone immature...
l'azienda blu con pratiche illeggittime si è arricchita per 6 anni sulle spalle di AMD, compreso l'anno successivo all'uscita di conroe....
a netto del periodo conroe vs k8, AMD ha avuto la miglior piattaforma server nel periodo 2003-2009....mettete questo in relazione ai trimestrali registrati in quegli anni e.....
ognuno tragga le proprie conclusioni...
La politica di concorrenza sleale è finita nel 2007, com'è anche riportato nelle carte.
Dopo il 2007 ci sono state cause, accordi, e sentenze, ma questo NON significa che tali politiche fossero ancora continuate fino ad allora.
EDIT. Dimenticavo una cosa: continuerò a dare del bugiardo e pubblico mentitore a chi sosterrà che Intel continui con le politiche di concorrenza sleale senza alcuna prova. Non si tratta di offese, ma di ribadire l'ovvietà: chi mente è, di fatto, un bugiardo.
principe Vlad
26-06-2016, 21:27
Dai ragazzi, mi pare sia arrivato il momento di darci un taglio... cerchiamo di tornare a parlare di Zen senza troppe polemiche. Un saluto, Vlad
Inviato dal mio GT-N8000 utilizzando Tapatalk
capitan_crasy
26-06-2016, 21:44
EDIT. Dimenticavo una cosa: continuerò a dare del bugiardo e pubblico mentitore a chi sosterrà che Intel continui con le politiche di concorrenza sleale senza alcuna prova. Non si tratta di offese, ma di ribadire l'ovvietà: chi mente è, di fatto, un bugiardo.
Toglimi una curiosità:
Sei un rappresentante legale di Intel o comunque sei una persona delegata per rappresentare l'azienda in questo forum?
cdimauro
26-06-2016, 21:44
No. Guarda la mia firma.
capitan_crasy
26-06-2016, 22:01
No. Guarda la mia firma.
OK, quindi non è cambiato niente...
Dato che sei un comune mortale come tutti noi qua dentro la tua difesa non interessa a nessuno soprattutto su un thread con il titolo "Aspettando Zen".
Se vuoi proprio continuare ci sono i messaggi privati oppure apri una thread specifico sull'argomento dove spiedi le tue ragioni.
Non tocca a me ricordarti dato la tua anzianità nel forum (e dato che non gestisco più thread su AMD) che sei OT e stai rovinando il lavoro fatto da persone che lo fanno con il solo scopo della passione.
Non ce bisogno di specificarlo ma il mio post non è un attacco personale nei tuoi confronti, ne a quello di Intel o qualsiasi altra marca che sia in concorrenza con AMD.
cdimauro
26-06-2016, 22:05
Non credo che ci sia altro da aggiungere dopo l'ultimo commento che ho scritto, che riporta in maniera precisa quote e link, mettendo in chiaro come si siano svolte le cose.
Per il resto, ho contribuito anch'io al thread, come puoi vedere dai commenti con contenuto tecnico.
AceGranger
26-06-2016, 22:51
Non tocca a me ricordarti dato la tua anzianità nel forum (e dato che non gestisco più thread su AMD) che sei OT e stai rovinando il lavoro fatto da persone che lo fanno con il solo scopo della passione.
singolare che lo faccia notare a chi risponde all'OT e non a chi crea l'OT :fagiano:
singolare che lo faccia notare a chi risponde all'OT e non a chi crea l'OT :fagiano:
http://www.sanremonews.it/typo3temp/pics/s_3effc4208f.gif
ps. si scherza oh... ;)
paolo.oliva2
26-06-2016, 23:09
Cdimauro
Il TH è tecnico e si basa su valutazioni in base alle info che si hanno. Mi sembri competente quindi una "testa" in più su cui discutere è benvenuta.
Il resto lascialo perdere, perché tanto non si arriverebbe ad alcuna soluzione, perché io nella redenzione non ci credo e tu, per quanto hai messo in firma che parli a titolo personale, non è che abbia tanto valore, perché avendo comunque interesse quale dipendente, la tua visione avrebbe valore solamente contro Intel e non a favore... Anzi, direi che incentrare la tua attenzione a questo, ottiene l'effetto opposto a quello che tu credi. Io ho creato il presupposto per chiuderla al 50 e 50, poi fai te.
I miei punti non "chiari" sono unicamente nella frequenza, visto che AMD è piuttosto chiara sull'aumento IPC.
Un FO4 piu alto di BD, abbasserebbe la frequenza (sempre a parità di silicio) quindi aumentare l'IPC del 40% e perdere una frequenza del 30%, equivarrebbe ad un guadagno ridicolo, che visto in prospettiva silicio 14nm che permetterebbe un X16 XV, un X8 ZEN perderebbe un 40% almeno di MT. Quindi sia per potenza complessiva e sia per un più parco TDP (se Zen fosse più efficiente ma meno potente a core, dovrebbe avere + core +SMT di moduli XV).
Anzi, io sarei propenso più a credere un FO4 inferiore a BD più che uguale, in modo proprio da ottenere ancora frequenze sui 2,5GHz almeno anche con 32 core.
L'inghippo è che fino ad oggi avere un alto IPC corrispondeva anche alto FO4. Ma che ha fatto Keller?
AceGranger
26-06-2016, 23:11
http://www.sanremonews.it/typo3temp/pics/s_3effc4208f.gif
ps. si scherza oh... ;)
si va bè, potevi almeno mettere Mitch Buchannon :ncomment:
paolo.oliva2
26-06-2016, 23:18
singolare che lo faccia notare a chi risponde all'OT e non a chi crea l'OT :fagiano:
Direi che singolare sia considerare OT solamente il discorso di BR (che vede anche bench in single channel) da cui noi valutiamo +40% di Zen, ed ovviamente credo sia tutt'altro che OT, ignorando pagine di OT di derisione su Bjt2 e Tutto digitale, ma magari quelli erano più simpatici e magari il mio no. C'è coerenza?
capitan_crasy
26-06-2016, 23:23
Non credo che ci sia altro da aggiungere dopo l'ultimo commento che ho scritto, che riporta in maniera precisa quote e link, mettendo in chiaro come si siano svolte le cose.
Per il resto, ho contribuito anch'io al thread, come puoi vedere dai commenti con contenuto tecnico.
Indubbiamente, e infatti ho quotato solo una piccola parte del tuo post (post 4233 (http://www.hwupgrade.it/forum/showpost.php?p=43809298&postcount=4233))...
AceGranger
27-06-2016, 08:10
Direi che singolare sia considerare OT solamente il discorso di BR (che vede anche bench in single channel) da cui noi valutiamo +40% di Zen, ed ovviamente credo sia tutt'altro che OT, ignorando pagine di OT di derisione su Bjt2 e Tutto digitale, ma magari quelli erano più simpatici e magari il mio no. C'è coerenza?
stai rispondendo alla persona sbagliata.
Free Gordon
27-06-2016, 10:45
Si può continuare in PVT cmq :D
Direi che forse sarebbe meglio se paolo e cdimauro continuassero così, per il bene del 3d.. ^_^
Cioè, in generale, utenti specifici a parte, smettere di fare polemica perchè non porta da nessuna parte.
Questo è un 3d di congetture, ipotesi, leaks ecc...mica la Bibbia.. :sofico:
Questo è un 3d di congetture, ipotesi, leaks ecc...mica la Bibbia.. :sofico:
Parla per te... :O
Io ci butto il sangue! (cit. Zucchero Fornaciari) :D
:sofico:
tuttodigitale
27-06-2016, 11:41
La politica di concorrenza sleale è finita nel 2007, com'è anche riportato nelle carte.
quanto tu affermi non va in contraddizione con quello che ho scritto.
Questo è un 3d di congetture, ipotesi, leaks ecc...
:ave:
...mica la Bibbia.. :sofico:
eccetto quando parla il nostro messia
Parla per te... :O
Io ci butto il sangue! (cit. Zucchero Fornaciari) :D
:sofico:
Bisognerà vedere quanto di questo sarà vero, e in che misura.
alcune informazioni sono state anticipate dal CERN (vedi L0).
Personalmente visto anche quello che è successo con BD, tendo a fidarmi.
Al momento preferisco prendere tutto con le pinze, a parte le informazioni che arrivano dalle patch. :fagiano:
ma guarda la cache uop, il bus GMI e la buffer cache e il checkpoint (non mi chiedere cosa siano questi due, anzi se ne sa qualcosa bjt2 :p ), le 2 FMAC+ 2FADD, sono tutti elementi usciti dalle patch.:D
paolo.oliva2
27-06-2016, 15:11
Comunque per me io do' pienamente ragione a bjt2/tutto digitale (FO4/frequenze) perché diversamente meglio XV X16/16TH.
Però bisogna vedere con quanti core l'FO4 di Zen possa essere supportato dal 14nm.
Io penso che il discorso FO4 di una architettura può essere variabile in base all'architettura e relativo IPC, poi è ovvio che si deve relazionare al silicio ma non solo genericamente, ma soprattutto alla miniaturizzazione silicio.
In AMD dal 45nm al 32nm cosa abbiamo? Che l'aumento del TDP per l'OC è di poco superiore all'aumento di aggiungere core, esempio occare un X4 per raggiungere le prestazioni di un X6 ma notare Thuban low-k, o un 6300 vs 8350. Questo perche 1 core ha più di 15W. Con i 14nm, un core è 8W, e considerando OC un aumento di 40W dal def, difficile uguagliare un +X5. Infatti un 6700k X4 di certo in OC non può arrivare ad un 6900k e nel contempo a parità di TDP perde notevolmente in efficienza.
Io credo che Zen come X8 ha sicuramente una base di core con numero efficiente in proporzione alla miniaturizzazione, ma presumo che la perdita di efficienza in OC possa essere notevole in rapporto ad un X12.
Poi... l'FO4 potrebbe essere importante in MT, appunto perché diminuendo il TDP a core per la medesima frequenza, si supererebbe la frequenza minima indispensabile per permetterebbe di aumentare i core. Se AMD avesse un FO4 simile ad Intel, ed Intel si ferma a X22 a 2,2GHz sul suo 14nm, AMD che frequenza potrebbe proporre per il suo X32? A 1,7GHz Intel propone il suo X22 per 65W!!!
paolo.oliva2
27-06-2016, 23:39
Beccatevi questa
Zen Zeppelin http://www.fudzilla.com/news/processors/40958-amd-zeppelin-is-8-core-zen
E questa http://www.extremetech.com/gaming/230127-amd-will-showcase-zen-running-doom-at-e3s-pc-gaming-show
Qui ci sono comparazioni sulla demo di Zen, ma non capisco che cacchio vogliono dire... Troppo casino caricare il traduttore sul cell.
cdimauro
28-06-2016, 05:44
Quindi non sai leggere l'inglese e ti affidi a dei traduttori?
Riguardo ai due link, non aggiungono nulla a quello di cui si è già discusso.
Quest'altro, invece, riporta una novità, anche se rimane una voce: Rumor: AMD Zen chipsets suffering USB 3.1 setback (http://techreport.com/news/30307/rumor-amd-zen-chipsets-suffering-usb-3-1-setback). D'altra parte se ASMedia deriva da Via, come ho letto in giro, potrebbe benissimo succedere.
Il resto lascialo perdere, perché tanto non si arriverebbe ad alcuna soluzione, perché io nella redenzione non ci credo e tu, per quanto hai messo in firma che parli a titolo personale, non è che abbia tanto valore, perché avendo comunque interesse quale dipendente, la tua visione avrebbe valore solamente contro Intel e non a favore... Anzi, direi che incentrare la tua attenzione a questo, ottiene l'effetto opposto a quello che tu credi. Io ho creato il presupposto per chiuderla al 50 e 50, poi fai te.
Non chiudo niente al 50 e 50: qui ognuno si prende le proprie responsabilità per quello che ha detto. L'ultimo commento di riepilogo che ho scritto è lì a testimoniare in maniera precisa e puntuale come si sono svolte le discussioni fra di noi.
Per il resto ho già evidenziato che parlo a titolo strettamente personale, e che mi limiterò ad alcuni aspetti tecnici, se avrò qualcosa da dire, come ho fatto finora.
Non m'interessa se ciò che pensi abbia valore o meno, sebbene contraddica quello che hai scritto all'inizio del tuo commento: "Mi sembri competente quindi una "testa" in più su cui discutere è benvenuta.".
Adesso torniamo a parlare di Zen, che è meglio. L'OT è durato anche troppo.
quanto tu affermi non va in contraddizione con quello che ho scritto.
Dal 2003 al 2007 ci sono circa 5 anni, e non 6.
Inoltre nel 2007 c'era già la piattaforma Xeon basata su Conroe (mentre l'anno precedente erano già stata presentata la piattaforma desktop).
alcune informazioni sono state anticipate dal CERN (vedi L0).
Personalmente visto anche quello che è successo con BD, tendo a fidarmi.
ma guarda la cache uop, il bus GMI e la buffer cache e il checkpoint (non mi chiedere cosa siano questi due, anzi se ne sa qualcosa bjt2 :p ), le 2 FMAC+ 2FADD, sono tutti elementi usciti dalle patch.:D
Anche la lunghezza della cache L0 esce dalle patch? :stordita:
Riguarda al checkpoint, un meccanismo che ha lo stesso nome si ritrova nei database transazionali, dove transazioni lunghe possono essere suddivise in checkpoint, nelle quali vengono eseguite dei commit "parziali" (non ancora definitivi) delle operazioni fino ad allora eseguite. L'idea è quella di evitare di accumulare troppe operazioni in sospeso nella transazione in corso, la cui chiusura porterebbe via troppo tempo alla fine. Coi checkpoint alcune operazioni vengono "quasi completate", liberando risorse (ed eventuali lock, in particolare), ma che possono essere annullate più velocemente in caso di rollback (se la transazione fallisce).
Una cosa del genere si potrebbe applicare anche a una CPU, sebbene non abbia idea di come, ma il principio di funzionamento fra database e CPU, a livello astratto, è esattamente lo stesso.
Riguardo alla buffer cache, invece, non ho idea di cosa possa essere: è un termine troppo generico.
EDIT. Correggo questo:
Domani sarà magari con Zen+, perché non è semplice risolvere questi problemi considerato che Zen è previsto per fine anno. Ci saranno al massimo 2 tapeout, o soltanto uno se arriverà prima di dicembre.
Se Zen uscirà per il mercato di natale, allora al più ci sarà un ultimo tapeout, perché gli OEM in genere ricevono i componenti a Settembre, per assemblarli e far poi arrivare i sistemi pronti a Dicembre.
tuttodigitale
28-06-2016, 10:01
Quindi non sai leggere l'inglese e ti affidi a dei traduttori?
evita gli attacchi personali. :rolleyes:
Dal 2003 al 2007 ci sono circa 5 anni, e non 6..
le pratiche scorrette sono iniziate nel 2002
http://www.corriere.it/cronache/09_maggio_13/intel_multa_ue_posizione_dominante_73946b58-3fa1-11de-bc3f-00144f02aabc.shtml
Anche la lunghezza della cache L0 esce dalle patch? :stordita:
no, esce dal cern...:cool:
Riguarda al checkpoint, un meccanismo che ha lo stesso nome si ritrova nei database transazionali, dove transazioni lunghe possono essere suddivise in checkpoint, nelle quali vengono eseguite dei commit "parziali" (non ancora definitivi) delle operazioni fino ad allora eseguite. L'idea è quella di evitare di accumulare troppe operazioni in sospeso nella transazione in corso, la cui chiusura porterebbe via troppo tempo alla fine. Coi checkpoint alcune operazioni vengono "quasi completate", liberando risorse (ed eventuali lock, in particolare), ma che possono essere annullate più velocemente in caso di rollback (se la transazione fallisce).
Una cosa del genere si potrebbe applicare anche a una CPU, sebbene non abbia idea di come, ma il principio di funzionamento fra database e CPU, a livello astratto, è esattamente lo stesso.
questo contributo lo metto in prima pagina, appena finisco la bozza.
paolo.oliva2
28-06-2016, 10:17
Quindi non sai leggere l'inglese e ti affidi a dei traduttori?
L'inglese tecnico stile manuali mb non ho problema, ma l'inglese corrente è diverso, e io non è che abbia tanto posto nella testa (ho avuto moglie giapponese e il giapponese è un macello, 2 mogli di lingua francese e per lavoro ho a che fare con dialetto athié, russo e cinese, semplicemente trovo di gran lunga più facile usare il traduttore on-line per l'inglese, ovviamente)
Riguardo ai due link, non aggiungono nulla a quello di cui si è già discusso.
Quest'altro, invece, riporta una novità, anche se rimane una voce: Rumor: AMD Zen chipsets suffering USB 3.1 setback (http://techreport.com/news/30307/rumor-amd-zen-chipsets-suffering-usb-3-1-setback). D'altra parte se ASMedia deriva da Via, come ho letto in giro, potrebbe benissimo succedere.
Quello è già stato dichiarato non vero direttamente sia da AMD che da ASMedia, il giorno dopo l'uscita.
Non chiudo niente al 50 e 50: qui ognuno si prende le proprie responsabilità per quello che ha detto. L'ultimo commento di riepilogo che ho scritto è lì a testimoniare in maniera precisa e puntuale come si sono svolte le discussioni fra di noi.
Vedo che non riesci a comprendere la cosa... Il discorso della prova è polivalente, perché io posto e riporto su Intel, tu affermi che non ho prove. Se si fermasse li, è una cosa, ma nel momento che mi dai del bugiardo, è esplecitamente una dichiarazione che io dico il falsi, quindi secondo la TUA lpgica, ciò obbliga pure a te a portare la prova, che non hai (come me). Quindi la posizione è 50/50, tranne il fatto che io ho postato vs Intel 1 volta e tu ne hai fatto 100 pagine di calunnie, verso me, la cosa è totalmente differente.
Per il resto ho già evidenziato che parlo a titolo strettamente personale, e che mi limiterò ad alcuni aspetti tecnici, se avrò qualcosa da dire, come ho fatto finora.
Non m'interessa se ciò che pensi abbia valore o meno, sebbene contraddica quello che hai scritto all'inizio del tuo commento: "Mi sembri competente quindi una "testa" in più su cui discutere è benvenuta.".
Ho visto che hai discusso tecnicamente con Bjt2/Tutto digitale, da qui ho dedotto, per gli "altri" discorsi, mi sembra ovvio che non puoi scindere (almeno pubblicamente) l'obiettività dal sputare nel piatto dove mangi (cit. Frase utilizzata per rappresentare una situazione in cui ci sono conflitti di giudizio), quindi ciò che riporti in firma non è che escluda granché.
Ma in ogni caso la mia domanda "tecnica" era nel post precedente, tu hai quotato il mio post dei 2 link, ma poi perché hai "quotato" solo quello dei prb (presunti ma negati ufficialmente)
Se Zen uscirà per il mercato di natale, allora al più ci sarà un ultimo tapeout, perché gli OEM in genere ricevono i componenti a Settembre, per assemblarli e far poi arrivare i sistemi pronti a Dicembre.
Lisa Su ha riportato che in questa settimana tutti i produttori avranno ES Zen, quali sarebbero gli altri componenti a settembre? C'è tutto il tempo perchè Zen venga lanciato nelle date stile BD FX (lancio a settembre con disponibilitá ottobre (Zambesi 8150, Piledriver 8350).
cdimauro
28-06-2016, 21:37
evita gli attacchi personali. :rolleyes:
Capisco che la discussione sia ormai degenerata, ma non sono attacchi personali.
Altrimenti avrei potuto usare toni più duri, ?!?, e magari un'emoticon come la tua. Comunque vedi sotto.
le pratiche scorrette sono iniziate nel 2002
http://www.corriere.it/cronache/09_maggio_13/intel_multa_ue_posizione_dominante_73946b58-3fa1-11de-bc3f-00144f02aabc.shtml
Ottobre 2002. Quindi poco più di 5 anni.
no, esce dal cern...:cool:
OK. Sarebbe meglio fare un po' di riorganizzazione delle informazioni della prima pagina, in modo da raggrupparle in base alla provenienza.
Questo aiuterebbe a leggerle e valutarle in maniera più consapevole.
questo contributo lo metto in prima pagina, appena finisco la bozza.
OK
L'inglese tecnico stile manuali mb non ho problema, ma l'inglese corrente è diverso, e io non è che abbia tanto posto nella testa (ho avuto moglie giapponese e il giapponese è un macello, 2 mogli di lingua francese e per lavoro ho a che fare con dialetto athié, russo e cinese, semplicemente trovo di gran lunga più facile usare il traduttore on-line per l'inglese, ovviamente)
Nemmeno io sono a mio agio con l'inglese "di tutti i giorni", e preferisco quello tecnico.
Considera, comunque, che la qualità dei traduttori online non è un granché, e se proprio andasse bene riusciresti a cogliere il senso del discorso, con tutti i limiti del caso.
L'esempio te lo mostra i due link che hai portato che, come ho già detto, non dicono nulla che non fosse già stato riportato. Per essere chiari, dove hai visto delle novità?
Quello è già stato dichiarato non vero direttamente sia da AMD che da ASMedia, il giorno dopo l'uscita.
Come ho già detto, è un rumor che è venuto fuori in questi giorni. E il fatto che sia stato smentito da ambedue non vuol dire che non sia vero o che non ci fosse un fondo di verità.
Vedo che non riesci a comprendere la cosa...
Io comprendo perfettamente, se permetti.
Il discorso della prova è polivalente, perché io posto e riporto su Intel, tu affermi che non ho prove. Se si fermasse li, è una cosa, ma nel momento che mi dai del bugiardo, è esplecitamente una dichiarazione che io dico il falsi, quindi secondo la TUA lpgica, ciò obbliga pure a te a portare la prova, che non hai (come me). Quindi la posizione è 50/50, tranne il fatto che io ho postato vs Intel 1 volta e tu ne hai fatto 100 pagine di calunnie, verso me, la cosa è totalmente differente.
Premesso che, come ho già detto, l'onere della prova rimane a carico tuo, visto che la tesi della continuità delle azioni di concorrenza sleale l'hai portata tu, tagliamo la testa al toro: chiedi a qualche tuo amico avvocato se sei libero di poter affermare che un'azienda sta portando avanti politiche di concorrenza sleale, SENZA averne le prove. O, al più, sulla base di cose che immagini tu. E vedi un po' cosa ti risponde, e cosa rischieresti.
E chiedigli pure se una persona può darti del bugiardo se non porti le prove (non cose che immagini tu) di queste cose.
Ho visto che hai discusso tecnicamente con Bjt2/Tutto digitale, da qui ho dedotto, per gli "altri" discorsi, mi sembra ovvio che non puoi scindere (almeno pubblicamente) l'obiettività dal sputare nel piatto dove mangi (cit. Frase utilizzata per rappresentare una situazione in cui ci sono conflitti di giudizio), quindi ciò che riporti in firma non è che escluda granché.
Io continuo e continuerò a parlare a titolo personale a prescindere da ciò, esattamente come facevo in questo forum prima di essere assunto da Intel.
Ma in ogni caso la mia domanda "tecnica" era nel post precedente, tu hai quotato il mio post dei 2 link, ma poi perché hai "quotato" solo quello dei prb (presunti ma negati ufficialmente)
Nel tuo commento (#4247) precedente a quello dei due link non hai fatto alcuna domanda.
Lisa Su ha riportato che in questa settimana tutti i produttori avranno ES Zen, quali sarebbero gli altri componenti a settembre? C'è tutto il tempo perchè Zen venga lanciato nelle date stile BD FX (lancio a settembre con disponibilitá ottobre (Zambesi 8150, Piledriver 8350).
Un ES non è la stessa cosa del prodotto finale che dev'essere commercializzato.
A parte questo, se il lancio dovesse essere a settembre (ma le ultime notizie parlavano genericamente di fine anno), allora non ci sarebbe più spazio per alcun tapeout.
E a breve arriverebbero pure i primi benchmark "leaked"...
paolo.oliva2
28-06-2016, 23:41
Ci sono diversi tipi di ES.
Quello di novembre 2015, il 1° Zen, era il beta test (ha un nome specifico che non ricordo ora) ed era praticamente il 1° approccio dell'architettura Zen con il nuovo silicio 14nm. Da quel giorno ad oggi, non si sa nulla.
Ora, non è che ES non voglia dire proprio nulla, perché un ES preproduzione, seppur ES, vorrebbe dire che è tutto finito e si stanno provando le ultime cose per avere un metro sulla produzione e impostare frequenze/TDP finali, mentre un ES nella fase precedente a quella preproduzione, potrebbe avere necessità di tempo ben maggiori (anche più di 6 mesi se occorre un nuovo step).
Perché io penso che diano preproduzione? Perché se tra produzione in volumi e impacchettamento/disponibilità reale occorrerà 3 mesi, anche ipotizzando come tu dici la settimana prima di natale, GF deve avere il via da AMD entro la fine d'agosto, siamo in luglio, quindi o quegli ES che Lisa Su distribuirà o ha già distribuito, devono essere ES preproduzione.
Poi l'ES preproduzione potrebbe anche voler dire una produzione volumi per domani come per il prox mese, ma io credo che se AMD può, cercherà di rispettare un lancio Zen per settembre e disponibilità ottobre (il periodo di FX/Opteron è quello).
La cosa che mi interessa, è capire se AMD volutamente ha oscurato a randa Zen o non è trapelato nulla perché non era disponibile nulla.
Comunque anche io sono curioso se nelle prox settimane scappano info di straforo... Perché farebbe molta chiarezza. Sull'IPC non mi frega una mazza, tanto +40 IPC con +/- 5/10%, il range è quello, ma sulle frequenze abbiamo un range di +/- 50%, considerando 3GHz - 4,5GHz...
Io ho molta fiducia sulla max frequenza turbo, perché sarà il metro assoluto di quanto potrà essere l'OC RS di Zen. Con un FO4 alla BD e un silicio con PP idoneo, i 4,3GHz del 28nm si devono superare e nemmeno di poco.
cdimauro
29-06-2016, 05:50
Il primissimo sample uscito dalla fonderia si chiama stepping A0.
Come dicevo prima, se è previsto il lancio per Settembre, allora gli OEM dovrebbero aver già cominciato a ricevere i processori da assemblare. E quando questo succede, la prima cosa che viene fuori è qualche test, anche solo con CPU-Z per mostrare le informazioni del processore.
Siccome tutto tace, allora è probabile che il lancio sarà per fine anno.
http://videocardz.com/61557/rajas-super-secret-cigar-stash
Hanno messo l'AVFS anche su Polaris... E c'è una nuova tecnologia per compensare anche per l'invecchiamento del chip, così da poter togliere anche il margine relativo... Chissà se ci sarà anche su Zen...
L'AVFS è spettacolare... Solo lui fa recuperare un 20% di potenza (o 5-10% di clock)... Che io sappia INTEL non ce l'ha...
george_p
29-06-2016, 07:56
http://videocardz.com/61557/rajas-super-secret-cigar-stash
Hanno messo l'AVFS anche su Polaris... E c'è una nuova tecnologia per compensare anche per l'invecchiamento del chip, così da poter togliere anche il margine relativo... Chissà se ci sarà anche su Zen...
L'AVFS è spettacolare... Solo lui fa recuperare un 20% di potenza (o 5-10% di clock)... Che io sappia INTEL non ce l'ha...
Cioè fa risparmiare un 20% sui consumi e invece a parità di consumo potrebbe far recuperare un 5-10% di frequenza?!?
Probabilmente la prima sarebbe più utile prevalentemente.
Cioè fa risparmiare un 20% sui consumi e invece a parità di consumo potrebbe far recuperare un 5-10% di frequenza?!?
Probabilmente la prima sarebbe più utile prevalentemente.
C'era già in Carrizo eh! Solo che è la prima volta su una GPU... Consente di togliere il margine del 10% sulla tensione... Se scende, entro pochi nanosecondi viene abbassato il clock, del 7% su Carrizo...
tuttodigitale
29-06-2016, 08:38
Capisco che la discussione sia ormai degenerata, ma non sono attacchi personali.
Altrimenti avrei potuto usare toni più duri, ?!?, e magari un'emoticon come la tua. Comunque vedi sotto.
scusami, se dare dell'ignorante ad una persona non è un attacco personale....abbiamo un concetto un poco diverso, ecco.
OK. Sarebbe meglio fare un po' di riorganizzazione delle informazioni della prima pagina, in modo da raggrupparle in base alla provenienza.
quella dell'organizzazione va bene...per stasera sarà fatto, anche se personalmente preferisco per data. Se scrivo la provenienza della fonte tra parentesi quadre....
esempio: data [fonte] titolo della notizia, e magari sotto un estratto del testo o delle slide qualora aggiungano novità? Va bene così?
il testo è praticamente pronto. il grosso del lavoro è prendere i vari link, post e ridurre in alcuni casi anche le dimensioni delle varie slide per rendere il tutto più leggibile e meno pesante.
Ho preso alla lettera il tuo suggerimento. Le critiche costruttive sono sempre ben accette.:cool:
inizio a postare qualcosa stasera.
paolo.oliva2
29-06-2016, 09:14
Il primissimo sample uscito dalla fonderia si chiama stepping A0.
Come dicevo prima, se è previsto il lancio per Settembre, allora gli OEM dovrebbero aver già cominciato a ricevere i processori da assemblare. E quando questo succede, la prima cosa che viene fuori è qualche test, anche solo con CPU-Z per mostrare le informazioni del processore.
Siccome tutto tace, allora è probabile che il lancio sarà per fine anno.
La lettera iniziale è riferita anche per diversificare il diverso modello procio sullo stesso silicio. Ad esempio sul 32nm SOI, il primo procio fu Llano, A0, ma Zambesi fu B0, quindi Zen non obbligatoriamente deve essere A, perché potrebbero aver alfabetizzato altri progetti per conto terzi (esempio console), precedentemente.
Poi il numero rappresenta lo step di trattamento del silicio e/o il livello di evoluzione architettura, a volte accompagnato da un'altra lettera per differenziare ulteriormente... Basta pensare che Zembesi era B2f per pensare i casini che ci sono stati su BD.
La gestazione di Zen è molto più rapida di Zambesi... Di certo credo che il numero non arrivi a 2.
Il fatto che non ci siano bench non esclude che non ci siano ES, in fin dei conti la demo con Doom come l'hanno fatta senza un Zen?
Lisa Su comunque ha riportato DISPONIBILITÀ commerciale entro fine anno per Zen X86, poi se la si vuole interpretare come di un lotto di 10 Zen il 31 dicembre, può anche essere, ma io sono più propenso ad ipotizzare reale entro novembre.
P.S.
Il fatto di fine anno dipende dall'interpretazione che si vuole dare. Se io dico verso fino anno a marzo (esempio), rappresenta un lasso di tempo superiore rispetto a dire la stessa frase ma a settembre. Ma AMD lo ha riportato quando? Aprile? Ovviamente credo con tutti i margini del caso, per evitare figuracce. Anche perché in realtà ha detto nell'ultimo q del 2016 che corrisponde a settembre/ottobre/novembre/dicembre, il che vuol dire anche 25 dicembre, ma appunto anche e non solo.
Facendo una cronistoria probabile, dovrebbe essere:
Dicembre 2015 Zen X0, primo die Zen prodotto e funzionante, ma senza featurs, turbo e qualsivoglia.
Tra step e step ci vogliono circa 6 mesi, ed infatti da dicembre 2015 + 6 mesi arriviamo a giugno 2016. Lisa Su ha annunciato la conferma di Zen nel 2016 a giugno, perché? Perche doveva sapere se lo step di Zen era definitivo, perché se si dovevano correggere bug o simili, sarebbero stati necessari altri 6 mesi e quindi aggiungendoci 2-3 mesi per produzione in volumi e disponibilitá sugli scaffali, impossibile nel 2016. E da questo è intuitivo supporre che lo step ES di Zen attuale debba essere quanto di più vicino alla versione finale, addirittura pure un pre-produzione.
tuttodigitale
29-06-2016, 09:18
Il primissimo sample uscito dalla fonderia si chiama stepping A0.
Come dicevo prima, se è previsto il lancio per Settembre, allora gli OEM dovrebbero aver già cominciato a ricevere i processori da assemblare. E quando questo succede, la prima cosa che viene fuori è qualche test, anche solo con CPU-Z per mostrare le informazioni del processore.
Siccome tutto tace, allora è probabile che il lancio sarà per fine anno.
è previsto per il q4...quindi Ottobre-Dicembre...per quel che ci è dato sapere le spedizione sarebbero iniziate dopo al Computex, in quanto ZEN è già completamente operativo.
L'AVFS è spettacolare... Solo lui fa recuperare un 20% di potenza (o 5-10% di clock)... Che io sappia INTEL non ce l'ha...
hai visto hanno incrementato l'ipc (prestazioni nel ST) di Polaris...:cool:
La lettera iniziale è riferita anche per diversificare il diverso modello procio sullo stesso silicio. Ad esempio sul 32nm SOI, il primo procio FI Llano, A0, ma Zambesi fu B0, quindi Zen non obbligatoriamente dovrebbe essere A, perché potrebbero aver alfabetizzato altri progetti per conto terzi (esempio console), precedentemente.
Non esattamente .
per diversificare un die uno dall'altro, AMD fa riferimento alla famiglia:
Orochi OR-step
Llano LN1-step
Trinity TN-step
Carrizo CZ-step
e si parte, come ovvio che sia sempre con A0. ovviamente è ragionevole supporre che AMD dal suo primissimo sample di un anno fa, abbia fatto altri step..
hai visto hanno incrementato l'ipc (prestazioni nel ST) di Polaris...:cool:
ST? E' una GPU! Link! :O
Free Gordon
29-06-2016, 10:47
hai visto hanno incrementato l'ipc (prestazioni nel ST) di Polaris...:cool:
Dove lo hai letto?
Per ora ho solo visto le slide di wccftech
http://wccftech.com/amd-rx-480-polaris-10-full-slide-deck-leak/
Free Gordon
29-06-2016, 14:28
Hmm...non la vedo molto bene per Zen.... :( se il 14nm GF è questo:
http://images.anandtech.com/graphs/graph10446/82412.png
rossano92
29-06-2016, 14:41
Cioè consuma come una 1070 stock???? :doh:
Goodbye AMD
george_p
29-06-2016, 15:24
Hmm...non la vedo molto bene per Zen.... :( se il 14nm GF è questo:
http://images.anandtech.com/graphs/graph10446/82412.png
Ma questo è il consumo di tutto il sistema, hanno usato lo stesso hardware per tutte le schede di quel grafico?
Comunque va quasi quanto una 390X e consuma il 30% in meno.
Non è il miracolo, almeno da questo grafico e recensione però al momento mica male.
Se si considera poi il prezzo è davvero molto allettante, considerando che poi ci saranno ottimizzazioni via driver, e anche le custom.
Per zen sarà tutto da vedere, non cominciamo con allarmismi.
Se no si riempie di post come l'ultimo, e non c'è solo glofo poi :D
http://3.bp.blogspot.com/-QReYzqPazno/TdwheEly0_I/AAAAAAAAAK0/AiGt3wrn_EM/s1600/prosciutto-sun-glasses.jpg
george_p
29-06-2016, 15:38
http://3.bp.blogspot.com/-QReYzqPazno/TdwheEly0_I/AAAAAAAAAK0/AiGt3wrn_EM/s1600/prosciutto-sun-glasses.jpg
Si, mancano anche quelli green e blue :Prrr:
°Phenom°
29-06-2016, 15:43
Aspettate, le prestazioni seppur altalenanti di titolo in titolo sono ok per la fascia che occupa, i prezzi sembrerebbero esserlo pure. Nota dolente, i consumi, sotto questo aspetto è un fail totale, senza se e senza ma. Siamo ai livelli di una 970 che ha 2 anni sul groppone oltre ad essere a 28nm. Con questo che voglio dire.. che moltissimi potenziali acquirenti di questa vga, si aspettavano consumi almeno quasi in pari con pascal, o se con questi consumi, prestazioni superiori. Imho amd con questa mossa si è bruciata molta utenza che potenzialmente avrebbe acquistato al volo una rx 480 oltre che far presagire un vega che si porterà dietro sempre questa lacuna.
Comunque chiudo ot :D
george_p
29-06-2016, 15:53
Aspettate, le prestazioni seppur altalenanti di titolo in titolo sono ok per la fascia che occupa, i prezzi sembrerebbero esserlo pure. Nota dolente, i consumi, sotto questo aspetto è un fail totale, senza se e senza ma. Siamo ai livelli di una 970 che ha 2 anni sul groppone oltre ad essere a 28nm. Con questo che voglio dire.. che moltissimi potenziali acquirenti di questa vga, si aspettavano consumi almeno quasi in pari con pascal, o se con questi consumi, prestazioni superiori. Imho amd con questa mossa si è bruciata molta utenza che potenzialmente avrebbe acquistato al volo una rx 480 oltre che far presagire un vega che si porterà dietro sempre questa lacuna.
Comunque chiudo ot :D
Infatti non è un miracolo rispetto a nvidia come non lo è rispetto alle sue stesse schede precedenti ma almeno rispetto a queste ultime con quasi le stesse prestazioni ha un -30% di consumi (-40 su B&C prendendo solo i consumi della scheda.). che non è tantissimo e poteva fare almeno la metà.
Dalla sua ha le DX12, ampi margini di miglioramento come accaduto per le precedenti, poi ci saranno le custom.
E infine glofo fa schifo? Azz, sperem di no ...però c'è sempre tsmc :Prrr: per Zen ovviamente che è quello che ci interessa maggiormente qui.
E' il modello con relativamente pochi shader clockati alti... Grazie che ha poca efficienza... Aspettiamo il modello a 4096 shader (come fiji) ma clockati a 1100-1150 e vediamo poi l'efficienza...
Ha il 20% di clock in più a parità di consumo e transistors... Non è male per un chip già tirato di suo...
http://3.bp.blogspot.com/-QReYzqPazno/TdwheEly0_I/AAAAAAAAAK0/AiGt3wrn_EM/s1600/prosciutto-sun-glasses.jpg
Con chi ce l'hai? :confused:
°Phenom°
29-06-2016, 17:04
E' il modello con relativamente pochi shader clockati alti... Grazie che ha poca efficienza... Aspettiamo il modello a 4096 shader (come fiji) ma clockati a 1100-1150 e vediamo poi l'efficienza...
Ha il 20% di clock in più a parità di consumo e transistors... Non è male per un chip già tirato di suo...
Infatti non è male, ma non basta se vuoi tirare su il market share, visto che amd con questa scheda (direttamente dalle sue parole), ha come obiettivo l'incremento dello stesso. La massa, e qui nvidia insegna, è interessata più che al prezzo/perf, ai consumi, specialmente su schede di fascia media come questa, per cui amd ha toppato sotto questo aspetto, visto che doveva seguire questo trend.
°Phenom°
29-06-2016, 17:56
si ma non diamo sempre colpa al silicio, adesso basta.
sarà magari anche quello, ma è innegabile che l'archittura maxwell/pascal è nettamente più efficiente di quella gcn1.1/1.3
il dato è li, il miglioramento di efficienza di polaris è identico a quello di pascal, +60% altro che "up to 2.8x" (+180%), hanno usato solo il processo, e così facendo polaris pareggia maxwell e pascal diventa ciò che era maxwell verso hawaii/fiji/tonga
mi aspettavo un sonoro 2.2~2.4x, e invece ciao...
per cui prima di dire che il silicio fa schifo, vediamo come uscirà zen e poi ne riparliamo.
la nota positiva è il prezzo, a parte day one, ma il perf/cost è perfetto tra un mesetto al massimo le reference staranno sui 200~230 e le custom sui 250~280
Hai spiegato perfettamente il punto della situazione ;)
Inviato dal mio SM-G920F utilizzando Tapatalk
Free Gordon
29-06-2016, 18:03
si ma non diamo sempre colpa al silicio, adesso basta.
Sinceramente spero proprio che non sia colpa del silicio.. ;)
A quanto pare però, potrebbe essere che i voltaggi siano molto alti per le frequenze impostate sulla reference..
Vediamo con le custom come và. :)
capitan_crasy
29-06-2016, 18:09
Ricordando il titolo di questo thread, Polaris sostituisce Tonga ed è da li che bisogna partire, poi ognuno si era fatto delle aspettative più o meno alte ma questo è un problema storico come l'eventuale delusione espressa con post a caso...:asd:
Io ripeto il mio punto di vista ovvero che ZEN almeno all'inizio avrà la strategia di Polaris, poi con ZEN+ FORSE dovremmo avere la "forza bruta" ma non saranno un nuovo K7/K8.
Intanto devo prendere a pedate nelle gengive la scimmia per una 480 4GB a 219 eurozzi in uno shop in tedeschia!!!:muro:
Sinceramente spero proprio che non sia colpa del silicio.. ;)
A quanto pare però, potrebbe essere che i voltaggi siano molto alti per le frequenze impostate sulla reference..
Vediamo con le custom come và. :)
Si, ma le tue aspettative erano fin troppo ottimistiche...;)
Free Gordon
29-06-2016, 18:35
Si, ma le tue aspettative erano fin troppo ottimistiche...;)
Messa così, con le 32ROPs e le prestazioni che ne sono derivate, price/performance non è nemmeno male. ;)
Il grosso problema sono i consumi. I consumi hanno qualcosa di grosso che non và...
Probabile che mi faccia una 480 custom cmq eh.. ;)
capitan_crasy
29-06-2016, 18:50
Messa così, con le 32ROPs e le prestazioni che ne sono derivate, price/performance non è nemmeno male. ;)
Il grosso problema sono i consumi. I consumi hanno qualcosa di grosso che non và...
Probabile che mi faccia una 480 custom cmq eh.. ;)
Faccio un passo in avanti e uno indietro.
Vedendo su http://www.techpowerup.com/ (http://www.techpowerup.com/reviews/AMD/RX_480/22.html) Polaris consuma poco meno di 100W in meno su Tonga e secondo me per essere la prima GPU a 14nm di AMD va strabene.
Poi ti dico che dei consumi su una GPU per giocare almeno personalmente me ne sbatto altamente; quello che mi fa stare con la mazzza in forma "Super Sayan di 3 livello" è il dannato prezzo!:D
Tempo 6 mesi (o anche meno) e la versione a 4GB costerà meno di 200 eurozzi!:read:
Free Gordon
29-06-2016, 18:58
Poi ti dico che dei consumi su una GPU per giocare almeno personalmente me ne sbatto altamente;
Anche io me ne sbatto dei consumi, avevo una 290, sai che me ne frega per quelle 2 ore a settimana in cui gioco (se và bene).
Io penso all'architettura e alle future release invece.
Se i consumi di P10 venissero confermati, che cavolo dobbiamo aspettarci da un Vega?
Consumi Hawaii-like sui 14nm? Con prestazioni da 1070/1080?
Non và bene.....
capitan_crasy
29-06-2016, 19:14
Anche io me ne sbatto dei consumi, avevo una 290, sai che me ne frega per quelle 2 ore a settimana in cui gioco (se và bene).
Io penso all'architettura e alle future release invece.
Se i consumi di P10 venissero confermati, che cavolo dobbiamo aspettarci da un Vega?
Consumi Hawaii-like sui 14nm? Con prestazioni da 1070/1080?
Non và bene.....
Insomma basta con questo esagerato ottimismo prima e adesso con questo pessimismo, altrimenti il tuo fegato comincia a dare di matto...:asd:
Faccio un passo in avanti e uno indietro.
Vedendo su http://www.techpowerup.com/ (http://www.techpowerup.com/reviews/AMD/RX_480/22.html) Polaris consuma poco meno di 100W in meno su Tonga e secondo me per essere la prima GPU a 14nm di AMD va strabene.
Poi ti dico che dei consumi su una GPU per giocare almeno personalmente me ne sbatto altamente; quello che mi fa stare con la mazzza in forma "Super Sayan di 3 livello" è il dannato prezzo!:D
Tempo 6 mesi (o anche meno) e la versione a 4GB costerà meno di 200 eurozzi!:read:
Visto il FO4 e il Vcore di queste GPU, a me quello che preme è la frequenza a parità di transistors e potenza dissipata e secondariamente il Vcore, per vedere quanto si è tirati... A quale modello TONGA è paragonabile come numero di transistors, o almeno shader? Che potenza? Che frequenza? Che vcore?
Avevamo fatto qualche pagina indietro il conto: a parità di transistors, +20% di frequenza anche a parità di potenza dissipata e -0.05V di Vcore.
Per quanto riguarda Zen, siccome a 28nm non c'è qualcosa di paragonabile a Zen come numero di transistors, si prende o uno XV x4 a 25W e si aggiunge un 20% di frequenza, o un BD (non ricordo l'ultimo sul 28nm, mi pare piledriver) x8 a 45W (se esiste) e si aggiunge il 20% di frequenza...
tuttodigitale
29-06-2016, 21:09
Dove lo hai letto?
Per ora ho solo visto le slide di wccftech
http://wccftech.com/amd-rx-480-polaris-10-full-slide-deck-leak/
proprio in quel link. Anche altri recensori hanno detto questo. Quindi questa slide deve essere vera.
http://cdn.wccftech.com/wp-content/uploads/2016/06/AMD-Radeon-RX-480-Polaris-10_Improved-Shader-Efficiency.jpg
Infatti non è un miracolo rispetto a nvidia come non lo è rispetto alle sue stesse schede precedenti ma almeno rispetto a queste ultime con quasi le stesse prestazioni ha un -30% di consumi (-40 su B&C prendendo solo i consumi della scheda.). che non è tantissimo e poteva fare almeno la metà.
Dalla sua ha le DX12, ampi margini di miglioramento come accaduto per le precedenti, poi ci saranno le custom.
E infine glofo fa schifo? Azz, sperem di no ...però c'è sempre tsmc :Prrr: per Zen ovviamente che è quello che ci interessa maggiormente qui.
non fa meglio rispetto alla fury...
https://tpucdn.com/reviews/AMD/RX_480/images/perfwatt_2560_1440.png
è un pò preoccupante...ma considerando che nessuno ha obbligato AMD a rifornirsi da GF...resto ottimista.
si ma non diamo sempre colpa al silicio, adesso basta.
sarà magari anche quello, ma è innegabile che l'archittura maxwell/pascal è nettamente più efficiente di quella gcn1.1/1.3
il dato è li, il miglioramento di efficienza di polaris è identico a quello di pascal, +60% altro che "up to 2.8x" (+180%), hanno usato solo il processo, e così facendo polaris pareggia maxwell e pascal diventa ciò che era maxwell verso hawaii/fiji/tonga
c'è anche da dire che AMD oggi è in grado di produrre schede per la fascia mainstream ed enty-level, mentre nvidia non è in grado neppure di assecondare l'offerta di prodotti venduti oltre i 400 euro. Non so se questo ha molto a che vedere con le frequenze di funzionamento, ma questo è un dato oggettivo (su newegg sono stati venduti tutti i 6 modelli della rx480 disponibili, ad un prezzo più che ottimo, e si attendono nuove fornitore entro 3-5 giorni)
Anch'io credo parte della colpa sia di AMD, ma c'è anche da dire che probabilmente si sono accontentati fin da subito di questo risultato e hanno puntato molto sulla resa....alla fine avevano l'urgente bisogno di svecchiare gpu di 5 anni fa....è bene ricordarlo. E se consideriamo che una rx480 da 8GB dovrebbe costare ad AMD molto meno rispetto ad una 390 sempre da 8GB, e non solo a livello di gpu...
http://g01.a.alicdn.com/kf/HTB1mLLYJXXXXXXcaXXXq6xXFXXXw/GPU-VGA-water-cooling-block-for-PowerColor-R9-390X-290X-graphics-cards-water-cooling-block-water.jpg
http://www.nexthardware.com/repository/news/7599/immagini/ICON_AMD-Radeon-RX-480-PCB-Polaris-10-10.jpg
Sinceramente spero proprio che non sia colpa del silicio.. ;)
A quanto pare però, potrebbe essere che i voltaggi siano molto alti per le frequenze impostate sulla reference..
Vediamo con le custom come và. :)
non proprio grazie al AVFS, il voltaggio è praticamente perfetto per le frequenze di clock..
Free Gordon
29-06-2016, 21:15
http://www.pcper.com/files/review/2016-06-28/power-witcher3.png
http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-RX-480-Review-Polaris-Promise
cdimauro
29-06-2016, 22:00
scusami, se dare dell'ignorante ad una persona non è un attacco personale....abbiamo un concetto un poco diverso, ecco.
Ho già chiarito prima, e lo ribadisco: i traduttori non sono certamente strumenti adeguati per estrarre informazioni. L'esempio è proprio quello dei due link: hai trovato delle novità rispetto a quello che è stato scritto finora qui?
quella dell'organizzazione va bene...per stasera sarà fatto, anche se personalmente preferisco per data. Se scrivo la provenienza della fonte tra parentesi quadre....
esempio: data [fonte] titolo della notizia, e magari sotto un estratto del testo o delle slide qualora aggiungano novità? Va bene così?
Personalmente suddividerei le informazioni per fonte: prima ufficiali o quasi, provenienti da patch o slide di AMD. Poi quelle che potrebbero essere verosimili, come quelle provenienti dal CERN. Poi tutto il resto. Separando le varie sezioni adeguatamente, ma in modo da mettere una linea di demarcazione ed evidenziare nettamente le fonti.
il testo è praticamente pronto. il grosso del lavoro è prendere i vari link, post e ridurre in alcuni casi anche le dimensioni delle varie slide per rendere il tutto più leggibile e meno pesante.
Ho preso alla lettera il tuo suggerimento. Le critiche costruttive sono sempre ben accette.:cool:
inizio a postare qualcosa stasera.
OK.
Aggiungo una riflessione presa dai dati del CERN, e dunque va preso il tutto con le pinze, ma serve ad evidenziare delle incongruenze o farsi un'idea su alcuni dettagli tecnici.
La slide riporta che i core Zen siano "6-wide", e dunque abbiano la capacità di eseguire 6 istruzioni per ciclo di clock. Questo cozza con le altre informazioni che circolano, che parlano di core a 4 vie.
La cache L1 è data come 64K + 64K per codice e dati, quindi come i vecchi Athlon/Athlon64, ma questo si discosta dalle altre informazioni che riportano, invece, 32K + 32K.
Riguardo alla cache L0, riporta 4K per core. In genere le uop misurano sui 110-120 bit all'incirca. Assumendo per semplicità 128 bit per ognuna, vuol dire che ogni core ha a disposizione una cache di 256 uop. Non si sa, però, se questa cache sia unificata o divisa fra i 2 thread hardware. Ad esempio Haswell ha una cache unificata da 56 uop per entrambi i thread, mentre Skylake ne ha 2 separate da 64 uop ciascuna.
Non è chiaro se sia una cache vera e propria dove il backend va ad attingere a seconda delle esigenze. Sui processori Intel non è una cache, ma "semplicemente" si tratta di usare la coda delle uop nel caso venga intercettato un ciclo.
Infine 8MB di cache L3 per 16 core è un valore troppo basso: sarebbero 512KB per core, cioé quanto la cache L2 per core. Considerato che AMD dovrebbe cambiare la gerarchia della cache da esclusiva a inclusiva, la L3 dovrebbe essere più grande della L2 totale per dare un maggior contributo alle prestazioni.
La lettera iniziale è riferita anche per diversificare il diverso modello procio sullo stesso silicio. Ad esempio sul 32nm SOI, il primo procio fu Llano, A0, ma Zambesi fu B0, quindi Zen non obbligatoriamente deve essere A, perché potrebbero aver alfabetizzato altri progetti per conto terzi (esempio console), precedentemente.
Poi il numero rappresenta lo step di trattamento del silicio e/o il livello di evoluzione architettura, a volte accompagnato da un'altra lettera per differenziare ulteriormente... Basta pensare che Zembesi era B2f per pensare i casini che ci sono stati su BD.
La gestazione di Zen è molto più rapida di Zambesi... Di certo credo che il numero non arrivi a 2.
Non so come funziona in AMD, ma altre aziende usano nomenclature diverse, e "asettiche": A0 = primo step della prima serie, a cui seguono altri tapeout della stessa tipologia (A1, A2), poi B0, B1, B2,... C0, ecc. Si può arrivare anche D0, D1, ecc.
Il fatto che non ci siano bench non esclude che non ci siano ES, in fin dei conti la demo con Doom come l'hanno fatta senza un Zen?
Qui non stiamo più parlando di ES, ma di versioni cosiddette "commercial-ready": pronte per essere commercializzate.
Quanto a Doom, si sa quanti FPS generava, a che frequenza girava Zen, e la configurazione hardware utilizzata? Altrimenti sapere che ci gira è del tutto inutile.
Tra step e step ci vogliono circa 6 mesi
Dipende tutto da quanti tapeout si fanno. Per uno step, ce ne vogliono minimo 2, ma si può arrivare tranquillamente anche 3 (non ricordo se si arriva a più di 3), soprattutto coi primi step, che sono decisamente bacati.
è previsto per il q4...quindi Ottobre-Dicembre...per quel che ci è dato sapere le spedizione sarebbero iniziate dopo al Computex, in quanto ZEN è già completamente operativo.
Quindi i tapeout sono finiti, e si è passati già alla produzione. Ma visto che mancano ancora un bel po' di mesi per Ottobre, è possibile che le rese non siano tanto buone.
proprio in quel link. Anche altri recensori hanno detto questo. Quindi questa slide deve essere vera.
http://cdn.wccftech.com/wp-content/uploads/2016/06/AMD-Radeon-RX-480-Polaris-10_Improved-Shader-Efficiency.jpg
Sempre più simili a delle CPU, queste GPU. :O :D
si ma non diamo sempre colpa al silicio, adesso basta.
sarà magari anche quello, ma è innegabile che l'archittura maxwell/pascal è nettamente più efficiente di quella gcn1.1/1.3
il dato è li, il miglioramento di efficienza di polaris è identico a quello di pascal, +60% altro che "up to 2.8x" (+180%), hanno usato solo il processo, e così facendo polaris pareggia maxwell e pascal diventa ciò che era maxwell verso hawaii/fiji/tonga
mi aspettavo un sonoro 2.2~2.4x, e invece ciao...
per cui prima di dire che il silicio fa schifo, vediamo come uscirà zen e poi ne riparliamo.
la nota positiva è il prezzo, a parte day one, ma il perf/cost è perfetto tra un mesetto al massimo le reference staranno sui 200~230 e le custom sui 250~280
Grid, ci sei rimasto un po male? Comunque concordo perfettamente, a livello di prestazioni dovremo attendere le versioni custom e i driver per Polaris. Per quanto riguarda i consumi (che sottolineo, non me ne frega un emerita fava) è un fallimento pesante.
Free Gordon
29-06-2016, 22:11
non proprio grazie al AVFS, il voltaggio è praticamente perfetto per le frequenze di clock..
Non intendevo quello...ma questo:
http://www.hwupgrade.it/forum/showpost.php?p=43819526&postcount=31554
Il tizio nel link, dice che la sua regge 1290mhz con 0,1 in meno del def@1266 ;)
AMD si è tenuta molto larga con le tensioni. A questo potrebbe essere dovuto il consumo eccessivo.
Con ste schede stanno facendo cassa, buttano dentro tutti i chip, anche quelli scrausi che non reggono le frequenze target, alzandogli il vgpu.. ;)
Questa spiegazione sui consumi eccessivi, mi soddisfa abbastanza. :fagiano:
Piedone1113
29-06-2016, 22:16
Sempre più simili a delle CPU, queste GPU. :O :D
Mi sembra quasi un coprocessore vettoriale. ☺
Credo che Vega sarà strutturaro diversamente più efficiente ma meno tuttofare.
george_p
29-06-2016, 22:20
Grid, ci sei rimasto un po male? Comunque concordo perfettamente, a livello di prestazioni dovremo attendere le versioni custom e i driver per Polaris. Per quanto riguarda i consumi (che sottolineo, non me ne frega un emerita fava) è un fallimento pesante.
Ma cosa vi aspettavate consumasse 40 w per andare quanto una 390? :D
Il rapporto di cui scrive Grid invece è riferito alla 470 ed è scritto in una delle slide presentate al computex da amd, come riportato da Mitch di B&C.
Il fatto che molti lo avessero associato alla 480 piuttosto che alla 470 è altra cosa.
Non avrà ancora i consumi delle nvidia amd ma la 480 è stata confrontata con una 970 overcloccata, se non sbaglio pure custom (quindi più efficiente) e decisamente molto più rodata lato drivers, al pari delle precedenti sempre amd.
Senza considerare che queste sono pronte per DX 12 mentre ...altre no.
Solo quando i consumi alti sono di nvidia non frega una fava a nessuno e si guardano altre cose :O
Intanto però i prezzi sono tutt'altro pianeta ;)
cdimauro
29-06-2016, 22:22
Mi sembra quasi un coprocessore vettoriale. ☺
A me ricorda Xeon Phi: massiccia unità vettoriale con annessa unità scalare, ampio register set, cache L1 ed L2, e addirittura istruzioni intere con meno di 32 bit (16 bit), tipiche nei CISC. :sofico:
Credo che Vega sarà strutturaro diversamente più efficiente ma meno tuttofare.
La tendenza delle GPU è di diventare sempre più tuttofare. Ecco perché dicevo che sono sempre più simili alle CPU.
george_p
29-06-2016, 22:22
Sempre più simili a delle CPU, queste GPU. :O :D
Perché?
E' cosa buona?
cdimauro
29-06-2016, 22:24
Per me programmatore, sì: è più facile per sfruttarle per fargli fare compiti più generali.
Ovviamente ciò ha un costo, eh!
Non intendevo quello...ma questo:
http://www.hwupgrade.it/forum/showpost.php?p=43819526&postcount=31554
Il tizio nel link, dice che la sua regge 1290mhz con 0,1 in meno del def@1266 ;)
AMD si è tenuta molto larga con le tensioni. A questo potrebbe essere dovuto il consumo eccessivo.
Con ste schede stanno facendo cassa, buttano dentro tutti i chip, anche quelli scrausi che non reggono le frequenze target, alzandogli il vgpu.. ;)
Questa spiegazione sui consumi eccessivi, mi soddisfa abbastanza. :fagiano:
Cavoli ho postato questa possibilità poco fa sul thread "Aspettando" :D
george_p
29-06-2016, 22:28
Per me programmatore, sì: è più facile per sfruttarle per fargli fare compiti più generali.
Ovviamente ciò ha un costo, eh!
Ah ok. Mi viene da pensare che questo faccia parte dei piani HSA di amd e consorzio.
Ma cosa vi aspettavate consumasse 40 w per andare quanto una 390? :D
Il rapporto di cui scrive Grid invece è riferito alla 470 ed è scritto in una delle slide presentate al computex da amd, come riportato da Mitch di B&C.
Il fatto che molti lo avessero associato alla 480 piuttosto che alla 470 è altra cosa.
Non avrà ancora i consumi delle nvidia amd ma la 480 è stata confrontata con una 970 overcloccata, se non sbaglio pure custom (quindi più efficiente) e decisamente molto più rodata lato drivers, al pari delle precedenti sempre amd.
Senza considerare che queste sono pronte per DX 12 mentre ...altre no.
Solo quando i consumi alti sono di nvidia non frega una fava a nessuno e si guardano altre cose :O
Intanto però i prezzi sono tutt'altro pianeta ;)
Il problema sono i consumi rispetto alla 1070. Ripeto, non me ne frega una fava, la acquisterò comunque (o la 470, dipende dalle mie finanze tra un mesetto), pero il rapporto tra i consumi della 480 e della 1070 e le prestazioni è abbastanza impietoso.
Speriamo non siano problemi legati al silicio ma all'architettura GCN, altrimenti siamo di fronte all'ennesimo fail di Goffofoundries
Piedone1113
29-06-2016, 22:36
A me ricorda Xeon Phi: massiccia unità vettoriale con annessa unità scalare, ampio register set, cache L1 ed L2, e addirittura istruzioni intere con meno di 32 bit (16 bit), tipiche nei CISC. :sofico:
La tendenza delle GPU è di diventare sempre più tuttofare. Ecco perché dicevo che sono sempre più simili alle CPU.
Esattamente, ma credo che questo chip andrà in apu (sue evoluzioni in zen+ core) e forse Soc per consolle.
tuttodigitale
29-06-2016, 22:41
La slide riporta che i core Zen siano "6-wide", e dunque abbiano la capacità di eseguire 6 istruzioni per ciclo di clock. Questo cozza con le altre informazioni che circolano, che parlano di core a 4 vie.
ne abbiamo discusso io e bjt2, e siamo arrivati alla conclusione che il 6 wide si riferisca al numero di pipeline integer.
La cache L1 è data come 64K + 64K per codice e dati, quindi come i vecchi Athlon/Athlon64, ma questo si discosta dalle altre informazioni che riportano, invece, 32K + 32K
il 32K+32K, è stato teorizzato da dresdenboy poichè ci sono brevetti AMD sulla cache che riportano quelle dimensioni...in quel caso è più attendibile il CERN
Infine 8MB di cache L3 per 16 core è un valore troppo basso: sarebbero 512KB per core, cioé quanto la cache L2 per core. Considerato che AMD dovrebbe cambiare la gerarchia della cache da esclusiva a inclusiva, la L3 dovrebbe essere più grande della L2 totale per dare un maggior contributo alle prestazioni.
anche perchè con una cache inclusiva non servirebbe a niente...
8MB sono per il modulo, che è composto da 4 core..
il 16 core avrà 32MB di cache l3.
invece non è chiaro ad oggi se l'apu HPC, ma anche quella consumer, avrà o meno la l3...in fin dei conti 512kb di cache l2 per core non sono pochissimi.
Quanto a Doom, si sa quanti FPS generava, a che frequenza girava Zen, e la configurazione hardware utilizzata? Altrimenti sapere che ci gira è del tutto inutile
non lo so.
Per uno step, ce ne vogliono minimo 2, ma si può arrivare tranquillamente anche 3 (non ricordo se si arriva a più di 3), soprattutto coi primi step, che sono decisamente bacati.
considera che è un'architettura nuova che può presentare più di qualche baco...
Sempre più simili a delle CPU, queste GPU. :O :D
soprattutto GCN, e per questo da una parte si pensa che sembrano sempre meno adatte ai giochi...
anche il numero di transistor è molto alto considerando che ci sono la metà di MC e di ROPs, solo 80% di stream processor....5,7 vs 6,2 miliardi...ovvero il 92%....
o c'è qualche CU e ROPs nascosta, o davvero hanno "sprecato" tantissimi transistor per il gpgpu..
EDIT sull'apu HPC da 16 core, oltre ai rumors, anche un progettista di cpu, senza nome (non me lo ricordo) ha teorizzato che sia un puzzle composto da 2 die ZEN e da Polaris...infatti la natura SoC, e il fatto stesso che le HBM2 necessitano dell'interposer rendono poco conveniente, l'approccio monolitico.
paolo.oliva2
29-06-2016, 23:01
Non intendevo quello...ma questo:
http://www.hwupgrade.it/forum/showpost.php?p=43819526&postcount=31554
Il tizio nel link, dice che la sua regge 1290mhz con 0,1 in meno del def@1266 ;)
AMD si è tenuta molto larga con le tensioni. A questo potrebbe essere dovuto il consumo eccessivo.
Con ste schede stanno facendo cassa, buttano dentro tutti i chip, anche quelli scrausi che non reggono le frequenze target, alzandogli il vgpu.. ;)
Questa spiegazione sui consumi eccessivi, mi soddisfa abbastanza. :fagiano:
Io non seguo le VGA e quindi non so una mazza di sigle e quant'altro. Ma se ho capito bene, non hanno semplicemente fatto il passaggio sul 14nm non cambiando nulla?
Secondo me ci può stare un leggero overvolt a scapito dei consumi ma a pro del prezzo, in fin dei conti cosi non deve spendere di più nella selezione e comunque il 14nm da margine.
Secondo me AMD tira a fare legna, per me AMD non ha il tempo per affinare silicio, non ha i soldi e ha una gran fretta di mettere in commercio prodotti sia per incassare e sia per dare una base certa e credibile che il 14nm esiste.
tuttodigitale
29-06-2016, 23:03
Non intendevo quello...ma questo:
http://www.hwupgrade.it/forum/showpost.php?p=43819526&postcount=31554
Il tizio nel link, dice che la sua regge 1290mhz con 0,1 in meno del def@1266 ;)
AMD si è tenuta molto larga con le tensioni. A questo potrebbe essere dovuto il consumo eccessivo.
Con ste schede stanno facendo cassa, buttano dentro tutti i chip, anche quelli scrausi che non reggono le frequenze target, alzandogli il vgpu.. ;)
Questa spiegazione sui consumi eccessivi, mi soddisfa abbastanza. :fagiano:
avevo letto su altri lidi, che non si poteva occare senza cambiare tensione...d'altra parte anche le slide di AMD mi hanno portato a pensare, che AMD non si sia tenuta larga con le tensioni.
L'importante è che risolvano per Vega.
Secondo me AMD tira a fare legna, per me AMD non ha il tempo per affinare silicio, non ha i soldi e ha una gran fretta di mettere in commercio prodotti sia per incassare e sia per dare una base certa e credibile che il 14nm esiste.
fino a ieri proponeva, nella fascia dei 300 euro in giù, schede del 2011. E considerando che è li dove si fanno i soldi, AMD ha quantomeno cercato di mettere una pezza con prodotti meno costosi da produrre...alla fine è uscito un prodotto con un rapporto prezzo/prestazioni molto buono.
george_p
29-06-2016, 23:06
Il problema sono i consumi rispetto alla 1070. Ripeto, non me ne frega una fava, la acquisterò comunque (o la 470, dipende dalle mie finanze tra un mesetto), pero il rapporto tra i consumi della 480 e della 1070 e le prestazioni è abbastanza impietoso.
Speriamo non siano problemi legati al silicio ma all'architettura GCN, altrimenti siamo di fronte all'ennesimo fail di Goffofoundries
Come sarà pietoso per la 1070 con le DX 12 :D
capitan_crasy
29-06-2016, 23:36
Visto il FO4 e il Vcore di queste GPU, a me quello che preme è la frequenza a parità di transistors e potenza dissipata e secondariamente il Vcore, per vedere quanto si è tirati... A quale modello TONGA è paragonabile come numero di transistors, o almeno shader? Che potenza? Che frequenza? Che vcore?
Avevamo fatto qualche pagina indietro il conto: a parità di transistors, +20% di frequenza anche a parità di potenza dissipata e -0.05V di Vcore.
Per quanto riguarda Zen, siccome a 28nm non c'è qualcosa di paragonabile a Zen come numero di transistors, si prende o uno XV x4 a 25W e si aggiunge un 20% di frequenza, o un BD (non ricordo l'ultimo sul 28nm, mi pare piledriver) x8 a 45W (se esiste) e si aggiunge il 20% di frequenza...
http://i.imgur.com/LccX33i.jpg
Per ZEN intendevo un rapporto prezzo/prestazioni/consumo molto simile a Polaris; per le CPU "costose" bisognerà aspettare...
Free Gordon
29-06-2016, 23:46
Sempre più simili a delle CPU, queste GPU. :O :D
Naaa, solo GCN. :D
Maxwell (e anche Pascal) sono molto più semplici..
Free Gordon
29-06-2016, 23:47
Mi sembra quasi un coprocessore vettoriale. ☺
Credo che Vega sarà strutturaro diversamente più efficiente ma meno tuttofare.
Hmm..purtroppo no. E' da GCN1 che hanno quello schema.. ;)
Il problema "grosso" di GCN è proprio quello: è nata per "Fusion" e per le console. :)
Free Gordon
29-06-2016, 23:50
Cavoli ho postato questa possibilità poco fa sul thread "Aspettando" :D
Ho visto. :D
Free Gordon
29-06-2016, 23:53
Secondo me AMD tira a fare legna, per me AMD non ha il tempo per affinare silicio, non ha i soldi e ha una gran fretta di mettere in commercio prodotti sia per incassare e sia per dare una base certa e credibile che il 14nm esiste.
Con Polaris questo è certo l'obiettivo principale :) resta da vedere se ci riesce con questo progetto oppure no...
Se riescono a tenere i prezzi sui 250, anche delle custom (una volta assestati), allora ne venderanno a vagonate.
digieffe
30-06-2016, 00:30
Infine 8MB di cache L3 per 16 core è un valore troppo basso: sarebbero 512KB per core, cioé quanto la cache L2 per core. Considerato che AMD dovrebbe cambiare la gerarchia della cache da esclusiva a inclusiva, la L3 dovrebbe essere più grande della L2 totale per dare un maggior contributo alle prestazioni.
la L3 pur essendo delle stesse dimensioni della L2 (quindi essendo inclusiva con lo stesso contenuto) potrebbe servire per "spiare e comunicare" (snooping?) il contenuto delle cache degli altri core lasciando libera la L2
cdimauro
30-06-2016, 06:16
ne abbiamo discusso io e bjt2, e siamo arrivati alla conclusione che il 6 wide si riferisca al numero di pipeline integer.
Mah. Non credo che abbiano commesso un errore madornale come quello di contare soltanto le porte per gli interi, peraltro trascurando del tutto quelle FP che sono quelle più interessanti proprio per i tipi di calcoli che si fanno al CERN.
Inoltre in letteratura wide si usa per indicare il numero di istruzioni che sono decodificate e/o eseguite (quindi nemmeno uop: sono istruzioni dell'ISA).
Questa cosa, insomma, mi puzza abbastanza, ma considerato che AMD parla del 40% di IPC in più, potrebbe esserne proprio la chiave di lettura.
il 32K+32K, è stato teorizzato da dresdenboy poichè ci sono brevetti AMD sulla cache che riportano quelle dimensioni...in quel caso è più attendibile il CERN
Può essere, perché i brevetti, alla fine, possono riportare degli esempi di utilizzo, ma l'implementazione dell'idea potrebbe benissimo avere "misure" diverse.
Come mai ritieni più attendibile l'informazione del CERN? Perché AMD ritorna al design che l'ha resa celebre, con K7 e K8 aventi ben 64+64 KB di cache L1?
anche perchè con una cache inclusiva non servirebbe a niente...
8MB sono per il modulo, che è composto da 4 core..
il 16 core avrà 32MB di cache l3.
Esattamente: è proprio questo che fa storcere il naso. La trovo di poca utilità, anche se c'è da dire che a 14nm quegli 8MB di cache L3 occupano poco spazio rispetto al resto del chip.
D'altra parte mi pare che Apple con l'A9X abbia del tutto rimosso la cache L3, se la memoria non m'inganna, e le prestazioni non sono calate di molto (vista la generosa e veloce cache L2).
invece non è chiaro ad oggi se l'apu HPC, ma anche quella consumer, avrà o meno la l3...in fin dei conti 512kb di cache l2 per core non sono pochissimi.
No, ma bisogna vedere com'è fatta la componente GPU integrata: quanta cache L2 ha per i core, e se sono in grado di farcela senza l'appoggio della L3.
Le GPU, lo sappiamo, sono affamatissime di banda, ed è anche il motivo per cui, oltre alla generosa L3, le CPU Intel top di gamma montano 64 o ben 128MB di cache L4 (che però, come la L3, viene usata anche dalla CPU).
soprattutto GCN, e per questo da una parte si pensa che sembrano sempre meno adatte ai giochi...
anche il numero di transistor è molto alto considerando che ci sono la metà di MC e di ROPs, solo 80% di stream processor....5,7 vs 6,2 miliardi...ovvero il 92%....
o c'è qualche CU e ROPs nascosta, o davvero hanno "sprecato" tantissimi transistor per il gpgpu..
Propendo per la seconda, ed è una cosa che è davvero strana: è da anni che, IMO, AMD sbaglia a seguire questa strada.
Dovrebbe realizzare core GPU orientati esclusivamente all'elaborazione della grafica, come fa nVidia.
Il GPGPU computing in ambito consumer non ha preso piede, ed è ben lungi dal farlo solo perché AMD presenta GPU con buone capacità in tal senso.
Ha senso soltanto per il settore HPC e per particolari tipologie di server, e dunque in settori molto redditizi dove si può permettere di sviluppare apposite varianti.
EDIT sull'apu HPC da 16 core, oltre ai rumors, anche un progettista di cpu, senza nome (non me lo ricordo) ha teorizzato che sia un puzzle composto da 2 die ZEN e da Polaris...infatti la natura SoC, e il fatto stesso che le HBM2 necessitano dell'interposer rendono poco conveniente, l'approccio monolitico.
Quindi ci sarà l'HBM2 integrata? Non so, a questo punto, quanto senso abbia integrare ben 2 die ZEN, quando la parte del leone dovrebbe farla la GPU integrata, che non ha problemi a gestire basse latenze di accesso alla memoria, e bus molto ampi.
Roba che, insomma, non è molto affine ai core di una CPU, che sono pensati per lavorare in maniera quasi diametralmente opposta.
IMO avrebbero fatto meglio a piazzare un piccolo core x86 di controllo/supporto, lasciando la maggior parte del silicio alla GPU.
Mie personalissime riflessioni, come sempre.
Naaa, solo GCN. :D
Maxwell (e anche Pascal) sono molto più semplici..
In tutta onestà, e come già detto (ma non da ora), fa benissimo così.
la L3 pur essendo delle stesse dimensioni della L2 (quindi essendo inclusiva con lo stesso contenuto) potrebbe servire per "spiare e comunicare" (snooping?) il contenuto delle cache degli altri core lasciando libera la L2
Il processore ha già logica di bus snooping (o simile) a prescindere, perché rimangono comunque le cache L1 e L2 che devono essere coerenti con quanto presente in memoria o sulle cache degli altri core.
A me ricorda Xeon Phi: massiccia unità vettoriale con annessa unità scalare, ampio register set, cache L1 ed L2, e addirittura istruzioni intere con meno di 32 bit (16 bit), tipiche nei CISC. :sofico:
La tendenza delle GPU è di diventare sempre più tuttofare. Ecco perché dicevo che sono sempre più simili alle CPU.
Per me programmatore, sì: è più facile per sfruttarle per fargli fare compiti più generali.
Ovviamente ciò ha un costo, eh!
Da poco più di 2 anni abbiamo comprato un sistema socket 2011 in un rack 19" con 2 GTX 690 in SLI, viste come 4 GPU. Le usiamo per il GPGPU e mi sono studiato l'architettura. Anche li (e che io sappia anche in architetture precedenti) c'è una unità scalare, mi pare 4 ogni 192. Sono usate anche per le funzioni trascendenti. Il filtro Non Local Mean che abbiamo implementato, usa exp e mi ero fatto il calcolo per vedere se eravamo limitati da quello. Purtroppo siamo limitati dalla banda L1 (neanche da quella RAM) perchè l'algoritmo è abbastanza semplice (ma non troppo semplice da essere limitati dalla banda RAM).
http://i.imgur.com/LccX33i.jpg
Per ZEN intendevo un rapporto prezzo/prestazioni/consumo molto simile a Polaris; per le CPU "costose" bisognerà aspettare...
Quindi siamo passati da 190W@970MHz per 2048 shader a 150W@1265MHz per 2304 shader... E c'è chi non è contento? Andiamo bene! Questo fa ben sperare per Zen. +30% di clock, +15% di shaders e -20% di TDP...
Naaa, solo GCN. :D
Maxwell (e anche Pascal) sono molto più semplici..
Hmm..purtroppo no. E' da GCN1 che hanno quello schema.. ;)
Il problema "grosso" di GCN è proprio quello: è nata per "Fusion" e per le console. :)
Vedi sopra...
Mah. Non credo che abbiano commesso un errore madornale come quello di contare soltanto le porte per gli interi, peraltro trascurando del tutto quelle FP che sono quelle più interessanti proprio per i tipi di calcoli che si fanno al CERN.
Inoltre in letteratura wide si usa per indicare il numero di istruzioni che sono decodificate e/o eseguite (quindi nemmeno uop: sono istruzioni dell'ISA).
Questa cosa, insomma, mi puzza abbastanza, ma considerato che AMD parla del 40% di IPC in più, potrebbe esserne proprio la chiave di lettura.
Può essere, perché i brevetti, alla fine, possono riportare degli esempi di utilizzo, ma l'implementazione dell'idea potrebbe benissimo avere "misure" diverse.
Come mai ritieni più attendibile l'informazione del CERN? Perché AMD ritorna al design che l'ha resa celebre, con K7 e K8 aventi ben 64+64 KB di cache L1?
Esattamente: è proprio questo che fa storcere il naso. La trovo di poca utilità, anche se c'è da dire che a 14nm quegli 8MB di cache L3 occupano poco spazio rispetto al resto del chip.
D'altra parte mi pare che Apple con l'A9X abbia del tutto rimosso la cache L3, se la memoria non m'inganna, e le prestazioni non sono calate di molto (vista la generosa e veloce cache L2).
No, ma bisogna vedere com'è fatta la componente GPU integrata: quanta cache L2 ha per i core, e se sono in grado di farcela senza l'appoggio della L3.
Le GPU, lo sappiamo, sono affamatissime di banda, ed è anche il motivo per cui, oltre alla generosa L3, le CPU Intel top di gamma montano 64 o ben 128MB di cache L4 (che però, come la L3, viene usata anche dalla CPU).
Propendo per la seconda, ed è una cosa che è davvero strana: è da anni che, IMO, AMD sbaglia a seguire questa strada.
Dovrebbe realizzare core GPU orientati esclusivamente all'elaborazione della grafica, come fa nVidia.
Il GPGPU computing in ambito consumer non ha preso piede, ed è ben lungi dal farlo solo perché AMD presenta GPU con buone capacità in tal senso.
Ha senso soltanto per il settore HPC e per particolari tipologie di server, e dunque in settori molto redditizi dove si può permettere di sviluppare apposite varianti.
Quindi ci sarà l'HBM2 integrata? Non so, a questo punto, quanto senso abbia integrare ben 2 die ZEN, quando la parte del leone dovrebbe farla la GPU integrata, che non ha problemi a gestire basse latenze di accesso alla memoria, e bus molto ampi.
Roba che, insomma, non è molto affine ai core di una CPU, che sono pensati per lavorare in maniera quasi diametralmente opposta.
IMO avrebbero fatto meglio a piazzare un piccolo core x86 di controllo/supporto, lasciando la maggior parte del silicio alla GPU.
Mie personalissime riflessioni, come sempre.
In tutta onestà, e come già detto (ma non da ora), fa benissimo così.
Il processore ha già logica di bus snooping (o simile) a prescindere, perché rimangono comunque le cache L1 e L2 che devono essere coerenti con quanto presente in memoria o sulle cache degli altri core.
Interessante! :D Se 6 wide vuol dire che ha 6 decoder, è una ottima notizia... Daltronde un modulo XV ne ha 8 per 2 thread, ma 4+4, quindi 6 decoder, magari unificati, per la teoria delle code non è tanto peggio di un 4+4!
tuttodigitale
30-06-2016, 07:09
Mah. Non credo che abbiano commesso un errore madornale come quello di contare soltanto le porte per gli interi, peraltro trascurando del tutto quelle FP che sono quelle più interessanti proprio per i tipi di calcoli che si fanno al CERN.
nelle patch i decoder risultato 4.. in effetti se si riferissero al wide-dispatch sarebbe molto più stretta di quello che siamo pensati a pensare.
Inoltre in letteratura wide si usa per indicare il numero di istruzioni che sono decodificate e/o eseguite (quindi nemmeno uop: sono istruzioni dell'ISA).
per wide in letteratura si può intendere qualsiasi cosa....per quel che ne sappiamo potrebbe essere un 6 wide-issue OoO :D e la cosa avrebbe anche il suo senso...
aggiungo un dato: il fattore di scaling dai 28 ai 14nm per le gpu AMD è pari a solo a 1,7x...se questo fosse vero anche per la CPU il die ZEN sarebbe grande 251mmq.
tuttodigitale
30-06-2016, 07:54
Come mai ritieni più attendibile l'informazione del CERN? Perché AMD ritorna al design che l'ha resa celebre, con K7 e K8 aventi ben 64+64 KB di cache L1?
No. Perchè c'è la possibilità che il CERN abbia avuto informazioni aggiuntive. Tutto qui.
Esattamente: è proprio questo che fa storcere il naso. La trovo di poca utilità, anche se c'è da dire che a 14nm quegli 8MB di cache L3 occupano poco spazio rispetto al resto del chip.
non capisco è troppa o troppo poca. Alla fine sono 2MB vs 2,5MB degli XEON Intel...non vedo sta grande differenza.
Se invece ti riferisci alle dimensioni della L2, potrebbe anche essere dovuta ad algoritmi non infallibili per la predizione dei rami, a pensar male..
Dovrebbe realizzare core GPU orientati esclusivamente all'elaborazione della grafica, come fa nVidia.
auspichi un ritorno al vliw?
No, ma bisogna vedere com'è fatta la componente GPU integrata: quanta cache L2 ha per i core, e se sono in grado di farcela senza l'appoggio della L3
l'esperto sei tu, ma non penso che sia così determinante il quantitativo di l2...comunque sono 64-128KB per CU a seconda della GPU. AMD parla di modulo ZEN, quindi sono in parte tentato a pensare che la l3 sarà sempre presente...
Quindi ci sarà l'HBM2 integrata?.
pare proprio di si. Anzi credo che il fine ultimo dello sviluppo delle HBM sia proprio il mercato server.
la L3 pur essendo delle stesse dimensioni della L2 (quindi essendo inclusiva con lo stesso contenuto) potrebbe servire per "spiare e comunicare" (snooping?) il contenuto delle cache degli altri core lasciando libera la L2
di solito è contro indicato avere cache inclusive delle stesse dimensioni, e si usa una victim cache.
ma nel caso di ZEN abbiamo un modulo
4 core
L2 512KB ciascuno (2MB complessivi)
L3 8MB condivisi.
tuttodigitale
30-06-2016, 08:10
si ma non devi migliorare solo te stesso, ma anche rispetto alla concorrenza, quanto meno stare al passo lato efficienza.
in realtà non ha neppure migliorata se stessa...
è riuscita "solo" ad aumentare il clock del 25% senza perdere in efficienza. Un pò troppo poco...vedi la fury
https://tpucdn.com/reviews/AMD/RX_480/images/perfwatt_2560_1440.png
pare proprio di si. Anzi credo che il fine ultimo dello sviluppo delle HBM sia proprio il mercato server.
Avevo dimenticato l'HBM... :D Ricordo che le memorie HBM hanno un protocollo compatibile con le DDR3/4. In realtà ogni chip HBM ha semplicemente 8 controller da 128 bit (per un totale di 1024bit) a 500*2 (HBM) e 1000*2 (HBM2) MT/s, con un protocollo praticamente identico al DDR4. Quindi una eventuale APU con 4-8 core Zen, una GPU e anche un solo modulo HBM2 avrebbe la potenzialità per essere un multithreading monster. Se poi l'interleaving è fatto bene, si potrà avere anche un discreto boost in ST... Perciò non pensiamo che le HBM vadano bene solo per la grafica... Non sono ad alta latenza. Sono semplicemente 8*2 canali DDR4 2000 in parallelo per ogni chip. In pratica una APU con un solo chip HBM2 equivale a una APU con 16 controller DDR4, però limitati a DDR4 2000...
si ma non devi migliorare solo te stesso, ma anche rispetto alla concorrenza, quanto meno stare al passo lato efficienza.
+25% di clock a parità di architettura, transistors e potenza dissipata (in realtà la potenza è di meno) è in linea con le promesse di un die shrink quando si è al limite... Il +35% di clock o -70% di consumo sono risultati che si ottengono in prodotti poco spinti.
Su twitter Dresdenboy parla di OC di fabbrica per le versioni custom tra 1480 e 1600MHz... (https://twitter.com/Dresdenboy/status/748272971945492480) e questo la dice lunga sul margine che si sono presi.
In questo (https://youtu.be/24rFeHo1S-o?t=16m47s) video il tizio dice esplicitamente che le hanno progettate così su richieste degli OEM (il TDP ecc) e che se le avessero progettate per il retail le avrebbero fatte diverse (probabilmente TDP più elevato)
in realtà non ha neppure migliorata se stessa...
è riuscita "solo" ad aumentare il clock del 25% senza perdere in efficienza. Un pò troppo poco...vedi la fury
https://tpucdn.com/reviews/AMD/RX_480/images/perfwatt_2560_1440.png
Avere le performace per watt di un chip con 4096 shader, che essendo di più possono essere clockati bassi, con 2304 shader, giocoforza più tirati, non è male.
Ricordo che nel campo GPU, per le prestazioni e i consumi è meglio N shader a X MHz, che N/2 shader a X*2 MHz, perchè per il consumo sale tra il quadrato e il cubo della frequenza...
L'unico svantaggio di un mostro da 4096 shader è l'area e quindi il costo. Infatti Fiji costa molto di più...
Quando faranno un chip da 4096 shader, potranno arrivare a 1150-1200MHz con 250-300W e allora avremo prestazioni/Watt superiori...
leoneazzurro
30-06-2016, 09:50
Il consumo in teoria salirebbe linearmente con la frequenza, tuttavia dato un certo processo produttivo per innalzare la frequenza di lavoro a parità di architettura devi anche alzare i voltaggi ed il consumo varia all'incirca con il quadrato della tensione di alimentazione.
Il consumo in teoria salirebbe linearmente con la frequenza, tuttavia dato un certo processo produttivo per innalzare la frequenza di lavoro a parità di architettura devi anche alzare i voltaggi ed il consumo varia all'incirca con il quadrato della tensione di alimentazione.
In realtà, ammettendo di salire linearmente la tensione al salire della frequenza, sarebbe il cubo, però l'intercetta non è a zero, ma alla Vthreshold, poi c'è il leakage che è esponenziale con la tensione e la temperatura e quindi in sostanza si ha un po' più del quadrato ma meno (si spera, altrimenti vuol dire che il leakage è fuori controllo) del cubo.
tuttodigitale
30-06-2016, 10:33
non consideri che usa le hbm
le HBM non stravolgono i parametri, soprattutto a queste capacità.
che come dice bjt2 anche nvidia con la 960 piccolina perde efficienza rispetto la fascia alta/estrema di maxwell addirittura la 980 segna +30% in efficienza sulla 960!
è un altro aspetto da considerare...la rx480 è disponibile in molti negozi....anche se limitatamente alla versione da 8GB...è un hard launch..:read:
paolo.oliva2
30-06-2016, 10:42
In ogni caso, secondo me AMD su Zen (inteso come base modulo) credo abbia ricercato la massima potenza possibile ma con concetto polivalente, nel senso che L1/L2, come dimensioni, saranno le stesse sia in veste APU (con o senza L3) che in veste FX/Opteron.
Quindi credo che il modulo Zen con 4 core sia universale e non abbia soluzioni specifiche, quindi secondo me la L2 avrà una dimensione a via di mezzo tra assicurare un funzionamento ai core anche senza L3, meglio se con L3.
Poi secondo me Zen va visto nel contesto attuale, male male che andrà, AMD offrirà una potenza a die più che doppia vs FX 32nm (Zen X8+8 vs PD X8) e di qui sui 5X come Opteron (Zen X32+32 vs Opteron X16). E' plausibile che AMD adotti la medesima strategia delle VGA (anche se Zen non è certamente un PD portato sul 14nm), ma per me, come con le VGA, volente o nolente deve sfruttare la paritá odierna sulla miniaturizzazione silicio, che comporta costi die simili alla concorrenza da una parte che anche TDP/prestazioni dall'altra. Poi non frega una tozza dove Zen si posizionerá come potenza vs Intel, ma ben di più come prezzo/prestazioni.
Non dimentichiamoci che AMD come proprio costo/prestazioni avrà un salto pazzesco, perché a mmq silicio (320mmq 8350 vs Zen al max 250mm2), il 14nm otterrebbe un salto di 3X come prestazioni sulla stessa superficie wafer. In poche parole ciò permetterebbe ad AMD di triplicare i guadagni pur mantenendo lo stesso prezzo/prestazioni di un 8350.
capitan_crasy
30-06-2016, 11:25
Il consumo in teoria salirebbe linearmente con la frequenza, tuttavia dato un certo processo produttivo per innalzare la frequenza di lavoro a parità di architettura devi anche alzare i voltaggi ed il consumo varia all'incirca con il quadrato della tensione di alimentazione.
BENTORNATO leoneazzurro!!!:ave: :winner:
E un autentico piacere rivederti!:D :cincin:
digieffe
30-06-2016, 12:00
ma nel caso di ZEN abbiamo un modulo
4 core
L2 512KB ciascuno (2MB complessivi)
L3 8MB condivisi.
sbaglio o nei dati riportati dice che la "apu" da 16 core porta 512kb di L3 per core?
leoneazzurro
30-06-2016, 12:01
BENTORNATO leoneazzurro!!!:ave: :winner:
E un autentico piacere rivederti!:D :cincin:
Grassie, in realtà lurko qua e là ma intervengo poco anche perchè vedo troppo fanboyismo in giro e la cosa sinceramente tende a disturbarmi un po' - a me piacciono le dscussioni tecniche ma spesso (ma non è solo un problema di questo forum) si parte col tifo e basta, vedi la diatriba a proposito della RX480 che tutto sommato è un buon prodotto, basta capire che:
- non è una scheda di punta ma doveva sotituire la R380X
- Il marketing AMD dava incrementi di perf/W "up to" 2,8x della nuova architettura + processo produttivo rispetto alla precedente implementazione della stessa AMD (non ha mai fatto paragoni con Nvidia), il che signfica "fino a". Dato che una scheda RX480 consuma in media la metà di una 390 con 4 gb di memoria in più (che a quanto sappia corrispondono a circa 10-15W solo loro) facendo all'incirca gli stessi FPS e che esisteranno implementazioni meno esose di Polaris, il claim dovrebbe anche essere veritiero. Che poi Polaris 10 nell'mplementazione vista sin ora sia solo un pò più efficiente di un chip Maxwell le non certo di Pascal è reale.
- I prezzi vanno paragonati mele con mele e non mele con arance
Il problema più grosso che ha RX480 è che a quanto vedo hanno cannato il design del PCB, è assurdo che assorba più potenza dal bus PCI-E che dal connettore a 6 pin, e non è un problema che si risolva con un aggiornamento del BIOS. Dovrebbe essere risolto con le versioni custom, ma è brutto vedere delle "cadute" del genere, è capacissimo che abbiano dato lo sviluppo del PCB in outsourcing...
Detto ciò, fare paragoni tra Zen e Polaris anche se prodotti da GF entrambi è un pò come fare paragoni tra le famose mele e arance di cui sopra. E' possibilissimo che i problemi storici dei processi di produzione di GF si ripercuotano anche su ZEN, tuttavia lo sviluppo di CPU e GPU è fondamentalmente differente. Le CPU tendono ad avere relativamente poche unità di elaborazione ad alte frequenze mentre le GPU sono massicciamente parallele a frequenze decisamente inferiori. Ne consegue che, anche se è vero che per certi versi le GPU stanno diventando va via più "general purpose" è anche vero che le ottimizzazoni a livello di unità e di processo sono completamente diverse.
capitan_crasy
30-06-2016, 12:06
Quindi siamo passati da 190W@970MHz per 2048 shader a 150W@1265MHz per 2304 shader... E c'è chi non è contento? Andiamo bene! Questo fa ben sperare per Zen. +30% di clock, +15% di shaders e -20% di TDP...
Ricordando che questa scheda da poco più di 200 euro (versione 4GB) in media batte una R9 290 consumando la metà! (fonte techpowerup (https://www.techpowerup.com/reviews/AMD/RX_480/22.html))
Ok che con AMD non si è mai contenti ma in questo caso c'è da essere più che soddisfatti dal lavoro svolto sul silicio e ricordiamo che Polaris è la primissima GPU con i 14nm FinFet...
Grassie, in realtà lurko qua e là ma intervengo poco anche perchè vedo troppo fanboyismo in giro e la cosa sinceramente tende a disturbarmi un po' - a me piacciono le dscussioni tecniche ma spesso (ma non è solo un problema di questo forum) si parte col tifo e basta, vedi la diatriba a proposito della RX480...
cut...
EE già..come non quotarti...e lo stesso comportamento mio che assumo da un pò di tempo ormai.
Quello della RX480 è solo l'ultimo alibi per scatenare battibecchi utili come una capra sulla luna, oltretutto argomento (questo ultimo) OT in codesto thread. Non ci si capisce più niente. Alcuni post utili, tecnici, davvero buoni da leggere e comprendere, fatti da esperti qui dentro, vengono poi sotterrati da n.mila minkiate stratosferiche. E ancora è nulla: in base alla mia esperienza nei thread passati relativi a questo argomento, vedrai dopo l'uscita di Zen, i più promettenti troller laureati in "trolleria sociale" con specializzazione in "ignoranza informatica", come gli scarafaggi infesteranno il thread, ognuno con i loro post inutili e basati sulla fanta-informatica. Ecco perchè sono sempre più convinto che fino all'arrivo di ZEN dovrebbe rimanere valida questa funzione (http://www.hwupgrade.it/forum/showpost.php?p=43807225&postcount=4213).
Pazienza :nono:
paolo.oliva2
30-06-2016, 14:31
Quindi... Sto 14nm GF ha rispettato quanto annunciato? Da quello che ho capito, è come se si fosse paragonato un X4 ad un X8 e tratto le conclusioni sull'efficienza a parità di prestazioni.
L'OC fino a 1,6GHz (o più) di sta VGA sul 14nm, com'è? Buono?
È possibile a spannella fare un confronto con CPU? (Anche tenendo conto quanto ha postato leone azzurro, che saluto)
tuttodigitale
30-06-2016, 15:00
sbaglio o nei dati riportati dice che la "apu" da 16 core porta 512kb di L3 per core?
IMHO
l'apu HPC non sarà un die monolitico, ma userà i veloci bus GMI per collegare una GPU con HBM....per tanto prenderanno i die ZEN così come sono..
viste le potenze in gioco, 4-5 teraflops secondo i rumors, potrebbe persino essere Polaris 10...2MC per le HBM dovrebbe essere grandi meno di 3MC (192 bit) per gddr5....effettivamente potrebbe già essere integrato..
ci vorrebbe un die shot per togliersi il dubbio....ma per il momento non ci sono motivi per i quali non si debba pensare che Polaris sia HBM-ready
leoneazzurro
30-06-2016, 15:11
No, non è possibile fare un confronto tra GPU e CPU, sono troppo diversi a livello di architettura e di design. Basta tenere conto del fatto che una GPU come RX480 "gira" intorno al GHz con voltaggi di poco superiori al volt, una CPU come Zen dovrà giocoforza avere frequenze superiori a 3 GHz con voltaggi simili o inferiori, è chiaro quindi che persino il design stesso dei transistors dovrà essere differente.
Come non è possibile colpevolizzare solo il processo di GF per i consumi relativamente elevati di GCN (RX480), ricordiamo che le precedenti iterazioni dell'architettura sono state realizzate dagli stessi fornitori di Nvidia ma con risultati estremamente differenti in termini di consumi: risulta quindi chiaro che l'architettura ha la sua responsabilità. Probabilmente Nvidia ha un livello e una granularità del power gating superiore, quanto questo dipenda dalla struttura intrinseca degli SP non è dato saperlo.
In sintesi: per sapere come andrà Zen a livello di consumi... toccherà aspettare che esca.
IMHO
l'apu HPC non sarà un die monolitico, ma userà i veloci bus GMI per collegare una GPU con HBM....per tanto prenderanno i die ZEN così come sono..
viste le potenze in gioco, 4-5 teraflops secondo i rumors, potrebbe persino essere Polaris 10...2MC per le HBM dovrebbe essere grandi meno di 3MC (192 bit) per gddr5....effettivamente potrebbe già essere integrato..
ci vorrebbe un die shot per togliersi il dubbio....ma per il momento non ci sono motivi per i quali non si debba pensare che Polaris sia HBM-ready
http://www.pcgameshardware.de/screenshots/1020x/2016/06/Polaris-P10-Die-Shot-pcgh.jpg
Niente HBM2 e credo nemmeno FP64 1/4 rate su RX480. Non esiste nemmeno la versione 40CU destinata ad apple.(sono 36 precisi)
Probabilmente useranno vega con 2048bit di bus HBM2.
tuttodigitale
30-06-2016, 15:21
No, non è possibile fare un confronto tra GPU e CPU, sono troppo diversi a livello di architettura e di design. Basta tenere conto del fatto che una GPU come RX480 "gira" intorno al GHz con voltaggi di poco superiori al volt, una CPU come Zen dovrà giocoforza avere frequenze superiori a 3 GHz con voltaggi simili o inferiori, è chiaro quindi che persino il design stesso dei transistors dovrà essere differente.
.
Non è proprio vero....i transistor veloci servono anche per le GPU...vedi utilizzi di transistor RVT...con questi transistor con librerie HDL, vedi il grafico che ha nella firma bjt2, una cpu con fo4 alto può girare anche a 3GHz...
Come non è possibile colpevolizzare solo il processo di GF per i consumi relativamente elevati di GCN (RX480), ricordiamo che le precedenti iterazioni dell'architettura sono state realizzate dagli stessi fornitori di Nvidia ma con risultati estremamente differenti in termini di consumi: risulta quindi chiaro che l'architettura ha la sua responsabilità. Probabilmente Nvidia ha un livello e una granularità del power gating superiore, quanto questo dipenda dalla struttura intrinseca degli SP non è dato saperlo.
l'architettura mi pare un "pochino" sbilanciata lato shader....ancora di più di Fiji (ma in quel caso Raja koduri ha dato la colpa alle dimensioni dell'interposer)...sicuri che sia pensata per il gioco? :cool:
In sintesi: per sapere come andrà Zen a livello di consumi... toccherà aspettare che esca.
questo è sicuro
Free Gordon
30-06-2016, 15:22
In tutta onestà, e come già detto (ma non da ora), fa benissimo così.
Dati i risultati finanziari, mi sa che hai ragione..
Free Gordon
30-06-2016, 15:27
Quindi... Sto 14nm GF ha rispettato quanto annunciato? Da quello che ho capito, è come se si fosse paragonato un X4 ad un X8 e tratto le conclusioni sull'efficienza a parità di prestazioni.
L'OC fino a 1,6GHz (o più) di sta VGA sul 14nm, com'è? Buono?
È possibile a spannella fare un confronto con CPU? (Anche tenendo conto quanto ha postato leone azzurro, che saluto)
Paolo...se le custom arrivano a 1,6...l'oc sarà mostruoso. :D
Io credo staranno più in basso, verso i 1500 massimi..
Capacissima di prendere la FuryX in alcuni scenari la 480 a quella frequenza :sofico:
leoneazzurro
30-06-2016, 15:31
Non è proprio vero....i transistor veloci servono anche per le GPU...vedi utilizzi di transistor RVT...con questi transistor con librerie HDL, vedi il grafico che ha nella firma bjt2, una cpu con fo4 alto può girare anche a 3GHz...
Può, ma io sto facendo il raffronto tra Polaris e Zen. Polaris non gira a 3 GHz nè può realistcamente arrivarci. Zen dovrà girare a più di 3 Ghz come base.
Ovvio che FO4 e contorno sono radicalmente diversi. Cercare di stimare il consumo di Zen a partire da Polaris è un po' come stimare il consumo di un Qualcomm 820 a partire da una GTX1080.
Può, ma io sto facendo il raffronto tra Polaris e Zen. Polaris non gira a 3 GHz nè può realistcamente arrivarci. Zen dovrà girare a più di 3 Ghz come base.
Ovvio che FO4 e contorno sono radicalmente diversi. Cercare di stimare il consumo di Zen a partire da Polaris è un po' come stimare il consumo di un Qualcomm 820 a partire da una GTX1080.
Nvidia è aumentata del +50% sotto gli 0.85-0.87 volt.
Polaris è una piaga anche con bassi voltaggi.
Le architetture di partenza non hanno subito stravolgimenti, quindi qualcosa in AMD non va...
A questo punto il 14nm LPP è il peggiore del lotto, anche TSMC è avanti. (non credo sia il SOLO colpevole)
Il 16nm TSMC ha varianti HP o HPL/HPM ?
tuttodigitale
30-06-2016, 15:48
http://www.pcgameshardware.de/screenshots/1020x/2016/06/Polaris-P10-Die-Shot-pcgh.jpg
Niente HBM2 e credo nemmeno FP64 1/4 rate su RX480. Non esiste nemmeno la versione 40CU destinata ad apple.(sono 36 precisi)
Probabilmente useranno vega con 2048bit di bus HBM2.
da qualche parte i transistor sono andati...visto che Hawaii è in grado di fare fp64 ad 1/2 fp32.
PS intorno al circuito non ci sono solo i MC gddr5. I componenti sulla destra cosa sono?
???
a me risulta che l'aumento di efficienza tra hawaii/polaris è lo stesso tra maxwell/pascal
io darei più la colpa alle tensioni elevate a stock per vendere più chip possibili senza selezionare gli asic come le verdi (hard launch), calore alto per la reference e all'architettura.
non iniziamo già a dire che il silicio fa schifo, senza una controprova.
Guardati le curve di clock/volt di Polaris/Pascal...
Polaris è aumentato del 25% ad esser buoni...
Non ho detto che è TUTTA colpa del silicio. TSMC ha già dimostrato di essere migliore per clock e consumi negli A9 di apple.
Può, ma io sto facendo il raffronto tra Polaris e Zen. Polaris non gira a 3 GHz nè può realistcamente arrivarci. Zen dovrà girare a più di 3 Ghz come base.
Ovvio che FO4 e contorno sono radicalmente diversi. Cercare di stimare il consumo di Zen a partire da Polaris è un po' come stimare il consumo di un Qualcomm 820 a partire da una GTX1080.
Io ho stimato la frequenza di Zen a partire da quella di Excavator e dalla differenza di frequenza, a parità di potenza dissipata e transisitor, tra Polaris e una scheda equivalente a 28nm...
Quindi siamo passati da 190W@970MHz per 2048 shader a 150W@1265MHz per 2304 shader... E c'è chi non è contento? Andiamo bene! Questo fa ben sperare per Zen. +30% di clock, +15% di shaders e -20% di TDP...
Quindi si può supporre un +30% di frequenza partendo da un XV x4 diciamo 25W, supponendo che gli 8 core Zen consumino come 16 core Excavator. Qui poi siamo ancora in una situazione non tirata (25W) e stiamo sottostimando...
da qualche parte i transistor sono andati...visto che Hawaii è in grado di fare fp64 ad 1/2 fp32.
PS intorno al circuito non ci sono solo i 4MC gddr5. Cosa sono?
Una parte dei transistor è andata nel doppio della cache L2. Per il resto si vedrà...
Crossfire,Pcie e Display output, credo.
Dai un occhiata ad i vecchi die.;)
tuttodigitale
30-06-2016, 15:57
Crossfire e Display output, credo.
OMG che stupido.
leoneazzurro
30-06-2016, 16:06
Nvidia è aumentata del +50% sotto gli 0.85-0.87 volt.
Polaris è una piaga anche con bassi voltaggi.
Le architetture di partenza non hanno subito stravolgimenti, quindi qualcosa in AMD non va...
A questo punto il 14nm LPP è il peggiore del lotto, anche TSMC è avanti. (non credo sia il SOLO colpevole)
Il 16nm TSMC ha varianti HP o HPL/HPM ?
Come detto il power gating fa la sua (grossa) parte, non si quanto fine ed efficiente sia e possa essere sull'architettura GCN. Detto ciò, Polaris fa decisamente meglio di Hawaii, siamo sul 2x (e il processo di Hawaii era TSMC), ergo alla fine non so quanto l'isteria sul processo GF sia giustificata o meno (leggi: magari c'è una differenza tra i due processi, non così marcata come si possa credere oggi).
Per il resto Polaris anche sul livello consumi non è quel disastro che tutti dipingono: è sicuramente peggio di Pascal ma non è certo peggio di Maxwell come alcuni affermano. A parte che i consumi della 480 e della 970 sono molto simili a parità di prestazioni, molti dimenticano che quello è il consumo della scheda che nel caso AMD ha anche 4 Gb di memoria in più, che non ha consumo nullo ma che contribuisce per 10-15W al consumo totale. Quindi IMHO qualcosina AMD ha recuperato dal gap che aveva con la precedente generazione, anche se delle limitazioni inerenti alla struttura stessa (e forse parzialmente anche al processo) dell'architettura non consentono un miglioramento ulteriore. Per questo poi dico che il raffronto con Zen è difficile, le architetture sono così diverse che il rischio di sovrastima/sottostima è elevatissimo.
leoneazzurro
30-06-2016, 16:09
Io ho stimato la frequenza di Zen a partire da quella di Excavator e dalla differenza di frequenza, a parità di potenza dissipata e transisitor, tra Polaris e una scheda equivalente a 28nm...
Questo potrebbe avere già maggior senso, ma tocca vedere anche quanto e dove cambia l'architettura nella CPU, e quanto granulare è il sistema di power gating.
Come detto il power gating fa la sua (grossa) parte, non si quanto fine ed efficiente sia e possa essere sull'architettura GCN. Detto ciò, Polaris fa decisamente meglio di Hawaii, siamo sul 2x (e il processo di Hawaii era TSMC), ergo alla fine non so quanto l'isteria sul processo GF sia giustificata o meno (leggi: magari c'è una differenza tra i due processi, non così marcata come si possa credere oggi).
Per il resto Polaris anche sul livello consumi non è quel disastro che tutti dipingono: è sicuramente peggio di Pascal ma non è certo peggio di Maxwell come alcuni affermano. A parte che i consumi della 480 e della 970 sono molto simili a parità di prestazioni, molti dimenticano che quello è il consumo della scheda che nel caso AMD ha anche 4 Gb di memoria in più, che non ha consumo nullo ma che contribuisce per 10-15W al consumo totale. Quindi IMHO qualcosina AMD ha recuperato dal gap che aveva con la precedente generazione, anche se delle limitazioni inerenti alla struttura stessa (e forse parzialmente anche al processo) dell'architettura non consentono un miglioramento ulteriore. Per questo poi dico che il raffronto con Zen è difficile, le architetture sono così diverse che il rischio di sovrastima/sottostima è elevatissimo.
Per carità con quello che abbiamo su Zen(ben poco) sono l'ultimo che fa paralleli...:sofico:
Le memorie montate sulla 970 sono le 4gigabit sul vecchio nodo. RX480, monta le nuove 8gigabit classe 20nm.
Free Gordon
30-06-2016, 16:17
Nvidia è aumentata del +50% sotto gli 0.85-0.87 volt.
Polaris è una piaga anche con bassi voltaggi.
Hai visto qualche test in undevolting?
https://www.computerbase.de/2016-06/radeon-rx-480-test/12/
Và quasi il 5% meglio e consuma 33W in meno con 1.075v da Wattman. :)
E poi guarda quì:
http://videocardz.com/61697/how-fast-radeon-rx-480-can-be
http://oc.jagatreview.com/2016/06/teaser-overclocking-amd-radeon-rx480-ke-1-4ghz-dengan-cooler-3rd-party/2/
Questa 1425 ad aria..
https://www.reddit.com/r/Amd/comments/4qk6ug/4chan_uses_a_mounting_bracket_to_mount_a/
Questo a Vdef. prende i 1485 con l'H100. Con l'8pin dove può arrivare? :D
digieffe
30-06-2016, 16:32
l'architettura mi pare un "pochino" sbilanciata lato shader....ancora di più di Fiji (ma in quel caso Raja koduri ha dato la colpa alle dimensioni dell'interposer)...sicuri che sia pensata per il gioco? :cool:
cerca nelle slide che è spiegto il motivo: qualcosa che suona come "una ottimizzazione che riduce la necessità di 64xx quindi 32xx"
non capisco di schede video e l'ho letto in piena notte ma se ho capito bene c'era una spiegzione
leoneazzurro
30-06-2016, 16:40
N
l'architettura mi pare un "pochino" sbilanciata lato shader....ancora di più di Fiji (ma in quel caso Raja koduri ha dato la colpa alle dimensioni dell'interposer)...sicuri che sia pensata per il gioco? :cool:
Riprendo questo discorso. Bilanciare una GPU non è una cosa semplice. In genere si parte da un budget in termini di area (e quindi di costo) per fascia di mercato. Vediamo che R480 ha un die size di 232 mm^2 che è un valore considerato "ottimale" per la fascia che occupa. Ora, dato che si parte da un certo spazio prefissato, cosa metterci dentro? Teniamo conto che alcune parti sono fisse (video processing, per esempio, e controller della memoria per il bus a 256 bit). Il memory controller spesso non scala bene come le altre sezioni. Rimane un budget ancora più esiguo per il dispatch processor, la geometria, le ROP, gli SP, le TU. Il rapporto tra SP e TU è fissato data l'architettura. La capacità di elaborazione geometria - deve essercene abbastanza per far "performare" il chip e non troppa da essere overkill. Direi che le 4 pipeline sono la soluzione ottimale. Rimane il bilancio tra ROP e SP. Ora, data l'architettura GCN, agli 8 canali a 32 bit potresti affiancare 32 "ROP" oppure 64. Ma 64 per il budget di transistor e la banda passante disponibile sarebbero state sicuramente sprecate nella maggior parte dei casi. E questo è dimostrato dal fatto che in molti test si ottengono buoni incrementi soltando overcloccando la memoria, segno che in molti casi si è più bandwidth limited che altro. Piuttosto, un deficit che ha AMD nei confronti di Nvidia è relativo alle texturing unit, o meglio alle capacità di filtering in certi formati.
Comunque, per concludere, si, Polaris 10 è un chip bilanciato se si considera il budget di transstors a disposizione.
leoneazzurro
30-06-2016, 16:54
Per carità con quello che abbiamo su Zen(ben poco) sono l'ultimo che fa paralleli...:sofico:
Le memorie montate sulla 970 sono le 4gigabit sul vecchio nodo. RX480, monta le nuove 8gigabit classe 20nm.
Che sono cloccate più in alto, il consumo non è dichiarato ma non credo sia molto diverso.
paolo.oliva2
30-06-2016, 17:30
Io la prox settimana sono in Italia e mi ritrovo a piedi, BW rotto e non ho più una mazza di PC in Italia. Qual'è il punto della situazione? BR mobile c'è disponibilità? Oppure BR fisso + mono AM4? Ste VGA? Ne dovrei acquistare almeno 2...
P.S.
Su YouTube hanno postato un video "AMD Zen vicino alla produzione con USB 3.1"... Non so se è una bufala perché non posso scaricarlo, ma è stato postato da pochissimo
Un altro, che riporta " petites info", posta una schermata di bits & chip's su bench, tra l'altro con la notizia di distribuzione a ottobre.
Edit:
Come non detto... Li riporta Zen come 4 volte più potente di un 8350...
tuttodigitale
30-06-2016, 17:41
Ok che con AMD non si è mai contenti ma in questo caso c'è da essere più che soddisfatti dal lavoro svolto sul silicio e ricordiamo che Polaris è la primissima GPU con i 14nm FinFet...
ma ancora più notevole che i 6 modelli (modelli non carte) sono state vendute in poche ore...e stamattina c'erano 11 disponibili, e sono sold out....domani dovrebbero arrivate, stando al sito altre carte....questo su newegg..
su trovaprezzi, ci sono 24 modelli disponibili su 24..e il costo più basso è di 225/255 euro per la 4/8GB.....
la rx480 già oggi costa meno della gtx970 da 3,5GB...:read:
e una testata senza vergogna ha detto che non si troverà a meno di 300 euro...
gli ingegneri AMD e GF, hanno fatto un ottimo lavoro, per quanto riguarda la resa produttiva...ne va dato atto.
PS ho fatto una prova...un negozio ne ha 50 in magazzino
gli ingegneri AMD e GF, hanno fatto un ottimo lavoro, per quanto riguarda la resa produttiva...ne va dato atto.
Mi sa che lo hanno fatto a discapito del V.Core...chi ha i modelli "fortunati" sta facendo undervolt assurdi, recuperando oltre 30W.
Su YouTube hanno postato un video "AMD Zen vicino alla produzione con USB 3.1"... Non so se è una bufala perché non posso scaricarlo, ma è stato postato da pochissimo
Se fosse vero, e se il controller fosse integrato, sarebbe un'ottima cosa che non avrebbe nemmeno SkyLake (non ce l'ha integrato nel chipset, bisogna aspettare kabylake, e quindi una volta fuori windows, per esempio con le livecd, non hai il 3.1).
tuttodigitale
30-06-2016, 18:18
cerca nelle slide che è spiegto il motivo: qualcosa che suona come "una ottimizzazione che riduce la necessità di 64xx quindi 32xx"
non capisco di schede video e l'ho letto in piena notte ma se ho capito bene c'era una spiegzione
non solo...se hai visto i test contro le hawaii, queste hanno un decadimento più basso, quando si abilitano filtri e altro...segno che le ROPs, e forse anche la banda-passante, fanno da tappo.
ma come ha detto leoneazzurro, probabilmente è una scelta "ottimale" per il prezzo.
Guardati le curve di clock/volt di Polaris/Pascal...
Polaris è aumentato del 25% ad esser buoni...
Non ho detto che è TUTTA colpa del silicio. TSMC ha già dimostrato di essere migliore per clock e consumi negli A9 di apple.
con tutt'altri prodotti...ricordo che il silicio Samsung è scadente per il low-power...o almeno questo diceva uno studio...non è detto che la differenza non si assottigli o addirittura si inverta con i prodotti High-end.
Se AMD dovesse fare Vega sui 16nm FINFET di TSMC, qualche dubbio ci potrebbe venire....ma saremmo già in compagnia di ZEN.
comunque è aumentato del 25% anche il clock....pensa una cpu che con un die shrink anzichè fermarsi a 3,8GHzz raggiunga con la stessa efficienza 4,75GHz....puoi solo pensare che efficienza elevata possa avere a 3,8GHz...se AMD si fosse accontata di 1GHz per Polaris avrebbe avuto un'efficienza molto alta..
senza dimenticare che è un prodotto low-budget...quindi fatto per non dare troppi grattacapi nella messa in produzione
Non voglio dirlo, ma se Vega fosse "semplicemente" Polaris con pipeline un pò più lunghe?:cool:
PS non è detto che Pascal abbia mantenuto lo stesso FO4 di Maxwell :read:
ricordo che il silicio Samsung è scadente per il low-power...
un processo LP, scadente in low-power. (hanno centrato l'obiettivo:p ) :sofico:
Pensa l'efficienza di nvidia se si accontenta degli 0.875v(1600-1750mhz), invece di cloccare a bestia...
cmq nessuno mi ha risposto, il 16nm tsmc ha varianti HP/HPL ?
leoneazzurro
30-06-2016, 20:00
Che io sappia TSMC sta preparando una variante Low Power, denominata compact, del suo processo a 16nm. Ma non si hanno notizie di versioni High Performance. Piuttosto, ha dichiarato che nel 2017 si vedranno dispositivi a 7nm (che pero' in realta' sarebbero comparabili ai 14nm di Intel).
Comunque il LPP di GF non e' un porcesso "low power" in senso stretto, e' denominato low power perche' e' a 14nm e quindi a consumo ridotto rispetto alle tecnologie a 20/28nm. In nomenclature normali sarebbe considerato "performance".
Che io sappia TSMC sta preparando una variante Low Power, denominata compact, del suo processo a 16nm. Ma non si hanno notizie di versioni High Performance. Piuttosto, ha dichiarato che nel 2017 si vedranno dispositivi a 7nm (che pero' in realta' sarebbero comparabili ai 14nm di Intel)
Quindi il 16FF+ è un processo HP o al limite un ibrido ?
leoneazzurro
30-06-2016, 20:13
Diciamo che e' un ibrido, se ho capito bene la tua domanda, e' un processo che consente buone prestazioni senza consumare troppo ma non e' focalizzato ne' sul raggiungimento della massima velocita' di clock ne' sulla minima tensione di alimentazione. Pero', se da un lato sembra essere stata annunciata la versione a basso consumo (probabilmente per il settore mobile) non si hanno notizie di versioni ad alta performance, probabilmente perche' per quel mercato TSMC si aspetta di passare nel 2017 ai 7nm e quindi concentrerebbe le sue risorse nello sviluppo di quel processo.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.