View Full Version : Ryzen 7 1800X: la nuova rinascita di AMD nel mondo delle CPU
Ale55andr0
03-03-2017, 07:25
Veramente ad aria arrivano tranquillamente a 4.8 gli intel...
Ma almeno hai letto? Ha detto un 8/16... quale octa intel fa 4.8 ad aria?
Ale55andr0
03-03-2017, 07:31
Raga ma col 1700 liscio danno il wraith migliore o quello intermedio?
Diobrando_21
03-03-2017, 07:31
Ma almeno hai letto? Ha detto un 8/16... quale octa intel fa 4.8 ad aria?
Ah mi era sfuggito...vabbè in ogni caso meglio avere un buon kaby lake a 4.8ghz che un octa ryzen che non si occa per nulla, l'aumento prestazionale è nullo all'aumentare della frequenza e che in alcuni ambiti (gaming) funziona pure male.. .
rockroll
03-03-2017, 07:40
Dunque, questi Ryzen sono una delusione, spiace dirlo, visto che ero il primo a crederci.
Dal punto di strategico sono un fallimento, perché il 1800X, ovvero il top di AMD, riesce solo a raggiungere il 6900K, senza superarlo... e bisogna tenere conto che il 6950X regna ancora incontrastato.
.............................
Siamo su un sito di tecnologia, non al MediaWord, per cui a noi utenti devono interessare le prestazioni pure massime, non i rapporti prezzi/prestazioni (che sono anche ragionamenti un po' da accattoni, se mi si permette, eh).
Si era vociferato in giro (e io stesso speravo in) un Ryzen da 250-300€ (mio target per il mio prossimo, ormai urgente, acquisto) in grado di andare come un 6900K, ma qui le cose sono un tantino diverse, eh.
.................................
Voi cosa consigliate?
Delusione? cosa ti aspettavi, un 6900k like a 250€ ??? Resta pure su Intel e spendine 1000 solo di cpu, per non essere inferiore a Ryzen, fai così...
Se vuoi appena di più ne spendi quasi 1800 col 6950x, te lo sconsiglio.
Io da povero accattone quale indirettamente mi definisci bado sempre al rapporto Prezzo/MiaUtilità, cioè quel che mi è utile e mi serve anche nel tempo senza rinunce spendendo il meno possibile.
Però vedo anche tu hai problemi urgento di prezzo... Deciditi, sei Paperone o un rockroll qualsiai?
PS: Un R7 1800x va praticamente come un 6900k, lo hai appena ammesso all'inizio... o sbaglio.
Ale55andr0
03-03-2017, 07:42
Ah mi era sfuggito...vabbè in ogni caso meglio avere un buon quad core a 4.8ghz che un octa ryzen che non si occa per nulla, l'aumento prestazionale è nullo all'aumentare della frequenza e che in alcuni ambiti (gaming) funziona pure male.. .
Meglio de che?! :doh: gia stock da 1440 in su vai uguale, un octa ryzen 1700 liscio costa poco, arriva a 4ghz, e ha altri 4 core che verrano sfruttati dai giochi futuri smashando il quaddino tirato oltre a poter fare multitasking pesante gia oggi. Vatti a vedere che succede mel thread intel portando gli 7 da 5 a 3.5 nei giochi...na mazza. Che tocca leggere :rolleyes:
@Paolo, il socket è AM4 o FM4?
Giusto per precisione, sul sito asus lo danno AM4 e nell'articolo è riportato FM4.
Altra cosa, ma tutti iRyzen avranno GPU integrata?
Sarà testata?
So che su quella scheda madre non è abilitata (non c'è il connettore video)
e bisogna tenere conto che il 6950X regna ancora incontrastato.
Già, proprio incontrastato...
:asd: :asd: :asd: :asd:
Falcoblu
03-03-2017, 08:01
Che poi i test sono sempre fatti alle frequenze default, ma sappiamo benissimo che gli Intel serie K salgono molto bene, il mio 5820k viaggia senza batter ciglio a 4600Mhz, quindi quasi il 40% in più rispetto ai 3300mhz standard, che non sono certo noccioline.
Mentre a quanto abbiamo visto, questi Ryzen non è che salgano poi molto in OC...
Infatti , a leggere qualche commento pare che chi ha un sistema X99 lo debba buttare alle ortiche per passare a Zen....:rolleyes:
Intendiamoci , che amd abbia tirato fuori una cpu eccellente è un vantaggio indiscutibile sia a livello di scelta sia e sopratutto per il nostro portafoglio visto che commercialmente parlando funge da calmiere per le cpu Intel che , finalmente direi ,non potrà fare più il bello e il cattivo tempo sui prezzi come ha fatto fino a adesso e credo che ne abbiamo da guadagnare tutti.
Ma che con Zen le cpu Intel siano improvvisamente diventate dei ferrivecchi assetate di energia francamente non mi trova affatto d' accordo e trovo anzi che sia un punto di vista profondamente errato , più o meno come quello secondo cui uno dovrebbe comprare adesso un 1800X perchè "in futuro" spaccherà come si suol dire anche nei games perchè questi ultimi richiedereanno mille mila core per funzionare in maniera ottimale.
Dal mio punto di vista se compro qualcosa è per sfruttarlo oggi non nel futuro , al netto che non vedo una sola valida ragione per chi ha un sistema X99 o uno con cpu 7700K per passare a Zen , discorso diverso ovviamente per chi deve cambiare un sistema datato...
:)
leoneazzurro
03-03-2017, 08:07
Ti quoto in tutta la linea. In particolare, come hai visto anche te, ci sono enormi differenze tra le recensioni, persino sugli stessi software.
Hai presentato bene anche quali sono secondo te i punti deboli, e pure io credo che il problema delle cache sia uno dei primi imputabili di queste disparità di performance.
Per me, ottimo processore. Tuttavia, per la prossima linea R5 e R3 credo che, se le frequenze sono quelle mostrate dai leak, le recensioni non saranno così positive come negli R7. Devono andare più veloci, e forse c'è un limite nell'architettura/PP per salire di frequenza.
In realtà i problemi sembrano essere altri, le latenze misurate sulle cache L1/L2 non sono particolarmente elevate, anzi (e pure per la L3, almento stando ai dati riportati da techreport). Semmai è la latenza con la memoria di sistema a dare dei valori "strani" e dico strani perchè semrba che alcuni software non li misurino correttamente (qualcosa di strano con gli algoritmi di prefetching?).
Un problema sembrerebbe la non corretta allocazione dei core fisici/logici (in pratica cerchi di far andare due thread sullo stesso core fisico anzichè distribuirli tra due core, con conseguente perdita di potenza) e il tread switching tra core appartenenti a CCX diversi: Ryzen non è un octa core in senso stretto, ma è diviso in due partizioni con due cache L3 separate e connesse da un bus, se ci sono thread che vanno e vengono tra i due CCX il bus si satura e le prestazioni decrescono. In genere però il thread switching tra CCX non è detto che sia necessario, si potrebbe risolvere settando un'affinità tra thread che devono stare sullo stesso CCX.
Scusate ma leggo di litigi sulla risoluzione dei test nei giochi e non capisco il senso della discussione.
E' normale che più salga la risoluzione e meno serva la CPU.
Se prendete un vecchio 2600k e testate BF1 a 4k vedrete che avrà gli stessi FPS di tutte le CPU uscite dopo questa.
Che senso ha fare questi test limitati dalla GPU?
Se volete testare sul serio una CPU con i giochi dovete sgravare totalmente (ovviamente non è possibile) la GPU.
Fateli a 720p e vedrete come un 2600k le prende sui denti da tutti.
Non serve a nulla in ambito pratico perché nessuno si compra una CPU da 350€ per giocare a 720p però se proprio volete fare a gara con chi tra AMD e Intel ha la CPU migliore a livello tecnologico il test corretto è quello che suggerisco.
leddlazarus
03-03-2017, 08:17
è una vita che si sta lavorando per fare delle GPU che sgravano il lavoro alle CPU e poi ci si scandalizza se vengono testate a risoluzioni minori per evitare il collo di bottiglia della GPU e evidenziare il lavoro della CPU.
va beh n.1.
sono anni che i giochi su PC sono delle mere trasposizioni dalle console. quindi IMHO non riusciranno mai a sfruttare come si deve le potenzialità di un PC (che è tra CPU e GPU mille volte meglio di una console). quindi è giusto proporre questi test in una recensione ma per vedere la potenza bruta di calcolo di una CPU non mi sembrano l'optimum.
di certo è anche stupido spendere piu' di 500-600€ solo per giocare quando è possibile comprare a 400€-500€ una console.
va behn.2
Programmi che sfruttano in modo massivo il multicore e/o meglio il multithread sono cosa rara. Chiunque abbia studiato un po di informatica ad alto livello, sa che per programmare in tal senso è tutt'altro che facile. Quando vedo in certi giochi le caratteristiche consigliate per il PC e vedo CPU 4 o piu' core mi viene da ridere. ed infatti i bench lo dimostrano che i giochi sono multithread come mia nonna.
va beh n.3
in conclusione.
sono delle ottime CPU e su questo non ci piove. il prezzo mi sembra adeguato per il consumatore. Adesso rimane da verificare se AMD li ha prezzati in modo agressivo magari rimettendoci per squotere il mercato. Di certo Intel avrà nel cassetto qualche progetto che era li in attesa di questi avvenimenti per poter vedere la luce.
di certo la prossima generazione di CPU Intel martellerà questi Ryzen, ma è giusto cosi'.
Saranno CPU ottime per Supercomputer dove il calcolo bruto è l'esigenza primaria.
...
Programmi che sfruttano in modo massivo il multicore e/o meglio il multithread sono cosa rara. Chiunque abbia studiato un po di informatica ad alto livello, sa che per programmare in tal senso è tutt'altro che facile. Quando vedo in certi giochi le caratteristiche consigliate per il PC e vedo CPU 4 o piu' core mi viene da ridere. ed infatti i bench lo dimostrano che i giochi sono multithread come mia nonna.
...
Che mi risulti non esistono giochi che sfruttano 4 core su PC, provo a chiedere in ufficio ma ne sono abbastanza sicuro. (i nostri di certo no lol)
mariacion
03-03-2017, 08:26
Però scalda troppo poco, quando fa freddo cosa c'è di meglio di un bel Pentium IV ?
:)
alex91powe
03-03-2017, 08:32
Io ancora non riesco a capire se fare un upgrade da 4930k e 4770k o aspettare ancora...
conti alla mano il guadagno è risicato sia andando su amd, sia andando su Intel...
Certo è che queste cpu segnano il ritorno di amd...il che è solo un bene: santa concorrenza.
Io ancora non riesco a capire se fare un upgrade da 4930k e 4770k o aspettare ancora...
conti alla mano il guadagno è risicato sia andando su amd, sia andando su Intel...
Certo è che queste cpu segnano il ritorno di amd...il che è solo un bene: santa concorrenza.
Non avresti alcun giovamento in entrambi i casi.
alex91powe
03-03-2017, 08:37
infatti è ciò che noto...
probabilmente di sto passo le cambio solo se si friggono a furia di fare render
nickname88
03-03-2017, 08:38
Ottima nell'uso massimo del MT, ma nei giochi, compresi quelli che usano più cores è ancora dietro. :(
E parliamo del 1800x, il modello di punta, figuriamoci il modello 1700. :cry:
Ottima nell'uso massimo del MT, ma nei giochi, compresi quelli che usano più cores è ancora dietro. :(
Non è e mai sarà una CPU per chi vuole giocare.
Se devi giocare tra la 1800x e la 7700k prendi la Intel che spendi pure meno.
Qui si discute di una CPU a 360° per chi fa un po' di tutto.
digieffe
03-03-2017, 08:42
Veramente anche per AMD i migliori risultati li tira fuori il compilatore Intel. Ma a patto che gli sviluppatori compilino appositamente gli eseguibili.
Ma se nemmeno questo va bene, nessuno impedisce ad AMD di realizzare un compilatore suo (o di supportare meglio GCC e/o LLVM), esattamente come per le schede video nessuno le impedisce di realizzare toolkit come CUDA & PhysicX.
E allora sei nella posizione giusta: SE usi il compilatore Intel, tira fuori un eseguibile appositamente compilato per sfruttare al meglio i processori AMD.
Mai pensato che potrebbe essere proprio la micro-architettura a non andare molto bene sul codice "intero" / non "lineare"? Non credo che TUTTE le applicazioni / giochi testati in cui non gira così bene facciano uso di compilatori Intel...
E' lo stesso problema che hanno le CPU, come dicevo prima.
EDIT:
Potevano anche pensarci prima... :rolleyes:
non potevano, il prodotto non esisteva e gli ES non erano credibili :(
MiKeLezZ
03-03-2017, 08:42
Francamente non credo Euler3D faccia molto testo.
Sara' straottimizzato per le estensioni vettoriali, compilato con il compilatore intel, e quant'altro.
x me il test che conta di piu e' handbrake. d'altra parte e' molto piu complesso da ottimizzare di un po di algebra lineare.
Euler3D analizza le correnti d'aria su una sezione di un'ala di un aereo dentro a un tunnel del vento virtuale settato a 1/2 mach, utilizzando calcoli ingegneristici di fluidodinamica... che per inciso non usano "un po' di algebra lineare", ma giusto qualche chilo di equazioni differenziali, tanto che calcoli di fluidodinamica più complessi sono fatti solo su supercomputer. Ma sicuramente come dici te è meglio handbrake. Nel HPC è molto importante rippare bluray velocemente...
Tanto finchè compilatori e giochi sono scritti con cpu intel in mente questi saranno i risultati.Non vorrei intristirti ulteriormente, ma si usa il compilatore Intel perché è il più stabile e il più veloce. Nessun GOMPLOTTO!
Poi, se permetti, è evidente che uno compra una CPU Intel anche perché sa che avrà un supporto migliore sotto quell'aspetto.
Paghi 350 euro di CPU e sai che 50 euro vanno al reparto software che sistema le magagne e lavora fianco a fianco con gli sviluppatori. Patch integrate nel SO e compatibilità day one. Non sono "mazzette", ma sono cose di valore e che quindi si pagano.
Se te invece vuoi l'alternativa e pagare 300 euro di CPU senza quei costi extra, bhe, ti becchi le motherboard buggate, i programmi male compilati e lo scheduler che fa bisboccia. E' un assaggio di real life che ad alcuni ritengo faccia solo che bene.
Ogni recensione ha risultati differenti su handbrake.Handbrake ha un milione di impostazioni diverse. Anandtech, che è serio, mostra 3 diversi "case scenario". Hexus che hai postato te, che è meno serio, non specifica neppure quale siano le impostazioni usate.
Questi Ryzen sono CPU da WS e non desktop.Gli R7? Bho non credo. AMD ha semplicemente attaccato Intel nella fascia di mercato in cui è più scoperta, la LGA2011 ha un pessimo rapporto prestazioni/prezzo ed è vecchia... e anche il futuro rimpiazzo LGA2066 nascerà vecchio. La LGA1151 toppa a 4 core. C'è quindi un buco di mercato nei 6/8 core da 250/500 euro in cui AMD si è infilata con maestria. Anche se le prestazioni non sono al top e il multithreading è oggi poco sfruttato, di questi Ryzen ne venderanno parecchi, sopratutto nel consumer/prosumer.
nickname88
03-03-2017, 08:43
Non è e mai sarà una CPU per chi vuole giocare.
Se devi giocare tra la 1800x e la 7700k prendi la Intel che spendi pure meno.
Qui si discute di una CPU a 360° per chi fa un po' di tutto.
Si ok ma nei giochi in altre recensioni è sotto ad un i5 ( parlo sempre della versione top 1800x )
Sarà un prodotto all around ma si ci aspettava di meglio secondo il mio punto di vista.
Si ok ma nei giochi in altre recensioni prende pure paga da un i5 ( parlo sempre della versione top 1800x )
E quindi? Non credo ci sia qualcuno qui che si comprerà un 1800x per giocare.
leddlazarus
03-03-2017, 08:47
Io ancora non riesco a capire se fare un upgrade da 4930k e 4770k o aspettare ancora...
conti alla mano il guadagno è risicato sia andando su amd, sia andando su Intel...
Certo è che queste cpu segnano il ritorno di amd...il che è solo un bene: santa concorrenza.
il mercato delle CPU è talmente stagnante che ormai la vita media si è allungata parecchio (in termini di richiesta di risorse).
anche colpa di tutto il sofwtare (SO, gaming e programmi), troppo poco ottimizzati per sfruttare le CPU multicore, e ancora troppo legati alla frequenza di questi.
come già detto programmare in modo da sfruttare il multicore è tutt'altro che semplice.
la richiesta generica computazionale non lo richiede (vedi la produttività classica di un PC ufficio-casa) quindi chi sviluppa non va a sprecare tempo e denaro per queste cose, se non necessario (non penso che facebook o youtube necessitino di questi accorgimenti)
i giochi sono sviluppati essenzialmente per console, che devono avere costi adeguati e quindi hardware ben differenti da un PC di livello medio-alto.
quindi imho sono CPU ben sovradimensionate come potenza di calcolo bruta, rispetto alle richieste computazionali medie.
digieffe
03-03-2017, 08:53
Non puoi farlo, perché è il gioco stesso che lancia più thread hardware (o processi, se dovessero servirgli), e non puoi reindirizzarli come / dove vuoi.
quindi in windows non è possibile che un processo chieda al OS delle affinità per se stesso o per i sui thread?
Sarebbe interessante provare a disabilitare l'SMT anche nei processori Intel con più di 4 core: sia mai che potrebbe cambiare qualcosina pure per loro. :O
anche le cpu intel migliorano disabilitando l'SMT ma non come ryzen. Se ricordo bene computerbase.de dovrebbe aver fatto tali misurazioni.
Semi OT: guardate che nelle WS della HP e Dell (nomino solo queste perché in azienda non ne udiamo altre) ci sono gli Xeon, lasciate perdere il discorso Ryzen è una CPU da WS. Non lo è come non lo sono le Intel.
digieffe
03-03-2017, 08:58
In realtà i problemi sembrano essere altri, le latenze misurate sulle cache L1/L2 non sono particolarmente elevate, anzi (e pure per la L3, almento stando ai dati riportati da techreport). Semmai è la latenza con la memoria di sistema a dare dei valori "strani" e dico strani perchè semrba che alcuni software non li misurino correttamente (qualcosa di strano con gli algoritmi di prefetching?).
Un problema sembrerebbe la non corretta allocazione dei core fisici/logici (in pratica cerchi di far andare due thread sullo stesso core fisico anzichè distribuirli tra due core, con conseguente perdita di potenza) e il tread switching tra core appartenenti a CCX diversi: Ryzen non è un octa core in senso stretto, ma è diviso in due partizioni con due cache L3 separate e connesse da un bus, se ci sono thread che vanno e vengono tra i due CCX il bus si satura e le prestazioni decrescono. In genere però il thread switching tra CCX non è detto che sia necessario, si potrebbe risolvere settando un'affinità tra thread che devono stare sullo stesso CCX.
bypassando windows e leggendo la topologia direttamente dalle tabella ACPI?
e tentado un affinamento, qualora fosse possibile ed anche da processo non privileggiato?
leoneazzurro
03-03-2017, 09:00
Handbrake ha un milione di impostazioni diverse. Anandtech, che è serio, mostra 3 diversi "case scenario". Hexus che hai postato te, che è meno serio, non specifica neppure quale siano le impostazioni usate.
Ce ne sono altre in rete (come quella di Computerbase) dove si utilizzano più scenari e con AMD avanti. Ma non è quello il punto che mi premeva evidenziare, il punto è che c'è una variabilità molto elevata nelle recensioni spiegabile solo con problemi software/firmware. Che poi era atteso di vedere le CPU AMD andare molto bene nel multithread e molto meno bene in gaming.
leoneazzurro
03-03-2017, 09:03
bypassando windows e leggendo la topologia direttamente dalle tabella ACPI?
e tentado un affinamento, qualora fosse possibile ed anche da processo non privileggiato?
Bisognerebbe chiedere a chi ha Ryzen. Tieni conto però che questo è qualcosa che la maggior parte degli utenti non è in grado o non vorrà mai fare, servono soluzioni "trasparenti" all'utente.
Piedone1113
03-03-2017, 09:04
Non vorrei intristirti ulteriormente, ma si usa il compilatore Intel perché è il più stabile e il più veloce. Nessun GOMPLOTTO!
Poi, se permetti, è evidente che uno compra una CPU Intel anche perché sa che avrà un supporto migliore sotto quell'aspetto.
Paghi 350 euro di CPU e sai che 50 euro vanno al reparto software che sistema le magagne e lavora fianco a fianco con gli sviluppatori. Patch integrate nel SO e compatibilità day one. Non sono "mazzette", ma sono cose di valore e che quindi si pagano.
Se te invece vuoi l'alternativa e pagare 300 euro di CPU senza quei costi extra, bhe, ti becchi le motherboard buggate, i programmi male compilati e lo scheduler che fa bisboccia. E' un assaggio di real life che ad alcuni ritengo faccia solo che bene.
Si usa il compilatore Intel perchè è quello che da codice migliore per il 90% delle cpu in uso.
Da sottolineare che spesso, anche se non sempre, il compilatore intel fornisce codice pari, o più rapido, anche per cpu AMD, a meno di non volere subito le feature delle ultime cpu della concorrenza implementate a livello di path.
In secondo luogo lo sviluppo del compilatore non è pagato dal surplus di costo della cpu, come riferisci erroneamente, ma dal costo stesso del compilatore che non è certo economico.
A leggere poi le altre esagerazioni mi viene voglia di tacere.
Gli R7? Bho non credo. AMD ha semplicemente attaccato Intel nella fascia di mercato in cui è più scoperta, la LGA2011 ha un pessimo rapporto prestazioni/prezzo ed è vecchia... e anche il futuro rimpiazzo LGA2066 nascerà vecchio. La LGA1151 toppa a 4 core. C'è quindi un buco di mercato nei 6/8 core da 250/500 euro in cui AMD si è infilata con maestria. Anche se le prestazioni non sono al top e il multithreading è oggi poco sfruttato, di questi Ryzen ne venderanno parecchi, sopratutto nel consumer/prosumer.
Il core ZEN è fatto per le WS (single e dual socket) e per i server, dove in molti ambiti saranno preferibili agli intel per la maggior presenza di core a parità di costo o per il minor costo a parità di prestazioni.
Come per le cpu 2011 (ma anche il disegno delle mainstrem ) sono di derivazione server.
Se poi vuoi obiettare che la serie 11xx è di derivazione mobile ti posso rispondere che la serie mobile è un implementazione del disegno server revisionata per il mobile ( con annessa igpu).
Oh allora i mittttici utenti Bivvoz, *aLe, ionet, Veradun, HwWizzard, rockroll, max72-ITA, riuzasan ??? Dai che vi vengo a prendere uno a uno per le orecchie...Presente. :sofico:
Io attualmente sto usando un PC fisso che fa anche da workstation, quindi sono più che felice di vedere questi risultati di Ryzen.
E prima che veniate a dirmi "eh ma te la sei inventata adesso la cosa della workstation", quoto una discussione di tre anni fa:
Uso principale editing foto e video non troppo pesante, un po' di gaming in fullhd (non mi interessano per forza i dettagli ultra, ma quantomeno che vada fluido) e, nel caso dovesse servire, software di modellazione 3D che userebbe la morosa (anche se spero di riuscire ad evitare che metta le sue manacce sulla mia bestiolina).
La differenza rispetto ad allora è una sola: il software di modellazione 3D è presente (purtroppo non sono riuscito ad evitarlo) e sono passato dal FullHD a una TV 4K quindi la scheda video dovrà essere dimensionata di conseguenza (e, purtroppo, anche il budget).
Sto ancora cercando una workstation, e sì, Ryzen mi pare la scelta migliore per rifare il PC nei prossimi mesi (valutando, a questo punto, Vega... Alla fine lo ammetto di tifare per AMD).
Presente. :sofico:
Io attualmente sto usando un PC fisso che fa anche da workstation, quindi sono più che felice di vedere questi risultati di Ryzen.
E prima che veniate a dirmi "eh ma te la sei inventata adesso la cosa della workstation", quoto una discussione di tre anni fa:
La differenza rispetto ad allora è una sola: il software di modellazione 3D è presente (purtroppo non sono riuscito ad evitarlo) e sono passato dal FullHD a una TV 4K quindi la scheda video dovrà essere dimensionata di conseguenza (e, purtroppo, anche il budget).
Sto ancora cercando una workstation, e sì, Ryzen mi pare la scelta migliore per rifare il PC nei prossimi mesi (valutando, a questo punto, Vega... Alla fine lo ammetto di tifare per AMD).
Scusa ma allora comprati una Workstation se ti serve :)
Finalmente un post serio!
Se gioco soltanto voglio una CPU che mi fa giocare oggi non tra 3 anni.
Tra 3 anni avrò cambiato CPU e forse pure GPU (ho una 1080)Se giochi soltanto e non fai altro, Ryzen (soprattutto la versione 8 core) probabilmente non fa per te.
Ti direi "eh ma più core verranno utili in futuro" ma è un azzardo, lo ammetto.
Nel mio caso l'azzardo ha pagato più di una volta pagato (X2 4200+ quando la media era ancora single core, i7 920 quando tutti dicevano che i quad sarebbero stati inutili ancora per tre/quattro anni), e ora sto veramente valutando questi Ryzen 8 core quando tutti dicono che 4 bastano... Ma appunto io non gioco soltanto quindi ho esigenze diverse.
Se giochi soltanto e non fai altro, Ryzen (soprattutto la versione 8 core) probabilmente non fa per te.
Ti direi "eh ma più core verranno utili in futuro" ma è un azzardo, lo ammetto.
Nel mio caso l'azzardo ha pagato più di una volta pagato (X2 4200+ quando la media era ancora single core, i7 920 quando tutti dicevano che i quad sarebbero stati inutili ancora per tre/quattro anni), e ora sto veramente valutando questi Ryzen 8 core quando tutti dicono che 4 bastano... Ma appunto io non gioco soltanto quindi ho esigenze diverse.
Io col PC faccio di tutto e tra le altre cose ci gioco.. e soprattutto ho la tendenza a tenermelo per più tempo possibile.
Quindi dovessi cambiare non avrei dubbi a prendermi un octacore.
In merito ai consumi, le modalità di test cambiano parecchio in rete, ma tra x1800 e i7-6900k c'è un sostanziale allineamento.
Allineamento:
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/74814-amd-ryzen-7-1800x-performance-review-18.html
https://www.vortez.net/articles_pages/amd_ryzen_7_1800x_review,7.html
http://www.techspot.com/review/1345-amd-ryzen-7-1800x-1700x/page6.html
http://www.techspot.com/review/1345-amd-ryzen-7-1800x-1700x/page6.html
qui l'x1800 consuma di meno:
https://lanoc.org/review/cpus/7455-amd-ryzen-7-cpus?showall=&start=3
http://www.legitreviews.com/amd-ryzen-7-1800x-1700x-and-1700-processor-review_191753/12
https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/6/
qui consuma di più:
http://www.hardware.fr/articles/956-9/consommation-efficacite-energetique.html
nickname88
03-03-2017, 09:44
Possibile che le recensioni abbiano smesso di far confronti con le temperature ? :mc:
emanuele83
03-03-2017, 09:48
arrivo per ultimo ma tanto vale:
ottimo il rapporto prezzo/prestazioni
pessima la mancanza di GPU integrata se si pensa che consumano come gli intel. lascaindo stare la parte gaming o rendering se si pensa ad ambienti di sviluppo o ricerca avrebbe fatto comodo avere una CPU performante come il 1800x ma con una gPu integrata. Purtroppo leggo che anche i ryzen 5 non l'avranno. peccato, i SOC CPU+GPU sono il futuro dell'integrazione e comodità
*EDIT* ovviamente il fatto che le CPU intel in comparazione non avessero GPU era a me sconosciuto. ritiro, altro plus per AMD visti i prezzi.
buonissimo il fatto che la concorrenza sia tornata, mi aspetto un calo di prezzi per intel. certo è che se AMD non sarà in grado di tenere il passo nel produrre nuove e più performanti soluzioni con intel la concorrenza andrà presto a farsi benedire.
Scusa ma allora comprati una Workstation se ti serve :)Ovviamente ai tempi avevo valutato anche uno Xeon Haswell (quello da barboni, però, l'E3-1231 v3). :D
Purtroppo però dovendo usare il PC sia per produttività che epr gaming, sono "costretto" a scendere a compromessi. Non posso permettermi uni SLI di Titan per primeggaire ingame, risparmnaido troppo sulla CPU, e non posso permettermi di spendere 1000 € per la CPU e poi dover continuare a usare la mia R9 270X perché son fuori budget.
Sono uno di quelli che LucaLindholm ha, con gra signorilità, definito "accattoni" e quindi mi prefisso un budget e con quel budget cerco di prendere il meglio che posso (che per forza di cose vuol dire la scelta che mi permette di "perdeer" meno dal top sia in ambito produttività che in ambito gaming).
In quest'ottica, secondo me i Ryzen sono azzeccati.
Ci tengo anche a fare i complimenti a un utente piuttosto "famoso", che spesso ho considerato un fanboy (e anche qui, fanboy sì ma non prevenuto, perché comunque ha sempre cercato di portare dati e argomentazioni a favore della sua tesi), ma che ha azzeccato esattamente quello che intendo esprimere io con un commento imparziale e apprezzabile:
In conclusione, penso che AMD sia tornata comunque a essere competitiva, perché ciò che offre a quei prezzi è certamente dirompente. Chi ama il rendering e/o una soluzione economica e che va bene in MT con questo tipo di applicazioni, troverà in Zen LA soluzione per eccellenza. Decisamente imbattile da questo punto di vista.
Insomma, diamo a Cesare quel che è di Cesare (letteralmente).
psychok9
03-03-2017, 10:14
In merito ai consumi, le modalità di test cambiano parecchio in rete, ma tra x1800 e i7-6900k c'è un sostanziale allineamento.
Allineamento:
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/74814-amd-ryzen-7-1800x-performance-review-18.html
https://www.vortez.net/articles_pages/amd_ryzen_7_1800x_review,7.html
http://www.techspot.com/review/1345-amd-ryzen-7-1800x-1700x/page6.html
http://www.techspot.com/review/1345-amd-ryzen-7-1800x-1700x/page6.html
qui l'x1800 consuma di meno:
https://lanoc.org/review/cpus/7455-amd-ryzen-7-cpus?showall=&start=3
http://www.legitreviews.com/amd-ryzen-7-1800x-1700x-and-1700-processor-review_191753/12
https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/6/
qui consuma di più:
http://www.hardware.fr/articles/956-9/consommation-efficacite-energetique.html
C'è gente che ha messo il voltaggio in auto :doh:
MiKeLezZ
03-03-2017, 10:29
In secondo luogo lo sviluppo del compilatore non è pagato dal surplus di costo della cpu, come riferisci erroneamente, ma dal costo stesso del compilatore che non è certo economico.
A leggere poi le altre esagerazioni mi viene voglia di tacere.Ma infatti, taci, che è meglio... I 50 euro sono un esempio, né io né te possiamo sapere come vengono spalmati i costi dentro Intel... di certo i dipendenti Intel non vengono pagati "d'aria" e il costo del compilatore (pur elevato) non viene interamente spalmato sui suoi licenziatari (fra i quali si annoverano anche gli "academic"). In tutte le grosse aziende ci sono prodotti a maggiore e minore margine che si compensano e il loro motivo di esistere spesso va oltre la mera profittabilità. Fra l'altro il software & service di Intel è da parecchi quarti in discesa e il software commerciale che gli fa fare soldi non si trova neppure sotto il nome Intel, essendo McAfee Antivirus...
Ti quoto una frase estrapolata dai documenti ufficiali Intel che descrive la "mission" del settore software: "services that promote Intel architecture as the platform of choice for software development"... e se sai l'inglese è chiaro il significato.
MiKeLezZ
03-03-2017, 10:44
In merito ai consumi, le modalità di test cambiano parecchio in rete, ma tra x1800 e i7-6900k c'è un sostanziale allineamento.
Allineamento:
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/74814-amd-ryzen-7-1800x-performance-review-18.html
https://www.vortez.net/articles_pages/amd_ryzen_7_1800x_review,7.html
http://www.techspot.com/review/1345-amd-ryzen-7-1800x-1700x/page6.html
http://www.techspot.com/review/1345-amd-ryzen-7-1800x-1700x/page6.html
qui l'x1800 consuma di meno:
https://lanoc.org/review/cpus/7455-amd-ryzen-7-cpus?showall=&start=3
http://www.legitreviews.com/amd-ryzen-7-1800x-1700x-and-1700-processor-review_191753/12
https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/6/
qui consuma di più:
http://www.hardware.fr/articles/956-9/consommation-efficacite-energetique.htmlDirei che in idle Ryzen consuma di meno (quasi quanto i quad core Intel, il che è piuttosto impressionante) mentre in load consuma leggermente di più sia, come è ovvio, dei quad core, che del diretto antagonista octa core (6900k).
Se però in full load sia il 6900k che il 1800x consumano uguale... mi chiedo la differenza di TDP che AMD dichiara come 45W in meno (95W vs 140W) dove sia. Magia dei numeri!
monkey.d.rufy
03-03-2017, 10:44
in realtà la colpa è della stessa intel,nelle ultime generazione ha fatto ben poco e quindi amd è stata in grado di riprenderla.
Avessero investito di più a quest'ora amd neanche esisterebbe più.
e magari conviene ad Intel che AMD non sia morta
con AMD morta, magari un nuovo concorrente (Samsung, Microsoft, Nvidia) molto piu' potente sarebbe comparso
invece cosi, hai un "nemico gestibile"
Se la situazione potrà ripetersi con questi Ryzen, io non lo so... non resta che vedere... e attendere l'eventuale abbassamento di prezzi.Infatti io ho rimandato ancora di qualche mese l'acquisto del PC proprio per vedere come evolve l'offerta (e come si stabilizzano i prezzi).
Sto anche aspettando di vedere quale sarà l'andazzo delle motherboard sinceramente (non ho voglia di flashare la motherboard due volte a settimana per sei mesi, non sono più un ragazzino).
In tutto questo nel frattempo potrebbe uscire Vega, cosa da non sottovalutare: so che per gicoare in 4K non posso accontentarmi di una GPU da meno di 200 euro come ho fatto per il FullHD (R9 270X a 150 euro nell'estate 2014), ma so anche che a quei livelli un 1700 e un 7700K si equivarranno più o meno come prestazioni in quanto saranno entrambi GPU bound (quindi a parità praticamente di prestazioni nel gaming avrei più prestazioni lato produttività).
A questo punto mi converrebbe il 1700 (che "macina" di più quando uso il PC come workstation), abbinato o a una Vega decente o alla GeForce 1080 (che vorrebbe dire, sigh, abbandonare l'accoppiata Sapphire/AMD dopo quasi 10 anni)...
Ti quoto una frase estrapolata dai documenti ufficiali Intel che descrive la "mission" del settore software: "services that promote Intel architecture as the platform for choice for software development"... e se sai l'inglese è chiaro il significato.Solo un appunto: credo, conoscendo un po' di inglese, che sia platform OF choice (e questo cambia tanto il significato).
Significherebbe (tradotto più o meno liberamente) che sono "servizi che promuovono l'architettura Intel come la piattaforma da scegliere per lo sviluppo software".
monkey.d.rufy
03-03-2017, 10:55
La guerra si farà sui prezzi.
e questo è assolutamente un bene per noi consumatori
Tedturb0
03-03-2017, 11:20
Lo so: ne avevo parlato sopra con Ren. :read: :)
P.S. Per essere chiari, ero un po' ironico prima, con quell'utente. ;)
Potevi fare un po di ironia pure per chi tirava fuori dal cilindro un benchmark pescato da chisa dove..
Ma d'altra parte e' normale che anche cercando di essere imparziali, un po di bias ci sia per certi utenti ;)
Per quanto mi riguarda non comprero nulla perche al momento riesco ad andare avanti con quello che ho, ma certo e' che se dovessi farlo, non ci starei manco a pensare, considerando che gioco poco e solo a roba ormai abbastanza attempata, e i problemi maggiori con l'HW che ho e' nel browsing multitab, alla faccia di chi fino a qualche anno fa provava a vendere "muletti" buoni per "navigazione web" :sofico:
Ormai se non hai un octacore chrome o firefox si incantano con l'immondizia che le pagine caricano.
Scusate, non voglio fare il fanboy AMD, ma mi spiegate l'utilità concreta di processore Intel rispetto a d uno AMD nei giochi quando il con il primo il titolo gira a 110 FPS e con AMD a 102...? No davvero, non capisco... Il limite della giocabilità è sempre determinato dalla GPU... Ed è molto più in basso...
Scusate, non voglio fare il fanboy AMD, ma mi spiegate l'utilità concreta di processore Intel rispetto a d uno AMD nei giochi quando il con il primo il titolo gira a 110 FPS e con AMD a 102...? No davvero, non capisco... Il limite della giocabilità è sempre determinato dalla GPU... Ed è molto più in basso...
Attaccaci un visore e quei 110 fps o 102 crolleranno a 40, forse 45. :)
Il limite della giocabilità è sempre determinato dalla GPU... Ed è molto più in basso...Risposta non seria: a quanto pare i fanboy Intel sono fanboy Intel a tutto tondo, giocano con l'integrata Intel e oltre a 800*600 non riescono ad andare. Quindi, i test si fanno a 800*600. :sofico:
Risposta più seria: è una situazione in cui difficilmente ci troveremo nella vita reale perché, al salire della risoluzione e del dettaglio (e dei filtri) è la GPU che fa sempre più da collo di bottiglia.
Secondo me i giochi sono provati a risoluzioni basse proprio per vedere come si comporterebbero senza il collo di bottiglia della GPU: immagina che tra 2 anni ci siano GPU top di gamma talmente potenti da non fare più da collo di bottiglia in nessuna occasione, in quel caso sarebbe la CPU a determinare chi fa più FPS e chi meno.
digieffe
03-03-2017, 11:36
Gli R7? Bho non credo. AMD ha semplicemente attaccato Intel nella fascia di mercato in cui è più scoperta, la LGA2011 ha un pessimo rapporto prestazioni/prezzo ed è vecchia... e anche il futuro rimpiazzo LGA2066 nascerà vecchio. La LGA1151 toppa a 4 core. C'è quindi un buco di mercato nei 6/8 core da 250/500 euro in cui AMD si è infilata con maestria. Anche se le prestazioni non sono al top e il multithreading è oggi poco sfruttato, di questi Ryzen ne venderanno parecchi, sopratutto nel consumer/prosumer.
*
Direi che in idle Ryzen consuma di meno (quasi quanto i quad core Intel, il che è piuttosto impressionante) mentre in load consuma leggermente di più sia, come è ovvio, dei quad core, che del diretto antagonista octa core (6900k).
Se però in full load sia il 6900k che il 1800x consumano uguale... mi chiedo la differenza di TDP che AMD dichiara come 45W in meno (95W vs 140W) dove sia. Magia dei numeri!
Il TDP non centra con il consumo.
Ma la differenza dipende da quale recensione leggi.
Su computerbase spiegano il discorso TDP dichiarato e consumi.
Attaccaci un visore e quei 110 fps o 102 crolleranno a 40, forse 45. :)Una cosa: se ci fosse questa differenza, sarebbe proporzionale e non sarebbe una differenza "secca" di frame che rimane sempre uguale: se al max uno fa 150 frame e l'altro 120, quando uno ne fa 30 l'altro ne fa 24...
in ogni caso difficilmente avverrebbe, perché sarebbero limitati dalla GPU: sarebbero molto vicini se non pari, che so, 41 per Intel e 40 per AMD.
È lo stesso ragionamento per cui al salire della risoluzione le performance si "appiattiscono" verso il limite della GPU. E quello non lo superi neanche con CPU ancora più prestanti di queste.
A livello di alimentatore queste CPU hanno qualche esigenza particolare come era per Haswell?
digieffe
03-03-2017, 11:41
Ce ne sono altre in rete (come quella di Computerbase) dove si utilizzano più scenari e con AMD avanti. Ma non è quello il punto che mi premeva evidenziare, il punto è che c'è una variabilità molto elevata nelle recensioni spiegabile solo con problemi software/firmware. Che poi era atteso di vedere le CPU AMD andare molto bene nel multithread e molto meno bene in gaming.
a questo punto teoricamente (ma irresponsabilmente) si potrebbero ignorare i risultati peggiori degli stess bench :stordita:
digieffe
03-03-2017, 11:45
Bisognerebbe chiedere a chi ha Ryzen. Tieni conto però che questo è qualcosa che la maggior parte degli utenti non è in grado o non vorrà mai fare, servono soluzioni "trasparenti" all'utente.
no, intendevo che gli sviluppatori software dovrebbero bypassare windows, leggere la topologia della cpu via ACPI ed impostare l'affinity dei loro processi e thread sugli specifici core/ccx in base alle loro esigenze (se windows lo permette/autorizza)
Ho letto commenti che mi hanno fatto fare delle grasse risate, ci sono alcuni utenti in questa discussione che hanno il cervello di una gallina. :asd:
Brava AMD. Primissimi test, potenziali margini di miglioramento, IPC ottimo, prestazioni nei giochi più che sufficienti, prezzi ottimi... vedremo in futuro e questo non vuol dire che per forza si debba passare ad AMD; ci sono però i presupporti per vedere un po' di concorrenza.
5g
Scusate, non voglio fare il fanboy AMD, ma mi spiegate l'utilità concreta di processore Intel rispetto a d uno AMD nei giochi quando il con il primo il titolo gira a 110 FPS e con AMD a 102...? No davvero, non capisco... Il limite della giocabilità è sempre determinato dalla GPU... Ed è molto più in basso...
Se vedi in Rise of TR ryzen fa 103fps e l' intel 145fps.
Letta così e se ci limitassimo a considerare la giocabilità allora l'uno sembra valere l'altro ma in realtà quei 40 fps in più sono tanti e fanno capire quanto l'i7 sia più prestante nei giochi. Potenza che prima o poi può sempre tornare utile :read:
Scusami ma sul punto b) devo dissentire (senza polemiche).
http://pclab.pl/zdjecia/artykuly/mbrzostek/amd_zen/r7_1800x/wykresy/nv_bf1_dx11.png
http://pclab.pl/zdjecia/artykuly/mbrzostek/amd_zen/r7_1800x/wykresy/nv_bf1_dx12.png
E anche:
http://media.gamersnexus.net/images/media/2017/CPUs/1800x/ryzen-r7-1800x-bench-bf1-1440p.png
Senza contare che, da quanto ho visto, BF1 è uno dei giochi che va meglio con Ryzen.
Già il fatto che vada molto bene anche con un i3 dimostra che il Frostbyte non è molto CPU dipendente (anche SW Battlefront l'ho visto girare benissimo su un i3 di prima generazione con una 670)
Azz stasera tutti gli intellisti sono "game oriented" consumi, prestazioni in MT, app di rendering/calcolo/etc.. non contano più una mazza
Ahi ahi ahi...:mc: :mc: :mc:
hahaha :asd: :asd: :asd:
Io lo sono sempre stato, dei consumi frega poco, rendering, calcolo, etc non li faccio (o molto di rado), quindi non vedo perchè dovrebbero interessarmi queste cose?
nickname88
03-03-2017, 12:45
Già il fatto che vada molto bene anche con un i3 dimostra che il Frostbyte non è molto CPU dipendente (anche SW Battlefront l'ho visto girare benissimo su un i3 di prima generazione con una 670)
Io lo sono sempre stato, dei consumi frega poco, rendering, calcolo, etc non li faccio (o molto di rado), quindi non vedo perchè dovrebbero interessarmi queste cose?
In teoria quelli sono rilevamenti effettuati in single player.
Se parliamo di DX12 In multiplayer sfortunamente la storia è differente con qualunque CPU.
http://i63.tinypic.com/n49lyx.jpg
Questa CPU sembra mostrare ottime performance solo con le DX11, con le DX12 peggiore in quasi tutti gli scenari :
https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/4/#diagramm-rise-of-the-tomb-raider-dx12-fps
Tanto si cominciano a vedere i primi pezzi sul mercato...
Da mio fornitore il 1700X lo pagherei 347+iva, praticamente tanto quanto un 6800k.
Come MoBo per ora trovo solo la Asus PRIME B350-PLUS AM4 B350 (https://www.asus.com/us/Motherboards/PRIME-B350-PLUS/) sulle 90€ + iva, questa non mi pare niente male come rapporto qualità/prezzo.
Ahahah, continui a far ridere. Conta le cose intelligenti che hai scritto in questo post, poi moltiplica per quanto vuoi, e otterrai il numero di neuroni presenti nel tuo organismo.
Dire che non capisco nulla di CPU perché chiedo consigli su LGA 775 fa capire il tuo spessore...
Detto ciò, continua a postare le tue trollate da circo.... Fanno ridere :asd:
Già col tuo "io gioco a 4k" si poteva terminare la lettura, poi vado a fare una ricerca nei post che TU hai scritto e si scopre che non ne capisci nulla di CPU e chiedi consigli su quale CPU LGA775 usare... Poi vieni qua e fai il gradasso riempiendoti la bocca di parole come "workstation", "produttività"... è chiaro tu non ne abbia la più pallida idea di cosa siano queste cose. Velo pietoso. Ciò nonostante hai provato ad offendermi. Che pena!
5g
No, saranno gozzilioni di fps per l'una e l'altra cpu con una gpu del 2023 se parliamo sempre di 1080p. Senza se e senza ma. Non c'è alcun minimo motivo per pensare che indipendentemente dalla complessità della grafica questa peserà sulla cpu, la tendenza è diminuire le draw call, non aumentarle.
Ti ripeto, hai fatto un esempio di minchia. A 720p una gpu del 2016 con un processore del 2011 sia intel che amd è overkill e non c'è motivo per credere che il contrario dovrebbe avvenire nei prossimi 6 anni.
moderiamo il linguaggio,ammonizione
nickname88
03-03-2017, 13:03
Tanto si cominciano a vedere i primi pezzi sul percato...
Da mio fornitore il 1700X lo pagherei 347+iva, praticamente tanto quanto un 6800k.
Come MoBo per ora trovo solo la Asus PRIME B350-PLUS AM4 B350 (https://www.asus.com/us/Motherboards/PRIME-B350-PLUS/) sulle 90€ + iva, questa non mi pare niente male come rapporto qualità/prezzo.
Considera che quando si tratta di estendere la compatibilità alla prossima serie di prodotti si tende a prendere in considerazioni i modelli più in vista. Con un prodotto di quella fascia si rischia di non godere di buona considerazione dal produttore.
Ale55andr0
03-03-2017, 13:16
Spero il migliore... se no a chi lo danno il migliore?
Ti so dire tra 2 giorni quando mi arriva :D
A 1700x e 1800x versione con fissi incluso? :stordita:
Ale55andr0
03-03-2017, 13:19
Che mi risulti non esistono giochi che sfruttano 4 core su PC, provo a chiedere in ufficio ma ne sono abbastanza sicuro. (i nostri di certo no lol)
Ti risulta male, lo fa gia gta 4 uscito non so quanti anni fa...e da quello in poi molti altri, compreso crysis 3, witcher 3 ecc
Ti risulta male, lo fa gia gta 4 uscito non so quanti anni fa...e da quello in poi molti altri, compreso crysis 3, witcher 3 ecc
The witcher 3 ne usa due, crysis 3 due.
Mi informo su GTA4 e ti dico.
Ale55andr0
03-03-2017, 13:25
Se giochi soltanto e non fai altro, Ryzen (soprattutto la versione 8 core) probabilmente non fa per te.
Ti direi "eh ma più core verranno utili in futuro" ma è un azzardo, lo ammetto.
Nel mio caso l'azzardo ha pagato più di una volta pagato (X2 4200+ quando la media era ancora single core, i7 920 quando tutti dicevano che i quad sarebbero stati inutili ancora per tre/quattro anni), e ora sto veramente valutando questi Ryzen 8 core quando tutti dicono che 4 bastano... Ma appunto io non gioco soltanto quindi ho esigenze diverse.
Basta pensare che il parco titoli futuro si baserà su macchine ad 8 core...e scorpio potrebbe avere proprio ryzen lato cpu (ovviamente a basso clock) a quel che si dice. Ma ryzen o meno 8 thread hardware in ogni caso
mamma mia gli haters non sanno proprio a cosa aggrapparsi :D
magicamente adesso dei consumi, delle temp e di cinebench non frega più niente a nessuno :asd:
amd ha fatto un mezzo miracolo con un budget ridicolo (350 milioni vs 16 miliardi di R&D) e c'è chi inneggia al fail e al flop :rotfl:
non vale nemmeno la pena rispondere a certi "utenti"...
NO
E' un miracolo e basta. ;)
Ale55andr0
03-03-2017, 13:34
The witcher 3 ne usa due, crysis 3 due.
Mi informo su GTA4 e ti dico.
No&no, e addirittura crysis tre scalava su bulldozer con 8 core...tw3 "li vede" e li sfutta 4 core, che poi possa bastargli meno è altro discorso
No&no, e addirittura crysis tre scalava su bulldozer con 8 core...
Mi sa che non ci siamo capiti.
Tutti i giochi ad oggi in commercio girano su motori che sono ottimizzati per i dual core.
Su questo non ci sono dubbi.
Qualsiasi gioco gira su CPU dual core.
Poi è ovvio che SCALINO ma questo non significa che siano giochi ottimizzati per i quad core.
Ripeto, ad oggi non ci risulta esistano giochi che sfruttino 4 core nativamente.
Di certo non quelli che hai elencato.
Ale55andr0
03-03-2017, 13:39
Mi sa che non ci siamo capiti.
Tutti i giochi ad oggi in commercio girano su motori che sono ottimizzati per i dual core.
Su questo non ci sono dubbi.
Qualsiasi gioco gira su CPU dual core.
Poi è ovvio che SCALINO ma questo non significa che siano giochi ottimizzati per i quad core.
Ripeto, ad oggi non ci risulta esistano giochi che sfruttino 4 core nativamente.
Di certo non quelli che hai elencato.
Ci siamo fraintesi allora :)
..cmq avevo editato ;)
Ci siamo fraintesi allora :)
..cmq avevo editato ;)
Tranquillo ;)
gd350turbo
03-03-2017, 13:42
È un fatto estremamente positivo che AMD abbia compiuto il miracolo e spero che ne vendano un casino...
In tal modo Intel si desterà dal torpore da cui era avvolta dai tempi del C2, si rimetta a lavorare come sa fare e produca delle prossime generazioni di processori con le cosiddette "balls"!
ma confrontare queste CPU con le Intel K che senso ha, le K si sà che costano di più perchè il moltiplicatore è sbloccato, la mia 2500k ad oggi funziona ancora perfettamente con un clock elevato a 4GHz di base e 4,5GHz in turbomode, raffreddato ad aria per giunta.
insomma io prederei un 6800k overcloccato a 3,9 spendo meno e ottengo di più.
i tempi in cui gli AMD si distinguevano per clock per core elevati sono lontanissimi; puntare sul parallelismo non ha ancora ripagato nessuno a causa della svagonata di SW single core ancora in circolazione.
già ci è voluto il ben di dio per vedere grandi case SW produrre roba a 64bit.
Ripeto, ad oggi non ci risulta esistano giochi che sfruttino 4 core nativamente.
Di certo non quelli che hai elencato.Forse quelli basati su EGO 3.0 e 4.0 di Codemasters (che, se non sbaglio, sui dual non partono a prescindere).
ma confrontare queste CPU con le Intel K che senso ha, le K si sà che costano di più perchè il moltiplicatore è sbloccato, la mia 2500k ad oggi funziona ancora perfettamente con un clock elevato a 4GHz di base e 4,5GHz in turbomode, raffreddato ad aria per giunta.
insomma io prederei un 6800k overcloccato a 3,9 spendo meno e ottengo di più.
i tempi in cui gli AMD si distinguevano per clock per core elevati sono lontanissimi; puntare sul parallelismo non ha ancora ripagato nessuno a causa della svagonata di SW single core ancora in circolazione.
già ci è voluto il ben di dio per vedere grandi case SW produrre roba a 64bit.
Perchè non sono tutti che overclockano,anzi,in pratica è una minoranza che non ha peso,quindi i confronti si fanno a default.
Questo vale sia da una parte che dall'altra,non ha senso prendere il prezzo deil 1700 e dire che lo si overclocka.
Forse quelli basati su EGO 3.0 e 4.0 di Codemasters (che, se non sbaglio, sui dual non partono a prescindere).
EGO 4.0 se è quello di F1 2015 gira anche su dual core :)
mamma mia gli haters non sanno proprio a cosa aggrapparsi :D
magicamente adesso dei consumi, delle temp e di cinebench non frega più niente a nessuno :asd:
amd ha fatto un mezzo miracolo con un budget ridicolo (350 milioni vs 16 miliardi di R&D) e c'è chi inneggia al fail e al flop :rotfl:
non vale nemmeno la pena rispondere a certi "utenti"...
Innanzututto non ti permettere mai più di darmi dell'hater o del fanboy, non ho mai concepito nemmeno il senso del tifo sportivo, figuriamoci per una multinazionale! :mad:
Io col PC che ho a casa ci gioco, (al lavoro altro discorso e altro PC) per quale assurda ragione dovrebbe importarmene di cinebench?
Esattanebte come uno che rendering e montaggio video, e non ci gioca, cosa gle ne può fregare di come vanno nei giochi? (proprio ieri ad un cliente che fa questi utilizzi ho consigliato un Ryzen!)
Io non ho mai ineggiato al fail o al flop, anzi sono contento che finalmente AMD abbia tirato fuori una valida CPU, perchè è innegabilmente un'ottima CPU, ma (ancora) non lo è per quello che serve a me, punto.
E ti assicuro che se davvero il 1800x nei giochi si fosse rivelato anche solo il 50% più performante del mio 5820k, la mia mobo+cpu sarebbe già sul mercatino.
EGO 4.0 se è quello di F1 2015 gira anche su dual core :)Ricordavo male io, allora. Ero quasi sicuro che volessero un quad come requisito minimo, stasera se mi ricordo provo a vedere Grid Autosport (che se non sbaglio è EGO 3.0) cosa mi dice.
Parziale delusione.
L'architettura ha delle sue particolarità che rendono necessario un lavoro di ottimizzazione.
Io rimando la decisione, stiamo a vedere se il mercato riterrà vantaggioso ottimizzare il software per questi ryzen e se quindi ne varrà la pena.
bench 1700 vs 7700k:
https://www.youtube.com/watch?time_continue=18&v=BXVIPo_qbc4
NickNaylor
03-03-2017, 14:27
non ho capito se le schede madri b350 supportano comunque il multigpu per il calcolo oppure no ( tipo iray, vray rt e compagnia bella).
comunque già oggi girano dei prezzi micidiali, il 1700X è a 385€ su bpm, un centone di motherboard e ci si tira fuori un pc con i fiocchi :stordita:
OT, scusate
@cdimauro
In merito alla tua domanda/dubbio sull'uso del multithreading in numpy/scipy, dipende molto da quali algoritmi/strutture dati vengono usati nei bench.
In generale no, non usa moltissimo il MT, soprattutto perché molti problemi risolti da quelle librerie non sono facilmente parallelizzabili, e anche quando è fattibile andare in parallelo non sempre è stato fatto (networkx ad esempio o tutto il package del clustering).
OT, scusate
@cdimauro
In merito alla tua domanda/dubbio sull'uso del multithreading in numpy/scipy, dipende molto da quali algoritmi/strutture dati vengono usati nei bench.
In generale no, non usa moltissimo il MT, soprattutto perché molti problemi risolti da quelle librerie non sono facilmente parallelizzabili, e anche quando è fattibile andare in parallelo non sempre è stato fatto (networkx ad esempio o tutto il package del clustering).
E, ad esempio, se viene usato Intel MTK o OpenBlas :)
NickNaylor
03-03-2017, 14:44
Parziale delusione.
L'architettura ha delle sue particolarità che rendono necessario un lavoro di ottimizzazione.
Io rimando la decisione, stiamo a vedere se il mercato riterrà vantaggioso ottimizzare il software per questi ryzen e se quindi ne varrà la pena.
se il tuo pc è quello in firma direi di no, diciamo che è una scelta ottima per chi deve comprarsi un pc ma non un upgrade talmente evoluto da rendere quel processore obsoleto.
Questa estrema variabilità di Ryzen su Handbrake, rispetto al 6900K non può essere dovuta ai settings o al file. E' troppo elevata. Io penso che dipenda dalla diversa marca di MB che è stata data ad ogni reviewer, se avevano fatto l'aggiornamento BIOS, se avevano disabilitato HPET e core parking, ecc... Ci sono troppe variabili. Io prenderei il miglior risultato, ossia quello in cui il 1800X supera anche il 6950. Questo è il miglior risultato in handbrake e dovrebbe essere riproducibile anche con altre MB prima o poi...
Qui c'è la prova del 1700x
http://www.guru3d.com/articles-pages/amd-ryzen-7-1700x-review,22.html
C'è da dire che in full hd non spinge affatto come gli intel ed è la risoluzione maggiormente utilizzata nei giochi
Qui c'è la prova del 1700x
http://www.guru3d.com/articles-pages/amd-ryzen-7-1700x-review,22.html
C'è da dire che in full hd non spinge affatto come gli intel ed è la risoluzione maggiormente utilizzata nei giochi
imho mancano MHz
È un fatto estremamente positivo che AMD abbia compiuto il miracolo e spero che ne vendano un casino...
In tal modo Intel si desterà dal torpore da cui era avvolta dai tempi del C2, si rimetta a lavorare come sa fare e produca delle prossime generazioni di processori con le cosiddette "balls"!
Credo che questa sia una certezza.
I prezzi sono vermete competitivi, più agressivi ed incazzati di così dibito si possa essere! :stordita:
carlottoIIx6
03-03-2017, 15:46
bench 1700 vs 7700k:
https://www.youtube.com/watch?time_continue=18&v=BXVIPo_qbc4
come si vede in alcuni casi il 7700k va al 90% mentre il 1700 va all'acqua di rose.
questo vuold ire soolo una cosa, che con i visori non basta più.
kliffoth
03-03-2017, 16:03
Finalmente una ventata d'aria fresca!
Finalmente si può leggere una recensione in cui la notizia non è sul solito incremento di 100 mhz della frequenza della CPU o sulla presentazione di un chipset volutamente castrato!
Qualche aggiornamento di Bios per sistemare le cose con le RAM e piccoli altri problemi di gioventù ed abbiamo un bel prodotto sottomano.
Io aspetterò il 2020 per il mio PC (tiro win 7 fino alla morte), per cui molto probabilmente valuterò un Ryzen 2, ma se dovessi assemblare oggi potrei considerare un processore AMD come una normale opzione di acquisto e non come un gesto caritatevole (il mio ultimo AMD è stato un Athlon 1200 che funzionava pure con il core un pelino scheggiato in un angolo).
Questo detto ho due appunti.
- Il chipset AMD non mi entusiasma moltissimo, per quanto pare che costi meno degli intel (ovviamente mi riferisco al X370).
- Il prezzo dei Ryzen al day 2 (oggi), almeno su Amazon, è decisamente lontano da quello in dollari (e lo conferma pure una veloce ricerca su toppreise e su trovaprezzi)
EDIT
Una curiosità: avete notato l'andamento delle temperature? In idle sono processori relativamente caldi, mentre a regime mostrano valori interessanti (al pari dei consumi)
bench 1700 vs 7700k:
https://www.youtube.com/watch?time_continue=18&v=BXVIPo_qbc4
Ecco finalmente il filmato che volevo vedere, con il carico CPU bene in mostra! :ave:
E da questo si può capire perchè è necessario fare test a basse risoluzioni per testare le vere potenzialità di una CPU in ambito gaming...
Se la GPU lavora al 100% (quindi siamo in una situazione di GPU Limit), e la CPU al 20/30%, non si potrà mai capire quanto questa "spinga", e le piccole differenze sono solo dovute a problemi di ottimizzazione.
Bisognerebbe che invece al contrario fosse le CPU e lavorare al 100% (e quindi siamo in situazione CPU Limit), e la GPU a lavorare a carichi inferiori, solo così si riesce veramente a mettere alla frusta il processore.
Proprio per ottenere questo si svolgono test a basse risoluzioni, cosa che alcuni utenti ancora non riescono a capire e tirano fuori discorsi inutili tipo "ma a che serve fare un test a 720p se gioco in 4k?". :p
kliffoth
03-03-2017, 16:15
Ecco finalmente il filmato che volevo vedere, con il carico CPU bene in mostra! :ave:
E da questo si può capire perchè è necessario fare test a basse risoluzioni per testare le vere potenzialità di una CPU in ambito gaming...
Se la GPU lavora al 100% (quindi siamo in una situazione di GPU Limit), e la CPU al 20/30%, non si potrà mai capire, e le piccole differenze sono solo dovute a problemi di ottimizzazione.
Bisognerebbe che invece al contrario fossero le CPU e lavorare al 100% (e quindi siamo in situazione CPU Limit), e la GPU a lavorare a carichi inferiori, solo così si riesce veramente a mettere alla frusta il processore.
Proprio per ottenere questo si svoltono test a basse risoluzioni, cosa che alcuni utenti ancora non riescono a capire e tirano fuori discorsi inutili tipo "ma a che serve fare un test a 720p se gioco in 4k?". :p
Basta fare un test sul carico del processore: "ambito gaming" dice poco o nulla, visto che ci sono decine di motori diversi. I giochi sono una categoria separata, ed in ogni caso la parte del leone la fa la scheda video.
A proposito, come vanno con fritz?? Non trovo niente in proposito ed io uso parecchio engine di scacchi.
Basta fare un test sul carico del processore.
A proposito, come vanno con fritz?? Non trovo niente in proposito ed io uso parecchio engine di scacchi.
Il Fritz (perlomeno il benchmark) che io sappia utilizzava solo 4 cores, non so se poi l'hanno aggiornato.
Basta fare un test sul carico del processore: "ambito gaming" dice poco o nulla, visto che ci sono decine di motori diversi. I giochi sono una caegoria separata, ed in ogni caso la parte del leone la fa la scheda video.
A proposito, come vanno con fritz?? Non trovo niente in proposito ed io uso parecchio engine di scacchi.
Qui ci sono il test con Stockfish 8 e Komodo:
http://www.hardware.fr/articles/956-14/ia-echecs-stockfish-komodo.html
kliffoth
03-03-2017, 16:22
Il Fritz (perlomeno il benchmark) che io sappia utilizzava solo 4 core, non so se poi l'hanno aggiornato.
mmm che io sappia no.
Ecco un estratto dal manuale di Houdini 4 dove si menzionano 8 thread (NB Houdini usa max 6 core nella versione base e 32 nella pro)
Cito Houdini perchè fa parte della Chessbase come Fritz ed usa la loro GUI e i loro bench.
Il mio prossimo programma sarà Komodo (sempre chessbase)
The architecture of Houdini (and of chess engines in general) is not very well suited for hyper-threading; using more threads than physical cores will usually degrade the performance of the engine. Although the hyper-threads often produce a slightly higher node speed, the increased inefficiency of the parallel alpha-beta search more than offsets the speed gain obtained with the additional hyper-threads.
To give a practical example, it's more efficient to use 4 threads running at 2,000 kN/s each than 8 threads running at 1,100 kN/s each, although the latter situation produces a higher total node speed.
For this reason it's best to set the number of threads not higher than the number of physical cores of your hardware.
NB: si noti il discorso sull'hyper-threading...chissà se possa essere applicato anche altrove
mmm che io sappia no.
Il ricordo che fritz benchmark sul mio 5820k mi vedeva 8 logical processor anzichè 12, ma appunto era solo il benchmark stand-alone.
In effetti 8, non 4 come ho scritto erroneamente prima, ma non me li vedeva tutti e 12.
Benchmark con nastran, ansys, abaqus ce ne sono da qualche parte?
Di cinebench e test di rendering mi frega meno di zero....
Guardate per esempio la differenza tra stock con SMT e stock senza.
Link ad immagine (click per visualizzarla) (http://media.gamersnexus.net/images/media/2017/CPUs/1800x/ryzen-r7-1800x-bench-bf1.png)
Ah però, in questo caso la differenza è davvero notevole.
Interessante notare che il 7700K, al contrario, va meglio con SMT attivo.
In tal modo Intel si desterà dal torpore da cui era avvolta dai tempi del C2, si rimetta a lavorare come sa fare e produca delle prossime generazioni di processori con le cosiddette "balls"!
Ma come, dai per scontato che sia Intel a produrli e non AMD? ;)
Proprio per ottenere questo si svolgono test a basse risoluzioni, cosa che alcuni utenti ancora non riescono a capire e tirano fuori discorsi inutili tipo "ma a che serve fare un test a 720p se gioco in 4k?".
Altri invece sembrano non capire l'utilità dei test a risoluzioni elevate.
A mio parere entrambi i test sono utili per valutare una CPU: a basse risoluzioni ci si rende meglio conto dei limiti della CPU (e si ragiona sulle prestazioni future), ad alte risoluzioni si valuta invece l'impatto di questi limiti nei casi reali (e qui si ragiona se l'impatto reale sia tale da pregiudicare la scelta di una CPU che magari ha altri vantaggi).
In ogni caso, stando le cose come sta emergendo nelle ultime pagine, pare che tutti questi test e i relativi giudizi siano ancora abbastanza prematuri, e che la piattaforma abbia ancora bisogno di affinamenti prima di potersi esprimere al meglio.
Sicuramente sono utili anche i test a risoluzioni elevate, e sarebbero utili anche test in configurazione multi GPU (sia SLI che Crossfire) e con visori VR.
Sicuramente sono utili anche i test a risoluzioni elevate, e sarebbero utili anche test in configurazione multi GPU (sia SLI che Crossfire) e con visori VR.
Ecco. Anche perchè giocare in 4k con una sola vga non è il massimo
leoneazzurro
03-03-2017, 18:55
Attenzione:
https://translate.google.co.uk/translate?hl=en&sl=de&u=https://www.golem.de/news/ryzen-7-1800x-im-test-amd-ist-endlich-zurueck-1703-125996-4.html&prev=search
"Version 117, which is still up-to-date, improved speed and stability. If we were still able to count on sporadic Bluescreens with the older UEFI, the board is currently stable. Much more important, however, is the drastically higher performance in games and the real pack with 7-Zip. The release notes include, among other things, a fixed problem with the storage act and its timing as well as the voltage.
Drastically more performance with a new BIOS
Compared to the original bios, the new UEFI increases the image rate in our game course between plus 4 and plus 26 percent, on the average even plus 17 percent! In view of this tremendous increase in performance, we had to be certain that our values are correct, and have measured with the Asus boards. This gives us a touch more speed in games than with the updated MSI board.
Apart from the low bios performance with the older bios, an option is also missing for the MSI board, as well as for the Asus boards, to switch off the Simultaneous Multithreading (SMT) of the Ryzen 7 1800X. Since AMD according to its own statement similar to formerly Intel under Core parking is suffering, SMT reduces the picture rate in some games partly. In turn, SMT has accelerated some applications dramatically, so we would have liked to try out how the double thread count affects the performance. "
Sembrano esserci problemi gravi di BIOS per le MB Asus e MSI. Joker, che ha risultati piuttosto buoni anche nel gaming anche a risoluzioni basse (OC 3,9 Ghz Ryzen vs 5GHz 7700 K) , ha utilizzato invece la Gigabyte. Risultati buoni anche per un altro sito con la Asrock Taichi.
nickname88
03-03-2017, 19:16
Per chi fosse interessato
C'è il confronto gaming 1700 vs 7700K a BASSA RISOLUZIONE.
https://www.youtube.com/watch?v=nsDjx-tW_WQ
E purtroppo spesso AMD paga parecchio
leoneazzurro
03-03-2017, 19:20
Neanche tanto, nella stragrande maggioranza dei casi paga la differenza di clock, in altri è addirittura allineato.
Comunque:
https://www.youtube.com/watch?v=TBf0lwikXyU
cdimauro
03-03-2017, 19:25
Ti quoto in tutta la linea. In particolare, come hai visto anche te, ci sono enormi differenze tra le recensioni, persino sugli stessi software.
Ho letto anche le eccellenti recensioni (molto complete e dettagliate: la prima più per le applicazioni, la seconda più per i giochi) di hardware.fr e computerbase.de, e anche quella di Phoronix su Linux & compilatore GCC (la recensione è un po' esotica: testano applicazioni per lo più diverse da quelle degli altri recensori), ma il trend rimane lo stesso o anche un po' peggiore rispetto a quello visto finora.
Hai presentato bene anche quali sono secondo te i punti deboli, e pure io credo che il problema delle cache sia uno dei primi imputabili di queste disparità di performance.
Non solo la cache (in particolare la L3. Vedi dopo), ma credo che sia la micro-architettura di per sé a essere intrinsecamente poco efficiente.
Qui (http://www.hardware.fr/articles/956-6/piledriver-zen-broadwell-e-3-ghz.html) trovi un'analisi dell'IPC, suddivisa per applicazioni e giochi, che penso sia abbastanza eloquente, specialmente coi giochi, dove c'è un abisso rispetto a Broadwell-E.
Qui (http://www.hardware.fr/articles/956-22/retour-sous-systeme-memoire.html) un'analisi sul cache & memoria, dove si vede che la latenza della cache L2 è del 34% maggiore, mentre per la L3 addirittura del 270% (non è uno scherzo: è quasi il triplo!) maggiore. Anche l'accesso alla memoria è più lento, di circa il 40%.
Infine, nell'unico test (Himeno, di Phoronix (http://www.phoronix.com/scan.php?page=article&item=ryzen-1800x-linux&num=4)) in cui vengono usate appositamente le AVX-2 e ottimizzazione massima (-O3, con GCC. Ma sulle ottimizzazioni si è discusso di recente, in un altro thread. Dunque prendilo comunque con le pinze), Haswell-E (i7-5960X. Purtroppo non c'è il 6900K / Broadwell-E) risulta più veloce del 59%, mentre Kaby Lake (i7-7700K) arriva a uno stratosferico +245%.
Ma ripeto: è UN solo test, che va preso con le pinze. Come ho già ripetuto innumerevoli volte, mi piacerebbe vedere molti più test con AVX/-2, e magari con compilatori diversi (GCC e pure Intel), con ottimizzazioni massime per specifiche micro-architetture.
Per me, ottimo processore. Tuttavia, per la prossima linea R5 e R3 credo che, se le frequenze sono quelle mostrate dai leak, le recensioni non saranno così positive come negli R7. Devono andare più veloci, e forse c'è un limite nell'architettura/PP per salire di frequenza.
Da tutte le recensioni che ho letto (mi manca solo Tom's. Sono ANNI che non leggo recensioni da quel sito :D, ma questa volta farò un'eccezione perché mi interessano i test con AVX. Se ce ne sono altri), finora sembra che il limite sia di 4Ghz, e alcuni sono arrivati a 4,1Ghz, ma in ogni caso con v-core molto alti, e consumi che sono arrivati alle stelle.
cdimauro
03-03-2017, 19:30
Delusione? cosa ti aspettavi, un 6900k like a 250€ ??? Resta pure su Intel e spendine 1000 solo di cpu, per non essere inferiore a Ryzen, fai così...
Se vuoi appena di più ne spendi quasi 1800 col 6950x, te lo sconsiglio.
Io da povero accattone quale indirettamente mi definisci bado sempre al rapporto Prezzo/MiaUtilità, cioè quel che mi è utile e mi serve anche nel tempo senza rinunce spendendo il meno possibile.
Però vedo anche tu hai problemi urgento di prezzo... Deciditi, sei Paperone o un rockroll qualsiai?
PS: Un R7 1800x va praticamente come un 6900k, lo hai appena ammesso all'inizio... o sbaglio.
Guarda che LucaLindholm tutto lo puoi chiamare, fuorché fanboy Intel. Tutt'altro.
Finora nei suoi commenti è stato un fanatico AMD / hater Intel. Basti leggere i commenti che ha scritto su Zen PRIMA di ieri.
Solo che ieri sono arrivate le recensioni di Ryzen, e ha preso atto della situazione. Quindi il tifo fino a un certo punto: poi subentra il realismo, e il sano pragmatismo.
Comunque l'arrivo di Ryzen è certamente positivo per tutti, come già detto: è un all win, come si suol dire. Ne guadagneranno le tasche di tutti.
Per chi fosse interessato
C'è il confronto gaming 1700 vs 7700K a BASSA RISOLUZIONE.
https://www.youtube.com/watch?v=nsDjx-tW_WQ
E purtroppo spesso AMD paga parecchio
Interessante, si nota che in alcuni giochi ne GPU ne CPU lavorano al 100% (probasbilmente dovuto a limiti del motore di gioco), in alri (vedi tomb raider) l'intel lavora al 100%, mentre l'AMD no.
Si nota anche una ditribuzione del carico più omogena tra i vari core sull'Intel rispetto all'AMD, sopratutto su TW3 (e GTA5) dove sull'i7 lavorano tutti intorno al 50/60%, mentre sul Ryzen alcuni lavorano quasi al 100%, altri stanno praticamente inattivi allo 0%.
Con altri giochi invece sembra non esserci questo problema.
http://i.imgur.com/j9ij7mV.jpg
carlottoIIx6
03-03-2017, 19:41
http://thumbnails117.imagebam.com/53601/0d8964536008834.jpg
leoneazzurro
03-03-2017, 19:43
E' un grafico in percentuale (100=100%)
cdimauro
03-03-2017, 19:45
Scusate ma leggo di litigi sulla risoluzione dei test nei giochi e non capisco il senso della discussione.
E' normale che più salga la risoluzione e meno serva la CPU.
Se prendete un vecchio 2600k e testate BF1 a 4k vedrete che avrà gli stessi FPS di tutte le CPU uscite dopo questa.
Che senso ha fare questi test limitati dalla GPU?
Se volete testare sul serio una CPU con i giochi dovete sgravare totalmente (ovviamente non è possibile) la GPU.
Fateli a 720p e vedrete come un 2600k le prende sui denti da tutti.
Non serve a nulla in ambito pratico perché nessuno si compra una CPU da 350€ per giocare a 720p però se proprio volete fare a gara con chi tra AMD e Intel ha la CPU migliore a livello tecnologico il test corretto è quello che suggerisco.
Assolutamente d'accordo. E aggiungo che per minimizzare l'impatto della GPU, è bene prenderne una quanto più potente possibile.
Viceversa, se si vuol testare la bontà di una GPU, si prenderanno risoluzioni molto elevate, e una CPU quanto più potente possibile.
Poi è chiaro che nella vita reale uno la CPU la sfrutterà alla risoluzione più congeniale (o che supporta la TV/monitor), ma per scegliere una CPU in ambito gaming bisogna vedere come si comporta.
Aggiungo che rimane comunque importante vedere come vanno le CPU a risoluzione più basse, e quindi saggiarne il comportamento, perché in futuro arriveranno GPU sempre più potenti, che garantiranno prestazioni superiori. E una volta che una GPU ti consente di poter fare più, sarà poi la CPU a doverle star dietro, elaborando un maggior numero di frame.
nickname88
03-03-2017, 19:46
Neanche tanto, nella stragrande maggioranza dei casi paga la differenza di clock
Si ok ma quindi ? E' una mancanza che non si risolve mica.
Su alcuni titoli è appaiato perchè sono ancora GPU-Limited nonostante la risoluzione.
Watch Dogs 2, The Division, Sniper Elite ed in uno scenario di Rise of Tomb Raider mostra pesanti handicap.
Ogni tanto mi chiedo se leggete i post.
Mi sembra chiaro che in queste condizioni i core di ryzen non sono sfruttati al 100%.
P.S: sarebbe interessante la stessa prova fatta senza SMT.Si ok ma l'AVG cambia comunque poco.
Se escludiamo qualche calo repentino ammettendo sia causato dall'SMT la media paga comunque dazio in alcuni titoli.
Che poi la potenza sia sufficiente per i titoli e le VGA attuali poi è un altro discorso.
HwWizzard
03-03-2017, 19:55
Ho letto anche le eccellenti recensioni (molto complete e dettagliate: la prima più per le applicazioni, la seconda più per i giochi) di hardware.fr e computerbase.de, e anche quella di Phoronix su Linux & compilatore GCC (la recensione è un po' esotica: testano applicazioni per lo più diverse da quelle degli altri recensori), ma il trend rimane lo stesso o anche un po' peggiore rispetto a quello visto finora.
Non solo la cache (in particolare la L3. Vedi dopo), ma credo che sia la micro-architettura di per sé a essere intrinsecamente poco efficiente.
Qui (http://www.hardware.fr/articles/956-6/piledriver-zen-broadwell-e-3-ghz.html) trovi un'analisi dell'IPC, suddivisa per applicazioni e giochi, che penso sia abbastanza eloquente, specialmente coi giochi, dove c'è un abisso rispetto a Broadwell-E.
Qui (http://www.hardware.fr/articles/956-22/retour-sous-systeme-memoire.html) un'analisi sul cache & memoria, dove si vede che la latenza della cache L2 è del 34% maggiore, mentre per la L3 addirittura del 270% (non è uno scherzo: è quasi il triplo!) maggiore. Anche l'accesso alla memoria è più lento, di circa il 40%.
Infine, nell'unico test (Himeno, di Phoronix (http://www.phoronix.com/scan.php?page=article&item=ryzen-1800x-linux&num=4)) in cui vengono usate appositamente le AVX-2 e ottimizzazione massima (-O3, con GCC. Ma sulle ottimizzazioni si è discusso di recente, in un altro thread. Dunque prendilo comunque con le pinze), Haswell-E (i7-5960X. Purtroppo non c'è il 6900K / Broadwell-E) risulta più veloce del 59%, mentre Kaby Lake (i7-7700K) arriva a uno stratosferico +245%.
Ma ripeto: è UN solo test, che va preso con le pinze. Come ho già ripetuto innumerevoli volte, mi piacerebbe vedere molti più test con AVX/-2, e magari con compilatori diversi (GCC e pure Intel), con ottimizzazioni massime per specifiche micro-architetture.
Da tutte le recensioni che ho letto (mi manca solo Tom's. Sono ANNI che non leggo recensioni da quel sito :D, ma questa volta farò un'eccezione perché mi interessano i test con AVX. Se ce ne sono altri), finora sembra che il limite sia di 4Ghz, e alcuni sono arrivati a 4,1Ghz, ma in ogni caso con v-core molto alti, e consumi che sono arrivati alle stelle.
Non c'è un abisso tra Zen e Broadwell-E visto che il grafico è fuorviante ;)
L'unico caso dove la differenza è piuttosto marcata è 7Zip dove come visto in un intervento di leoneazzurro sembra esserci un grave problema con i BIOS.
Cmq è innegabile che l'IPC di Zen sia inferiore a quello di Broadwell-E e SL-KL ma l'abisso non c'è ;)
Ripeto, queste CPU sono uscite per scontrarsi con quelle sul socket 2011 e lo fanno alla grande, intel ha più IPC mentre AMD è salita più in frequenza, sono scelte, il dubbio mi rimane per gli R5 che non dovessero superare abbondantemente i 4Ghz diventerebbero dei mezzi fail.
leoneazzurro
03-03-2017, 19:55
Si ok ma quindi ? E' sempre dietro.
Su alcuni titoli è appaiato perchè sono ancora GPU-Limited nonostante la risoluzione.
Watch Dogs 2, The Division, Sniper Elite ed in uno scenario di Rise of Tomb Raider mostra pesanti handicap.
Ma che stia dietro con 1,1 GHz di differenza ci sta, è una questione fisica se non si sfrutta pesantemente il multithreading. Solo ottimizzando i giochi per il MT si potranno avere prestazioni paragonabili. Solo che a) non lo è tanto indietro quanto hanno fatto vedere altre review e B) se le differenze sono in linea con la differenze di clock vuol dire che a livello di IPC non c'è una differenza abissale, il che promette bene per il futuro e per le prossime iterazioni dell'architettura (Zen+). Per la frase sul GPU-Limited: macchestaiaddì, GPU limited con una 1080 a 720p e settaggi bassi? Vabbé.
nickname88
03-03-2017, 19:56
Ma che stia dietro con 1,1 GHz di differenza ci sta, è una questione fisica se non si sfrutta pesantemente il multithreading. Solo ottimizzando i giochi per il MT si potranno avere prestazioni paragonabili. Solo che a) non lo è tanto indietro quanto hanno fatto vedere altre review e B) se le differenze sono in linea con la differenze di clock vuol dire che a livello di IPC non c'è una differenza abissale, il che promette bene per il futuro e per le prossime iterazioni dell'architettura (Zen+). Per la frase sul GPU-Limited: macchestaiaddì, GPU limited con una 1080 a 720p e settaggi bassi? Vabbé.
Concordo ;)
Però l'ottimizzazione non è mica in attesa di giungere e la mancanza di frequenza non verrà di certo fixata.
E' la stessa identica situazione che si è presentata con gli FX anni fa e che rimane tutt'ora invariata.
cdimauro
03-03-2017, 20:02
non potevano, il prodotto non esisteva e gli ES non erano credibili :(
Allora AMD avrebbe fatto bene a spostare il lancio di un paio di settimane, in modo da dare la possibilità di avere firmware/BIOS più aggiornati & stabili & performanti, ma soprattutto molto più tempo ai redattori per lavorare, e nel caso in cui fossero stati rilevati dei problemi (come sembra ci siano), segnalarlo ad AMD, aspettare il fix, e ritornare a lavorare per arrivare alla recensione finale e ben ponderata.
AMD forse non s'è resa conto dell'enorme danno che s'è fatta con questa politica del lancio a tutti i costi, con una piattaforma immatura.
Perché la gente ricorderà le recensioni che sono state fatte ORA: non gli aggiornamenti che arriveranno fra un po'! Anche perché voglio vedere chi saranno quei redattori che rifaranno da capo TUTTO il lavoro.
E' chiaro che quel è uscito ieri sarà destinato a rimanere decisamente più impresso. Nel bene e nel male...
quindi in windows non è possibile che un processo chieda al OS delle affinità per se stesso o per i sui thread?
Assolutamente sì, ma è una cosa che generalmente non fa, perché giustamente lascia questo compito al s.o. (kernel), che dovrebbe farlo... nel migliore dei modi (quanto meno meglio di lui). :D
Un processo (applicazione, parlando in generale) non può conoscere tutti i vincoli di tutte le piattaforme, anche future, su cui girerà. :stordita:
anche le cpu intel migliorano disabilitando l'SMT ma non come ryzen. Se ricordo bene computerbase.de dovrebbe aver fatto tali misurazioni.
Sì, le ha fatte, e un utente le ha riportate poco fa. A seconda dei casi, Ryzen ne risente di più. Alcune volte ne risente di più la piattaforma Intel.
Difficile, senza test ad hoc, stabilire dove stiano i problemi.
Comunque se controlli i numeri, l'impatto che ha l'SMT è decisamente inferiore rispetto alla differenza prestazionale che Ryzen con la concorrenza (che comunque è anch'essa penalizzata dall'SMT, visto che è tenuto acceso. Mi riferisco alle soluzioni Intel con più di 4 core).
bypassando windows e leggendo la topologia direttamente dalle tabella ACPI?
e tentado un affinamento, qualora fosse possibile ed anche da processo non privileggiato?
No. Lascia perdere. Non esiste che OGNI applicazione (MT) debba farsi carico autonomamente di un problema che non le pertiene.
Tra l'altro, come dicevo prima, non può nemmeno sapere in futuro come funzioneranno i processori.
cdimauro
03-03-2017, 20:05
Ce ne sono altre in rete (come quella di Computerbase) dove si utilizzano più scenari e con AMD avanti. Ma non è quello il punto che mi premeva evidenziare, il punto è che c'è una variabilità molto elevata nelle recensioni spiegabile solo con problemi software/firmware. Che poi era atteso di vedere le CPU AMD andare molto bene nel multithread e molto meno bene in gaming.
Non mi risulta (finita di leggerla un'oretta fa).
Tra l'altro coi giochi ha utilizzato anche la 720p, e la situazione che viene fuori è peggiore.
Per chi fosse interessato
C'è il confronto gaming 1700 vs 7700K a BASSA RISOLUZIONE.
https://www.youtube.com/watch?v=nsDjx-tW_WQ
E purtroppo spesso AMD paga parecchio
Parecchio? Mi pare avanti su The Division e solo su GTA 5 c'è una differenza percepibile.
Ergo, tutto ciò conferma che i problemi sono lato software, la cpu c'è eccome.
cdimauro
03-03-2017, 20:15
Si usa il compilatore Intel perchè è quello che da codice migliore per il 90% delle cpu in uso.
Da sottolineare che spesso, anche se non sempre, il compilatore intel fornisce codice pari, o più rapido, anche per cpu AMD, a meno di non volere subito le feature delle ultime cpu della concorrenza implementate a livello di path.
Corretto. Anche se purtroppo è difficile farlo capire.
In secondo luogo lo sviluppo del compilatore non è pagato dal surplus di costo della cpu, come riferisci erroneamente, ma dal costo stesso del compilatore che non è certo economico.
Invece qui ha ragione MiKeLezZ: il compilatore ha certamente un suo valore e Intel guadagna dalla sua vendita, ma nasce in funzione / a supporto delle vendite delle CPU.
Intel non è una software house. Il software è soltanto il contorno / supporto al suo (vero) business: il silicio.
Si ok ma quindi ? E' una mancanza che non si risolve mica.
Su alcuni titoli è appaiato perchè sono ancora GPU-Limited nonostante la risoluzione.
Non mi pare di vedere la gpu al 100 % in quei giochi, ma giriamoci la frittata come ci torna comodo ;)
psychok9
03-03-2017, 20:18
Per chi fosse interessato
C'è il confronto gaming 1700 vs 7700K a BASSA RISOLUZIONE.
https://www.youtube.com/watch?v=nsDjx-tW_WQ
E purtroppo spesso AMD paga parecchio
Visto il bug con l'SMT... se non lo disattivano ha poco senso.
digieffe
03-03-2017, 20:22
Non mancano Mhz, windows (ma anche linux immagino) ha problemi con l'SMT AMD (e non c'è da stupirsi visto che è nuovo).
Spegnendo SMT già si migliora sopratutto gli FPS minimi, ma poi ovviamente si sta usando un processore a metà.
Attesa patch per sistemare il problema.
Guardate per esempio la differenza tra stock con SMT e stock senza.
http://media.gamersnexus.net/images/media/2017/CPUs/1800x/ryzen-r7-1800x-bench-bf1.png
non ho ancora verificato nello specifico, ma linux gestisce bene le diverse topologie di cpu*, tant'è vero che computerbase ne parla bene nella review di linux
*qui stiamo parlando di 1 nodo NUMA, all'interno del quale ci sono 2 cluster di core (ccx) e per ogni core ci sono 2 tread hardware.
l'allocazione standard è prima tutti i core fisici 1..8 e poi quelli logici 9..16
non so ancora se alloca prima i core all'interno di un ccx e poi nell'altro o alternativamente
ciò che invece posso assicurare che non fa saltellare i processi/thread su una cpu logica quando ce ne sono di fisiche libere e di conseguenza da un cluster ad un altro, è chiamato auto-affinity
leoneazzurro
03-03-2017, 20:24
Non mi risulta (finita di leggerla un'oretta fa).
Tra l'altro coi giochi ha utilizzato anche la 720p, e la situazione che viene fuori è peggiore.
Intendevo con Handbrake, non nel gaming. Per il gaming è per forze di cose indietro al 7700K in molti giochi (era atteso), lo è anche il 6900K, il problema di scheduling è palese dove c'è una differenza marcata tra 6900K e 1800X
nickname88
03-03-2017, 20:27
Parecchio? Mi pare avanti su The Division e solo su GTA 5 c'è una differenza percepibile.
Ergo, tutto ciò conferma che i problemi sono lato software, la cpu c'è eccome.
Soltanto .... sono 2 titoli di un certo rilievo già solo quelli, ma aggiungiamo pure Sniper Elite, Watch Dogs 2 ( che ha visto un calo sotto i 50fps ) e Project Cars dove paga pegno. ;)
Il software non c'è ma non c'è mai stato e forse non ci sarà per anni, come ho riferito prima è la stessa situazione di quando uscirono i processori Bulldozer, non mi pare sia cambiato qualcosa in 6 anni.
Adesso ci sarebbero i test che mostrano dei cali di frames in presenza di SMT, ma lo stesso vale anche per Intel, non è mica detto che verra fixato qualcosa in tal merito, differente invece la storia delle DX12.
psychok9
03-03-2017, 20:39
Soltanto .... sono 2 titoli di un certo rilievo già solo quelli, ma aggiungiamo pure Sniper Elite, Watch Dogs 2 ( che ha visto un calo sotto i 50fps ) e Project Cars dove paga pegno. ;)
Il software non c'è ma non c'è mai stato e forse non ci sarà per anni, come ho riferito prima è la stessa situazione di quando uscirono i processori Bulldozer, non mi pare sia cambiato qualcosa in 6 anni.
Adesso ci sarebbero i test che mostrano dei cali di frames in presenza di SMT, ma lo stesso vale anche per Intel, non è mica detto che verra fixato qualcosa in tal merito, differente invece la storia delle DX12.
Copio da un utente su youtube:
I don't get it. The past year and a half all i hear is "i5 is great for games". AMD drops a chip that games around i5 level and it's trash for gaming? AND kills it at productivity and multitasking? But thats a bad thing?
Mi sembra abbia detto tutto.
Per quanto riguarda Intel, poi hanno patchato... e solo in casi sparuti cala un pelo... mentre con AMD è penalizzante dai test che ho visto...
Spero che non dovremo aspettare le cpu Ryzen 5 per vedere dei bench con bios decenti e SMT disabilitato quantomeno...
nickname88
03-03-2017, 20:46
Copio da un utente su youtube:
Mi sembra abbia detto tutto.
Il Core i5 ha un altro costo però ;)
Il SMT di AMD penalizza sul fronte dei frames minimi, ma sull'AVG quasi nulla.
digieffe
03-03-2017, 20:52
Ah però, in questo caso la differenza è davvero notevole.
Interessante notare che il 7700K, al contrario, va meglio con SMT attivo.
ciò è logico,
essendo il 7700k con soli 4th fisici "impegnato", i supplementari 4 logici, seppur introducendo "caos", aiutano
mentre,
per zen bastando gli 8th fisici (contrapposti agli 8 logici del 7700k), gli altri 8 logici non fanno altro che introdurre caos nella gestione con degrado di prestazioni
Altri invece sembrano non capire l'utilità dei test a risoluzioni elevate.
A mio parere entrambi i test sono utili per valutare una CPU: a basse risoluzioni ci si rende meglio conto dei limiti della CPU (e si ragiona sulle prestazioni future), ad alte risoluzioni si valuta invece l'impatto di questi limiti nei casi reali (e qui si ragiona se l'impatto reale sia tale da pregiudicare la scelta di una CPU che magari ha altri vantaggi).
In ogni caso, stando le cose come sta emergendo nelle ultime pagine, pare che tutti questi test e i relativi giudizi siano ancora abbastanza prematuri, e che la piattaforma abbia ancora bisogno di affinamenti prima di potersi esprimere al meglio.
quoto
HwWizzard
03-03-2017, 20:56
Il Core i5 ha un altro costo però ;)
Il SMT di AMD penalizza sul fronte dei frames minimi, ma sull'AVG quasi nulla.
Scusa ma non riesco a capire il senso dei tuoi post. Fino a ieri AMD merda le prende anche da un i5 e stendiamo un velo pietoso riguardo al socket 2011. Oggi che il socket 2011 le prende importano solo i giochi a 1080p con oltre 100FPS AVG e AMD merda nuovamente.... Che palle!
Comprati un 7700K e vivi sereno.
digieffe
03-03-2017, 21:05
Infine, nell'unico test (Himeno, di Phoronix (http://www.phoronix.com/scan.php?page=article&item=ryzen-1800x-linux&num=4)) in cui vengono usate appositamente le AVX-2 e ottimizzazione massima (-O3, con GCC. Ma sulle ottimizzazioni si è discusso di recente, in un altro thread. Dunque prendilo comunque con le pinze), Haswell-E (i7-5960X. Purtroppo non c'è il 6900K / Broadwell-E) risulta più veloce del 59%, mentre Kaby Lake (i7-7700K) arriva a uno stratosferico +245%.
Ma ripeto: è UN solo test, che va preso con le pinze. Come ho già ripetuto innumerevoli volte, mi piacerebbe vedere molti più test con AVX/-2, e magari con compilatori diversi (GCC e pure Intel), con ottimizzazioni massime per specifiche micro-architetture.
Da tutte le recensioni che ho letto (mi manca solo Tom's. Sono ANNI che non leggo recensioni da quel sito :D, ma questa volta farò un'eccezione perché mi interessano i test con AVX. Se ce ne sono altri), finora sembra che il limite sia di 4Ghz, e alcuni sono arrivati a 4,1Ghz, ma in ogni caso con v-core molto alti, e consumi che sono arrivati alle stelle.
ad occhio Himeno è ST o pochi TH
se trovo recensioni in AVX/-2 t'informo
basta prendere le recensioni di Tom's cum grano salis :)
marchigiano
03-03-2017, 21:23
Ma scherzi? Io mi sparo sempre due o tre encoding quando torno a casa dal lavoro... Mi piazzo lì davanti allo schermo e vai di handbrake. 1%..2%..3%..ci passo le ore. Poi una volta encodati, li ri-encodo e poi ancora di nuovo a re-encodarli il giorno dopo...
che poi per encodare basterebbe un i3 con quicksync che si pappa qualsiasi 1800x e anche un 6950x lasciando la cpu libera da utilizzare per altri lavori...
cdimauro
03-03-2017, 21:28
Fra l'altro il software & service di Intel è da parecchi quarti in discesa e il software commerciale che gli fa fare soldi non si trova neppure sotto il nome Intel, essendo McAfee Antivirus...
Che non è più nemmeno di proprietà di Intel. /OT ;)
e magari conviene ad Intel che AMD non sia morta
con AMD morta, magari un nuovo concorrente (Samsung, Microsoft, Nvidia) molto piu' potente sarebbe comparso
invece cosi, hai un "nemico gestibile"
Non è Intel che possa decidere queste cose.
Inoltre il concorrente numero uno di Intel non è AMD, ma ARM.
/OT
Potevi fare un po di ironia pure per chi tirava fuori dal cilindro un benchmark pescato da chisa dove..
Ma d'altra parte e' normale che anche cercando di essere imparziali, un po di bias ci sia per certi utenti ;)
Vabbé, per una battuta, dai. Con un thread così pesante, si smorza un po'. :)
Comunque non era un test preso chissà dove.
Per quanto mi riguarda non comprero nulla perche al momento riesco ad andare avanti con quello che ho,
Al momento è proprio meglio non comprare, e lasciar vedere come si assesta il mercato.
ma certo e' che se dovessi farlo, non ci starei manco a pensare, considerando che gioco poco e solo a roba ormai abbastanza attempata, e i problemi maggiori con l'HW che ho e' nel browsing multitab, alla faccia di chi fino a qualche anno fa provava a vendere "muletti" buoni per "navigazione web" :sofico:
Ormai se non hai un octacore chrome o firefox si incantano con l'immondizia che le pagine caricano.
A meno che non carichi 8 pagine contemporaneamente, non te ne faresti niente. :D
Il caricamento è l'operazione più impegnativa, e incide di più sul ST. Fatto questo, poi il consumo di CPU per una pagina è praticamente nullo. In questo momento ho quasi 60 pagine aperte, YouTube che riproduce uno spezzone di Cetto La Qualunque :D, e il mio i7-6700K è occupato il 3-4% circa. ;)
Ultravincent
03-03-2017, 21:28
Bene, potro' tornare ad acquistare AMD. Se posso, preferisco non finanziare il gigante che ha l'85% del mercato processori.
Non puoi farlo, perché è il gioco stesso che lancia più thread hardware (o processi, se dovessero servirgli), e non puoi reindirizzarli come / dove vuoi.
non ne sono sicuro ed ho già qualche idea come realizzarlo, e se le ho io e probabile che le abbiano già realizzate.
l problema di RyZen è evidente che è dovuto allo scheduler ed alla sua cieca distribuzione dei carichi, che và a braccetto con la gestione dei power state.
è sufficiente un layer software d'indicizzazione.
lo scheduler è sempre stato il punto debole delle macchine windows, e credo che in futuro s'interverrà su quello.
associare stato istantaneo della risorsa e verificare che i dati che dovrà usare
siano già locali facilita enormemente compito e latenze.
ad oggi si puo' fare un workarround fittizio.
occupare il core con un thread dormiente che lo usa al 100%, ma che lo usa a P-state piu' basso che c'e'.
lo scheduler lo scarterà a priori;
insomma, li fai diventare dei quad core su codice da quad core.
cosi' facendo puoi mantenere 4 core a un bassissimo valore di frequenza e vcore, e lasciare agli altri la possibilità di sfruttare il TDP massimo.
tutto, logicamente, dipende dal silicio, lo sai... ed AMD in questo momento non lo ha, sembra evidente.
vedremo sui quad veri.
Ho letto anche le eccellenti recensioni (molto complete e dettagliate: la prima più per le applicazioni, la seconda più per i giochi) di hardware.fr e computerbase.de, e anche quella di Phoronix su Linux & compilatore GCC (la recensione è un po' esotica: testano applicazioni per lo più diverse da quelle degli altri recensori), ma il trend rimane lo stesso o anche un po' peggiore rispetto a quello visto finora.
Non solo la cache (in particolare la L3. Vedi dopo), ma credo che sia la micro-architettura di per sé a essere intrinsecamente poco efficiente.
Qui (http://www.hardware.fr/articles/956-6/piledriver-zen-broadwell-e-3-ghz.html) trovi un'analisi dell'IPC, suddivisa per applicazioni e giochi, che penso sia abbastanza eloquente, specialmente coi giochi, dove c'è un abisso rispetto a Broadwell-E.
Qui (http://www.hardware.fr/articles/956-22/retour-sous-systeme-memoire.html) un'analisi sul cache & memoria, dove si vede che la latenza della cache L2 è del 34% maggiore, mentre per la L3 addirittura del 270% (non è uno scherzo: è quasi il triplo!) maggiore. Anche l'accesso alla memoria è più lento, di circa il 40%.
Infine, nell'unico test (Himeno, di Phoronix (http://www.phoronix.com/scan.php?page=article&item=ryzen-1800x-linux&num=4)) in cui vengono usate appositamente le AVX-2 e ottimizzazione massima (-O3, con GCC. Ma sulle ottimizzazioni si è discusso di recente, in un altro thread. Dunque prendilo comunque con le pinze), Haswell-E (i7-5960X. Purtroppo non c'è il 6900K / Broadwell-E) risulta più veloce del 59%, mentre Kaby Lake (i7-7700K) arriva a uno stratosferico +245%.
Ma ripeto: è UN solo test, che va preso con le pinze. Come ho già ripetuto innumerevoli volte, mi piacerebbe vedere molti più test con AVX/-2, e magari con compilatori diversi (GCC e pure Intel), con ottimizzazioni massime per specifiche micro-architetture.
Da tutte le recensioni che ho letto (mi manca solo Tom's. Sono ANNI che non leggo recensioni da quel sito :D, ma questa volta farò un'eccezione perché mi interessano i test con AVX. Se ce ne sono altri), finora sembra che il limite sia di 4Ghz, e alcuni sono arrivati a 4,1Ghz, ma in ogni caso con v-core molto alti, e consumi che sono arrivati alle stelle.
Se si guardano le latenze in base al working set sul primo link che avevi indicato (http://www.hardware.fr/articles/956-6/piledriver-zen-broadwell-e-3-ghz.html)
Si nota che le latenze aumentano in modo drastico quando si superano i 4MB ovvero quando si superano le dimensioni della L3 "contigua" in un blocco di 4 core e si deve accedere alla L3 sull'altro blocco.
(la cosa non è ovvia perché i grafici delle latenze non sono visualizzati insieme).
Una volta che saranno superati i problemi di tuning e di messa a punto del firmware delle nuove schede madri che supportano i Ryzen e gli scheduler dei S.O. terranno conto delle particolarità a livello di gerarchia della memoria ed affinità dei thread mi sa che si rileveranno ulteriori miglioramenti nelle prestazioni.
Non mi aspetto miglioramenti sconvolgenti, ma in compenso i Ryzen 5 (che avranno un singolo gruppo di 4 core) mi sa che avranno prestazioni molto buone e con meno "sorprese".
cdimauro
03-03-2017, 21:51
Basta pensare che il parco titoli futuro si baserà su macchine ad 8 core...e scorpio potrebbe avere proprio ryzen lato cpu (ovviamente a basso clock) a quel che si dice. Ma ryzen o meno 8 thread hardware in ogni caso
Non credo che Scorpio avrà Ryzen: i core sono troppo grandi e consumano troppo. Jaguar è la soluzione migliore in questi ambiti. /OT.
Comunque per sfruttare più core nei giochi ci vorrà tempo, ma non sta scritto da nessuna parte che si potranno usare tutti quelli a disposizione, e a piano carico.
Certamente col tempo verranno usati più core, ma quanti e come è tutto da vedere.
È un fatto estremamente positivo che AMD abbia compiuto il miracolo e spero che ne vendano un casino...
In tal modo Intel si desterà dal torpore da cui era avvolta dai tempi del C2, si rimetta a lavorare come sa fare e produca delle prossime generazioni di processori con le cosiddette "balls"!
Non vedo perché. Mi sembra evidente che, numeri e numerosi test alla mano, le sue micro-architetture (anche quelle meno recenti) si comportino ancora mediamente molto bene. Perché dovrebbe cambiare qualcosa che funziona?
Ma certamente dovrà abbassare i prezzi e proporre soluzioni con più core per essere competitiva con le soluzioni di AMD che, come dicevo, a livello di prezzo e prestazioni MT (con certe applicazioni) sono imbattibili.
http://www.bitsandchips.it/9-hardware/8118-in-arrivo-patch-per-supportare-ryzen-al-100-nei-videogiochi
cosa del tutto normale dopotutto è una uarch completamente nuova :O
https://www.youtube.com/watch?v=SM0uMgfGWfs
Piedone1113
03-03-2017, 21:55
Corretto. Anche se purtroppo è difficile farlo capire.
Invece qui ha ragione MiKeLezZ: il compilatore ha certamente un suo valore e Intel guadagna dalla sua vendita, ma nasce in funzione / a supporto delle vendite delle CPU.
Intel non è una software house. Il software è soltanto il contorno / supporto al suo (vero) business: il silicio.
Allora ho interpretato male i bilanci di Intel dove risulta che il 53% del fatturato arriva dal silicio ( quindi ci ho inserito non solo le cpu ma tutto il resto che esce dalle fonderie) il fumante 47% quindi arriva da ( brevetti, sas, schede varie)?
cdimauro
03-03-2017, 22:01
OT, scusate
@cdimauro
In merito alla tua domanda/dubbio sull'uso del multithreading in numpy/scipy, dipende molto da quali algoritmi/strutture dati vengono usati nei bench.
In generale no, non usa moltissimo il MT, soprattutto perché molti problemi risolti da quelle librerie non sono facilmente parallelizzabili, e anche quando è fattibile andare in parallelo non sempre è stato fatto (networkx ad esempio o tutto il package del clustering).
Vero. Ma vedi sotto.
E, ad esempio, se viene usato Intel MTK o OpenBlas :)
Sì, e infatti va MOOOOLTO meglio. Come dicevo, la versione di (C)Python che Intel ha realizzato, sfrutta le sue librerie e il suo compilatore, e arriva a prestazioni eccezionali.
Purtroppo non ho trovato i test che arrivavano a circa 10 mila volte meglio di CPython. Intanto vedi qui (https://software.intel.com/en-us/intel-distribution-for-python#xeonperfsum).
Questa estrema variabilità di Ryzen su Handbrake, rispetto al 6900K non può essere dovuta ai settings o al file. E' troppo elevata. Io penso che dipenda dalla diversa marca di MB che è stata data ad ogni reviewer, se avevano fatto l'aggiornamento BIOS, se avevano disabilitato HPET e core parking, ecc... Ci sono troppe variabili. Io prenderei il miglior risultato, ossia quello in cui il 1800X supera anche il 6950. Questo è il miglior risultato in handbrake e dovrebbe essere riproducibile anche con altre MB prima o poi...
Sì, c'è molta variabilità, ma proprio perché si usano settaggi e file diversi. Handbrake non serve solo a effettuare transcodifica, ma anche di applicare filtri, scaling, ecc.
Piedone1113
03-03-2017, 22:05
Non credo che Scorpio avrà Ryzen: i core sono troppo grandi e consumano troppo. Jaguar è la soluzione migliore in questi ambiti. /OT.
Comunque per sfruttare più core nei giochi ci vorrà tempo, ma non sta scritto da nessuna parte che si potranno usare tutti quelli a disposizione, e a piano carico.
Certamente col tempo verranno usati più core, ma quanti e come è tutto da vedere.
Non vedo perché. Mi sembra evidente che, numeri e numerosi test alla mano, le sue micro-architetture (anche quelle meno recenti) si comportino ancora mediamente molto bene. Perché dovrebbe cambiare qualcosa che funziona?
Ma certamente dovrà abbassare i prezzi e proporre soluzioni con più core per essere competitiva con le soluzioni di AMD che, come dicevo, a livello di prezzo e prestazioni MT (con certe applicazioni) sono imbattibili.
https://www.youtube.com/watch?v=SM0uMgfGWfs
Non taglio per via del cell.
Considera solo la prima parte.
Credo che ti sbagli, Zen sembra molto più adatto a frequenze basse che alte, sopratutto con il turbo.
Credo che un 8 core senza smt possa girare tranquillamente a 1800-2000 mhz con turbo 2600 al core ( questo dipende dinamicamente dal tipo di carico) entrò i 25w.
Un solo ccx con ht attivo a quelle frequenze lo potremmo valutare in 15w ( con la parte nb ridotta perché non servono tutte le fratture da desktop su consolle)
digieffe
03-03-2017, 22:09
Allora AMD avrebbe fatto bene a spostare il lancio di un paio di settimane, in modo da dare la possibilità di avere firmware/BIOS più aggiornati & stabili & performanti, ma soprattutto molto più tempo ai redattori per lavorare, e nel caso in cui fossero stati rilevati dei problemi (come sembra ci siano), segnalarlo ad AMD, aspettare il fix, e ritornare a lavorare per arrivare alla recensione finale e ben ponderata.
AMD forse non s'è resa conto dell'enorme danno che s'è fatta con questa politica del lancio a tutti i costi, con una piattaforma immatura.
Perché la gente ricorderà le recensioni che sono state fatte ORA: non gli aggiornamenti che arriveranno fra un po'! Anche perché voglio vedere chi saranno quei redattori che rifaranno da capo TUTTO il lavoro.
E' chiaro che quel è uscito ieri sarà destinato a rimanere decisamente più impresso. Nel bene e nel male...
d'accordo su tutto tranne sul fatto che i redattori "seri" metteranno una pezza alle recensioni, quindi i più addentrati conosceranno la versione finale
Sì, le ha fatte, e un utente le ha riportate poco fa. A seconda dei casi, Ryzen ne risente di più. Alcune volte ne risente di più la piattaforma Intel.
Difficile, senza test ad hoc, stabilire dove stiano i problemi.
Comunque se controlli i numeri, l'impatto che ha l'SMT è decisamente inferiore rispetto alla differenza prestazionale che Ryzen con la concorrenza (che comunque è anch'essa penalizzata dall'SMT, visto che è tenuto acceso. Mi riferisco alle soluzioni Intel con più di 4 core).
questo era intuibile, quando ci sarà un'analisi accurata o i fix vedremo il reale impatto
cdimauro
03-03-2017, 22:19
Non mancano Mhz, windows (ma anche linux immagino) ha problemi con l'SMT AMD (e non c'è da stupirsi visto che è nuovo).
Spegnendo SMT già si migliora sopratutto gli FPS minimi, ma poi ovviamente si sta usando un processore a metà.
Attesa patch per sistemare il problema.
Guardate per esempio la differenza tra stock con SMT e stock senza.
http://media.gamersnexus.net/images/media/2017/CPUs/1800x/ryzen-r7-1800x-bench-bf1.png
Purtroppo non hanno disabilitato l'SMT anche sui processori Intel con più di 4 core. In particolare al 6900K, che è diretto concorrente del 1800x (8 core).
Non c'è un abisso tra Zen e Broadwell-E visto che il grafico è fuorviante ;)
L'unico caso dove la differenza è piuttosto marcata è 7Zip dove come visto in un intervento di leoneazzurro sembra esserci un grave problema con i BIOS.
Cmq è innegabile che l'IPC di Zen sia inferiore a quello di Broadwell-E e SL-KL ma l'abisso non c'è ;)
Ho usato la parola abisso per quanto riguarda i giochi, e se vedi il link, direi che i numeri siano lo eloquenti (http://www.hardware.fr/getgraphimg.php?id=448&n=1).
Comunque oltre a 7-Zip c'è WinRAR (che essendo un compressore, avrà un comportamento simile, ovviamente), e Adobe Lightroom, dove c'è un bel divario. :stordita:
Ripeto, queste CPU sono uscite per scontrarsi con quelle sul socket 2011 e lo fanno alla grande, intel ha più IPC mentre AMD è salita più in frequenza, sono scelte, il dubbio mi rimane per gli R5 che non dovessero superare abbondantemente i 4Ghz diventerebbero dei mezzi fail.
Beh, alla fine le prestazioni sono il risultato di IPC * frequenza.
I test sull'IPC sono pochi, ma quanto a quelli prestazionali direi che ce ne siano un'enorme quantità ormai.
Intendevo con Handbrake, non nel gaming.
Ah, OK. Allora avevo frainteso. Comunque su Handbrake ci sono risultati molto diversi, a causa della diversità di sample e/o settaggi utilizzati.
C'è persino un test che ho visto, e in cui il 6900K è di più del 25% più veloce del 1800X, per dire.
Per il gaming è per forze di cose indietro al 7700K in molti giochi (era atteso), lo è anche il 6900K, il problema di scheduling è palese dove c'è una differenza marcata tra 6900K e 1800X
Ed è un peccato che non sia stato disattivato l'SMT anche sul 6900K, dove qualche recensore ha fatto anche questa prova.
cdimauro
03-03-2017, 22:26
ad occhio Himeno è ST o pochi TH
Direi che è praticamente solo ST. :D
se trovo recensioni in AVX/-2 t'informo
:sbav: Grazie!
basta prendere le recensioni di Tom's cum grano salis :)
Come sempre. :)
non ne sono sicuro ed ho già qualche idea come realizzarlo, e se le ho io e probabile che le abbiano già realizzate.
l problema di RyZen è evidente che è dovuto allo scheduler ed alla sua cieca distribuzione dei carichi, che và a braccetto con la gestione dei power state.
è sufficiente un layer software d'indicizzazione.
lo scheduler è sempre stato il punto debole delle macchine windows, e credo che in futuro s'interverrà su quello.
associare stato istantaneo della risorsa e verificare che i dati che dovrà usare
siano già locali facilita enormemente compito e latenze.
ad oggi si puo' fare un workarround fittizio.
occupare il core con un thread dormiente che lo usa al 100%, ma che lo usa a P-state piu' basso che c'e'.
lo scheduler lo scarterà a priori;
insomma, li fai diventare dei quad core su codice da quad core.
cosi' facendo puoi mantenere 4 core a un bassissimo valore di frequenza e vcore, e lasciare agli altri la possibilità di sfruttare il TDP massimo.
Sì, potrebbe essere sufficiente questo workaround.
tutto, logicamente, dipende dal silicio, lo sai... ed AMD in questo momento non lo ha, sembra evidente.
Certamente il processo a "14"nm di GF non è a livello di quello di Intel.
vedremo sui quad veri.
Che integrano GPU, mi pare.
cdimauro
03-03-2017, 22:33
Se si guardano le latenze in base al working set sul primo link che avevi indicato (http://www.hardware.fr/articles/956-6/piledriver-zen-broadwell-e-3-ghz.html)
Si nota che le latenze aumentano in modo drastico quando si superano i 4MB ovvero quando si superano le dimensioni della L3 "contigua" in un blocco di 4 core e si deve accedere alla L3 sull'altro blocco.
(la cosa non è ovvia perché i grafici delle latenze non sono visualizzati insieme).
Ryzen ha 16MB di cache L3, per cui un CCX ne contiene 8MB, e quindi il decadimento dovrebbe esserci superando gli 8MB (strettamente oltre, visto che è di tipo evict), e non dopo i 4MB.
Una volta che saranno superati i problemi di tuning e di messa a punto del firmware delle nuove schede madri che supportano i Ryzen e gli scheduler dei S.O. terranno conto delle particolarità a livello di gerarchia della memoria ed affinità dei thread mi sa che si rileveranno ulteriori miglioramenti nelle prestazioni.
Non mi aspetto miglioramenti sconvolgenti, ma in compenso i Ryzen 5 (che avranno un singolo gruppo di 4 core) mi sa che avranno prestazioni molto buone e con meno "sorprese".
Infatti non credo anch'io che ci saranno rivoluzioni. Vedremo coi 4 core, per l'appunto, ma ci vorranno ancora un po' di mesi.
Allora ho interpretato male i bilanci di Intel dove risulta che il 53% del fatturato arriva dal silicio ( quindi ci ho inserito non solo le cpu ma tutto il resto che esce dalle fonderie) il fumante 47% quindi arriva da ( brevetti, sas, schede varie)?
Sicuro che sia solo il 53%? Ricordavo numeri diversi. Comunque è tardi, e non ho voglia di cercare. Ho finito coi messaggi, e mi fiondo a letto.
Non taglio per via del cell.
Considera solo la prima parte.
Credo che ti sbagli, Zen sembra molto più adatto a frequenze basse che alte, sopratutto con il turbo.
Credo che un 8 core senza smt possa girare tranquillamente a 1800-2000 mhz con turbo 2600 al core ( questo dipende dinamicamente dal tipo di carico) entrò i 25w.
Un solo ccx con ht attivo a quelle frequenze lo potremmo valutare in 15w ( con la parte nb ridotta perché non servono tutte le fratture da desktop su consolle)
E immagina un cluster Jaguar quanto potrebbe consumare. ;)
d'accordo su tutto tranne sul fatto che i redattori "seri" metteranno una pezza alle recensioni, quindi i più addentrati conosceranno la versione finale
Ma non credo che rifaranno nuovamente tutti i test.
Mi aspetto che ne facciano un po', e basta.
questo era intuibile, quando ci sarà un'analisi accurata o i fix vedremo il reale impatto
*
Buona notte a tutti.
digieffe
03-03-2017, 22:35
A meno che non carichi 8 pagine contemporaneamente, non te ne faresti niente. :D
Il caricamento è l'operazione più impegnativa, e incide di più sul ST. Fatto questo, poi il consumo di CPU per una pagina è praticamente nullo. In questo momento ho quasi 60 pagine aperte, YouTube che riproduce uno spezzone di Cetto La Qualunque :D, e il mio i7-6700K è occupato il 3-4% circa. ;)
normalmente le mie sessioni medie sono composte da 50+ pagine su alcune sessioni (doc tecnica) arrivo anche a 200... e quando apro chromium me le tira tutte su contemporaneamente a volte attendo diversi minuti... ovviamente priorità al minimo escludo il core 0 dall'esecuzione e faccio altro in questo caso mi serve sia cpu che bw di rete
rockroll
03-03-2017, 23:39
Oh allora i mittttici utenti Bivvoz, *aLe, ionet, Veradun, HwWizzard, rockroll, max72-ITA, riuzasan ??? Dai che vi vengo a prendere uno a uno per le orecchie...
Tutto quello che avevo previsto si è avverato, e ora che si fa???
Non mi sembra un grandissimo risultato esser bastonati da un'architettura Intel del 2015 con metà dei core, o sbaglio?
Belli i millemila core, bello che venga ammazzata la LGA2011 (ponzi ponzi po'... ti piace vincere facile?), ma il guinea pig a comprarli ad oltre 350 euro per invogliare il mercato a sfruttare il multithreading nel consumer lo lascio fare a voi.
In pratica per ora i Ryzen sono rivolti ai pirati di bluray per rippare più velocemente le copie senza svenarsi :D
Il mittico HwWizzard già si sta prodigando con l'evangelizzazione con il suo "aspettare gli R5 saranno a 5GHz e voleranno"... :mc:
Ma da che escono si rischia pure di vedere Cannonlake a 10nm. :rolleyes:
Sì sì sogna... Io sono ancora col Dual Core e continuo a giocare, pensa te. Giusto da poco, dopo 7/8 anni, si sente la necessità del Quad Core. Dopo quasi un decennio, l'upgrade ci sta... :mc:
Ma che cando vai dicezzo, ragazzo?
Ne hai sparate così tante che ti hanno sospeso? E ora che si fa, mi/ci vieni a prendere per le orecchie? Mi... che paura...
Tieniti i tuoi favolosi Intel spendendo il doppio o limitandoti a giocare a basse risoluzioni per far esaltare la tua tesi da fanboy istituzionale, e non provocare il prossimo, per cortesia.
rockroll
04-03-2017, 00:16
Credo che litigare sul forum per chi ce l'ha più lungo ( o avrà più lungo) sia sconveniente e puerile. Anche perché a voi non torna nulla in tasca.
Ho letto solo un altra rece oltre a questa e i dati (più o meno marcati a seconda di quello che si vuol far apparire) mostrano che queste CPU vanno leggermente peggio nel gaming (e bisogna considerare le risoluzioni, c'è differenza) e si comportamento ottimamente in ambiti fortemente dipendenti dai core ( ma và, ne hanno otto).
Quindi il discorso dovrebbe essere personale e dovrebbe tener conto di quello che uno va effettivamente a farci col PC.
Fermo restando che non conosciamo le prestazione dei Ryzen 5 e 3, le domande che devo farmi sono: gioco col pc o lo uso per altro? Che risoluzione ha il mio monitor? Ma soprattutto: per fare quello che devo fare quanto spendo con una configurazione AMD (cpu+mobo) o con una prestazionalmente simile INTEL? (sempre cpu+mobo).Cosa mi conviene
Poi ognuno può trarre le sue conclusioni, che non devono essere necessariamente uguali per tutti. Puntare su un 8 core potrebbe essere sprecato nel gaming di oggi, ma un domani potrebbe rivelarsi una mossa vincente.
Ottimo intervento, oggettivo e pratico, comprensibile anche da chi non sa interpretare i risultati del grande lavoro di Corsini.
E' esattamente il mio pensiero.
Tribal23
04-03-2017, 01:45
Qualcuno aveva richiesto alcuni test nei giochi con l'adozione di rivatuner come GUI per vedere come lavorano i 16 threads, un gruppo di ragazzi sta appena testando, e difatti stanno sfornando test su test in base a quello che gli viene fornito come spunto, un R7 1800X e anche secondo loro le prestazioni sono molto in linea con i7 6°a e 7°a generazione.
questa è una loro playlist su YouTube, attualmente e probabilmente con l'aggiunta di altri video test, a mio parere molto veloci e concisi e stanno attualmente uppando altri video che mano a mano inseriranno.
https://www.youtube.com/playlist?list=PLtxHocGsjK_NGVaWcT3BzONKkqk9TSgDU
digieffe
04-03-2017, 01:53
Ryzen ha 16MB di cache L3, per cui un CCX ne contiene 8MB, e quindi il decadimento dovrebbe esserci superando gli 8MB (strettamente oltre, visto che è di tipo evict), e non dopo i 4MB.
Infatti non credo anch'io che ci saranno rivoluzioni. Vedremo coi 4 core, per l'appunto, ma ci vorranno ancora un po' di mesi.
qui la spiegazione (trad. google):
On Ryzen, the behavior is different. In its Hot Chips presentation, AMD noted that access to different parts of the L3 could have a different latency (depending on the core where it is attached) inside a CCX. One can see a behavior of this type on the first 4 MB, and a particularly strong increase beyond. We will not focus on this point without feedback from the authors of the benchmark.
However, the situation beyond 8MB is without appeal: on a 12MB access (in a combined L3 of 16MB), we have a latency close to that which would be obtained if we made the access over- 8 MB in memory.
We asked AMD who confirmed this: in practice, in this case of school the L3 of the second CCX is not used, Ryzen behaving as if it had only 8 MB of L3.
This is a particularity of the benchmark used: to be able to measure the latency correctly, it is essential that the threads are attached to a heart and do not move. However, you probably remember, the L3 cache is a "victim" cache, it contains the data that is removed from the L2 cache. And to fill the L2 cache, access must be made ... inside the CCX. Result, blocking our benchmark (latency is only measured on a thread) on the first core, the other CCX is not solicited, its cache not filling.
This is actually a disadvantage of the architecture even if it is overly theoretical: in practice, Windows 10 loves, we keep saying it, to stroll the software threads from one heart to another.
If AMD could not give us an idea of the latency of an access on the second CCX, it gave us another much more important data: the bandwidth between these two CCX: only 22 GB / s!
Only, as you will have noticed, this bandwidth is not only lower than that of the L3 inside the CCX ("at least" 175 GB / s, a figure to check when the measurement software has been set Day), but especially lower ... to memory bandwidth!
il resto qui:
>> link Inglese (trad google) << (https://translate.googleusercontent.com/translate_c?depth=1&hl=it&ie=UTF8&prev=_t&rurl=translate.google.it&sl=auto&sp=nmt4&tl=en&u=http://www.hardware.fr/articles/956-22/retour-sous-systeme-memoire.html&usg=ALkJrhg0Cxyy2-sB5JR5ulYoDCkGVl430w)
>> link Francese (originale) << (http://www.hardware.fr/articles/956-22/retour-sous-systeme-memoire.html)
E immagina un cluster Jaguar quanto potrebbe consumare. ;)
IMO non è tanto per i consumi quanto se non risolvono il problema del fabric tra i ccx
Ma non credo che rifaranno nuovamente tutti i test.
Mi aspetto che ne facciano un po', e basta.
infatti ho scritto "pezza"
Buona notte a tutti.
starai già dormendo buon riposo :)
IMO, SE, e riperto SE, Microsoft sistema lo scheduler di windows* (ed inoltre i rispettivi mettono un fix a bios, ecc), allora pochi punti percentuali si possono recuperare (1-4% in condizioni generali e più nei giochi e compressione)
a questo punto attenderò Skylake-x, sperando che sistemino quel collegamento "minimale"** tra i ccx in Zen+
*IMO ad Amd converrebbe pagare MS per far customizzare lo scheduler
**se il MC è a 1333mhz (per ram 2666) allora il bus fabric sarebbe di 128 bit=16B * 1.33ghz = 22GB/s. SE veramente fosse così sono basito...
Ps: overcloccando il fabric/controller ram si allevia un po' la situazione?
rockroll
04-03-2017, 04:37
In realtà i problemi sembrano essere altri, le latenze misurate sulle cache L1/L2 non sono particolarmente elevate, anzi (e pure per la L3, almento stando ai dati riportati da techreport). Semmai è la latenza con la memoria di sistema a dare dei valori "strani" e dico strani perchè semrba che alcuni software non li misurino correttamente (qualcosa di strano con gli algoritmi di prefetching?).
Un problema sembrerebbe la non corretta allocazione dei core fisici/logici (in pratica cerchi di far andare due thread sullo stesso core fisico anzichè distribuirli tra due core, con conseguente perdita di potenza) e il tread switching tra core appartenenti a CCX diversi: Ryzen non è un octa core in senso stretto, ma è diviso in due partizioni con due cache L3 separate e connesse da un bus, se ci sono thread che vanno e vengono tra i due CCX il bus si satura e le prestazioni decrescono. In genere però il thread switching tra CCX non è detto che sia necessario, si potrebbe risolvere settando un'affinità tra thread che devono stare sullo stesso CCX.
Questa analisi sulle cause del problema mi sembra la più convincente tra quelle finora esposte.
Ma se è così, chiedo da non esperto in materia, non sarebbe abbastanza semplice interdire opzionalmente i core logici, almeno per i giochi e condizioni di utilizzo similari? Ed eventualmente inibendo il CCX switching ove conveniente? Il tutto potrebbe essere automatizzato in funzione della situazione dinamica di richieste thread e carico macchina relativo?
Forse non converrebbe ad AMD tirar fuori versioni Ryzen 7/b senza SMT, ovvero 8c 8t senza core logici? Basterebbe semplicemente castrare gli R7 in R7b e demandare questa versione più economica all'uso consumer e gaming in particolare, mentre la versione R7 attuale coprirebbe scenari di potenza MT più da server che da gaming?
rockroll
04-03-2017, 04:57
Tutto vero, ma siccome erano certi che comunque nessuno li poteva infastidire se c'era una scelta rischiosa da fare o intraprendere una strada più dispendiosa sicuramente ci sono andati con i piedi di piombo. Come qualsiasi azienda guidata da persone di buon senso avrebbe fatto.
Più di 4c8t nel desktop sono inutili e tali rimarranno per molto tempo ancora.
Questi Ryzen sono CPU da WS e non desktop.
Condivido l'opinione.
Questi Ryzen 7 sono finalmente ottimi processori di potenza MT a costo contenuto, ma non mi esaltano più di tanto proprio in considerazione della tua ultima osservazione.
rockroll
04-03-2017, 05:46
arrivo per ultimo ma tanto vale:
ottimo il rapporto prezzo/prestazioni
pessima la mancanza di GPU integrata se si pensa che consumano come gli intel. lascaindo stare la parte gaming o rendering se si pensa ad ambienti di sviluppo o ricerca avrebbe fatto comodo avere una CPU performante come il 1800x ma con una gPu integrata. Purtroppo leggo che anche i ryzen 5 non l'avranno. peccato, i SOC CPU+GPU sono il futuro dell'integrazione e comodità
*EDIT* ovviamente il fatto che le CPU intel in comparazione non avessero GPU era a me sconosciuto. ritiro, altro plus per AMD visti i prezzi.
buonissimo il fatto che la concorrenza sia tornata, mi aspetto un calo di prezzi per intel. certo è che se AMD non sarà in grado di tenere il passo nel produrre nuove e più performanti soluzioni con intel la concorrenza andrà presto a farsi benedire.
La mancanza di gpu integrata infastidisce anche me. Ma qualche discreta da battaglia magari usata si dovrebbe acchiappare poche decine di euro, e poi non è detto che tra le varie MoBo per Ryzen nessuna offra gpu integrata.
Tieni comunque presente che una GPU discreta può esserti utile in supporto calcolo parallelo, che su macchine di questa potenza può trovare un logico utilizzo.
cdimauro
04-03-2017, 06:12
normalmente le mie sessioni medie sono composte da 50+ pagine su alcune sessioni (doc tecnica) arrivo anche a 200... e quando apro chromium me le tira tutte su contemporaneamente a volte attendo diversi minuti... ovviamente priorità al minimo escludo il core 0 dall'esecuzione e faccio altro in questo caso mi serve sia cpu che bw di rete
Uso Opera, che è basato su Chromium (e dunque dovrebbero essere parenti), e ho appena fatto una prova: appena lo apro arriva a un picco del 34%, ma scende subito al 20-25% per alcuni secondi, l'ultima decina di secondi si assesta intorno al 15%, per poi stabilizzarsi sull'1% (se non faccio niente. Altrimenti aumenta di qualche punto percentuale).
Questo sul mio 6700K, come dicevo, con una 60ina di pagine. La stragrande maggioranza dal sito di Repubblica (saranno ormai preistoria ormai: altro che notizie. :asd:), poi Appunti Digitali, Gmail, YouTube, e qualche altra roba. Direi che ce n'è abbastanza di complesse.
La cosa interessante è che già dopo 2-3 secondi posso già navigare senza problemi. In ogni caso si tratta di un picco d'utilizzo del processore, che comunque nemmeno lo frutto tutto: al massimo per 1/3 della totale potenza di calcolo.
Questo è il mio caso d'uso (su Windows 10 x64 con 16GB di RAM ed SSD). Il tuo sarà ovviamente (molto) diverso. ;)
qui la spiegazione (trad. google):
On Ryzen, the behavior is different. In its Hot Chips presentation, AMD noted that access to different parts of the L3 could have a different latency (depending on the core where it is attached) inside a CCX. One can see a behavior of this type on the first 4 MB, and a particularly strong increase beyond. We will not focus on this point without feedback from the authors of the benchmark.
OK, ma la cosa strana è che, come ripetono anche dopo, un CCX ha attaccato 8MB di cache L3, mentre i problemi sorgono già quando si superano i 4MB, che sono la metà. C'è qualcosa che non quadra proprio.
However, the situation beyond 8MB is without appeal: on a 12MB access (in a combined L3 of 16MB), we have a latency close to that which would be obtained if we made the access over- 8 MB in memory.
Infatti.
We asked AMD who confirmed this: in practice, in this case of school the L3 of the second CCX is not used, Ryzen behaving as if it had only 8 MB of L3.
E questa è una cosa che, se ricordi, avevo sollevato già un bel po' di tempo fa, nel thread Aspettando Zen, quando si parlava di cache L3 e di confronti con le soluzioni Intel.
Per gli altri, in sintesi, avevo detto che il vantaggio di queste ultime era che tutti i core / thread hardware potevano sfruttare l'intera cache L3, mentre per Zen potevano accedere alla loro porzione (metà nel caso di due CCX. Prova a immaginare cosa succederà con Naples / 32 core, che ne avrà ben 8!) mentre per accedere all'altra porzione ci sarebbe stata una penalizzazione (maggior latenza, per l'appunto).
Adesso scopriamo che in realtà... nemmeno ci accedono!
This is a particularity of the benchmark used: to be able to measure the latency correctly, it is essential that the threads are attached to a heart and do not move. However, you probably remember, the L3 cache is a "victim" cache, it contains the data that is removed from the L2 cache. And to fill the L2 cache, access must be made ... inside the CCX. Result, blocking our benchmark (latency is only measured on a thread) on the first core, the other CCX is not solicited, its cache not filling.
Praticamente è come se fossero due die attaccati come in modalità MCM del passato: lavorano in maniera separata / indipendente.
This is actually a disadvantage of the architecture even if it is overly theoretical: in practice, Windows 10 loves, we keep saying it, to stroll the software threads from one heart to another.
Già. Con queste informazioni è evidente che UNO (perché non è l'unico, come hai sottolineato alla fine) dei problemi più grosso è rappresentato dallo scheduler, per l'appunto.
Come per Intel, ma in maniera minore per i suoi processori (in questo caso i problemi sorgono spostando un thread hardware in un altro core, e dunque sono legati alla cache L2).
If AMD could not give us an idea of the latency of an access on the second CCX, it gave us another much more important data: the bandwidth between these two CCX: only 22 GB / s!
Only, as you will have noticed, this bandwidth is not only lower than that of the L3 inside the CCX ("at least" 175 GB / s, a figure to check when the measurement software has been set Day), but especially lower ... to memory bandwidth!
Incredibile. Ma non avevano parlato di un velocissimo collegamento da 100GB/s? Invece è un quarto!
il resto qui:
>> link Inglese (trad google) << (https://translate.googleusercontent.com/translate_c?depth=1&hl=it&ie=UTF8&prev=_t&rurl=translate.google.it&sl=auto&sp=nmt4&tl=en&u=http://www.hardware.fr/articles/956-22/retour-sous-systeme-memoire.html&usg=ALkJrhg0Cxyy2-sB5JR5ulYoDCkGVl430w)
>> link Francese (originale) << (http://www.hardware.fr/articles/956-22/retour-sous-systeme-memoire.html)
IMO non è tanto per i consumi quanto se non risolvono il problema del fabric tra i ccx
Non credo che un aggiornamento del firmware/BIOS possa risolvere quello dei 22GB/s.
infatti ho scritto "pezza"
Vedremo se sarà grande o piccola.
starai già dormendo buon riposo :)
A quell'ora, quando hai scritto, la probabilità che ronfassi era prossima a 1. :asd:
IMO, SE, e riperto SE, Microsoft sistema lo scheduler di windows* (ed inoltre i rispettivi mettono un fix a bios, ecc), allora pochi punti percentuali si possono recuperare (1-4% in condizioni generali e più nei giochi e compressione)
Sono della stessa idea, ma non so se Microsoft rimetta mano proprio allo scheduler, che è il componente più delicato del kernel. Anche se dovesse farlo, non penso sarebbe pronto per la prossima settimana.
a questo punto attenderò Skylake-x, sperando che sistemino quel collegamento "minimale"** tra i ccx in Zen+
Beh, al solito vale la regola d'oro: meglio non comprare al day 1, e lasciare che altri facciano da cavia. :asd:
*IMO ad Amd converrebbe pagare MS per far customizzare lo scheduler
Indubbiamente. SE Microsoft accettasse di farlo, perché poi il problema sarebbe di tenersi dietro tutte le modifiche per l'intero lifecycle. Il costo della sola modifica non è, infatti, assolutamente sufficiente a coprire i costi di tutta la manutenzione.
**se il MC è a 1333mhz (per ram 2666) allora il bus fabric sarebbe di 128 bit=16B * 1.33ghz = 22GB/s. SE veramente fosse così sono basito...
Ps: overcloccando il fabric/controller ram si allevia un po' la situazione?
Sì, ma:
- non sappiamo quanto possa esserlo;
- con quei numeri, la situazione è già pessima di uso, e otterresti un aumento di qualche punto percentuale.
cdimauro
04-03-2017, 06:29
Questa analisi sulle cause del problema mi sembra la più convincente tra quelle finora esposte.
Ma se è così, chiedo da non esperto in materia, non sarebbe abbastanza semplice interdire opzionalmente i core logici, almeno per i giochi e condizioni di utilizzo similari? Ed eventualmente inibendo il CCX switching ove conveniente? Il tutto potrebbe essere automatizzato in funzione della situazione dinamica di richieste thread e carico macchina relativo?
Solo se si modifica lo scheduler del kernel, altrimenti è un'operazione complicata.
In ogni caso non si può certo chiedere all'utente di occuparsene. In particolare mi riferisco alla disattivazione dell'SMT: non è nemmeno da prendere in considerazione.
Ovviamente per gli smanettoni la cosa è diversa, ma anche loro credo che si scoccino e preferirebbero usare il processore come l'hanno comprato, senza essere costretti a disattivare e riattivare l'SMT alla bisogna.
Forse non converrebbe ad AMD tirar fuori versioni Ryzen 7/b senza SMT, ovvero 8c 8t senza core logici? Basterebbe semplicemente castrare gli R7 in R7b e demandare questa versione più economica all'uso consumer e gaming in particolare,
Sarebbe una buona soluzione temporanea, ma antieconomica. L'SMT costa molto poco in termini di implementazione, e dunque è estremamente raro che in un chip sfornato l'SMT, e solo l'SMT (quindi solo uno dei due thread hardware a disposizione) possa non funzionare.
Quindi AMD sarebbe costretta a disattivare l'SMT a un chip che, invece, è perfettamente funzionante, e venderlo a un prezzo inferiore (e che ovviamente sia appetibile: se togli solo qualche dollaro, un utente preferirebbe comprare quello con l'SMT).
mentre la versione R7 attuale coprirebbe scenari di potenza MT più da server che da gaming?
Veramente anche con l'SMT disattivato la situazione, in media, è cambiata molto poco per quanto riguarda gli FPS medi. E' migliorata un po' con quelli minimi, che sono senz'altro importanti.
Per quanto riguarda l'uso server, senz'altro per il rendering 3D s'è dimostrata un'eccellente architettura, e col prezzo che ha farà felice un sacco di professionisti che non vedevano l'ora di metter le mani su soluzioni con molti core, ma economiche.
Ma i server usualmente fanno girare ben altre tipologie di codice: virtualizzatori, linguaggi dinamici (PHP, Python, Ruby, Javascript), database (Oracle, MySQL, DB2, e i vari "No-SQL").
Già con Python (vedi i test che ha riportato Ren) la situazione non è affatto rosea e, dunque, se il trend è quello, dubito che Zen possa risultare competitivo, a meno di sostanziosi tagli di prezzo per renderlo appetibile.
Condivido l'opinione.
Questi Ryzen 7 sono finalmente ottimi processori di potenza MT a costo contenuto, ma non mi esaltano più di tanto proprio in considerazione della tua ultima osservazione.
Non per per tutta la tipologia di software MT, come dicevo.
La mancanza di gpu integrata infastidisce anche me. Ma qualche discreta da battaglia magari usata si dovrebbe acchiappare poche decine di euro, e poi non è detto che tra le varie MoBo per Ryzen nessuna offra gpu integrata.
Non vedo GPU integrate nel chipset da parecchio tempo (visto che ormai da anni sono integrate direttamente nella CPU), per cui è poco plausibile un'inversione di tendenza.
Si compra una discreta, e amen. O si aspetta le APU Zen.
Tieni comunque presente che una GPU discreta può esserti utile in supporto calcolo parallelo, che su macchine di questa potenza può trovare un logico utilizzo.
Infatti non è un caso che circa i 2/3 delle GPU sono... integrate. Le discrete sono 1/3 dell'intero mercato.
E sì: sono ormai utili anche in altri ambiti, oltre alla mera visualizzazione di grafica.
rockroll
04-03-2017, 07:18
Guarda che LucaLindholm tutto lo puoi chiamare, fuorché fanboy Intel. Tutt'altro.
Finora nei suoi commenti è stato un fanatico AMD / hater Intel. Basti leggere i commenti che ha scritto su Zen PRIMA di ieri.
Solo che ieri sono arrivate le recensioni di Ryzen, e ha preso atto della situazione. Quindi il tifo fino a un certo punto: poi subentra il realismo, e il sano pragmatismo.
Comunque l'arrivo di Ryzen è certamente positivo per tutti, come già detto: è un all win, come si suol dire. Ne guadagneranno le tasche di tutti.
Ma difatti proprio non ho parlato di fanboysmo, ho solo reagito al considerare visione da pezzenti il prendere in considerazione il famoso rapporto prezzi/benefici, che per me e non solo è cosa basilare.
Ed ho puntualizzato il fatto che in due punti del suo intervento giudica in modo del tutto diverso le economie di acquisto ed il divario 1700x 6900k.
Per il resto ben venga evitare fanboysmo a prescindere, a favore di giudizi più pacati ed oggettivi, e la cosa vale anche per me, che oggi ho cercato di adeguarmi a questo atteggiamento.
Lo so che LucaLindholm ha preferenze e simpatie per AMD, come me del resto, ma non lo accusavo certo di aver cambiato bandiera; sono state un paio di sue espressioni "forti" a farmi intervenire (delle quali per altro mi sembra abbia poi fatto ammenda).
Come direbbe Max Allegri, non è successo nulla.
cdimauro
04-03-2017, 08:11
Infatti i fanboysmi andrebbero banditi da un forum tecnologico...
Finito di leggere adesso l'ultima recensione, quella di Tom's hardware (americana). Vorrei capire per quale motivo viene etichettato come pro-Intel, quando Ryzen non ne esce affatto male; tutt'altro.
Anzi, ha fatto test con applicazioni diverse, ma anche molto note / usate (Cathya e Maya, per citare un paio di esempi. Ma ce ne sono tanti altri), e soprattutto con diverse applicazioni scientifiche dove in ambito HPC Ryzen mostra risultati molto, molto interessanti e sarà sicuramente apprezzato. Ovviamente ce ne sono altri, sempre in ambito HPC / scientifico, dove va male (in particolare in quelle che usano massicciamente FFT/DCT), ma ormai sappiamo che questa micro-architettura è sbilanciata sull'MT "più lineare".
Per contro, ieri sera mi sono azzardato a dare un'occhiata alla "preview" di Bits & Chips, e oltre a un cieco fanatismo religioso verso AMD che trasuda da tutti i pori (se Tom's fosse pro-Intel, per B&C bisognerebbe coniare un termine nuovo di pacca. Come dire: Salvini, a confronto, è un moderato!), a metà pagina ho dovuto chiudere dopo aver letto le tecno-bestialità che il recensore s'inventato sulla tecnologia "Neural Net Prediction", con tanto di prova che è consistita nel resettare la macchina per vedere se influisse ancora... :doh:
Questo ne capisce di come funzionano i microprocessori, quanto io di bricolage...
E adesso in giro con la famiglia, che è ben più importante.
Buon fine settimana a tutti. :)
nickname88
04-03-2017, 08:40
Se ho capito bene quindi sia il problema della latenza cache che quello dell'SMT non sono problemi fixabili giusto ? Quindi sono da considerare come problemi del pacchetto.
Vai mikelezz, i tuoi commenti fanno scassare dal ridere!!!
Un sano mix di retorica e iperboli, giusto per flamare un po'.
D'altronde chi il PC lo usa solo per giocare (perché ce l'ho più lungo della PS4, posso giocare in 4k reale e non upscalato, poi però i test li faccio a 1080p, ahah), e continua a propinare soluzioni dual-core come ottime, non può capire dove sta il vantaggio di una CPU come quelle presentate oggi da AMD (come anche gli i7 da 6core in su, sia chiaro)... Ed è proprio su questa "massa" di acquirenti che Intel continua a macinare utili...
Chi il PC lo usa per lavoro e lavoro=soldi=produttività=CPU performante (spesso su più thread), finalmente ha un occasione per aumentare la produttività rinnovando 2 workstation quasi al prezzo di 1 sola Intel.
Detto ciò, AMD ha fatto un più che ottimo lavoro, considerando l'architettura precedente e il gap (soprattutto di IPC) accumulato negli anni con Intel. Non resta che vedere nelle prossime settimane come si comportano realmente questi processori, quando ci saranno driver migliori, e verrà anche rilasciata la patch Microsoft per una migliore gestione dell'SMT da parte dello scheduler. ;)
Ti quoto al 100% :O
Per contro, ieri sera mi sono azzardato a dare un'occhiata alla "preview" di Bits & Chips, e oltre a un cieco fanatismo religioso verso AMD che trasuda da tutti i pori (se Tom's fosse pro-Intel, per B&C bisognerebbe coniare un termine nuovo di pacca. Come dire: Salvini, a confronto, è un moderato!), a metà pagina ho dovuto chiudere dopo aver letto le tecno-bestialità che il recensore s'inventato sulla tecnologia "Neural Net Prediction", con tanto di prova che è consistita nel resettare la macchina per vedere se influisse ancora... :doh:
Guarda che è stato confermato da uno sviluppatore AMD: https://twitter.com/BitsAndChipsEng/status/837329508994854912
Un certo Robert Hallock.
E ti confermo che oltre il sesto run il punteggio non cresce più e riavviando la macchina si riparte da zero. Avevo chiesto anche di fare un test alternando vari benchmark per vedere se si "scorda" l'ottimizzazione, ma sono in attesa.
Per come funzionano le reti neurali (le ho studiate all'università nel lontano 2000 anche praticamente: la tesina consisteva nell'addestrare una rete neurale a riconoscere cluster di calcificazioni maligne in una mammografia) non mi stupirebbe se dopo aver cambiato bench e adattato la rete a quel bench, tornando al bench iniziale si dovesse iniziare quasi tutto daccapo (non da zero ma da uno stadio intermedio)... E' un comportamento tipico delle reti neurali: non addestrata, prestazioni basse, addestrata su un carico simile o uguale, prestazioni massime, addestrata su un carico diverso, prestazioni medie... Test set, training set, training test set... Sono termini che si usano in quel campo...
Ma se è così, chiedo da non esperto in materia, non sarebbe abbastanza semplice interdire opzionalmente i core logici, almeno per i giochi e condizioni di utilizzo similari?
Il punto è che un processore con SMT non ha 8 core fisici più altri 8 core logici, ma ha 8 core (fisici) che vengono visti dal livello superiore come 16 core (logici). Insomma, come se un core (fisico) ne "virtualizzasse" due (logici).
La distinzione diretta quindi non esiste, anche se si potrebbe aggirare il problema in qualche modo (tipo: usa prima i core dispari e poi quelli pari, assicurandosi che i core siano numerati correttamente, naturalmente).
Da vedere però se questo è sempre conveniente, soprattutto in termini di risparmio energetico (accendo più rapidamente tutti i core e lavoro in base alla disposizione e non magari al carico o la frequenza a cui posso farli girare).
La mancanza di gpu integrata infastidisce anche me.
Questi processori nascono per contrapporti alla piattaforma HEDT di Intel, anche lei senza GPU.
Per la GPU integrata dovremmo aspettare le APU,
C'è da dire però che una GPU minimale sarebbe stata gradita anche per questi prodotti, magari inutile al calcolo e alla grafica 3D, ma con prestazioni minime adeguate all'uso desktop standard.
Bisognerebbe però capire quanto questo avrebbe potuto influire sui costi (silicio in più, die più grande) e sul TDP (poco immagino, se si va davvero sul minimale), anche perchè la GPU oggi contiene diversi moduli non riducibili, non solo le unità di calcolo.
Non vedo GPU integrate nel chipset da parecchio tempo (visto che ormai da anni sono integrate direttamente nella CPU), per cui è poco plausibile un'inversione di tendenza.
Si compra una discreta, e amen. O si aspetta le APU Zen.
Concordo, difficilmente vedremo ancora GPU integrate nelle schede madri, anche perchè quelle utilizzate in passato erano integrate nel chipset (non schedine dedicate saldate sulla scheda), e non mi pare che AMD abbia tirato fuori alcun chipset con questa dotazione.
OK, ma la cosa strana è che, come ripetono anche dopo, un CCX ha attaccato 8MB di cache L3, mentre i problemi sorgono già quando si superano i 4MB, che sono la metà. C'è qualcosa che non quadra proprio.
Nel mio post precedente ero andato a memoria ed avevo fatto confusione, ma ora ho ricontrollato.
Gli 8MB di cache L3 sono suddivisi in 8 blocchi, ma dal punto di vista di un core le latenze cambiano in base al blocco a cui deve accedere.
Infatti lo schema "semplificato" è questo:
http://www.hwupgrade.it/articoli/cpu/4853/slide_3.jpg
MA quello che "vede" un singolo core in realtà è questo:
https://abload.de/img/amd-ryzen-l3-cache2fj47.jpg
L' immagine sopra è un pochino fuorviante; se ho ben capito, la parte sopra mostra che un core è collegato "direttamente" ad un blocco, quella inferiore mostra che il clock gating di quel core "controlla" due blocchi ovvero quello "diretto" e quello "adiacente".
Considerando anche il resto dei dettagli, mi sa che un core riesce ad accedere "velocemente" ai suoi due blocchi, con penalizzazioni relativamente basse a quelli del core "sull'altro lato" con poi maggiori penalizzazioni negli accessi agli altri; probabilmente le interconnessioni tra "gruppi di due core" viaggiano con un clock molto più basso e/o un data path più stretto sino ad arrivare a ridursi alle latenze "decise" del crossbar switch più lento (quello del memory controller, suppongo).
Probabilmente li ci sono margini per ulteriori miglioramenti di prestazioni andando "solo" a ritoccare l'architettura delle L3 e delle inteconnessioni "fuori dai core" (o usando settaggi più aggressivi sul clock e le latenze delle interconnessioni in step migliorati).
digieffe
04-03-2017, 10:08
Questa analisi sulle cause del problema mi sembra la più convincente tra quelle finora esposte.
Ma se è così, chiedo da non esperto in materia, non sarebbe abbastanza semplice interdire opzionalmente i core logici, almeno per i giochi e condizioni di utilizzo similari? Ed eventualmente inibendo il CCX switching ove conveniente? Il tutto potrebbe essere automatizzato in funzione della situazione dinamica di richieste thread e carico macchina relativo?
Forse non converrebbe ad AMD tirar fuori versioni Ryzen 7/b senza SMT, ovvero 8c 8t senza core logici? Basterebbe semplicemente castrare gli R7 in R7b e demandare questa versione più economica all'uso consumer e gaming in particolare, mentre la versione R7 attuale coprirebbe scenari di potenza MT più da server che da gaming?
molto più semplice un driver che da desktop (tray bar) inibisca l'uso (tramite affinity) dei core logici
ma come ho riportato il problema potrebbe essere leggermente più complesso
digieffe
04-03-2017, 10:43
OK, ma la cosa strana è che, come ripetono anche dopo, un CCX ha attaccato 8MB di cache L3, mentre i problemi sorgono già quando si superano i 4MB, che sono la metà. C'è qualcosa che non quadra proprio.
ricordati che in un core, la cache L3 è divisa in due parti da un MB, quindi è come se l'accesso al primo mega di tutti i core sia più veloce di quello al secondo
E questa è una cosa che, se ricordi, avevo sollevato già un bel po' di tempo fa, nel thread Aspettando Zen, quando si parlava di cache L3 e di confronti con le soluzioni Intel.
Per gli altri, in sintesi, avevo detto che il vantaggio di queste ultime era che tutti i core / thread hardware potevano sfruttare l'intera cache L3, mentre per Zen potevano accedere alla loro porzione (metà nel caso di due CCX. Prova a immaginare cosa succederà con Naples / 32 core, che ne avrà ben 8!) mentre per accedere all'altra porzione ci sarebbe stata una penalizzazione (maggior latenza, per l'appunto).
Adesso scopriamo che in realtà... nemmeno ci accedono!
Praticamente è come se fossero due die attaccati come in modalità MCM del passato: lavorano in maniera separata / indipendente.
Già. Con queste informazioni è evidente che UNO (perché non è l'unico, come hai sottolineato alla fine) dei problemi più grosso è rappresentato dallo scheduler, per l'appunto.
Come per Intel, ma in maniera minore per i suoi processori (in questo caso i problemi sorgono spostando un thread hardware in un altro core, e dunque sono legati alla cache L2)
spero per loro che in Naples il fabric sia di tutt'altra portata
è da ieri che sto pensando che è come fossero due die attaccati come in modalità MCM
se così fosse, sarebbe meglio che nelle tabelle del bios siano dichiarati come un processore per ogni ccx, almeno il SO ne tiene di conto e non fa casini
se fosse come descritta l'uArc mi farebbe "storcere un po' il naso"...
Incredibile. Ma non avevano parlato di un velocissimo collegamento da 100GB/s? Invece è un quarto!
Non credo che un aggiornamento del firmware/BIOS possa risolvere quello dei 22GB/s.
se è un problema fisico ci sarà ben poco da fare... se poi per qualche arcano motivo il bus non funziona a dovere ...
Sono della stessa idea, ma non so se Microsoft rimetta mano proprio allo scheduler, che è il componente più delicato del kernel. Anche se dovesse farlo, non penso sarebbe pronto per la prossima settimana.
Beh, al solito vale la regola d'oro: meglio non comprare al day 1, e lasciare che altri facciano da cavia. :asd:
Indubbiamente. SE Microsoft accettasse di farlo, perché poi il problema sarebbe di tenersi dietro tutte le modifiche per l'intero lifecycle. Il costo della sola modifica non è, infatti, assolutamente sufficiente a coprire i costi di tutta la manutenzione.
Sì, ma:
- non sappiamo quanto possa esserlo;
- con quei numeri, la situazione è già pessima di uso, e otterresti un aumento di qualche punto percentuale.
Spero che MS si voglia prendere l'onere di sistemare lo scheduler (sarebbe anche ora)
IMO zen è uscito troppo presto, forse il motivo è che non volevano fosse a ridosso di skylake-x
digieffe
04-03-2017, 10:57
Il punto è che un processore con SMT non ha 8 core fisici più altri 8 core logici, ma ha 8 core (fisici) che vengono visti dal livello superiore come 16 core (logici). Insomma, come se un core (fisico) ne "virtualizzasse" due (logici).
La distinzione diretta quindi non esiste, anche se si potrebbe aggirare il problema in qualche modo (tipo: usa prima i core dispari e poi quelli pari, assicurandosi che i core siano numerati correttamente, naturalmente).
la distinzione non esiste per windows...
digieffe
04-03-2017, 11:01
Nel mio post precedente ero andato a memoria ed avevo fatto confusione, ma ora ho ricontrollato.
Gli 8MB di cache L3 sono suddivisi in 8 blocchi, ma dal punto di vista di un core le latenze cambiano in base al blocco a cui deve accedere.
Infatti lo schema "semplificato" è questo:
http://www.hwupgrade.it/articoli/cpu/4853/slide_3.jpg
MA quello che "vede" un singolo core in realtà è questo:
https://abload.de/img/amd-ryzen-l3-cache2fj47.jpg
L' immagine sopra è un pochino fuorviante; se ho ben capito, la parte sopra mostra che un core è collegato "direttamente" ad un blocco, quella inferiore mostra che il clock gating di quel core "controlla" due blocchi ovvero quello "diretto" e quello "adiacente".
Considerando anche il resto dei dettagli, mi sa che un core riesce ad accedere "velocemente" ai suoi due blocchi, con penalizzazioni relativamente basse a quelli del core "sull'altro lato" con poi maggiori penalizzazioni negli accessi agli altri; probabilmente le interconnessioni tra "gruppi di due core" viaggiano con un clock molto più basso e/o un data path più stretto sino ad arrivare a ridursi alle latenze "decise" del crossbar switch più lento (quello del memory controller, suppongo).
Probabilmente li ci sono margini per ulteriori miglioramenti di prestazioni andando "solo" a ritoccare l'architettura delle L3 e delle inteconnessioni "fuori dai core" (o usando settaggi più aggressivi sul clock e le latenze delle interconnessioni in step migliorati).
mi sembra realistico quanto hai scritto
Attenzione:
https://translate.google.co.uk/translate?hl=en&sl=de&u=https://www.golem.de/news/ryzen-7-1800x-im-test-amd-ist-endlich-zurueck-1703-125996-4.html&prev=search
"Version 117, which is still up-to-date, improved speed and stability. If we were still able to count on sporadic Bluescreens with the older UEFI, the board is currently stable. Much more important, however, is the drastically higher performance in games and the real pack with 7-Zip. The release notes include, among other things, a fixed problem with the storage act and its timing as well as the voltage.
Drastically more performance with a new BIOS
Compared to the original bios, the new UEFI increases the image rate in our game course between plus 4 and plus 26 percent, on the average even plus 17 percent! In view of this tremendous increase in performance, we had to be certain that our values are correct, and have measured with the Asus boards. This gives us a touch more speed in games than with the updated MSI board.
Apart from the low bios performance with the older bios, an option is also missing for the MSI board, as well as for the Asus boards, to switch off the Simultaneous Multithreading (SMT) of the Ryzen 7 1800X. Since AMD according to its own statement similar to formerly Intel under Core parking is suffering, SMT reduces the picture rate in some games partly. In turn, SMT has accelerated some applications dramatically, so we would have liked to try out how the double thread count affects the performance. "
Sembrano esserci problemi gravi di BIOS per le MB Asus e MSI. Joker, che ha risultati piuttosto buoni anche nel gaming anche a risoluzioni basse (OC 3,9 Ghz Ryzen vs 5GHz 7700 K) , ha utilizzato invece la Gigabyte. Risultati buoni anche per un altro sito con la Asrock Taichi.
Stranamente passato inosservato ai più... questo spiega alcuni stranissimi benchmark.
Dovremo attendere un po' per comparazioni più veritiere dopo update vari.
qualcuno mi può spiegare perchè un 8C/16TH va meno di un 4C/8TH? cioè perchè AMD per tenere il passo di Intel ha dovuto quasi sempre quadruplicare i core a disposizione?
bagnino89
04-03-2017, 12:09
qualcuno mi può spiegare perchè un 8C/16TH va meno di un 4C/8TH? cioè perchè AMD per tenere il passo di Intel ha dovuto quasi sempre quadruplicare i core a disposizione?
:asd:
Piedone1113
04-03-2017, 12:11
qualcuno mi può spiegare perchè un 8C/16TH va meno di un 4C/8TH? cioè perchè AMD per tenere il passo di Intel ha dovuto quasi sempre quadruplicare i core a disposizione?
Faresti meglio a farti spiegare dove trovare uno bravo che ti insegni a capire sia i grafici dei test, sia a comprendere l'italiano scritto (sempre che tu abbia letto la recensione piuttosto che aver sognato il tutto)
;)
bagnino89
04-03-2017, 12:15
Faresti meglio a farti spiegare dove trovare uno bravo che ti insegni a capire sia i grafici dei test, sia a comprendere l'italiano scritto (sempre che tu abbia letto la recensione piuttosto che aver sognato il tutto)
;)
Per me è il post dell'anno. :asd:
:D Per me è il post dell'anno. :asd:
NvidiaMen
04-03-2017, 15:16
Portate pazienza sui Ryzen AMD lato gaming.
Ricordo che ci troviamo nel forum di hwupgrade ed occorre fare valutazioni imparziali che possano dispensare consigli agli utenti meno "addentrati" negli aspetti più tecnici e che chiedono solamente di essere guidati nel loro prossimo acquisto.
Ci sono due diversi scenari da valutare per chi dovesse fare un nuovo acquisto o un upgrade della propria CPU per utilizzare il proprio sistema in ambito gaming.
1) Chi pensa di effettuare un upgrade di breve termine e di tenere il nuovo processore per soli due anni ed usa il PC per giocare ad una risoluzione non superiore a 1080p dovrebbe rivolgersi ad una piattaforma Intel come ad esempio l'ottimo i7 7700k.
2) Chi pensa invece di effettuare un upgrade di medio-lungo termine e di tenere il nuovo processore per tre-cinque anni ed usa il PC per giocare già oggi ad una risoluzione 4k può rivolgersi ad una piattaforma AMD come ad esempio il mostruoso (nel rapporto prezzo prestazioni) Ryzen 1800x.
Indipendentemente dalle prossime correzioni ed ottimizzazioni "parziali" del sistema operativo e dei games (attraverso il rilascio di apposite patches) che potranno migliorare di qualche punto percentuale le prestazioni delle CPU Ryzen, occorrerà attendere almeno due-tre anni per vedere quasi raddoppiate le prestazioni dei processori AMD (inclusi gli Intel i7 69x0) in ambito videoludico, in attesa di un allineamento alle nuove tecnologie da parte dei principali motori grafici.
NM.
Ryzen 7, 5 e 3?
Prendono pure i numeri degli Ix? :D
Piedone1113
04-03-2017, 15:39
Portate pazienza sui Ryzen AMD lato gaming.
Ricordo che ci troviamo nel forum di hwupgrade ed occorre fare valutazioni imparziali che possano dispensare consigli agli utenti meno "addentrati" negli aspetti più tecnici e che chiedono solamente di essere guidati nel loro prossimo acquisto.
Ci sono due diversi scenari da valutare per chi dovesse fare un nuovo acquisto o un upgrade della propria CPU per utilizzare il proprio sistema in ambito gaming.
1) Chi pensa di effettuare un upgrade di breve termine e di tenere il nuovo processore per soli due anni ed usa il PC per giocare ad una risoluzione non superiore a 1080p dovrebbe rivolgersi ad una piattaforma Intel come ad esempio l'ottimo i7 7700k.
2) Chi pensa invece di effettuare un upgrade di medio-lungo termine e di tenere il nuovo processore per tre-cinque anni ed usa il PC per giocare già oggi ad una risoluzione 4k può rivolgersi ad una piattaforma AMD come ad esempio il mostruoso (nel rapporto prezzo prestazioni) Ryzen 1800x.
Indipendentemente dalle prossime correzioni ed ottimizzazioni "parziali" del sistema operativo e dei games (attraverso il rilascio di apposite patches) che potranno migliorare di qualche punto percentuale le prestazioni delle CPU Ryzen, occorrerà attendere almeno due-tre anni per vedere quasi raddoppiate le prestazioni dei processori AMD (inclusi gli Intel i7 69x0) in ambito videoludico, in attesa di un allineamento alle nuove tecnologie da parte dei principali motori grafici.
NM.
Concordo al 100%, anche se prima di affossare ryzen in game bisognerebbe capire la storia dei th salterini e delle ottimizzazione che ms rilascerà su win 10 (e tengo a rammentare che microsoft ha garantito il solo supporto per ryzen con l'ultimo os e non con i precedenti, incluso il diffusissimo seven).
Credo che tra massimo 2 settimane ci ritroveremo ryzen a livello quasi di 6900 in game ed in ottica futura anche prossima non rappresenterebbe una scelta sbagliata (sempre che con il pc si faccia anche altro).
In ogni caso solo per il gaming spinto credo convenga aspettare circa un mese se si volesse acquistare un i7 (gli i5 sono indietro alle proposte amd) sperando in un probabile ribasso del listino intel. ;)
In ogni caso solo per il gaming spinto credo convenga aspettare circa un mese se si volesse acquistare un i7 (gli i5 sono indietro alle proposte amd) sperando in un probabile ribasso del listino intel. ;)
Ormai il dado è tratto: anche per game spinto credo che convenga più un 1600x rispetto ad un i7, soprattutto tenendo conto che molto probabilmente avrà un silicio un po' più affinato, saranno stati risolti certamente alcune questioni in sospeso (lato mobo/bios e win) e avendo disattivato due core potrebbe salire un po' di più in frequenza (di turbo è già dichiarato 4GHz). Probabilmente converrà anche lato prezzo: ora l'i7-7700k sta leggermente sotto i 330€ ivati in un noto store che non fa "sorprese", mentre il prezzo al lancio del 1600x sarà 259$ (ah proposito, un 259$ all'incirca quanto potrebbe diventare in europa con l'euro?).
sgrinfia
04-03-2017, 16:27
Bene, ho letto tutte le recensioni possibili su questo nuovo processore Amd, che dire sono entusiasta , un processore forte in tutti gli ambiti e con un potenziale ancora inespresso considerando i bios acerbi .
Poi ho letto molti molte affermazioni di fanboy Intel qui.........e che dire è come quelli che dicono che i rigori della juve non c'erano :asd: :asd:.
PS.
c era anche un terzo rigore su dybala , (sono Romanista):)
nickname88
04-03-2017, 16:49
Ormai il dado è tratto: anche per game spinto credo che convenga più un 1600x rispetto ad un i7, soprattutto tenendo conto che molto probabilmente avrà un silicio un po' più affinato, saranno stati risolti certamente alcune questioni in sospeso (lato mobo/bios e win) e avendo disattivato due core potrebbe salire un po' di più in frequenza (di turbo è già dichiarato 4GHz). Probabilmente converrà anche lato prezzo: ora l'i7-7700k sta leggermente sotto i 330€ ivati in un noto store che non fa "sorprese", mentre il prezzo al lancio del 1600x sarà 259$ (ah proposito, un 259$ all'incirca quanto potrebbe diventare in europa con l'euro?).
L'esacore Ryzen presumo sarà un octo castrato derivato dagli scarti della produzione.
Sugli step del silicio ci conterei poco.
Piedone1113
04-03-2017, 17:10
L'esacore Ryzen presumo sarà un octo castrato derivato dagli scarti della produzione.
Sugli step del silicio ci conterei poco.
Gli scarti non centrano nulla, ryzen mura (vuoi per come è fatto, vuoi per le caratteristiche del silicio) a 4.2, ma gia sopra i 3,9 ghz i consumi iniziano ad impennarsi per poi esplodere sopra i 4 ghz, ma fino a 3.8ghz scala che è un piacere.
L'esacore Ryzen presumo sarà un octo castrato derivato dagli scarti della produzione.
Sì lo so, ma se fosse operativamente deficitario non sarebbe stato annunciato con un turbo superiore (4GHz) rispetto ad alcuni suoi fratelli maggiori di prima infornata.
Bene, ho letto tutte le recensioni possibili su questo nuovo processore Amd, che dire sono entusiasta , un processore forte in tutti gli ambiti e con un potenziale ancora inespresso considerando i bios acerbi .
Poi ho letto molti molte affermazioni di fanboy Intel qui.........e che dire è come quelli che dicono che i rigori della juve non c'erano :asd: :asd:.
PS.
c era anche un terzo rigore su dybala , (sono Romanista):)
Stai per scatenare il pandemonio :sofico:
nickname88
04-03-2017, 18:06
Sì lo so, ma se fosse operativamente deficitario non sarebbe stato annunciato con un turbo superiore (4GHz) rispetto ad alcuni suoi fratelli maggiori di prima infornata.
Per ora nella roadmap è presente come top fra i Ryzen 5 è il modello 1600x con le stesse freq del 1800x ( 3.6 / 4 ).
Un modello più spinto non mi pare di averlo letto da nessuna parte, sicuro che non sia solo un rumor ?
Per ora nella roadmap è presente come top fra i Ryzen 5 è il modello 1600x con le stesse freq del 1800x ( 3.6 / 4 ).
Infatti io avevo parlato rispetto "ad alcuni suoi fratelli", non tutti.
Ma, detto questo, sono quasi certo che per l'uscita del 1600x, il silicio e altro in casa amd avranno spostato più avanti il "muro", attualmente in molti casi il voltaggio esplode già a partire da 3.9GHz.
In un altro portale web assolutamente analogo ad Hardware Upgrade e di pari successo, c'è una recensione/test del processore RyZen 7 1800X che onestamente mi sembra molta più dettagliata di questa ...
Sembra che i RyZen 7 nei games offrono maggior prestazioni di quelle dichiarate qui se se viene attivato in windows il profilo Alte perfomance e viene disabilitata la tecnologia Hyper threeds del RyZen con queste impostazioni il gap a favore dell'intel Core i7 7700K è inferiore a 10 fotogrammi ...
Per altri tipi di software il RyZen 7 1800X è nettamente più performante dell'i7 7700K e le sue prestazioni sono assolutamente analoghe a quelle dell'Intel core i7 6900K ... solo che quest'ultimo costa quasi il doppio del RyZen 7 1800X
sgrinfia
04-03-2017, 18:49
in realtà hanno copiato tutti bmw :D
Né mettesse in palio una di BMW, .........AMD:)
Gli scarti non centrano nulla, ryzen mura (vuoi per come è fatto, vuoi per le caratteristiche del silicio) a 4.2, ma gia sopra i 3,9 ghz i consumi iniziano ad impennarsi per poi esplodere sopra i 4 ghz, ma fino a 3.8ghz scala che è un piacere.
Ma ti rendi conto che la base statistica su cui ti basi è ridicola?Cioè, ma voi avete mai overclockato un minimo?
Dire le performance in overclock con cpu appena uscite...boh, o sono tutti tecnologi avanzati o sono tutti troppo precipitosi.
Nurgiachi
04-03-2017, 19:12
Ryzen in gioco? Visto che qui un R5 1400X 3.5Ghz turbo 3.9Ghz quad-core 8 thread non lo ha nessuno ragioniamo a spanne:
Cinebench R15 single threaded
r7 1800x 3,6Ghz XFR 4.1Ghz = 158 punti
i7 7700 3,6Ghz TB 4.2Ghz = 186 punti
Con numeri che possono essere approssimativi quanto vogliamo e le frequenze non identiche la differenza di prestazioni i singoli core di queste architetture potrebbe essere questa.
Da non fan di AMD voglio buttarla lì, in game anche se ci fosse una differenza (a parità di clock che non ho calcolato) tra il 10 ed il 15% tra un i7 7700 da 330€ ed un R5 1400X che dovrebbe costare intorno ad i 200$.. ma io troppi dubbi non me li farei a questo giro. :O
Piedone1113
04-03-2017, 19:32
Ma ti rendi conto che la base statistica su cui ti basi è ridicola?Cioè, ma voi avete mai overclockato un minimo?
Dire le performance in overclock con cpu appena uscite...boh, o sono tutti tecnologi avanzati o sono tutti troppo precipitosi.
Ruggero giusto?
Si ho fatto oc, anche se non ai tuoi livelli, ma quando praticamente tutte le cpu si sono fermate a 4.1/2 ed 1,45 v di tutte le recensioni (4250 mhz con 1.54v a liquido e 5.2 ghz ad azoto con 1.98v) considerando pure la densità dei transistor superiore al 6700k (ti ricordi vero la differenza tra thoro A e thoro B e dove murava il primo?) credo che a meno di revisioni future non si andrà lontano.
Considero anche che un 1700 vuole 1.18v per 3,7 ghz e 1,38 per 3,9.
Del resto felice di essere smentito da bios futuri, ma a meno di cpu sculate credo che il 90% degli oc ad aria (dayly) sarà compresa tra i 4 ed i 4,2 ghz.
sgrinfia
04-03-2017, 19:58
A scanso di ..........
AMD Ryzen 7 1800X clockato a 5.8GHz
03.03.2017 - Inviato da Luca Rocchi 1 Comment
Record del mondo per der8auer
Overclocking
Ancora una volta ci troviamo a raccontarvi di un record del mondo ottenuto dal clocker tedesco Roman Hartung, conosciuto anche come der8auer. Stavolta Roman ha spinto il nuovo Ryzen 7 1800X alla frequenza di 5.8GHz utilizzando una ASUS CrossHair VI Hero e un impianto di raffreddamento ad azoto liquido. Questo risultato è stato ottenuto con una velocità di bus di 130 Mhz, e moltiplicatore impostato a 44.5. Indirettamente, ciò conferma come sia possibile clockare le CPU Ryzen anche solo aumentando la frequenza di bus.
Come anticipato, il sistema utilizzato da Roman si basa su una scheda madre ASUS Crosshair VI Hero, che grazie all'alimentazione di 1.97v ha permesso di raggiungere i 5.8GHz di frequenza sulla CPU Ryzen 7 1800X. La RAM DDR4 da 16GB è stata impostata a 2400MHz, con timing CL11. Dato che Ryzen si sta diffondendo sul mercato in questi giorni, ci aspettiamo molti altri risultati in overclock nelle prossime ore. Nelle prossime settimane sicuramente l'asticella si alzerà, man mano che i BIOS verranno affinati dai vari produttori.
Vogliamo sottolineare che questo record, pur essendo relativo soltanto alla frequenza della CPU, è molto interessante, dato che è stato ottenuto con tutti i core e tutti i thread attivi. Siamo davvero curiosi di scoprire le vere prestazioni di questo chip in test come wPrime e Cinebench. Nelle prossime settimane verrà sicuramente pubblicata una guida dedicata all'OC di Ryzen, magari da der8auer o da un altro clocker, dopo che saranno state affinate le varie tecniche di tweak e modificati i BIOS in maniera da renderli più efficienti. In ogni caso, facciamo i complimenti a der8auer per il primo record ottenuto.
Se vi servono delle tips per overclockare la vostra nuova CPU AMD Ryzen, Roman "der8auer" Hartung è sicuramente la persona che state cercando; date un'occhiata al suo profilo di Facebook!
;)
Ruggero giusto?
Si ho fatto oc, anche se non ai tuoi livelli, ma quando praticamente tutte le cpu si sono fermate a 4.1/2 ed 1,45 v di tutte le recensioni (4250 mhz con 1.54v a liquido e 5.2 ghz ad azoto con 1.98v) considerando pure la densità dei transistor superiore al 6700k (ti ricordi vero la differenza tra thoro A e thoro B e dove murava il primo?) credo che a meno di revisioni future non si andrà lontano.
Considero anche che un 1700 vuole 1.18v per 3,7 ghz e 1,38 per 3,9.
Del resto felice di essere smentito da bios futuri, ma a meno di cpu sculate credo che il 90% degli oc ad aria (dayly) sarà compresa tra i 4 ed i 4,2 ghz.
In questo discorso aver overclockato ad azoto c'entra poco,è più utile aver passato qualche piattaforma.
L'esempio dei thoro è il migliore che potessi fare (e complimenti perchè sono passati anni),tra una revision e l'altra c'era parecchia differenza in termini di clock.
Così come anche tra barton normali e xp-m,lì addirittura erano la stessa revision; pure a me sembra che saliranno pochi ma
1)sono i primi sample,magari amd ha fornito esemplari molto fortunati e poi realmente andranno pure meno
2)nessuno sa se verrà fatta qualche revision
In sintesi,a mio avviso è ancora presto per fare previsioni,figuriamoci per vendere certezze.
cdimauro
04-03-2017, 20:11
Guarda che è stato confermato da uno sviluppatore AMD: https://twitter.com/BitsAndChipsEng/status/837329508994854912
Un certo Robert Hallock.
Secondo me ha risposto a quello che B&C aveva scritto poco prima (https://twitter.com/BitsAndChipsEng/status/837626434021691392): "Is it better? ;)"
Perché per il resto gli sfottò che s'è beccato B&C per questa sparata sono una valanga. Ne riporto alcuni, per le precisazioni / osservazioni, e alcuni giusto per farsi 4 risate:
"No. It's called 'margin of error'.
within the margin of error, means absolutely nothing. Not sure how you linked it to Neural Net.
I don't see any improvement on consecutive runs - the results are between 1630 and 1638. I did 10 iteratons
sure, but then you can't you use it to prove or disprove the effect of "AI" branch predictor
Nice way to skew a graph showing 0.2% increases as they were 20% ones
Is this an nvidia graph? :p
No no no, it increases infinitely. Given a few years, it will find the end of Pi.
speeds up the more it works ��
reviews are however all over the spectrum atm, seems Ryzen needs to mature with bios, drivers etc..
these aren't scaled properly, making the amd graph look like it jumps a lot. I mean, it's a small thing, but worth noting
graphworks tm"
Direi che sia abbastanza.
E ti confermo che oltre il sesto run il punteggio non cresce più e riavviando la macchina si riparte da zero. Avevo chiesto anche di fare un test alternando vari benchmark per vedere se si "scorda" l'ottimizzazione, ma sono in attesa.
Come già riportato da altri (vedi sopra), siamo sullo 0,2% di scarto.
Per come funzionano le reti neurali (le ho studiate all'università nel lontano 2000 anche praticamente: la tesina consisteva nell'addestrare una rete neurale a riconoscere cluster di calcificazioni maligne in una mammografia) non mi stupirebbe se dopo aver cambiato bench e adattato la rete a quel bench, tornando al bench iniziale si dovesse iniziare quasi tutto daccapo (non da zero ma da uno stadio intermedio)... E' un comportamento tipico delle reti neurali: non addestrata, prestazioni basse, addestrata su un carico simile o uguale, prestazioni massime, addestrata su un carico diverso, prestazioni medie... Test set, training set, training test set... Sono termini che si usano in quel campo...
Sì, ma adesso calati anche nella realtà e rifletti su alcune cose. Quanto costa una rete neurale? Quanti input può "memorizzare"? Quanto silicio ha impiegato AMD per realizzare questa sua rete (che, slide alla mano, è presente in ogni core)?
Questa era soltanto la premessa, perché adesso passiamo alla parte più divertente.
Mettiamo che il processore sia sotto carico, che l'IPC sia 1 e che il clock del processore sia di 3,5Ghz: vuol dire che ogni core macina ben 3,5 miliardi di istruzioni al secondo. Mettiamo che lo fai girare per 2 minuti, e il gioco è fatto: 420 miliardi di istruzioni eseguite. Ovviamente non si tratta di istruzioni tutte diverse, ma comunque quelle eseguite sono in un quantitativo tale da non potere stare sicuramente nella cache L2 del core (per il momento e per semplicità mi sto limitando a considerare un solo core). Forse la L3 sarebbe in grado di contenere tutto il codice "hot" (quello eseguito a runtime), ma sfortunatamente deve anche pensare ai dati, e dunque farà trashing di istruzioni.
E veniamo alle conclusioni: pensi che una rete del genere sia in grado di farsi carico di "tenere a mente" i pattern d'uso delle istruzioni e le azioni eseguite, tanto da poter influenzare le esecuzioni successive? Dove la memorizza tutta questa montagna di informazioni? Le cache L2 e L3 sono fra gli elementi più grandi del core, e la parte più consistente riguarda le informazioni vere e proprie.
Se dovessimo dar retta alle sparate di B&C, Zen dovrebbe contenere un blocco di silicio gigantesco solo per questa rete. Una padellona, che farebbe impallidire, per dimensioni, anche il layer HBM2 che verrà integrato nelle future GPU.
Ma non mi pare di aver visto nulla del genere.
Dunque l'unica altra ipotesi, sicuramente più realistica, è che AMD sia riuscita a integrare dei qbit dove impacchettare questa montagna di informazioni, tralaltramente immediatamente consultabili alla bisogna (tanto sono qbit). E i qbit lavorano dentro un chip a temperate prossime ai 370°K, cosa questa, ancor più realistica. :O
O, più semplicemente, chi ha realizzato quel test non ha la minima cognizione di come funzioni un processore e le misure/numeri in gioco, non è nemmeno stato in grado di leggere e comprendere la slide di AMD sull'argomento, e sia partito per la tangente svolazzando alacremente sulle dolci ali delle reti neurali... :read:
Da cui la valanga di meritatissimi sfottò.
P.S. Sia chiaro che NON ce l'ho con te. :)
cdimauro
04-03-2017, 20:32
Nel mio post precedente ero andato a memoria ed avevo fatto confusione, ma ora ho ricontrollato.
Gli 8MB di cache L3 sono suddivisi in 8 blocchi, ma dal punto di vista di un core le latenze cambiano in base al blocco a cui deve accedere.
Infatti lo schema "semplificato" è questo:
http://www.hwupgrade.it/articoli/cpu/4853/slide_3.jpg
MA quello che "vede" un singolo core in realtà è questo:
https://abload.de/img/amd-ryzen-l3-cache2fj47.jpg
L' immagine sopra è un pochino fuorviante; se ho ben capito, la parte sopra mostra che un core è collegato "direttamente" ad un blocco, quella inferiore mostra che il clock gating di quel core "controlla" due blocchi ovvero quello "diretto" e quello "adiacente".
Considerando anche il resto dei dettagli, mi sa che un core riesce ad accedere "velocemente" ai suoi due blocchi, con penalizzazioni relativamente basse a quelli del core "sull'altro lato" con poi maggiori penalizzazioni negli accessi agli altri; probabilmente le interconnessioni tra "gruppi di due core" viaggiano con un clock molto più basso e/o un data path più stretto sino ad arrivare a ridursi alle latenze "decise" del crossbar switch più lento (quello del memory controller, suppongo).
Dai test sulle latenze (http://www.hardware.fr/getgraphimg.php?id=445&n=2) si capisce che il core 0 (ad esempio) dev'essere in grado di accedere con la stessa latenza alla L3 del core 2 o del core 1 del primo schema che hai riportato.
Appena prova ad accedere a quella dell'altro core adiacente, viene penalizzato (vedi la latenza col test a 6MB), mentre se prova ad accedere a quella del core diametralmente opposto viene penalizzato ancora di più (test a 8MB).
Anche il dato dei 12MB è indicativo del fatto che si è tentato l'accesso ai blocchi di L3 dei core "più vicini" dell'altro CCX. Mentre il test dei 16MB rappresenta, ovviamente, il caso peggiore: accesso alla L3 dei due core più lontani in assoluto.
Probabilmente li ci sono margini per ulteriori miglioramenti di prestazioni andando "solo" a ritoccare l'architettura delle L3 e delle inteconnessioni "fuori dai core" (o usando settaggi più aggressivi sul clock e le latenze delle interconnessioni in step migliorati).
Questo richiederà una revisione del chip, però. Dunque nulla che possa essere risolto con un BIOS aggiornato. :stordita:
cdimauro
04-03-2017, 20:37
ricordati che in un core, la cache L3 è divisa in due parti da un MB, quindi è come se l'accesso al primo mega di tutti i core sia più veloce di quello al secondo
Ne ho parlato più approfonditamente sopra.
spero per loro che in Naples il fabric sia di tutt'altra portata
A questo stadio, dubito fortemente che sia diverso da Ryzen, e che questi problemi vengano risolti in tempo per la commercializzazione.
è da ieri che sto pensando che è come fossero due die attaccati come in modalità MCM
Infatti è proprio quel che ho detto.
se così fosse, sarebbe meglio che nelle tabelle del bios siano dichiarati come un processore per ogni ccx, almeno il SO ne tiene di conto e non fa casini
Esattamente. Come se fossero processori su due socket: cosa gestibilissima già da adesso dai s.o., senza richiedere alcun ritocco allo scheduler.
se fosse come descritta l'uArc mi farebbe "storcere un po' il naso"...
Purtroppo è proprio quel che sembra, e servirà un'altra revisione del chip. Sempre se ci sarà, e non si rimanderà il tutto a Zen+.
se è un problema fisico ci sarà ben poco da fare... se poi per qualche arcano motivo il bus non funziona a dovere ...
Dai dati / indicazioni, sembra un problema di progetto.
Spero che MS si voglia prendere l'onere di sistemare lo scheduler (sarebbe anche ora)
Non ci sono notizie in merito. Magari perché siamo nel fine settimana. Vedremo in questi giorni.
IMO zen è uscito troppo presto, forse il motivo è che non volevano fosse a ridosso di skylake-x
Ipotesi plausibile. Ma si potrebbe rivelare un boomerang.
cdimauro
04-03-2017, 20:38
Stranamente passato inosservato ai più... questo spiega alcuni stranissimi benchmark.
Dovremo attendere un po' per comparazioni più veritiere dopo update vari.
Non è passato inosservato, ma ci sono tante dichiarazioni, e francamente preferisco aspettare che arrivino questi nuovi firmware, e vedere come si comportano.
cdimauro
04-03-2017, 20:51
questa me la sono segnata :D
Segnati anche il contesto, mentre ci sei, perché senza quello perde completamente di significato...
non so se lo sai che il ccx formato da 4core+l2 è più piccolo di 4core+l2 intel sul 14nm che a parità di librerie è molto più piccolo si parla che il 14nm GF sia il 35% più grande, sono 44 vs 49 mmq e che la densità di zen è +74% quella di BW-E :eek:
si parla di 4.8 miliardi di transistors in appena 200mmq, praticamente come se fosse una GPU a 14nm (vedi P10 che ne ha 5.5 in 320mmq) contro i 3.4 miliardi in 245mmq del 10c BW-E, sono 24 vs 13.8 milioni/mmq... questo poi dovrebbe essere uno dei motivi per cui non sale molto di frequenza rispetto ai BW-E, ma nemmeno tanto gli mancano 200-300mhz per pareggiare l'OC massimo.
Non so se lo sai, ma stiamo parlando di un SoC per console, che sarà abbastanza cicciottello visto che integrerà una GPU decisamente potenziata (rispetto all'originale).
Ora, tu vorresti piazzare i core Zen al posto di quelli Jaguar. Significa 8 core Zen, perché le applicazioni che ci sono adesso assumono che ce ne siano 8, per l'appunto, e se non vuoi avere problemi di retrocompatibilità devi garantire almeno questo dato. No, non puoi contare i thread hardware come singoli core Jaguar, perché non c'è nessuna garanzia che si comportino ALMENO come un core Jaguar, che ti ricordo essere in grado di lavorare in maniera del tutto autonoma rispetto agli altri.
Considerata la dimensione degli attuali core Zen, e che Skorpio NON verrà certo prodotto a 7nm (ma plausibilmente rimarrà agli attuali 14nm), significa che solo per la parte x86 si dovrebbe occupare bene o male la stessa identica area dell'attuale Ryzen 8 core, a meno di tagli della cache L3. Ma anche tagliando completamente la L3, comunque le dimensioni del chip sarebbero notevoli.
E nel conto manca ancora la GPU, che sarà quella che occuperà più spazio nel chip.
Dunque nelle tue ipotesi, il SoC di Skorpio sarà gigantesco, estremamente costo, consumerà molto di più, e richiederà un sistema di dissipazione molto più grande, e presumibilmente anche un case più grande per smaltire tutto quel calore.
E per cosa, poi, visto che nelle attuali console è la GPU a essere la parte debole, mentre la CPU se la cava già discretamente?
Per il resto ti faccio notare che non avevo minimamente tirato in ballo Intel e i suoi core, dove peraltro ho già fatto delle precise osservazioni nel thread Aspettando Zen, che non sono state considerate nemmeno di striscio...
Ma d'altra parte quel thread è frequentato più che altro da fanatici sfegatati a cui di informazioni tecniche non frega niente, visto che lo sport preferito è quello di dare continuamente e sistematicamente addosso a chi non è allineato al monopensiero.
Perle ai porci, insomma.
non ho capito che c'entra il video di albanese :stordita:
Le promesse di giochi che sfrutteranno pienamente tutti i core di Zen sono come quelle dei politici in campagna elettorale.
cdimauro
04-03-2017, 20:56
Né mettesse in palio una di BMW, .........AMD:)
Le BMW montano chip Intel: bella pubblicità si farebbe. :asd:
Ma ti rendi conto che la base statistica su cui ti basi è ridicola?Cioè, ma voi avete mai overclockato un minimo?
Dire le performance in overclock con cpu appena uscite...boh, o sono tutti tecnologi avanzati o sono tutti troppo precipitosi.
Guarda che Piedone NON è assolutamente un fanboy Intel. :D Hai completamente sbagliato persona :asd:
Secondo me ha risposto a quello che B&C aveva scritto poco prima (https://twitter.com/BitsAndChipsEng/status/837626434021691392): "Is it better? ;)"
Perché per il resto gli sfottò che s'è beccato B&C per questa sparata sono una valanga. Ne riporto alcuni, per le precisazioni / osservazioni, e alcuni giusto per farsi 4 risate:
"No. It's called 'margin of error'.
within the margin of error, means absolutely nothing. Not sure how you linked it to Neural Net.
I don't see any improvement on consecutive runs - the results are between 1630 and 1638. I did 10 iteratons
sure, but then you can't you use it to prove or disprove the effect of "AI" branch predictor
Nice way to skew a graph showing 0.2% increases as they were 20% ones
Is this an nvidia graph? :p
No no no, it increases infinitely. Given a few years, it will find the end of Pi.
speeds up the more it works ��
reviews are however all over the spectrum atm, seems Ryzen needs to mature with bios, drivers etc..
these aren't scaled properly, making the amd graph look like it jumps a lot. I mean, it's a small thing, but worth noting
graphworks tm"
Direi che sia abbastanza.
Come già riportato da altri (vedi sopra), siamo sullo 0,2% di scarto.
Sì, ma adesso calati anche nella realtà e rifletti su alcune cose. Quanto costa una rete neurale? Quanti input può "memorizzare"? Quanto silicio ha impiegato AMD per realizzare questa sua rete (che, slide alla mano, è presente in ogni core)?
Questa era soltanto la premessa, perché adesso passiamo alla parte più divertente.
Mettiamo che il processore sia sotto carico, che l'IPC sia 1 e che il clock del processore sia di 3,5Ghz: vuol dire che ogni core macina ben 3,5 miliardi di istruzioni al secondo. Mettiamo che lo fai girare per 2 minuti, e il gioco è fatto: 420 miliardi di istruzioni eseguite. Ovviamente non si tratta di istruzioni tutte diverse, ma comunque quelle eseguite sono in un quantitativo tale da non potere stare sicuramente nella cache L2 del core (per il momento e per semplicità mi sto limitando a considerare un solo core). Forse la L3 sarebbe in grado di contenere tutto il codice "hot" (quello eseguito a runtime), ma sfortunatamente deve anche pensare ai dati, e dunque farà trashing di istruzioni.
E veniamo alle conclusioni: pensi che una rete del genere sia in grado di farsi carico di "tenere a mente" i pattern d'uso delle istruzioni e le azioni eseguite, tanto da poter influenzare le esecuzioni successive? Dove la memorizza tutta questa montagna di informazioni? Le cache L2 e L3 sono fra gli elementi più grandi del core, e la parte più consistente riguarda le informazioni vere e proprie.
Se dovessimo dar retta alle sparate di B&C, Zen dovrebbe contenere un blocco di silicio gigantesco solo per questa rete. Una padellona, che farebbe impallidire, per dimensioni, anche il layer HBM2 che verrà integrato nelle future GPU.
Ma non mi pare di aver visto nulla del genere.
Dunque l'unica altra ipotesi, sicuramente più realistica, è che AMD sia riuscita a integrare dei qbit dove impacchettare questa montagna di informazioni, tralaltramente immediatamente consultabili alla bisogna (tanto sono qbit). E i qbit lavorano dentro un chip a temperate prossime ai 370°K, cosa questa, ancor più realistica. :O
O, più semplicemente, chi ha realizzato quel test non ha la minima cognizione di come funzioni un processore e le misure/numeri in gioco, non è nemmeno stato in grado di leggere e comprendere la slide di AMD sull'argomento, e sia partito per la tangente svolazzando alacremente sulle dolci ali delle reti neurali... :read:
Da cui la valanga di meritatissimi sfottò.
P.S. Sia chiaro che NON ce l'ho con te. :)
La scala sulla CPU intel è anche più stretta eppure su INTEL non c'è variazione significativa. Su AMD la scala è più ampia e guarda caso è crescente con le iterazioni.
Forse non hai presente come funzionano le reti neurali, ma ogni neurone richiede un paio di parametri, quindi la quantità di dati non è stratosferica e una decina di neuroni e qualche layer è più che sufficiente per fare qualcosa di significativo... Non so quanti neuroni artificiali ci sono, ma probabilmente pochi, per fare meno calcoli possibili... Quindi non ci vuole poi tanto silicio... Se si usa poi i fixed point per l'aritmetica, ci vuole poco...
cdimauro
04-03-2017, 21:01
Parliamo di numeri: quanto occupa l'area della rete neurale? Quanti transistor approssimativamente possono essere impiegati? Quanti pattern riesce a memorizzare? Qual è la latenza delle risposte?
I numeri di possibili scenari, come quelli testati, te li ho già forniti.
La teoria lascia il tempo che trova...
P.S. Ovviamente ho presente come funzionino le reti neurali, sebbene non ne abbia mai sviluppata una.
NvidiaMen
04-03-2017, 21:27
Non sò quanta colpa, percentualmente parlando, possa esser attribuita alla scarsa ottimizzazione del sistema operativo nei confronti di Ryzen.
Credo ci possa esser qualcosa relegata alla non perfetta gestione dell'HyperThreading (o Multithreading) e più in generale del risparmio energetico di tutti i cores, e che ciò possa incidere al massimo tra il 10% ed il 15% non permettendo comunque a questa CPU di oltrepassare le prestazioni in games dei quad core Intel I7 7700 di settima generazione nel breve periodo (al massimo pareggiare i conti in qualche gioco nella migliore delle ipotesi).
Il motivo è sempre lo stesso ovvero la poca scalabilità degli attuali motori grafici utilizzati in campo videoludico con processori aventi più di 4 cores.
Se gli attuali motori grafici avessero già quest'oggi sfruttato meglio gli esacores e gli octacores, anche senza ottimizzazione del sistema operativo avremmo avuto nel corso di questa presentazione dei Ryzen prestazioni al top in ambito gaming per la nuovissima piattaforma AMD così come per gli octacores della controparte Intel.
La cosa positiva dell'introduzione dei Ryzen è che grazie ad AMD ed ai prezzi concorrenziali dei suoi nuovi processori inizieranno ad aumentare il numero delle piattaforme octacores nei sistemi di gioco e questo porterà prima del previsto i programmatori a rendere più scalabili le prestazioni in multicores dei loro motori grafici a vantaggio anche di coloro che usano piattaforme basate su CPU Intel I7 69x0 ed anche delle serie ancor più vecchie 59x0-49x0-39x0.
Concordo al 100%, anche se prima di affossare ryzen in game bisognerebbe capire la storia dei th salterini e delle ottimizzazione che ms rilascerà su win 10 (e tengo a rammentare che microsoft ha garantito il solo supporto per ryzen con l'ultimo os e non con i precedenti, incluso il diffusissimo seven).
Credo che tra massimo 2 settimane ci ritroveremo ryzen a livello quasi di 6900 in game ed in ottica futura anche prossima non rappresenterebbe una scelta sbagliata (sempre che con il pc si faccia anche altro).
In ogni caso solo per il gaming spinto credo convenga aspettare circa un mese se si volesse acquistare un i7 (gli i5 sono indietro alle proposte amd) sperando in un probabile ribasso del listino intel. ;)
maxsin72
04-03-2017, 22:04
Ryzen è un'architettura completamente nuova che parte già fortissimo al debutto. Tra ottimizzazioni del software, dei bios e in generale della piattaforma, del processo produttivo e future revision che sicuramente ci saranno mi aspetto notevoli miglioramenti nei prossimi mesi :)
Parliamo di numeri: quanto occupa l'area della rete neurale? Quanti transistor approssimativamente possono essere impiegati? Quanti pattern riesce a memorizzare? Qual è la latenza delle risposte?
Non danno molti dettagli a riguardo ma è evidente che sono per forza molto semplici, probabilmente hanno una componente hardwired ed una "memoria a breve termine" con un fading progressivo degli eventi passati.
In soldoni è probabile che siano più simili a dei branch/prefetch predictor con una componente di apprendimento automatico più sofisticata rispetto ad un "conteggio" degli esiti precedenti.
Non mi stupirei se parlassero di reti neurali anche per difendersi dai patent troll (difficile battere le reti neurali come prior art).
cdimauro
04-03-2017, 22:15
La penso come te, infatti, a parte sul nome che penso sia una questione di marketing.
Ed è proprio il marketing di AMD che a mio avviso ha tratto in inganno il redattore di Bits and Chips, che ha preso per oro colato questo materiale puramente divulgativo (http://www.amd.com/en-us/press-releases/Pages/amd-takes-computing-2016dec13.aspx):
"Neural Net Prediction – an artificial intelligence neural network that learns to predict what future pathway an application will take based on past runs;"
In realtà il modello è molto più semplice, e non ha nulla a che vedere con la memorizzazione di successive esecuzioni dell'applicazione, come si può facilmente intuire dalla slide tecnica di AMD:
http://images.anandtech.com/doci/10907/AMD%20Zen%20December%202016%20Update_Final%20For%20Distribution-page-018.jpg
Soltanto una persona che non ha cognizione di come funzioni un moderno microprocessore poteva abboccare a uno slogan pubblicitario, e pensare che fosse stata infilata una rete neurale, pur semplificata, nel core.
Tanto che ha voluto verificare al reset cosa succedesse. :doh:
A dimostrazione di come internet sia piena di gente che si spaccia come esperta in materia, ma che la "cultura", invece, se la sia fatta a colpi di ricerche, prendendo pezzi di qua e di là...
leoneazzurro
04-03-2017, 22:22
Ryzen in gioco? Visto che qui un R5 1400X 3.5Ghz turbo 3.9Ghz quad-core 8 thread non lo ha nessuno ragioniamo a spanne:
Cinebench R15 single threaded
r7 1800x 3,6Ghz XFR 4.1Ghz = 158 punti
i7 7700 3,6Ghz TB 4.2Ghz = 186 punti
Con numeri che possono essere approssimativi quanto vogliamo e le frequenze non identiche la differenza di prestazioni i singoli core di queste architetture potrebbe essere questa.
Da non fan di AMD voglio buttarla lì, in game anche se ci fosse una differenza (a parità di clock che non ho calcolato) tra il 10 ed il 15% tra un i7 7700 da 330€ ed un R5 1400X che dovrebbe costare intorno ad i 200$.. ma io troppi dubbi non me li farei a questo giro. :O
Stai confrontando la frequenza XFR di Ryzen con la frequenza base del 7700K, il 7700K in single thread va in turbo a 4,5 GHz.
Guarda che Piedone NON è assolutamente un fanboy Intel. :D Hai completamente sbagliato persona :asd:
Mai detto,mai pensato.
Fare previsioni in overclock al momento è affrettato,sia nel bene che nel male...si possono pure fare,ma hanno poco fondamento.
Parliamo di numeri: quanto occupa l'area della rete neurale? Quanti transistor approssimativamente possono essere impiegati? Quanti pattern riesce a memorizzare? Qual è la latenza delle risposte?
I numeri di possibili scenari, come quelli testati, te li ho già forniti.
La teoria lascia il tempo che trova...
P.S. Ovviamente ho presente come funzionino le reti neurali, sebbene non ne abbia mai sviluppata una.
Ti ho detto che bastano pochi neuroni. Per l'esame che feci dovevo dimensionare una rete neurale per classificare cluster di calcificazioni. Se hai n parametri, non puoi mettere troppi neuroni, perchè non servono a nulla e ogni neurone si specializza per un caso e non va bene, perchè si deve generalizzare. Viceversa se ne metti troppo pochi non serve a nulla comunque. Non è questione di pattern da memorizzare... Non so quanto occupa ma ti ho detto che sono pochi parametri per ogni neurone...
Sempre che non usino la regressione logistica che è come fosse un solo neurone e per risposte binarie tipo salto/non salto, non devi neanche implementare la funzione logit, ma semplicemente mettere una soglia sulla combinazione lineare dei parametri...
La penso come te, infatti, a parte sul nome che penso sia una questione di marketing.
Ed è proprio il marketing di AMD che a mio avviso ha tratto in inganno il redattore di Bits and Chips, che ha preso per oro colato questo materiale puramente divulgativo (http://www.amd.com/en-us/press-releases/Pages/amd-takes-computing-2016dec13.aspx):
"Neural Net Prediction – an artificial intelligence neural network that learns to predict what future pathway an application will take based on past runs;"
In realtà il modello è molto più semplice, e non ha nulla a che vedere con la memorizzazione di successive esecuzioni dell'applicazione, come si può facilmente intuire dalla slide tecnica di AMD:
http://images.anandtech.com/doci/10907/AMD%20Zen%20December%202016%20Update_Final%20For%20Distribution-page-018.jpg
Soltanto una persona che non ha cognizione di come funzioni un moderno microprocessore poteva abboccare a uno slogan pubblicitario, e pensare che fosse stata infilata una rete neurale, pur semplificata, nel core.
Tanto che ha voluto verificare al reset cosa succedesse. :doh:
A dimostrazione di come internet sia piena di gente che si spaccia come esperta in materia, ma che la "cultura", invece, se la sia fatta a colpi di ricerche, prendendo pezzi di qua e di là...
La verifica al reset l'ho suggerita io, semplicemente per verificare se i parametri fossero memorizzati da qualche parte o al reset venisse buttato nel gabinetto tutto il lavoro fatto... Era più una speranza, diciamo... Se la velocità di adattamento a un nuovo software è alta, memorizzare i valori serve a poco...
la "rete neurale" di cui si parla non c'entra con l'autoapprendimento reiterato.
è una delle parti del blocco decoder di Intel (un gran bel blocco).
questa componente cerca semplicemente di ricostruire macro-ops SMT su codice vario, su thread appartenenti a diversi programmi.
la predizione è nel metterli nella stessa risorsa, nello stesso core (perche' se mandi un thread a milano ed uno a napoli difficile poi che riesci a gestirli come unica entità ).
Intel ha creato le sue istruzioni HT, AMD le ha copiate, ma la vera "battaglia" stà nello sfruttarle non da codice precompilato, ma da codice vario.
Alpha insegna, ma erano anche monocore.
e per inciso è (anche) per questo che ha uno scaling threading molto piu' alto degli intel: riesce a ricomporre qualche Macro-op SMT in piu' rispetto ad Intel.
casbal198165
05-03-2017, 08:23
per me che uso photoshop e dei giochi non m'interessa nulla si intuisce già se ryzen sia al livello di intel ?(io parlo del più caro)contro ovviamente il più caro di intel...
la "rete neurale" di cui si parla non c'entra con l'autoapprendimento reiterato.
è una delle parti del blocco decoder di Intel (un gran bel blocco).
questa componente cerca semplicemente di ricostruire macro-ops SMT su codice vario, su thread appartenenti a diversi programmi.
la predizione è nel metterli nella stessa risorsa, nello stesso core (perche' se mandi un thread a milano ed uno a napoli difficile poi che riesci a gestirli come unica entità ).
Intel ha creato le sue istruzioni HT, AMD le ha copiate, ma la vera "battaglia" stà nello sfruttarle non da codice precompilato, ma da codice vario.
Alpha insegna, ma erano anche monocore.
e per inciso è (anche) per questo che ha uno scaling threading molto piu' alto degli intel: riesce a ricomporre qualche Macro-op SMT in piu' rispetto ad Intel.
Non credo che le cpu intel facciano questo a basso livello. Ogni cpu conosce solo i threads (1 o 2) che gli sono assegnati.
La chiamano rete neurale, ma non pensate che sia qualcosa di complicato. La cosa innovativa che fecero ai tempi è studiarne le proprietà e codificarne gli algoritmi di apprendimento, cercando quello ottimale. Non è niente di magico: una rete combinatoria con un po' di memoria... Quello che c'è dietro è lo studio delle proprietà e degli algoritmi di apprendimento...
E' come guardare quel sito che raccoglie javascript di massimo 140 caratteri che fanno delle cose grafiche di una bellezza assurda, ma in 140 caratteri, e meravigliarsi... Con poco si può fare molto... P.S.: https://www.dwitter.net/top
Piedone1113
05-03-2017, 08:57
@cdmauro
Sul 2600 ( Sandy bridge) con disse stock avevo notato che con cinebench multi:
1 run x
2 run x+ 7/8%
3 run ×+ 2
4 run x - 2%
Per poi ripartire dal run 2
Avevo concluso che:
Nel run 1 i dati non erano tutti disponibili in l3
Nel 2 i dati erano tutti in l3 e max turbo
Nel 3 il clock si abbassata al valore di targa senza turbo
Nel 4 addirittura la frequenza oscilla tra la nominale e - 100mhz
Su dual x5690 a liquido invece il primo run era basso mentre tutti gli altri in turbo max.
In ryzen invece vedo una progressione crescente che ancora non riesco a giustificare ( e per vedere se sia rete neurale bisognerebbe eseguire test che non siano influenzati dalla l3).
cdimauro
05-03-2017, 09:53
Infatti è plausibile che sia proprio ciò che è avvenuto con quei test. :)
Ti ho detto che bastano pochi neuroni. Per l'esame che feci dovevo dimensionare una rete neurale per classificare cluster di calcificazioni. Se hai n parametri, non puoi mettere troppi neuroni, perchè non servono a nulla e ogni neurone si specializza per un caso e non va bene, perchè si deve generalizzare. Viceversa se ne metti troppo pochi non serve a nulla comunque. Non è questione di pattern da memorizzare... Non so quanto occupa ma ti ho detto che sono pochi parametri per ogni neurone...
Sempre che non usino la regressione logistica che è come fosse un solo neurone e per risposte binarie tipo salto/non salto, non devi neanche implementare la funzione logit, ma semplicemente mettere una soglia sulla combinazione lineare dei parametri...
Visto che coi numeri non ne usciamo, passiamo alla parte implementativa.
Hai esperienza con le reti neurali, e quindi sai già quanto sia complesso implementare anche un solo neurone con un certo numero di input, e che fornisca un risultato. Infatti prima, e non a caso, parlavi di utilizzare matematica a precisione fissa, per ridurre i costi, ma anche questo ha un costo non indifferente quando devi pensare di implementare tutto in hardware. Infatti ti servono dei moltiplicatori, e più precisamente te ne serve uno per pesare ogni input.
I moltiplicatori, come sai, sono abbastanza costosi in termini di transistor utilizzati, sono aree del chip molto attive e quindi consumano corrente e dissipano calore, e inoltre soffrono di una certa latenza. Ci sono diverse implementazioni in hardware, che sono dei compromessi a seconda di quello che ti serve: se vuoi velocità (bassissima latenza) devi mettere sul piatto un bel po' di energivori transistor; viceversa, se vuoi risparmiare transistor (e consumi) avrai latenze più elevate. Non si scappa.
Poi devi mettere assieme il tutto, e ti servono n-1 sommatori. Anche questi costano, anche se molto meno rispetto ai moltiplicatori, ma si portano dietro alcuni problemi (il riporto).
E fin qui siamo alla mera computazione dei calcoli per l'azione. Se vuoi dare la possibilità alla rete di correggersi nel tempo, in base agli input, devi necessariamente passare da una delle possibili funzioni d'attivazione, e qui le cose si fanno MOLTO, MOLTO DIFFICILI, visto che si utilizzano funzioni trascendentali condite da divisioni. Implementarle in hardware? Certo, tutto è possibile, ma a costi elevatissimi (se vogliamo ottenere i risultati senza addormentarci nell'attesa che vengano elaborati), e comunque anche nella migliore delle ipotesi la latenza sarebbe elevata.
Infine c'è da scegliere una funzione di threshold, da applicare al risultato precedente, per stabilire l'output del neurone. E' l'unica parte che sarebbe semplice da implementare, perché potrebbe anche bastare un comparatore.
Tutto questo, come già detto, per implementare UN solo neurone, e parliamo di vagonate di transistor da utilizzare allo scopo, che IMO competono tranquillamente con quelli impiegati in un'ALU di un'unità SIMD.
Fin qui mi sono limitato all'implementazione di un generico neurone. Adesso passiamo al nostro caso più concreto: un core che ha a che fare con delle istruzioni da eseguire, registri da usare, operazioni da/verso la memoria, risorse (porte) da utilizzare.
La slide di AMD lascia già intendere che questa rete agisca a livello di micro-op, e dunque avrà a che fare con questa tipologia di dato, ma in base alla descrizione dovrà tenere conto anche delle risorse che ho elencato prima. Dunque IMO almeno le micro-op e le porte utilizzate (perché servono per costruire la "storia" su cui dovrà lavorare) dovrebbero rappresentare gli input del neurone. Come output penso sia sufficiente, per semplicità, considerare a quale porta smistare la micro-op.
Le porte sono soltanto 10, e dunque parliamo di una piccola informazione. Ma le macro-op, come sai, occupano parecchio spazio perché sono dense, dovendo codificare al loro interno un bel po' di informazioni. Dunque dimensionare le risorse per manipolare questo tipo di input richiede un bel po' di spazio, che influisce su tutto il discorso di cui sopra.
Puoi semplificare il tutto se cataloghi le macro-op per "tipologia", magari aggiungendo un apposito campo al loro interno, ma non so quante tipologie di macro-op siano necessarie. Le istruzioni x86 sono centinaia e centinaia (parecchie migliaia se teniamo conto anche delle combinazioni dovute ad esempio all'uso di flag, delle diverse modalità d'indirizzamento verso la memoria, dell'uso o meno di costanti, di lock, prefissi che cambiano il segmento attualmente usato, ecc. ecc.. E queste sono tutte informazioni di cui si DEVE tenere conto in questo contesto, perché possono influenzare l'uso di alcune risorse all'interno del core), dunque servirebbero in ogni caso un po' di bit.
In realtà la questione è ancora più complicata se teniamo conto che le micro-op si possono successivamente dividere in uop, e che queste ultime possono poi provenire dalla uop-ROM.
Mi fermo qui, ma direi che ce n'è abbastanza per capire la portata dell'introduzione di una rete neurale all'interno del core di un processore.
Per cui sono più che convinto che la soluzione implementata sia quella che ha precedentemente descritto LMCH.
La verifica al reset l'ho suggerita io, semplicemente per verificare se i parametri fossero memorizzati da qualche parte o al reset venisse buttato nel gabinetto tutto il lavoro fatto... Era più una speranza, diciamo... Se la velocità di adattamento a un nuovo software è alta, memorizzare i valori serve a poco...
E la velocità è una cosa che non puoi avere con una rete neurale, che ha i suoi tempi non soltanto per l'apprendimento, ma anche a regime per fornire un risultato.
Ricorda che parliamo di un processore che opera intorno ai 3,5Ghz, che per ciclo di clock può eseguire il dispatch di fino a 6 micro-op e ritirare 8 uop.
Immagina una rete neurale che, per ogni ciclo di clock, debba gestire tutto ciò (perché è di questo che si parla, se rifletti attentamente sul diagramma presente nella slide, e sulla descrizione delle operazioni), e penso che le conclusioni le potrai trarre tu stesso.
Ciò che voglio dire, e che comunque anche in altre occasioni è capitato di discutere, è che non si può pensare a delle cose astrattamente solo perché "si può fare", ma è strettamente necessario calarle nelle preciso contesto di cui si parla. Capire, insomma, se un'idea possa o meno essere compatibile con la realtà delle cose.
Nello specifico, se conosci come funzionano le reti neurali, di come lavorano, di come si potrebbero implementare in hardware, e infine di come funziona a runtime il core di un processore, l'ultima cosa che uno potrebbe pensare è di vederne implementata una al suo interno.
Per realizzare certe operazioni, come quelle discusse nella slide, ci sono ben altre soluzioni, molto più economiche e veloci, ma che hanno ben poco a che spartire con le reti neurali. Soprattutto, sono soluzioni che funzionano nel contesto locale, cioè analizzando l'attuale contesto elaborativo, perché è impensabile che un core si possa trascinare dire una sorta di "memoria storica" delle centinaia di miliardi di istruzioni eseguite.
Spero di essere stato chiaro.
E son d'accordo con la risposta a lucusta: non penso che Intel implementi roba del genere. Poi queste son cose che ritengo rientrerebbero nei famigerati trade secret dell'azienda, visto che è preferibile siano implementati ben nascosti fra i transistor, essendo molto difficili da carpire a operazioni di reverse engineering. In soldoni: è roba che un'azienda non pubblicizzerebbe nemmeno di striscio.
Dato che qualcuno mi sta scrivendo per chiedermi il mio parere sulla nuova uscita di questi processori.. posto qui le mie considerazioni.
Sono contento per Amd di aver tirato fuori dei processori che possono competere con gli i7..
BRAVA AMD!
Cmq diciamoci la verità la stragrande maggioranza delle persone non compra i7 da diverse centinaia di euro e quindi neanche ryzen..
Ma è giusto che AMD possa controbattere anche in quella nicchia..
A mio avviso oggi in un pc contano molto gli ssd, m.2, usb 3..poi se uno ha un procio da 200 euro o 400..secondo me non sta tanto li la differenza.
Per quanto riguarda i prezzi..be' sono concorrenziali anche se personalmente non so se comprerei il modello x da 450 euro..preferirei spendere molto meno..e penso sia così anche per molti giocatori incalliti..
Byez
Infatti è plausibile che sia proprio ciò che è avvenuto con quei test. :)
Visto che coi numeri non ne usciamo, passiamo alla parte implementativa.
Hai esperienza con le reti neurali, e quindi sai già quanto sia complesso implementare anche un solo neurone con un certo numero di input, e che fornisca un risultato. Infatti prima, e non a caso, parlavi di utilizzare matematica a precisione fissa, per ridurre i costi, ma anche questo ha un costo non indifferente quando devi pensare di implementare tutto in hardware. Infatti ti servono dei moltiplicatori, e più precisamente te ne serve uno per pesare ogni input.
I moltiplicatori, come sai, sono abbastanza costosi in termini di transistor utilizzati, sono aree del chip molto attive e quindi consumano corrente e dissipano calore, e inoltre soffrono di una certa latenza. Ci sono diverse implementazioni in hardware, che sono dei compromessi a seconda di quello che ti serve: se vuoi velocità (bassissima latenza) devi mettere sul piatto un bel po' di energivori transistor; viceversa, se vuoi risparmiare transistor (e consumi) avrai latenze più elevate. Non si scappa.
Poi devi mettere assieme il tutto, e ti servono n-1 sommatori. Anche questi costano, anche se molto meno rispetto ai moltiplicatori, ma si portano dietro alcuni problemi (il riporto).
E fin qui siamo alla mera computazione dei calcoli per l'azione. Se vuoi dare la possibilità alla rete di correggersi nel tempo, in base agli input, devi necessariamente passare da una delle possibili funzioni d'attivazione, e qui le cose si fanno MOLTO, MOLTO DIFFICILI, visto che si utilizzano funzioni trascendentali condite da divisioni. Implementarle in hardware? Certo, tutto è possibile, ma a costi elevatissimi (se vogliamo ottenere i risultati senza addormentarci nell'attesa che vengano elaborati), e comunque anche nella migliore delle ipotesi la latenza sarebbe elevata.
Infine c'è da scegliere una funzione di threshold, da applicare al risultato precedente, per stabilire l'output del neurone. E' l'unica parte che sarebbe semplice da implementare, perché potrebbe anche bastare un comparatore.
Tutto questo, come già detto, per implementare UN solo neurone, e parliamo di vagonate di transistor da utilizzare allo scopo, che IMO competono tranquillamente con quelli impiegati in un'ALU di un'unità SIMD.
Fin qui mi sono limitato all'implementazione di un generico neurone. Adesso passiamo al nostro caso più concreto: un core che ha a che fare con delle istruzioni da eseguire, registri da usare, operazioni da/verso la memoria, risorse (porte) da utilizzare.
La slide di AMD lascia già intendere che questa rete agisca a livello di micro-op, e dunque avrà a che fare con questa tipologia di dato, ma in base alla descrizione dovrà tenere conto anche delle risorse che ho elencato prima. Dunque IMO almeno le micro-op e le porte utilizzate (perché servono per costruire la "storia" su cui dovrà lavorare) dovrebbero rappresentare gli input del neurone. Come output penso sia sufficiente, per semplicità, considerare a quale porta smistare la micro-op.
Le porte sono soltanto 10, e dunque parliamo di una piccola informazione. Ma le macro-op, come sai, occupano parecchio spazio perché sono dense, dovendo codificare al loro interno un bel po' di informazioni. Dunque dimensionare le risorse per manipolare questo tipo di input richiede un bel po' di spazio, che influisce su tutto il discorso di cui sopra.
Puoi semplificare il tutto se cataloghi le macro-op per "tipologia", magari aggiungendo un apposito campo al loro interno, ma non so quante tipologie di macro-op siano necessarie. Le istruzioni x86 sono centinaia e centinaia (parecchie migliaia se teniamo conto anche delle combinazioni dovute ad esempio all'uso di flag, delle diverse modalità d'indirizzamento verso la memoria, dell'uso o meno di costanti, di lock, prefissi che cambiano il segmento attualmente usato, ecc. ecc.. E queste sono tutte informazioni di cui si DEVE tenere conto in questo contesto, perché possono influenzare l'uso di alcune risorse all'interno del core), dunque servirebbero in ogni caso un po' di bit.
In realtà la questione è ancora più complicata se teniamo conto che le micro-op si possono successivamente dividere in uop, e che queste ultime possono poi provenire dalla uop-ROM.
Mi fermo qui, ma direi che ce n'è abbastanza per capire la portata dell'introduzione di una rete neurale all'interno del core di un processore.
Per cui sono più che convinto che la soluzione implementata sia quella che ha precedentemente descritto LMCH.
E la velocità è una cosa che non puoi avere con una rete neurale, che ha i suoi tempi non soltanto per l'apprendimento, ma anche a regime per fornire un risultato.
Ricorda che parliamo di un processore che opera intorno ai 3,5Ghz, che per ciclo di clock può eseguire il dispatch di fino a 6 micro-op e ritirare 8 uop.
Immagina una rete neurale che, per ogni ciclo di clock, debba gestire tutto ciò (perché è di questo che si parla, se rifletti attentamente sul diagramma presente nella slide, e sulla descrizione delle operazioni), e penso che le conclusioni le potrai trarre tu stesso.
Ciò che voglio dire, e che comunque anche in altre occasioni è capitato di discutere, è che non si può pensare a delle cose astrattamente solo perché "si può fare", ma è strettamente necessario calarle nelle preciso contesto di cui si parla. Capire, insomma, se un'idea possa o meno essere compatibile con la realtà delle cose.
Nello specifico, se conosci come funzionano le reti neurali, di come lavorano, di come si potrebbero implementare in hardware, e infine di come funziona a runtime il core di un processore, l'ultima cosa che uno potrebbe pensare è di vederne implementata una al suo interno.
Per realizzare certe operazioni, come quelle discusse nella slide, ci sono ben altre soluzioni, molto più economiche e veloci, ma che hanno ben poco a che spartire con le reti neurali. Soprattutto, sono soluzioni che funzionano nel contesto locale, cioè analizzando l'attuale contesto elaborativo, perché è impensabile che un core si possa trascinare dire una sorta di "memoria storica" delle centinaia di miliardi di istruzioni eseguite.
Spero di essere stato chiaro.
E son d'accordo con la risposta a lucusta: non penso che Intel implementi roba del genere. Poi queste son cose che ritengo rientrerebbero nei famigerati trade secret dell'azienda, visto che è preferibile siano implementati ben nascosti fra i transistor, essendo molto difficili da carpire a operazioni di reverse engineering. In soldoni: è roba che un'azienda non pubblicizzerebbe nemmeno di striscio.
Ma a quanto ho capito la "rete neurale" serve solo per fare la branch predicition e immagino che non sia l'unico metodo usato e si scelga anche dinamicamente; è una tecnica consolidata: noi qui abbiamo usato tre metodi di classificazione, con tanto di affidabilità, in parallelo per predire un evento cardiaco, infarto, a due anni sulla base di 5-6 parametri, con tanto di risposta binaria e affidabilità. Uno dei 3 metodi era una classica rete neurale, non so di preciso le specifiche perchè io ho implementato l'interfaccia grafica.
Siccome la predizione è del tipo si no, probabilmente sarà solo la sommatoria pesata di n parametri (probabilmente semplicemente global e local history e qualche altro parametro più qualche feedback) e poi un bias così da dover solo vedere il bit più significativo (il segno) per decidere se saltare o no. Nulla di trascendentale (pun intended)... Semplicemente i coefficienti non sono fissi, ma variati con qualche criterio, probabilmente derivato dalla branca dell'inteligenza artificiale... Il perceptron che io sappia, c'è già in Jaguar e non è così complesso da implementare... Al max lo usano anche per il prefetch in Zen, mi sembra di aver capito, ma non so in che modo...
tutto sto hype per nulla
Quoto. AMD e' uscita con un nuovo processore a 8 core che costa come un quad core intel e va quasi uguale.
Diciamo piuttosto che e' un buon risultato, visto che finora ha arrancato un bel po'.
Comunque i test SENZA Turbo non si possono vedere. Sono inutili. La funzione Turbo e' integrata nei processori, non e' una funzionalita' della scheda madre o un overclock manuale. Toglierla significa invalidare i test che avete fatto, messi cosi' non significano nulla.
Perche' magari uno prende Ryzen convinto che sia allo stesso livello, poi scopre che col Turbo attivo il 7700K prende il volo e giustamente smadonna...
cdimauro
05-03-2017, 10:54
Quoto. AMD e' uscita con un nuovo processore a 8 core che costa come un quad core intel e va quasi uguale.
Diciamo piuttosto che e' un buon risultato, visto che finora ha arrancato un bel po'.
Comunque i test SENZA Turbo non si possono vedere. Sono inutili. La funzione Turbo e' integrata nei processori, non e' una funzionalita' della scheda madre o un overclock manuale. Toglierla significa invalidare i test che avete fatto, messi cosi' non significano nulla.
Perche' magari uno prende Ryzen convinto che sia allo stesso livello, poi scopre che col Turbo attivo il 7700K prende il volo e giustamente smadonna...
Il turbo, nonché l'XFR, era attivo nei test.
Forse ti riferisci ai test effettuati per calcolare l'IPC, ma lì è una cosa completamente diversa, e roba come il Turbo/XFR DEVE essere disabilitata.
@bjt2: un percertrone è già più semplice, ma IMO sarà una logica predittiva molto simile (a livello implementativo) a un branch predictor, come affermava anche LMCH.
dariscad
05-03-2017, 11:09
Dato che qualcuno mi sta scrivendo per chiedermi il mio parere sulla nuova uscita di questi processori.. posto qui le mie considerazioni.
Sono contento per Amd di aver tirato fuori dei processori che possono competere con gli i7..
BRAVA AMD!
Cmq diciamoci la verità la stragrande maggioranza delle persone non compra i7 da diverse centinaia di euro e quindi neanche ryzen..
Ma è giusto che AMD possa controbattere anche in quella nicchia..
A mio avviso oggi in un pc contano molto gli ssd, m.2, usb 3..poi se uno ha un procio da 200 euro o 400..secondo me non sta tanto li la differenza.
Per quanto riguarda i prezzi..be' sono concorrenziali anche se personalmente non so se comprerei il modello x da 450 euro..preferirei spendere molto meno..e penso sia così anche per molti giocatori incalliti..
Byez
quoto... premetto che 1800X va confrontato col 6900k e non 7700k... ovvio che in game va meglio il 7700k (1080p)... ma anche paragonandolo al 6900K.
personalmente ho avuto i7 990x e i7 4930k OC 4.5ghz entrambi e con stessa VGA non ho notato nemmeno 1 fps di differenza in game (stessi giochi a risoluzione 4K o 1440P).... mentre dai bench sembrava migliore... magari un 7700K va meglio ma sicuramente non 10 o 20 fps in piu... ho anche spesso confrontato video reali (no bench) youtube con stesso gioco e risoluzione con i7 7700k ... 4770k... i7990x... e forse differenziano di 5 fps max... non 20... la diffrenza la fa la VGA ... anche in merito a SSD.... ho 850evo ... hdd wd black... provato a mattere i giochi su entrambi per capirne le differenze... forse su ssd carica dai 2 ai 3 secondi piu veloce... stessa cosa windows... provato con 850 evo e un ssd vecchio da 200mb\s e stessa identica velocità di avvio.
oltre 200 mb\s non cambia nulla nell'uso domestico.
ovviamente chi fa solo gaming e tiene cpu max 2 anni i7 7700k e spende pure meno...
ma dove va quasi uguale nel mondo dei tuoi sogni forse? :stordita:
Intendi che va peggio Ryzen?
cdimauro
05-03-2017, 11:48
ma quale contesto? che stai a dì?
Si parlava di Skorpio o sbaglio? Il contesto era quello.
Ma li leggi i messaggi prima di rispondere?
come fai a sapere quanto sarà grande? lavori anche per M$soft adesso? o per AMD e sai come sarà VEGA?
La sola GPU erogherà ben 6TFLOPS, e i transistor per implementarla non è che te li regalino. Quanto occupa il die di un'attuale GPU, a 14nm, che arriva a quella potenza di calcolo?
io non voglio piazzare proprio nulla, un conto è dire come fai tu che sicuramente non ci sarà zen
Ho detto "non credo" per la precisione, che in lingua italiana ha un certo significato.
Quanto troverai nei miei scritti che è impossibile, che l'ho escluso del tutto, ecc., allora avrai ragione.
perché è più grande e consuma più di jaguar cosa tra l'altro NON ANCORA VERIFICATA
Forse per te, che non sai o non vuoi sapere.
Un singolo core Jaguar, a 28nm, occupa 3,1mm^2. Le console ne hanno 8, per cui il totale non arriva nemmeno a 25mm^2, che è quasi la metà di un solo core Zen, che però è prodotto a 14nm.
Se scali i 25mm^s a 14nm, arrivano a meno della metà. E ripeto: sono tutti e 8 i core Jaguar.
e a mio parere non sarà così e stai facendo disinformazione,
A tuo parere, con le sole parole, tu e la massa di grandi pensatori ed esperti di cui è piena internet, potete dire quello che volete.
Io, invece, ho ampiamente argomentato, e qui sopra ho fornito dei ben precisi numeri a supporto delle mie tesi (che non sono teoremi).
strano, un conto è pensare che potrebbe starci perché è molto piccolo e che alle basse frequenze consuma uno sputo questa uarch (basti vedere il 1700 liscio che figura fa fare a tutte le altre uarch presenti sul mercato oggi).
E quanto pensi che possa consumare il doppio cluster Jaguar di cui sopra, a 14nmFinFET? Più di Zen?
del resto l'hanno visto tutti che zen consuma poco, o meglio ha un alta efficienza, solo tu dici che consuma più delle uarch intel :stordita: ed il tutto nonostante un silicio inferiore sulla carta in tutto.
Io cosa? Di cosa mi stai accusando adesso? Ci sono DIVERSE recensioni che riportano DELTA (quindi nemmeno il consumo totale, che ovviamente è più elevato) che arrivano anche a 120W, e dunque ben lontani dai 95W di TDP (che è un'altra cosa) con cui Ryzen viene venduto.
E ripeto: non è certo roba che mi sono inventato io. Ti è chiaro o no?
anche qua, forse non ti ricordi che sono SoC CUSTOM, non esiste jaguar in quella configurazione del desktop
http://www.anandtech.com/show/7546/chipworks-confirms-xbox-one-soc-has-14-cus qua vedi una comparativa tra il SoC PS4 ed il SoC XBOne,
La conoscevo già, grazie, e il fatto che non esistano SoC custom come quelli non implica che non si possano conoscere le dimensioni dei core Jaguar utilizzati.
di L3 manco l'ombra
E chi ha detto qui che ci sarebbe la L3? Certamente NON io, che ho detto tutt'altra cosa.
Nella foga di rispondermi non hai capito perché abbia parlato della L3 in quel contesto.
Il mio messaggio è ancora lì, e te lo puoi rileggere. E tranquillo che non lo modifico.
e dopotutto a cosa dovrebbe servire per un SoC di una console la L3, solo la M$oft ha voluto continuare sulla strada della esram, ma come dimensioni in mmq i chip sono simili, con PS4 che senza esram ha messo più CU grafiche.
http://cdn.wccftech.com/wp-content/uploads/2013/08/Xbonx-One-Architecture-Jaguar-SOC.png
Lo sapevo già, grazie.
363mmq mi pare tutto tranne che chip piccoli, non vedo perché non potrebbero continuare con la stessa politica
E' un SoC: è normale che sia così grande, perché include CPU, GPU, e chipset.
e dopotutto 2 CCX Zen occuperebbero appena 88mmq sul 14nm GF,
Sottraendolo alla GPU, che potrebbe integrare molti più stream processor & annesse risorse.
e poi chi ce lo dice che non utilizzeranno un CCX solo,
Il buon senso? Vatti a rivedere quello che avevo scritto prima in merito, e proprio qui sotto.
dopotutto 4core+smt zen vanno più di 8 core jaguar a pari clock.
Puoi dimostrare che, IN QUALUNQUE CONDIZIONE, gli 8 thread hardware di uno Zen in configurazione singolo CCX / quad core, saranno in grado di eseguire i compiti degli attuali 8 core Jaguar, ALMENO alla stessa velocità?
Questo perché, per preservare la compatibilità al 100%, devi garantire che Zen si debba comportare sempre ALMENO come Jaguar.
Se puoi dimostrarlo, allora Zen 4C/8T potrebbe essere preso in considerazione come rimpiazzo. Altrimenti ne serve almeno uno con 8 core.
vedi sopra, ed aggiungo che di tutto questo non capisco come fai ad avere tutte queste sicurezze in quello che dici,
Se non lo capisci è un problema tuo, visto che ho AMPIAMENTE argomentato.
è incredibile :sofico: il tuo ego supera di gran lunga le tue parole, sai tutto tu.
Classico attacco di chi non è in grado di sostenere una discussione sul piano civile.
D'altra parte sei ben abituato...
E poi diciamolo, se la M$oft avesse perso tutto questo tempo sulla rivale Sony per qualcosa di simile sarebbero davvero dei folli...
Infatti è la GPU sulla quale Microsoft ha puntato, con prestazioni che saranno 4 volte e mezza l'attuale, e quasi il doppio della PS4 Pro.
E sarà un caso che finora sia sempre parlato della GPU, anche nelle dichiarazioni di Microsoft, e mai della CPU.
Ma no, la CPU deve entrarci per forza solo perché è arrivato Zen... E via a fantasticare, ignorando come funziona la realtà. Ma anche qui, è perché sei ben abituato, avendo frequentato un posto in cui la fantasia ha dominato ampiamente sulla realtà.
non so di cosa stai parlando ed era semplicemente per fare un paragone in quanto Intel è sempre stata avanti ultimamente sull discorso perf/mmq, oggi no.
E' un paragone del tutto privo di senso in base al contesto della discussione. Si parlava di SoC per console. E nello specifico di Skorpio.
Parlare dei core Intel in questo contesto è solo un inutile spreco di tempo.
ma tu te le cerchi, fidati :read:
Non mi fido di uno che ha partecipato più volte al lauto pasto in quel thread. Beh, più che altro che c'ha provato.
E io mi non sono cercato proprio un bel niente, miei interventi alla mano in quel thread. :read:
in tutte quello che hai scritto, comunque, noto una certa insofferenza... mah
Non sei stato TU ad avermi scritto questo:
questa me la sono segnata :D
?
La prossima volta fai un intervento pacato e senza battutine/sfottò, come si confà a una persona civile e disponibile al dialogo, e vedrai che riceverai una risposta con lo stesso tono.
Non scrivo risposte a caso. Le mie sono ben ponderate, persino nella ricerca di precise parole da utilizzare.
:rotfl: :rotfl: :rotfl:
:winner:
Riesci a rispondere in modo decente (non normale, ma decente) o passiamo ai meme? :mbe:
Intendi che va di piu' Ryzen o Intel? Devi scrivere una parola eh, non e' che viene difficile...
cdimauro
05-03-2017, 12:34
E' un fanatico AMD che ti ha preso di mira perché pensa che volessi infangare la sua marca del cuore.
Il soggetto in questione non è in grado di comprendere che una persona possa genuinamente fare una domanda del genere, perché è implicito che debba per forza esserci del marcio.
@bjt2: un percertrone è già più semplice, ma IMO sarà una logica predittiva molto simile (a livello implementativo) a un branch predictor, come affermava anche LMCH.
Certamente. Ma la novità, credo, è la dinamicità dei coefficienti, così da poterla chiamare rete neurale, perchè per aggiornare i coefficienti probabilmente useranno concetti dell'intelligenza artificiale...
nickname88
05-03-2017, 12:59
ovviamente chi fa solo gaming e tiene cpu max 2 anni i7 7700k e spende pure meno...Un discorso un po' azzardato questo. Lo sfruttamente dei cores da parte dei giochi è rimasto quasi invariato già ai tempi degli FX nel 2011, che possa cambiare in due anni è difficile.
In teoria chi compera per il futuro dovrebbe scegliere la cpu col potenziale migliore in ottica delle future VGA, non il contrario.
E' un fanatico AMD che ti ha preso di mira perché pensa che volessi infangare la sua marca del cuore.
Il soggetto in questione non è in grado di comprendere che una persona possa genuinamente fare una domanda del genere, perché è implicito che debba per forza esserci del marcio.
Si' ma fanatico di quelli pesanti...
Comunque credevo fosse il contrario, un fanatico Intel che stava per sputare su AMD...
Puoi dimostrare che, IN QUALUNQUE CONDIZIONE, gli 8 thread hardware di uno Zen in configurazione singolo CCX / quad core, saranno in grado di eseguire i compiti degli attuali 8 core Jaguar, ALMENO alla stessa velocità?
Questo perché, per preservare la compatibilità al 100%, devi garantire che Zen si debba comportare sempre ALMENO come Jaguar.
Se puoi dimostrarlo, allora Zen 4C/8T potrebbe essere preso in considerazione come rimpiazzo. Altrimenti ne serve almeno uno con 8 core.
Se non mi sbaglio jaguar ha 2 decoder, 2 alu, 2 fpu (se non mi sbaglio addirittura a 64 bit, ma non sono sicuro) e (2+1)x64b di accesso L1, esattamente la metà di Zen, che ha 2 thread, ma ulteriori miglioramenti, tra cui uop cache, altri miglioramenti al branch predicition, zero cycle move, cache L3, caches più grosse e efficienti e probabilmente un ccx potrà essere clockato di più a parità di consumo... Infine non vedo motivi per non usare turbo e XFR che jaguar non ha...
Piedone1113
05-03-2017, 13:12
Riesci a rispondere in modo decente (non normale, ma decente) o passiamo ai meme? :mbe:
Intendi che va di piu' Ryzen o Intel? Devi scrivere una parola eh, non e' che viene difficile...
In molti test multi th va più di un 6900k ed in alcuni di un 6950.
In altri test va meno di un 7700 ( ma negli stessi test un 6900/6950 riflette il comportamento di ryzen).
Quindi per risponderti non è amd incapace di fare CPU ed ha bisogno di fare CPU 8 core per contrastare i 4 core, ma è Intel che con un 10 core non riesce a pareggiare le prestazioni di un 4 core ed a stento pareggia con un 8 core amd.
HwWizzard
05-03-2017, 13:25
Quoto. AMD e' uscita con un nuovo processore a 8 core che costa come un quad core intel e va quasi uguale.
Diciamo piuttosto che e' un buon risultato, visto che finora ha arrancato un bel po'.
Comunque i test SENZA Turbo non si possono vedere. Sono inutili. La funzione Turbo e' integrata nei processori, non e' una funzionalita' della scheda madre o un overclock manuale. Toglierla significa invalidare i test che avete fatto, messi cosi' non significano nulla.
Perche' magari uno prende Ryzen convinto che sia allo stesso livello, poi scopre che col Turbo attivo il 7700K prende il volo e giustamente smadonna...
Eccone un altro
Tu si che hai letto e capito le recensioni :sofico: :doh:
marchigiano
05-03-2017, 13:30
Quoto. AMD e' uscita con un nuovo processore a 8 core che costa come un quad core intel e va quasi uguale.
Diciamo piuttosto che e' un buon risultato, visto che finora ha arrancato un bel po'.
va quasi uguale in alcuni ambiti, in alcuni va peggio di un i3 per dire... in altri va alla pari di un 6950x che costa 1700€
quindi la tua generalizzazione non ha senso, specifica dove va uguale a un quad intel
riuzasan
05-03-2017, 14:44
Non scrivo risposte a caso. Le mie sono ben ponderate, persino nella ricerca di precise parole da utilizzare.
Infatti le pesi cosi bene che sei fuggito dopo aver sparato ancora sentenze il 2 e il 3, e adesso che dopo 3 giorni cominciano a girare i primi bench dove si vedono comportamenti ridicoli dello scheduler di Win 10, aumento del 10-20% semplicemente cambiando una opzione nel bios, meglio ponderare le parole su un terad dove sto con la massa dei fanboy Intel a cui sono legato.
Continua cosi Cesare, sei sempre meno credibile
:mc:
PS: per la cronaca
https://www.youtube.com/watch?v=SE4sxXva9Eg
https://www.youtube.com/watch?v=IKGJshXgOwU
leoneazzurro
05-03-2017, 15:17
Comunque Zen è circa 200mm quadri con 8 core ma ci sono anche 4 Mbyte di cache L2 e 16 Mbyte di cache L3 piu' I/O vari (essendo anche Ryzen un SoC). Il core vero e proprio è decisamente più piccolo di 25mm quadri. Si stimava il singolo core circa 5,5mm quadri.
Comunque Zen è circa 200mm quadri con 8 core ma ci sono anche 4 Mbyte di cache L2 e 16 Mbyte di cache L3 piu' I/O vari (essendo anche Ryzen un SoC). Il core vero e proprio è decisamente più piccolo di 25mm quadri. Si stimava il singolo core circa 5,5mm quadri.
Il core+L2 conta 7mm2 circa, contro gli 8 di skylake.
Ovviamente sono confronti del menga, dato che skylake integra molta più logica per via delle avx2 (fpu+lsu)...
leoneazzurro
05-03-2017, 15:28
Il core+L2 conta 7mm2 circa, contro gli 8 di skylake.
Grossomodo si, contando anche il fatto che di cache L2 ce n'è il doppio (512 contro 256). Tutto il CCX è stato misurato intorno ai 44 mm quadri.
cdimauro
05-03-2017, 15:46
Certamente. Ma la novità, credo, è la dinamicità dei coefficienti, così da poterla chiamare rete neurale, perchè per aggiornare i coefficienti probabilmente useranno concetti dell'intelligenza artificiale...
Non mi pare di aver letto di dinamicità dei coefficienti nelle informazioni che AMD ha rilasciato. Non ci sono dettagli in merito, per cercare di capire in che modo funzioni effettivamente questo predittore, e come sia stato implementato.
Se non mi sbaglio jaguar ha 2 decoder, 2 alu, 2 fpu (se non mi sbaglio addirittura a 64 bit, ma non sono sicuro) e (2+1)x64b di accesso L1, esattamente la metà di Zen, che ha 2 thread, ma ulteriori miglioramenti, tra cui uop cache, altri miglioramenti al branch predicition, zero cycle move, cache L3, caches più grosse e efficienti e probabilmente un ccx potrà essere clockato di più a parità di consumo... Infine non vedo motivi per non usare turbo e XFR che jaguar non ha...
Il decoder di Zen è in grado di emettere al massimo 4 uop per ciclo di clock, e non c'è nessuna garanzia che i due thread hardware possano ricevere almeno 2 mop per ciclo di clock in media. Mentre il decoder di Jaguar può emettere sempre un massimo di 2 mop, visto che non c'è nessuna interferenza con un altro thread hardware (è l'unico thread).
Questo vale anche per l'utilizzo delle risorse del backend: Jaguar non ha da condividere nulla, mentre i due thread hardware di Zen si possono pestare i piedi a vicenda, e guarda caso questo processore ha problemi problemi con l'SMT.
Infatti riguardo al backend, ci sono differenze sostanziali con Zen. Jaguar ha 2 ALU (una più complessa), un'AGU / unità di Load, un'AGU / unità di Store, un'unità a 128 bit FMUL , e un'unità a 128 bit FADD. Se raddoppi il numero, ha due porte in più rispetto a Zen. Le unità di load/store hanno, inoltre, un path a 128 bit verso la FPU.
Come vedi, non ci sono le condizioni per poter garantire di fare almeno le stesse cose.
Non mi pare di aver letto di dinamicità dei coefficienti nelle informazioni che AMD ha rilasciato. Non ci sono dettagli in merito, per cercare di capire in che modo funzioni effettivamente questo predittore, e come sia stato implementato.
Dalle prove di B&C c'e un leggero incremento delle prestazioni in prove ripetute e un interno AMD conferma che è merito della "rete neurale". Dubito sia possibile con coefficienti costanti. Rebootando si ottiene esattamente la stessa sequenza crescente e tra l'altro dopo 6 run si va in "saturazione" e si ottengono sempre le stesse prestazioni con una variabilità molto inferiore a quella iniziale. Non penso che Zen sia un diesel che vada scaldato...
cdimauro
05-03-2017, 16:03
Infatti le pesi cosi bene che sei fuggito
Non sono scappato da nessuna parte: sto aspettando che vengano nominati dei nuovi moderatori, in modo da utilizzare il tasto Segnala.
Detto in altri termini: non ho intenzione di farmi insultare e offendere a ruota libera, come fate sempre (e tu sei il leader maximo in questo).
Quando sarà ristabilito l'ordine mi rifarò vivo.
dopo aver sparato ancora sentenze il 2 e il 3,
Nemmeno apro il thread Aspettando Zen da almeno 5 giorni, per cui figuriamoci se avessi potuto scrivere qualcosa il 2 e il 3.
Questo fa parte delle tue solite menzogne, visto che sistematicamente t'inventi cose di sana pianta su di me, che avrei fatto o detto.
e adesso che dopo 3 giorni cominciano a girare i primi bench dove si vedono comportamenti ridicoli dello scheduler di Win 10,
Non è un problema dello scheduler di Windows, come s'è discusso qui. Ma evidentemente ti saranno "sfuggiti".
Ma ne parlo meglio dopo, sfruttando il primo di video di cui hai riportato i link.
aumento del 10-20% semplicemente cambiando una opzione nel bios,
Il BIOS non c'entra. Si vede che i video che hai riportato non li hai nemmeno visti. Anche qui, ne parlo meglio dopo.
meglio ponderare le parole su un terad dove sto con la massa dei fanboy Intel a cui sono legato.
Tu legato a fanboy Intel?!?
Continua cosi Cesare, sei sempre meno credibile
:mc:
E al solito, dopo vuote parole, e assoluta mancanza di argomentazioni, l'immancabile emoticon che ti contraddistingue.
Ma approfitto proprio dei tuoi video per argomentare al posto tuo. Solo che non ti farà piacere. Leggi sotto.
PS: per la cronaca
https://www.youtube.com/watch?v=SE4sxXva9Eg
https://www.youtube.com/watch?v=IKGJshXgOwU
Primo video:
- BIOS bricked effettuando un semplice aggiornamento. Meno male che il redattore aveva una seconda scheda madre, e ha potuto continuare;
- problemi con l'SMT nel distribuire il carico. ANCHE con le CPU Intel, ma in questo caso il carico è, però, meglio distribuito. Ah, Windows è ovviamente lo stesso: i problemi di Zen sono, infatti, ben altri, come già discusso qui.
- riguardo l'overclock, riporto le testuali parole: "Very, very, very disappointing".
Secondo video:
- per i benchmark AMD raccomanda di impostare il profilo High Performance. Cosa che Tom's (sì, quello "pro-Intel") ha fatto (con e senza HP, e quindi fornendo completezza di risultati);
- AMD raccomanda di "invertire" (toggle) l'SMT. Probabilmente si riferisce alla sua disabilitazione, visti i problemi che sono stati riscontrati;
- AMD raccomanda di usare un preciso insieme di giochi per i test, alla risoluzione 1080p;
- AMD raccomanda di non avere applicazioni di monitoraggio di temperatura e frequenza della CPU che girino in background. Giustamente il redattore ha storto il naso, visto che... gli servono!
- AMD raccomanda di... disabilitare l'High Precision Event Timer (HPET): componente presente ormai da diversi anni nei processori, ed è molto usato, visto che serve a sopperire alla mancanza di un timer ad alta precisione. E guarda un po': è un timer che... viene usato proprio per misurazioni;
- subito dopo AMD afferma che l'HPET DEVE essere abilitato per poter utilizzare la sua applicazione AMD Ryzen Master. Reazione del redattore, riassumendo le due evidenti contraddizioni: "it's kind of... confusing";
- e veniamo al pezzo forte. AMD suggerisce cosa fare quando si testano i sistemi Intel. Qui riporto il quote integrale: "On Intel platforms you should disable Multi-Core Enhancements (ASUS), MultiCore Acceleration". Direi che si commenta da sé... :doh: ;
- overclockando a 4Ghz (tutti i core), per avere stabilità è necessario portare la tensione intorno agli 1,5v, che è un valore molto elevato. Altrimenti ci sono problemi di stabilità. I consumi devono essere aumentati molto, visto che le temperature sono aumentate di ben 20° (83°) rispetto alla configurazione normale (63°). Per il 1700X è anche peggio, visto che si passa 58° a 90°;
- il redattore afferma che fino 3.8...4...4.1 Ghz dovrebbe essere possibile arrivarci con Ryzen, "but beyond that is really really challenging". E quando si passano gli 1.4 di vcore, le temperature s'innalzano enormemente ("pretty insanely").
- infine... il redattore afferma che se interessano i giochi, Kaby Lake è la miglior opzione.
Direi che ce n'è abbastanza. Grazie per aver fornito questi i link a questi due video, che sono stati sicuramente interessanti per capire meglio com'è messo Ryzen.
kliffoth
05-03-2017, 16:10
Infatti le pesi cosi bene che sei fuggito dopo aver sparato ancora sentenze il 2 e il 3, e adesso che dopo 3 giorni cominciano a girare i primi bench dove si vedono comportamenti ridicoli dello scheduler di Win 10, aumento del 10-20% semplicemente cambiando una opzione nel bios, meglio ponderare le parole su un terad dove sto con la massa dei fanboy Intel a cui sono legato.
Continua cosi Cesare, sei sempre meno credibile
:mc:
PS: per la cronaca
https://www.youtube.com/watch?v=SE4sxXva9Eg
https://www.youtube.com/watch?v=IKGJshXgOwU
Ma nel secondo video dopo le ottimizzazioni le temperature schizzano!
Preferisco i risulatati inferiori piuttosto che avere rumore per le mie orecchie e stress per la macchina
Io non ho intenzione di acquistare nulla per 3 anni (ho un 4770k con GTX 1060 e sto bene...soprattutto ho win 7) e sono sereno nei miei guidizi (e non capisco questo "stracciarsi le vesti" per intel o AMD).
I fatti sono semplici: AMD ha tirato fuori una ottima architettura, che sicuramente necessita di qualche ottimizzazione ma che si comporta egregiamente.
Lato gaming e alle basse risoluzioni i risultati non sono entusiasmanti ma non sono malaccio.
Ora, se uno usa il PC principalmente per giocare porebbe avere interesse a restare con intel, mentre se uno pur giocando (e molto) fa anche altro col PC, allora, se ha intenzione di spendere il budget dei Ryzen 7, li può e anzi DEVE tenere in considerazione (mi vengono in mente studi di architettura, appassionati di grafica casalinghi etc etc).
È inoltre anche vero che chi prende un ryzen 7 (1800x o 1700x, non 1700 che ha un costo "contenuto") difficilmente ha una macchina che usa anche per giocare a bassa risoluzione.
Insomma...non si prende un processore da 650€ solo per giocare, e se lo si fa non si usa certo un monitor 1080p (per quanto la madre degli idioti è sempre incinta).
Personalmente non credo che Ryzen 5 e 3 cambino molto, dal momento che sono sempre Zen core, ma potrebbero avere dalla loro un prezzo tale da far dimenticare i frame in meno.
Questo detto io sono convinto che già questa prima generazione risolverà i "problemi" di oggi a breve con piccole ottimizzazioni di Bios (e magari anche lato software house, ma queste richiedono tempo), e ne sono convinto perchè il nuovo management AMD ha dato prova di grande capacità e serietà fino ad ora (si noti che ho un intel e una GTX 1060) per cui magari basta attendere un poco.
Per il futuro le nuove revision dell'architettura promettono solo bene...e tra 3 anni, quando dovrò smantellare la mia macchina win7, magari torno ad AMD.
alexsky8
05-03-2017, 17:05
....Direi che ce n'è abbastanza. Grazie per aver fornito questi i link a questi due video, che sono stati sicuramente interessanti per capire meglio com'è messo Ryzen.
quali sarebbero secondo te le criticità a parte l'OC ?
sul discorso OC penso sia oramai chiaro che nessun bios o aggiornamento potrà fare miracoli di nessun genere se il limite è 4.1 4.1 rimarrà
ma sul discorso CPU votata al MT non mi sembra affatto male il 1700 in relazione al prezzo, in ST se la cava comunque bene mentre il 1800X molto caro in relazione alla differenza di prestazioni con il 1700
cosa ne pensi ?
riuzasan
05-03-2017, 17:28
Direi che ce n'è abbastanza. Grazie per aver fornito questi i link a questi due video, che sono stati sicuramente interessanti per capire meglio com'è messo Ryzen.
Davvero sei senza decenza.
Chi ha visto e vedrà i video, si farà un'idea chiara di come sei di parte e solo ipocritamente continui a dichiararti quasi super partes.
In tutto il discorso enfatizzi e porti avanti SOLO la parte che ti interessa (poi i suggerimenti sui test sono bellissimi, INVITO TUTTI AD ASCOLTARSI I VIDEO oltre a ricordarci cosa ha fatto e fa Intel in merito a pressioni di mercato, informazione etc da 15 anni a questa parte).
Per fortuna, grazie ad AMD, finalmente abbiamo una vera concorrenza in ambito CPU X86, con offerte che in tanti ambiti offrono prestazioni nettamente superiori a quelle Intel a parità di prezzo e con margini di crescita, vista l'architettura acerba di Ryzen, nettamente superiore a quella Core di Intel, che da anni cresce di niente, rispetto ad altre realtà dove Intel ha concorrenza (e basta vedere la figura ridicola in ambito mobile da 10 anni a questa parte -un po come WindowsPhone- dove ARM e sussidiarie ogni anno crescono lato performance in modo notevolissimo)
cdimauro
05-03-2017, 18:49
ma che poi è colpa nostra che gli diamo seguito... parla di attacchi personali
Questi:
"che stai a dì?
[...]
lavori anche per M$soft adesso?
[...]
è incredibile il tuo ego supera di gran lunga le tue parole, sai tutto tu.
[...]
ma tu te le cerchi, fidati"
SONO attacchi personali. :read:
quando ho semplicemente fatto una battuta sulla possibilità di vedere zen in Scorpio, appunto possibilità mica che sarà per forza così perché lo dico io è un opinione come un altra,
E io ho espresso la mia, e ho ampiamente argomentato. Dunque qual è il problema?
dicendo che mi segnavo il post con la faccina :D , boh sarà che la Germania lo sta segnando avrà perso il senso dell'umorismo che poi manco l'avessi insultato: è partito a razzo con la solita manfrina e walltext,
Ho riportato sopra un po' di cose che hai scritto, che non hanno nulla a che vedere con battute o senso dell'umorismo mancante.
Soprattutto non hanno nulla a che vedere con un dialogo civile e rispettoso degli altri utenti.
Il resto sono tentativi di rigirare la frittata e far vittimismo.
non ricorda, o fa finta di ricordare a questo punto, che sia ps4 che xbone utilizzano già il nodo a 16nm con jaguar quindi già shrinkato nelle versioni S.
Se hai le dimensioni dei core Jaguar a 16nm riportale pure. Io ho riportato le informazioni pubbliche disponibili, che sono per le versioni a 28nm.
Il tutto per dire che l'intero doppio cluster Jaguar a 16nm sarà certamente di gran lunga più piccolo rispetto a un solo core Zen.
chi ha detto che jaguar non sia perfetto allo scopo dei soc lo sa solo lui,
Ma infatti non mi sono mai sognato di affermare nulla del genere.
però zen potrebbe dire la sua anche in chiave soc CUSTOM quindi modificato allo scopo.
Basta aspettare le APU Zen, per questo.
non ricorda che vega è una uarch diversa da polaris quindi non sappiamo quanti transistors vi vorranno per arrivare a 6tf, che poi P10 desktop ci arriva con 230mmq a 1.3ghz
Considerate le innovazioni previste, è plausibile che per Vega serviranno più transistor.
Anche qui, comunque, c'è da aspettare qualche mese, ormai.
mi becco del fanatico perché metto le faccine ad un utente che se ne esce con la solita frase buttata a caso dopo pagine e pagine di commenti e recensioni sparse nel web e dovrei pure rispondergli in modo serio invece che trollarlo :rolleyes:
Trollare qui ti risulterà difficile, ma se vuoi provarci lo stesso, accomodati pure.
Ciò precisato, di quale frase "buttata a caso" parli? Quotami e riporta il link.
Per il resto ciò che ho riportato proviene pari pari dalle numerose recensioni che ho letto. Dunque reitero: dov'è il problema con quello che ho scritto? Sii chiaro.
allo stesso modo in cui zen in ST va meno di un i3 succede anche con bw-e, anche uno xeon da 10000$ andra meno con centordici core, ma non trovo bench in cui 4c/8th fanno meglio di 8c/16th, altrimenti il discorso varrebbe pure per il 6900k venduto a 1100$...
?!? Che vuoi dire? Sii chiaro?
i giochi sono un discorso a parte, sono scenari ne troppo ST e nemmeno MT ed in più ci vuole il tempo che la uarch venga digerita dal software, è normale.
Da quando una micro-architettura dev'essere "digerita dal software"? Se ti riferisci a future ottimizzazioni, in modo da sfruttare più core, quelle son cose previste. Per TUTTE le micro-architetture. Ovviamente QUANDO arriveranno queste ottimizzazioni (perché dubito che siano dietro l'angolo).
si può criticare ad amd di aver fatto fare review con bios acerbi!
Beh, era il lancio ufficiale del suo prodotto più atteso. Comunque alla fine sono affari suoi: son problemi che s'è creata da sola.
oltretutto come al solito si sente perseguitato, attaccato e si mette sulla difensiva... boh, avrà avuto dei traumi da bambino magari...
Abbiamo scoperto un fine psicologo. Peccato che i tuoi attacchi siano nero su bianco.
ogni volta mi dico che magari c'è una possibilità di dialogo normale e invece no, le sue conoscenze tecniche vengono purtroppo superate dal suo ego, mi spiace è davvero un peccato.
Guarda, la questione è molto semplice: sarebbe sufficiente intavolare un dialogo sobrio, asettico, in cui ognuno esponesse le proprie idee & argomentazioni, nel pieno rispetto dei propri interlocutori.
Cosa che, invece, con elementi come te e l'altro qui sopra non avviene, perché siete dei fanatici integralisti, e se non punzecchiate o offendete chi, ai vostri occhi, viene visto come il nemico della fede costituita, non vi sentite appagati.
Tornatevene a discutere nella sezione Processori, dove al momento vi potete permettere questo lusso, visto che non c'è nessuno che fa rispettare il regolamento. Finché potrete, ovviamente.
Adesso se hai qualcosa di concreto da dire riguardo al topic, nel rispetto di cui sopra, per me possiamo continuare. Altrimenti evita, che stai inquinando il thread.
cdimauro
05-03-2017, 18:58
Il core+L2 conta 7mm2 circa, contro gli 8 di skylake.
Ovviamente sono confronti del menga, dato che skylake integra molta più logica per via delle avx2 (fpu+lsu)...
Esatto, ma... non solo quello. Sotto il cofano ci potrebbero essere almeno un altro paio di cosucce a occupare spazio e transistor.
Di una ne ho parlato 1-2 settimane fa nel thread Aspettando Zen: AVX-512. I core server e desktop sono sostanzialmente gli stessi, a parte alcune feature dis/abilitate. E' noto che Skylake server integri queste nuove unità SIMD a 512 bit. "Stranamente" la versione desktop non le ha.
Invece arriveranno con Cannonlake, che però sarebbe dovuto essere soltanto uno shrink, e come sappiamo Intel NON introduce grandi innovazioni micro/architetturali nella fase di tick, ma solo nella fase di tock.
Dunque ritengo che possano essere lì anche nelle versioni desktop, ma disabilitate.
Altra cosa, i core server nascondono diverse caratteristiche che vengono attivate su base clientelare: Google, Microsoft, Facebook, Amazon, ecc. sono grossi clienti per i quali Intel ha sviluppato apposite estensioni, che vengono abilitate esclusivamente per i server di questi partner (di cui gli altri sono mutuamente all'oscuro).
Anche questo porta via spazio & transistor.
cdimauro
05-03-2017, 19:01
Dalle prove di B&C c'e un leggero incremento delle prestazioni in prove ripetute e un interno AMD conferma che è merito della "rete neurale". Dubito sia possibile con coefficienti costanti. Rebootando si ottiene esattamente la stessa sequenza crescente e tra l'altro dopo 6 run si va in "saturazione" e si ottengono sempre le stesse prestazioni con una variabilità molto inferiore a quella iniziale. Non penso che Zen sia un diesel che vada scaldato...
Come dicevo prima, non c'è sufficiente spazio on-chip per memorizzare lo "stato" di un'applicazione che esegue miliardi di istruzioni. Il working set è costituito ovviamente da un po' di decine di milioni di istruzioni eseguite, ma sono comunque troppe per poter essere tracciate da una rete come quella esposta.
Per essere chiari, una rete del genere dovrebbe funzionare localmente, in base all'attuale contesto esecutivo. In questo caso basterebbero poche risorse per tracciare dinamicamente certe informazioni sulle istruzioni/mop/uop eseguite.
cdimauro
05-03-2017, 19:06
quali sarebbero secondo te le criticità a parte l'OC ?
Dall'analisi dei test, è una (micro)architettura sbilanciata verso il MT, e per essere precisi che dà il meglio in particolari scenari MT.
Al solito, dipende tutto da quello che ci fai col PC, e qual è l'utilizzo maggiore: è su questa base che dovresti decidere.
sul discorso OC penso sia oramai chiaro che nessun bios o aggiornamento potrà fare miracoli di nessun genere se il limite è 4.1 4.1 rimarrà
No, è un problema intrinseco. Può darsi che in futuro, migliorando le rese, possa un po' migliorare da questo punto di vista, ma in ogni caso non penso che si possa sperare in rivoluzioni.
Gli amanti dell'overclock è meglio che si dirivano verso altro.
ma sul discorso CPU votata al MT non mi sembra affatto male il 1700 in relazione al prezzo, in ST se la cava comunque bene mentre il 1800X molto caro in relazione alla differenza di prestazioni con il 1700
cosa ne pensi ?
Al momento penso che il 1700X sia la soluzione col miglior compromesso. Per essere chiari, se dovessi scegliere fra uno dei modelli di Ryzen, è questo che prenderei.
Ma, ribadisco, ognuno deve farsi i conti con l'utilizzo che fa del PC. E ovviamente col proprio portafogli.
Come dicevo prima, non c'è sufficiente spazio on-chip per memorizzare lo "stato" di un'applicazione che esegue miliardi di istruzioni. Il working set è costituito ovviamente da un po' di decine di milioni di istruzioni eseguite, ma sono comunque troppe per poter essere tracciate da una rete come quella esposta.
Per essere chiari, una rete del genere dovrebbe funzionare localmente, in base all'attuale contesto esecutivo. In questo caso basterebbero poche risorse per tracciare dinamicamente certe informazioni sulle istruzioni/mop/uop eseguite.
Ma non sto parlando di mop. Siamo sempre a livello di istruzioni x86. Sto parlando solo di un predittore di salto! Non di un accrocchio che organizza e smista le mop nella pipeline (e a che pro?)!
Un normale predittore usa la global history (ad esempio mi pare 26 bit per i 26 salti precedenti in BD, in tutti i salti), la local history (anche qui pochi bit, e sono specifici per QUEL salto) e qualche altro dato, come ultimi presi/non presi ad esempio contatore a saturazione a 2 bit.
Sto solo dicendo che invece di avere i coefficienti fissi per questi dati, i coefficienti sono VARIABILI e modificati con qualche criterio derivato dall'inteligenza artificiale... E' una cosa semplicissima! E ho trovato un paper paywallato su ieeexplorer che parla anche di come farlo in modo efficiente dal punto di vista energetico!
Sono cose che si fanno da anni e tutti i dati sui milioni di istruzioni eseguite sono condensati e sintetizzati nelle BTB, 512 elementi L1 e 5120 nella L2 per BD, ad esempio, e in altre strutture...
cdimauro
05-03-2017, 19:23
Davvero sei senza decenza.
Chi ha visto e vedrà i video, si farà un'idea chiara di come sei di parte e solo ipocritamente continui a dichiararti quasi super partes.
In tutto il discorso enfatizzi e porti avanti SOLO la parte che ti interessa (poi i suggerimenti sui test sono bellissimi, INVITO TUTTI AD ASCOLTARSI I VIDEO
Ho riportato le informazioni più importanti nonché utili dai video in oggetto. E ne ho riportate parecchie, direi.
Se pensi che ci sia qualcosa che abbia scritto male, o addirittura falsificato, sei liberissimo di prendere ciò che ho scritto, e indicare la precisa parte di video che mi smentirebbe.
Inoltre se pensi che ci sia altro di utile che non avrei riportato, sei altrettanto libero di fare come ho fatto io: ELENCA PURE.
Oppure dacci un taglio, perché il tuo fanatismo religioso ha stancato in un thread che parla di tecnologia.
oltre a ricordarci cosa ha fatto e fa Intel in merito a pressioni di mercato, informazione etc da 15 anni a questa parte).
Ed ecco il solito mantra che viene pietosamente tirato in ballo in queste occasioni, come se potesse servire a cambiare la situazione.
Ribadisco: ti è chiaro o non è chiaro che AMD abbia chiesto di MANIPOLARE le piattaforme Intel, disattivando delle feature per ridurne i risultati nei benchmark?
Il secondo video l'hai visto, oppure ti sei fermato soltanto al titolo, come fa tanta gente che fa una ricerchina su internet, e posta link di roba che DOVREBBE essere a supporto delle sue tesi, solo perché il titolo è "cool"?
Per fortuna, grazie ad AMD, finalmente abbiamo una vera concorrenza in ambito CPU X86, con offerte che in tanti ambiti offrono prestazioni nettamente superiori a quelle Intel a parità di prezzo
Per caso qualcuno l'ha negato, questo?
e con margini di crescita, vista l'architettura acerba di Ryzen,
La crescita NON può essere rappresentata dai trucchetti che AMD ha consigliato per pompare al massimo le recensioni.
Dove lo vedi l'utente medio che compra un PC e si mette a smanettare con tutta quella roba? Lo può fare uno smanettone, per l'appunto, che... rappresenta una netta minoranza, però.
La maggior parte della gente si ritroverà in mano un sistema "di fabbrica", senza tutte quelle "ottimizzazioni" attive. Punto.
nettamente superiore a quella Core di Intel,
In tutto? Quali recensioni hai visto e che lo confermano? Link, please.
che da anni cresce di niente,
Cresce per quel che può, visto che parte da un'ottima base (Nehalem).
Ma se sai fare di meglio, fatti pure avanti.
rispetto ad altre realtà dove Intel ha concorrenza (e basta vedere la figura ridicola in ambito mobile da 10 anni a questa parte -un po come WindowsPhone- dove ARM e sussidiarie ogni anno crescono lato performance in modo notevolissimo)
A parte il fatto che, al solito, stai tirando fuori cose che non c'entrano proprio nulla col topic (giusto per sviare il discorso visto che non sei in grado di argomentare), Intel ha provato a entrare in un mercato SATURO, e ha fallito.
Anche Imagination c'ha provato con le sue soluzioni MIPS (anch'essa ufficialmente supportata da Android, se hai mai scaricato l'SDK e dato un'occhiata alle piattaforme supportate), nonché diversi produttori di chip PowerPC (non ufficialmente).
Almeno Intel qualche quota di mercato l'ha guadagnati: gli altri mi sai dire a quanto sono arrivati. E la colpa della mancanza di diffusione di MIPS e PowerPC a chi sarebbe da addebitare secondo te?
Su, rispondi almeno questo, almeno.
cdimauro
05-03-2017, 19:32
Ma non sto parlando di mop. Siamo sempre a livello di istruzioni x86. Sto parlando solo di un predittore di salto! Non di un accrocchio che organizza e smista le mop nella pipeline (e a che pro?)!
Un normale predittore usa la global history (ad esempio mi pare 26 bit per i 26 salti precedenti in BD, in tutti i salti), la local history (anche qui pochi bit, e sono specifici per QUEL salto) e qualche altro dato, come ultimi presi/non presi ad esempio contatore a saturazione a 2 bit.
Sto solo dicendo che invece di avere i coefficienti fissi per questi dati, i coefficienti sono VARIABILI e modificati con qualche criterio derivato dall'inteligenza artificiale... E' una cosa semplicissima! E ho trovato un paper paywallato su ieeexplorer che parla anche di come farlo in modo efficiente dal punto di vista energetico!
Sono cose che si fanno da anni e tutti i dati sui milioni di istruzioni eseguite sono condensati e sintetizzati nelle BTB, 512 elementi L1 e 5120 nella L2 per BD, ad esempio, e in altre strutture...
OK, ma su Aspettando Zen (o su AnandTech? Non ricordo adesso) tempo fa riportai il link a uno dei sorgenti di Blender, che già di suo era abbastanza complesso. Questi software di modellazione 3D, insomma, sono costituiti da tantissime istruzioni che vengono eseguite.
Ora, i salti, come sai, rappresentano mediamente il 10% delle istruzioni eseguite (e su software più "lineare", come quello di un render 3D, ce ne sono ancora meno), per cui anche con poche entry nella BTB, riesci a coprire diversi casi; almeno quelli più importanti.
Un network come quello descritto nella slide, invece, agisce a livello di istruzioni/mop/uop, che ovviamente sono MOLTE di più rispetto ai salti.
Se per le BTB si fanno i salti mortali per integrarne di più e/o di più efficienti, puoi immaginare cosa richiederebbe scendere a livello di singole istruzioni.
Piedone1113
05-03-2017, 19:33
Dall'analisi dei test, è una (micro)architettura sbilanciata verso il MT, e per essere precisi che dà il meglio in particolari scenari MT.
Scusami ma dove la vedi sbilanciata come cpu non lo so.
In st ha un clock di 4ghz ed un ipc del 7% inferiore al 7700, ma comunque con una progressione molto migliore del 6900/6950.
L'unico scenario dove ci sono evidenti problemi (da appurare le cause e in attesa del fix ms annunciato a breve) sono i giochi.
Se dovessi dare il mio giudizio sarebbe:
Un'architettura che si difende bene vs i 4C Top di Intel in st andando meglio deglio 8/10 c, e che eccelle in mt con codice attuale.
E poi mi frega niente (perchè è una logica conseguenza di quello che dici) che non ha avx 512 ed in avx2 sembrerebbe più lenta dato che dei primi non ci sono software che la usano (praticamente ancora non esistono) della seconda sono pochi programmi che ne fanno uso intensivo e pure di nicchia (e da valutare anche qui il peso totale sull'intero codice delle avx2)
Per il resto ha un'efficienza in mt che nel 90% degli scenari è superiore ad intel:
Ricorda il 1700 liscio ha 3 ghz (come il 6950) ma a soli 65w (contro i 105 reali del 6950).
Questa è un'architettura che se ben coadiuvata dagli os è superiore nel 90% degli utilizzi massivi (dai server classici ai database) delle attuali proposte Intel.
Nominali danno 32 core in 165w a 2,8 ghz per naples (ma credo che facendo un binning migliore si potrebbe facilmente scendere con il tdp di 30w e/o aumentare il clock di 200mhz con lo stesso tdp).
Tutto il resto (incluso pacman) vuol dire tutto e niente, non è che con ryzen i game scattano eh.
cdimauro
05-03-2017, 19:38
ce l'avevo con l'utente che ha fatto l'ennesima troll... scusa domanda del menga...
Hai scritto su di me, visto che è con me stavi discutendo prima (direttamente), per cui avevo pensato che ti riferissi a me.
è chiarissimo, se lui si chiede perché amd deve usare 8 core per fare ciò che fa intel con 4 allora presuppongo che pensa lo stesso delle stesse uarch intel dove in alcuni scenari kabylake supera broadwell-e...
è sbagliato l'approccio, se si considerano i carichi ST non ha senso considerare i core, un i3 kabylake uccide qualsiasi cpu anche della stessa famiglia intel,
Ma i giochi non sono soltanto ST, mi pare.
quindi l'ho presa sul ridere mentre tu dai come al solito dell integralista fanatico e ti ergi sopra le parti... si la barzelletta di HU è questa.
Il tuo è stato un attacco gratuito a quell'utente, senza nemmeno chiedere spiegazioni. E lo fai perché, per l'appunto, sei un fanatico.
io in modo asettico non scrivo, non sono un robot, faccio battute mi viene d'istinto prendo la vita alla leggera e se ti sta bene è così altrimenti mettimi pure in ignore che di problemi mi pare ce ne siano ben altri nella vita che fare i permalosi su di un forum mentre si parla di processori...
Non vedo perché dovrei metterti in ignore. Semplicemente non c'è bisogno di battutine per sfogare il proprio fanatismo in un thread che parla di tecnologia.
OK, ma su Aspettando Zen (o su AnandTech? Non ricordo adesso) tempo fa riportai il link a uno dei sorgenti di Blender, che già di suo era abbastanza complesso. Questi software di modellazione 3D, insomma, sono costituiti da tantissime istruzioni che vengono eseguite.
Ora, i salti, come sai, rappresentano mediamente il 10% delle istruzioni eseguite (e su software più "lineare", come quello di un render 3D, ce ne sono ancora meno), per cui anche con poche entry nella BTB, riesci a coprire diversi casi; almeno quelli più importanti.
Un network come quello descritto nella slide, invece, agisce a livello di istruzioni/mop/uop, che ovviamente sono MOLTE di più rispetto ai salti.
Se per le BTB si fanno i salti mortali per integrarne di più e/o di più efficienti, puoi immaginare cosa richiederebbe scendere a livello di singole istruzioni.
Ma non credo che nella slide si riferisse al livello di MOP. Semmai al massimo un predittore per il prefetch, che può sempre essere fatto con dati sintetizzati, non so in che modo perchè non so come funzionano.
Ma sia AMD che INTEL da anni hanno predittori di prefetch, ma sono algoritmi "fissi", quindi immagino che quello che intende AMD è sempre che i parametri sono cambiati al run time secondo qualche criterio.
Quindi predittori di salto e prefetcher, basati sempre su dati sintetizzati della storia, con coefficienti variabili anzichè fissi...
Non c'è niente che si possa predirre al livello di MOP... A quel livello si hanno solo flussi continui e deterministici. L'unica cosa che ha in più Zen è il checkpointing per ridurre la penalità di branch misprediction, ma stop.
NvidiaMen
05-03-2017, 19:40
Intervengo nuovamente in merito alle prestazioni di Ryzen in ambito gaming facendo notare che se sfruttata a dovere tale tecnologia riesce a dare il meglio di sè anche nel mondo videoludico. Di seguito ecco un test delle sue qualità nel CPU test 3dMark Vantage (http://www.guru3d.com/articles-pages/amd-ryzen-7-1800x-processor-review,12.html) che certamente non è uno dei più recenti.
http://i66.tinypic.com/jqp176.jpg
A questo occorre aggiungere una considerazione riguardante la nuova console Xbox Project Scorpio che tra breve verrà presentata all'E3 (http://leganerd.com/2017/01/30/xbox-one-scorpio-trapelate-le-specifiche-tecniche/), la quale sarà equipaggiata oltre che da una GPU VEGA anche da un processore basato su tecnologia Ryzen. Ciò prometterà certamente un veloce adattamento ed una migliore ottimizzazione a tale tecnologia sui nuovi titoli di prossima uscita.
Per esempio, il prefetcher...
Ogni core può supportare N flussi di prefetch, supponiamo 4.
La CPU può creare una statistica sugli strides più frequenti recentemente (semplici contatori che vengono dimezzati ogni tot) e allocare gli strides più frequenti ai prefetcher disponibili...
cdimauro
05-03-2017, 19:46
Scusami ma dove la vedi sbilanciata come cpu non lo so.
In st ha un clock di 4ghz ed un ipc del 7% inferiore al 7700, ma comunque con una progressione molto migliore del 6900/6950.
L'unico scenario dove ci sono evidenti problemi (da appurare le cause e in attesa del fix ms annunciato a breve) sono i giochi.
Se dovessi dare il mio giudizio sarebbe:
Un'architettura che si difende bene vs i 4C Top di Intel in st andando meglio deglio 8/10 c, e che eccelle in mt con codice attuale.
Non ci sono soltanto i giochi, che peraltro non sono nemmeno strettamente ST, ma anche altre applicazioni. Esempio: Dolphin. Dove c'è un divario ben superiore al 7% rispetto al 7700K, e se non ricordo male anche il 6900K fa sensibilmente meglio, pur con un clock nettamente inferiore al 1800X.
E poi mi frega niente (perchè è una logica conseguenza di quello che dici) che non ha avx 512
Si stava parlando di DIMENSIONE dei core in QUEL contesto.
ed in avx2 sembrerebbe più lenta dato che dei primi non ci sono software che la usano (praticamente ancora non esistono)
In ambito HPC le AVX-512 sono già utilizzate. Inoltre il compilatore Intel è già in grado di generare codice per essa.
della seconda sono pochi programmi che ne fanno uso intensivo e pure di nicchia (e da valutare anche qui il peso totale sull'intero codice delle avx2)
E, come i core, saranno sempre più utilizzate.
Per il resto ha un'efficienza in mt che nel 90% degli scenari è superiore ad intel:
Ricorda il 1700 liscio ha 3 ghz (come il 6950) ma a soli 65w (contro i 105 reali del 6950).
Questo è il TDP, mentre i benchmark effettuati hanno mostrato notevoli sforamenti dei consumi rispetto al TDP dichiarato.
Questa è un'architettura che se ben coadiuvata dagli os è superiore
Dovrebbero settare da BIOS i due CCX come socket diversi. Non servono modifiche ad hoc dei s.o..
nel 90% degli utilizzi massivi (dai server classici ai database) delle attuali proposte Intel.
Test sui database non ne ho visti, e sono quelli che ho auspicati.
Anzi, finora come test più da server ci sono quelli con Python, e lì non mi pare che la situazione sia a suo favore.
Nominali danno 32 core in 165w a 2,8 ghz per naples (ma credo che facendo un binning migliore si potrebbe facilmente scendere con il tdp di 30w e/o aumentare il clock di 200mhz con lo stesso tdp).
32 core con 8 CCX. Già con 2 hai visto cosa succede.
Quanto al TDP, vedi sopra.
Tutto il resto (incluso pacman) vuol dire tutto e niente, non è che con ryzen i game scattano eh.
Non è solo coi giochi. Ci sono parecchi altri benchmark, e non parlo solo di Dolphin.
cmq su anandtech un utente si è smazzato un bel pò di bench per misurare ipc. (ho dato solo un occhiata veloce)
https://forums.anandtech.com/threads/ryzen-strictly-technical.2500572/
george_p
05-03-2017, 19:50
E' un fanatico AMD che ti ha preso di mira perché pensa che volessi infangare la sua marca del cuore.
Il soggetto in questione non è in grado di comprendere che una persona possa genuinamente fare una domanda del genere, perché è implicito che debba per forza esserci del marcio.
Aspetta cdmauro, ti è (forse) sfuggito che quella persona ha "genuinamente" fatto una affermazione che non sta nè in cielo nè in terra.
Te la riporto più giù evidenziata e in rosso.
Poi dimmi se è corretto quello che ha scritto.
Quindi, AMD è uscita oggi con un 8core/16threads che costa quanto un 4core/8threads di intel
e va addirittura quasi uguale.
(ci manca solo la firma di ziobepi)
Quoto. AMD e' uscita con un nuovo processore a 8 core che costa come un quad core intel e va quasi uguale.
Diciamo piuttosto che e' un buon risultato, visto che finora ha arrancato un bel po'.
Comunque i test SENZA Turbo non si possono vedere. Sono inutili. La funzione Turbo e' integrata nei processori, non e' una funzionalita' della scheda madre o un overclock manuale. Toglierla significa invalidare i test che avete fatto, messi cosi' non significano nulla.
Perche' magari uno prende Ryzen convinto che sia allo stesso livello, poi scopre che col Turbo attivo il 7700K prende il volo e giustamente smadonna...
Sempre a cdmauro:
Cosa ne pensi?
Forse tutto va contestualizzato, compresa la "genuina" risposta dell'utente che pone domande perché non sa nulla ma poco prima ti ha già fatto una analisi completa della nuova cpu amd.
OvErClOck82
05-03-2017, 19:55
insomma dai, i portatori della sacra verità hanno decretato che Ryzen fa schifo, siamo ancora qui a discuterne ? :asd:
Mister D
05-03-2017, 20:03
Ciao a tutti,
posto tre video sui problemi di bios. Chi ha fatto questi video, joker production, ha utilizzato diversamente da molti altri una scheda madre gigabyte con ryzen e lui tutti i problemi che hanno incontrato altri non li ha:
1) test 1080p i7 7700K 5 GHz vs 1700 3,9 GHz con gtx 1080
https://www.youtube.com/watch?v=BXVIPo_qbc4&t=146s
Io ho cercato di vedermelo tutto in pausa andando avanti veloce e fermandomi dove c'erano delle differenze a sfavore di amd e la maggiore è stata del 10% che con una differenza del 28% circa di frequenza mi pare che sia normalissima
2) test a 720p idem come sopra
https://www.youtube.com/watch?v=nsDjx-tW_WQ
Questo l'ho solo visto velocemente e mi pare che siamo in linea come percentuali, forse un po' più con alcuni giochi ma non ho fatto calcoli quindi se avete voglia fateli
3) test identico a 720p ma tra ryzen 1700 smt off smt on
https://www.youtube.com/watch?v=x7vSe-EWyCo
E non mi pare tutta questa differenza. Quindi tutti sti problemi dove sarebbero? Non sarà mica che forse le altre schede madri introducono dei problemi e con SMT disattivo questi non si presentano. Perché a ragion di logica se i problemi di smt fossero dovuti all'OS o all'architettura allora li avrebbe avuti anche lui ma in termini di frame mi paiono identici
Sul suo canale potete trovare cmq anche le recensioni complete con le tabelle nel video dei risultati nei giochi
Poi dai test preliminari di bitandchips:
http://www.bitsandchips.it/forum/download/file.php?id=2674&mode=view
0,928volt per i 3,2 GHz. Secondo me con tali risultati nel mobile e nel server con naples può fare davvero bene.
Da questi risultati a me viene da pensare che il problema di ryzen sia che vicino ai 4 GHz si è al limite sia come architettura (flip flop e tipo di transistor scelti) sia come silicio. Magari con zen2 metteranno mano e sia a def che in oc si raggiungeranno frequenze migliori (magari no perché il silicio poi non lo permetterà lo stesso).
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.