View Full Version : AMD Ryzen 7 e Ryzen 5: le 7 versioni a confronto con le CPU Intel Core
Redazione di Hardware Upg
08-06-2017, 15:47
Link all'Articolo: http://www.hwupgrade.it/articoli/cpu/4920/amd-ryzen-7-e-ryzen-5-le-7-versioni-a-confronto-con-le-cpu-intel-core_index.html
Con la gamma di processori Ryzen 7 e Ryzen 5 AMD propone una completa serie di soluzioni per l'appassionato alla ricerca di un processore desktop di elevata: il debutto di queste CPU ha portato ad una radicale trasformazione, nel giro di pochi mesi, di un mercato che è stato di fatto guidato dalla sola Intel negli ultimi anni
Click sul link per visualizzare l'articolo.
greyhound3
08-06-2017, 16:23
Mi sembra che i due acquisti migliori siano il 1600x come rapporto tra prestazioni e prezzo o il 1700 come rapporto tra prestazioni e consumi.
E il peggiore il 7350k in tutto :asd:
Piu che il 1600x io prenderei il 1600...tanto alla fine in oc vanno praticamente uguale (50-100mhz di scarto massimo)
Che lavoraccio per questa recensione, complimenti :)
Una domanda: la versione Blender utilizzata è la 2.78a o la 2.78c (lo chiedo perchè c'è una differenza prestazionale notevole a favore del secondo).
mircocatta
08-06-2017, 16:36
ma un bel test in game su sistemi non vanilla, con antivirus, programmi di monitoring attivi e magari un teamspeak in funzione? così da rendere il confronto un po piu simile al reale utilizzo di un videogiocatore
e in vr come ci comporta? perchè nessuno bencha con la VR nelle review? :(
Quanto ai consumi perché non considerare oltre al picco massimo anche l'energia richiesta (ad esempio in W·h) per completare un certo lavoro?
Avendo in questo periodo deciso di smanettare un po' per overcloccare il mio glorioso i7 2600K, facendo qualche bench e andando a inserirlo in database di valori di altre cpu, mi sono saltate all'occhio delle cose abbastanza interessanti:
Parlando di prestazioni del SINGLE CORE l'aumento negli ultimi sei e passa anni è purtroppo ridicolo.
Il mio 2600K (CPU di sei anni fa) overcloccato in maniera ignorante a 4.3ghz (quindi in modo davvero easy senza magheggi o rinunce di alcun genere) ha un scoring single core che sta sotto un 7700K (4.2 Ghz) di uno sputo.. meno del 5%. E sono passati SEI ANNI.
Questo indica in maniera chiara che il core in sè non è migliorato per nulla. SIAMO DAVVERO FERMI :(
Per quanto concerne AMD, sempre parlando del single core, essendo tutto fermo ha avuto il tempo necessario per pareggiare la distanza e, sempre guardando i test, il punteggio del core Ryzen è similare ma di poco inferiore alla controparte INTEL.
Di fatto lo score del mio 2600k a 4.3 Ghz è migliore del ryzen 1800X.
Appare quindi molto chiaro il motivo per cui adesso la guerra è incentrata su chi ha più cores.
AMD si è presentata subito con cpu con un sacco di cores per apparire superiore ad Intel.
INTEL che fino ad ora ha potuto cazzeggiare adesso semplicmente risponde al fuoco con la stessa tattica.
La cosa brutta è che io ritengo questa cosa un fuoco di paglia. Perchè il fatto grave è che il single core non migliora e non aumenta di clock. :help:
Quanto tempo potranno andare avanti ad alzare il numero dei cores? Una volta che ne hai 16 dove vuoi andare ancora??
Quanto tempo ci vorrà prima che il software potrà sfruttare un simile numero di cores? E non è neanche detto che poi ci riesca in modo vantaggioso..
mircocatta
08-06-2017, 16:46
Avendo in questo periodo deciso di smanettare un po' per overcloccare il mio glorioso i7 2600K, facendo qualche bench e andando a inserirlo in database di valori di altre cpu, mi sono saltate all'occhio delle cose abbastanza interessanti:
Parlando di prestazioni del SINGLE CORE l'aumento negli ultimi sei e passa anni è purtroppo ridicolo.
Il mio 2600K (CPU di sei anni fa) overcloccato in maniera ignorante a 4.3ghz (quindi in modo davvero easy senza magheggi o rinunce di alcun genere) ha un scoring single core che sta sotto un 7700K (4.2 Ghz) di uno sputo.. meno del 5%. E sono passati SEI ANNI.
Questo indica in maniera chiara che il core in sè non è migliorato per nulla. SIAMO DAVVERO FERMI :(
Per quanto concerne AMD, sempre parlando del single core, essendo tutto fermo ha avuto il tempo necessario per pareggiare la distanza e, sempre guardando i test, il punteggio del core Ryzen è similare ma di poco inferiore alla controparte INTEL.
Di fatto lo score del mio 2600k a 4.3 Ghz è migliore del ryzen 1800X.
Appare quindi molto chiaro il motivo per cui adesso la guerra è incentrata su chi ha più cores.
AMD si è presentata subito con cpu con un sacco di cores per apparire superiore ad Intel.
INTEL che fino ad ora ha potuto cazzeggiare adesso semplicmente risponde al fuoco con la stessa tattica.
La cosa brutta è che io ritengo questa cosa un fuoco di paglia. Perchè il fatto grave è che il single core non migliora e non aumenta di clock. :help:
Quanto tempo potranno andare avanti ad alzare il numero dei cores? Una volta che ne hai 16 dove vuoi andare ancora??
Quanto tempo ci vorrà prima che il software potrà sfruttare un simile numero di cores? E non è neanche detto che poi ci riesca in modo vantaggioso..
scusami, ma la battaglia su "chi ha più core" è appena iniziata e già non la gradisci più? lol
al contrario fino ad oggi intel ha lavorato solo sull'aumento di frequenza, pasticciando molto tra l'altro (non saldando l'his per esempio)
per chi lavora, ryzen è una manna dal cielo altroché, di software che sfruttano il multicore è pieno e con console octacore vedrai che pure i videogiochi si adegueranno
O magari delle prestazioni ST non importa davvero a nessuno.
Le applicazioni più esigenti (rendering, multimedia) sono già MT e molto spesso scalano indifferentemente sia, se hanno 8 thread a disposizione, sia se ne hanno 32.
Sono quelle le applicazioni che richiedo minuti/ore di elaborazione.
Allo stato attuale non ricordo molte applicazioni ST (o dual thread) che richiedono ore di elaborazione (ce ne sono ancora per carità, ma non sono certo la norma), ed anche fosse, quale migliore occasione per lasciarle a lavorare in background e fare altro con il resto della potenza computazionale a disposizione?
Sappiamo bene gli effetti deleteri che ha avuto la corsa ai MHz in passato: no grazie, meglio un maggior numero di core.
In ogni caso, il mercato è ancora strapieno di rombanti dual core (i3-7350K) e quad core, non vedo il problema, ce n'è per tutti.
Piu che il 1600x io prenderei il 1600...tanto alla fine in oc vanno praticamente uguale (50-100mhz di scarto massimo)
Se decidi di fare overclock abbastanza tirato allora potrei concordare ma se non vuoi overclockare o lo vuoi fare senza tirare troppo, il 1600x pare essere proprio il best buy (dai vari test sul tubo, pare proprio che le versioni x siano più selezionate, quindi raggiungimento di una certa frequenza operativa con meno vcore), anche e soprattutto in merito alla superiore frequenza (anche rispetto al 1700 liscio, per quanto mi riguarda quest'ultimo da preferire solo se ORA si usano applicazioni settoriali che sfrutterebbero bene tutti i suoi core ma, allo stato attuale la maggioranza del parco software è mappata più sulle prestazioni tramite frequenza).
scusami, ma la battaglia su "chi ha più core" è appena iniziata e già non la gradisci più? lol
al contrario fino ad oggi intel ha lavorato solo sull'aumento di frequenza, pasticciando molto tra l'altro (non saldando l'his per esempio)
per chi lavora, ryzen è una manna dal cielo altroché, di software che sfruttano il multicore è pieno e con console octacore vedrai che pure i videogiochi si adegueranno
Ho solo fatto considerazioni. Non è questione di gradire o no.
Il fatto che non si può andare avanti per molto ad aumentare i cores è cosa palese. Cosa credi che tra qualche anno saremo in giro con pc a 32 cores fisici?
Altrettanto palese purtroppo è il fatto che il "mattone" che costituisce queste cpu non migliora da ben SEI ANNI.
E' vero che ci sono software che sfruttano appieno la presenza di più cores.. ma sono solo una particolare categoria. Il resto viaggia ad uno, massimo due.
Se aumentare il clock da un miglioramento immediato ed automatico a qualsiasi software e sistema, indipendentemente da come è strutturato, sfruttare un aumento di cores prevede una totale ristrutturazione che non solo da giovamento solo ad alcune parti.. ma che per diverse cose non è applicabile.
ninja750
08-06-2017, 17:22
quindi intel non ha un solo processore competitivo perf/prezzo in nessuna fascia?
CrapaDiLegno
08-06-2017, 17:22
Avendo in questo periodo deciso di smanettare un po' per overcloccare il mio glorioso i7 2600K, facendo qualche bench e andando a inserirlo in database di valori di altre cpu, mi sono saltate all'occhio delle cose abbastanza interessanti:
Parlando di prestazioni del SINGLE CORE l'aumento negli ultimi sei e passa anni è purtroppo ridicolo.
Il mio 2600K (CPU di sei anni fa) overcloccato in maniera ignorante a 4.3ghz (quindi in modo davvero easy senza magheggi o rinunce di alcun genere) ha un scoring single core che sta sotto un 7700K (4.2 Ghz) di uno sputo.. meno del 5%. E sono passati SEI ANNI.
Questo indica in maniera chiara che il core in sè non è migliorato per nulla. SIAMO DAVVERO FERMI :(
Per quanto concerne AMD, sempre parlando del single core, essendo tutto fermo ha avuto il tempo necessario per pareggiare la distanza e, sempre guardando i test, il punteggio del core Ryzen è similare ma di poco inferiore alla controparte INTEL.
Di fatto lo score del mio 2600k a 4.3 Ghz è migliore del ryzen 1800X.
Appare quindi molto chiaro il motivo per cui adesso la guerra è incentrata su chi ha più cores.
AMD si è presentata subito con cpu con un sacco di cores per apparire superiore ad Intel.
INTEL che fino ad ora ha potuto cazzeggiare adesso semplicmente risponde al fuoco con la stessa tattica.
La cosa brutta è che io ritengo questa cosa un fuoco di paglia. Perchè il fatto grave è che il single core non migliora e non aumenta di clock. :help:
Quanto tempo potranno andare avanti ad alzare il numero dei cores? Una volta che ne hai 16 dove vuoi andare ancora??
Quanto tempo ci vorrà prima che il software potrà sfruttare un simile numero di cores? E non è neanche detto che poi ci riesca in modo vantaggioso..
Concordo con quanto scrivi. Io ho un Ivy Bridge e in questi anni ho notato che l'unica differenza di prestazione delle nuove generazioni era solo la frequenza.
Concordo anche sulla questione single core. Sembra che il mondo informatico si sia ad un tratto evoluto a realizzare SW da 8+ thread, quando invece la maggior parte del SW usa uno o forse 2 thread. l'IPC è ancora una componente importantissima e il numero di core è solo un palliativo, dato che andare oltre i 4 core aiuta sì e no una manciata di applicazioni per il consumatore normale.
Ho fatto 2 conti al volo e mi sembra che l'IPC di AMD sia intorno a un 10% in meno di quello di Intel con Kaby Lake. Direi non male. Peccato solo che le frequenze siano rimaste basse. Confidiamo in un Zen+ al più presto. Così che possa pensare al Zen++ quando vorrò cambiare questo PC che ormai ha quasi 5 anni.
scusami, ma la battaglia su "chi ha più core" è appena iniziata e già non la gradisci più? lol
al contrario fino ad oggi intel ha lavorato solo sull'aumento di frequenza, pasticciando molto tra l'altro (non saldando l'his per esempio)
per chi lavora, ryzen è una manna dal cielo altroché, di software che sfruttano il multicore è pieno e con console octacore vedrai che pure i videogiochi si adegueranno
Le console con 8 core ci sono dal 2013. Le CPU per PC con 4 e più core ci sono dal 2006. Ora perché AMD ha lanciato "la moda del numero di core" stai a vedere che esploderà lo sviluppo di giochi che usano n-mila thread per sfruttarli.
Questa corsa al numeri dei core non è né più né meno quella che è stata la corsa ai megapixel (che ancora c'è nel mondo dei "colti" fotografi da smartphone). Tanta fuffa e niente arrosto. Quello che conta è fare il maggior lavoro possibile in meno tempo e non solo nei casi speciali.
Quanti core usa Bridge di Adobe per creare i cataloghi? Quanti core usa Photoshop per applicare gli effetti? E per gestire i layer (che sono un mattone)? E sto solo parlando di Adobe. Sul mercato non ci sono solo loro (io ad esempio non uso la loro suite perché non me la posso permettere).
Quanto ci vuole ad aprire un file di Proshow Producer?
Quanto a convertire un tiff in un JPEG? E un RAW in TIFF?
Mica che tutti i programmi con lo schiocco delle dita possono essere convertiti ad usare 8+ thread per sfruttare i nuovi processori. Soprattutto quelli che girano sotto VM.
"Memoria scheda madre socket AM4: 2x8Gbytes DDR4-2400 (15-15-15-36 2T)"
Da quanto ho visto in giro, con Zen si guadagna significativamente utilizzando memorie più veloci (da 3000-3200), anche nel gaming.
https://www.guru3d.com/articles_pages/amd_ryzen_7_memory_and_tweaking_analysis_review,10.html
D'altro canto, sarebbero risultati coerenti con quanto presentato da voi: a 1440p, dove i vantaggi di memorie più performanti vengono meno, i risultati tendono ad allinearsi alle controparti Intel.
Inoltre, che versione è stata utilizzata per il bench di Tomb Raider?
Di recente è uscita una patch che, nuovamente, ha apportato miglioramenti sensibili su Ryzen almeno fino ai 1080p di risoluzione :
https://www.guru3d.com/news-story/ryzen-game-perf-increases-with-new-rise-of-the-tomb-raider-patch.html
CrapaDiLegno
08-06-2017, 17:32
O magari delle prestazioni ST non importa davvero a nessuno.
Le applicazioni più esigenti (rendering, multimedia) sono già MT e molto spesso scalano indifferentemente sia, se hanno 8 thread a disposizione, sia se ne hanno 32.
Sono quelle le applicazioni che richiedo minuti/ore di elaborazione.
Allo stato attuale non ricordo molte applicazioni ST (o dual thread) che richiedono ore di elaborazione (ce ne sono ancora per carità, ma non sono certo la norma), ed anche fosse, quale migliore occasione per lasciarle a lavorare in background e fare altro con il resto della potenza computazionale a disposizione?
Sappiamo bene gli effetti deleteri che ha avuto la corsa ai MHz in passato: no grazie, meglio un maggior numero di core.
In ogni caso, il mercato è ancora strapieno di rombanti dual core (i3-7350K) e quad core, non vedo il problema, ce n'è per tutti.
:eek:
L'ST non importa a nessuno?
Siamo destinati per il resto dello sviluppo futuro delle CPU a tenerci le stesse identiche prestazioni per tutti quei programmi che non fanno codifica per ore e ore?
Il resto delle performance, poiché non richiede di addormentarsi davanti allo schermo, non ha importanza? Guarda che esistono migliaia di SW che usano un solo core e di cui devi aspettare la risposta in breve tempo per poter continuare, non puoi semplicemente metterli in background.
Fai così: prendi un bell'ATOM da 4 core, di quelli vecchi, cloccati a poco più di 1GHz e usalo. Non ti dico che devi farci computazione pesante. Ti dico solo di usarlo nei compiti di tutti i giorni. 4 core dovrebbero bastare a gestire il carico di un PC normale, anche un po' sfruttato (senza che ti metti a fare codifica video, ovviamente). Poi mi dici se le prestazioni ST non ti interessano.
oramai ho perso un po' il passo ma:
- azz! che CPU questi Ryzen, ottime prestazioni, ottimi consumi e prezzo dannatamente concorrenziale! per pochi "punti" di differenza con i top gamma INTEL siamo quasi alla metà del prezzo! BRAVI
- il crollo dei benchmark nei giochi lo vedo molto come indice di ottimizzazione sia nella programmazione dei motori dei giochi (da anni oramai Intel è sola sul mercato.. sia per diffusione che per prestazioni) sia per i driver di Ryzen probabilmente ancora acerbi.
Bene.. ! finalmente un rientro con MOOOOLTO ONORE!
stiamo a vedere
IMHO
Personalmente tra le varie proposte opterei per il Ryzen 7 1700X...IMHO
Avendo in questo periodo deciso di smanettare un po' per overcloccare il mio glorioso i7 2600K, facendo qualche bench e andando a inserirlo in database di valori di altre cpu, mi sono saltate all'occhio delle cose abbastanza interessanti:
Parlando di prestazioni del SINGLE CORE l'aumento negli ultimi sei e passa anni è purtroppo ridicolo.
Il mio 2600K (CPU di sei anni fa) overcloccato in maniera ignorante a 4.3ghz (quindi in modo davvero easy senza magheggi o rinunce di alcun genere) ha un scoring single core che sta sotto un 7700K (4.2 Ghz) di uno sputo.. meno del 5%. E sono passati SEI ANNI.
Questo indica in maniera chiara che il core in sè non è migliorato per nulla. SIAMO DAVVERO FERMI :(
Per quanto concerne AMD, sempre parlando del single core, essendo tutto fermo ha avuto il tempo necessario per pareggiare la distanza e, sempre guardando i test, il punteggio del core Ryzen è similare ma di poco inferiore alla controparte INTEL.
Di fatto lo score del mio 2600k a 4.3 Ghz è migliore del ryzen 1800X.
Appare quindi molto chiaro il motivo per cui adesso la guerra è incentrata su chi ha più cores.
AMD si è presentata subito con cpu con un sacco di cores per apparire superiore ad Intel.
INTEL che fino ad ora ha potuto cazzeggiare adesso semplicmente risponde al fuoco con la stessa tattica.
La cosa brutta è che io ritengo questa cosa un fuoco di paglia. Perchè il fatto grave è che il single core non migliora e non aumenta di clock. :help:
Quanto tempo potranno andare avanti ad alzare il numero dei cores? Una volta che ne hai 16 dove vuoi andare ancora??
Quanto tempo ci vorrà prima che il software potrà sfruttare un simile numero di cores? E non è neanche detto che poi ci riesca in modo vantaggioso..
Hai ragione ma credo sia un po un limite, nel senso che se su un die ci piazzi 4-6-8 core con processo a 10nm chiaramente spingere oltre i 4 ghz non è proprio un o scherzo.
Quindi, siccome non riescono più ad andare in "lunghezza" si spostano in "larghezza".
Un po' come l'aeroporto di Firenze, la pista è corta ma c'è un monte davanti.. quindi!? ne facciamo un'altra parallela... ma sempre corta!!!!
Il problema è anche di programmazione, non c'è masi stata una vera evoluzione neppure in quell'ambito verso il multi-core in tutti i sistemi, sia desktop (es. WINDOWS) che nei mobili (es. ANDROID). Qualcomm ha riportato a 4 i core del 820 (820.. mi pare...?)
quindi la verità sta un po' nel mezzo, Adesso l'hardware andrà in questa direzione, c'è bisogno che il software si muova in quel senso, ad iniziare dall'OS a finire ai software singoli...
IMHO
Da quanto ho visto in giro, con Zen si guadagna significativamente utilizzando memorie più veloci (da 3000-3200), anche nel gaming.
Sì in frequenza per via dell'infinity fabric, qua lo puoi vedere nei giochi pure con le ram 3600:
https://www.youtube.com/watch?v=RZS2XHcQdqA
giovanbattista
08-06-2017, 18:01
:eek:
L'ST non importa a nessuno?
prendiamo in esame le cpu del l'articolo sono su quelle che ci interessano i confronti e cmq quanti processi ci sono attivi sul tuo pc?
la media e tra i 50 i 100 quindi il multi lo sfrutti cmq
se poi il tuo utilizzo è una macchina offline con un sol programma istallato e killati tutti i processi che normalmente girano, sappilo non fai testo, il mondo e il tempo girano in senso orario, se sei un gambero.......
ti ho riportato l'utilizzatore medio senza scomodare render o conversioni
coschizza
08-06-2017, 18:03
"Memoria scheda madre socket AM4: 2x8Gbytes DDR4-2400 (15-15-15-36 2T)"
Da quanto ho visto in giro, con Zen si guadagna significativamente utilizzando memorie più veloci (da 3000-3200), anche nel gaming.
si ma visto che guadagna sia la cpu intel che amd un test serio si fa a pari condizioni con materiale standard, non memorie super costose che vengono poi comprate solo da una nicchia di persone e sono pure fuori standard JDEC.
Il target della review è l'utente medio che mai comprera qulcosa che non sia standard o direttamente il pc da supermercato.
coschizza
08-06-2017, 18:05
prendiamo in esame le cpu del l'articolo sono su quelle che ci interessano i confronti e cmq quanti processi ci sono attivi sul tuo pc?
la media e tra i 50 i 100 quindi il multi lo sfrutti cmq
se poi il tuo utilizzo è una macchina offline con un sol programma istallato e killati tutti i processi che normalmente girano, sappilo non fai testo, il mondo e il tempo girano in senso orario, se sei un gambero.......
ti ho riportato l'utilizzatore medio senza scomodare render o conversioni
il fatto che posso avere 500 thread di base sul SO non centra nulla con il discorso delle performance in ST di una cpu. Io uso tantissimi software difusissimi che sono quaso solo mono thread come la maggiorparte delle persone quindi è importante che la cpu sia equilibrata. Pensa che il software che uso ora il 3ds max quasi tutte le operazioni durante la creazione degli oggetti è solo monothread e parliamo di uno dei software professionali piu usati al mondo, eppure solo nel rendering è di fatto gestito il MT per il resto una cpu 2 core ti darebbe la stessa reazione durante il lavoro.
Quindi come la mettiamo?
:eek:
L'ST non importa a nessuno?
Siamo destinati per il resto dello sviluppo futuro delle CPU a tenerci le stesse identiche prestazioni per tutti quei programmi che non fanno codifica per ore e ore?
Il resto delle performance, poiché non richiede di addormentarsi davanti allo schermo, non ha importanza? Guarda che esistono migliaia di SW che usano un solo core e di cui devi aspettare la risposta in breve tempo per poter continuare, non puoi semplicemente metterli in background.
Fai così: prendi un bell'ATOM da 4 core, di quelli vecchi, cloccati a poco più di 1GHz e usalo. Non ti dico che devi farci computazione pesante. Ti dico solo di usarlo nei compiti di tutti i giorni. 4 core dovrebbero bastare a gestire il carico di un PC normale, anche un po' sfruttato (senza che ti metti a fare codifica video, ovviamente). Poi mi dici se le prestazioni ST non ti interessano.
Hai detto bene, un tempo breve.
La maggior parte dei programmi single, dual core di cui parli, ha già tempi di risposta brevissimi: parlo di Excel, Word, ma anche i programmi Adobe.
In quelli è irrilevante aspettare il tempo di risposta di 1 s (esagero) con un i5-2500K di 6 anni fa', o 0.5 s di un i7-7700K.
A nessuno frega di aspettare per tempi così brevi.
I tempi di apertura di un file dipende soprattutto dal connubio memoria di massa e ram e su questi c'è stata evoluzione negli ultimi 6 anni.
Impattano le latenze di cache della cpu, ed anche su questo c'è stata evoluzione.
Laddove invece i tempi di elaborazioni si fanno davvero lunghi e parlo di roba consumer, vedi decompressione di un file zippato da diversi GB, conversione di un file video fullHD/4K in h.264/h.265, conversione/modifiche batch di centinaia di fotografie, ci possono essere solo benefici dal maggior numero di core offerti allo stesso prezzo.
Questo è l'approccio che consente il maggior incremento prestazionale, e guarda caso l'hanno scelto sia Intel che Amd.
Tanto meglio se stiamo vedendo un'accelerazione da quest'anno.
Tempo fa' cdimauro diceva qualcosa del tipo: "Se hai idee brillanti per aumentare l'IPC single thread in modo significativo, presentati da Amd ed Intel, ti ricopriranno d'oro" ;)
C'è stato un "miracolo" sul ST nel passaggio da Pentium 4 a Core.
Ora ne vediamo uno simile nel passaggio da Bulldozer a Ryzen.
Ma non abituatevi troppo, ne vedrete così 1 ogni 10 anni, forse ;)
I quad core con grafica integrata continueranno a farli a lungo, quale migliore occasione per risparmiare se non si ha bisogno degli "inutili" 8c e passa.
giovanbattista
08-06-2017, 18:17
il fatto che posso avere 500 thread di base sul SO non centra nulla con il discorso delle performance in ST di una cpu. Io uso tantissimi software difusissimi che sono quaso solo mono thread come la maggiorparte delle persone quindi è importante che la cpu sia equilibrata. Pensa che il software che uso ora il 3ds max quasi tutte le operazioni durante la creazione degli oggetti è solo monothread e parliamo di uno dei software professionali piu usati al mondo, eppure solo nel rendering è di fatto gestito il MT per il resto una cpu 2 core ti darebbe la stessa reazione durante il lavoro.
Quindi come la mettiamo?
che puoi lanciare + istanze in contemporanea? solo un esempio, che mentre lui crea tu puoi fare altro, tu sei single thread o dual core? io sono multi...
Battute a parte ho capito il tuo punto di vista, e le cpu x te gia ci sono, ti pigli un 2core lo porti a 5ghz e sei felice.....ma lo ripeto x l'utente normale che scarica guarda la posta aggiorna un software ecc contemporaneamente la vedo molto ripeto molto meglio multicore
ps rileggendo la tua risposta ...concordo con te al 100% sul discorso equilibrio
MaxFabio93
08-06-2017, 18:29
Palese ancora una volta che Intel pensa a spennare i suoi clienti con prezzi esorbitanti, pagando il marchio piuttosto che la tecnologia che c'è dentro ai processori, il confronto con le CPU Ryzen è incredibile...
si ma visto che guadagna sia la cpu intel che amd un test serio si fa a pari condizioni con materiale standard, non memorie super costose che vengono poi comprate solo da una nicchia di persone e sono pure fuori standard JDEC.
Il target della review è l'utente medio che mai comprera qulcosa che non sia standard o direttamente il pc da supermercato.
Intel scala allo stesso modo di Ryzen nel gaming al salire della frequenza delle memorie? Non è una domanda retorica, anzi sarebbe stata un'occasione interessante per chiarire anche questo aspetto.
Mai detto di fare i test in condizioni impari, ovviamente i test con memorie a velocità diversa sarebbero da fare su entrambe le piattaforme.
L'utente medio che compra il pc da supermercato queste recensioni manco sa che esistono; il target dovrebbe essere chiaramente quello degli utenti più informati e degli hardware enthusiast.
Piedone1113
08-06-2017, 18:49
Palese ancora una volta che Intel pensa a spennare i suoi clienti con prezzi esorbitanti, pagando il marchio piuttosto che la tecnologia che c'è dentro ai processori, il confronto con le CPU Ryzen è incredibile...
La cosa tragica è che quelli che vantano le prestazioni del 7700 sono gli stessi che in passato si lamentavano dell'assenza di AMD sul lato prestazionale imputandone la causa per la stasi del mercato maintream ferma ai 4 core e per il costo spropositato delle cpu da 6 e più core.
Adesso che c'è concorrenza in tutte le fasce e prezzi bassi per cpu da 6 e 8 core si lamentano che sono inutili.
Misteri dei giorni nostri.
La cosa tragica è che quelli che vantano le prestazioni del 7700 sono gli stessi che in passato si lamentavano dell'assenza di AMD sul lato prestazionale imputandone la causa per la stasi del mercato maintream ferma ai 4 core e per il costo spropositato delle cpu da 6 e più core.
Adesso che c'è concorrenza in tutte le fasce e prezzi bassi per cpu da 6 e 8 core si lamentano che sono inutili.
Misteri dei giorni nostri.
Non so se ti riferisci a me.
Ribadisco che io ho solo riportato cosiderazioni oggettive in merito alla direzione presa.
E in particolare del fatto che non aumenta di prestazioni la singola unità.
Poi che ci sia di nuovo della sana concorrenza tra AMD ed intel è ottima cosa.
Il problema è che ne l'una ne l'altra sanno che pesci pigliare per andare oltre il livello a cui siamo giunti
Benjamin Reilly
08-06-2017, 18:57
prima di eseguire i test con i ryzen per caso da bios è stato disattivato hpet ed attivata l'high performance nel sistema operativo windows?
CrapaDiLegno
08-06-2017, 18:59
prendiamo in esame le cpu del l'articolo sono su quelle che ci interessano i confronti e cmq quanti processi ci sono attivi sul tuo pc?
la media e tra i 50 i 100 quindi il multi lo sfrutti cmq
se poi il tuo utilizzo è una macchina offline con un sol programma istallato e killati tutti i processi che normalmente girano, sappilo non fai testo, il mondo e il tempo girano in senso orario, se sei un gambero.......
ti ho riportato l'utilizzatore medio senza scomodare render o conversioni
:doh:
Contare il numero di processi aperti e dire che in questo modo sfrutti la CPU è indice di non sapere quello di cui si parla.
Hai detto bene, un tempo breve.
La maggior parte dei programmi single, dual core di cui parli, ha già tempi di risposta brevissimi: parlo di Excel, Word, ma anche i programmi Adobe.
In quelli è irrilevante aspettare il tempo di risposta di 1 s (esagero) con un i5-2500K di 6 anni fa', o 0.5 s di un i7-7700K.
A nessuno frega di aspettare per tempi così brevi.
Ma che dici?
Ascolta, fai quello che ti ho detto. Usa una CPU con 4 core (dico 4, non 1) a 1GHz. E' sufficientemente "larga" per gestire tutti thread che un PC casalingo genera. Il tempo di eseguirli però è tutt'altra cosa. Poi mi dici.
A nessuno interessa cosa? Interessa che quando pigia su una combo box più grande di 10 elementi debba aspettare mezzo secondo? Che quando clicca in una casella Excel prima che si attivi impieghi 400ms? Che quando comincia a scrivere la formula i suggerimenti arrivino prima di un secondo? Che quando selezioni il testo e cambi la font non ci impieghi 2 secondi a rinfrescare la pagina? Queste sono tutte operazioni monothread e se non aumenti in qualche modo la velocità in ST rimai a questo livello per il resto della tua vita. E' questo che stai suggerendo?
Stai riscrivendo le regole di interazione con la macchina, quelle che rendono una buona macchina una buona macchina per l'utente e non solo una macchina veloce.
I tempi di apertura di un file dipende soprattutto dal connubio memoria di massa e ram e su questi c'è stata evoluzione negli ultimi 6 anni.
Impattano le latenze di cache della cpu, ed anche su questo c'è stata evoluzione.
Il caricamento dei dati da una memoria esterna non c'entra nulla con le prestazioni ST o MT. Tanto che se hai anche mille core a 10GHz sempre lo stesso tempo ci metti.
Laddove invece i tempi di elaborazioni si fanno davvero lunghi e parlo di roba consumer, vedi decompressione di un file zippato da diversi GB, conversione di un file video fullHD/4K in h.264/h.265, conversione/modifiche batch di centinaia di fotografie, ci possono essere solo benefici dal maggior numero di core offerti allo stesso prezzo.
Questo è l'approccio che consente il maggior incremento prestazionale, e guarda caso l'hanno scelto sia Intel che Amd.
Tanto meglio se stiamo vedendo un'accelerazione da quest'anno.
In verità è un approccio che ha scelto AMD. Intel risponde solo perché in termini di marketing 8 core sono meno di 4 e sulle brochure fa brutto.
Tempo fa' cdimauro diceva qualcosa del tipo: "Se hai idee brillanti per aumentare l'IPC single thread in modo significativo, presentati da Amd ed Intel, ti ricopriranno d'oro" ;)
Tempo fa cdmauro aveva detto che i 10nm erano in perfettamente in linea con i tempi di sviluppo previsti, che la produzione a 14nm appena avviata non aveva problemi, che gli Atom erano pronti a sbaragliare il mercato mobile con le loro prestazioni superiori e i consumi inferiori, che le Xeon Phi avrebbero raso al suolo il mercato delle GPU nell'HCP e altre cosucce.
L'IPC si può aumentare. Serve cambiare radicalmente l'ISA. Serve che Intel e AMD si siedano ad un tavolo e comincino a pensare di modificarla piano piano adeguando compilatori.
Se ci avessero pensato quando è stata lanciata l'estensione a 64bit ora avremmo CPU che eseguirebbero istruzioni diverse, magari con più parallelismo interno e magari anche con il supporto di unità aggiunte esterne come avviene nei SoC (dove tutto il lavoro non è a carico della semplice CPU centrale). O magari un ISA RISC più vicina al microcode eseguite in realtà dalla CPU dopo la traduzione delle istruzioni x86. Un sacco di cose si possono fare se si vuole e non ci si addormenta sugli allori godendo del vantaggio sulla concorrenza e dell'inerzia del mercato (che poi i risultati reali sono diversi da quelli raccontati da cdmauro mica per niente).
Invece a parte le estensioni per i calcoli vettoriali (queste sì, utili a pochi) siamo sempre qui ad eseguire lo stesso codice degli anni '70 o poco più.
C'è stato un "miracolo" sul ST nel passaggio da Pentium 4 a Core.
Ora ne vediamo uno simile nel passaggio da Bulldozer a Ryzen.
Ma non abituatevi troppo, ne vedrete così 1 ogni 10 anni, forse ;)
I quad core con grafica integrata continueranno a farli a lungo, quale migliore occasione per risparmiare se non si ha bisogno degli "inutili" 8c e passa.
C'è stato un miracolo sull'ST perché Intel ha cambiato radicalmente il modo di eseguire le istruzioni usando un traslatore a istruzioni molto più efficienti di quelli x86 che ora vengono rielaborati in sequenze migliori (e abbandonando l'idea di pipeline lunghe come piste di aeroporti, per agganciarsi alla similitudine detta prima).
Dopo quel'illuminazione... il nulla. Sono 15 anni che siamo fermi. Dal Core2 a oggi l'IPC è forse raddoppiato (il numero di transistor integrati invece è circa 100 volte tanto).
AMD non ha fatto nessun avanzamento dell'IPC che sia di aiuto (se non a lei stessa). Era rimasta al tempo della pietra e adesso è quasi allineata con la tecnologia moderna, ma non ha aiutato l'architettura x86 a rompere nuove barriere e l'anno prossimo, a parte i core in più, avremo gli stessi PC che vanno come l'anno precedente. Anzi, visto i bench per chi non usa mille mila thread, andranno pure meno.
A parte gli scherzi...
http://www.hwupgrade.it/articoli/cpu/4920/mordor.png
temo che siano stati invertiti i colori tra 1700 e 6700k.
Per il resto ormai è qualche mese che sono felice possessore di un 1700 tirato a 3700Mhz con vcore def ad aria... Beh si ho smadonnato di brutto i primi periodi con bios e driver da paura, ma ora ammetto che la cosa è migliorata e onestamente i numeri con questa piattaforma si fanno.
Con Intel avrei speso un botto e se avessi mantenuto lo stesso budget avrei avuto un 4c/8t invece del doppio.
Bello vedere anche continui aggiornamenti di driver e bios nonché di patch nei giochi segno che questa tecnologia ha ancora molto da dare a conferma che AMD questa volta merita davvero fiducia.
Bentornata concorrenza e soprattutto bentornata piacevole vivacità tecnologica in ambito CPU che tanto ci si attendeva da anni.
Saluti
giovanbattista
08-06-2017, 19:31
:doh:
Contare il numero di processi aperti e dire che in questo modo sfrutti la CPU è indice di non sapere quello di cui si parla.
pardon utilizzi è + giusto
CrapaDiLegno
08-06-2017, 19:54
pardon utilizzi è + giusto
Appunto, io non uso 50 o 100 thread... ma nemmeno 10.
Qualche volta mi capita di eseguirne diversi quando compilo o elaboro fotografie. Ma per il resto la corsa alla gestione di tanti core è inutile perché non porta benefici alla maggior parte dell'utenza (e si rimane ancora a livello del 2012).
Innanzitutto grazie per tutto quello che hai scritto anche nei post precedenti, non avrei trovato parole migliori. A leggere i forum a volte mi sembra che ci sia gente il cui uso del computer sia: accendo, faccio girare Cinebench per 8 ore, spengo. Basta provare a fare qualche VLOOKUP su Excel per capire davvero cosa vuol dire il collo di bottiglia in single-thread.
:doh:
L'IPC si può aumentare. Serve cambiare radicalmente l'ISA. Serve che Intel e AMD si siedano ad un tavolo e comincino a pensare di modificarla piano piano adeguando compilatori.
Se ci avessero pensato quando è stata lanciata l'estensione a 64bit ora avremmo CPU che eseguirebbero istruzioni diverse, magari con più parallelismo interno e magari anche con il supporto di unità aggiunte esterne come avviene nei SoC (dove tutto il lavoro non è a carico della semplice CPU centrale). O magari un ISA RISC più vicina al microcode eseguite in realtà dalla CPU dopo la traduzione delle istruzioni x86. Un sacco di cose si possono fare se si vuole e non ci si addormenta sugli allori godendo del vantaggio sulla concorrenza e dell'inerzia del mercato (che poi i risultati reali sono diversi da quelli raccontati da cdmauro mica per niente).
Invece a parte le estensioni per i calcoli vettoriali (queste sì, utili a pochi) siamo sempre qui ad eseguire lo stesso codice degli anni '70 o poco più.
C'è stato un miracolo sull'ST perché Intel ha cambiato radicalmente il modo di eseguire le istruzioni usando un traslatore a istruzioni molto più efficienti di quelli x86 che ora vengono rielaborati in sequenze migliori (e abbandonando l'idea di pipeline lunghe come piste di aeroporti, per agganciarsi alla similitudine detta prima).
Dopo quel'illuminazione... il nulla. Sono 15 anni che siamo fermi. Dal Core2 a oggi l'IPC è forse raddoppiato (il numero di transistor integrati invece è circa 100 volte tanto).
AMD non ha fatto nessun avanzamento dell'IPC che sia di aiuto (se non a lei stessa). Era rimasta al tempo della pietra e adesso è quasi allineata con la tecnologia moderna, ma non ha aiutato l'architettura x86 a rompere nuove barriere e l'anno prossimo, a parte i core in più, avremo gli stessi PC che vanno come l'anno precedente. Anzi, visto i bench per chi non usa mille mila thread, andranno pure meno.
La mia modestissima opinione e` che la causa principale sono i costi di sviluppo, che hanno raggiunto cifre senza senso. Basta guardare AMD che non ha ottenuto finanziarimente NIENTE da anni di tentativi di innovazione in ambito CPU. Con Bulldozer ci avevano provato ad innovare, e sono stati annichiliti. Lo sforzo fatto con Ryzen ha quasi del miracoloso: non fosse andato a frutto avendo gia` solo il 20% o giu` di li` del mercato avrebbero semplicemente chiuso baracca.
Intel dal canto suo ha ovviamente la "scusa" che da dominatore del mercato aveva poco incentivo a cambiare lo status quo, ma credo che l'esperienza fatta ad esempio con Itanium non abbia aiutato. Li` si` che ci sarebbero state innovazioni a tutto tondo, dall'architettura ai compilatori... che pero` poi si sono rivelati impossibili da scrivere.
Insomma, tutto questo per dire che non e` che non ci hanno provato, e` che i costi per fare questo sviluppo sono talmente alti che spesso il rischio e` considerato troppo alto. Credo pero` che alla lunga qualcosa saltera` fuori, magari da nomi che non ci si aspetta (ARM?).
Piedone1113
08-06-2017, 20:34
Ma che dici?
Ascolta, fai quello che ti ho detto. Usa una CPU con 4 core (dico 4, non 1) a 1GHz. E' sufficientemente "larga" per gestire tutti thread che un PC casalingo genera. Il tempo di eseguirli però è tutt'altra cosa. Poi mi dici.
Balle, non hai mai usato cpu a 4 core di classe celeron e gia un j1900 @2400 mostra i fianchi gia con diverse tab aperte in chrome (8 tab utilizzo cpu di chrome che oscilla tra il 27 ed il 42%, e sono tab di questo forum).
A nessuno interessa cosa? Interessa che quando pigia su una combo box più grande di 10 elementi debba aspettare mezzo secondo? Che quando clicca in una casella Excel prima che si attivi impieghi 400ms? Che quando comincia a scrivere la formula i suggerimenti arrivino prima di un secondo? Che quando selezioni il testo e cambi la font non ci impieghi 2 secondi a rinfrescare la pagina? Queste sono tutte operazioni monothread e se non aumenti in qualche modo la velocità in ST rimai a questo livello per il resto della tua vita. E' questo che stai suggerendo?
Stai descrivendo operazioni da uso casalingo chiedendo elevata potenza st ma al tempo stesso indichi un celeron x4 ad 1 ghz sufficiente?
Se ci avessero pensato quando è stata lanciata l'estensione a 64bit ora avremmo CPU che eseguirebbero istruzioni diverse, magari con più parallelismo interno e magari anche con il supporto di unità aggiunte esterne come avviene nei SoC (dove tutto il lavoro non è a carico della semplice CPU centrale).
In parte queste cose le fanno gia sse ed avx, oltre all'accellerazione hardware che offrono praticamente tutti i sistemi tramite vga (inclusi i soc maintream intel e le apu AMD).
Peccato che gli sviluppatori sono più lenti di un celeron @100hz (leggi beni non è un errore).
O magari un ISA RISC più vicina al microcode eseguite in realtà dalla CPU dopo la traduzione delle istruzioni x86. Un sacco di cose si possono fare se si vuole e non ci si addormenta sugli allori godendo del vantaggio sulla concorrenza e dell'inerzia del mercato (che poi i risultati reali sono diversi da quelli raccontati da cdmauro mica per niente).
Invece a parte le estensioni per i calcoli vettoriali (queste sì, utili a pochi) siamo sempre qui ad eseguire lo stesso codice degli anni '70 o poco più.
Le cpu x86 sono da eoni risc tanto per chiarire.
Riguardo il codice anni 70, be ci sono state un sacco di famiglie di cpu (inclusa arm ma non solo) che non hanno mai offerto più di tanto al mercato di massa, mica esiste solo x86, ma se è la famiglia più diffusa in ambito desktop ci sarà un motivo (incluso quello di non dover riscrivere tutto il codice per reinventare per l'ennesima volta la ruota).
C'è stato un miracolo sull'ST perché Intel ha cambiato radicalmente il modo di eseguire le istruzioni usando un traslatore a istruzioni molto più efficienti di quelli x86 che ora vengono rielaborati in sequenze migliori (e abbandonando l'idea di pipeline lunghe come piste di aeroporti, per agganciarsi alla similitudine detta prima).
Mi risulta che conroe e core siano più vicine ai PentiumPro e PentiumM di quanto tu voglia far credere, e di molto.
Dopo quel'illuminazione... il nulla. Sono 15 anni che siamo fermi. Dal Core2 a oggi l'IPC è forse raddoppiato (il numero di transistor integrati invece è circa 100 volte tanto).
AMD non ha fatto nessun avanzamento dell'IPC che sia di aiuto (se non a lei stessa). Era rimasta al tempo della pietra e adesso è quasi allineata con la tecnologia moderna, ma non ha aiutato l'architettura x86 a rompere nuove barriere e l'anno prossimo, a parte i core in più, avremo gli stessi PC che vanno come l'anno precedente. Anzi, visto i bench per chi non usa mille mila thread, andranno pure meno.
Mi stai dicendo che che 1:1=2:100 ?
Prova ad applicare un algoritmo di crittografia con un C2Quad e con un I5 di oggi vedi se la differenza è 1 a 2 (credo che uno zero non ti basti)
I produttori di cpu non vendono se una formattazione impiega 10 invece di 11 sec, guadagna vendondo cpu che impiegano 1 sec, invece che 20 sec per un'operazione continua e ripetitiva della quale necessitano realtà professionali che hanno bisogno di maggior velocità:
Ecco dove ono finiti molti di quei transistor ( oltre a quelli destinati per la grafica, per il controller ram, per l'usb ecc che prima erano tutte esterne alla cpu).
Questa l'hai sparata più grossa delle altre devo dire.
Piedone1113
08-06-2017, 20:50
Non so se ti riferisci a me.
Ribadisco che io ho solo riportato cosiderazioni oggettive in merito alla direzione presa.
E in particolare del fatto che non aumenta di prestazioni la singola unità.
Poi che ci sia di nuovo della sana concorrenza tra AMD ed intel è ottima cosa.
Il problema è che ne l'una ne l'altra sanno che pesci pigliare per andare oltre il livello a cui siamo giunti
E' un discorso generale del tipo:
Oh cacchio perchè amd non caccia una cpu in grado di confrontarsi con il 6900 che sta a 1000€ in modo che calano i prezzi e posso acquistarla a 800?
E adesso che c'è una cpu da 500€ che offre le stesse prestazioni di un 6900 non va bene lo stesso perchè intel non ha abbassato il listino ( e di comprare AMD non me lo sogno nemmeno), allora diventano inutili 8 core (hai presente la la volpe?)
Da un discorso con Cdimauro siamo arrivati alla conclusione che incrementare l'ipc medio del 20% comporta un più che raddoppio delle dimensioni del core di una cpu x86, molto più semplice raddoppiare i core ed avere un aumento del 50% medio sulla media dell'uso delle cpu highperformance (perchè a chi serve un ipc doppio in st per più di un ora al giorno sono in pochissimi, mentre in moltissimi hanno bisogno di più core, sopratutto a chi spende di più in parco macchine).
Tu cosa faresti una cpu che copre il 20% del fatturato totale o una che ne copre il 60%?
Ho fatto 2 conti al volo e mi sembra che l'IPC di AMD sia intorno a un 10% in meno di quello di Intel con Kaby Lake. Direi non male. Peccato solo che le frequenze siano rimaste basse. Confidiamo in un Zen+ al più presto. Così che possa pensare al Zen++ quando vorrò cambiare questo PC che ormai ha quasi 5 anni.
...e li hai fatti male, perchè molte volte, su applicazioni multithread il 1700 è sopra al 6900 e siamo 3Ghz contro 3.2...
quindi kaby, nuova architettura Intel ma che è solo un quadcore, non indica effettivamente i valori in campo.
lo puoi vedere anche con il 1500X contro il 7700K, che pur essenso solo un 4c/4t contro un 4c/8t in blender quanto credi che possa apportare HT su 4 thread principali a saturazione di risorse? daranno si e no l'1% assoluto, o meglio il 100% del rimanente 1% lasciato dal thread principale al 99%...
e li siamo 3.5 contro 3.8Ghz.
logico che il 7700K vada di piu', avendo 700mhz in piu'... che dici?
ti sei fermato ai giochi DX11?
lo scaling in multithread di Zen è molto efficacie, e forse solo SKY-E correggerà l'andazzo grazie alla modifica della cache.
come al solito tocca farti la solita tirata d'orecchie perchè pendi sempre dalle stesse parti e non sei obbiettivo.
anche perchè, guardando i vari test sui giochi, ti sei mai chiesto se i driver nvidia sono stati minimamente ottimizzati per Ryzen?
perchè quando usi una 580 a confronto con una 1060, stranamente le cose son diverse anche sui giochi in cui la 580 è penalizzata rispetto alle stesse configurazioni con Intel.
magia...
ed ora dai, ridammi nuovamente l'epiteto di fanboy, che oggi non me lo hai ancora affibiato.
PS: comunque il best buy per me è il 1700 prezzo e prestazioni ottimali e sicuramente future proof.
Le console con 8 core ci sono dal 2013. Le CPU per PC con 4 e più core ci sono dal 2006. Ora perché AMD ha lanciato "la moda del numero di core" stai a vedere che esploderà lo sviluppo di giochi che usano n-mila thread per sfruttarli.
no, si useranno CPU sopra i quad core solo perchè i quad non ce la fanno piu' a stare dietro alle potenze delle alro di gamma...
nella prossima generazione di GPU credi che Intel ti riesca a fare un quad a 7Ghz, che già oggi in overclock a 5Ghz fanno da tappo?
ecco perchè si useranno DX12 ac ed ace, o vulkan; per il semplice fatto che se vuoi accrescere la potenza grafica in qualche modo quella della CPU gli deve stare dietro.
e son 2 (e questa è pure una cosa vecchia).
Paolo Corsini
08-06-2017, 21:06
"Memoria scheda madre socket AM4: 2x8Gbytes DDR4-2400 (15-15-15-36 2T)"
Da quanto ho visto in giro, con Zen si guadagna significativamente utilizzando memorie più veloci (da 3000-3200), anche nel gaming.
https://www.guru3d.com/articles_pages/amd_ryzen_7_memory_and_tweaking_analysis_review,10.html
Buona lettura:
http://www.hwupgrade.it/articoli/cpu/4883/amd-ryzen-7-e-ryzen-5-in-test-17-cpu-a-confronto_5.html
Il fatto che una cpu AMD da 330 euro stia a 5 % di prestazioni da una Intel da 1000 e passa (senza contare l'abissale differenza nei prezzi delle motherboard) dovrebbe far pensare in che guai si trova Intel presso tutti gli acquirenti che non facciano del gioco il loro interesse principale.
Buona lettura:
http://www.hwupgrade.it/articoli/cpu/4883/amd-ryzen-7-e-ryzen-5-in-test-17-cpu-a-confronto_5.html
un ringraziamento all'instancabile Paolo... oro colato questa review.
PS: anche se a me non interessano i giochi, sarebbe curioso verificare la discrepanza CPU AMD + GPU AMD e GPU Nvidia VS CPU Intel + GPU AMD e GPU Nvidia, cosi' magari la gente incomincia a bussare alle porte d'nvidia per un giusto supporto delle proprie CPU.
il fatto che posso avere 500 thread di base sul SO non centra nulla con il discorso delle performance in ST di una cpu. Io uso tantissimi software difusissimi che sono quaso solo mono thread come la maggiorparte delle persone quindi è importante che la cpu sia equilibrata. Pensa che il software che uso ora il 3ds max quasi tutte le operazioni durante la creazione degli oggetti è solo monothread e parliamo di uno dei software professionali piu usati al mondo, eppure solo nel rendering è di fatto gestito il MT per il resto una cpu 2 core ti darebbe la stessa reazione durante il lavoro.
Quindi come la mettiamo?
è vero pure che non ci fai nulla con un dual core a 10ghz contro un dual core a 5ghz, in quel frangente, e lo sai meglio di me...
operi con dei vecchi pentium su cad, senza patemi finchè non arrivi al rendering (e li pero' patisci anche se hai un 6950... non è che parallelizza bene anche in quelle situazioni).
un ringraziamento all'instancabile Paolo... oro colato questa review.
PS: anche se a me non interessano i giochi, sarebbe curioso verificare la discrepanza CPU AMD + GPU AMD e GPU Nvidia VS CPU Intel + GPU AMD e GPU Nvidia, cosi' magari la gente incomincia a bussare alle porte d'nvidia per un giusto supporto delle proprie CPU.
non credo sia un problema di driver nvidia.
Le gpu nvidia hanno uno scheduler software che per forza di cosa privilegia prestazioni single core.
Le gpu amd lo hanno hardware (quindi scaldano e consumano di più) ma sfruttano meglio il multicore.
tuttodigitale
08-06-2017, 21:16
Innanzitutto grazie per tutto quello che hai scritto anche nei post precedenti, non avrei trovato parole migliori. A leggere i forum a volte mi sembra che ci sia gente il cui uso del computer sia: accendo, faccio girare Cinebench per 8 ore, spengo. Basta provare a fare qualche VLOOKUP su Excel per capire davvero cosa vuol dire il collo di bottiglia in single-thread.
VLOOKUP se davvero è single thread è la dimostrazione che più delle volte, c'è una mancanza o di volontà o di esigenze per sfruttare interamente l'HW.....
Mi viene in mente la Commodore...
E' un discorso generale del tipo:
Oh cacchio perchè amd non caccia una cpu in grado di confrontarsi con il 6900 che sta a 1000€ in modo che calano i prezzi e posso acquistarla a 800?
E adesso che c'è una cpu da 500€ che offre le stesse prestazioni di un 6900 non va bene lo stesso perchè intel non ha abbassato il listino ( e di comprare AMD non me lo sogno nemmeno), allora diventano inutili 8 core (hai presente la la volpe?)
Da un discorso con Cdimauro siamo arrivati alla conclusione che incrementare l'ipc medio del 20% comporta un più che raddoppio delle dimensioni del core di una cpu x86, molto più semplice raddoppiare i core ed avere un aumento del 50% medio sulla media dell'uso delle cpu highperformance (perchè a chi serve un ipc doppio in st per più di un ora al giorno sono in pochissimi, mentre in moltissimi hanno bisogno di più core, sopratutto a chi spende di più in parco macchine).
Tu cosa faresti una cpu che copre il 20% del fatturato totale o una che ne copre il 60%?
No, aspetta. Va benissimo il discorso che fai, sono assolutamente felice della nuova concorrenza che si è creata. E sono il primo a gioire per le convenienti soluzioni AMD, dovessi prendere un nuovo pc oggi certamente andei su ryzen.
Il mio è un discorso assolutamente generale che esula totalmente sia dalla questione prezzi che dalla questione intel vs amd.
In soldoni ho realizzato che l'unità di calcolo (il single core) non aumenta di prestazioni da almeno sei anni. Un dato che ritengo piuttosoto allarmante.. perchè se prima eravamo abituati a passare (per esempio) da due cores con potenza 10 a quattro cores con potenza 40, adesso ci troviamo a passare da quattro cores con potenza 40 a sei o otto cores ANCORA DI POTENZA 40.
Il che indica che siamo in pieno stallo tecnologico.
In pratica se cambiassi il pc ora mi troverei a passare da un core i7 2600 quad core ad un (per modo di dire) core i7 2600 ad otto cores..
In sostanza non riescono a migliorare il core e quindi aumentano di numero... per carità meglio di nulla, ma per i discorsi fatti prima sul multicore devo dire che non è proprio il top.. e soratutto sappiamo bene che non è un espediente che può andare avanti ad oltranza.
non credo sia un problema di driver nvidia.
Le gpu nvidia hanno uno scheduler software che per forza di cosa privilegia prestazioni single core.
Le gpu amd lo hanno hardware (quindi scaldano e consumano di più) ma sfruttano meglio il multicore.
senza dati non si puo' ipotizzare, ed in giro se ne trovano pochi e non nelle stesse condizioni, quindi inutilizzabili.
dato verificato, dato vero.
VLOOKUP se davvero è single thread è la dimostrazione che più delle volte, c'è una mancanza o di volontà o di esigenze per sfruttare interamente l'HW.....
se hai troppa roba si bypassa.
vai in VB e fai una macro in elenco normale, cambi la primitiva e te ne freghi di VLOOKUP se il dataset è esteso...
occupi spazio, ma chissenefrega... cosi' riesci a farlo senza piantare la CPU nelle tabelle.
ostinarsi ad usare una finzione precompilata solo perchè già la hai su una cosa che va bene per una manciata di situazioni è volersi male....
In soldoni ho realizzato che l'unità di calcolo (il single core) non aumenta di prestazioni da almeno sei anni. Un dato che ritengo piuttosoto allarmante.. perchè se prima eravamo abituati a passare (per esempio) da due cores con potenza 10 a quattro cores con potenza 40, adesso ci troviamo a passare da quattro cores con potenza 40 a sei o otto cores ANCORA DI POTENZA 40.
Il che indica che siamo in pieno stallo tecnologico.
non è tutto questo, demon...
ieri avevi una potenza 40 spendendo 200, perchè normalmente era settato per 30=100, il resto lo ottenevi forzando i parametri ed arrivando al limite fisico del singolo chip;
oggi hai una potenza 40 di default, al massimo 45 se sfrutti il chip, ma 40 li fai spendendo 50.
il progresso tecnologico in produzione, dove ieri passavi da 130 a 90, mentre oggi passi da 14 a sempre 14 con uno strato un po' piu' spesso, ultimamente si è sempre piu' spostato sulla massima prestazione per mm^2, invece di ottimizzare i parametri.
logico che le cose di ieri ti sembrano diverse da oggi: oggi non hai CPU mainstream alto di gamma che ti fanno il 50% in prestazioni spingendo i parametri, perchè se la sono giocata i produttori quella possibilità.
purtroppo è anche colpa del modus operandi dei sistemi di sviluppo (mai creare una cosa nuova se puoi risparmiare usandone una vecchia) e dei produttori che hanno speculato sulla dimensione dei core;
questo perchè un buon chip mainstream è sempre stato circa sui 200mm^2 tutto CPU, oggi usi core in cui si occupano solo 50mm^2 di die per la CPU pura, il resto è SB/NB/iGPU.. vedi che l'ultima serie HEDT fino a 12 core ti dà quello per cui un tempo eravamo tutti abituati: 200-250mm^2 quasi tutta CPU, e li le prestazioni si sentono, se il software è sviluppato... non è rapportato pero' al valore di questo, perchè prima eravamo abituati a spendere 1000 massimo (e parlo anche dei tempi antichi, perchè CPU da 2 milioni di lire me le ricordo bene, visto che le avevo, ed eravamo nella stessa identica situazione di oggi, con Intel che dominava il mercato e si poteva permettere queste cose)...
oggi, forse, ti richiederanno 1000, ma fino a ieri erano a quasi 2000!
insomma, vero che le prestazioni non sembrano aumentate, vero che c'e' stato uno stop tecnologico di ben 3 anni che stiamo ancora pagando per la questione di scarsa produzione, ma non è che una CPU di 5 anni fà và come una di oggi... ce la fai arrivare, ma non consuma la stessa cosa e comunque quelle di oggi non le usi come si dovrebbe, ma le usi come le vecchie...
si ma visto che guadagna sia la cpu intel che amd un test serio si fa a pari condizioni con materiale standard, non memorie super costose che vengono poi comprate solo da una nicchia di persone e sono pure fuori standard JDEC.
Il target della review è l'utente medio che mai comprera qulcosa che non sia standard o direttamente il pc da supermercato.
l'utente medio pero' non si compra manco CPU da 500$...:stordita:
non è tutto questo, demon...
ieri avevi una potenza 40 spendendo 200, perchè normalmente era settato per 30=100, il resto lo ottenevi forzando i parametri ed arrivando al limite fisico del singolo chip;
oggi hai una potenza 40 di default, al massimo 45 se sfrutti il chip, ma 40 li fai spendendo 50.
il progresso tecnologico in produzione, dove ieri passavi da 130 a 90, mentre oggi passi da 14 a sempre 14 con uno strato un po' piu' spesso, ultimamente si è sempre piu' spostato sulla massima prestazione per mm^2, invece di ottimizzare i parametri.
logico che le cose di ieri ti sembrano diverse da oggi: oggi non hai CPU mainstream alto di gamma che ti fanno il 50% in prestazioni spingendo i parametri, perchè se la sono giocata i produttori quella possibilità.
purtroppo è anche colpa del modus operandi dei sistemi di sviluppo (mai creare una cosa nuova se puoi risparmiare usandone una vecchia) e dei produttori che hanno speculato sulla dimensione dei core;
questo perchè un buon chip mainstream è sempre stato circa sui 200mm^2 tutto CPU, oggi usi core in cui si occupano solo 50mm^2 di die per la CPU pura, il resto è SB/NB/iGPU.. vedi che l'ultima serie HEDT fino a 12 core ti dà quello per cui un tempo eravamo tutti abituati: 200-250mm^2 quasi tutta CPU, e li le prestazioni si sentono, se il software è sviluppato... non è rapportato pero' al valore di questo, perchè prima eravamo abituati a spendere 1000 massimo (e parlo anche dei tempi antichi, perchè CPU da 2 milioni di lire me le ricordo bene, visto che le avevo)...
oggi, forse, ti richiederanno 1000, ma fino a ieri erano a quasi 2000!
insomma, vero che le prestazioni non sembrano aumentate, vero che c'e' stato uno stop tecnologico di ben 3 anni che stiamo ancora pagando per la questione di scarsa produzione, ma non è che una CPU di 5 anni fà và come una di oggi... ce la fai arrivare, ma non consuma la stessa cosa e comunque quelle di oggi non le usi come si dovrebbe, ma le usi come le vecchie...
Certo, c'è ovviamente una riduzione del costo ed una ottimizzazione dei processori, unitamente ad una lieve crescita del clock (decisamente risicata)
Ma credo sia piuttosto chiaro che siamo davanti ad una crescita praticamente nulla.
Il fatto che il potere di calcolo della mia CPU vecchia di ben sei anni, con un modesto overclock (anzi possiamo dire allineando il clock), se la giochi ad armi pari con le attuali cpu a parità di cores che sono di 5 generazioni avanti è un dato sconcertante.
Tempo fa' cdimauro diceva qualcosa del tipo: "Se hai idee brillanti per aumentare l'IPC single thread in modo significativo, presentati da Amd ed Intel, ti ricopriranno d'oro" ;)
anni fà si parlava di virtualizzazione diretta.
non importava chi o cosa processava, ma il sistema vedeva una sola CPU ad un solo core, il tutto veniva poi tradotto e usato su diverse risorse.
era prima ancora di HT Intel, se ricordo un paio d'anni prima...
questo pero' comportava perdite di potenza pura nell'ordine del 50% ed oltre...
vuoi aumentare il ST?
usi una CPU x86, non un RISC ma un vero CISC, con solo la questione che estendi il codice a 256 bit, ma stavolta inserendo ogni singolo algoritmo d'istruzione sul silicio, anzi, magari anche in aggregazione, come in effetti si fà su SMT... salti insomma tutti i passaggi di decodifica e ricodifica, ma hai un mattonellone da piastrella del bagno e zero convenienza.
faccio una CPU single thread piu' grossa di un quad core?
solo 1 istruzione su 8, a dir tanto, si avvantaggerebbe di questa scelta procedurale, e comunque sempre a 5ghz sei fermo.
faccio un RISC SMT a 4 vie?
devo rifar compilare tutti i codici e comunque non hai cosi' tante istruzioni per massimizzare un 4 vie (256b) general purpose...
in SMT a 2 vie aumenti lo spazio di 2.5 volte e guadagni 1.6 medio, con punte
a 1.9, ma con minimi, e sulle ST, a 1.2...
in un 4 vie il massimo lo avrai a x3, ed il minimo a 1.1, mentre lo spazio occupato sarà di 6 volte....
CMS era un bel progetto... peccato che nessuno l'ha sfruttato realmente a dovere.... un core a singola via (doble con repliche di unità base) capace di arrivare tranquillamente a 5ghz a 32nm....
ma non è che puoi stravolgere tutti i software perchè cosi' è meglio...
Certo, c'è ovviamente una riduzione del costo ed una ottimizzazione dei processori, unitamente ad una lieve crescita del clock (decisamente risicata)
Ma credo sia piuttosto chiaro che siamo davanti ad una crescita praticamente nulla.
Il fatto che il potere di calcolo della mia CPU vecchia di ben sei anni, con un modesto overclock (anzi possiamo dire allineando il clock), se la giochi ad armi pari con le attuali cpu a parità di cores che sono di 5 generazioni avanti è un dato sconcertante.
il salto lo hai avuto dal core usato in double a quello usato in doble ma anche con 2 vie di processamento, da netbrust a SB.
altri salti cosi' non ci saranno che fra 10 anni, quando il software sarà piu' prodigo alla parallelizzazione.
in piu', come scritto, paghi l'assenza d'investimenti di 3 anni di stop (2012-2015) causa crisi.
Intel non ne ha sofferto piu' di tanto, ma gli altri si, e senza concorrenza non ti conviene piantare il chiodo, ma cavarlo, addrizzarlo e riusarlo.
nei prossimi anni, comunque, si studieranno modi piu' efficienti per riuscire a sfruttare meglio l'SMT, soprattutto sui multicore, con IA predittive che cercheranno di massimizzare l'accopramento delle istruzioni di piu' thread diversi, non da compilazione, insomma, ma in uso in quel momento, quindi decisamente vari e senza possibilità di effettuare un lavoro a monte prestabilito.
parliamoci chiaramente:
questi test sintetici non ti dicono tutta tutta la verità, perchè prendono a riferimento un programma alla volta ad alto uso intensivo.
le ottimizzazioni sono a monte, da compilatore e, nella migliore delle ipotesi, hai un x1.6 con STM.. è raro che riesci a sfruttare entrambe le linee di processamento in uso parallelo sul singolo core.
puoi pero' cercare di farlo su trhead concorrenti, di due applicazioni diverse, in quanto prima o poi 2 istruzioni semplici possono essere accorpate ad una complessa ed andare sul 2 vie in SMT.
ma sono solo 2.
i veri vantaggi li hai con 10, 100 applicativi insieme, piccoli, poco esigenti e vari... la statistica ti porterà sempre qualche istruzione semplice, che il compilatore non è riuscito ad accorpare ad un'altra dello stesso thread, di 2 distinti thread che possa essere accorpata in una ed eseguita in SMT...
ma non ci sei tu a dirigere i lavori e lo smistamento; chè un HW/SW, lo scheduler SW ed il decoder HW e li devi amministrare con un piglio intelligente in tempo reale... IA nelle CPU.
AMD l'ha citata, ma... fino a che punto è intelligente la sua IA, e come riesce ad essere intelligente?
perchè anche Intel, con la possibilità del turbo boost 3 non è che sbaglia...
ma anche lì da amministrare sapientemente mandando in esecuzione un treno di istruzioni single thread al core che puo' dare di piu', mentre gli altri li rallenti drasticamente.
insomma, miglioramenti ne vedremo con la gestione amministrativa della logica di processamento, riuscendo a massimizzare quel minimo x1.25 di SMT e portarlo ben piu' in alto, arrivando magari ad un fattore di parallelizzazione su piu' thread distinti di 1.7-1.8 medio...
è tanta roba quando moltiplichi per decine di core, perchè non è lineare, ma una curva logaritmica (dagli una pendenza ed un massimo piu' accentuati e vedi quanto guadagni).
sennò c'e' anche la possibilità di CPU ibride.
processore con core in order/ooo/duoble units/2 vie e 4 vie in una sola CPU, un po' come il big little o gli asic dedicati.
ma è piu' un modo per massimizzare le performance per watt (e poi diventano grandi)...
cambiare ISA? serve a poco... gli sprechi computazionali sull'ISA per prima cosa sono stati aggiunti (CISC to CRISC) seconda cosa parliamo di general pourpouse, dove ancora trovi istruzioni che si eseguono con 8 bit... e la flessibilità ha un costo.
comunque stiamo OT e alla fine faremo i soliti thread papiri.. non è spazio opportuno il commento in una news..
Opteranium
08-06-2017, 23:45
Il 1700 è tipo la cpu definitiva.. meno di 300 euro, lo porti senza sforzo a 3,6-3,7 ghz, non consuma niente e va come e più dei top gamma da mille euro
MaxFabio93
09-06-2017, 00:19
La cosa tragica è che quelli che vantano le prestazioni del 7700 sono gli stessi che in passato si lamentavano dell'assenza di AMD sul lato prestazionale imputandone la causa per la stasi del mercato maintream ferma ai 4 core e per il costo spropositato delle cpu da 6 e più core.
Adesso che c'è concorrenza in tutte le fasce e prezzi bassi per cpu da 6 e 8 core si lamentano che sono inutili.
Misteri dei giorni nostri.
Mah...infatti anche le critiche che si facevano allora lasciavano il tempo che trovavano, AMD era sicuramente indietro ma le infangate quotidiane erano assurde, era più il chiasso che facevano i disinformatori cronici in merito alle prestazioni piuttosto che dei sani test fatti alla mano (no bench).
E comunque nonostante tutto le CPU AMD degli anni passati erano e rimangono ottimi prodotti, a livello e qualità di produzione erano indietro ma molto buoni.
Le gpu amd lo hanno hardware (quindi scaldano e consumano di più) ma sfruttano meglio il multicore.
Nella tua testa forse :O
Il 1700 è tipo la cpu definitiva.. meno di 300 euro, lo porti senza sforzo a 3,6-3,7 ghz, non consuma niente e va come e più dei top gamma da mille euro
Il riassunto in un commento :D Solo un pazzo potrebbe spendere 1000 € per una CPU che ne vale neanche la metà.
il salto lo hai avuto dal core usato in double a quello usato in doble ma anche con 2 vie di processamento, da netbrust a SB.
altri salti cosi' non ci saranno che fra 10 anni, quando il software sarà piu' prodigo alla parallelizzazione.
in piu', come scritto, paghi l'assenza d'investimenti di 3 anni di stop (2012-2015) causa crisi.
Intel non ne ha sofferto piu' di tanto, ma gli altri si, e senza concorrenza non ti conviene piantare il chiodo, ma cavarlo, addrizzarlo e riusarlo.
nei prossimi anni, comunque, si studieranno modi piu' efficienti per riuscire a sfruttare meglio l'SMT, soprattutto sui multicore, con IA predittive che cercheranno di massimizzare l'accopramento delle istruzioni di piu' thread diversi, non da compilazione, insomma, ma in uso in quel momento, quindi decisamente vari e senza possibilità di effettuare un lavoro a monte prestabilito.
parliamoci chiaramente:
questi test sintetici non ti dicono tutta tutta la verità, perchè prendono a riferimento un programma alla volta ad alto uso intensivo.
le ottimizzazioni sono a monte, da compilatore e, nella migliore delle ipotesi, hai un x1.6 con STM.. è raro che riesci a sfruttare entrambe le linee di processamento in uso parallelo sul singolo core.
puoi pero' cercare di farlo su trhead concorrenti, di due applicazioni diverse, in quanto prima o poi 2 istruzioni semplici possono essere accorpate ad una complessa ed andare sul 2 vie in SMT.
ma sono solo 2.
i veri vantaggi li hai con 10, 100 applicativi insieme, piccoli, poco esigenti e vari... la statistica ti porterà sempre qualche istruzione semplice, che il compilatore non è riuscito ad accorpare ad un'altra dello stesso thread, di 2 distinti thread che possa essere accorpata in una ed eseguita in SMT...
ma non ci sei tu a dirigere i lavori e lo smistamento; chè un HW/SW, lo scheduler SW ed il decoder HW e li devi amministrare con un piglio intelligente in tempo reale... IA nelle CPU.
AMD l'ha citata, ma... fino a che punto è intelligente la sua IA, e come riesce ad essere intelligente?
perchè anche Intel, con la possibilità del turbo boost 3 non è che sbaglia...
ma anche lì da amministrare sapientemente mandando in esecuzione un treno di istruzioni single thread al core che puo' dare di piu', mentre gli altri li rallenti drasticamente.
insomma, miglioramenti ne vedremo con la gestione amministrativa della logica di processamento, riuscendo a massimizzare quel minimo x1.25 di SMT e portarlo ben piu' in alto, arrivando magari ad un fattore di parallelizzazione su piu' thread distinti di 1.7-1.8 medio...
è tanta roba quando moltiplichi per decine di core, perchè non è lineare, ma una curva logaritmica (dagli una pendenza ed un massimo piu' accentuati e vedi quanto guadagni).
sennò c'e' anche la possibilità di CPU ibride.
processore con core in order/ooo/duoble units/2 vie e 4 vie in una sola CPU, un po' come il big little o gli asic dedicati.
ma è piu' un modo per massimizzare le performance per watt (e poi diventano grandi)...
cambiare ISA? serve a poco... gli sprechi computazionali sull'ISA per prima cosa sono stati aggiunti (CISC to CRISC) seconda cosa parliamo di general pourpouse, dove ancora trovi istruzioni che si eseguono con 8 bit... e la flessibilità ha un costo.
comunque stiamo OT e alla fine faremo i soliti thread papiri.. non è spazio opportuno il commento in una news..
Il quadro che hai fatto ha un suo perchè.. soprattutto per la questione crisi ed investimenti bloccati.
Spero davvero tu abbia ragione!
Per quanto mi riguarda intanto sono nella situazione di non sentire assolutamente il bisogno di un pc aggiornato nonostante i sei anni di vita.. una cosa che non mi era mai capitata da quando smanetto!
L'anno prossimo con tutta probabilità mi appresterò a fare il secondo aggiornamento di scheda video sempre sullo stesso PC, anche qui novità assoluta!
sgrinfia
09-06-2017, 09:02
No, aspetta. Va benissimo il discorso che fai, sono assolutamente felice della nuova concorrenza che si è creata. E sono il primo a gioire per le convenienti soluzioni AMD, dovessi prendere un nuovo pc oggi certamente andei su ryzen.
Il mio è un discorso assolutamente generale che esula totalmente sia dalla questione prezzi che dalla questione intel vs amd.
In soldoni ho realizzato che l'unità di calcolo (il single core) non aumenta di prestazioni da almeno sei anni. Un dato che ritengo piuttosoto allarmante.. perchè se prima eravamo abituati a passare (per esempio) da due cores con potenza 10 a quattro cores con potenza 40, adesso ci troviamo a passare da quattro cores con potenza 40 a sei o otto cores ANCORA DI POTENZA 40.
Il che indica che siamo in pieno stallo tecnologico.
In pratica se cambiassi il pc ora mi troverei a passare da un core i7 2600 quad core ad un (per modo di dire) core i7 2600 ad otto cores..
In sostanza non riescono a migliorare il core e quindi aumentano di numero... per carità meglio di nulla, ma per i discorsi fatti prima sul multicore devo dire che non è proprio il top.. e soratutto sappiamo bene che non è un espediente che può andare avanti ad oltranza.
Si ti abbiamo capito, ma non pensare che tirare fuori IPC da una cpu sia cosi facile, evidentemente queste generazioni di cpu hanno raggiunto il loro limite e si compensa con un Oc di fabbrica;)
mah... io, col PC, di "pesante" ci faccio girare solo giochi (per lavoro uso le normali suite di produttività office ed altro di elaborazione grafica che comunque vanno alla grande pure su un i3 base). Non faccio editing video, CAD, elaborazioni e/o calcoli pesanti... quindi al momento intel per me è ancora la prima scelta...
Il rapporto prezzo/prestazioni/consumi sembra indicare il 1700 come best buy!
devilred
09-06-2017, 10:30
Link all'Articolo: http://www.hwupgrade.it/articoli/cpu/4920/amd-ryzen-7-e-ryzen-5-le-7-versioni-a-confronto-con-le-cpu-intel-core_index.html
Con la gamma di processori Ryzen 7 e Ryzen 5 AMD propone una completa serie di soluzioni per l'appassionato alla ricerca di un processore desktop di elevata: il debutto di queste CPU ha portato ad una radicale trasformazione, nel giro di pochi mesi, di un mercato che è stato di fatto guidato dalla sola Intel negli ultimi anni
Click sul link per visualizzare l'articolo.
elevata che!!!???? bah!!:muro: :muro:
Ma che dici?
Ascolta, fai quello che ti ho detto. Usa una CPU con 4 core (dico 4, non 1) a 1GHz. E' sufficientemente "larga" per gestire tutti thread che un PC casalingo genera. Il tempo di eseguirli però è tutt'altra cosa. Poi mi dici.
A nessuno interessa cosa? Interessa che quando pigia su una combo box più grande di 10 elementi debba aspettare mezzo secondo? Che quando clicca in una casella Excel prima che si attivi impieghi 400ms? Che quando comincia a scrivere la formula i suggerimenti arrivino prima di un secondo? Che quando selezioni il testo e cambi la font non ci impieghi 2 secondi a rinfrescare la pagina? Queste sono tutte operazioni monothread e se non aumenti in qualche modo la velocità in ST rimai a questo livello per il resto della tua vita. E' questo che stai suggerendo?
Stai riscrivendo le regole di interazione con la macchina, quelle che rendono una buona macchina una buona macchina per l'utente e non solo una macchina veloce.
Il caricamento dei dati da una memoria esterna non c'entra nulla con le prestazioni ST o MT. Tanto che se hai anche mille core a 10GHz sempre lo stesso tempo ci metti.
In verità è un approccio che ha scelto AMD. Intel risponde solo perché in termini di marketing 8 core sono meno di 4 e sulle brochure fa brutto.
Tempo fa cdmauro aveva detto che i 10nm erano in perfettamente in linea con i tempi di sviluppo previsti, che la produzione a 14nm appena avviata non aveva problemi, che gli Atom erano pronti a sbaragliare il mercato mobile con le loro prestazioni superiori e i consumi inferiori, che le Xeon Phi avrebbero raso al suolo il mercato delle GPU nell'HCP e altre cosucce.
L'IPC si può aumentare. Serve cambiare radicalmente l'ISA. Serve che Intel e AMD si siedano ad un tavolo e comincino a pensare di modificarla piano piano adeguando compilatori.
Se ci avessero pensato quando è stata lanciata l'estensione a 64bit ora avremmo CPU che eseguirebbero istruzioni diverse, magari con più parallelismo interno e magari anche con il supporto di unità aggiunte esterne come avviene nei SoC (dove tutto il lavoro non è a carico della semplice CPU centrale). O magari un ISA RISC più vicina al microcode eseguite in realtà dalla CPU dopo la traduzione delle istruzioni x86. Un sacco di cose si possono fare se si vuole e non ci si addormenta sugli allori godendo del vantaggio sulla concorrenza e dell'inerzia del mercato (che poi i risultati reali sono diversi da quelli raccontati da cdmauro mica per niente).
Invece a parte le estensioni per i calcoli vettoriali (queste sì, utili a pochi) siamo sempre qui ad eseguire lo stesso codice degli anni '70 o poco più.
C'è stato un miracolo sull'ST perché Intel ha cambiato radicalmente il modo di eseguire le istruzioni usando un traslatore a istruzioni molto più efficienti di quelli x86 che ora vengono rielaborati in sequenze migliori (e abbandonando l'idea di pipeline lunghe come piste di aeroporti, per agganciarsi alla similitudine detta prima).
Dopo quel'illuminazione... il nulla. Sono 15 anni che siamo fermi. Dal Core2 a oggi l'IPC è forse raddoppiato (il numero di transistor integrati invece è circa 100 volte tanto).
AMD non ha fatto nessun avanzamento dell'IPC che sia di aiuto (se non a lei stessa). Era rimasta al tempo della pietra e adesso è quasi allineata con la tecnologia moderna, ma non ha aiutato l'architettura x86 a rompere nuove barriere e l'anno prossimo, a parte i core in più, avremo gli stessi PC che vanno come l'anno precedente. Anzi, visto i bench per chi non usa mille mila thread, andranno pure meno.
Stai estremizzando prendendo ad esempio un Atom che era una cpu estremante lenta anche al debutto.
Per questo ho debitamente ignorato questa parte del tuo commento.
Qui si parla di ben altro.
Il tempo di caricamento da memoria esterna e relativa latenza (vedi ssd), prestazioni della cache, memoria e relative latenze, secondo te non hanno nulla a che fare con l'esperienza d'uso con applicazioni soprattutto ST?
Ti sbagli.
Come ho già detto, quelle applicazioni con Excel che hai citato, non ti cambiano di una virgola l'esperienza d'uso, sia se usi un i5-2500k che un i7-6950K.
Sono troppo "brevi" seppur ripetitive, per far sentire il bisogno di maggiori prestazioni ST.
Lancia qualcosa di più complesso, che richiede tempi di elaborazione "tangibili", parlo di minuti e ore e non secondi, e lì CHIUNQUE noterà quanto è migliorata l'esperienza d'uso.
Aggiungendo poi che è il sw che si adatta all'hw disponibile e previsto, non viceversa.
Ciò che è facilmente parallelizzabile viene già e verrà aggiornato.
Ciò che intrinsecamente non lo è, non subirà stravolgimenti.
Puoi urlare alla luna, alla fossilizzazione del mercato ed all'incapacità d'Intel ed Amd, ma è vano aspettarsi miracoli.
L'approccio del multicore l'ha scelto Intel tanto quanto Amd (in realtà anche il mondo mobile), ora si assiste solo ad un accelerazione per via di una maggiore competitività dei prodotti Amd.
E l'approccio avuto da Amd allo scaling multicore e all'SMT sui Ryzen, direi che ha qualcosa da insegnare.
Cambiare l'ISA x86 è pura utopia, non lo faranno mai.
Nessuno vuole una cosa del genere, i produttori di hw e di sw.
Poi chissà, magari tra 10 anni staremo qui a parlare solo di ARM e derivati, chi può dirlo ora.
L'aggiunta di estensioni per usi specifici e numero di core è la strada che verrà seguita.
Ci sarà in futuro una maggiore "interazione" tra cpu e gpu, complice il sw, magari anche con tutto quanto integrato nel soc, ma nessuno stravolgimento.
MiKeLezZ
09-06-2017, 11:07
che puoi lanciare + istanze in contemporanea? solo un esempio, che mentre lui crea tu puoi fare altro, tu sei single thread o dual core? io sono multi...
Battute a parte ho capito il tuo punto di vista, e le cpu x te gia ci sono, ti pigli un 2core lo porti a 5ghz e sei felice.....ma lo ripeto x l'utente normale che scarica guarda la posta aggiorna un software ecc contemporaneamente la vedo molto ripeto molto meglio multicore
ps rileggendo la tua risposta ...concordo con te al 100% sul discorso equilibrioMi sa che alcuni non hanno ben chiaro come funzioni un computer:
1) I GHz della CPU (singolo core) hanno una precisa valenza ed è quella di 1 MILIARDO di cicli al secondo, che corrispondono a 100 MILIONI di istruzioni al secondo, che corrispondono a MIGLIAIA di operazioni complesse al secondo.
2) Anche per le operazioni più stupide (o per lo stare in idle) il SO crea decine e decine di thread i quali sono gestiti facilmente da un singolo core, che nell'arco del secondo può eseguire migliaia di operazioni.
3) Il multicore non serve quindi strettamente per fare multithreading. Non è che se ho 10 programmi aperti mi servono 10 core. Anche perché in realtà io con 10 programmi non ho 10 operazioni da gestire, ma centinaia se non migliaia. Affermazioni come "per l'utente normale che contemporaneamente scarica, guarda posta, aggiorna un software serve un multicore" sono enormi cavolate. Con un dual core io ho 3-4 programmi aperti e 35 tab in chrome SEMPRE. L'utente medio (office, facebook, chrome) non ha bisogno di più di un 2 core e il videogiocatore di 4 (ma decenti, ovviamente).
4) Per migliorare il multithreading serve SOLO potenza computazionale, non necessariamente un numero elevato di core. Questa la si ottiene o con l'IPC (numero di istruzioni processate nell'unità di tempo), o con elevate frequenze oppure, ma il software deve supportarlo e vi sono limiti di scalabilità, con il multicore. Un processore ARM da 8 core con un IPC e frequenze scarse avrà una capacità singlethreading e multithreading PEGGIORE di un semplice dual core con elevato IPC e frequenza. L'esempio più banale sono gli dual core usati da Apple nei cellulari in confronto con gli A53 di Qualcomm nella fascia bassa (8 core). Ma anche la CPU Jaguar integrata in PS e XBOX che, pur essendo a 8 core, è paragonabile in potenza (quindi parliamo anche di MULTITHREADING) a un Dual Core Intel. Sono scelte di design.
5) La corsa ai multicore è, come correttamente detto ieri, figlia dello stallo tecnologico che si è raggiunto sia in termini di IPC che di frequenze operative. L'evoluzione invece che perdura nelle tecnologie produttive (14, 10, 7 e in futuro anche 5 nm) favorisce l'implementazione di un maggior numero di transistor e quindi il passo successivo non può che esser il raddoppio di core e la trasformazione delle odierne CPU in system on chip (quindi oltre a vga e memory controller, integrare usb, pcie, sata e via dicendo... insomma, esattamente come avviene in Ryzen).
Comunque ragazzi vero che considerati gli anni da un sandy bridge a Kabylake a pari core il salto è marginale, ma bisogna dire che l'uso dei thread e le latenze hanno subito un salto enorme a pari potenza di calcolo, probabilmente in encoding puro siamo li utilizzando le stesse istruzioni ma in gaming tra un 7600 stock e la mia cpu 2500K a 4.6-4.8ghz la differenza è consistente, i sandy bridge date le latenze, e un l'uso dei thread non proprio cosi efficiente fa avere diversi colli...
Ovviamente anche paragonati alle cpu ryzen...
anni fà si parlava di virtualizzazione diretta.
non importava chi o cosa processava, ma il sistema vedeva una sola CPU ad un solo core, il tutto veniva poi tradotto e usato su diverse risorse.
era prima ancora di HT Intel, se ricordo un paio d'anni prima...
questo pero' comportava perdite di potenza pura nell'ordine del 50% ed oltre...
vuoi aumentare il ST?
usi una CPU x86, non un RISC ma un vero CISC, con solo la questione che estendi il codice a 256 bit, ma stavolta inserendo ogni singolo algoritmo d'istruzione sul silicio, anzi, magari anche in aggregazione, come in effetti si fà su SMT... salti insomma tutti i passaggi di decodifica e ricodifica, ma hai un mattonellone da piastrella del bagno e zero convenienza.
faccio una CPU single thread piu' grossa di un quad core?
solo 1 istruzione su 8, a dir tanto, si avvantaggerebbe di questa scelta procedurale, e comunque sempre a 5ghz sei fermo.
faccio un RISC SMT a 4 vie?
devo rifar compilare tutti i codici e comunque non hai cosi' tante istruzioni per massimizzare un 4 vie (256b) general purpose...
in SMT a 2 vie aumenti lo spazio di 2.5 volte e guadagni 1.6 medio, con punte
a 1.9, ma con minimi, e sulle ST, a 1.2...
in un 4 vie il massimo lo avrai a x3, ed il minimo a 1.1, mentre lo spazio occupato sarà di 6 volte....
CMS era un bel progetto... peccato che nessuno l'ha sfruttato realmente a dovere.... un core a singola via (doble con repliche di unità base) capace di arrivare tranquillamente a 5ghz a 32nm....
ma non è che puoi stravolgere tutti i software perchè cosi' è meglio...
Tutti i tentativi che in qualche modo tagliano col parco sw esistente, falliscono miseramente, a meno che non siano rivolti ad una ristrettissima cerchia professionale (ed anche lì, Itanium insegna).
E' inutile pensare a stravolgimenti con le x86: aggiungono istruzioni sì, ottimizzazioni qua e là, ma sono sempre piccoli step se guardiamo al singolo core.
Ho detto prima che il sw che si adatta hw.
Ma ho mancato nello scrivere che non è che l'hw può "partire per la tangente" sperando che i programmatori ti vengano dietro.
L'approccio multicore è quello più logico, dal punto di vista dello sfruttamento delle risorse progettuali e produttive.
Un approccio seguito anche in ambito mobile e non è un caso.
Tutti i tentativi che in qualche modo tagliano col parco sw esistente, falliscono miseramente, a meno che non siano rivolti ad una ristrettissima cerchia professionale (ed anche lì, Itanium insegna).
E' inutile pensare a stravolgimenti con le x86: aggiungono istruzioni sì, ottimizzazioni qua e là, ma sono sempre piccoli step se guardiamo al singolo core.
Ho detto prima che il sw che si adatta hw.
Ma ho mancato nello scrivere che non è che l'hw può "partire per la tangente" sperando che i programmatori ti vengano dietro.
L'approccio multicore è quello più logico, dal punto di vista dello sfruttamento delle risorse progettuali e produttive.
Un approccio seguito anche in ambito mobile e non è un caso.
Concordo, in realtà proprio l'ambito mobile ne beneficia se si pensa alla molteplicità di apps e servizi in background...
Parlando di prestazioni del SINGLE CORE l'aumento negli ultimi sei e passa anni è purtroppo ridicolo.
Il mio 2600K (CPU di sei anni fa) overcloccato in maniera ignorante a 4.3ghz (quindi in modo davvero easy senza magheggi o rinunce di alcun genere) ha un scoring single core che sta sotto un 7700K (4.2 Ghz) di uno sputo.. meno del 5%. E sono passati SEI ANNI.
Però il 7700k consuma quasi la metà del tuo 2600k overcloccato
:eek:
L'ST non importa a nessuno?
Ma non avete capito che ormai è un problema di tecnologia produttiva, che più di tanto i clock non si possono alzare ?
Però il 7700k consuma quasi la metà del tuo 2600k overcloccato
Vero.
Il consumo e l'ottimizzazione sono migliorati.. ma le prestazioni pochissimo.
In passato il cambio di PC dopo cnque anni di uso segnava un divario prestazionale enorme sotto tutti gli aspetti.
Poi, piccola considerazione a latere, ai consumi ci bado quando faccio una server farm.. per il pc di casa mia una manciata di watt in più o i meno sono cosa pressochè irrisoria.
Nella tua testa forse :O
E' esattamente così, vai su qualsiasi video online stile rx 580 vs 1060 che mostri l'utilizzo della cpu su youtube ;) (tranne quelli con utilizzo cpu 100%).
quindi al momento intel per me è ancora la prima scelta...
Bella la cpu bottleneckata però ve? :asd:
Portocala
09-06-2017, 12:58
Sono passato dal i5-4570 al i7-4790K.
Secondo voi, per uso prettamente gaming (ma sto valutando il video editing) sarebbe stato meglio cambiare piattaforma e passare a Ryzen o considerando i 100 euro di passaggio da i5 a i7, avrei avuto pochi benefici?
Il 1600 non sembra affatto male.
Sono passato dal i5-4570 al i7-4790K.
Secondo voi, per uso prettamente gaming (ma sto valutando il video editing) sarebbe stato meglio cambiare piattaforma e passare a Ryzen o considerando i 100 euro di passaggio da i5 a i7, avrei avuto pochi benefici?
Il 1600 non sembra affatto male.
Considerando il costo delle ram in un nuovo sistema, hai fatto un buon upgrade prezzo/prestazioni quindi vai tranquillo, sopratutto in ambito gaming problemi non ne hai...
Io per ora aspetto un pò, sopratutto per vedere come si evolve la situazione bios per le AM4 :)
Il periodo di cui parli tu era il rinascimento dell'informatica mentre adesso servono affinamenti molto complessi e che richiedono investimenti ingenti per miglioramenti di pochi punti percentuali.
Eh oddio.. mica troppo eh. Deci anni fa scarsi era ancora così.
E' l'ultimo salto apprezzabile che ho sperimentato nel cambiare pc nel 2011.
Ovvero quando ho cambiato l'athlon64 X2 4400+ (aquistato nel 2006) con l'attuale core i7 2600k.
E stessa cosa prima ancora quando cambiai il suo predecessore Athlon 1.1Ghz
E prima ancora cambiando il Pentium 200 mhz
E prima ancora cambiando il glorioso 386SX 25mhz :D
La cosa che impatta maggiormente comunque è proprio l'aumento di frequenza:
25 mhz
200 mhz
1.1 ghz
2.2 ghz
3.4 ghz
Sono passato dal i5-4570 al i7-4790K.
Secondo voi, per uso prettamente gaming (ma sto valutando il video editing) sarebbe stato meglio cambiare piattaforma e passare a Ryzen o considerando i 100 euro di passaggio da i5 a i7, avrei avuto pochi benefici?
Il 1600 non sembra affatto male.
Direi che potevi pure tenerti i5.. anyway se ormai hai cambiato CPU va comunque benissimo.
Riallacciandomi a tutti i discorsi sulla crescita di prestazioni sostanzialmente nulla direi che avendo già un pc con tale hardware è assolutamente da escludere un cambio di pc. Che sia ryzen o intel.
Con un i7 4790K stai sereno e felice ancora per due o tre anni MINIMO.
Non solo coi giochi ma anche con l'attività di montaggio video.
Se proprio vuoi ottimizzare fai un minimo di OC sulla tua nuova cpu come ho fatto io col ben più stagionato 2600K :)
tuttodigitale
09-06-2017, 15:35
Tempo fa cdmauro aveva detto che i 10nm erano in perfettamente in linea con i tempi di sviluppo previsti, che la produzione a 14nm appena avviata non aveva problemi, che gli Atom erano pronti a sbaragliare il mercato mobile con le loro prestazioni superiori e i consumi inferiori, che le Xeon Phi avrebbero raso al suolo il mercato delle GPU nell'HCP e altre cosucce.
L'IPC si può aumentare. Serve cambiare radicalmente l'ISA. Serve che Intel e AMD si siedano ad un tavolo e comincino a pensare di modificarla piano piano adeguando compilatori.
Se ci avessero pensato quando è stata lanciata l'estensione a 64bit ora avremmo CPU che eseguirebbero istruzioni diverse, magari con più parallelismo interno e magari anche con il supporto di unità aggiunte esterne come avviene nei SoC (dove tutto il lavoro non è a carico della semplice CPU centrale). O magari un ISA RISC più vicina al microcode eseguite in realtà dalla CPU dopo la traduzione delle istruzioni x86. Un sacco di cose si possono fare se si vuole e non ci si addormenta sugli allori godendo del vantaggio sulla concorrenza e dell'inerzia del mercato (che poi i risultati reali sono diversi da quelli raccontati da cdmauro mica per niente).
Invece a parte le estensioni per i calcoli vettoriali (queste sì, utili a pochi) siamo sempre qui ad eseguire lo stesso codice degli anni '70 o poco più.
1) ti pare possibile che se x86 facesse così schifo e fosse così penalizzante sull prestazioni, la CPU con il più alto IPC sarebbe Intel?
2) diverse istruzioni X86, non possono essere usate in modalità a 64bit fin dall'introduzione dell'athlon 64..
3) x86 ha comunque un enorme vantaggio....da una parte è vero che si appesantisce la decodifica, dall'altra si alleggerisce grazie alla potenza espressiva delle istruzioni il carico sulle cache.
comunque per la ripulitura del codice non ci vuole chissà che: oltre l'essere d'accordo da parte di Intel e di AMD (anche se ricordo che AMD ha dovuto cancellare il supporto alle SSE5, perchè Intel aveva fatto una scelta diversa, alla fine è la casa di SantaClara che detta legge) basterebbe da parte dei vecchi SO non supportare le CPU più recenti, e prevedere un traduttore all'interno dell'OS, tipo Rosetta, con perdite prestazionali assai più contenute rispetto alla traduzione dall'architettura Power a quella X86..
di aeroporti, per agganciarsi alla similitudine detta prima).
Dopo quel'illuminazione... il nulla. Sono 15 anni che siamo fermi. Dal Core2 a oggi l'IPC è forse raddoppiato (il numero di transistor integrati invece è circa 100 volte tanto).
detto così è una cazz@ta... il numero di transistor non compongono mica il core (non ho voglia di controllare, ma probabilmente un core Prescott ha un numero di transistor maggiore di Haswell, ....), ma semmai interessano cose minori come la L2 e la L3, che consumano solo un inerzia...
aumento resosi necessario, dal fatto che mentre le CPU hanno aumentato la loro frequenza di clock, le RAM hanno mantenuto le stesse alte latenze...Volendo o non, un aumento delle prestazioni è inimmaginabile averlo senza mascherare ancora di più l'alto tempo di accesso della memoria centrale.
questo lato CPU vecchio stampo.
Oggi anche una CPU "pura" come Ryzen, ha il 54% del die occupato da componenti estranei a conroe: bus punto-punto, pci express, south bridge, memory controller...
PS non ricordo nessuna modifica radicale al TLB...anzi a ben vedere è stato prescott ad introdurre la condivisione di questa cache tra 2 threads all'interno del core (in northwood era separato)
Di Conroe mi ricordo tra i grandi aggiornamenti (l'architettura di partenza è dothan, non il P4): la FPunit, le macro-op fusion, e i 4 decoder...hanno aumentato il FO4 della microarchitettura, ma hanno compensato questo con l'utilizzo di FF ad alta velocità (alta complessità ed alto consumo) già usati nel P4.
PPS stando a David kanter, ZEN ha comunque i suoi 19 stadi....
complimenti, bellissimo articolo.
Grazie per tutto il grande lavoro che c'è dietro...
Marckus87
09-06-2017, 19:18
insomma meglio amd a mani basse, c'è voluto un po di anni ma alla fine amd coviene e neppure poco
Scusate ma nel test handbrake con HEVC avete attivato il Quick Sync di Intel, in modo da sfruttare l'accelerazione hardware della CPU?
Piedone1113
09-06-2017, 20:01
No, aspetta. Va benissimo il discorso che fai, sono assolutamente felice della nuova concorrenza che si è creata. E sono il primo a gioire per le convenienti soluzioni AMD, dovessi prendere un nuovo pc oggi certamente andei su ryzen.
Il mio è un discorso assolutamente generale che esula totalmente sia dalla questione prezzi che dalla questione intel vs amd.
In soldoni ho realizzato che l'unità di calcolo (il single core) non aumenta di prestazioni da almeno sei anni. Un dato che ritengo piuttosoto allarmante.. perchè se prima eravamo abituati a passare (per esempio) da due cores con potenza 10 a quattro cores con potenza 40, adesso ci troviamo a passare da quattro cores con potenza 40 a sei o otto cores ANCORA DI POTENZA 40.
Il che indica che siamo in pieno stallo tecnologico.
In pratica se cambiassi il pc ora mi troverei a passare da un core i7 2600 quad core ad un (per modo di dire) core i7 2600 ad otto cores..
In sostanza non riescono a migliorare il core e quindi aumentano di numero... per carità meglio di nulla, ma per i discorsi fatti prima sul multicore devo dire che non è proprio il top.. e soratutto sappiamo bene che non è un espediente che può andare avanti ad oltranza.
Mi sono andato a rivedere un poco di test ed ho notato che:
I7 2600k 100
I7 7700K 140
Ora tu mi diresti:
Ok, ma il boost è dovuto anche e sopratutto alla frequenza.
Dici bene, ma per salire di frequenza bisogna modificare i core per farli girare in alto, altrimenti potresti tirare di più l'ipc sacrificando il clock.
Probabilmente intel ha reputato più economico e pratico aumentare la frequenza rilassando un poco i timing di switch in modo da perdere qualcosa nell'ipc teorico più che compensando con la frequenza.
Facile che con il 7700 ivece che più 15% vs 2600 si avrebbe potuto avere + 25%, ma non spostandosi dalle frequenze del 2600 e con una superfice maggiore.
Tecniche segrete, economiche e pronte per aumentare l'ipc non ci sono, ma se non si guarda il prezzo di vendita finale, con la certezza di vendere un quad x86 a 2000$ al pezzo, probabilissimo che sia intel che amd potrebbero offrirti una cpu quad core dalle prestazioni doppie rispetto ad un 2600.
Prestazioni che si avrebbero solo con alcuni tipi di istruzioni, perche se per una somma il tempo utile è gia un ciclo, non è che puoi tirarne fuori 2.
Se da Roma a Firenze l'autostrada è la più corta possibile (migliorando qualche curva qua e la) o fai andare le macchine più veloci (frequenza) oppure aumenti le corsie.
Va da se che se non sia in comitiva (con più auto) non hai vantaggi nello sfruttare una cpu con più core, ma quando aumenta il traffico (più th e processi concorrenti) con un 4 core stai stretto, con un otto stai più largo.
Va da se che se viaggi solo di domenica non preferiale (programmi st) non noterai il vantaggio di avere 4 corsie invece che due, praticamente viaggi sempre in solitaria e non devi aspettare che si liberi la strada per passare.
giovanbattista
09-06-2017, 20:06
Mi sa che alcuni non hanno ben chiaro come funzioni un computer:
1) I GHz della CPU (singolo core) hanno una precisa valenza ed è quella di 1 MILIARDO di cicli al secondo, che corrispondono a 100 MILIONI di istruzioni al secondo, che corrispondono a MIGLIAIA di operazioni complesse al secondo.
2) Anche per le operazioni più stupide (o per lo stare in idle) il SO crea decine e decine di thread i quali sono gestiti facilmente da un singolo core, che nell'arco del secondo può eseguire migliaia di operazioni.
3) Il multicore non serve quindi strettamente per fare multithreading. Non è che se ho 10 programmi aperti mi servono 10 core. Anche perché in realtà io con 10 programmi non ho 10 operazioni da gestire, ma centinaia se non migliaia. Affermazioni come "per l'utente normale che contemporaneamente scarica, guarda posta, aggiorna un software serve un multicore" sono enormi cavolate. Con un dual core io ho 3-4 programmi aperti e 35 tab in chrome SEMPRE. L'utente medio (office, facebook, chrome) non ha bisogno di più di un 2 core e il videogiocatore di 4 (ma decenti, ovviamente).
4) Per migliorare il multithreading serve SOLO potenza computazionale, non necessariamente un numero elevato di core. Questa la si ottiene o con l'IPC (numero di istruzioni processate nell'unità di tempo), o con elevate frequenze oppure, ma il software deve supportarlo e vi sono limiti di scalabilità, con il multicore. Un processore ARM da 8 core con un IPC e frequenze scarse avrà una capacità singlethreading e multithreading PEGGIORE di un semplice dual core con elevato IPC e frequenza. L'esempio più banale sono gli dual core usati da Apple nei cellulari in confronto con gli A53 di Qualcomm nella fascia bassa (8 core). Ma anche la CPU Jaguar integrata in PS e XBOX che, pur essendo a 8 core, è paragonabile in potenza (quindi parliamo anche di MULTITHREADING) a un Dual Core Intel. Sono scelte di design.
5) La corsa ai multicore è, come correttamente detto ieri, figlia dello stallo tecnologico che si è raggiunto sia in termini di IPC che di frequenze operative. L'evoluzione invece che perdura nelle tecnologie produttive (14, 10, 7 e in futuro anche 5 nm) favorisce l'implementazione di un maggior numero di transistor e quindi il passo successivo non può che esser il raddoppio di core e la trasformazione delle odierne CPU in system on chip (quindi oltre a vga e memory controller, integrare usb, pcie, sata e via dicendo... insomma, esattamente come avviene in Ryzen).
non ho mai scritto che serve;) non mettermi in "bocca" parole non dette grazie
Cmq IO preferisco un multicore discreto a freq + rilassate che l'opposto, e per rispondere a quello della cpu a 1ghz il mio notebook 6700HQ di cpu (4core 8 thread) con risparmio energia al max viaggia a 1400mhz e faccio tutte le cazzatine senza impuntamenti meglio che con il dual core 2 thread a 3ghz....(lasciando stare i consumi)....cmq io valuto in base alle mie esigenze e dopo una prova empirica, dico la mia.:read:
Il mio pc se avesse 32 core mi bacerei le manine pure a 2ghz di freq massima
poi tutta questa pippa x dire che ryzen procio con + core ma freq + rilassate è la strada intrapresa (i motivi tecno/silicio poco mi fregano per quanto affascinanti) e il software andrà nell'altra a rigor di logica ;) ironia on
lasciamo stare le tue competenze che ho già letto alcuni tuoi interventi in passato e vinci a mani basse;) come preparazione tecnica in materia.....sempre se non ricordo male
Ciao
MaxFabio93
09-06-2017, 21:39
E' esattamente così, vai su qualsiasi video online stile rx 580 vs 1060 che mostri l'utilizzo della cpu su youtube ;) (tranne quelli con utilizzo cpu 100%).
Intendevo la temperatura delle GPU AMD che stranamente sono sempre più calde delle altre...
Sì, recensione utile per chi non overclocca.
riuzasan
10-06-2017, 17:43
Dopo un articolo cosi ben fatto e le palate di "silenzio" sparate sui fanboy di uan parte, gli stessi intervengono con argomenti di interesse nel tread prossime allo zero.
Ok se volete le prestazioni in ST andate ed un tread "Il mio Winuae fa solo 480fps in f18 interceptor e il mio clang++ compila in 12 secondi 100K di linee di codice con chiamate a destra e manca (anche se ci sono N milioni di modi per sfruttare il multitread in progetti già di medie dimensioni ...)"
Nel mentre se adesso qualcuno si volesse prendere un PC nuovo, con un buon IPC, un bel MT, e ANCHE per giocare alle risoluzioni/qualità a cui di solito si gioca sopra i 800e di spesa totale, un processore Ryzen offre finalmente una alternativa valida e spesso preferibile a parità di costo con gli Intel.
felice possessore di R5 1600 che con dissi stock sta a 3.6ghz 1.2 di vcore, pagato 215€, sono una manna dal cielo ste CPU in un era dove si gioca, si stremma si registra e si fa editing.
Una domanda: utilizzando 4 moduli ram su piattaforma AM4 ho visto che è impossibile andare oltre i 2666MHz, vorrei sapere se questo limite è dovuto ai bios non ancora ottimizzati oppure è un limite fisico della piattaforma. Ringrazio in anticipo
Piedone1113
11-06-2017, 10:47
Una domanda: utilizzando 4 moduli ram su piattaforma AM4 ho visto che è impossibile andare oltre i 2666MHz, vorrei sapere se questo limite è dovuto ai bios non ancora ottimizzati oppure è un limite fisico della piattaforma. Ringrazio in anticipo
C'è gente che su Asus x370 è arrivato a 3200 su 4 banchi ( bdie Samsung).
Man man che escono BIOS nuovi aumenta sia la compatibilità ram che la frequenza ( in diversi usando hynix sono passati da 2133 a 2400 a 2666 fino a 3200 su 2 banchi)
Rimane ancora il problema dei timing dispari ( si sale non timing pari) ma credo che verrà fidato anche questo in futuro.
C'è gente che su Asus x370 è arrivato a 3200 su 4 banchi ( bdie Samsung).
Man man che escono BIOS nuovi aumenta sia la compatibilità ram che la frequenza ( in diversi usando hynix sono passati da 2133 a 2400 a 2666 fino a 3200 su 2 banchi)
Rimane ancora il problema dei timing dispari ( si sale non timing pari) ma credo che verrà fidato anche questo in futuro.
Grazie della risposta, informazione che può essere utile ad altri, su gigabyte ab350 gaming3 le memorie g.skill trident z F4-3200C14Q-32GTZ (8 GB x 4 moduli) anche con BIOS beta f7 (agesa 1.0.0.6) la massima frequenza è ad oggi 2666 (i timings sono quelli corretti,)
The_Hypersonic
12-06-2017, 10:29
Si conferma la mia decisione di acquistare un R5 1600X con l'abbassamento dei prezzi annunciato nei giorni scorsi. Con quello che risparmio, vendendo la mia GTX970 Galax Black EXOC, prendo una 1070 e per un paio di anni si dovrebbe star tranquilli.
Si conferma la mia decisione di acquistare un R5 1600X con l'abbassamento dei prezzi annunciato nei giorni scorsi. Con quello che risparmio, vendendo la mia GTX970 Galax Black EXOC, prendo una 1070 e per un paio di anni si dovrebbe star tranquilli.
quando dovrebbe esserci questo abbassamento di prezzo?
salve gente, giusto per capire, un i7 4770K dove si collocherebbe nella classifica? Ad es. rispetto un i5-7600K - i5-7500 - i7-6700K ?
grazie
Portocala
14-06-2017, 12:25
In che ambito?
A parità di frequenza:
Gaming: quasi alla pari con tutti (poi cambia da gioco a gioco, se CPU heavy superiore agli i5)
Produttività: superiore agli I5, inferiore all'i7.
In che ambito?
A parità di frequenza:
Gaming: quasi alla pari con tutti (poi cambia da gioco a gioco, se CPU heavy superiore agli i5)
Produttività: superiore agli I5, inferiore all'i7.
era per capire come si posizionava nei grafici dell'articolo, rispetto agli intel di nuova generazione e gli AMD Ryzen. Per dire, se si comporta mediamente con un i5-7600K o altro, giusto per confronto...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.