AMD Ryzen 7 e Ryzen 5: le 7 versioni a confronto con le CPU Intel Core

Con la gamma di processori Ryzen 7 e Ryzen 5 AMD propone una completa serie di soluzioni per l'appassionato alla ricerca di un processore desktop di elevata: il debutto di queste CPU ha portato ad una radicale trasformazione, nel giro di pochi mesi, di un mercato che è stato di fatto guidato dalla sola Intel negli ultimi anni
di Paolo Corsini pubblicato il 08 Giugno 2017 nel canale ProcessoriAMDRyzen
90 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoVLOOKUP se davvero è single thread è la dimostrazione che più delle volte, c'è una mancanza o di volontà o di esigenze per sfruttare interamente l'HW.....
Oh cacchio perchè amd non caccia una cpu in grado di confrontarsi con il 6900 che sta a 1000€ in modo che calano i prezzi e posso acquistarla a 800?
E adesso che c'è una cpu da 500€ che offre le stesse prestazioni di un 6900 non va bene lo stesso perchè intel non ha abbassato il listino ( e di comprare AMD non me lo sogno nemmeno), allora diventano inutili 8 core (hai presente la la volpe?)
Da un discorso con Cdimauro siamo arrivati alla conclusione che incrementare l'ipc medio del 20% comporta un più che raddoppio delle dimensioni del core di una cpu x86, molto più semplice raddoppiare i core ed avere un aumento del 50% medio sulla media dell'uso delle cpu highperformance (perchè a chi serve un ipc doppio in st per più di un ora al giorno sono in pochissimi, mentre in moltissimi hanno bisogno di più core, sopratutto a chi spende di più in parco macchine).
Tu cosa faresti una cpu che copre il 20% del fatturato totale o una che ne copre il 60%?
No, aspetta. Va benissimo il discorso che fai, sono assolutamente felice della nuova concorrenza che si è creata. E sono il primo a gioire per le convenienti soluzioni AMD, dovessi prendere un nuovo pc oggi certamente andei su ryzen.
Il mio è un discorso assolutamente generale che esula totalmente sia dalla questione prezzi che dalla questione intel vs amd.
In soldoni ho realizzato che l'unità di calcolo (il single core) non aumenta di prestazioni da almeno sei anni. Un dato che ritengo piuttosoto allarmante.. perchè se prima eravamo abituati a passare (per esempio) da due cores con potenza 10 a quattro cores con potenza 40, adesso ci troviamo a passare da quattro cores con potenza 40 a sei o otto cores ANCORA DI POTENZA 40.
Il che indica che siamo in pieno stallo tecnologico.
In pratica se cambiassi il pc ora mi troverei a passare da un core i7 2600 quad core ad un (per modo di dire) core i7 2600 ad otto cores..
In sostanza non riescono a migliorare il core e quindi aumentano di numero... per carità meglio di nulla, ma per i discorsi fatti prima sul multicore devo dire che non è proprio il top.. e soratutto sappiamo bene che non è un espediente che può andare avanti ad oltranza.
Le gpu nvidia hanno uno scheduler software che per forza di cosa privilegia prestazioni single core.
Le gpu amd lo hanno hardware (quindi scaldano e consumano di più
senza dati non si puo' ipotizzare, ed in giro se ne trovano pochi e non nelle stesse condizioni, quindi inutilizzabili.
dato verificato, dato vero.
se hai troppa roba si bypassa.
vai in VB e fai una macro in elenco normale, cambi la primitiva e te ne freghi di VLOOKUP se il dataset è esteso...
occupi spazio, ma chissenefrega... cosi' riesci a farlo senza piantare la CPU nelle tabelle.
ostinarsi ad usare una finzione precompilata solo perchè già la hai su una cosa che va bene per una manciata di situazioni è volersi male....
Il che indica che siamo in pieno stallo tecnologico.
non è tutto questo, demon...
ieri avevi una potenza 40 spendendo 200, perchè normalmente era settato per 30=100, il resto lo ottenevi forzando i parametri ed arrivando al limite fisico del singolo chip;
oggi hai una potenza 40 di default, al massimo 45 se sfrutti il chip, ma 40 li fai spendendo 50.
il progresso tecnologico in produzione, dove ieri passavi da 130 a 90, mentre oggi passi da 14 a sempre 14 con uno strato un po' piu' spesso, ultimamente si è sempre piu' spostato sulla massima prestazione per mm^2, invece di ottimizzare i parametri.
logico che le cose di ieri ti sembrano diverse da oggi: oggi non hai CPU mainstream alto di gamma che ti fanno il 50% in prestazioni spingendo i parametri, perchè se la sono giocata i produttori quella possibilità.
purtroppo è anche colpa del modus operandi dei sistemi di sviluppo (mai creare una cosa nuova se puoi risparmiare usandone una vecchia) e dei produttori che hanno speculato sulla dimensione dei core;
questo perchè un buon chip mainstream è sempre stato circa sui 200mm^2 tutto CPU, oggi usi core in cui si occupano solo 50mm^2 di die per la CPU pura, il resto è SB/NB/iGPU.. vedi che l'ultima serie HEDT fino a 12 core ti dà quello per cui un tempo eravamo tutti abituati: 200-250mm^2 quasi tutta CPU, e li le prestazioni si sentono, se il software è sviluppato... non è rapportato pero' al valore di questo, perchè prima eravamo abituati a spendere 1000 massimo (e parlo anche dei tempi antichi, perchè CPU da 2 milioni di lire me le ricordo bene, visto che le avevo, ed eravamo nella stessa identica situazione di oggi, con Intel che dominava il mercato e si poteva permettere queste cose)...
oggi, forse, ti richiederanno 1000, ma fino a ieri erano a quasi 2000!
insomma, vero che le prestazioni non sembrano aumentate, vero che c'e' stato uno stop tecnologico di ben 3 anni che stiamo ancora pagando per la questione di scarsa produzione, ma non è che una CPU di 5 anni fà và come una di oggi... ce la fai arrivare, ma non consuma la stessa cosa e comunque quelle di oggi non le usi come si dovrebbe, ma le usi come le vecchie...
Il target della review è l'utente medio che mai comprera qulcosa che non sia standard o direttamente il pc da supermercato.
l'utente medio pero' non si compra manco CPU da 500$...
ieri avevi una potenza 40 spendendo 200, perchè normalmente era settato per 30=100, il resto lo ottenevi forzando i parametri ed arrivando al limite fisico del singolo chip;
oggi hai una potenza 40 di default, al massimo 45 se sfrutti il chip, ma 40 li fai spendendo 50.
il progresso tecnologico in produzione, dove ieri passavi da 130 a 90, mentre oggi passi da 14 a sempre 14 con uno strato un po' piu' spesso, ultimamente si è sempre piu' spostato sulla massima prestazione per mm^2, invece di ottimizzare i parametri.
logico che le cose di ieri ti sembrano diverse da oggi: oggi non hai CPU mainstream alto di gamma che ti fanno il 50% in prestazioni spingendo i parametri, perchè se la sono giocata i produttori quella possibilità.
purtroppo è anche colpa del modus operandi dei sistemi di sviluppo (mai creare una cosa nuova se puoi risparmiare usandone una vecchia) e dei produttori che hanno speculato sulla dimensione dei core;
questo perchè un buon chip mainstream è sempre stato circa sui 200mm^2 tutto CPU, oggi usi core in cui si occupano solo 50mm^2 di die per la CPU pura, il resto è SB/NB/iGPU.. vedi che l'ultima serie HEDT fino a 12 core ti dà quello per cui un tempo eravamo tutti abituati: 200-250mm^2 quasi tutta CPU, e li le prestazioni si sentono, se il software è sviluppato... non è rapportato pero' al valore di questo, perchè prima eravamo abituati a spendere 1000 massimo (e parlo anche dei tempi antichi, perchè CPU da 2 milioni di lire me le ricordo bene, visto che le avevo)...
oggi, forse, ti richiederanno 1000, ma fino a ieri erano a quasi 2000!
insomma, vero che le prestazioni non sembrano aumentate, vero che c'e' stato uno stop tecnologico di ben 3 anni che stiamo ancora pagando per la questione di scarsa produzione, ma non è che una CPU di 5 anni fà và come una di oggi... ce la fai arrivare, ma non consuma la stessa cosa e comunque quelle di oggi non le usi come si dovrebbe, ma le usi come le vecchie...
Certo, c'è ovviamente una riduzione del costo ed una ottimizzazione dei processori, unitamente ad una lieve crescita del clock (decisamente risicata)
Ma credo sia piuttosto chiaro che siamo davanti ad una crescita praticamente nulla.
Il fatto che il potere di calcolo della mia CPU vecchia di ben sei anni, con un modesto overclock (anzi possiamo dire allineando il clock), se la giochi ad armi pari con le attuali cpu a parità di cores che sono di 5 generazioni avanti è un dato sconcertante.
anni fà si parlava di virtualizzazione diretta.
non importava chi o cosa processava, ma il sistema vedeva una sola CPU ad un solo core, il tutto veniva poi tradotto e usato su diverse risorse.
era prima ancora di HT Intel, se ricordo un paio d'anni prima...
questo pero' comportava perdite di potenza pura nell'ordine del 50% ed oltre...
vuoi aumentare il ST?
usi una CPU x86, non un RISC ma un vero CISC, con solo la questione che estendi il codice a 256 bit, ma stavolta inserendo ogni singolo algoritmo d'istruzione sul silicio, anzi, magari anche in aggregazione, come in effetti si fà su SMT... salti insomma tutti i passaggi di decodifica e ricodifica, ma hai un mattonellone da piastrella del bagno e zero convenienza.
faccio una CPU single thread piu' grossa di un quad core?
solo 1 istruzione su 8, a dir tanto, si avvantaggerebbe di questa scelta procedurale, e comunque sempre a 5ghz sei fermo.
faccio un RISC SMT a 4 vie?
devo rifar compilare tutti i codici e comunque non hai cosi' tante istruzioni per massimizzare un 4 vie (256b) general purpose...
in SMT a 2 vie aumenti lo spazio di 2.5 volte e guadagni 1.6 medio, con punte
a 1.9, ma con minimi, e sulle ST, a 1.2...
in un 4 vie il massimo lo avrai a x3, ed il minimo a 1.1, mentre lo spazio occupato sarà di 6 volte....
CMS era un bel progetto... peccato che nessuno l'ha sfruttato realmente a dovere.... un core a singola via (doble con repliche di unità base) capace di arrivare tranquillamente a 5ghz a 32nm....
ma non è che puoi stravolgere tutti i software perchè cosi' è meglio...
Ma credo sia piuttosto chiaro che siamo davanti ad una crescita praticamente nulla.
Il fatto che il potere di calcolo della mia CPU vecchia di ben sei anni, con un modesto overclock (anzi possiamo dire allineando il clock), se la giochi ad armi pari con le attuali cpu a parità di cores che sono di 5 generazioni avanti è un dato sconcertante.
il salto lo hai avuto dal core usato in double a quello usato in doble ma anche con 2 vie di processamento, da netbrust a SB.
altri salti cosi' non ci saranno che fra 10 anni, quando il software sarà piu' prodigo alla parallelizzazione.
in piu', come scritto, paghi l'assenza d'investimenti di 3 anni di stop (2012-2015) causa crisi.
Intel non ne ha sofferto piu' di tanto, ma gli altri si, e senza concorrenza non ti conviene piantare il chiodo, ma cavarlo, addrizzarlo e riusarlo.
nei prossimi anni, comunque, si studieranno modi piu' efficienti per riuscire a sfruttare meglio l'SMT, soprattutto sui multicore, con IA predittive che cercheranno di massimizzare l'accopramento delle istruzioni di piu' thread diversi, non da compilazione, insomma, ma in uso in quel momento, quindi decisamente vari e senza possibilità di effettuare un lavoro a monte prestabilito.
parliamoci chiaramente:
questi test sintetici non ti dicono tutta tutta la verità, perchè prendono a riferimento un programma alla volta ad alto uso intensivo.
le ottimizzazioni sono a monte, da compilatore e, nella migliore delle ipotesi, hai un x1.6 con STM.. è raro che riesci a sfruttare entrambe le linee di processamento in uso parallelo sul singolo core.
puoi pero' cercare di farlo su trhead concorrenti, di due applicazioni diverse, in quanto prima o poi 2 istruzioni semplici possono essere accorpate ad una complessa ed andare sul 2 vie in SMT.
ma sono solo 2.
i veri vantaggi li hai con 10, 100 applicativi insieme, piccoli, poco esigenti e vari... la statistica ti porterà sempre qualche istruzione semplice, che il compilatore non è riuscito ad accorpare ad un'altra dello stesso thread, di 2 distinti thread che possa essere accorpata in una ed eseguita in SMT...
ma non ci sei tu a dirigere i lavori e lo smistamento; chè un HW/SW, lo scheduler SW ed il decoder HW e li devi amministrare con un piglio intelligente in tempo reale... IA nelle CPU.
AMD l'ha citata, ma... fino a che punto è intelligente la sua IA, e come riesce ad essere intelligente?
perchè anche Intel, con la possibilità del turbo boost 3 non è che sbaglia...
ma anche lì da amministrare sapientemente mandando in esecuzione un treno di istruzioni single thread al core che puo' dare di piu', mentre gli altri li rallenti drasticamente.
insomma, miglioramenti ne vedremo con la gestione amministrativa della logica di processamento, riuscendo a massimizzare quel minimo x1.25 di SMT e portarlo ben piu' in alto, arrivando magari ad un fattore di parallelizzazione su piu' thread distinti di 1.7-1.8 medio...
è tanta roba quando moltiplichi per decine di core, perchè non è lineare, ma una curva logaritmica (dagli una pendenza ed un massimo piu' accentuati e vedi quanto guadagni).
sennò c'e' anche la possibilità di CPU ibride.
processore con core in order/ooo/duoble units/2 vie e 4 vie in una sola CPU, un po' come il big little o gli asic dedicati.
ma è piu' un modo per massimizzare le performance per watt (e poi diventano grandi)...
cambiare ISA? serve a poco... gli sprechi computazionali sull'ISA per prima cosa sono stati aggiunti (CISC to CRISC) seconda cosa parliamo di general pourpouse, dove ancora trovi istruzioni che si eseguono con 8 bit... e la flessibilità ha un costo.
comunque stiamo OT e alla fine faremo i soliti thread papiri.. non è spazio opportuno il commento in una news..
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".