View Full Version : AMD Ryzen 7 2700X e Ryzen 5 2600X: un confronto tra 21 CPU
Redazione di Hardware Upg
19-04-2018, 15:06
Link all'Articolo: https://www.hwupgrade.it/articoli/cpu/5153/amd-ryzen-7-2700x-e-ryzen-5-2600x-un-confronto-tra-21-cpu_index.html
AMD aggiorna la propria gamma di processori della famiglia Ryzen con i modelli di seconda generazione, capaci con alcuni affinamenti di fornire un aumento delle prestazioni medio del 10% risultando essere ancora più competitivi nel confronto con le soluzioni Intel Core di ottava generazione.
Click sul link per visualizzare l'articolo.
Belle CPU, non c'è che dire.
A quanto pare sono migliorate anche in ambito gaming, limando quella piccola differenza che c'era con le proposte intel.
leggendo un paio di recensioni la vostra sembra la più "positiva" verso amd :D :D :D
ormai le recensioni trovano il tempo che trovano dato che si possono far cambiare i valori a piacimento in base al contesto
io scelgo in base al costo complessivo del sistema e adesso è improponibile sia amd che intel
b.u.r.o.87
19-04-2018, 15:28
ottimo lavoro AMD
sarei curioso di sapere qual'è il turbo del 2600 con tutti i core. presumo sia sui 3700-3800mhz
quello dle mio 1600 è 3400mhz
ottimo lavoro AMD
sarei curioso di sapere qual'è il turbo del 2600 con tutti i core. presumo sia sui 3700-3800mhz
quello dle mio 1600 è 3400mhz
Credo sia più alto, visto che già quello del 1600X è 3.7 su tutti i core.
nickname88
19-04-2018, 15:36
Belle CPU, non c'è che dire.
A quanto pare sono migliorate anche in ambito gaming, limando quella piccola differenza che c'era con le proposte intel.
Si piccola differenza in situazione di palese VGA limited.
CapodelMondo
19-04-2018, 15:41
curiosità: ma è lecito aspettasi su questa architettura anche CPU con gpu integrata come gli attuali 2400G?
ovviamente non dico il mese prossimo
29Leonardo
19-04-2018, 15:42
Usandolo solo per gaming mi sa che il mio 4440 durerà ancora a lungo dato che gioco in 1440p dove la differenza sulla cpu è poca cosa.
Si piccola differenza in situazione di palese VGA limited.
Con cosa te lo dovevano testare? Hanno usato la 1080ti che si e no avranno pochissime persone.
b.u.r.o.87
19-04-2018, 15:43
Credo sia più alto, visto che già quello del 1600X è 3.7 su tutti i core.
però sembra che arrivi a 3900mhz su 2 core :confused:
comunque è interessante: probabilmente la vaiante zen2 arriverà a 4ghz:D :D
MadMax of Nine
19-04-2018, 15:44
Memoria scheda madre socket LGA 1151 (Kaby Lake): 2x8Gbytes DDR4-2133 (15-15-15-36 2T)
Memoria scheda madre socket LGA 1151 (Cannon Lake): 2x8Gbytes DDR4-2400 (15-15-15-36 2T)
Memoria scheda madre socket AM4 (Ryzen 1000): 2x8Gbytes DDR4-2666 (16-16-16-36 1T)
Memoria scheda madre socket AM4 (Ryzen 1000): 2x8Gbytes DDR4-2933 (16-16-16-36 1T
E' corretto ? :confused:
b.u.r.o.87
19-04-2018, 15:46
curiosità: ma è lecito aspettasi su questa architettura anche CPU con gpu integrata come gli attuali 2400G?
ovviamente non dico il mese prossimo
penso proprio di sì. non credo che le APU attuali (ryzen1 + vega) siano un progetto una tantum. non avrebbe senso
bagnino89
19-04-2018, 15:49
Memoria scheda madre socket LGA 1151 (Kaby Lake): 2x8Gbytes DDR4-2133 (15-15-15-36 2T)
Memoria scheda madre socket LGA 1151 (Cannon Lake): 2x8Gbytes DDR4-2400 (15-15-15-36 2T)
Memoria scheda madre socket AM4 (Ryzen 1000): 2x8Gbytes DDR4-2666 (16-16-16-36 1T)
Memoria scheda madre socket AM4 (Ryzen 1000): 2x8Gbytes DDR4-2933 (16-16-16-36 1T
E' corretto ? :confused:
Si sono sprecati per le RAM, sia Intel che AMD :asd:
ninja750
19-04-2018, 15:54
peccato non aver introdotto delle comparative pari piattaforma per vedere gli incrementi con dam 2933/3200/3400/3600
bagnino89
19-04-2018, 15:56
Comunque bisogna capire bene come stanno le cose, non so se Anandtech ha preso un bel granchio ma con tutte le patch Spectre/Meltdown loro ottengono questi risultati:
https://images.anandtech.com/graphs/graph12625/97168.png
Se vero, è davvero una figuraccia per Intel...
ninja750
19-04-2018, 16:06
non capisco come mai non mettano una gpu (anche scarsa) in tutte le cpu tanto per farci funzionare windows e far girare i video
nickname88
19-04-2018, 16:10
Sembra che forse siamo finalmente sulla buona strada. :read:
Allora con la prossima serie c'è veramente speranza.
https://tpucdn.com/reviews/AMD/Ryzen_7_2700X/images/perfrel_1280_720.png
Sembra che forse siamo finalmente sulla buona strada. :read:
Allora con la prossima serie c'è veramente speranza.
https://tpucdn.com/reviews/AMD/Ryzen_7_2700X/images/perfrel_1280_720.png
10% di differenza in 1280x720 equivale a 0.1% in full hd e 0% dal 1440p in su.
Sembra che forse siamo finalmente sulla buona strada. :read:
Allora con la prossima serie c'è veramente speranza.
https://tpucdn.com/reviews/AMD/Ryzen_7_2700X/images/perfrel_1280_720.png
in 720p ? :asd:
c'è qualcuno che ci gioca? :asd:
Sembra che forse siamo finalmente sulla buona strada. :read:
Allora con la prossima serie c'è veramente speranza.
https://tpucdn.com/reviews/AMD/Ryzen_7_2700X/images/perfrel_1280_720.png
Non avevi un test prestazionale a 800*600?
ninja750
19-04-2018, 16:20
in 720p ? :asd:
c'è qualcuno che ci gioca? :asd:
certo tutti queli col coffelake che fanno screenshot :O
nemmeno lo smartphone più sgualfo è 720p ormai :sbonk:
29Leonardo
19-04-2018, 16:28
madonna sti funboy intel :asd:
:doh:
evito di commentare i soliti inutili post.
Rimanendo in topic: ottimo refresh che ancora una volta mi fa salire la scimmia per un upgrade al mio buon i5 6th gen. Credo a questo punto attenderò Zen 2 che in qualsimodo vada sarà impossibile non vadano addirittura meglio :D
Nel frattempo però, uno Zen + apu in sostituzione ad il mio ottimo A10-7800 sperando in una Rx Vega con più core.. così da ampliare ulteriormente il parco di giochi giocabile dal divano sul tv grande :p
nickname88
19-04-2018, 16:38
Cioè anche avendo una 1080 e un vecchio monitor 720p perchè mi si è rotto il monitor e avevo questo in cantina giocherei in DSR a 1440p :asd:
Nel 2018 vedo che c'è ancora chi non ho capito per quale motivo le testate giornalistiche usino quelle risoluzioni .... A quanto pare il GPU limited è un concetto difficile da capire.
OvErClOck82
19-04-2018, 16:40
mi sa che a sto giro i tuoi tentativi di trollaggio passeranno in secondo piano
Da bravo retrogamer ho ancora i miei bei crt per giocare con i miei sistemi old con Voodoo e compagnia bella :D
Da 640x480 a scendere :O Ma questo è un altro discorso e non parliamo degli stessi giochi presi in esame in questa comparativa :asd:
bagnino89
19-04-2018, 16:53
La redazione di HWU può confermare se per le schede madri Intel usate:
Scheda madre socket LGA 1151 (Coffee Lake): MSI Z370 Tomahawk
Scheda madre socket LGA 1151 (Kaby Lake): MSI Z270 Gaming Pro Carbon
i BIOS usati dispongono di patch per Spectre var. 2 oppure no?
Windows aveva tutte le ultime patch installate per tutti i sistemi?
penso proprio di sì. non credo che le APU attuali (ryzen1 + vega) siano un progetto una tantum. non avrebbe senso
No.
Per avere la grafica Vega nelle cpu 2X00G, devono sacrificare un die Zeppelin (un CCX da 4 core) per fare spazio alla GPU.
Ergo, è altamente improbabile, se non impossibile, che facciano una APU Ryzen 5 o 7 da 6 o 8 core. Non avrebbero spazio dove mettere il die Vega.
nickname88
19-04-2018, 16:59
Ma poi vanno rapportati alla realtà non riassunti in "Intel va di più in gaming !!!!11!!one"
Non mi sembra di aver detto nulla a riguardo, ma la performance ludica di una cpu la si misura in condizioni neutre altrimenti non ha senso effettuarle. Un confronto serve per misurare i distacchi effettivi non fittizi.
I risultati fittizi puoi solo rapportarli con le VGA attuali, con le prossime i risultati possono essere differenti.
Non mi sembra di aver detto nulla a riguardo, ma la performance ludica di una cpu la si misura in condizioni neutre altrimenti non ha senso effettuarle.
Un confronto serve per misurare i distacchi effettivi, che con VGA prossime possono essere differenti.
Questa poi :D
vabbè dai
ignore list e via: inutile sperare che ci pensino i mod
L'ho scritto anche io che il 2400G è a 14nm e questa a 12nm ma Raven Ridge ha già molte delle innovazioni che porta Pinnacle Ridge come il MC e Precision Boost 2.
È una via di mezzo, uno zen+ su pp precedente.
Sì sì, hai ragione, avevo letto di fretta! :D
Ho editato il post eliminando quella parte appena ho riletto con attenzione. ;)
Non mi sembra di aver detto nulla a riguardo, ma la performance ludica di una cpu la si misura in condizioni neutre altrimenti non ha senso effettuarle. Un confronto serve per misurare i distacchi effettivi non fittizi.
I risultati fittizi puoi solo rapportarli con le VGA attuali, con le prossime i risultati possono essere differenti.
Viene bannata gente per molto meno
Questo è flame bello e buono
!fazz?
Sputafuoco Bill
19-04-2018, 17:15
Bella recensione, ma dovete per forza recensire anche le versioni senza la X e K, cioè Ryzen 5 2600 e 2700, e Core i7 8700.
nickname88
19-04-2018, 17:15
okyZ;45501440']Viene bannata gente per molto meno
Questo è flame bello e buono
!fazz?
E' semplicemente la verità invece.
Nel caso non avessi ancora compreso perchè si fan test a bassa risoluzione.
Comunque bisogna capire bene come stanno le cose, non so se Anandtech ha preso un bel granchio ma con tutte le patch Spectre/Meltdown loro ottengono questi risultati:
https://images.anandtech.com/graphs/graph12625/97168.png
Se vero, è davvero una figuraccia per Intel...
Questo non mi piace per niente, le mitigazioni per spectre/meltdown hanno letteralmente ammazzato intel rispetto a pochi mesi fa :doh: :doh: ...
E' semplicemente la verità invece.
Nel caso non avessi ancora compreso perchè si fan test a bassa risoluzione.
Ma quale verità? Cioè sapere che in condizioni assurde vi sono differenze che poi nella realtà spariscono? Testiamole con Pac Man allora e spacciamo i risultati come probanti la bontà della CPU.
MaxFabio93
19-04-2018, 18:39
leggendo un paio di recensioni la vostra sembra la più "positiva" verso amd :D :D :D
ormai le recensioni trovano il tempo che trovano dato che si possono far cambiare i valori a piacimento in base al contesto
io scelgo in base al costo complessivo del sistema e adesso è improponibile sia amd che intel
Quando AMD fa bene si da la colpa alle recensioni positive, quando va bene Intel nessun problema :asd:
Per fortuna sembra sparito chi spalava fango in continuazione, AMD va alla grande in tutto!
Concordo sui prezzi, infatti io conto di aspettare fino a fine anno e per Natale un bel nuovo PC con queste CPU e le nuove GPU ci sta alla grande!
Ottimo, hanno lavorato proprio sui punti deboli. Essendo una "semplice" revisione +, non ci si potevano aspettare stravolgimenti, ma è bello vedere che erano consci delle zone in cui Ryzen 1 fosse migliorabile, e che siano intervenuti proprio su questo.
@Paolo Corsini / Redazione:
piccolo refuso nelle specifiche di test:
Scheda madre socket AM4: Asus Crosshead VII Hero (Wi-Fi)
Immagino sia Crosshair!
sgrinfia
19-04-2018, 19:06
Bene, belle cpu, sebbene in casa ho 4 intel e un amd che mi aggradano in tutto e non sento il bisogno di rinnovare ........sono contento , un affermazione che AMD meritava .:)
Niente male.
La cosa migliore è vedere che le soluzioni AMD mantengono elevata la concorrenza con soluzioni che stanno testa a testa con le proposte intel. :)
Fantastiche cpu, come lo erano quelle della generazione precedente d'altronde.
Grande AMD!
Marko#88
19-04-2018, 20:28
Ottima rev2 di processori che promettevano già bene. A chi dice che nei giochi è ancora leggermente indietro: certo, sono 10 anni che insegue... era impossibile che da un giorno all'altro sorpassasse brutalmente il concorrente in tutti gli ambiti, si limita a farlo dove serve forza bruta e ad avvicinarsi tantissimo dove non serve.
Sarà interessante la situazione dei prossimi mesi/anni secondo me :D
Aggiungo: evitate di rispondere a nickname88, a furia di parlare da solo si stancherà prima o poi. :asd:
Un refresh mostruoso, non c'è che dire.
Tornassi indietro butterei la mia attuale cpu nel secchio e prenderei AMD a mani basse.
Complimentoni ad AMD per questo refresh.
Le differenze nei videogiochi sono a dir poco irrilevanti, quanto si passano 3-4% con un 8700k? E spesso Ryzen mi pare abbia fps minimi più elevati.
Auguro ad AMD di vendere tanto e bene perchè queste sono delle signore cpu.
Chapeau.
Sire_Angelus
19-04-2018, 20:33
Stavo guardando su guru3d i test.. in parole povere, per giocare a fino a qhd, con il mio 4770k a 4ghz fissi sono a cavallo ancora per tipo 2 generazioni di schede video, e la colpa è dei produttori dei videogiochi che non spingono più la fisica e l'ia sui videogiochi per farla girare su core jaguar, controsenso li perchè nonostante tutti i videogiochi degli ultimi anni sono scritti per 8 core su console, di vero multithreading su pc non si vede ancora neanche l'ombra..
psychok9
19-04-2018, 21:02
Comunque bisogna capire bene come stanno le cose, non so se Anandtech ha preso un bel granchio ma con tutte le patch Spectre/Meltdown loro ottengono questi risultati:
https://images.anandtech.com/graphs/graph12625/97168.png
Se vero, è davvero una figuraccia per Intel...
Premetto che ho tutti sistemi Intel,
ma vorrei TANTO sapere da tutti i reviewer se i sistemi sono stati aggiornati e patchati con meltdown... visto che saranno solo quelle le performance finali (con le vulnerabilità che ci sono in giro... è il minimo).
Secondo me nel 90% dei casi no, anche solo per motivi di tempo...
Non credo che i test di anandtech, quantomeno sul gaming, siano affidabili... d'altronde hanno scritto che stanno controllando; e che qualcosa non vada lo scrivono stesso i simpatizzanti amd tra i commenti.
Comunque, buone cpu... ancora un pelino sotto per chi cerca un setup top in gaming... e a breve usciranno i coffelake 8c\16t. Peccato non avere avuto concorrenza nel mercato cpu per tanti anni... se solo amd si fosse svegliata prima.
Anandtech è una delle riviste più serie e competenti qua fuori.
Basti vedere come Coffee Lake l'han testato tutti con gli auto-oc e boost attivi sulle motherboard.
Anandtech è una delle riviste più serie e competenti qua fuori.
Basti vedere come Coffee Lake l'han testato tutti con gli auto-oc e boost attivi sulle motherboard.
Spulciando un po' tra le varie recensioni sembrerebbe che anche Techradar abbia attivato le mitigazioni sia nel so che sul bios
ed i risultati non sono incoraggianti
https://www.techradar.com/reviews/amd-ryzen-7-2700x
:what: :what:
bagnino89
19-04-2018, 21:28
Comunque è sempre più probabile che Anandtech abbia commesso qualche errore. Qualcuno è andato a verificare i test in gaming del 8700K all'uscita (senza patch varie quindi), e risultano allineanti a quelli odierni. In pratica i vari fix non sembrano influenzare le performance nei giochi.
Dunque l'eventuale sorpasso di Ryzen+ dipenderebbe interamente dalla bontà di Ryzen+ stesso, è abbastanza strano.
Come minimo hanno usato una GPU più potente per Ryzen+ :asd:
psychok9
19-04-2018, 21:38
Comunque è sempre più probabile che Anandtech abbia commesso qualche errore. Qualcuno è andato a verificare i test in gaming del 8700K all'uscita (senza patch varie quindi), e risultano allineanti a quelli odierni. In pratica i vari fix non sembrano influenzare le performance nei giochi.
Dunque l'eventuale sorpasso di Ryzen+ dipenderebbe interamente dalla bontà di Ryzen+ stesso, è abbastanza strano.
Come minimo hanno usato una GPU più potente per Ryzen+ :asd:
O si sono dimenticati di downclockare la gpu in presenza di Ryzen come **** consigliato **** da Intel quando ha mandato i sample.
:rotfl: :rotfl: :rotfl:
Se dovessi aggiornare ora come ora non avrei nessun dubbio. Stringo ancora i denti in attesa di Ryzen 2.
Domanda da un milione di euro: c'è la possibilità di poter montare le prime DDR5 il prossimo anno? Non vorrei fare lo stesso errore fatto con il precedente PC, ovvero aggiornare poco prima dell'uscita delle DDR3 e ritrovarmi a comprare RAM DDR2 a prezzi elevati in seguito ad un guasto.
psychok9
19-04-2018, 22:19
Se dovessi aggiornare ora come ora non avrei nessun dubbio. Stringo ancora i denti in attesa di Ryzen 2.
Domanda da un milione di euro: c'è la possibilità di poter montare le prime DDR5 il prossimo anno? Non vorrei fare lo stesso errore fatto con il precedente PC, ovvero aggiornare poco prima dell'uscita delle DDR3 e ritrovarmi a comprare RAM DDR2 a prezzi elevati in seguito ad un guasto.
Secondo me invece c'è una bella differenza tra le nostre due cpu in firma... un bel salto.
Ho letto che le DDR5 usciranno nel 2020... ma ovviamente se aspetti fine 2019 per prendere la nuova piattaforma corri questo rischio e rimanderai ancora a Ryzen 3 :D :D :D
psychok9
19-04-2018, 22:21
10% di differenza in 1280x720 equivale a 0.1% in full hd e 0% dal 1440p in su.
In teoria serve a capire come si comporterà con gpu più performanti e potenti, e in giochi poco ottimizzati... quanto spinge la cpu sui giochi a prescindere dalla gpu insomma.
La cosa negativa però è che con questi prezzi per le gpu... sarà un evento molto raro per la maggior parte di noi.
b.u.r.o.87
19-04-2018, 22:26
No.
Per avere la grafica Vega nelle cpu 2X00G, devono sacrificare un die Zeppelin (un CCX da 4 core) per fare spazio alla GPU.
Ergo, è altamente improbabile, se non impossibile, che facciano una APU Ryzen 5 o 7 da 6 o 8 core. Non avrebbero spazio dove mettere il die Vega.
sì ma ciò non toglie che possano proporre soluzioni 4c/8t come il 2400g ma a 12nm e gpu migliorata (navi?)
Nel 2018 vedo che c'è ancora chi non ho capito per quale motivo le testate giornalistiche usino quelle risoluzioni .... A quanto pare il GPU limited è un concetto difficile da capire.
a quanto pare anche il marketing...
:mc:
Non mi sembra di aver detto nulla a riguardo, ma la performance ludica di una cpu la si misura in condizioni neutre altrimenti non ha senso effettuarle. Un confronto serve per misurare i distacchi effettivi non fittizi.
I risultati fittizi puoi solo rapportarli con le VGA attuali, con le prossime i risultati possono essere differenti.
e quindi lo fai con una soluzione grafica che carica pesantemente la CPU?
ne userai una che non grava sulla CPU, magari...
la storia è sempre quella.
con questi test vedi solo quale CPU va meglio su una scheda nvidia, non certo quale CPU è meglio per giocare, perchè: gioco PC =/ nvidia; gioco PC = fare quello che ti pare indipendentemente da quello che ti dicono i promotor delle aziende.
sennò vai di console che ti risparmi un sacco di problemi.
E' semplicemente la verità invece.
Nel caso non avessi ancora compreso perchè si fan test a bassa risoluzione.
ci vorrei essere il giono in cui i giochi gireranno a 4K e superiore a 200fps di media, con miglioramenti che sono si è no del 25% biennali...
diverrei l'uomo bicentenario.
Stavo guardando su guru3d i test.. in parole povere, per giocare a fino a qhd, con il mio 4770k a 4ghz fissi sono a cavallo ancora per tipo 2 generazioni di schede video, e la colpa è dei produttori dei videogiochi che non spingono più la fisica e l'ia sui videogiochi per farla girare su core jaguar, controsenso li perchè nonostante tutti i videogiochi degli ultimi anni sono scritti per 8 core su console, di vero multithreading su pc non si vede ancora neanche l'ombra..
stai contraddicendoti da solo nello stesso post.
parli del fatto che non possono caricare su IA e fisica perchè ci sono le console con i jaguar e poi scrivi che il multithread non esiste su PC.
entrambe osservazioni esatte.
ma la questione che non caricano IA, alcuni effetti e fisica, oltre che audio spazializzato sui giochi è dovuta alla seconda condizione, non alla prima.
se lo fai il megathread di quei giochi che gira su un solo core (alla volta) diventa ingestibile anche per un processore da 6ghz.
poi, se lo accoppi a soluzioni che non cercano la parallelizzazione e che si affidano a scheduler software (che gira sempre sul megathread), che CPU ci vorrebbe? a 7 o 8ghz?
la condizione che si vive è un'altra:
si fanno multithread sulle CPU e non si carica la computazione a causa delle scarse possibilità delle CPU console;
si concentrano su pochi core perchè l'80% delle soluzioni CPU sono Intel ad elevato clock (e nel campo degli appassionati di giochi per PC questa quota è più che conservativa, con le serie K che domina le classifiche) e le soluzioni video sono per il 70% nvidia, che non vogliono molti thread e pretendono elevati clock.
usi pochi core non puoi caricare il megathread con IA e fisica.
condizioni di un mercato malato.
In teoria serve a capire come si comporterà con gpu più performanti e potenti, e in giochi poco ottimizzati... quanto spinge la cpu sui giochi a prescindere dalla gpu insomma.
La cosa negativa però è che con questi prezzi per le gpu... sarà un evento molto raro per la maggior parte di noi.
Ok per le VGA più performanti e potenti, ma visti gli incrementi prestazionali prospettati ed il ritmo con cui escono le nuove generazioni di VGA, direi che il problema è ininfluente.
Relativamente ai giochi poco ottimizzati o di nuova generazione che richiedessero più risorse, direi che, aumentando il carico per le GPU, di conseguenza la CPU diventerebbe irrilevante.
c'è gente che usa gli intel serie 3000 per giocare con delle 1080 Ti e non capisce se vale la pena aggiornare...
quando usciranno soluzioni video capaci di stroncare questi processori, per le risoluzioni che si useranno a quel tempo, saranno anticaglie e e talmente rare da essere conservate gelosamente nei cassetti degli appassionati.
quindi non c'è da discutere, ma solo da riderci sopra.
tuttodigitale
20-04-2018, 00:28
Nel 2018 vedo che c'è ancora chi non ho capito per quale motivo le testate giornalistiche usino quelle risoluzioni .... A quanto pare il GPU limited è un concetto difficile da capire.
L'errore di fondo è azzardare previsioni su software di domani, testando i giochi attuali con impostazioni ridicole.
Tra il maggior parallelismo e ottimizzazioni specifiche per l'architettura ZEN (quella core, ha più di un decennio alle spalle non dimentichiamocelo), mi sembra davvero assurdo prevedere il futuro...
si concentrano su pochi core perchè l'80% delle soluzioni CPU sono Intel ad elevato clock (e nel campo degli appassionati di giochi per PC questa quota è più che conservativa, con le serie K che domina le classifiche)
c'è di più, il software odierno è fatto su misura per l'architettura Core....i problemi grossi di Ryzen si sono generati a causa dalle istruzioni prefetch pensate per l'architettura Intel.
il divario di IPC con le soluzioni Intel può solo diminuire con software maggiormente consapevole dell'architettura ZEN.
e, ma se poi compili con intel, tanti vantaggi sfumano.
tuttodigitale
20-04-2018, 00:53
sì ma ciò non toglie che possano proporre soluzioni 4c/8t come il 2400g ma a 12nm e gpu migliorata (navi?)
Faccio un pò il sunto.
ZEN+ è ZEN come è stato concepito fin dall'inizio. ZEN1 deve essere visto come una versione beta di cui sono mancati, per questioni di tempistiche, alcune ottimizzazioni. Caratteristiche che sono presenti nell'APU.
La cache L2 era stata concepita per avere 12 cicli di latenza, ma per problemi di design AMD ha ripiegato su latenze decisamente maggiori (17 cicli). Un difetto che è stato accettato, poichè non era decisivo per le prestazioni (appena il 2,5% medio di ipc in meno).
La stessa cosa vale per turbo 2.0...in un desktop/server conta molto di più l'efficienza che non lo sfruttamento del margine termico, ma con un TDP di soli 15W da condividere con l'igp, le cose stanno diversamente.
Sull'effettiva utilità del cambio processo, che di 12nm ha solo il nome, ci sono alcune osservazioni da fare.
i guadagni pubblicizzati da GF si riferiscono al passaggio dalla libreria ad alta densità 9T, usata da ZEN1 e ZEN+, a librerie ad altissima densità 7,5T.
i guadagni reali di Ryzen sono più modesti, si parla di circa il 6-7% di clock in più a parità di potenza, ma (e questo è il punto) il risultato è stato ottenuto impiegando un maggior numero di transistor LVT, che offrono un più alto leakage, ma che permettono a parità di frequenza di usare Vcore inferiori.
Non è scontato che se AMD usasse per le apu la stessa configurazione vista in Ryzen 2000, possa trarre effettivi vantaggi, ricordando che ZEN nelle APU non è lo stesso di quello che ha fatto il debutto un anno fa.
Per quanto riguarda la GPU, VEGA sarà portato sui 7nm....Navi debutterà nel 2020 con HBM3 o come si chiameranno.
Ale55andr0
20-04-2018, 01:06
ottima cpu :) non avessi il 1700x occato a 3.9 all core sarebbe la mia scelta per una build oggi sia gaming che multipourpose. Spero solo che riescano a riprendersi nel settore grafico dove prestazioni ed efficienza non sono ancora all'altezza (di media, fermi ai livelli di una 1080 che è uscita nel 2016 :stordita: )
Sull'effettiva utilità del cambio processo, che di 12nm ha solo il nome, ci sono alcune osservazioni da fare.
i guadagni pubblicizzati da GF si riferiscono al passaggio dalla libreria ad alta densità 9T, usata da ZEN1 e ZEN+, a librerie ad altissima densità 7,5T.
ma sai le misure fisiche dei die 2000?
perchè su tomshw indicano 213, ma mi pare strano...
nickname88
20-04-2018, 08:52
e quindi lo fai con una soluzione grafica che carica pesantemente la CPU?
La VGA che carica la CPU ? :rolleyes:
In ogni caso facendo finta di assecondarti la risposta sarebbe anche positiva, se devi misurare quale cpu cappa di più le VGA.
a quanto pare anche il marketing...
:mc:Non è che per ogni cosa che non comprendi devi usare la parola marketing. :rolleyes:
Ma quale verità? Cioè sapere che in condizioni assurde vi sono differenze che poi nella realtà spariscono? Testiamole con Pac Man allora e spacciamo i risultati come probanti la bontà della CPU.Non sono condizioni assurde, sono condizioni con basso fattore di GPU limited.
E la risoluzione video non impatta sulla CPU.
Le fanno in molti, chiediti il perchè.
Se il carico sulla GPU è basso, ovviamente aumenta l'impatto sulla CPU.
Ma come detto, si tratta di situazioni non reali, ma non solo, perché, nonostante le condizioni surreali, queste sono le condizioni in cui gli FPS sono talmente alti da rendere inutili le differenze.
Capire che in situazioni irreali le CPU avrebbero un comportamento diverso, ma ininfluente, quando poi nella realtà le differenze si annullano, mi sembra non sia di alcuna utilità.
ci vorrei essere il giono in cui i giochi gireranno a 4K e superiore a 200fps di media, con miglioramenti che sono si è no del 25% biennali...
diverrei l'uomo bicentenario.
Basta giocare ai giochi vecchi :asd:
nickname88
20-04-2018, 10:00
https://s7.postimg.cc/srai3d0mj/23sorpresa-516-_U105077359460q5_B--990x556_La_Stampa.it.jpg (https://postimages.org/)
Io avevo capito che ti sfuggiva qualcosa sul funzionamento di un pc ma non credevo fino a questo punto.
Complimenti per la dimostrazione.
Perchè a casa mia nel rendering 3D la cpu si occupa del calcolo del posizionamento dei punti nello spazio dai quali poi la gpu andrà ad eseguire il rendering. :rolleyes:
Quindi è la CPU che realizza la base dello scenario 3D, non viceversa. :rolleyes:
Anche a me piacerebbe vedere come si comportano queste cpu non solo in situazioni di utilizzo quotidiano ma anche a risoluzioni più basse per valutare il reale distacco con la concorrenza in situazioni non gpu limited. D'altra parte, se vai a recensire una Ferrari, non lo fai di certo rispettando i limiti di velocità :D
Anche a me piacerebbe vedere come si comportano queste cpu non solo in situazioni di utilizzo quotidiano ma anche a risoluzioni più basse per valutare il reale distacco con la concorrenza in situazioni non gpu limited. D'altra parte, se vai a recensire una Ferrari, non lo fai di certo rispettando i limiti di velocità :D
Da che mi risulta, i benchmark effettuano alcuni specifici test proprio per fare questo :)
nickname88
20-04-2018, 10:28
Ne riparliamo quando avrai una preparazione tecnica adeguata eh. :)O quando rimuoverai i paraocchi.
solo che è contraddittoria con quanto riporta prima
Con quale post sarebbe in contraddizione poi non è riportato però.
Anche a me piacerebbe vedere come si comportano queste cpu non solo in situazioni di utilizzo quotidiano ma anche a risoluzioni più basse per valutare il reale distacco con la concorrenza in situazioni non gpu limited. D'altra parte, se vai a recensire una Ferrari, non lo fai di certo rispettando i limiti di velocità :D
Ma qui i test si fanno proprio per evidenziare le prestazioni, ma se le differenze nei giochi sono minime, non occorre ricorrere a test in situazioni surreali (non fai correre la Ferrari su un tapis roulant per verificare quanto andrebbe in assenza di gravità per evidenziare differenze a tutti i costi), ci sono altre situazioni reali in cui valutare le differenze e la bontà dei progetti. Basta guardare le prestazioni con sw di produttività...
HwWizzard
20-04-2018, 12:14
Anche a me piacerebbe vedere come si comportano queste cpu non solo in situazioni di utilizzo quotidiano ma anche a risoluzioni più basse per valutare il reale distacco con la concorrenza in situazioni non gpu limited. D'altra parte, se vai a recensire una Ferrari, non lo fai di certo rispettando i limiti di velocità :D
Ma dai!!! A 200 FPS parliamo di GPU limited??? Ma almeno leggiamo i grafici.
Oggi per prendere un i7 o i5 bisogna o essere molto fedeli o a libro paga intel.
Oppure essere PaulGuru con i suo alter ego :D :Prrr: :Prrr:
Gran bel procio il 2700X. Mi sta' salendo la scimmia! Ma e' dura...prendere questa Cpu o aspettare l'architettura Zen-2? Vabbe'...(cit) nel dubbio...me li faccio tutti e due xD
Magari aggiornerei il mio buon vecchio 8350 in firma con questo Zen+ (2700X).
Anche a me piacerebbe vedere come si comportano queste cpu non solo in situazioni di utilizzo quotidiano ma anche a risoluzioni più basse per valutare il reale distacco con la concorrenza in situazioni non gpu limited. D'altra parte, se vai a recensire una Ferrari, non lo fai di certo rispettando i limiti di velocità :D
ma non lo fai nemmeno mettendola su un banco dinamometrico :mc:
a voi la simulazione ha dato alla testa... (togliendo spazio alla massa celebrale, pergiunta).
Ma dai!!! A 200 FPS parliamo di GPU limited??? Ma almeno leggiamo i grafici.
Oggi per prendere un i7 o i5 bisogna o essere molto fedeli o a libro paga intel.
Oppure essere PaulGuru con i suo alter ego :D :Prrr: :Prrr:
Beh, è tutto relativo. Se a 720p ne fai 300 di fps la risposta è SI ;)
Non vi quoto tutti perché siete troppi :ciapet:
Per quanto riguarda la risoluzione, ovvio che questa non impatti sulla cpu, e mi sembra altrettanto ovvio che il carico non si sposti tra cpu e gpu al cambiare della risoluzione, a parità di frame da renderizzare ovviamente. Non è che a basse risoluzioni la cpu lavora di più :D Lavora di più quando ci sono più frame da renderizzare, e questo avviene ovviamente a risoluzioni più basse, SE non poniamo dei limiti.
Supponiamo il caso in cui cpu+gpu mi garantiscono 60 fps stabili a 1080p con V-sync attivo, con un utilizzo della cpu del 50% e del 90% della gpu.
Scendendo a 720p con lo stesso liv. di dettaglio e V-sync sempre attivo, misurerei un decremento nell'utilizzo della gpu (es. 60%) mentre non misurerei un incremento nell'uso della cpu, perché i frame sarebbero sempre ancorati a 60. Di fatto non c'è quel "travaso" di carico tra cpu e gpu di cui molti parlano.
Si, ma dove sta scritto che con i giochi devi solo fare test di utilizzo quotidiano?
E' un test in più, se c'è non ti toglie niente, anzi ti dà qualche informazione in più. Alcuni siti lo fanno, altri no. Cmq campo lo stesso eh :D
Beh, è tutto relativo. Se a 720p ne fai 300 di fps la risposta è SI ;)
Non vi quoto tutti perché siete troppi :ciapet:
Per quanto riguarda la risoluzione, ovvio che questa non impatti sulla cpu, e mi sembra altrettanto ovvio che il carico non si sposti tra cpu e gpu al cambiare della risoluzione, a parità di frame da renderizzare ovviamente. Non è che a basse risoluzioni la cpu lavora di più :D Lavora di più quando ci sono più frame da renderizzare, e questo avviene ovviamente a risoluzioni più basse, SE non poniamo dei limiti.
Supponiamo il caso in cui cpu+gpu mi garantiscono 60 fps stabili a 1080p con V-sync attivo, con un utilizzo della cpu del 50% e del 90% della gpu.
Scendendo a 720p con lo stesso liv. di dettaglio e V-sync sempre attivo, misurerei un decremento nell'utilizzo della gpu (es. 60%) mentre non misurerei un incremento nell'uso della cpu, perché i frame sarebbero sempre ancorati a 60. Di fatto non c'è quel "travaso" di carico tra cpu e gpu di cui molti parlano.
Non capisco dove vuoi arrivare, visto che nei test si misurano proprio le differenze di FPS, quindi a parità di frame semplicemente non fai alcun test.
E proprio perché variano gli FPS al variare della risoluzione, varia il carico della CPU.
tuttodigitale
20-04-2018, 14:07
ma sai le misure fisiche dei die 2000?
perchè su tomshw indicano 213, ma mi pare strano...
AMD ha preferito non ridurre la dimensione del die, e distaccare maggiormente i core...con il passaggio ai 12nm la riduzione del consumo energetico è inferiore a quella dell'area occupata, stando ai dati forniti da Glofo (-15% area, -10% consumi).
A dirla tutta, stando ai numeri pubblicati qui, ma anche su altri lidi (se non bastasse il TDP nominale aumentato) le maggiori frequenze (6-7%) non sono free, ma hanno un costo nella produzione del calore....maggior consumo e minor area può solo portare problemi...
"maggior consumo e minor area può solo portare problemi... "
si, questa infatti era la mia maggiore preoccupazione.
che abbiano usato la stessa densità del 14nm è una ottima notizia; significa limitare i punti caldi.
comunque aspetto lo scoperchiamento per avere la garanzia assoluta.
HwWizzard
20-04-2018, 14:17
Non è il test in se che mi fa incazzare, è la gente che poi ripete a pappagallo che in base a quel test ci vuole una cpu intel per gaming :asd:
Insomma è il mancato uso di cervello nell'interpretazione di quei test il problema. :)
:winner: :winner: :winner:
Si, ma dove sta scritto che con i giochi devi solo fare test di utilizzo quotidiano?
E' un test in più, se c'è non ti toglie niente, anzi ti dà qualche informazione in più. Alcuni siti lo fanno, altri no. Cmq campo lo stesso eh :D
è un test che non ti da nessuna informazione, se non forviante per chi non capisce perchè si fanno test.
quindi non andrebbe fatto.
hai mai visto fare test di uso di diesel su un motore a benzina o l'inverso?
ci sarà una ragione per fare un test, non credi?
quel tipo di test si eseguono esclusivamente per marketing, e senza nessuna reale ragione tecnica.
se fosse un vero sito di tecnologia... :banned:
HwWizzard
20-04-2018, 14:29
è un test che non ti da nessuna informazione, se non forviante per chi non capisce perchè si fanno test.
quindi non andrebbe fatto.
hai mai visto fare test di uso di diesel su un motore a benzina o l'inverso?
ci sarà una ragione per fare un test, non credi?
quel tipo di test si eseguono esclusivamente per marketing, e senza nessuna reale ragione tecnica.
se fosse un vero sito di tecnologia... :banned:
Probabilmente quel test è inserito nella lista di quelli raccomandati. Indovinare nella raccomandazioni di chi è molto facile :sofico:
nickname88
20-04-2018, 14:56
ti stai contraddicendo da solo, prima dici che la vga non carica la cpu e che la risoluzione non impatta sulla cpu e poi dopo dici esattamente l'opposto.
tralasciando il fatto che la cpu non fa solo quello.
Ancora non ho capito in cosa mi starei contraddicendo, probabilmente nemmeno tu.
La risoluzione del segnale in uscita è a carico solamente della GPU, e non ha nulla a che fare con la realizzazione geometrica dello scenario. Eseguire un gioco ad una risoluzione più bassa non diminuisce la complessità poligonare dello scenario, ma serve solo a velocizzare il rendering da parte della VGA che così non rappresenta un freno al numero massimo di frames che la CPU più elaborare.
Non è la GPU a passare operazioni alla CPU, è esattamente il contrario.
Ovvio che più velocemente la GPU renderizza meno la CPU è wallata.
nickname88
20-04-2018, 15:03
Beh, è tutto relativo. Se a 720p ne fai 300 di fps la risposta è SI ;)
Non vi quoto tutti perché siete troppi :ciapet:
Per quanto riguarda la risoluzione, ovvio che questa non impatti sulla cpu, e mi sembra altrettanto ovvio che il carico non si sposti tra cpu e gpu al cambiare della risoluzione, a parità di frame da renderizzare ovviamente. Non è che a basse risoluzioni la cpu lavora di più :D Lavora di più quando ci sono più frame da renderizzare, e questo avviene ovviamente a risoluzioni più basse, SE non poniamo dei limiti.
Supponiamo il caso in cui cpu+gpu mi garantiscono 60 fps stabili a 1080p con V-sync attivo, con un utilizzo della cpu del 50% e del 90% della gpu.
Scendendo a 720p con lo stesso liv. di dettaglio e V-sync sempre attivo, misurerei un decremento nell'utilizzo della gpu (es. 60%) mentre non misurerei un incremento nell'uso della cpu, perché i frame sarebbero sempre ancorati a 60. Di fatto non c'è quel "travaso" di carico tra cpu e gpu di cui molti parlano.
:read: :read: :read:
HwWizzard
20-04-2018, 15:19
Ancora non ho capito in cosa mi starei contraddicendo, probabilmente nemmeno tu.
La risoluzione del segnale in uscita è a carico solamente della GPU, e non ha nulla a che fare con la realizzazione geometrica dello scenario. Eseguire un gioco ad una risoluzione più bassa non diminuisce la complessità poligonare dello scenario, ma serve solo a velocizzare il rendering da parte della VGA che così non rappresenta un freno al numero massimo di frames che la CPU più elaborare.
Non è la GPU a passare operazioni alla CPU, è esattamente il contrario.
Ovvio che più velocemente la GPU renderizza meno la CPU è wallata.
:rotfl: :rotfl: :rotfl:
Perché dovresti fare una cosa simile, se il tuo obiettivo è informare il pubblico su cosa sia conveniente comprare? Per pignoleria?
Beh dai un senso ce l'ha. L'idea è cercare di ricreare una situazione che potrebbe presentarsi in futuro mantenendo quel processore e prendendo una scheda video più potente che possa metterlo in difficoltà.
Insomma, sono dati con cui un potenziale compratore si fa un'idea delle potenzialità del processore che nelle condizioni attuali non sono espresse.
Il problema è che quei dati vanno presi cum grano salis, ossia rendendosi conto che quello non è lo scenario dei giochi futuri, al più si può avvicinare allo scenario dei giochi attuali in futuro, per i quali però con le schede grafiche del futuro difficilmente quella piccola perdita di frame sarà in alcun modo un problema.
In definitiva direi che sarebbe comunque meglio un processore che se la cava bene anche in questo genere di test, ma se questo valga un esborso ulteriore o la scelta di un processore inferiore in altri contesti utili beh, vedete voi quale sia l'ovvia risposta. ;)
HwWizzard
20-04-2018, 17:59
cioè quindi secondo te a "l'amico fritz" a 1280×720 la cpu calcola gli stessi punti sulla scena a parità di fps che a 3840×2160? ma siete seri?
Ma no!!! Non hai capito niente :D
Per “l’amico Fritz” se la GPU calcola 300 FPS invece di 60 FPS la CPU ha meno lavoro da svolgere :sofico:
Comunque devo ammettere che un thread così esilarante mancava da un pezzo!
nickname88
20-04-2018, 18:00
cioè quindi secondo te a "l'amico fritz" a 1280×720 la cpu calcola gli stessi punti sulla scena a parità di fps che a 3840×2160? ma siete seri?
Se c'è un frame limitato ad un tot e la VGA non fa da collo di bottiglia, il carico sulla CPU ovviamente è uguale.
E' da due pagine che ti viene detto che la complessità geometrica della scena non cambia al variare della risoluzione.
E che quest'ultima è solo a carico della GPU.
nickname88
20-04-2018, 18:05
Si, sei serio :doh:
Io sono serio, te invece continui ad ignorare, quello è il problema.
Un singolo frame di uno specifico scenario a 720p ha lo stesso peso sulla CPU dello stesso a risoluzioni differenti.
nickname88
20-04-2018, 20:23
che la complessità poligonale di un oggetto non c'entra con la risoluzione generale è pacifico, ma i punti che devi andare a calcolare nello spazio sono esponenzialmente superiori al salire della risoluzione.
Un triangolo avrà sempre 3 punti, così come qualsiasi altra figura, indipendentemente dalla risoluzione con cui lo mandi a schermo, mi sà che tu e anche i tuoi amici di merende fate molta confusione fra vertici e pixels. :rolleyes:
per fare un paragone è come se in un gioco staresti aumentando l'angolo di visione.L'angolo di visione e FOV non cambiano con l'aumento di risoluzione.
cioè quindi secondo te a "l'amico fritz" a 1280×720 la cpu calcola gli stessi punti sulla scena a parità di fps che a 3840×2160? ma siete seri?
La cpu non calcola "punti". La cpu ordina alla gpu di fare determinate operazioni grafiche su poligoni, texture ecc.. e rappresentare poi i risultati su schermo. Se poi la scena viene mostrata a 720p, a 1080p o in 4K poco cambia per la cpu. La complessità poligonale è idendica, le texture sono le stesse e gli effetti idem.
La rasterizzazione invece, ossia la trasformazione degli oggetti poligonali in punti, viene eseguita in hardware dalla scheda video ed è anche per questo che la risoluzione adottata influisce pesantemente sulla scheda video e non sulla cpu.
sgrinfia
20-04-2018, 22:07
Certo, il problema è solo della Vga, che in caso di aumento della risoluzione deve gestire più poligoni e pixel , e quindi deve calcolare di più , e questo si traduce in un dispendio di "potenza"(frame).
Poi per quanto riguarda la cpu , spinge più oh meno allo stesso modo al cambiare della risoluzione , semmai la differenza per entrambe la fà l'archittetura dell'intero sistema dentro la VGA e CPU, guardate VEGA a una potenza di calcolo superiore di uno SLI di 1080ti ,eppure in game va meno di una singola.........perchè?,.....perchè a un struttura parallelizzazione che il 90% dei videogiochi sella scorda , VEGA e una vga dell futuro che è stata tirata fuori con determinate caratteristiche favorevoli al minning e produttività , tanto chi la compra per giocare anche se non è la vga numero uno nell gaming ,e sicuramente da podio;)
nickname88
20-04-2018, 23:03
Insomma, ci sarà un motivo se il nostro buon nicknameXXX dovendo scegliere un grafico da mettere nella prima pagina dei commenti di questa testata ha scelto quello del 720p invece dei ben più rilevanti 1080p e 2k... :D
No il caro nickname ha messo il 720p perchè è quello più neutro e che mostra i distacchi più reali solamente lato CPU.
In un confronto di CPU uno cerca il paragone di performance di solo quest'ultima, se volevo vedere la performance della 1080 andavo nell'articolo apposito.
Se non ti piace il numerino 720, puoi cercare benissimo test a risoluzioni più alte ma con configurazioni grafiche più spinte, il concetto è il medesimo.
Se metti tre grafici (4k, 2k, fullhd) nei quali vanno ugualiIl fatto di essere limited nel frames medio all'intero dei bench interni ai giochi non implica che vi siano scenari in cui la differenza può emergere.
Io sono serio, te invece continui ad ignorare, quello è il problema.
Un singolo frame di uno specifico scenario a 720p ha lo stesso peso sulla CPU dello stesso a risoluzioni differenti.
il meshing si, almeno nei casi generali.
se devi avere un meshing a 60fps avrai lo stesso carico sia a 720 che a 4K, sempre che chi ha fatto il gioco non abbia ben pensato di modificare il parametro e aumentare la densità dei vertici del meshing.
succede anche se scali, su alcuni giochi, da low a ultra i dettagli.
l'aumento dei dettagli dipende anche da quanto il meshing sia dettagliato nella forma.
qualora il parametro non venga modificato, per il meshing, la risoluzione non conta, ma conta la generazione della forma, ossia gli FPS.
ma... la CPU non fa solo quello.
per te i driver della GPU chi li amministra?
la cpu, le ram, o il chipset?
quindi se fai più frame avrai più lavoro da gestire con i driver da parte della CPU.
quindi cosa effettivamente stai testando?
la CPU tizio, sul motore grafico caio, con la GPU sempronio e l'architettura vattelapesca.
fai solo questo e quei risultati serviranno solo in quell'ambito, non in proiezione futura, perchè domani il motore grafico si può avvalere di altre tecnologie e altre logiche, le GPU saranno diverse e le attuali architetture saranno antiquariato storico, oltretutto la CPU che testi non sarà manco più considerata per ottimizzazioni e sviluppo sui giochi.
non serve a nulla se non a chi oggi deve sapere quale sistema è in grado di fare 100, 200 o 300fps con quella particolare configurazione in quel particolare gioco.
utile a chi gioca a CSGO in modo competitivo.... ma non testano CSGO, e anche i 250fps del ryzen sono ben oltre le capacità dei monitor migliori sulla piazza.
è marketing.
solo dannato marketing per buttare fumo negli occhi degli stolti.
è più interessante, per la gente comune, sapere se per i 90fps si prende un elicottero attaccato ad una centrale termica o un aliante carico di ghiaccio secco accanto all'orecchio, te lo assicuro.
e poi, nella maggior parte dei casi, basta un driver video che taglia il suo carico del 50% o una patch sul gioco che elimina o parametrizza meglio certi aspetti, e la differenza diventa nulla.
perciò di cosa stai parlando?
da me si dice aria fritta...
trolleggia di meno, che non attacca più con nessuno.
e poi, guarda, basta che i giochi incomninciano a usare più dei soliti 4 core e mediando meglio il carico che lì hai 8 core che ti spaccano il c u l o hai passeri in volo accrobatico, e la differenza di prestazioni la vedi come su CB15 in multicore.... la storia è la medesima da anni:
Intel single core, AMD dual core = i giochi saranno sempre single core.
Intel dual core, AMD quad core = i giochi non supereranno mai l'uso di due core.
Intel quad core, AMD octacore = i giochi non useranno che 4 core...
quindi te ne rendi conto di quante stupidaggini stai scivendo?
giusto per completezza sull'argomento, se devi testare per i frame basta che metti tutto a minimo i triming di effetti e dettalgi, lasciando anche la stessa risoluzione.
sempre meshing testi, ma almeno elimini la variabile "algoritmi ad cazzum gimpanti e astrusi"... qui lasciano comunque il fottutissimo ultra, che non ci fai un emerito nulla a 720p.
si ha forse paura che l'algoritmo tal dei tali sfrutti meglio l'istruzione che solo il compilatore intel ha messo nel codice per la sola famiglia tal dei tali dei processori intel?
perchè non lo fanno anche così, che magari uno capisce quanto massimo può generare oggi con quel gioco?
non sono review tecnologiche, ma vetrine, e chi paga di più viene trattato meglio.
psychok9
21-04-2018, 12:11
Sì, ok... in teoria.
Nella pratica la prossima generazione di schede video non avrà incrementi prestazionali tali da eliminare il bottleneck delle CPU.
Nella pratica la tendenza è di aumentare la risoluzione dei monitor per il gaming.
Nella pratica i giochi che sfruttano tutti i core a disposizione del sistema iniziano ad apparire, e quando questo accade averne due in più è un vantaggio tutt'altro che teorico!
Esatto, in teoria su giochi più vecchi e a risoluzioni basse ha un senso guardare quanto spinge la cpu in gaming, nella pratica... quando usciranno gpu così potenti da aspettare la cpu a risoluzioni decenti > 1440p, i giochi stessi sfrutteranno il MT di Ryzen facendo arrancare l'8700K ;)
Di contro c'è sempre da considerare giochi come GTA, ma c'è ne sono altri, di gran successo, ma che per qualche motivo sono molto più ottimizzati per cpu Intel (secondo me è proprio un fatto di programmazione del gioco orientato e testato esclusivamente su cpu Intel).
Non è la GPU a passare operazioni alla CPU, è esattamente il contrario.
Ovvio che più velocemente la GPU renderizza meno la CPU è wallata.
Più fps->più carico sulla cpu che riceve più calls.
C'è un motivo se le differenze fra le cpu odierne si cercano a risoluzioni basse, ed è proprio il motivo per cui più fps hai più ti serve una cpu decente per rispondere alle draw calls.
Io voglio sapere come funziona la mia CPU ora e nell'immediato futuro e, semmai, cercare di capire come si comporterà più in là nel tempo.
Non mi interessa sapere come si sarebbe comportata se fosse stata costruita 20 anni fa.
Al momento io so che le nuove generazioni di GPU non offrono grandi salti prestazionali, che si rinnovano ogni 3 anni e che, in ogni caso, c'è da mettere sul piatto l'aumento del carico per la GPU dovuto all'aumento della complessità dei giochi. In questa situazione l'ultima mia preoccupazione sono le minime differenze tra le CPU, ben sapendo che tali resteranno anche nel tempo.
So che con giochi che impegnano poco la GPU, o a basse risoluzioni, avrò un framerate alto e quindi le differenze saranno ininfluenti.
Terrei invece presente che il numero di core potrebbe rivelarsi un vantaggio con il passare del tempo.
A questo punto, invece che cercare di testare le CPU in situazioni surreali, prenderei in considerazione il comportamento con SW di produttività, visto che il PC lo si usa anche per cose diverse dai giochi.
Dovessi cambiare la CPU ora, non avrei dubbi nel scegliere AMD.
I test sono stati effettuati con le patch applicate? In quelle poche review dove viene specificato che tutte le patch sono state applicate, Intel è molto al di sotto. Strano che la maggior parte dei siti non ne fa nessun accenno, c'è qualcosa che non quadra. Big money ;-)
MaxFabio93
22-04-2018, 21:04
I test sono stati effettuati con le patch applicate? In quelle poche review dove viene specificato che tutte le patch sono state applicate, Intel è molto al di sotto. Strano che la maggior parte dei siti non ne fa nessun accenno, c'è qualcosa che non quadra. Big money ;-)
Che differenza farebbe? L'importante è stare attenti e non incappare in software malevolo, le vulnerabilità sono fatte per gli utonti ;)
MiKeLezZ
23-04-2018, 00:08
Anche a me piacerebbe vedere come si comportano queste cpu non solo in situazioni di utilizzo quotidiano ma anche a risoluzioni più basse per valutare il reale distacco con la concorrenza in situazioni non gpu limited. D'altra parte, se vai a recensire una Ferrari, non lo fai di certo rispettando i limiti di velocità :DRitengo che i test a basse risoluzioni siano semplicemente una stupidaggine dato che la CPU oggigiorno è un supporto alla GPU e più aumenta il carico sulla GPU più anche la CPU deve essere prestante. Anche perché credo che per l'engine del gioco ci sia una leggera differenza fra calcolare la fisica di 16 mila triangoli e quella di 82 milioni di triangoli ed evidentemente è più interessante testare le nuove CPU nel secondo caso.
Peccato nella recensione manchi il 2600, forse la CPU più interessante.
jazzmaster
23-04-2018, 13:49
a me non frega nulla dei giochi, mi interesserebbe vedere un 2700X come se la cava nel mining con algoritmo cryptonight, secondo me spacca..
Che differenza farebbe? L'importante è stare attenti e non incappare in software malevolo, le vulnerabilità sono fatte per gli utonti ;)
Come già scritto, differenza tangibile difatti con patch applicate anche nel gaming l'8700k va sotto un 2700X.
nickname88
23-04-2018, 17:13
Come già scritto, differenza tangibile difatti con patch applicate anche nel gaming l'8700k va sotto un 2700X.
Già scritto sbagliato semmai, perchè non basta mica una sola testata giornalistica per parlare. Altre tutte le altre infatti parlano differentemente.
tu prendi un dato per certo per tendenza statistica o per qualche altra garanzia?
perchè ai tempi di Hitler la maggioranza dei tedeschi lo reputava uno statista di elevato spessore, come qua in italia Mussolini.
senza andare a prendere certi esempi la tua è solo una congettura non meno forzata rispetto all'altra.
è quindi l'affidabilità di chi ha eseguito il test che si chiama a conferma?
io non ho ancora letto di un reviewer che abbia fatto i test su macchina intel con o senza patch inserendo nella comparativa anche il 2700x, giusto per vedere se cambiava qualcosa, quindi non ti dico che gli uni o l'altro sono dati abberranti, ma neanche il contrario;
ti dico che vorrei altri test specifici per conferma.
PS:
molte testate hanno scritto che non le avevano applicate.
non significa nulla, perchè magari la differenza è nulla e anandtech ha sbagliato, ma è solo una congettura non una verifica.
Che differenza farebbe? L'importante è stare attenti e non incappare in software malevolo, le vulnerabilità sono fatte per gli utonti ;)
...
convinto tu.
(ed il commento ci sta bene anche se eri ironico, perchè qualcuno ci potrebbe anche credere).
Mah, considerando che la maggior parte delle cpu Intel non raggiunge i boost clock visti nelle recensioni senza auto oc nella mobo e solo con dissipatori buoni io proprio non lo vedo il punto di preferire Intel anche fosse solo per i giochi.
Le prestazioni Intel nelle recensioni sono spesso sovradimensionate a causa assenza meltdown-spectre fix, assenza di windows update e settings motherboard overcloccati.
Sta scusa andava bene all'epoca di Ryzen 1, ma ora come ora mica tanto.
Se Ryzen 1 si poteva passare causa prestazioni effettivamente minori nei giochi (anche se si notava principalmente a risoluzioni basse), Ryzen 2 non ha niente di tutto ciò.
Senza considerare che quando giochiamo non lo facciamo con sistemi lindi e puliti come quelli delle review. Quando giochiamo abbiamo chrome aperto, teamspeak, registriamo con shadowPlay e compagnia bella, il che impatta le cpu intel molto di più.
Io lo dico da possessore Coffee Lake, spendere anche un solo euro per un i5/i7 coffee lake non ha senso. Le soluzioni AMD sono più veloci e più economiche, il che si sente specialmente con le schede madri.
nickname88
23-04-2018, 23:06
tu prendi un dato per certo per tendenza statistica o per qualche altra garanzia?
perchè ai tempi di Hitler la maggioranza dei tedeschi lo reputava uno statista di elevato spessore, come qua in italia Mussolini.
senza andare a prendere certi esempi la tua è solo una congettura non meno forzata rispetto all'altra.
Lo spessore dei paraocchi spesso impressiona, e non poco.
Adesso si scredita pure la maggioranza e si tirano in ballo Hitler e Mussolini ?
E' curioso capire poi in che modo la patch andrebbe ad influire sui giochi, visto che questo è uno dei settori meno colpiti.
E secondo te solo Anandtech è stato in grado di rilevarlo ? Quindi siamo di fronte ad uno scoop in esclusiva.
è quindi l'affidabilità di chi ha eseguito il test che si chiama a conferma?
io non ho ancora letto di un reviewer che abbia fatto i test su macchina intel con o senza patch inserendo nella comparativa anche il 2700x, giusto per vedere se cambiava qualcosa, quindi non ti dico che gli uni o l'altro sono dati abberranti, ma neanche il contrario;
ti dico che vorrei altri test specifici per conferma.I confronti ci sono in tutte le reviews del 2700X, basta andare a leggere la configurazione di test per verificarlo guardando la versione del bios usata nella mobo della controparte Intel.
Senza considerare che quando giochiamo non lo facciamo con sistemi lindi e puliti come quelli delle review. Quando giochiamo abbiamo chrome aperto, teamspeak, registriamo con shadowPlay e compagnia bella, il che impatta le cpu intel molto di più.
Ma da quando in quà ? Quasi nessuno fa girare altri applicativi mentre gioca, o almeno non abitualmente.
E' chiaro che il riferimento va preso in condizioni normali, ossia con il solo gioco avviato, di attivo più o meno rimane solo l'Antivirus.
Lo ShadowPlay non serve a giocare ma a registrare le giocate.
E il Teamspeak non occupa un tubo.
a) shadowplay impatta sempre le performance (in quanto salva costantemente gli ultimi x minuti di gioco). Dallo 0.6 al 3% abbondante su un i5 di ultima generazione. La differenza sale con la risoluzione (immagini più grosse) e ho visto anche perdite dell'11% con Dirt Rally (su una 1060 però).
b) tu chiudi browser, io no. In più tengo IRC (hexchat), Whatsapp, Telegram, 3 slack differenti e un discord. Spesso mentre gioco ho anche spotify/youtube.
Tutta questa roba c'è bisogno di servirla e ti assicuro che già sento molta differenza fra il mio esacore attuale e il mio 4 core precedente.
Io tornassi indietro non ci penserei due volte a buttare la mia mobo/cpu e a comprarmi un ryzen 2.
Sarò sincero, ryzen 1 non l'ho preso per le prestazioni nei giochi, ma ora come ora ryzen 2 è meglio anche in quello senza se e senza ma a meno di fissarsi sugli fps medi, io vedo intel avere 1 e 0.1% molto ma molto piu bassi su praticamente tutte le riviste e youtube:
https://www.youtube.com/watch?v=-kuKQGThNgs
nickname88
24-04-2018, 10:06
b) tu chiudi browser, io no. In più tengo IRC (hexchat), Whatsapp, Telegram, 3 slack differenti e un discord. Spesso mentre gioco ho anche spotify/youtube.
Infatti non è di certo la situazione tipica.
Solitamente quando si gioca non si tengono aperti altri applicativi di rilievo.
a) shadowplay impatta sempre le performance (in quanto salva costantemente gli ultimi x minuti di gioco). Dallo 0.6 al 3% abbondante su un i5 di ultima generazione. La differenza sale con la risoluzione (immagini più grosse) e ho visto anche perdite dell'11% con Dirt Rally (su una 1060 però).Infatti shadowplay non centra nulla con il giocare.
Serve a registrare le partite, non puoi di certo metterlo in conto in un confronto.
Infatti shadowplay non centra nulla con il giocare.
Serve a registrare le partite, non puoi di certo metterlo in conto in un confronto.
Sono in disaccordo, per me salvare le mie azioni in video è un utilizzo che faccio neanche troppo raramente e non mi pare di essere l'unico.
Il mio punto comunque è differente, basarsi su dei benchmark dove l'unica cosa è aperta è il gioco e il sistema è bello e lindo e perfettamente aggiornato/mantenuto non è l'utilizzo tipico che ne fanno i gamer nel 2018.
nickname88
24-04-2018, 11:15
Il mio punto comunque è differente, basarsi su dei benchmark dove l'unica cosa è aperta è il gioco e il sistema è bello e lindo e perfettamente aggiornato/mantenuto non è l'utilizzo tipico che ne fanno i gamer nel 2018.Per te, ma di consuetudine invece chi gioca lo fà in questo modo. Nessun gamer che intende giocare ( e non fare video per youtube, navigare su internet, far chiamate con skype o altro ) lascia altre applicazioni aperte, praticamente da sempre.
Se stai giocando, giochi non fai altro.
Cosa fai, metti ad icona il gioco durante i caricamenti e scrivi sul forum o piazzi like su FB ?
A parte l'antivirus che nelle recensioni è presente ( defender ) o il teamspeak che non influisce quasi per niente e che per giunta nemmeno usano tutti, nient'altro gira, di certo nulla di pesante. MS ha pure tirato fuori il game mode per altro. E i confronti vanno assolutamente fatti così.
Per te, ma di consuetudine invece chi gioca lo fà in questo modo. Nessun gamer che intende giocare ( e non fare video per youtube, navigare su internet, far chiamate con skype o altro ) lascia altre applicazioni aperte, praticamente da sempre.
Se stai giocando, giochi non fai altro.
Cosa fai, metti ad icona il gioco durante i caricamenti e scrivi sul forum o piazzi like su FB ?
A parte l'antivirus che nelle recensioni è presente ( defender ) o il teamspeak che non influisce quasi per niente e che per giunta nemmeno usano tutti, nient'altro gira, di certo nulla di pesante. MS ha pure tirato fuori il game mode per altro. E i confronti vanno assolutamente fatti così.
Scusa, ma che prove hai a sostegno della tua tesi?
Il fatto che tu giochi così significa che lo fai tu o altre persone che conosci.
Gioco principalmente online, quando sono morto spesso scrivo sul forum o piazzo like su fb o controllo i social/messaggerie varie.
nickname88
24-04-2018, 11:35
Scusa, ma che prove hai a sostegno della tua tesi?
Il fatto che tu giochi così significa che lo fai tu o altre persone che conosci.
Indici un sondaggio.
In ogni caso il confronto di certo non va fatto in quelle condizioni.
Sennò entriamo nel soggettivo.
Gioco principalmente online, quando sono morto spesso scrivo sul forum o piazzo like su fb o controllo i social/messaggerie varie.Giochi online immagino su titoli senza respawn o con lunghe attese per avere il tempo di fare ciò.
Gran parte dei generi di certo non lo permette, se passiamo invece al single player devi proprio metterlo in pausa appositamente per fare quello.
Già scritto sbagliato semmai, perchè non basta mica una sola testata giornalistica per parlare. Altre tutte le altre infatti parlano differentemente.
In realtà, come già menzionato nel primo commento, avendo usato il plurale, sono ben più di 1 le recensioni con le patch applicate ed i risultati sono in linea. ;)
O chi gioca e basta. :O
Non mi son mai registrato le partite e nemmeno mi interessa, se non qualche prova effettuata diversi anni fa, e non uso nient'altro mentre gioco. Boh, sarò strano io.
Per una volta devo dar ragione a Paul. :eekk:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.