View Full Version : [Thread Ufficiale] CPU Zen 14/12/7nm: AMD Ryzen!
guarda che in effetti AMD in ambito server è ancora al palo, secondo le ultime stime di Mercury Research relative al q2 2020 AMD è data al 5,8% una percentuale solo adesso finalmente superiore a quel 5% che AMD si era prefissata come obbiettivo per l'ultimo quarter del 2018...
Seh, va beh. AMD era all' 1% fino a 2 anni fa, adesso ha superato il 10% e sta raddoppiando il market share di semestre in semestre praticamente. :rolleyes:
Il passo in avanti vero lo ha fatto l'anno scorso, quando ha presentato Zen2.
Da (praticamente) 0 a +10% in 1 anno è una cosa mostruosa in ambito server. Se poi avete le fette di prosciutto davanti agli occhi, alzo bandiera bianca.
Gigibian
17-09-2020, 22:12
Ma nemmeno in 4k con 2080Ti e la risoluzione piu utilizzata è ancora la 1080p
vedo che non capite. non è un discorso di risoluzione ma di latenza nella disponibilità del dato.
in 1080p con una scheda normale (2060/5700) non noti nessuna differenza. se Amd fa 60 intel fà 61. siamo sempre lì.
fabietto27
17-09-2020, 23:19
Riguardo il chipset x670 c'è stata qualche news che mi sono perso...in rete trovo solo notizie vecchie di mesi....
Inviato dal mio OnePlus 7 Pro utilizzando Tapatalk
:eekk: :eekk: :eekk:
spe che accendo la cavalcata delle valchirie per aggiungere ulteriore pathos
Mentre ci sei accendi pure una candela !!!:D :eek:
La grande mareggiata sta arrivando .....un vento che soffia da sud e che porta zen3-high desktop /zen3-threadripper/zen3-EPYC! :read:
Magari qualcuno volesse che le mie parole non siano esse ma è tutto scritto ...ahimè.....tutto quel blu sarà spazzato via ragazzo come non immagini.
Anche per l'amico verde ci sarà la grande mareggiata....e se proprio non potesse essere con RDNA2, lo sarà con RDNA3 a 5nm!!! :read:
...altro che pathos! :D ....a me suscita solo pietà e pianto!!! ;)
ma basta con ste stronzate e con sto linguaggio imbarazzante.....basta per pieta' :muro:
ma basta con ste stronzate e con sto linguaggio imbarazzante.....basta per pieta' :muro:
Io l'ho messo in ignore list ma, se continuano a quotarlo, purtroppo è inutile :stordita:
Visto che è lecito paragonare una CPU intel da 400€ con un amd da 300€, ti propongo anche io un video:
https://youtu.be/mbaNmHcogXs?t=1413
10700K da 400€ contro Ryzen 3900X da 430€
Nella scelta di una piattaforma un occhio alla miglior configurazione ottenibile con stesso budget non è un aspetto da tralasciare
Io il 3900X su Amazon il 2 agosto lo pagai anche meno...
E questo senza contare che una buona B550 come la mia costa meno di un equivalente Z490, quindi alla fine il divario si assottiglia fino ad azzerarsi.
Mentre ci sei accendi pure una candela !!!:D :eek:
La grande mareggiata sta arrivando .....un vento che soffia da sud e che porta zen3-high desktop /zen3-threadripper/zen3-EPYC! :read:
Magari qualcuno volesse che le mie parole non siano esse ma è tutto scritto ...ahimè.....tutto quel blu sarà spazzato via ragazzo come non immagini.
Anche per l'amico verde ci sarà la grande mareggiata....e se proprio non potesse essere con RDNA2, lo sarà con RDNA3 a 5nm!!! :read:
...altro che pathos! :D ....a me suscita solo pietà e pianto!!! ;)
Ma sinceramente ti rileggi quando scrivi ? :mbe:
ma basta con ste stronzate e con sto linguaggio imbarazzante.....basta per pieta' :muro:
Io l'ho messo in ignore list ma, se continuano a quotarlo, purtroppo è inutile :stordita:
Imbarazzante veramente purtroppo :rolleyes:
Io cerco di avere un approccio critico ad entrambi i marchi, verso i quali non ho preferenze, ma in questo specifico caso sto difendendo l’ovvio e palese miglior rapporto prestazioni/prezzo dei prodotti AMD. Quando però leggo certi interventi su mareggiate rosse e cataclismi blu mi cadono le braccia :cry:
conan_75
18-09-2020, 10:04
Io spero sempre in un provvedimento esemplare dei mod.
Così si scatenano solo flames e di certo non sono post costruttivi per la discussione.
alfonsor
18-09-2020, 10:15
trovo affiu poetico e penso che dal punto di vista linguistico questo thread perderebbe senza la sua presenza; dal punto di visto tecnico, certamente c'è poco peso nei suoi interventi, ma se quello fosse il metro meritocratico ...
tolleranza zero vo' cercando e landa desolata mi apparì
appost'
trovo affiu poetico e penso che dal punto di vista linguistico questo thread perderebbe senza la sua presenza; dal punto di visto tecnico, certamente c'è poco peso nei suoi interventi, ma se quello fosse il metro meritocratico ...
tolleranza zero vo' cercando e landa desolata mi apparì
appost'
Se per te questa è poesia, allora ti direi che ci sono dei centri di salute mentale che cercano volontari. Troveresti lo stesso livello poetico e faresti del bene :stordita:
Sinceramente concordo con gli altri nel dire che le sue sparate sono così di parte e svalvolate che le trovo irritanti e possono innescare flame.
=3dS= Mayo
18-09-2020, 10:39
Buongiorno a tutti,
devo fare un nuovo PC per il mio secondo figlio, secondo voi uso gioco e sufficiente un Ryzen 5 3600X 6 core o nel giro di breve farà fatica a far girare i giochi più recenti? O devo puntare x forza su un 3700X ?
Cosa mi consigliate ??
Grazie
Gyammy85
18-09-2020, 10:47
Buongiorno a tutti,
devo fare un nuovo PC per il mio secondo figlio, secondo voi uso gioco e sufficiente un Ryzen 5 3600X 6 core o nel giro di breve farà fatica a far girare i giochi più recenti? O devo puntare x forza su un 3700X ?
Cosa mi consigliate ??
Grazie
Ciao, personalmente ti consiglierei di aspettare ottobre per vedere i nuovi zen 3, se no un 3600 è più che sufficiente
alfonsor
18-09-2020, 10:48
Buongiorno a tutti,
devo fare un nuovo PC per il mio secondo figlio, secondo voi uso gioco e sufficiente un Ryzen 5 3600X 6 core o nel giro di breve farà fatica a far girare i giochi più recenti? O devo puntare x forza su un 3700X ?
Cosa mi consigliate ??
Grazie
se il 3600 non dovesse fare girare giochi, manco ci riuscirà il 3700, per cui dovresti andare di 3900, intendo se hai quella preoccupazione
oppure comperare il 3600 e poi quando e se accadrà, cambiarlo
VanCleef
18-09-2020, 10:56
Buongiorno a tutti,
devo fare un nuovo PC per il mio secondo figlio, secondo voi uso gioco e sufficiente un Ryzen 5 3600X 6 core o nel giro di breve farà fatica a far girare i giochi più recenti? O devo puntare x forza su un 3700X ?
Cosa mi consigliate ??
Grazie
Il 3600 liscio basta e avanza per parecchio. Dipende anche se tuo figlio ha necessità di fare altro mentre gioca (streaming?).
trovo affiu poetico e penso che dal punto di vista linguistico questo thread perderebbe senza la sua presenza; dal punto di visto tecnico, certamente c'è poco peso nei suoi interventi, ma se quello fosse il metro meritocratico ...
tolleranza zero vo' cercando e landa desolata mi apparì
appost'
Personalmente vedo solo flame, pure sgrammaticato.
von Clausewitz
18-09-2020, 11:59
Entro nel discorso solo per dire, per esperienza personale, che già il dissipatore in bundle con il 3900X fa un ottimo lavoro, se non si ha intenzione di fare prove particolari ma "limitarsi" solo al semplice uso del PBO, ti assicuro che è più che sufficiente ed neanche eccessivamente rumoroso.
Quando, sul mio 3900X, l'ho sostituito con un dissipatore con 6 heatpipe e 2 ventole da 12", ti assicuro che ho guadagnato solo qualche grado, ben diverso il invece il discorso quando avevo gli i7, il dissipatore in bundle era quantomeno imbarazzante, da questo punto di vista AMD non è Intel.
Tutto qua, bye!
ho letto che qualcuno li ha trovati un po' rumorosi, dici non più di tanto?
va bene come ho detto basta accontentarsi
bye :)
von Clausewitz
18-09-2020, 12:06
Seh, va beh. AMD era all' 1% fino a 2 anni fa, adesso ha superato il 10% e sta raddoppiando il market share di semestre in semestre praticamente. :rolleyes:
Il passo in avanti vero lo ha fatto l'anno scorso, quando ha presentato Zen2.
Da (praticamente) 0 a +10% in 1 anno è una cosa mostruosa in ambito server. Se poi avete le fette di prosciutto davanti agli occhi, alzo bandiera bianca.
intanto voi chi? :confused: :rolleyes:
va bene che qui il senso critico quando si parla di AMD difetta alquanto, ma lo spunto, cioè una cifra precisa te l'ho dato, quindi prima verifichi e t'informi poi puoi venire a fare tutte le faccine rolleggianti che vuoi
infatti:
https://wccftech.com/amd-hits-highest-x86-cpu-market-share-since-2013-mobility-sees-huge-gains-ryzen-desktop-epyc-server-steadily-climb/
AMD Server CPU Market Share Q2 2020
Lastly, we have the server market share numbers which are reported at 5.8% in Q2 2020 versus 5.1% in total of the previous quarter. This is a +0.6% gain compared to Q1 2020 and a 2.2% gain versus the previous year. Once again, these figures are specific to the entire server segment while the ones that AMD reported were derived from IDC and covered the 1P & 2P (1-socket / 2-socket) servers. Those figures were reported at 8.0% for 2019 and would be exceeding double-digits in 2020.
come puoi leggere è proprio 5,8%, il 10% è una escamotage AMD, leggesi furbata
von Clausewitz
18-09-2020, 12:12
trovo affiu poetico e penso che dal punto di vista linguistico questo thread perderebbe senza la sua presenza; dal punto di visto tecnico, certamente c'è poco peso nei suoi interventi, ma se quello fosse il metro meritocratico ...
tolleranza zero vo' cercando e landa desolata mi apparì
appost'
quoto, diciamo lirico e a tratti pure divertente :D
dal punto di vista tecnico lascia a desiderare ma è evidente che le sue iperbole non hanno questo fine tanto sono palesi
ben diverso da chi fra fantasie e suggestioni, per usare eufemismi, fa disinformazione a piene mani spacciandola per verità assoluta e chi vuol capire capisca
intanto voi chi? :confused: :rolleyes:
va bene che qui il senso critico quando si parla di AMD difetta alquanto, ma lo spunto, cioè una cifra precisa te l'ho dato, quindi prima verifichi e t'informi poi puoi venire a fare tutte le faccine rolleggianti che vuoi
infatti:
https://wccftech.com/amd-hits-highest-x86-cpu-market-share-since-2013-mobility-sees-huge-gains-ryzen-desktop-epyc-server-steadily-climb/
AMD Server CPU Market Share Q2 2020
Lastly, we have the server market share numbers which are reported at 5.8% in Q2 2020 versus 5.1% in total of the previous quarter. This is a +0.6% gain compared to Q1 2020 and a 2.2% gain versus the previous year. Once again, these figures are specific to the entire server segment while the ones that AMD reported were derived from IDC and covered the 1P & 2P (1-socket / 2-socket) servers. Those figures were reported at 8.0% for 2019 and would be exceeding double-digits in 2020.
come puoi leggere è proprio 5,8%, il 10% è una escamotage AMD, leggesi furbata
https://www.datacenterknowledge.com/amd/amd-gains-server-chip-market-share-intel-s-expense
Ma voi seriamente credete che il CEO di un'azienda quotata in borsa può inventarsi le cose? Seriamente credete che gli investitori comprino le azioni a scatola chiusa?
AMD ha citato IDC che, per il settore server, analizza il market share delle soluzioni server 1/2 P. Ovvero il mercato più redditizio e dove è più veloce l'adozione di nuovi processori, dato che il rapporto performance/prestazioni/consumi impatta molto di più.
Su un router/switch SDN (ed il settore IoT in generale), adottare un Epyc embedded o uno Xeon-D o, ancor meglio, una soluzione semicustom (cosa che AMD praticamente non ha in portafoglio) non muove molto l'ago della bilancia, ergo i produttori sono più conservativi. Questo si traduce in un'adozione più lenta di nuovi processori (perché cambiare piattaforma e passare ad AMD, se quella attuale è testata e funzionante?).
Io avevo citato il market share del settore server per confermare la bontà dei passi fatti da AMD. A conti fatti, quale indicatore è più utile per capire se AMD sta facendo veramente passi avanti o son solo seghe da fanboy?
Il market share di un settore dove i produttori sono più inclini ad adottare nuove soluzioni, o uno (SDN/IoT) dove lo status quo è più difficile da scardinare?
Buongiorno a tutti,
devo fare un nuovo PC per il mio secondo figlio, secondo voi uso gioco e sufficiente un Ryzen 5 3600X 6 core o nel giro di breve farà fatica a far girare i giochi più recenti? O devo puntare x forza su un 3700X ?
Cosa mi consigliate ??
Grazie
Il 3600X per giocare andrà bene per anni, prima che i suoi 6 core e “relativamente” basse frequenze diventino un limite. Certo se i soldi non sono proprio un problema io lo sforzo per il 3700X ed i suoi 8C/16T lo farei. È la stessa configurazione delle nuove consolle...
MA
Aspetta i primi di ottobre e la presentazione di Zen3.
Potrai prendere un 5600X oppure trovare un 3700X in offerta ...
trovo affiu poetico e penso che dal punto di vista linguistico questo thread perderebbe senza la sua presenza; dal punto di visto tecnico, certamente c'è poco peso nei suoi interventi, ma se quello fosse il metro meritocratico ...
tolleranza zero vo' cercando e landa desolata mi apparì
appost'
Poetico... linguistico... :doh:
Magari qualcuno volesse che le mie parole non siano esse
Eh si vera poesia ... :rolleyes:
Torniamo a parlare di CPU va...
ho letto che qualcuno li ha trovati un po' rumorosi, dici non più di tanto?
va bene come ho detto basta accontentarsi
bye :)
Io il Prism l’ho provato sul 3900X. Paragonato al Dark Rock 4 per tenere temperature paragonabili (beh ho visto 5/6° di differenza) fa un rumore decisamente maggiore. Molto maggiore.
A me sia ben chiaro il rumore delle ventole non da mai fastidio, ma solo che altri sono più sensibili...
bagnino89
18-09-2020, 13:16
Magari qualcuno volesse che le mie parole non siano esse ma è tutto scritto ...ahimè.....tutto quel blu sarà spazzato via ragazzo come non immagini.
Anche per l'amico verde ci sarà la grande mareggiata....e se proprio non potesse essere con RDNA2, lo sarà con RDNA3 a 5nm!!! :read:
"Allora Ragioniere, che fa? Batti? (https://www.youtube.com/watch?v=3qrD1dh_j7E)"
intanto voi chi? :confused: :rolleyes:
va bene che qui il senso critico quando si parla di AMD difetta alquanto, ma lo spunto, cioè una cifra precisa te l'ho dato, quindi prima verifichi e t'informi poi puoi venire a fare tutte le faccine rolleggianti che vuoi
infatti:
https://wccftech.com/amd-hits-highest-x86-cpu-market-share-since-2013-mobility-sees-huge-gains-ryzen-desktop-epyc-server-steadily-climb/
AMD Server CPU Market Share Q2 2020
Lastly, we have the server market share numbers which are reported at 5.8% in Q2 2020 versus 5.1% in total of the previous quarter. This is a +0.6% gain compared to Q1 2020 and a 2.2% gain versus the previous year. Once again, these figures are specific to the entire server segment while the ones that AMD reported were derived from IDC and covered the 1P & 2P (1-socket / 2-socket) servers. Those figures were reported at 8.0% for 2019 and would be exceeding double-digits in 2020.
come puoi leggere è proprio 5,8%, il 10% è una escamotage AMD, leggesi furbata
Beh, a questo livello il più pulito ha la rogna nel rappresentare i dati in modo più favorevole al marketing :stordita:
Also, one thing to keep in mind is that the numbers shared by Mercury Research may look slightly different than the ones reported by AMD themselves. For example, the numbers that AMD uses for its presentations are based on IDC's data for the server segment which only addresses the 1P & 2P servers whereas Mercury Research covers the entire x86 segment which includes 4S, 8S, and edge servers, hence we see a bigger divide in terms of market share numbers from the two independent firms.
Mercury Research captures all x86 server class processors in their server unit estimate, regardless of device (server, network or storage), whereas the estimated 1P [single-socket] and 2P [two-socket] TAM [Total Addressable Market] provided by IDC only includes traditional servers. - AMD
It still means that AMD is capturing the server market share in those two categories (1P / 2P) versus Intel and gaining some ground in the specific segment. With that said, let's take a closer look at the latest market share results per segment and how they fare against Intel for the first half of the year (2020).
Al di la di tutto mi chiedo come facciano ancora ad usare IDC come fonte autorevole. Negli anni si sono dimostrati dei cioccolatai in più occasioni...
Detto questo, che AMD stia rosicchiando share dappertutto è palese.
Poetico... linguistico... :doh:
Magari qualcuno volesse che le mie parole non siano esse
Eh si vera poesia ... :rolleyes:
Torniamo a parlare di CPU va...
onestamente, pur contando diversi anni di frequenza, non ho ancora capito se intenda prendere in giro gli altri utenti.
tornando in topic sono curioso di vedere se al lancio proporranno la lineup completa ed/o cosa uscirà subito e cosa a seguire, dato che ad ogni iterazione abbiamo assistito ad uscite scaglionate (coi mille 8core subito mentre 6 e quad a seguire, coi 2mila la sovrapposizione degli AF, con i 3mila alcuni subito poi il 16core e a seguire i quad core) probabilmente dipendenti da resa/selezione e di conseguenza quantità e tipologia di prodotti scartati o volutamente declassati.
https://www.datacenterknowledge.com/amd/amd-gains-server-chip-market-share-intel-s-expense
Ma voi seriamente credete che il CEO di un'azienda quotata in borsa può inventarsi le cose? Seriamente credete che gli investitori comprino le azioni a scatola chiusa?
No, i CEO non mentono spudoratamente perché è reato, ma a questi livelli è LA NORMA presentare una realtà diciamo così “abbellita” usando solo i dati che fanno comodo glissando su quelli meno favorevoli ;)
IDC nel passato si è già dimostrata come priva di scrupoli nel ritagliare le proprie ricerche in base a cosa il cliente voleva farsi dire (clamorose un paio di topiche ad hoc prese in campo telefonia).
onestamente, pur contando diversi anni di frequenza, non ho ancora capito se intenda prendere in giro gli altri utenti.
tornando in topic sono curioso di vedere se al lancio proporranno la lineup completa ed/o cosa uscirà subito e cosa a seguire, dato che ad ogni iterazione abbiamo assistito ad uscite scaglionate (coi mille 8core subito mentre 6 e quad a seguire, coi 2mila la sovrapposizione degli AF, con i 3mila alcuni subito poi il 16core e a seguire i quad core) probabilmente dipendenti da resa/selezione e di conseguenza quantità e tipologia di prodotti scartati o volutamente declassati.
Con Zen 2 mi pare uscitì tutto tranne il 3950X, che è arrivato in seguito.
Io sono abbastanza propenso a credere che a sto giro esce tutto insieme. Poi sulla disponibilità vedremo... ma tanto non ho fretta. Il passaggio 3900X -> 5900X lo farò dopo marzo-aprile quando i prezzi si saranno calmierati.
=3dS= Mayo
18-09-2020, 14:09
Grazie a tutti x i consigli!
Con Zen 2 mi pare uscitì tutto tranne il 3950X, che è arrivato in seguito.
Io sono abbastanza propenso a credere che a sto giro esce tutto insieme. Poi sulla disponibilità vedremo... ma tanto non ho fretta. Il passaggio 3900X -> 5900X lo farò dopo marzo-aprile quando i prezzi si saranno calmierati.
3100 e 3300x sono usciti parecchio dopo
3100 e 3300x sono usciti parecchio dopo
ah si, si... i 4C non li avevo neppure presi in considerazione :stordita:
No, i CEO non mentono spudoratamente perché è reato, ma a questi livelli è LA NORMA presentare una realtà diciamo così “abbellita” usando solo i dati che fanno comodo glissando su quelli meno favorevoli ;)
IDC nel passato si è già dimostrata come priva di scrupoli nel ritagliare le proprie ricerche in base a cosa il cliente voleva farsi dire (clamorose un paio di topiche ad hoc prese in campo telefonia).
Fin tanto che si scelgono i settori ad hoc su cui mostrare i dati, posso starci. L'importante è che non siano falsi.
Se AMD nel settore più redditizio lato server sta crescendo velocemente (sinceramente non mi aspettavo una adoption così veloce in ambito server), questo è un forte segnale che sta facendo bene e che quelli che stan comprando AMD non sono un branco di fanboy con le allucinazioni.
Tutto qua.
Ha senso passare da 2600 a 3600 per giocare? Spesa sui 50 euro di differenza
paolo.oliva2
18-09-2020, 16:47
Ma è stato confermato o no?
Da quello che ho capito io l'8 ottobre fanno solo la presentazione
Sinceramente non lo so... ma se Lisa Su riporta "Sarà un ottobre rosso", mi sembrerebbe incoerente se Zen3 lpavesse solamente AMD in casa :)
Nautilu$
18-09-2020, 16:53
Ha senso passare da 2600 a 3600 per giocare? Spesa sui 50 euro di differenza
se non fosse così vicino zen3, ti direi... al volo!
Tra 1 mese potresti fare la stessa domanda...
se non fosse così vicino zen3, ti direi... al volo!
Tra 1 mese potresti fare la stessa domanda...
ho una scheda madre b450 quindi nada serie 4mila
Ton90maz
18-09-2020, 17:05
Secondo me stai mischiando il non vendere senza collegarti al periodo. Non vai a spendere oltre 400€ di procio quando tra 3 settimane hai la possibilità di avere un prezzo/prestazioni migliore o di pagarti un Zen2 ulteriormente meno.
Il problema dei prezzi... io sono il primo a riportare che AMD ci lucra... ma il fatto è che comunque ha un prezzo/prestazioni nettamente migliore vs Intel.
E' un po' difficile pretendere che AMD venda un 4900X a 400€ quando Intel chiede di più per un X8 e la differenza prestazionale tra i 2 è abissale già con Zen2.
(è solo qui che si giudica la bontà di un procio in base agli FPS, nel resto del mondo si guarda il prezzo, le prestazioni a 360°, il consumo e il costo dell'hardware per quel procio... e visto così, Intel costa di più, va di meno, consuma un tot di più e bisogna spendere in signor mobo e dissipazione).
Assolutamente disaccordo, perchè il discorso va bene se monti una VGA TOP o se giochi a risoluzioni basse/pochi dettagli... ma il 99% delle persone non spende 1000€ e oltre per la sola VGA, quindi spendere di più in un sistema Intel, vuol dire togliere soldi alla VGA, e su sistemi con VGA limit, avere 100€ in più per la VGA, si ottengono più FPS.
.
Per me il punto è che AMD vende e bene anche se ci lucra un tot, ma il problema principe non mi sembra sia quello di puntare il dito a >400€ per proci X12 a 7nm, ma di non puntare il dito ad Intel che con un prodotto inferiore in tutto (tranne una manciata di FPS in particolari condizioni che nella realtà non abbiamo), vende beatamente e stranamente nessuno mette bocca.
Non dimentichiamoci il -50% su listino degli Xeon, il -25% sugli i9, il tanto fumo poco arrosto degli i10... ci sarà un perchè se in base a Midfactory AMD vende >5X vs Intel.
Solo 2 core in più, con un IPC >20% a core vs Intel e l'efficienza del 7nm+, probabilmente consumerà meno di X6 Intel (il 3950X consuma meno di un 9900K).Ma se è il contrario :asd:
Su mindfactory vendono più adesso che non a fine 2019 o inizio anno (e già la scusa delle poche cpu disponibili non reggeva più).
Delle cpu da appassionati che vanno meglio a fine vita, e pure in un mese neanche tanto buono per le vendite. Qualcosa vorrà dire.
Sai cosa significa? Che per ogni 3900x non venduto, vendevano un 3700x, guadagnandoci meno, o l'utente comprava intel.
Questo è quello che ha portato la strategia di "mantenere alto il valore dei core", sulla falsariga di intel fino a inizio 2017.
"E' un po' difficile pretendere..." certo, con la mentalità da contadinotti che si godono il gruzzoletto è sì difficile, e i rumor infatti non sono molto incoraggianti. Con un minimo di lungimiranza e supponendo che abbiano abbastanza chip a 7 nm (e dopo oltre un anno non averli vuol dire essere comunque rincoglioniti), certo che venderebbero i 12 a 400 euro. Cosa intendono fare? Un altro "3800x/3800xt" più veloce, allo stesso prezzo del 10700k? Non si filavano il 3800x quando intel offriva la metà dei threads, figuriamoci adesso che genialata. "Eh ma andrebbero uguali o meglio" sì, ma dall'altra parte potrebbero tranquillamente abbassare il prezzo. Con un 12 col cavolo che trovano spazio, non gli basta segare 50 euro.
E cosa conta? Il cinebench? :rolleyes:
Mica tutti fanno rendering o editing. E nell'uso quotidiano tanto vanno uguale (ma più o meno pure un i3 o un r3).
Per chi non guarda gli fps e non vuole spendere una fortuna in schede madri ci sono altre cpu della famiglia, che sono molto più gestibili.
Chi guarda davvero gli fps figuriamoci se non ha l'aio o il noctua e la x570 con diciotto fasi :asd:
I prezzi... sì e no. Dipende dal modello. Ci sono alcune cpu che sono assolutamente più sconvenienti e peggiori delle analoghe intel. Servivano solamente a mistress su ad allenare alcuni schiavetti, ma fortunatamente non se le fila nessuno. L'intel di oggi, 2020, non è così sconveniente come volete far credere.
Il 99% camperebbe con un 1600AF e gli basterebbe per qualunque cosa. Ma, a quel punto, di cosa parliamo a fare dei ryzen 9 o degli i10? Nemmeno quei 10700K e 3700x dovrebbero avere senso. Con un r3 o un i3 si gioca quasi uguale in 4K con una 3080.
Ma non spendi necessariamente di più! Dipende :asd:
In alcuni casi hai anche delle performance maggiori.
Chi è che non punta il dito contro intel? Per me intel provoca lo stesso effetto del rigurgito di blatta. Ciò non toglie che, anche l'oscena intel, si è piegata ad aumentare il numero dei core (non dico abbassare i prezzi perché... giammai!) per fascia. AMD è ferma al 2017. Si è adagiata sugli allori grazie alle vendite in aumento e al marketing e ai prezzolati che sanno che se non urlano COMPRA AMD vengono sommersi di letame dagli utenti (COMPRA AMD COMPRA AMD COMPRA AMD), ma dal MIO PUNTO DI VISTA (inteso come consumatore), cioè l'unico che conta in tutto l'universo, a me non frega una beata mazza.
Comunque neanche beatamente. Cioè, vende tanti 3600 e molti 3700x, questi ultimi anche a gente che spenderebbe tranquillamente 50-100 euro in più per un 12 core.
paolo.oliva2
18-09-2020, 17:22
Bei tempi quando in una recensione seria di una cpu giustamente i giochi erano relegati in un ultima pagina giusto per far vedere scenari cpulimited a 640 per 480
E ora invece decine e decine di bench in fullhd cn una 3090 per far vedere 2 fps in piu
È proprio una questione di rece senza senso
Di inopportunità di giudicare una cpu da sta roba
Hanno usato il metro di confronto degli FPS pure nelle rece sui TR4.
Tutti quelli seriamente interessati all'utilizzo di un X24/X64, hanno saltato in toto 3/4 di rece.
Invece i numerini al CB sono molto rapresentativi:rolleyes: ;)
fino a prima di ryzen lo erano :asd:
Anni BD:
- Confronto prestazioni relegato architetturalmente per far risaltare l'IPC (nessun ricorda BD a def e 2600K in OC?)
- Oggi si confrontano i proci alle frequenze def, il più delle volte con AMD PBO disabilitato da una parte, e i limiti sforamento TDB disabilitati da parte Intel... coerenza zero e confronto IPC a farsi benedire.
CB era il best per giudicare la prestazione ST ed MT.
Oggi quasi non lo si vede più...
L'efficienza de processore... quando Intel produceva a 22nm e 14nm, vs AMD a 32nm/28nm, il consumo per X prestazioni era la base di tutta la rece...
Oggi il consumo del procio sembra non venga manco più considerato...
Se in una recensione di un procio non parli di IPC architetturale, non parli di come va l'SMT, non parli del consumo/prestazioni... è ovvio che alla fine su 10 pagine di rece, 9 sono esclusivamente sui giochi.
Ma è ovvio che una testata che vive di pubblicità, non può certamente andare contro i suoi interessi facendo una recensione stile 4-5 anni fa... perchè ovviamente nelle conclusioni, dopo aver fatto il confronto IPC, il consumo, l'MT, cosa potresti scrivere di Intel? Se invece fai 9 pagine su 10 sui giochi e 2 righe se non meno su IPC/consumo/prezzo sistema... ovviamente la realtà la distorgi alla grande.
P.S.
Spero sia evidente che l'intenzione mia di sottolineare cosa sia cambiato nelle rece non sia per AMD "quanto l'ha lungo"... ma di evidenziare che siamo arrivati al ridicolo... test FPS pure nei TR4?
Se è imbarazzante il confronto tra un Xeon ed un 3990WX, non è il punto di confronto i giochi per i quali quei sistemi non saranno mai acquistati.
E' ovvio che confrontare un 3950X vs 10900K su MT e simili ci sia ben poco da discutere su quale sia il migliore si ina rece vecchio stampo... allora meglio il confronto unicamente nei giochi, così si potrà dire che alla fin finne Intel non è così indietro come certi dicono....
Fin tanto che si scelgono i settori ad hoc su cui mostrare i dati, posso starci. L'importante è che non siano falsi.
Se AMD nel settore più redditizio lato server sta crescendo velocemente (sinceramente non mi aspettavo una adoption così veloce in ambito server), questo è un forte segnale che sta facendo bene e che quelli che stan comprando AMD non sono un branco di fanboy con le allucinazioni.
Tutto qua.
certamente non mentono.
Presentano solo una “parte” della verità.
Il concetto di base resta valido (stanno crescendo in un campo che per loro era tabu) ma dire +10% suona meglio che dire +5.8% ;)
Ha senso passare da 2600 a 3600 per giocare? Spesa sui 50 euro di differenza
io lo farei al volo.
Chi è che non punta il dito contro intel? Per me intel provoca lo stesso effetto del rigurgito di blatta. Ciò non toglie che, anche l'oscena intel, si è piegata ad aumentare il numero dei core (non dico abbassare i prezzi perché... giammai!) per fascia. AMD è ferma al 2017. Si è adagiata sugli allori grazie alle vendite in aumento e al marketing e ai prezzolati che sanno che se non urlano COMPRA AMD vengono sommersi di letame dagli utenti (COMPRA AMD COMPRA AMD COMPRA AMD), ma dal MIO PUNTO DI VISTA (inteso come consumatore), cioè l'unico che conta in tutto l'universo, a me non frega una beata mazza.
Comunque neanche beatamente. Cioè, vende tanti 3600 e molti 3700x, questi ultimi anche a gente che spenderebbe tranquillamente 50-100 euro in più per un 12 core.
Se devo essere onesto del tuo post ho capito pochissimo :mbe:
Ma mi limito a commentare quanto ho evidenziato sopra : AMD sarebbe ferma al 2017 ??? In quale universo parallelo ?
Zen 2 ha portato un 15/20% di incremento e si parla di percentuali simili con Zen 3.
In casa Intel da un lustro si va avanti ad alzare il Turbo Boost della stessa CPU ed aggiungere o togliere HT sui core :rolleyes:
Ma cosa stai dicendo ?!? :wtf:
Ora io sono l’ultimo qui dentro che può essere definito come fanboy AMD, ma qui siamo al delirio :boh:
Ti riferisci al fatto che non siano andati ancora oltre ai 16C/32T ? ma sei serio ? Già oggi moltissimo del software circolante non sfrutta non dico i 16C del 3950X ma neppure i 12C/24T del 3900X ! Non ha senso continuare ad alzare il numero di core ad ogni generazione, se il software non segue.
AMD ha l’indubbio merito di aver spinto TUTTO il settore ad avere MINIMO 6 core, facendo finire nel dimenticatoio i 2C e 4C. Altrimenti avresti dei fantastici 4C/8T da 5.3 GHz e basta...
paolo.oliva2
18-09-2020, 18:06
Ma se è il contrario :asd:
Su mindfactory vendono più adesso che non a fine 2020 o inizio anno (e già la scusa delle poche cpu disponibili non reggeva più).
Delle cpu da appassionati che vanno meglio a fine vita, e pure in un mese neanche tanto buono per le vendite. Qualcosa vorrà dire.
Sai cosa significa? Che per ogni 3900x non venduto, vendevano un 3700x, guadagnandoci meno, o l'utente comprava intel.
Questo è quello che ha portato la strategia di "mantenere alto il valore dei core", sulla falsariga di intel fino a inizio 2017.
"E' un po' difficile pretendere..." certo, con la mentalità da contadinotti che si godono il gruzzoletto è sì difficile, e i rumor infatti non sono molto incoraggianti. Con un minimo di lungimiranza e supponendo che abbiano abbastanza chip a 7 nm (e dopo oltre un anno non averli vuol dire essere comunque rincoglioniti), certo che venderebbero i 12 a 400 euro. Cosa intendono fare? Un altro "3800x/3800xt" più veloce, allo stesso prezzo del 10700k? Non si filavano il 3800x quando intel offriva la metà dei threads, figuriamoci adesso che genialata. "Eh ma andrebbero uguali o meglio" sì, ma dall'altra parte potrebbero tranquillamente abbassare il prezzo. Con un 12 col cavolo che trovano spazio, non gli basta segare 50 euro.
E cosa conta? Il cinebench? :rolleyes:
Mica tutti fanno rendering o editing. E nell'uso quotidiano tanto vanno uguale (ma più o meno pure un i3 o un r3).
Per chi non guarda gli fps e non vuole spendere una fortuna in schede madri ci sono altre cpu della famiglia, che sono molto più gestibili.
Chi guarda davvero gli fps figuriamoci se non ha l'aio o il noctua e la x570 con diciotto fasi :asd:
I prezzi... sì e no. Dipende dal modello. Ci sono alcune cpu che sono assolutamente più sconvenienti e peggiori delle analoghe intel. Servivano solamente a mistress su ad allenare alcuni schiavetti, ma fortunatamente non se le fila nessuno. L'intel di oggi, 2020, non è così sconveniente come volete far credere.
Il 99% camperebbe con un 1600AF e gli basterebbe per qualunque cosa. Ma, a quel punto, di cosa parliamo a fare dei ryzen 9 o degli i10? Nemmeno quei 10700K e 3700x dovrebbero avere senso. Con un r3 o un i3 si gioca quasi uguale in 4K con una 3080.
Ma non spendi necessariamente di più! Dipende :asd:
In alcuni casi hai anche delle performance maggiori.
Chi è che non punta il dito contro intel? Per me intel provoca lo stesso effetto del rigurgito di blatta. Ciò non toglie che, anche l'oscena intel, si è piegata ad aumentare il numero dei core (non dico abbassare i prezzi perché... giammai!) per fascia. AMD è ferma al 2017. Si è adagiata sugli allori grazie alle vendite in aumento e al marketing e ai prezzolati che sanno che se non urlano COMPRA AMD vengono sommersi di letame dagli utenti (COMPRA AMD COMPRA AMD COMPRA AMD), ma dal MIO PUNTO DI VISTA (inteso come consumatore), cioè l'unico che conta in tutto l'universo, a me non frega una beata mazza.
Comunque neanche beatamente. Cioè, vende tanti 3600 e molti 3700x, questi ultimi anche a gente che spenderebbe tranquillamente 50-100 euro in più per un 12 core.
Capisco il tuo pensiero... ma siamo in utilizzi differenti... e punti di vista differenti.
Io uso il procio in MT e più carichi contemporaneamente.
Io ho trovato più performances (complessiva) nel passaggio al 1920X dal 2700X, rispetto che dal medesimo al 3700X... perchè in conversioni video il 1920X fa un +20% di lavoro nello stesso tempo rispetto al 3700X, anche se il 3700X ha ~+20% di IPC e +500MHz di frequenza (vs 1920X Zen 1000).
Nel mio utilizzo, ho un aumento delle prestazioni quasi simile all'aumento dei core... quindi un X12 mi va bene comprarlo finchè il suo +50% di core vs 3700X comporta un costa inferiore al +50% di un 3700X, e così lo è sempre stato, che siia 3900X o 3900XT.
Se Zen3 avrà un prezzo/prestazioni migliore di Zen2, ben venga Zen3, altrimenti a piombo su un 3950X.
Ora come ora, che hai un Intel o un AMD, le prestazioni a core sono più che soddisfacenti... puoi giocare (ho una VGA da 200€) e cazzeggiare a iosa... ma quello che veramente fa la differenza, è il prezzo a core su proci X10 o maggiori e il consumo/calore generato (specie nella mia locazione).
Se con un 3700X faccio 4 conversioni l'ora (a caso), non mi frega una tozza di avere un >X8 stra-pompato (e costoso) per farne +20% quando un X12 me ne fa +50% e un X16 +100%
..
Ton90maz
18-09-2020, 18:55
Se devo essere onesto del tuo post ho capito pochissimo :mbe:
Ma mi limito a commentare quanto ho evidenziato sopra : AMD sarebbe ferma al 2017 ??? In quale universo parallelo ?
Zen 2 ha portato un 15/20% di incremento e si parla di percentuali simili con Zen 3.
In casa Intel da un lustro si va avanti ad alzare il Turbo Boost della stessa CPU ed aggiungere o togliere HT sui core :rolleyes:
Ma cosa stai dicendo ?!? :wtf:
Ora io sono l’ultimo qui dentro che può essere definito come fanboy AMD, ma qui siamo al delirio :boh:
Ti riferisci al fatto che non siano andati ancora oltre ai 16C/32T ? ma sei serio ? Già oggi moltissimo del software circolante non sfrutta non dico i 16C del 3950X ma neppure i 12C/24T del 3900X ! Non ha senso continuare ad alzare il numero di core ad ogni generazione, se il software non segue.
AMD ha l’indubbio merito di aver spinto TUTTO il settore ad avere MINIMO 6 core, facendo finire nel dimenticatoio i 2C e 4C. Altrimenti avresti dei fantastici 4C/8T da 5.3 GHz e basta...E' da mesi che parlo dei core PER FASCIA. PER FASCIA! Non me ne può fregar di meno di un 24 core se il 16 costa ancora 750 euro.
Intel non ha fatto nulla, a parte raddoppiare il numero di core (o triplicare i threads nella fascia degli i5). Che vuoi che sia? :asd:
E amd intanto con cosa ha risposto? Con quegli aborti degli xt? :muro:
Al punto che certi 8 core intel costano meno e vanno meglio di alcuni super osannati amd.
Si sono fortemente intellizzati e si sente troppo la puzza di voler tenere alti i prezzi. Anche l'ultimo rumor non è molto incoraggiante.
Ho già parlato di alcuni scenari ipotetici e, ripeto, un 8 core questa volta davvero leggermente superiore a intel, non servirebbe a nulla se piazzato a 399 come quel cesso del 3800x.
Farebbero cartello con prodotti sostanzialmente uguali.
Con questo trend invece ci terremmo gli 8/16 per altrettanti anni.
Capisco il tuo pensiero... ma siamo in utilizzi differenti... e punti di vista differenti.
Io uso il procio in MT e più carichi contemporaneamente.
Io ho trovato più performances (complessiva) nel passaggio al 1920X dal 2700X, rispetto che dal medesimo al 3700X... perchè in conversioni video il 1920X fa un +20% di lavoro nello stesso tempo rispetto al 3700X, anche se il 3700X ha ~+20% di IPC e +500MHz di frequenza (vs 1920X Zen 1000).
Nel mio utilizzo, ho un aumento delle prestazioni quasi simile all'aumento dei core... quindi un X12 mi va bene comprarlo finchè il suo +50% di core vs 3700X comporta un costa inferiore al +50% di un 3700X, e così lo è sempre stato, che siia 3900X o 3900XT.
Se Zen3 avrà un prezzo/prestazioni migliore di Zen2, ben venga Zen3, altrimenti a piombo su un 3950X.
Ora come ora, che hai un Intel o un AMD, le prestazioni a core sono più che soddisfacenti... puoi giocare (ho una VGA da 200€) e cazzeggiare a iosa... ma quello che veramente fa la differenza, è il prezzo a core su proci X10 o maggiori e il consumo/calore generato (specie nella mia locazione).
Se con un 3700X faccio 4 conversioni l'ora (a caso), non mi frega una tozza di avere un >X8 stra-pompato (e costoso) per farne +20% quando un X12 me ne fa +50% e un X16 +100%
..Io faccio un utilizzo misto. Non disdegno nessuna delle due cose (single o multi), se per me vale i soldi in più. E siamo in tanti a pensare che spendere 200 euro in più per 4 core non valga la pena.
Ancora peggio per i 16 core che ormai costano quasi il doppio dei 12.
LurenZ87
18-09-2020, 19:34
Salve ragazzi :), mi serve un vostro consiglio visto che sono ormai fuori dal giro da diversi anni... Ho una piattaforma X99 con Asus Rampage V Extreme con 5820k@4,4Ghz tutto liquidato tramite wubbi sulla mobo e sulla cpu, con 16Gb (4x4Gb) a 2666Mhz. Volevo tirare avanti fino al prossimo anno con i nuovi Ryzen 5xxx ma mi è capitato un i7 6950x a 280€, quindi mi stavo chiedendo... Secondo voi conviene prendere l'i7 o cambiare di nuovo tutto??? Questo i7 6950x a cosa si potrebbe paragonare attualmente??? (idem il 5820k). Allo stato attuale gioco a 1440p a 144hz.
Grazie mille a tutti per le eventuali risposte :)
Inviato dal mio Pixel 3a utilizzando Tapatalk
paolo.oliva2
18-09-2020, 19:41
Come ho detto di là la forza di amd è nel numero di core,ovvio che riuscendo ad offrire cpu con un elevato numero di core in ambito MT vada meglio.
Nel momento in cui abbiamo un 12 e 16 core e dall'altra parte si è fermi a 10,
è ovvio che non c'è partita.
Ma a parità di core un cpu Intel ha prestazioni del tutto simili ad una amd.
Poi un processore per vedere come va dovrebbe essere provato sul campo con programmi completi e non fare affidamento solo ai benkmark sintetici:
https://www.youtube.com/watch?v=DM2cCsuu58Q&t=181s
Qui c'è un esempio.
Non che con mezz'ora di render si possano ottenere risultati completamente attendibili,ma almeno non sono i pochi secondi di CB.
La casistica di situazioni che si possono ottenere nella realtà direttamente sul campo è un pò piu varia e articolata rispetto a test sintetici.
Purtroppo di questi test "reali" se ne trovano pochi in circolazione,in quanto si preferiscono i test sintetici,ma a mio avviso sono piu significativi di altri test,in questo ambito di utilizzo.
Aspetta... AMD riesce ad offrire un numero di core superiore ad Intel semplicemente perchè è sul 7nm.
Fare il confronto a parità di core, può andare bene, ma lo fai anche con consumi simili... non puoi certamente avere un X8 da una parte con 88.8W di consumo massimo e dall'altra una centrale da 250W e poi dire che "vanno uguale", con Intel 3X consumo e +800MHz che vanno in fumo per il minor IPC.
P.S.
Poi è meglio fare affidamento a bench che durino più del tempo X concesso da Intel per sforare il TDP... perchè altrimenti i risultati sono fuorvianti (ed Intel lo ha fatto proprio per quello :)
paolo.oliva2
18-09-2020, 20:06
Salve ragazzi :), mi serve un vostro consiglio visto che sono ormai fuori dal giro da diversi anni... Ho una piattaforma X99 con Asus Rampage V Extreme con 5820k@4,4Ghz tutto liquidato tramite wubbi sulla mobo e sulla cpu, con 16Gb (4x4Gb) a 2666Mhz. Volevo tirare avanti fino al prossimo anno con i nuovi Ryzen 5xxx ma mi è capitato un i7 6950x a 280€, quindi mi stavo chiedendo... Secondo voi conviene prendere l'i7 o cambiare di nuovo tutto??? Questo i7 6950x a cosa si potrebbe paragonare attualmente??? (idem il 5820k). Allo stato attuale gioco a 1440p a 144hz.
Grazie mille a tutti per le eventuali risposte :)
Inviato dal mio Pixel 3a utilizzando Tapatalk
Per i giochi non so... ma mi sembra di ricordare che il 1800X (Zen 1000) in MT si posizionava tra 6900K e 6950X... ovvio tutti i proci a def.
Quindi in MT dovrebbe andare meno di un 3700X... ma dai 3GHz def il 6950X si occava bene fino a 4GHz, il che vorrebbe dire un +33%.
Certamente pagarlo 280€ è un gran prezzo, dai 1700€ che costava... ma un 3900X usato di certo non lo pagheresti di pià, ma andrebbe un tot di più sia in ST che MT.
John_Mat82
18-09-2020, 20:08
ho una scheda madre b450 quindi nada serie 4mila
Teoricamente coi bios beta andranno anche loro. In ogni caso ti conviene aspettare per vedere un calo sui 3000 e prendi magari un 3700x e stai a posto per un bel po'.
Intel non ha fatto nulla, a parte raddoppiare il numero di core (o triplicare i threads nella fascia degli i5). Che vuoi che sia? :asd:
raddoppiare il numero dei core ??? Ripeto: in quale universo parallelo ?
8700 era 6 core, 9700 8 core, 10700 8 core.
Anche volendo considerare quella farsa del 10900, non hanno raddoppiato.
Si sono limitati a mettere e togliere (la serie 9th :muro: ) HT.
E amd intanto con cosa ha risposto? Con quegli aborti degli xt? :muro:
Al punto che certi 8 core intel costano meno e vanno meglio di alcuni super osannati amd.
la serie XT non è la risposta a nulla. È stato solo una mossa commerciale per rialzare i prezzi.
Dove sono gli 8 core Intel che vanno meglio dei Ryzen ? A meno che con "vanno meglio" tu non intenda SOLO nei giochi...
Si sono fortemente intellizzati e si sente troppo la puzza di voler tenere alti i prezzi. Anche l'ultimo rumor non è molto incoraggiante.
non so a che rumors ti riferisci, ma continui a scrivere cose senza senso... cosa ti aspetti, che AMD ti regali le CPU ? O che aggiungano core ad ogni generazione ?
Ho già parlato di alcuni scenari ipotetici e, ripeto, un 8 core questa volta davvero leggermente superiore a intel, non servirebbe a nulla se piazzato a 399 come quel cesso del 3800x.
Farebbero cartello con prodotti sostanzialmente uguali.
ancora con quel "leggermente superiore ad Intel"? OGGI COME OGGI Intel non ha nessuna CPU 8 core che rivaleggia con i Ryzen 3700/3800, SE NON NEI GIOCHI (e tanto lo so che sempre li vai a parare ... :rolleyes: ).
Zen 3 andrà meglio di Zen 2. Puoi discutere di quanto andrà meglio ma di sicuro andrà meglio, quindi il distacco con Intel diventerà da concreto a sostanziale.
L'unica speranza per Intel è che Rocket Lake sia davvero un prodotto valido, cosa di cui non dubito peraltro, ma allo stato attuale non ho dati per dirlo o meno.
Chiamare "cesso" il 3800X mi fa capire con che utente sto parlando...
Con questo trend invece ci terremmo gli 8/16 per altrettanti anni.
e dimmi, esattamente cosa ti servirebbe qualcosa con più di 8C/16T ?
Un nuovo incremento nei core forse lo avremo con Zen 4 ed il passaggio ai 5 nm, ma ribadisco che tranne per alcuni compiti specifici, allo stato attuale per la maggior parte degli utenti SONO INUTILI.
Io faccio un utilizzo misto. Non disdegno nessuna delle due cose (single o multi), se per me vale i soldi in più. E siamo in tanti a pensare che spendere 200 euro in più per 4 core non valga la pena.
Ancora peggio per i 16 core che ormai costano quasi il doppio dei 12.
parlacene di questo "utilizzo misto" , perché invece dai tuoi discorsi emerge solo una certa confusione...
Salve ragazzi :), mi serve un vostro consiglio visto che sono ormai fuori dal giro da diversi anni... Ho una piattaforma X99 con Asus Rampage V Extreme con 5820k@4,4Ghz tutto liquidato tramite wubbi sulla mobo e sulla cpu, con 16Gb (4x4Gb) a 2666Mhz. Volevo tirare avanti fino al prossimo anno con i nuovi Ryzen 5xxx ma mi è capitato un i7 6950x a 280€, quindi mi stavo chiedendo... Secondo voi conviene prendere l'i7 o cambiare di nuovo tutto??? Questo i7 6950x a cosa si potrebbe paragonare attualmente??? (idem il 5820k). Allo stato attuale gioco a 1440p a 144hz.
Grazie mille a tutti per le eventuali risposte :)
Inviato dal mio Pixel 3a utilizzando Tapatalk
.........Volevo tirare avanti fino al prossimo anno..........
this :O
Nautilu$
18-09-2020, 22:05
Salve ragazzi :), mi serve un vostro consiglio ...
per me a quel prezzo faresti bene! .....devi cambiare solo la cpu...
Poi ricambi tutto con le ddr5 ... blu o rosso che sia!
Gigibian
18-09-2020, 22:51
Passato da una b450 aorus, ad una asus Prime B550 plus. Consigliata da buildzoid all'interno della sua review.
Beh, ryzen master mi segna che riesce a erogare quasi 4 volte il PPT della vecchia B450.
Scheda stabilissima e con parecchie opzioni per overclock, come dovrebbe essere :)
Pero' e' brutto vedere che il 3600 è completamente bloccato, non arriva oltre 4167mhz in single core, così come con la B450 anche sparando il PBO al massimo.
Lasciamo perdere l'overclock. a 4.2ghz mai stabile.
Aspettiamo ZEN3 :cool: Nel frattempo me lo godo, che va benissimo così ;)
Ah, oh notato che l'asus, rispetto a gigabyte, gestisce ancora meglio le ram: sono riuscito a bootare a 3733 cas 18, che con la B450 non riuscivo.
Poi sono tornato cmq a 3600 1:1 cas 16 ( 32GB 4x8)
Antivirusvivente
18-09-2020, 22:58
Il CTR di 1usmus è previsto per il 29 settembre!!
Inviato dal mio Mi 9T Pro utilizzando Tapatalk
Gigibian
18-09-2020, 23:01
Il CTR di 1usmus è previsto per il 29 settembre!!
Inviato dal mio Mi 9T Pro utilizzando Tapatalk
Se funge come ryzen dram calculator....: quando inserisco i timing da lui consigliati il PC non passa neanche un loop di MEMTEST86 su chiavetta usb.
devo rilassare alcuni subtimg a manima per essere stabile, fino a 10 test memtest.
Sti tool artigianali secondo me fanno solo casino.
Nautilu$
18-09-2020, 23:06
si, capita, ma se non sai da dove partire, un'idea te la danno....
Però dipende anche dall'accoppiata ram/mb ..... le Ballistix che ho vanno con tutti i parametri ESATTAMENTE come da utility....
....le gskill del pc2 vanno "corrette" un po' ........
digieffe
18-09-2020, 23:44
...cut...
cambiare fascia per numero di core devi attendere il pp 5nm per tanti motivi... costi, tdp, ...
Ton90maz
19-09-2020, 00:26
raddoppiare il numero dei core ??? Ripeto: in quale universo parallelo ?
8700 era 6 core, 9700 8 core, 10700 8 core.
Anche volendo considerare quella farsa del 10900, non hanno raddoppiato.
Si sono limitati a mettere e togliere (la serie 9th :muro: ) HT.
Nell'universo in cui si considerano gli intervalli di tempo giusti? 2017-->2020 = raddoppio dei core. Fine.
la serie XT non è la risposta a nulla. È stato solo una mossa commerciale per rialzare i prezzi.
Quindi per intellizzarsi, perché alla fine quello è lo scopo. Ce ne freghiamo del concorrente, noi dettiamo legge.
Dove sono gli 8 core Intel che vanno meglio dei Ryzen ? A meno che con "vanno meglio" tu non intenda SOLO nei giochi...Ah beh, detto niente :asd:
E non è neanche vero. Ci sono un sacco di test in cui un 10700K va sensibilmente meglio di una 3700x/3800x/3800xt. Devo allegare le millemila immagini?
non so a che rumors ti riferisci, ma continui a scrivere cose senza senso... cosa ti aspetti, che AMD ti regali le CPU ? O che aggiungano core ad ogni generazione ?Sì, regalano...
due foruncoli che insieme neanche raggiungono il die di una misera 5500 XT? :asd:
Poi magari tutti a ribadire quanto sia grandioso l'approccio MCM per ridurre i costi.
ancora con quel "leggermente superiore ad Intel"? OGGI COME OGGI Intel non ha nessuna CPU 8 core che rivaleggia con i Ryzen 3700/3800, SE NON NEI GIOCHI (e tanto lo so che sempre li vai a parare ... :rolleyes: ).
Zen 3 andrà meglio di Zen 2. Puoi discutere di quanto andrà meglio ma di sicuro andrà meglio, quindi il distacco con Intel diventerà da concreto a sostanziale.
NO! NO! NO! :muro:
E' assolutamente falso. Così si finisce solo per fare disinformazione.
Chiamare "cesso" il 3800X mi fa capire con che utente sto parlando...Utente sveglio? :asd:
E non è che sono l'unico sveglio al mondo, i numeri fortunatamente rispecchiano l'inutilità del prodotto.
e dimmi, esattamente cosa ti servirebbe qualcosa con più di 8C/16T ?
Un nuovo incremento nei core forse lo avremo con Zen 4 ed il passaggio ai 5 nm, ma ribadisco che tranne per alcuni compiti specifici, allo stato attuale per la maggior parte degli utenti SONO INUTILI.Qualche anno fa si diceva lo stesso dei 4/8 e, nella maggior parte dei casi, pure 12 threads sono inutili. E allora? Così magari compro la cpu più economica.
parlacene di questo "utilizzo misto" , perché invece dai tuoi discorsi emerge solo una certa confusione...Non si può usare la cpu sia per gaming che per altro? :rolleyes:
cambiare fascia per numero di core devi attendere il pp 5nm per tanti motivi... costi, tdp, ...Costi no. Se vendi due chip a 180 euro, ne puoi vendere 3 senza chiedere 500 euro. TDP no, vedi il 3900 liscio.
Ovviamente specifico che sto parlando sempre di cpu a 16 core massimi.
digieffe
19-09-2020, 03:41
Nell'universo in cui si considerano gli intervalli di tempo giusti? 2017-->2020 = raddoppio dei core. Fine.
Quindi per intellizzarsi, perché alla fine quello è lo scopo. Ce ne freghiamo del concorrente, noi dettiamo legge.
Ah beh, detto niente :asd:
E non è neanche vero. Ci sono un sacco di test in cui un 10700K va sensibilmente meglio di una 3700x/3800x/3800xt. Devo allegare le millemila immagini?
Sì, regalano...
due foruncoli che insieme neanche raggiungono il die di una misera 5500 XT? :asd:
Poi magari tutti a ribadire quanto sia grandioso l'approccio MCM per ridurre i costi.
NO! NO! NO! :muro:
E' assolutamente falso. Così si finisce solo per fare disinformazione.
Utente sveglio? :asd:
E non è che sono l'unico sveglio al mondo, i numeri fortunatamente rispecchiano l'inutilità del prodotto.
Qualche anno fa si diceva lo stesso dei 4/8 e, nella maggior parte dei casi, pure 12 threads sono inutili. E allora? Così magari compro la cpu più economica.
Non si può usare la cpu sia per gaming che per altro? :rolleyes:
Costi no. Se vendi due chip a 180 euro, ne puoi vendere 3 senza chiedere 500 euro. TDP no, vedi il 3900 liscio.
Ovviamente specifico che sto parlando sempre di cpu a 16 core massimi.
stai dicendo chiaramente che vuoi spendere meno e quindi avere un declassamento di fascia a parità di core...
ma senza concorrenza sulla fascia top del mainstream (16c) e senza nuovo PP non aspettarti nulla...
giusto per a che titolo dovrebbe amd abbassare le fasce e di conseguenza i prezzi oltre che le numerazioni (R3, ...) ?
Salve ragazzi :), mi serve un vostro consiglio visto che sono ormai fuori dal giro da diversi anni... Ho una piattaforma X99 con Asus Rampage V Extreme con 5820k@4,4Ghz tutto liquidato tramite wubbi sulla mobo e sulla cpu, con 16Gb (4x4Gb) a 2666Mhz. Volevo tirare avanti fino al prossimo anno con i nuovi Ryzen 5xxx ma mi è capitato un i7 6950x a 280€, quindi mi stavo chiedendo... Secondo voi conviene prendere l'i7 o cambiare di nuovo tutto??? Questo i7 6950x a cosa si potrebbe paragonare attualmente??? (idem il 5820k). Allo stato attuale gioco a 1440p a 144hz.
la piattaforma attuale ti soddisfa?
se sì tienti al calduccio i 280€ e aspetta ddr5 e prossime proposte
amd/intel.
LurenZ87
19-09-2020, 07:52
Per i giochi non so... ma mi sembra di ricordare che il 1800X (Zen 1000) in MT si posizionava tra 6900K e 6950X... ovvio tutti i proci a def.
Quindi in MT dovrebbe andare meno di un 3700X... ma dai 3GHz def il 6950X si occava bene fino a 4GHz, il che vorrebbe dire un +33%.
Certamente pagarlo 280 è un gran prezzo, dai 1700 che costava... ma un 3900X usato di certo non lo pagheresti di pià, ma andrebbe un tot di più sia in ST che MT..........Volevo tirare avanti fino al prossimo anno..........
this :Oper me a quel prezzo faresti bene! .....devi cambiare solo la cpu...
Poi ricambi tutto con le ddr5 ... blu o rosso che sia!la piattaforma attuale ti soddisfa?
se sì tienti al calduccio i 280 e aspetta ddr5 e prossime proposte
amd/intel.Grazie a tutti per le risposte :), forse mi conviene aspettare così e vedere le prossime proposte.
Inviato dal mio Pixel 3a utilizzando Tapatalk
dav1deser
19-09-2020, 08:06
Nell'universo in cui si considerano gli intervalli di tempo giusti? 2017-->2020 = raddoppio dei core. Fine.
Quindi per intellizzarsi, perché alla fine quello è lo scopo. Ce ne freghiamo del concorrente, noi dettiamo legge.
Ah beh, detto niente :asd:
E non è neanche vero. Ci sono un sacco di test in cui un 10700K va sensibilmente meglio di una 3700x/3800x/3800xt. Devo allegare le millemila immagini?
Sì, regalano...
due foruncoli che insieme neanche raggiungono il die di una misera 5500 XT? :asd:
Poi magari tutti a ribadire quanto sia grandioso l'approccio MCM per ridurre i costi.
NO! NO! NO! :muro:
E' assolutamente falso. Così si finisce solo per fare disinformazione.
Utente sveglio? :asd:
E non è che sono l'unico sveglio al mondo, i numeri fortunatamente rispecchiano l'inutilità del prodotto.
Qualche anno fa si diceva lo stesso dei 4/8 e, nella maggior parte dei casi, pure 12 threads sono inutili. E allora? Così magari compro la cpu più economica.
Non si può usare la cpu sia per gaming che per altro? :rolleyes:
Costi no. Se vendi due chip a 180 euro, ne puoi vendere 3 senza chiedere 500 euro. TDP no, vedi il 3900 liscio.
Ovviamente specifico che sto parlando sempre di cpu a 16 core massimi.
E' già...AMD è proprio una me*da...in 3 anni ha soltanto:
Lanciato un 8 core al prezzo di 4 della concorrenza (1700vs7700)
Aumentato l'IPC più di quanto la concorrenza abbia fatto negli ultimi 6 anni (o forse anche di più).
Lanciato dei processori 12 core a prezzo più basso dell'originale 8 core top (3900X vs 1800X)
Lanciato un 16 core su piattaforma mainstream a prezzo circa doppio del suo 8 core (quindi senza lucrarci più del dovuto nonostante l'assenza di concorrenza).
E' in procinto di lanciare nuove CPU che stando ai rumor fra IPC e frequenza dovrebbero andare almeno il 20% meglio della generazione precedente.
Lanciato un 16 core in fascia enthusiast quando la concorrenza era ferma a 10.
Lanciato un anno dopo un 32 core in fascia enthusiast.
Lanciato un anno dopo un 64 core in fascia enthusiast.
Lanciato CPU mobile che fanno impallidire la concorrenza sotto quasi ogni punto di vista, prezzo incluso.
Lode a Intel invece che quando non ha più avuto concorrenza ha lanciato Ivy Bridge in piattaforma mainstream, con cpu top 4 core 8 thread a quasi 4GHz.
Seguito da Haswell, 4 core 8 thread a circa 4GHz (e un filo di IPC in più)
Seguito da Broadwell non pervenuto su desktop
Seguito da Skylake, 4 core 8 thread a circa 4GHz (e un filo di IPC in più)
Seguito da Kabylake, 4 core 8 thread a circa 4GHz (e zero IPC in più).
Ma vabe' so che questo post è solo bandwith internet e spazio nei server di HWupgrade sprecato.
paolo.oliva2
19-09-2020, 08:37
@Ton90maz.
La situazione a brevissimo tempo sarà che con l'aumento IPC di AMD con Zen3 e migliorie generali, segherà in toto Intel in tutti i settori, game compreso.
L'aumento dei core a procio è normale perchè è l'unico modo per poter aumentare le prestazioni... il software si è fossilizzato semplicemente perchè Intel è rimasta ferma nel desktop a X4+4 per 10 anni.
A me sembra che i giochi con motori atti a sfruttare un numero di core superiore riescono a produrre prestazioni superiori rispetto agli stessi ma alla vecchia maniera... quindi il futuro sarà comunque più core, e le software house non penso che aspettino Intel che risolva i suoi problemi di silicio, non ora con AMD che vende sempre di più e probabilmente farà boom con Zen3.
La nota dolente? E' che AMD può tranquillamente livellare i listini a quello Intel, mettendosi nelle proprie tasche il costo inferiore dell'MC vs monolitico.
Purtroppo, anche se personalmente spero di no, la vedo dura per Intel, perchè per tempistica Intel avrà il 10nm ~ nel stesso periodo in cui AMD potrà produrre a 5nm ed idem Intel avrà il 7nm quando TSMC potrà proporre ad AMD il 3nm.
....
A me sembra che i giochi con motori atti a sfruttare un numero di core superiore riescono a produrre prestazioni superiori rispetto agli stessi ma alla vecchia maniera... quindi il futuro sarà comunque più core....
A conferma del fatto che il numero di core sarà importante anche per i giochi, notiamo che già per Serious Sam 4 viene consigliata una cpu con 8 cores:
https://gaming.hwupgrade.it/news/videogames/serious-sam-4-ecco-perche-non-potrebbe-girare-su-playstation-4-e-xbox-one_92013.html
Consideriamo anche che le consoles, sia Sony che Microsoft, avranno una cpu con 8 cores, è probabile che lo sviluppo dei giochi vada verso quella direzione, anche grazie alle directx 12.
fabietto27
19-09-2020, 09:51
A conferma del fatto che il numero di core sarà importante anche per i giochi, notiamo che già per Serious Sam 4 viene consigliata una cpu con 8 cores:
https://gaming.hwupgrade.it/news/videogames/serious-sam-4-ecco-perche-non-potrebbe-girare-su-playstation-4-e-xbox-one_92013.html
Consideriamo anche che le consoles, sia Sony che Microsoft, avranno una cpu con 8 cores, è probabile che lo sviluppo dei giochi vada verso quella direzione, anche grazie alle directx 12.Esatto...a memoria è il primo gioco che ha un octacore fra i requisiti consigliati.
Inviato dal mio OnePlus 7 Pro utilizzando Tapatalk
Nautilu$
19-09-2020, 10:06
Ton90maz parla male di Intel.... parla male ALLO STESSO MODO di Amd confrontandole come se non avesse fatto nulla in egual modo....
... sta trollando.... non perdete tempo! :)
Quello che penso è che:
- con Zen e zen+ Amd abbia fatto quello che non si credeva possibile,
- con zen2 ha alzato un po' la cresta (poteva tenere i prezzi un po'più bassi, ma non l'ha fatto, soprattutto sul 16 core)
- con zen3, se sarà superiore a Intel su TUTTO, purtroppo ci si dovrà svenare... (come all'epoca degli FX , del primo X2 , ecc...).
Con TR più o meno ha fatto lo stesso, ma alzando pesantemente i prezzi già con zen2.... Ma lì non c'è proprio storia.....in rapporto ai prezzi Intel è sempre un regalo!
digieffe
19-09-2020, 10:57
Ton90maz parla male di Intel.... parla male ALLO STESSO MODO di Amd confrontandole come se non avesse fatto nulla in egual modo....
... sta trollando.... non perdete tempo! :)
grazie della segnalazione :)
l'avevo messo nella lista giusta prim'ancora di rispondegli ;)
Esatto...a memoria è il primo gioco che ha un octacore fra i requisiti consigliati.
Inviato dal mio OnePlus 7 Pro utilizzando Tapatalk
Con l’uscita di ps5 ed x box x mi aspetto che nel futuro ne vedremo parecchi ;)
Ton90maz parla male di Intel.... parla male ALLO STESSO MODO di Amd confrontandole come se non avesse fatto nulla in egual modo....
... sta trollando.... non perdete tempo! :)
Quello che penso è che:
- con Zen e zen+ And abbia fatto quello che non si credeva possibile,
- con zen2 ha alzato un po' la cresta (poteva tenere i prezzi un po'più bassi, ma non l'ha fatto, soprattutto sul 16 core)
- con zen3, se sarà superiore a Intel su TUTTO, purtroppo ci si dovrà svenare... (come all'epoca degli FX , del primo X2 , ecc...).
Con TR più o meno ha fatto lo stesso, ma alzando pesantemente i prezzi già con zen2.... Ma lì non c'è proprio storia.....in rapporto ai prezzi Intel è sempre un regalo!
Ho imparato (a mie spese) che qui dentro discutere con i fanboy, di qualunque fazione, è una perdita di tempo.
Lui sta ripetendo cose palesemente false distorcendo la realtà e passando il messaggio che la lineup Intel sia competitiva con quella AMD a 360°, cosa palesemente falsa.
Ed accusa gli altri di fare disinformazione.
Definisce “patetico” il 3800X e poi esalta il 10700K :doh:
Critica l’approccio MCM e poi si lamenta perché AMD non aggiunge mille core ad ogni generazione.
Esalta Intel che ci propina Skylake da un lustro e poi dice che AMD è “ferma al palo dal 2017” :doh:
Ogni sua frase si contraddice da sola. Se non sta trollando ha le idee molto confuse... :rolleyes:
digieffe
19-09-2020, 11:11
Ho imparato (a mie spese) che qui dentro discutere con i fanboy, di qualunque fazione, è una perdita di tempo.
Lui sta ripetendo cose palesemente false distorcendo la realtà e passando il messaggio che la lineup Intel sia competitiva con quella AMD a 360°, cosa palesemente falsa.
Ed accusa gli altri di fare disinformazione.
Definisce “patetico” il 3800X e poi esalta il 10700K :doh:
Critica l’approccio MCM e poi si lamenta perché AMD non aggiunge mille core ad ogni generazione.
Esalta Intel che ci propina Skylake da un lustro e poi dice che AMD è “ferma al palo dal 2017” :doh:
Ogni sua frase si contraddice da sola. Se non sta trollando ha le idee molto confuse... :rolleyes:
infatti è per eccesso di contraddizioni e per i toni cha ha usato che l'ho immediatamente "bocciato"...
il tempo è troppo prezioso per essere perso con certi soggetti, qualunque sia il motivo dei loro comportamenti
Buongiorno,
da circa 1 giorno ho il mio nuovo pc con cpu Rayzen 7 3700x e scheda madre b550 aorus elite, dissi Noctua nh u12s ad aria.
Ora in idle la temperatura passa da 40 a 50 gradi mai stabili, ho fatto una prova con ad64 e appena starto la temperatura si assesta intorno agli 82 gradi.
Sono normali?
Altra cosa la ventola della cpu aumenta e diminuisce i suoi giri continuamente, non e'mai stabile.
Mister D
19-09-2020, 13:53
Con l’uscita di ps5 ed x box x mi aspetto che nel futuro ne vedremo parecchi ;)
Ho imparato (a mie spese) che qui dentro discutere con i fanboy, di qualunque fazione, è una perdita di tempo.
Lui sta ripetendo cose palesemente false distorcendo la realtà e passando il messaggio che la lineup Intel sia competitiva con quella AMD a 360°, cosa palesemente falsa.
Ed accusa gli altri di fare disinformazione.
Definisce “patetico” il 3800X e poi esalta il 10700K :doh:
Critica l’approccio MCM e poi si lamenta perché AMD non aggiunge mille core ad ogni generazione.
Esalta Intel che ci propina Skylake da un lustro e poi dice che AMD è “ferma al palo dal 2017” :doh:
Ogni sua frase si contraddice da sola. Se non sta trollando ha le idee molto confuse... :rolleyes:
Assolutamente d'accordo con te. Ora attendiamo zen3 in pace e vediamo quanto sarà buono.
Ot hai visto la recensione di tiger lake, mi aspettavo meglio e quindi sono lievemente preoccupato per rocket lake. Io già un po me lo sentivo ma per me il primo da tenere in considerazione sarà alder lake con la curiosità della configurazione biglittle presa in prestito da arm. Se ne vogliamo parlare cmq direi di spostarci di là;)
Con l’uscita di ps5 ed x box x mi aspetto che nel futuro ne vedremo parecchi ;)
Ho imparato (a mie spese) che qui dentro discutere con i fanboy, di qualunque fazione, è una perdita di tempo.
Lui sta ripetendo cose palesemente false distorcendo la realtà e passando il messaggio che la lineup Intel sia competitiva con quella AMD a 360°, cosa palesemente falsa.
Ed accusa gli altri di fare disinformazione.
Definisce “patetico” il 3800X e poi esalta il 10700K :doh:
Critica l’approccio MCM e poi si lamenta perché AMD non aggiunge mille core ad ogni generazione.
Esalta Intel che ci propina Skylake da un lustro e poi dice che AMD è “ferma al palo dal 2017” :doh:
Ogni sua frase si contraddice da sola. Se non sta trollando ha le idee molto confuse... :rolleyes:
il mio consiglio.... lascia perdere
personalmente sono molto realista... gli AMD in questo specifico momento vanno meglio degli Intel in quasi tutti gli scenari... quindi non c'è nulla da eccepire
peccato per la mancanza di soldini, comunque in cina ho preso un
Intel Xeon E5-2697 v2 @ 2.70GHz a prezzo stracciato.... speriamo arriva :D
Ton90maz
19-09-2020, 14:53
stai dicendo chiaramente che vuoi spendere meno e quindi avere un declassamento di fascia a parità di core...
ma senza concorrenza sulla fascia top del mainstream (16c) e senza nuovo PP non aspettarti nulla...
giusto per a che titolo dovrebbe amd abbassare le fasce e di conseguenza i prezzi oltre che le numerazioni (R3, ...) ?Ho già spiegato troppe volte perché, ma tanto non state ad ascoltare.
"Eh ma non ha concorrenza!" sì ma tanto mica vende quelle roba da 700 e passa euro :asd:
Oltre metà dei prodotti amd sono lanciati per non essere venduti.
E' già...AMD è proprio una me*da...in 3 anni ha soltanto:
Lanciato un 8 core al prezzo di 4 della concorrenza (1700vs7700)
Aumentato l'IPC più di quanto la concorrenza abbia fatto negli ultimi 6 anni (o forse anche di più).
Lanciato dei processori 12 core a prezzo più basso dell'originale 8 core top (3900X vs 1800X)
Lanciato un 16 core su piattaforma mainstream a prezzo circa doppio del suo 8 core (quindi senza lucrarci più del dovuto nonostante l'assenza di concorrenza).
E' in procinto di lanciare nuove CPU che stando ai rumor fra IPC e frequenza dovrebbero andare almeno il 20% meglio della generazione precedente.
Lanciato un 16 core in fascia enthusiast quando la concorrenza era ferma a 10.
Lanciato un anno dopo un 32 core in fascia enthusiast.
Lanciato un anno dopo un 64 core in fascia enthusiast.
Lanciato CPU mobile che fanno impallidire la concorrenza sotto quasi ogni punto di vista, prezzo incluso.Tutta quella supercazzola di novità, i 64 core (ma a chi stracavolo frega di quella roba?), le novità e cosa succede? Che nelle fasce che contano in ambito desktop sono allineati alla stessa concorrenza che non ha fatto nulla in 3 anni (con prezzi più bassi ma anche prestazioni inferiori nei giochi) :asd:
Forse con zen 3 finalmente li agganciano o superano, ma vedremo a che prezzo e vedremo come risponderà la concorrenza. Sul serio hanno in mente un 5800x? Speriamo che i rumor siano fasulli.
Lode a Intel invece che quando non ha più avuto concorrenza ha lanciato Ivy Bridge in piattaforma mainstream, con cpu top 4 core 8 thread a quasi 4GHz.
Seguito da Haswell, 4 core 8 thread a circa 4GHz (e un filo di IPC in più)
Seguito da Broadwell non pervenuto su desktop
Seguito da Skylake, 4 core 8 thread a circa 4GHz (e un filo di IPC in più)
Seguito da Kabylake, 4 core 8 thread a circa 4GHz (e zero IPC in più).
Ma vabe' so che questo post è solo bandwith internet e spazio nei server di HWupgrade sprecato.Ma lode de che, se ho detto che intel è una metastasi?
Poi con che coraggio tirar fuori il periodo in cui dall'altro lato tiravano fuori le loro peggiori cpu di sempre.
Ton90maz parla male di Intel.... parla male ALLO STESSO MODO di Amd confrontandole come se non avesse fatto nulla in egual modo....
... sta trollando.... non perdete tempo! :)
grazie della segnalazione :)
l'avevo messo nella lista giusta prim'ancora di rispondegli ;)Cos'è, la tana dei lupi? Ma come vi permettete?
Ho imparato (a mie spese) che qui dentro discutere con i fanboy, di qualunque fazione, è una perdita di tempo.
Lui sta ripetendo cose palesemente false distorcendo la realtà e passando il messaggio che la lineup Intel sia competitiva con quella AMD a 360°, cosa palesemente falsa.
Ed accusa gli altri di fare disinformazione.
Definisce “patetico” il 3800X e poi esalta il 10700K :doh:
Critica l’approccio MCM e poi si lamenta perché AMD non aggiunge mille core ad ogni generazione.
Esalta Intel che ci propina Skylake da un lustro e poi dice che AMD è “ferma al palo dal 2017” :doh:
Ogni sua frase si contraddice da sola. Se non sta trollando ha le idee molto confuse... :rolleyes:La fazione di cosa? ARM? :mc:
Fanboy di non si sa cosa. A differenza dei veri fanboy, che invece trovi in tutte le fazioni, io non ho problemi a mandare affanculo sia intel che mr jacket che la rosy bindi cinese.
"cose palesemente false" e poi sento dire che un 8 core amd è superiore in TUTTO (tranne nei giochi, in piccolo tipo controindicazioni dei farmaci).
Eh, che piaccia o no, intel non è così sconveniente come qualcuno fa credere :asd:
Lo sarà probabilmente tra un mese, ma far credere che oggi sia tutto più caro o inferiore vuol dire avere mancanza di onestà intellettuale.
"esalta il 10700K" Sì certo :asd:
Critica che? L'approccio mcm lo esalto se porta vantaggi all'unica persona che conta nell'universo: IO (inteso come noi), non se lisa su si rifà la cucina per competere con il cuggino.
"esalta intel" :asd:
Ma con che coraggio?
infatti è per eccesso di contraddizioni e per i toni cha ha usato che l'ho immediatamente "bocciato"...
il tempo è troppo prezioso per essere perso con certi soggetti, qualunque sia il motivo dei loro comportamentiContraddizioni. Quali?
"certi soggetti"
Perfetto
CUT
onestamente io credo che il discorso sui prodotti poco vendibili possa essere condivisibile almeno in una certa ottica:
ad oggi amd ha in listino diverse cpu che probabilmente non hanno grande mercato (come anche la concorrenza a mio avviso, tra i modelli nel hedt da +2 core a passettini da circa 200€ e le varianti a clock diverso di cpu equivalenti: scelta collegata a questioni di binning e riduzione di scarto declassando il meno possibile).
anche sul fatto che intel non sia così sconveniente concordo, nel senso che ci sono alcuni specifici modelli con un buon rapporto prezzo/prestazioni, credo in particolare tra le cpu nonK, anche se trovo difficile preferire la piattaforma all'am4 per altre ragioni (potenziale upgrade in primis, anche se dalla prossima iterazione il discorso dovrebbe venire meno).
sul discorso di essere fermi da 3 anni non concordo, l'incremento di prestazioni a pari fascia è stato abbastanza marcato anche senza essere correlato ad un aumento di conta dei core e come max anche a mio avviso non ha una così grande rilevanza oggi spingersi oltre considerato come tendono a scalare i software di uso più comune.
lato prezzi vedremo come andrà, ma io continuo a credere come in passato che il listino tenderà alla sovrapposizione con il precedente puntando ad aumentare l'entrata con volumi maggiori anziché aumentare il margine (poi ovviamente posso sbagliare, sulle dinamiche economico/commerciali sono alquanto ignorante).
Dateci un taglio e datevi una calmata
>bYeZ<
fabietto27
19-09-2020, 15:28
@Ton90maz.
La situazione a brevissimo tempo sarà che con l'aumento IPC di AMD con Zen3 e migliorie generali, segherà in toto Intel in tutti i settori, game compreso.
CUT
La nota dolente? E' che AMD può tranquillamente livellare i listini a quello Intel, mettendosi nelle proprie tasche il costo inferiore dell'MC vs monolitico.
Finora ho tirato avanti con la mia vecchia X99 perchè Amd era sotto nei giochi che sono l'unica cosa per cui uso il pc,ma nello stesso tempo non sentivo la mancanza degli intel nuovi.
A sto giro,proprio perchè credo che abbiano lavorato anche in funzione gaming,se pure Amd fosse ancora una piccola percentuale sotto,non mi tratterrei dal cambio di piattaforma magari già con x670.
Per il prezzo amen....le prestazioni si pagano.
Finora ho tirato avanti con la mia vecchia X99 perchè Amd era sotto nei giochi che sono l'unica cosa per cui uso il pc,ma nello stesso tempo non sentivo la mancanza degli intel nuovi.
A sto giro,proprio perchè credo che abbiano lavorato anche in funzione gaming,se pure Amd fosse ancora una piccola percentuale sotto,non mi tratterrei dal cambio di piattaforma magari già con x670.
Per il prezzo amen....le prestazioni si pagano.
Se avessi la tua "vecchia" X99 e la tua CPU, detto francamente, tirerei ancora avanti fino a quando non ci saranno le nuove piattaforme con DDR5 (DDR5 è un bel salto in avanti rispetto a DDR4 anche a parità di frequenza).
Tra 1 anno, inoltre, avremo pci ex4 realmente sfruttato (quantomeno dagli ssd nvme), oltre a USB4. :)
paolo.oliva2
19-09-2020, 16:48
A me non sembra che Ton90maz trolli.
Il suo è un discorso estremizzato più nella max potenza a core con un numero ridotto di core (max8).
Ma visto in questa ottica, il guadagno Intel è unicamente nella frequenza superiore al 7nm TSMC, mentre AMD è andata pesante nell'aumento IPC e miglioramento dell'MCM.
Cioè, un plauso ad Intel per aver portato il 14nm a @5,3GHz è di dovere, ma tolto quello mi sembra una figura piuttosto magra il 10nm e 7nm, entrambi con rinvii... e lato architettura non ha fatto praticamente nulla.
AMD come già detto bisogna aspettare la 2a iterazione sulla stessa nanometria per avere il massimo potenziale... ma se consideriamo fatturato/dipendenti di AMD vs Intel, ostia se ha lavorato bene AMD... e teniamo bene in considerazione che AMD realizza 1 chiplet universale (AM4/TR4/Epyc) mentre Intel si può permettere un PP e progettazione specifici a seconda del settore/fascia/numero core.
Per me la situazione odierna è più per negligenza/sottovalutazione Intel che per bravura AMD.
Guardando con il senno del poi, Intel sapeva dal 2016 di Zen e 14nm... e la roadmap TSMC sulla nanometria silicio è pubblica e a cadenza di ~2 anni offre un salto nodo... ed ovviamente trova AMD pronta (vedi annuncio TSMC di AMD con 20.000 wafer/mese sul 5nm).
Se dopo 5 anni Intel si ritrova ancora sul 14nm e sulla medesima architettura, non è che TSMC/AMD hanno fatto straordinari, la colpa è esclusivamente di Intel, perchè sarebbe bastato iniziare lo sviluppo del 7nm a fine 2018 per avere le carte in regola per fine 2020.
onestamente io credo che il discorso sui prodotti poco vendibili possa essere condivisibile almeno in una certa ottica:
ad oggi amd ha in listino diverse cpu che probabilmente non hanno grande mercato (come anche la concorrenza a mio avviso, tra i modelli nel hedt da +2 core a passettini da circa 200€ e le varianti a clock diverso di cpu equivalenti: scelta collegata a questioni di binning e riduzione di scarto declassando il meno possibile).
anche sul fatto che intel non sia così sconveniente concordo, nel senso che ci sono alcuni specifici modelli con un buon rapporto prezzo/prestazioni, credo in particolare tra le cpu nonK, anche se trovo difficile preferire la piattaforma all'am4 per altre ragioni (potenziale upgrade in primis, anche se dalla prossima iterazione il discorso dovrebbe venire meno).
sul discorso di essere fermi da 3 anni non concordo, l'incremento di prestazioni a pari fascia è stato abbastanza marcato anche senza essere correlato ad un aumento di conta dei core e come max anche a mio avviso non ha una così grande rilevanza oggi spingersi oltre considerato come tendono a scalare i software di uso più comune.
lato prezzi vedremo come andrà, ma io continuo a credere come in passato che il listino tenderà alla sovrapposizione con il precedente puntando ad aumentare l'entrata con volumi maggiori anziché aumentare il margine (poi ovviamente posso sbagliare, sulle dinamiche economico/commerciali sono alquanto ignorante).
Io continuo ad avere l'impressione che AMD sia la facciata di una manovra ben più complessa.
Io vedo AMD come una ditta che abbia lo scopo di commercializzare un prodotto competitivo (prezzo/prestazioni) mirato nel range di 1-1,5 anni, dopodichè si vedrà.
Invece a me sembra che il tutto sia stato mirato più sull'MCM con la consapevolezza che un colosso quale Intel avrebbe richiesto in totale di tempo per la migrazione dal monolitico.
AMD producendo in MCM ha un costo produzione (R&D + resa) almeno del -30% vs Intel... e questo concederebbe ad AMD un margine enorme nel listino, rapportato al prezzo/prestazioni, perchè potrebbe compensare fino ad un -30% prestazionale riducendo il listino in egual misura e guadagnando quanto Intel.
Io non vedo in AMD una strategia con visione di tempo di 5 anni se non di più... mentre mi sembra perfetta per una ditta quale TSMC che investe sulla nanometria con la quasi certezza che AMD comunque possa ripagargli parte di quanto investito.
Il discorso del listino più lucroso per AMD è giustificabile in parte che AMD "pensa" alla sua cassa e per TSMC che comunque il tetto di wafer/mese sia soddisfacente.
Un listino AMD troppo aggressivo, cosa comporterebbe? Abbiamo visto (midfactory) che un -25% sugli i9 ha comportato un aumento delle vendite ad Intel... mi sembra circa un +7%. Questo può andare bene per Intel per pulire i magazzini dagli i9... ma non per AMD... in quanto la formula listino -25% per vendite +7% significherebbe perdere... considerando poi che AMD è sicuramente in fase produzione Zen2 calante per offrire Zen3.
Nautilu$
19-09-2020, 16:56
Cos'è, la tana dei lupi? Ma come vi permettete?
guarda che se non stai trollando..... la cosa o va vista grave o comica!:D
[edit]
ho visto solo adesso il MOD.... pardon.... :)
....
@Ton90maz:
adesso ti chiedo seriamente: dalla prima iterazione di zen , in 2 anni, tu cosa avresti voluto di più da AMD? Cosa ti saresti aspettato, per esempio, al posto di zen2 come è ora (1 anno fa)?
Volevi più frequenza? : non c'è
Volevi ancora più core per il mainstream ALLO STESSO PREZZO? : (i miei neuroni dicono che stai trollando) forse non è possibile, ma anche assolutamente inutile
Volevi ancora più differenza (tra IPC e frequenza) in 2 anni? : c'è stato un effettivo 25% (un 3600x va come un 1800x)..... credo sia impossibile.....
Piedone1113
19-09-2020, 17:51
guarda che se non stai trollando..... la cosa o va vista grave o comica!:D
[edit]
ho visto solo adesso il MOD.... pardon.... :)
....
@Ton90maz:
adesso ti chiedo seriamente: dalla prima iterazione di zen , in 2 anni, tu cosa avresti voluto di più da AMD? Cosa ti saresti aspettato, per esempio, al posto di zen2 come è ora (1 anno fa)?
Volevi più frequenza? : non c'è
Volevi ancora più core per il mainstream ALLO STESSO PREZZO? : (i miei neuroni dicono che stai trollando) forse non è possibile, ma anche assolutamente inutile
Volevi ancora più differenza (tra IPC e frequenza) in 2 anni? : c'è stato un effettivo 25% (un 3600x va come un 1800x)..... credo sia impossibile.....
Lascia perdere, nemmeno un mese fa un utente ha detto che un 3300 liscio è la miglior cpu per giocare ( liscio non X) e che non offrirà colli di bottiglia a fhd per 3 anni almeno. mentre per 30€ in più consigliavo un 3600 o a 100€ un 2600x da aggiornare ad una serie 4xxx (5xxx).
La mb scelta era una b550 .
Purtroppo c'è gente che non ha capito che praticamente tutti i nuovi giochi che usciranno avranno i data path delle cpu AMD e che un team che sfiluppa per consolle farà la stessa cosa per i giochi pc nativi.
Questa cosa è da tenere in considerazione e tra 2 anni i famisi 10 fps in meno ( su 130) di amd diventeranno 5 in più ( su 70).
A me non sembra che Ton90maz trolli.
Il suo è un discorso estremizzato più nella max potenza a core con un numero ridotto di core (max8).
Ma visto in questa ottica, il guadagno Intel è unicamente nella frequenza superiore al 7nm TSMC, mentre AMD è andata pesante nell'aumento IPC e miglioramento dell'MCM.
Cioè, un plauso ad Intel per aver portato il 14nm a @5,3GHz è di dovere, ma tolto quello mi sembra una figura piuttosto magra il 10nm e 7nm, entrambi con rinvii... e lato architettura non ha fatto praticamente nulla.
AMD come già detto bisogna aspettare la 2a iterazione sulla stessa nanometria per avere il massimo potenziale... ma se consideriamo fatturato/dipendenti di AMD vs Intel, ostia se ha lavorato bene AMD... e teniamo bene in considerazione che AMD realizza 1 chiplet universale (AM4/TR4/Epyc) mentre Intel si può permettere un PP e progettazione specifici a seconda del settore/fascia/numero core.
Per me la situazione odierna è più per negligenza/sottovalutazione Intel che per bravura AMD.
Guardando con il senno del poi, Intel sapeva dal 2016 di Zen e 14nm... e la roadmap TSMC sulla nanometria silicio è pubblica e a cadenza di ~2 anni offre un salto nodo... ed ovviamente trova AMD pronta (vedi annuncio TSMC di AMD con 20.000 wafer/mese sul 5nm).
Se dopo 5 anni Intel si ritrova ancora sul 14nm e sulla medesima architettura, non è che TSMC/AMD hanno fatto straordinari, la colpa è esclusivamente di Intel, perchè sarebbe bastato iniziare lo sviluppo del 7nm a fine 2018 per avere le carte in regola per fine 2020.
https://www.developpez.net/forums/attachments/p516515d1573472323/x/y/z/
https://8images.cgames.de/images/gamestar/208/amd-ryzen-3000-ccx-size_6072127.jpg
D'accordo paolo .....ma ti invito a guardare e riflettere in lungo ed in largo su queste slide, che secondo me, racchiudono il succo della situazione odierna e di domani.
Per come la vedo io non è che sia da tirare chissa quale ''tecnicità di discussione''....in quanto il 10 nm od il 7nm non possono fare nulla se non nasce una nuova architettura incentrata sulla concezione a chiplet.
dalla seconda slide hanno ridotto in maniera aggressiva la grandezza del core, figuriamoci dal passaggio 7nm a 5nm; ...paolo un 16 core di oggi sarà il classico 3700x di domani come se fosse ''pane'' per tutti.
Ci guadagnano lo stesso ma dall'altra parte, se non si passa a questo approccio ''rivoluzionario'' ....è impossibile competer.
Oggi stesso un 3950x non ha equivalenti x16 figuriamoci domani che il 16 core diventerà automaticamente l'8core.
Come credi che TMSC investa o fa accordi se non è lo stesso MCM chiplet che ne avvalla l'investimento stesso.?
Produrre un die più grande aumenta la probabilità di difetti...mentre più piccolo è il die è meno percentuale(nel totale ) di difetti ci sono; allora che qualcuno ci investe ad occhi chiusi e lo stesso vale per gli altri componenti del die.
Anche se facessero un mostro a 7nm senza chiplet, dunque in monolitico, chi ci investerebbe quanto invece sullo stesso ma in chiplet.
La resa fa si che si attiva una valanga di prenotazioni, perchè appunto i core talmente saranno piccoli che la percentuale di ''difettati'' è percentualmente minore della nanometria precedente.
Lo stesso non si può pensare nel monolitico.
Quindi quando io dico dominio non intendo flammare od prendere in giro alcuno(non l'ho mai neanche lontamente pensato perchè non mi interessa) , perchè il rispetto per una persona trascende da qualsiasi classificazione o catalogazione.
Se non escono presto con un approccio simile..secondo me....faranno la fine di ''pacchiotto''.
Già zen3 farà molto male.....e non c'è bisogno di immaginare nessun 10 o 7, perchè quello che manca è la nuova architettura..:read: :(
Paolo questi tra un anno e mezzo passeranno a 5nm e con questo approccio raseranno al suolo qualsiasi cosa hanno davanti e nulla potrà fare un 10 o un 7 e neppure nessun discorso tecnico su di essi.....in tutti i settori desktop/apu/mobile/workstation/server e anche gpu!!!:read: ;)
...e vedremo anche questo!
PS e sto considerando che il famoso CCX resti come oggi perchè se dovesse diventare più ''farcito'' assieme a qualche altra forma di SMT2 ....veramente c'è la fine di una era!!!!(speriam di no :eek: :eek: )
Se avessi la tua "vecchia" X99 e la tua CPU, detto francamente, tirerei ancora avanti fino a quando non ci saranno le nuove piattaforme con DDR5 (DDR5 è un bel salto in avanti rispetto a DDR4 anche a parità di frequenza).
Tra 1 anno, inoltre, avremo pci ex4 realmente sfruttato (quantomeno dagli ssd nvme), oltre a USB4. :)
Ma voi siete cosi sicuri che già nel 2021 avremo DDR5 ampiamente disponibili a livello consumer ? :confused:
Io ho idea che questo sia un passaggio che vedremo ad inizio 2022, e che Zen 3, come Rocket Lake, tireranno avanti fino ad inizio 2022...
Chiaramente è solo una mia sensazione:boh:
https://www.developpez.net/forums/attachments/p516515d1573472323/x/y/z/
https://8images.cgames.de/images/gamestar/208/amd-ryzen-3000-ccx-size_6072127.jpg
D'accordo paolo .....ma ti invito a guardare e riflettere in lungo ed in largo su queste slide, che secondo me, racchiudono il succo della situazione odierna e di domani.
Per come la vedo io non è che sia da tirare chissa quale ''tecnicità di discussione''....in quanto il 10 nm od il 7nm non possono fare nulla se non nasce una nuova architettura incentrata sulla concezione a chiplet.
dalla seconda slide hanno ridotto in maniera aggressiva la grandezza del core, figuriamoci dal passaggio 7nm a 5nm; ...paolo un 16 core di oggi sarà il classico 3700x di domani come se fosse ''pane'' per tutti.
Ci guadagnano lo stesso ma dall'altra parte, se non si passa a questo approccio ''rivoluzionario'' ....è impossibile competer.
Oggi stesso un 3950x non ha equivalenti x16 figuriamoci domani che il 16 core diventerà automaticamente l'8core.
Come credi che TMSC investa o fa accordi se non è lo stesso MCM chiplet che ne avvalla l'investimento stesso.?
Produrre un die più grande aumenta la probabilità di difetti...mentre più piccolo è il die è meno percentuale(nel totale ) di difetti ci sono; allora che qualcuno ci investe ad occhi chiusi e lo stesso vale per gli altri componenti del die.
Anche se facessero un mostro a 7nm senza chiplet, dunque in monolitico, chi ci investerebbe quanto invece sullo stesso ma in chiplet.
La resa fa si che si attiva una valanga di prenotazioni, perchè appunto i core talmente saranno piccoli che la percentuale di ''difettati'' è percentualmente minore della nanometria precedente.
Lo stesso non si può pensare nel monolitico.
Quindi quando io dico dominio non intendo flammare od prendere in giro alcuno(non l'ho mai neanche lontamente pensato perchè non mi interessa) , perchè il rispetto per una persona trascende da qualsiasi classificazione o catalogazione.
Se non escono presto con un approccio simile..secondo me....faranno la fine di ''pacchiotto''.
Già zen3 farà molto male.....e non c'è bisogno di immaginare nessun 10 o 7, perchè quello che manca è la nuova architettura..:read: :(
Paolo questi tra un anno e mezzo passeranno a 5nm e con questo approccio raseranno al suolo qualsiasi cosa hanno davanti e nulla potrà fare un 10 o un 7 e neppure nessun discorso tecnico su di essi.....in tutti i settori desktop/apu/mobile/workstation/server e anche gpu!!!:read: ;)
...e vedremo anche questo!
PS e sto considerando che il famoso CCX resti come oggi perchè se dovesse diventare più ''farcito'' assieme a qualche altra forma di SMT2 ....veramente c'è la fine di una era!!!!(speriam di no :eek: :eek: )
Come al solito inizi da un idea che può anche essere corretta e poi parti per la tangente :doh:
Ma lo vuoi capire che già Rocket Lake, che vedremo tra pochi mesi, è una nuova architettura, con un incremento di IPC ? Ma lo vuoi capire che Intel non è che nei prossimi 2 anni resterà alla finestra a guardare AMD ?
Gli estremismi, in un senso o nell’altro, sono ridicoli e soprattutto inutili. AMD in questo momento ha la superiorità tecnica ed un vantaggio sul processo di produzione, pur con il limite di dipendere totalmente da altri per la produzione.
Intel è un po’ in affanno ma possiede comunque una lineup credibile e la capacità di riprendersi (vedasi Tiger Lake che è un bel prodotto nella sua fascia).
Questo va tutto a vantaggio dell’utenza. Anzi, solo dell’utenza così sveglia da non avere sciocche prese di posizione basate sui colori ma sceglie sempre e comunque ciò che fornisce il miglior risultato per le proprie esigenze.
digieffe
19-09-2020, 22:00
Ma voi siete cosi sicuri che già nel 2021 avremo DDR5 ampiamente disponibili a livello consumer ? :confused:
Io ho idea che questo sia un passaggio che vedremo ad inizio 2022, e che Zen 3, come Rocket Lake, tireranno avanti fino ad inizio 2022...
Chiaramente è solo una mia sensazione:boh:
ho la stessa sensazione, anche perché sommariamente i lanci dei vari zen sono stati fatti a distanza di circa un anno ed un trimestre...
ai soliti: ho scritto sommariamente, se avessi voluto avrei fatto i conti esatti
necromantis
19-09-2020, 22:53
Alla fine dei conti io con la mia b450 tomahawk potrò montare i nuovi zen in uscita?
Inviato dal mio SM-A505FN utilizzando Tapatalk
ultimate trip
20-09-2020, 07:20
Alla fine dei conti io con la mia b450 tomahawk potrò montare i nuovi zen in uscita?
Inviato dal mio SM-A505FN utilizzando Tapatalk
sembrerebbe di si
https://www.hwupgrade.it/news/cpu/amd-cambia-idea-cpu-ryzen-4000-zen-3-supportate-dalle-motherboard-b450-e-x470_89495.html
CUT
Ci guadagnano lo stesso ma dall'altra parte, se non si passa a questo approccio ''rivoluzionario'' ....CUT
l'approccio a chiplet è tutto tranne che rivoluzionario...in origine i primi dual core erano basati su due core die separati e collegati, come sta avvenendo adesso...poi siccome hanno visto i problemi a mantenerli separati li hanno uniti con ovvi vantaggi...adesso si è tornati indietro su quella strada per un problema di costi e rese e perchè si stanno offrendo CPU con un sacco di core sostanzialmente inutili per la maggior parte dei casi, visto che il sw, a parte qualche rara eccezione, non scala automaticamente in base ai core, ma deve essere PROGRAMMATO in tal senso, PROGRAMMAZIONE che esula dai fanboyismi e che tende ad utilizzare il parallelismo che lo sviluppatore ha in testa e di cui ha bisogno....
PS cmq trovo abbastanza ridicolo che l'evoluzione di una CPU venga legato al punteggio di cinebench...marketting (volutamente con due t) allo stato puro.....visto che la maggior parte dei sw non utilizzano tutti i core a disposizione....è un concetto di performance molto discutibile perchè poi nella realtà non è così....a meno che vendo CPU solo per fare rendering sw
Nautilu$
20-09-2020, 08:46
Esiste anche la conversione video, molto comune anche per molti di noi, dove i core in più servono eccome! Alcuni software nello sfruttamento si fermano circa a 8-10 , ma altri fino a 32 senza batter ciglio!
Si potrebbe fare una community e decidere un video di partenza, per poi usare un convertitore video e settaggi obbligati da usare come benchmark.... così sembrerebbe meno markeTTaro?!
L'approccio a chiplet, soprattutto per i core totali maggiori di 16, e rivoluzionario dal punto di vista che l'alternativa sarebbe pagare un processore 5 volte tanto.... Ti pare niente?
P.S.: Cinebench puoi usarlo benissimo come termine di paragone anche con una CPU quad-core eh...?! Guarda caso nessuno ha mai fatto commenti sulla inutilità , prima di Ryzen... Certo: non è adatto ad assegnare un premio nei giochi!
Rougequellovero
20-09-2020, 08:52
l'approccio a chiplet è tutto tranne che rivoluzionario...in origine i primi dual core erano basati su due core die separati e collegati, come sta avvenendo adesso...poi siccome hanno visto i problemi a mantenerli separati li hanno uniti con ovvi vantaggi...adesso si è tornati indietro su quella strada per un problema di costi e rese e perchè si stanno offrendo CPU con un sacco di core sostanzialmente inutili per la maggior parte dei casi, visto che il sw, a parte qualche rara eccezione, non scala automaticamente in base ai core, ma deve essere PROGRAMMATO in tal senso, PROGRAMMAZIONE che esula dai fanboyismi e che tende ad utilizzare il parallelismo che lo sviluppatore ha in testa e di cui ha bisogno....
PS cmq trovo abbastanza ridicolo che l'evoluzione di una CPU venga legato al punteggio di cinebench...marketting (volutamente con due t) allo stato puro.....visto che la maggior parte dei sw non utilizzano tutti i core a disposizione....è un concetto di performance molto discutibile perchè poi nella realtà non è così....a meno che vendo CPU solo per fare rendering sw
Avere più core, non deve essere tradotto sempre e solo in "li uso tutti nella stessa applicazione e ci metto meno tempo".
Se apri il task manager di windows ti accorgerai che un moderno sistema operativo gia da solo apre un infinità di task.
Sul mio pc mentre lavoro oltre al programma di cad o quello di Cam, che uso attivamente, gira l'antivirus, il gestore di posta il client cloud dove ho i file di lavoro e con boxcryptor per la crittazione degli stessi, un player musicale in sottofondo, tralasciando poi qualche ricerca su browser e i documenti pdf dei clienti da cui parto x disegnare 3d...
Quindi scusa tanto ma la leggenda che i processori con tanti core non servono a nulla perchè le app sono programmate solo per sfruttarne uno, io non me la bevo.
Ricordo ancora molto bene i tempi in cui non si potevano aprire due programmi insieme perchè s'impallava il pc, perchè il processore rimbalzava tra un task e l'altro..
Più core servono anche a questo.
conan_75
20-09-2020, 08:55
Scusate se torno un attimo in topic :D
Voi come impostate gli LLC?
Rougequellovero
20-09-2020, 09:07
Scusate se torno un attimo in topic :D
Voi come impostate gli LLC?
Sarebbe più in topic nel thread dell'overclock!!:D
In ogni caso dipende molto da come reagisce alle modifiche la tua scheda madre. Io personalmente li ho molto blandi.
Alla fine dei conti io con la mia b450 tomahawk potrò montare i nuovi zen in uscita?
Inviato dal mio SM-A505FN utilizzando Tapatalk
sembrerebbe di si
https://www.hwupgrade.it/news/cpu/amd-cambia-idea-cpu-ryzen-4000-zen-3-supportate-dalle-motherboard-b450-e-x470_89495.html
Molto curioso di vedere alla fine in cosa si concretizzerà questa “promessa” e che limitazioni imporrà.
Ad essere onesti non mi entusiasmerebbe una soluzione con BIOS “pezzotto” in beta perenne :rolleyes:
C’è anche da dire che una buona mobo come la Tomahawk roderebbe eccome doversene disfare.
l'approccio a chiplet è tutto tranne che rivoluzionario...in origine i primi dual core erano basati su due core die separati e collegati, come sta avvenendo adesso...poi siccome hanno visto i problemi a mantenerli separati li hanno uniti con ovvi vantaggi...adesso si è tornati indietro su quella strada per un problema di costi e rese e perchè si stanno offrendo CPU con un sacco di core sostanzialmente inutili per la maggior parte dei casi, visto che il sw, a parte qualche rara eccezione, non scala automaticamente in base ai core, ma deve essere PROGRAMMATO in tal senso, PROGRAMMAZIONE che esula dai fanboyismi e che tende ad utilizzare il parallelismo che lo sviluppatore ha in testa e di cui ha bisogno....
PS cmq trovo abbastanza ridicolo che l'evoluzione di una CPU venga legato al punteggio di cinebench...marketting (volutamente con due t) allo stato puro.....visto che la maggior parte dei sw non utilizzano tutti i core a disposizione....è un concetto di performance molto discutibile perchè poi nella realtà non è così....a meno che vendo CPU solo per fare rendering sw
In generale hai detto alcune cose corrette qui sopra, soprattutto sull’aspetto dello sfruttamento MT.
MA, ed aggiungo un grossa MA, è vero anche che se da una parte il MT può essere sfruttato a fondo solamente se lo sviluppatore ha realizzato il suo software con un elevato livello di parallelizzazione, dall’altra oggi come oggi praticamente NESSUN SOFTWARE è pensato per un utilizzo ST, e Windows stesso ha la tendenza a spalmare i suoi processi su tutti i core/threads disponibili. Anche i giochi, storicamente terreno poco fertile per il MT (dovuto a diversi motivi, ma il principale è che molti engine sono basati su vecchie architetture pensate per CPU dual core o 4 core al massimo :rolleyes: ), negli ultimi due anni hanno dimostrato una NETTA propensione a migliorare le prestazioni passando da 4 a 6 e persino 8 core. Unica eccezione quella m3rd4 di FS2020 che è uscito malissimo e sono convinto verrà modificato parecchio con il tempo.
Questo significa che oggi la CPU da acquistare per me deva avere COME MINIMO la configurazione 6C/12T, ma preferibilmente io direi 8C/16T.
CPU come il 3900X o peggio il 3950X invece passerà del tempo prima di vederle sfruttate in pieno, a meno che non fai pesante uso di rendering o conversione video, dove già oggi sono dei mostri inarrivabili.
Scusate se torno un attimo in topic :D
Voi come impostate gli LLC?
Dipende da che scheda hai.
Io sulla Asus li tenevo a 4, ma in uno dei tweet successivi 1usmus ha consigliato 3 e da allora li ho settati a 3.
Sarebbe più in topic nel thread dell'overclock!!:D
In ogni caso dipende molto da come reagisce alle modifiche la tua scheda madre. Io personalmente li ho molto blandi.
Io non faccio alcun overclock ma gioco sugli LLC da sempre :boh:
Rougequellovero
20-09-2020, 09:25
Io non faccio alcun overclock ma gioco sugli LLC da sempre :boh:
Era solo una battuta per agganciarmi al suo messaggio!
Non prendermi così tanto sul serio!!:D :D
digieffe
20-09-2020, 10:57
Avere più core, non deve essere tradotto sempre e solo in "li uso tutti nella stessa applicazione e ci metto meno tempo".
Se apri il task manager di windows ti accorgerai che un moderno sistema operativo gia da solo apre un infinità di task.
Sul mio pc mentre lavoro oltre al programma di cad o quello di Cam, che uso attivamente, gira l'antivirus, il gestore di posta il client cloud dove ho i file di lavoro e con boxcryptor per la crittazione degli stessi, un player musicale in sottofondo, tralasciando poi qualche ricerca su browser e i documenti pdf dei clienti da cui parto x disegnare 3d...
Quindi scusa tanto ma la leggenda che i processori con tanti core non servono a nulla perchè le app sono programmate solo per sfruttarne uno, io non me la bevo.
Ricordo ancora molto bene i tempi in cui non si potevano aprire due programmi insieme perchè s'impallava il pc, perchè il processore rimbalzava tra un task e l'altro..
Più core servono anche a questo.
- quanti di quella infinità di task sono attivi contemporaneamente?
- qual'è il carico (contemporaneo) sulla cpu dell'antivirus, posta, ... browser, pdf?
sei così sicuro che un paio di core (e sono stato largo) non siano più che sufficenti per i task da te elencati (che poi sono per la maggior parte sono in stato di wait o leggero carico in background) ?
perché attribuisci di "leggenda" a discorsi senza prima precisare quanto sopra?
cosa dici a proposito della leggenda che per ogni task, indipendentemente dal carico, serve un core?
buona domenica :)
p.s. Randa non ha bisogno di un avvocato, ma certe "cose" non si possono proprio sentire... eh
Lungi da me il voler fare da avvocato difensore a qualsiasi schieramento... è evidente che i task qui sopra elencati non abbiano bisogno di un 8C per funzionare :D ma è altrettanto vero che qualsiasi applicazione che applichi un minimo di carico sulla CPU, che sia un gioco piuttosto che un programma di conversione video, oggi sfrutti un buon numero di threads, per cui un dual core può andare bene al massimo per uso leggero (browser ed office automation tipicamente).
Lungi da me il voler fare da avvocato difensore a qualsiasi schieramento... è evidente che i task qui sopra elencati non abbiano bisogno di un 8C per funzionare :D ma è altrettanto vero che qualsiasi applicazione che applichi un minimo di carico sulla CPU, che sia un gioco piuttosto che un programma di conversione video, oggi sfrutti un buon numero di threads, per cui un dual core può andare bene al massimo per uso leggero (browser ed office automation tipicamente).
sta dicendo che 2 core possono ad esempio soddisfare le esigenze di quel genere di background, non che con un dualcore puoi fare tutto senza limiti.
digieffe
20-09-2020, 11:22
Lungi da me il voler fare da avvocato difensore a qualsiasi schieramento... è evidente che i task qui sopra elencati non abbiano bisogno di un 8C per funzionare :D ma è altrettanto vero che qualsiasi applicazione che applichi un minimo di carico sulla CPU, che sia un gioco piuttosto che un programma di conversione video, oggi sfrutti un buon numero di threads, per cui un dual core può andare bene al massimo per uso leggero (browser ed office automation tipicamente).
Max, credo ci sia un equivoco (o mi sono espresso male), intendevo che per i task da lui elencati (eccetto quelli si app specifiche, vedi sotto) bastano 2 core (di servizio!), aggiungo, perché sono quasi tutti in stato di wait (sostanzialmente l'OS li tiene fermi) e i pochi altri in esecuzione hanno carico basso tanto da poter essere eseguiti in timesharing su 1 max 2 core.
cosa diversa è la conversione video, videogames, in generale programmi piuttosto cpu intensive...
invito tutti a tenere un "serio" taskmanager aperto su un monitor secondario con l'opzione "distingui i threads" e verificare il reale utilizzo dei core ;)
sta dicendo che 2 core possono ad esempio soddisfare le esigenze di quel genere di background, non che con un dualcore puoi fare tutto senza limiti.
scrivevamo nello stesso tempo, grazie per la spiegazione :)
Rougequellovero
20-09-2020, 11:34
- quanti di quella infinità di task sono attivi contemporaneamente?
- qual'è il carico (contemporaneo) sulla cpu dell'antivirus, posta, ... browser, pdf?
sei così sicuro che un paio di core (e sono stato largo) non siano più che sufficenti per i task da te elencati (che poi sono per la maggior parte sono in stato di wait o leggero carico in background) ?
perché attribuisci di "leggenda" a discorsi senza prima precisare quanto sopra?
cosa dici a proposito della leggenda che per ogni task, indipendentemente dal carico, serve un core?
buona domenica :)
p.s. Randa non ha bisogno di un avvocato, ma certe "cose" non si possono proprio sentire... eh
Non è questione di carico del singolo task, è ovvio che siano accessi poco gravosi. non mi fraintendere.
Non sto dicendo che sia necessario un processore da 16C/32T per il mio utilizzo...ho un banalissimo 3600x con cui mi trovo benissimo...
la questione è che ogni singolo task ha degli accessi alle risorse della cpu e il poter spostare da un core ad un altro il carico aiuta ad avere un sistema sempre fluido. In passato mentre il mio pc doveva elaborare percorsi utensili, ed impegnava la cpu al 100% (intel i5 750, se te lo stai chiedendo) dovevi avere il portatile affianco anche solo per leggere una mail...
Ora, non so se per merito del sistema operativo migliorato o se per merito della cpu più performante, questi problemi non li ho più.
Quello che contesto è il dire che le cpu con più core sono inutili in modo del tutto gratuito in questa modo. Tali cpu sono inutili solo se il proprio utilizzo del pc non richiede tale processore. (nel mio caso ad esempio 16C sarebbero inutili).
Buona domenica anche te!
Non è questione di carico del singolo task, è ovvio che siano accessi poco gravosi. non mi fraintendere.
Non sto dicendo che sia necessario un processore da 16C/32T per il mio utilizzo...ho un banalissimo 3600x con cui mi trovo benissimo...
la questione è che ogni singolo task ha degli accessi alle risorse della cpu e il poter spostare da un core ad un altro il carico aiuta ad avere un sistema sempre fluido. In passato mentre il mio pc doveva elaborare percorsi utensili, ed impegnava la cpu al 100% (intel i5 750, se te lo stai chiedendo) dovevi avere il portatile affianco anche solo per leggere una mail...
Ora, non so se per merito del sistema operativo migliorato o se per merito della cpu più performante, questi problemi non li ho più.
Quello che contesto è il dire che le cpu con più core sono inutili in modo del tutto gratuito in questa modo. Tali cpu sono inutili solo se il proprio utilizzo del pc non richiede tale processore. (nel mio caso ad esempio 16C sarebbero inutili).
Buona domenica anche te!
Premesso che il mio intervento non era volto ad alimentare la solita diatriba tra Intel vs AMD e lo dimostra il fatto che in casa ho sia un 3950x e un 3970X....cosa che penso che nessuno di voi o pochi si trovino nella mia condizione, il mio discorso era volto a contestare alcune affermazioni che non reputo corrette.
Ho sempre avuto la brutta abitudine di ragionare sulle cose che mi vengono presentate e di provarle di persona...non adotto l'approccio del dogma di fede nelle cose...anche perchè in ambito tecnico i dogmi hanno poco spazio, per fortuna. Soprattutto mi fido molto poco delle slide....
la prima riguardava i chiplet: non li considero una rivoluzione perchè di fatto già lo si faceva all'inizio dei multicore (il concetto è il medesimo)...poi li avranno affinati sicuramente, hanno creato un'infrastruttura sottostante (infinity fabric), ma definirla rivoluzione mi sembra eccessivo. La definirei più come una "furbata" nel senso buono del termine...e cmq per un 3600X o un 3800X adottare approccio dei chiplet gli tarpa solo le ali....
la seconda riguardava utilità di avere così tanti core a disposizione che, a parte determinati settori specifici (rendering, server e conversioni video), di fatto non servono...e questo è un peccato perchè l'aumento indiscriminato dei core se poi il sw non è in grado di adattarsi a tutta questa potenza di calcolo non servono a nulla. Non tutti gli algoritmi sono altamente parallelizzabili.
la terza sulla slide: beh se va bene così allora va bene per par condicio quando Intel nelle slide dice che con il 10900K è l'unica CPU valida per giocare ..cosa non vera ovviamente. Ed è un'informazione fuorviante perchè nella realtà dell'utilizzo i salti che vedi nei punteggi di cb non sono reali, a meno di un utilizzo della CPU sempre al 100%. (quando uso il 3970X non ho la sensazione di avere una macchina va il doppio rispetto al 3950X)
Conclusioni cui sono arrivato dopo aver usato per mesi sia il 3950X che il 3970X. Hai scritto bene che tutto dipende dall'uso che si fa della macchina....
Una piccola precisazione: il fatto che la macchina ti si piantasse con la CPU al 100% non era certo dovuto al fatto che avessi pochi core a disposizione...ma solo per il fatto di come lo scheduler di windows gestisce o gestiva (male) i processi. Ti posso assicurare per esperienza diretta che avere la CPU al 100% e non essere in gradi di leggere una mail non è "colpa" della CPU. in questi casi se tutto funzionasse come si deve gli effetti normali sarebbero quelli di rallentare le elaborazioni, ma non di avere la macchina piantata...anche perchè il controllo totale della CPU ce l'ha il kernel...paradossalmente potrebbe capitare la stessa cosa anche con il 3970X
Pace e bene e buona domenica a tutti
digieffe
20-09-2020, 12:12
Non è questione di carico del singolo task, è ovvio che siano accessi poco gravosi. non mi fraintendere.
Non sto dicendo che sia necessario un processore da 16C/32T per il mio utilizzo...ho un banalissimo 3600x con cui mi trovo benissimo...
processore che apprezzo molto, se non fosse in uscita zen3 avrei già preso da poco un 3600
la questione è che ogni singolo task ha degli accessi alle risorse della cpu e il poter spostare da un core ad un altro il carico aiuta ad avere un sistema sempre fluido.
dipende... dal carico: per carichi alti si, per carichi bassi è praticamente ininfluente ma attenzione "spostare", in questo caso, potrebbe abbassare la frequenza dei core.
In passato mentre il mio pc doveva elaborare percorsi utensili, ed impegnava la cpu al 100% (intel i5 750, se te lo stai chiedendo) dovevi avere il portatile affianco anche solo per leggere una mail...
Ora, non so se per merito del sistema operativo migliorato o se per merito della cpu più performante, questi problemi non li ho più.
hai fatto bene a specificare la cpu precedente: ora dovresti verificare in task manager quanti thread utilizza il tuo programma mentre fai le operazioni descritte sopra.
Credo che i casi siano 2:
- il programma non utilizza tutti i thread che la cpu mette a disposizione (o non li utilizza a pieno)
- la microarchitettura di Zen2 (in particolare SMT e cache L3) permette più fluidità anche nel caso che il programma utilizzi tutti i thread
ovviamente anche un mix tra le 2 cose
Quello che contesto è il dire che le cpu con più core sono inutili in modo del tutto gratuito in questa modo. Tali cpu sono inutili solo se il proprio utilizzo del pc non richiede tale processore. (nel mio caso ad esempio 16C sarebbero inutili).
Buona domenica anche te!
l'unica cosa che contesto è di dare di "leggenda", contesta serenamente :)
non è giusto che io entri nel merito, se vorrà ti risponderà il diretto interessato, mi sembra si parlasse di quanto i software siano parallelizzati ed io ho invitato a guardare un taskmanager "serio" per rendersene conto (nb. vista per thread), tutto qui.
sta dicendo che 2 core possono ad esempio soddisfare le esigenze di quel genere di background, non che con un dualcore puoi fare tutto senza limiti.
Si sì ho capito cosa intendeva ;)
Max, credo ci sia un equivoco (o mi sono espresso male), intendevo che per i task da lui elencati (eccetto quelli si app specifiche, vedi sotto) bastano 2 core (di servizio!), aggiungo, perché sono quasi tutti in stato di wait (sostanzialmente l'OS li tiene fermi) e i pochi altri in esecuzione hanno carico basso tanto da poter essere eseguiti in timesharing su 1 max 2 core.
cosa diversa è la conversione video, videogames, in generale programmi piuttosto cpu intensive...
invito tutti a tenere un "serio" taskmanager aperto su un monitor secondario con l'opzione "distingui i threads" e verificare il reale utilizzo dei core ;)
scrivevamo nello stesso tempo, grazie per la spiegazione :)
Si certo ho capito a cosa ti riferivi e concordo assolutamente. Il mio non voleva essere un commento a confutare il tuo post, figurati.
Facevo solo un distinguo tra i normali task di un sistema operativo, che come hai detto andrebbero bene anche su un single core, e quello che accade facendo girare un applicazione “vera” .
l'approccio a chiplet è tutto tranne che rivoluzionario...in origine i primi dual core erano basati su due core die separati e collegati, come sta avvenendo adesso...poi siccome hanno visto i problemi a mantenerli separati li hanno uniti con ovvi vantaggi...adesso si è tornati indietro su quella strada per un problema di costi e rese e perchè si stanno offrendo CPU con un sacco di core sostanzialmente inutili per la maggior parte dei casi, visto che il sw, a parte qualche rara eccezione, non scala automaticamente in base ai core, ma deve essere PROGRAMMATO in tal senso, PROGRAMMAZIONE che esula dai fanboyismi e che tende ad utilizzare il parallelismo che lo sviluppatore ha in testa e di cui ha bisogno....
PS cmq trovo abbastanza ridicolo che l'evoluzione di una CPU venga legato al punteggio di cinebench...marketting (volutamente con due t) allo stato puro.....visto che la maggior parte dei sw non utilizzano tutti i core a disposizione....è un concetto di performance molto discutibile perchè poi nella realtà non è così....a meno che vendo CPU solo per fare rendering sw
D'accordo capisco quello che vuoi dire.....ma però ci potrebbero essere dei però.
La mia parola ''rivoluzionario'' non voleva dire di scoperta ex-novo perchè è vero che un simile approccio già nacque tempo fa, però non si può paragonare assolutamente la complessità(da tutti i punti di vista) di un chip di allora con un chip di adesso e di domani.....oggi ''si è'' costretti, come appunto hai detto te per una questione di costi e rese!....e ti sembra poco?(la conseguenza sarebbe la non fattibilità economica a realizzarlo.)
Per quanto riguarda il numero di core, senza essere assolutistici, certo che sarei d'accordo con te ma però secondo me bisognerebbe distaccarsi dalla parola ''utilità'' in senso stretto rispetto a come il mondo va.
In altre parole l'innovazione( o qualsiasi altra cosa) va dove ''deve'' andare indipendentemente se sia giusto/opportuno/valido.....va come deve andare il mondo ed fine.
Per quanto riguarda il programma di cinebench, che possa o non possa essere valido/utile, semplicemente è un applicazione che da una idea approssimativa delle potenzialità di una cpu(non è l'unica chiaramente o la sola) al fine di inquadrarla.
Io credo che lo sfruttamento software/hardware (giustissimo teoricamente) non potrebbe essere ''sottomesso'' necessariamente al fatto che lo si sfrutti o meno, ma magari una via di mezzo; in altre parole non è che un programma debba per forza essere sfruttato appieno dal numero di core o che tutto giustamente sia parallelizzabile (per tanti motivi o limiti in certi casi)....ma basta che anche una parte dell'esecuzione del programma/del codice possa avvantaggiarsi di più core e, secondo me, possa esserne un motivo od uno stimolo.
Se a 5nm al posto del 3700x 8core/16thread ci sarà un ryzen X 16core/32thread non è che non avrebbe senso......semplicemente la maggior potenza richiesta (che si estrinseca e si decompone o si suddivide in termini tecnici e quant'altro....) negli anni a venire avrà il suo senso.
Per quanto possa sembrare banale alcune delle tante parole come ''4k'' o ''8k'' e via dicendo ....nascondono una certa base( in termine di potenza) per essere realtà e certamente esula dal concetto numero core inutili o non sfruttati( non fraintendermi che sono d'accordo con te!) ....semplicemente è la direzione.
Immagina che un conto è un gioco da 10GB un conto ne è un altro da 100 o 500GB ed un altro ancora da 1 TERA...e via dicendo.....già associando questo un 8 core mi sembra ''piccolo'' ma non necessariamente in termine di sfruttabilità, ma di concetto. ;)
Anche per le schede video la strada del ''chiplet'' è quella.....senza che si scappi(almeno per il rosso ''ci credo''...).
PS: poi spero che questa concezione del chiplet possa portare a quello che aspetto da tempo: fusion-AMD...in cui ogni chip o multi-chip(cpu e gpu) finalmente risulti ''indistinguibile'' all'interno dell'intero die.
Premesso che il mio intervento non era volto ad alimentare la solita diatriba tra Intel vs AMD e lo dimostra il fatto che in casa ho sia un 3950x e un 3970X....cosa che penso che nessuno di voi o pochi si trovino nella mia condizione, il mio discorso era volto a contestare alcune affermazioni che non reputo corrette.
Ho sempre avuto la brutta abitudine di ragionare sulle cose che mi vengono presentate e di provarle di persona...non adotto l'approccio del dogma di fede nelle cose...anche perchè in ambito tecnico i dogmi hanno poco spazio, per fortuna. Soprattutto mi fido molto poco delle slide....
la prima riguardava i chiplet: non li considero una rivoluzione perchè di fatto già lo si faceva all'inizio dei multicore (il concetto è il medesimo)...poi li avranno affinati sicuramente, hanno creato un'infrastruttura sottostante (infinity fabric), ma definirla rivoluzione mi sembra eccessivo. La definirei più come una "furbata" nel senso buono del termine...e cmq per un 3600X o un 3800X adottare approccio dei chiplet gli tarpa solo le ali....
la seconda riguardava utilità di avere così tanti core a disposizione che, a parte determinati settori specifici (rendering, server e conversioni video), di fatto non servono...e questo è un peccato perchè l'aumento indiscriminato dei core se poi il sw non è in grado di adattarsi a tutta questa potenza di calcolo non servono a nulla. Non tutti gli algoritmi sono altamente parallelizzabili.
la terza sulla slide: beh se va bene così allora va bene per par condicio quando Intel nelle slide dice che con il 10900K è l'unica CPU valida per giocare ..cosa non vera ovviamente. Ed è un'informazione fuorviante perchè nella realtà dell'utilizzo i salti che vedi nei punteggi di cb non sono reali, a meno di un utilizzo della CPU sempre al 100%. (quando uso il 3970X non ho la sensazione di avere una macchina va il doppio rispetto al 3950X)
Conclusioni cui sono arrivato dopo aver usato per mesi sia il 3950X che il 3970X. Hai scritto bene che tutto dipende dall'uso che si fa della macchina....
Una piccola precisazione: il fatto che la macchina ti si piantasse con la CPU al 100% non era certo dovuto al fatto che avessi pochi core a disposizione...ma solo per il fatto di come lo scheduler di windows gestisce o gestiva (male) i processi. Ti posso assicurare per esperienza diretta che avere la CPU al 100% e non essere in gradi di leggere una mail non è "colpa" della CPU. in questi casi se tutto funzionasse come si deve gli effetti normali sarebbero quelli di rallentare le elaborazioni, ma non di avere la macchina piantata...anche perchè il controllo totale della CPU ce l'ha il kernel...paradossalmente potrebbe capitare la stessa cosa anche con il 3970X
Pace e bene e buona domenica a tutti
Concetto sacrosanti (che invidia per il tuo 3970X :D ), ma la base restano le parole “dipende dall’uso che si fa”.
Il CB diventa “reale” quando fai una conversione video ad esempio, ma non lo è quando fai girare Doom Eternal...
Il punto di partenza deve restare il software: se non segue l'hardware nel suo sviluppo, non serve a nulla (e qui era partito il discorso, di fronte alle assurde frasi “AMD è ferma dal 2017” :rolleyes: ).
Detto questo, assurdo continuare a parlare di innovazione : non è che ad ogni generazione si debba innovare. Va benissimo l’evoluzione, che poi è il processo grazie al quale siamo qui ;)
La soluzione mcm come hai giustamente sottolineato è l’invenzione dell’acqua calda: c’è dall’inizio.
La buona idea è stata quella di costruirgli attorno un supporto valido, che verrà migliorato ulteriormente con Zen 3. Dove di innovazione, ad esempio, ce ne sarà ben poca, eppure saremo di fronte ad una probabile ottima evoluzione.
Concetto sacrosanti (che invidia per il tuo 3970X :D ), ma la base restano le parole “dipende dall’uso che si fa”.
Il CB diventa “reale” quando fai una conversione video ad esempio, ma non lo è quando fai girare Doom Eternal...
Il punto di partenza deve restare il software: se non segue l'hardware nel suo sviluppo, non serve a nulla (e qui era partito il discorso, di fronte alle assurde frasi “AMD è ferma dal 2017” :rolleyes: ).
Detto questo, assurdo continuare a parlare di innovazione : non è che ad ogni generazione si debba innovare. Va benissimo l’evoluzione, che poi è il processo grazie al quale siamo qui ;)
La soluzione mcm come hai giustamente sottolineato è l’invenzione dell’acqua calda: c’è dall’inizio.
La buona idea è stata quella di costruirgli attorno un supporto valido, che verrà migliorato ulteriormente con Zen 3. Dove di innovazione, ad esempio, ce ne sarà ben poca, eppure saremo di fronte ad una probabile ottima evoluzione.
esatto. il problema è solo questo: il Software e le OTTIMIZZAZIONI....purtroppo il problema è enorme...pensate solo cosa significhi pensare un motore grafico in gradi di sfruttare 144 MB di cache rispetto ad uno che ne ha 20MB..ad esempio...ed è un peccato vedere così tanta POTENZA di calcolo che poi finisce nel nulla o quasi....faccio questo esempio ma solo per far capire quali miracoli possa fare l'ottimizzazione: su 4 ARM da 1ghz sono riusciti a fare girare Doom2016 (il Tegra)....possiamo solo fantasticare su quello che realmente si potrebbe fare con la potenza di calcolo a disposizione delle CPU
EDIT: spesso leggo che ci vogliono CPU con clock stratosferici, che le ram se non hanno tempi di accesso di pochissimi ns non vanno bene....che i Ryzen siccome non hanno clock a 5ghz sono lenti nei giochi...etc etc. poi all'improvviso quando ottimizzi e sai programmare (vedi console) tutto funziona alla perfezione...con potenze di calcolo infinitesimali...e allora la domanda mi nasce spontanea: ma di cosa stiamo parlando? :) perdonate lo sfogo
MCM: aver pensato all'opposto dagli schemi (il monolitico) e aver riutilizzato gli MCM dimostra, a mio parere, la grande capacità e la grande intelligenza della dirigenza attuale di AMD.
D'accordo capisco quello che vuoi dire.....ma però ci potrebbero essere dei però.
La mia parola ''rivoluzionario'' non voleva dire di scoperta ex-novo perchè è vero che un simile approccio già nacque tempo fa, però non si può paragonare assolutamente la complessità(da tutti i punti di vista) di un chip di allora con un chip di adesso e di domani.....oggi ''si è'' costretti, come appunto hai detto te per una questione di costi e rese!....e ti sembra poco?(la conseguenza sarebbe la non fattibilità economica a realizzarlo.)
Per quanto riguarda il numero di core, senza essere assolutistici, certo che sarei d'accordo con te ma però secondo me bisognerebbe distaccarsi dalla parola ''utilità'' in senso stretto rispetto a come il mondo va.
In altre parole l'innovazione( o qualsiasi altra cosa) va dove ''deve'' andare indipendentemente se sia giusto/opportuno/valido.....va come deve andare il mondo ed fine.
Per quanto riguarda il programma di cinebench, che possa o non possa essere valido/utile, semplicemente è un applicazione che da una idea approssimativa delle potenzialità di una cpu(non è l'unica chiaramente o la sola) al fine di inquadrarla.
Io credo che lo sfruttamento software/hardware (giustissimo teoricamente) non potrebbe essere ''sottomesso'' necessariamente al fatto che lo si sfrutti o meno, ma magari una via di mezzo; in altre parole non è che un programma debba per forza essere sfruttato appieno dal numero di core o che tutto giustamente sia parallelizzabile (per tanti motivi o limiti in certi casi)....ma basta che anche una parte dell'esecuzione del programma/del codice possa avvantaggiarsi di più core e, secondo me, possa esserne un motivo od uno stimolo.
Se a 5nm al posto del 3700x 8core/16thread ci sarà un ryzen X 16core/32thread non è che non avrebbe senso......semplicemente la maggior potenza richiesta (che si estrinseca e si decompone o si suddivide in termini tecnici e quant'altro....) negli anni a venire avrà il suo senso.
Per quanto possa sembrare banale alcune delle tante parole come ''4k'' o ''8k'' e via dicendo ....nascondono una certa base( in termine di potenza) per essere realtà e certamente esula dal concetto numero core inutili o non sfruttati( non fraintendermi che sono d'accordo con te!) ....semplicemente è la direzione.
Immagina che un conto è un gioco da 10GB un conto ne è un altro da 100 o 500GB ed un altro ancora da 1 TERA...e via dicendo.....già associando questo un 8 core mi sembra ''piccolo'' ma non necessariamente in termine di sfruttabilità, ma di concetto. ;)
Anche per le schede video la strada del ''chiplet'' è quella.....senza che si scappi(almeno per il rosso ''ci credo''...).
PS: poi spero che questa concezione del chiplet possa portare a quello che aspetto da tempo: fusion-AMD...in cui ogni chip o multi-chip(cpu e gpu) finalmente risulti ''indistinguibile'' all'interno dell'intero die.
Complimenti per il POST....sono serio:) . Non lo hai condito con il solito rosso blue etc etc. e in parte mi trovi d'accordo con quanto hai scritto :)
Complimenti per il POST....sono serio:) . Non lo hai condito con il solito rosso blue etc etc. e in parte mi trovi d'accordo con quanto hai scritto :)
Complimenti a te ed a tutti quelli del forum. :)
Credo che la mia conditura ROSSA sia prossima al capolinea....dall'8 ottobre in poi non avrà molto senso più. (forse ogni tanto.....me lo concedete??? : risposta NOOOO! :D :D :D )
L'importante che ci si rispetti a vicenda e si discuta e si scambiano opinioni/esperienze/punti di vista con buona pace....il resto non conta! ;)
....adesso però prepariamoci a vedere....qualcosa che di certo ci sorprenderà a tutti di qualsiasi colore e posizione o appartenenza. :Prrr:
Crysis76
20-09-2020, 15:56
Complimenti per il POST....sono serio:) . Non lo hai condito con il solito rosso blue etc etc. e in parte mi trovi d'accordo con quanto hai scritto :)
daiii stava andando bene , e me lo stuzzichi ,ahahah. si scherza dai
paolo.oliva2
20-09-2020, 16:38
Esiste anche la conversione video, molto comune anche per molti di noi, dove i core in più servono eccome! Alcuni software nello sfruttamento si fermano circa a 8-10 , ma altri fino a 32 senza batter ciglio!
Si potrebbe fare una community e decidere un video di partenza, per poi usare un convertitore video e settaggi obbligati da usare come benchmark.... così sembrerebbe meno markeTTaro?!
L'approccio a chiplet, soprattutto per i core totali maggiori di 16, e rivoluzionario dal punto di vista che l'alternativa sarebbe pagare un processore 5 volte tanto.... Ti pare niente?
P.S.: Cinebench puoi usarlo benissimo come termine di paragone anche con una CPU quad-core eh...?! Guarda caso nessuno ha mai fatto commenti sulla inutilità , prima di Ryzen... Certo: non è adatto ad assegnare un premio nei giochi!
Avere più core, non deve essere tradotto sempre e solo in "li uso tutti nella stessa applicazione e ci metto meno tempo".
Se apri il task manager di windows ti accorgerai che un moderno sistema operativo gia da solo apre un infinità di task.
Sul mio pc mentre lavoro oltre al programma di cad o quello di Cam, che uso attivamente, gira l'antivirus, il gestore di posta il client cloud dove ho i file di lavoro e con boxcryptor per la crittazione degli stessi, un player musicale in sottofondo, tralasciando poi qualche ricerca su browser e i documenti pdf dei clienti da cui parto x disegnare 3d...
Quindi scusa tanto ma la leggenda che i processori con tanti core non servono a nulla perchè le app sono programmate solo per sfruttarne uno, io non me la bevo.
Ricordo ancora molto bene i tempi in cui non si potevano aprire due programmi insieme perchè s'impallava il pc, perchè il processore rimbalzava tra un task e l'altro..
Più core servono anche a questo.
Facendo conversioni video, l'unico problema al numero massimo di core sarebbe solamente la banda I/O :sofico:, perchè esempio Freemaker ha bisogno di 3 istanze contemporanee per arrivare al >90% di carico su un X8/16TH, ma Aiseesoft e Shana 12 core/24TH li prendono tutti (io max ho X12), ma anche se fosse il limite, andrei di parallelizzazione... oltre a poter fare con il resto del procio ciò che voglio, anche giocare.
Nell'utilizzo simile al mio, il massimo dell'efficienza e prestazioni la ottieni solamente con l'aumento dei core.
Tramite amici, ho fatto provare lo stesso film con lo stesso software sia con un 3900X @4,4GHz con custom che vs un 3950X. Al 3950X bastavano ~3,4GHz per ottenere di più del 3900X... a oltre -40% di consumo e temp procio da idle.
A mio avviso, per utilizzi simili al mio, ben vengano >X16 nella fascia AM4.
Che un procio sia di modello più tirato a def o che lo si occhi, comporta comunque una spesa percentualmente ben più alta rispetto al guadagno.
Un Zen2 si occa +5%? Se compri un custom vs un Aio 240 e una mobo top rispetto ad una media, spenderesti almeno + 300€, che percentualmente è un totale di più rispetto al +5% di prestazioni. Non è meglio andare di più core ottenendo un vantaggio corposo spendendo meno, ricercando la massima efficienza con prestazioni superiori e prb zero?
paolo.oliva2
20-09-2020, 16:54
esatto. il problema è solo questo: il Software e le OTTIMIZZAZIONI....purtroppo il problema è enorme...pensate solo cosa significhi pensare un motore grafico in gradi di sfruttare 144 MB di cache rispetto ad uno che ne ha 20MB..ad esempio...ed è un peccato vedere così tanta POTENZA di calcolo che poi finisce nel nulla o quasi....faccio questo esempio ma solo per far capire quali miracoli possa fare l'ottimizzazione: su 4 ARM da 1ghz sono riusciti a fare girare Doom2016 (il Tegra)....possiamo solo fantasticare su quello che realmente si potrebbe fare con la potenza di calcolo a disposizione delle CPU
EDIT: spesso leggo che ci vogliono CPU con clock stratosferici, che le ram se non hanno tempi di accesso di pochissimi ns non vanno bene....che i Ryzen siccome non hanno clock a 5ghz sono lenti nei giochi...etc etc. poi all'improvviso quando ottimizzi e sai programmare (vedi console) tutto funziona alla perfezione...con potenze di calcolo infinitesimali...e allora la domanda mi nasce spontanea: ma di cosa stiamo parlando? :) perdonate lo sfogo
MCM: aver pensato all'opposto dagli schemi (il monolitico) e aver riutilizzato gli MCM dimostra, a mio parere, la grande capacità e la grande intelligenza della dirigenza attuale di AMD.
Si... però, senza (VOLUTAMENTE) tirare in ballo marche.
Che i software non sfruttino la piena potenzialità dei proci X86, lo si sa da tempo. Però è ancora più assurdo la ricerca di prestazioni superiori gambizzando l'efficienza... al limite sarebbe più comprensibile conservare l'efficienza (e forse migliorarla) aumentando l'IPC con frequenze di lavoro =<.
conan_75
20-09-2020, 17:28
Complimenti per il POST....sono serio:) . Non lo hai condito con il solito rosso blue etc etc. e in parte mi trovi d'accordo con quanto hai scritto :)
Gli avranno fregato l'account? :D
Grizlod®
20-09-2020, 17:38
Se non volete basarvi (solo) su CB20, c'è pur sempre RealBench (non credo sia sintetico):
https://www.majorgeeks.com/files/details/asus_realbench.html
A questo giro con Zen3, Amd non aumenterà il numero dei core, ma lavorerà sull'IPC ed un aumento intorno ai 100-200 MHz di clock massimo.
E' la stessa cosa che ha fatto nel 2018.
Ci sono e ci saranno le cpu a 6-8 core in commercio a prezzi abbordabili per diversi anni, se non servono i 12 e 16 core.
Anche con Zen4 nel 2022 e non è detto che di vada oltre i 16 core, al di là della "composizione" del chiplet.
Davvero non capisco di cosa si sta' discutendo: abbiamo visto tutti le slide Intel ed Amd che pubblicizzano il 10900k come "world's fastest gaming processor" e il 3950x come "world's 1st 16-core gaming processor".
E' marketing ridicolo, ma loro devono vendere frigoriferi agli eschimesi ed hanno capito che gli "enthusiast gamers" sono evidentemente facili da convincere :D
ragazzi secondo voi per il game è meglio così come da allegato o 4500mhz allcore ?
https://i.postimg.cc/Mvxc4CMM/07750-F2-C-DAF7-40-D7-B665-458-BB5-AA6-DD2-png.jpg (https://postimg.cc/Mvxc4CMM)
fabietto27
20-09-2020, 19:24
ragazzi secondo voi per il game è meglio così come da allegato o 4500mhz allcore ?
https://i.postimg.cc/Mvxc4CMM/07750-F2-C-DAF7-40-D7-B665-458-BB5-AA6-DD2-png.jpg (https://postimg.cc/Mvxc4CMM)
Meglio che chiedi qua ;)
https://www.hwupgrade.it/forum/showthread.php?t=2807041&page=445
Meglio che chiedi qua ;)
https://www.hwupgrade.it/forum/showthread.php?t=2807041&page=445
ops scusate....avevo dimenticato il 3d in questione....
grazie ;)
Complimenti per il POST....sono serio:) . Non lo hai condito con il solito rosso blue etc etc. e in parte mi trovi d'accordo con quanto hai scritto :)
no, no non dice blue... lui dice ble :D
Complimenti a te ed a tutti quelli del forum. :)
Credo che la mia conditura ROSSA sia prossima al capolinea....dall'8 ottobre in poi non avrà molto senso più. (forse ogni tanto.....me lo concedete??? : risposta NOOOO! :D :D :D )
L'importante che ci si rispetti a vicenda e si discuta e si scambiano opinioni/esperienze/punti di vista con buona pace....il resto non conta! ;)
....adesso però prepariamoci a vedere....qualcosa che di certo ci sorprenderà a tutti di qualsiasi colore e posizione o appartenenza. :Prrr:
ed ecco che appena stuzzicato ri-svalvola :D :D :D
sandrigno
20-09-2020, 23:20
[??]
[??]
"buttare" link, pure vecchi, così non serve a nulla.. argomenta.. altrimenti è mero spam
>bYeZ<
Nautilu$
21-09-2020, 07:50
Per chi cerca soluzioni per non vedere oscillare continuamente frequenze, temperature e ventole, anche con uso (blando) di vari programmi aperti contemporaneamente (player audio, browser, ecc...), ecco un link per creare un risparmio energetico custom :
AMD Ryzen Custom (https://www.reddit.com/r/Amd/comments/eng1y8/ryzen_3700x_high_iddle_temps_and_fan_speed/)
I benefici sono tangibili anche mantenendo cpu min al 99% , e scendendo si livella a piacimento...
Funziona in maniera simile al già ottimo sz_ryzbal_v4 , ma è più reattivo.
Come per il citato sz_ryzbal_v4, purtroppo anche in questo possono sorgere problemi di clock massimo se si usa il bug edc. Se si inserisce invece un valore edc "reale" per il PBO, funziona tutto alla grande.
paolo.oliva2
21-09-2020, 09:20
A questo giro con Zen3, Amd non aumenterà il numero dei core, ma lavorerà sull'IPC ed un aumento intorno ai 100-200 MHz di clock massimo.
E' la stessa cosa che ha fatto nel 2018.
Ci sono e ci saranno le cpu a 6-8 core in commercio a prezzi abbordabili per diversi anni, se non servono i 12 e 16 core.
Anche con Zen4 nel 2022 e non è detto che di vada oltre i 16 core, al di là della "composizione" del chiplet.
Davvero non capisco di cosa si sta' discutendo: abbiamo visto tutti le slide Intel ed Amd che pubblicizzano il 10900k come "world's fastest gaming processor" e il 3950x come "world's 1st 16-core gaming processor".
E' marketing ridicolo, ma loro devono vendere frigoriferi agli eschimesi ed hanno capito che gli "enthusiast gamers" sono evidentemente facili da convincere :D
Ma c'è comunque una differenza abissale di commercializzazione tra i 2.
Innanzitutto per valorizzare l'X10 Intel, cioè per sfruttare il maggior potenziale FPS, bisogna comunque spendere nel sistema almeno 3000€ (VGA, mobo, dissipazione), e il numero degli utenti disposti a spendere ste cifre ogni anno è infinitesimale, ma disposti a prendere il massimo a qualsiasi costo, quindi la convenienza o meno non è argomento interessante, il 10900K va di più, stop, è quello da prendere.
Il 3950X è marketing proporlo come procio da gioco. Per me il vero suo senso è il poter offrire numero core ed MT in fascia AM4 (e costi AM4) ciò che prima era possibile solamente in fascia alta desktop, a prezzi decisamente più alti.
Si può discutere quanto si vuole del prezzo 3950X, ma la realtà è che se vai di TR4, la spesa minima è 2000€ tra 3960X X24 e mobo, ed il 3950X è la soluzione AM4 ad 1/3 di spesa (quasi).
Quindi per me alla fine l'acquisto di proci >X8 non è per ottenere il massimo nel gioco, quanto capre e cavoli, cioè avere un MT di gran lunga superiore ad un X8 e nel contempo una selezione migliore di un X8.
E' ovvio che in questo discorso l'X10 Intel è OUT, perchè già un 3900X è più soddisfacente a 360° costando meno sia di procio che di hardware... e se uno vuole spendere 250€ in più in +4 core, mi sembra straovvio che il 3950X sia l'unica strada possibile e che il 10900K sia un giocattolino al confronto, molto costoso ed esigente e credo pure difficile da gestire (tirato al massimo, sarebbe un incubo nei cambi stagione).
Nautilu$
21-09-2020, 09:31
10900 difficile da gestire (tirato al massimo, sarebbe un incubo nei cambi stagione).
Non per consumi alla spina, ma come temperature, anche il 3950x "tirato" non lascia scampo d'estate..... in Italia!
"Tirato" tra virgolette perché:
- neanche più di tanto
- le prestazioni aumentano di un minimo
Con un aio360 posso permettermi un tdc di 185W solo d'inverno..... d'estate massimo 165W, o pbo disabilitato del tutto a quel punto.....
(parlo per carichi al 100% e prolungati ovviamente...)
Sono CPU diverse, per usi diversi.....
Un 3950x va ottimamente per quasi tutto, il 10900 non va bene in niente in realtà.... Per un rendering ha consumi /prestazioni da fare ridere..... per giocare un prezzo/consumi/prestazioni da ridere uguale..... molto meglio un 10700 / k
Per chi cerca soluzioni per non vedere oscillare continuamente frequenze, temperature e ventole, anche con uso (blando) di vari programmi aperti contemporaneamente (player audio, browser, ecc...), ecco un link per creare un risparmio energetico custom :
AMD Ryzen Custom (https://www.reddit.com/r/Amd/comments/eng1y8/ryzen_3700x_high_iddle_temps_and_fan_speed/)
I benefici sono tangibili anche mantenendo cpu min al 99% , e scendendo si livella a piacimento...
Funziona in maniera simile al già ottimo sz_ryzbal_v4 , ma è più reattivo.
Come per il citato sz_ryzbal_v4, purtroppo anche in questo possono sorgere problemi di clock massimo se si usa il bug edc. Se si inserisce invece un valore edc "reale" per il PBO, funziona tutto alla grande.
avevo già visto questo reddit, ma non mi aveva convinto del tutto...
Nel senso che è evidente che funziona, ma non sono del tutto sicuro che questo avvenga senza impatto sulle prestazioni, non tanto nei benchmark (che non dovrebbero essere toccati) ma proprio nell'uso normale giornaliero, visto che di fatto "toglie sensibilità " al meccanismo di boost delle CPU Ryzen.
se qualcuno ha voglia di fare prove più approfondite e postare i risultati ben venga.
Concordo che a volte possa essere fastidioso vedere (e sentire) la CPU variare parecchio frequenza sotto carichi ridicoli, ma se la soluzione significa rendere in qualche modo meno reattiva la CPU, preferisco di no.
paolo.oliva2
21-09-2020, 10:26
...ma solo per il fatto di come lo scheduler di windows gestisce o gestiva (male) i processi. Ti posso assicurare per esperienza diretta che avere la CPU al 100% e non essere in gradi di leggere una mail non è "colpa" della CPU. in questi casi se tutto funzionasse come si deve gli effetti normali sarebbero quelli di rallentare le elaborazioni, ma non di avere la macchina piantata...anche perchè il controllo totale della CPU ce l'ha il kernel...paradossalmente potrebbe capitare la stessa cosa anche con il 3970X
Pace e bene e buona domenica a tutti
Quoto... in passato ci sono stati altri post in merito.
Comunque vero che di solito il confronto lo fai a parità di S.O. e settaggio.
Esempio... il Thuban (Phenom II X6) era molto più fluido dell'equivalente Phenom II X4... e pure il tanto criticato BD, lo potevi caricare fino a 3 TH (duri) a core senza avere impuntamenti di sorta (a 4 si :D).
Io ho sempre avuto la fobia di testare il procio al max carico possibile senza perdita prestazionale. Esempio... 3 conversioni video contemporaneamente = stesso tempo che le stesse sequenziali.
E l'ho fatto pure con Zen... e Zen perde già con un numero doppio di TH (corposi) a core vs un core no SMT che ne regge 3X.
-----
Se non ci credete, basta caricare CB e settare manualmente il numero di TH. Un 3700X a 32TH ci mette di più vs 16TH (un core no SMT no). Mi sembra che disabilitando l'SMT da bios, portanto il numero di TH = al numero dei core, regge 3X di TH senza perdite.
-----
Che l'SMT abbia una migliore efficienza (numero di transistor e prestazione finale) non ci piove... ma l'SMT in fin dei conti sfrutta già la porzione di prestazioni non utilizzata dal software, lasciando uno spazio pressochè nullo ad un carico oltre il 100%.
Ricordo (senza riesumare i defunti :D), che facendo lavorare un core no SMT con 2 TH, ottenevo una performances superiore rispetto che lo stesso con 1TH. Ipotizzo perchè il 2° TH riusciva a sfruttare le risorse inutilizzate dal software (raramente un core no SMT arriva al 95% di utilizzo) vs un core SMT che credo sia al 95% di utilizzo come minimo.
Quello che volevo far notare, è che i tempi sono cambiati. Così come la frequenza operativa del procio non concede granchè spazio in OC, stesso discorso lo è il carico in base al numero di core, specialmente se si passerà ad SMT4.
paolo le percentuali di utilizzo non significano quasi nulla, descrivono l'impegno temporale e non ti danno un riferimento delle effettive risorse logiche impegnate.
potrei fare lavorare al 100% il processore continuando a calcolare addizioni in parallelo su più thread o task.
paolo.oliva2
21-09-2020, 11:01
...Concordo che a volte possa essere fastidioso vedere (e sentire) la CPU variare parecchio frequenza sotto carichi ridicoli, ma se la soluzione significa rendere in qualche modo meno reattiva la CPU, preferisco di no.
Per la mia condizione io ho sempre settato le ventole (prima custom poi AIO e Noctua) al massimo degli rpm (fissi).
Sono dell'idea che utilizzando ventole stile Noctua (che al massimo degli rpm sono comunque silenziose), l'avere un "rumore" fisso risulti comunque meno fastidioso e alla fine inavvertibile (ci si abitua) rispetto ad un volume variabile di cui è ovvio che non ci si può abituare.
Credo l'esempio sia di chi abita vicino ad aereoporti/stazioni ferroviare/strade ad alto traffico, che dopo qualche mese assimila il rumore e dorme sonni tranquilli. Ovviamente un aereo al decollo è tutt'altra cosa rispetto ad una ventola Noctua... quindi....
Ton90maz
21-09-2020, 11:02
@Ton90maz.
La situazione a brevissimo tempo sarà che con l'aumento IPC di AMD con Zen3 e migliorie generali, segherà in toto Intel in tutti i settori, game compreso.
A me sembra che i giochi con motori atti a sfruttare un numero di core superiore riescono a produrre prestazioni superiori rispetto agli stessi ma alla vecchia maniera... quindi il futuro sarà comunque più core, e le software house non penso che aspettino Intel che risolva i suoi problemi di silicio, non ora con AMD che vende sempre di più e probabilmente farà boom con Zen3.
La nota dolente? E' che AMD può tranquillamente livellare i listini a quello Intel, mettendosi nelle proprie tasche il costo inferiore dell'MC vs monoliticoEsattamente, ed è quello che in parte è già successo. Per certi versi sarebbe un bene se intel si tenesse lo scettro di cpu più veloce in gaming, anche del 2%, in modo che sia preferibile almeno in qualcosa. AMD risponderebbe con i core, come fatto con zen 1.
Il discorso del listino più lucroso per AMD è giustificabile in parte che AMD "pensa" alla sua cassa e per TSMC che comunque il tetto di wafer/mese sia soddisfacente.
Un listino AMD troppo aggressivo, cosa comporterebbe? Abbiamo visto (midfactory) che un -25% sugli i9 ha comportato un aumento delle vendite ad Intel... mi sembra circa un +7%. Questo può andare bene per Intel per pulire i magazzini dagli i9... ma non per AMD... in quanto la formula listino -25% per vendite +7% significherebbe perdere... considerando poi che AMD è sicuramente in fase produzione Zen2 calante per offrire Zen3.Però l'ha fatto ugualmente, almeno con alcune cpu (anche se, contemporaneamente, ha maldestramente cercato di tenere alti i prezzi con quei flopponi degli xt).
Comunque non bisogna vederla solo in ottica risparmio, perché al giusto prezzo c'è più gente disposta a prenderti il modello superiore, invece di accontentarsi del solito 6-8 core.
guarda che se non stai trollando..... la cosa o va vista grave o comica!:D
[edit]
ho visto solo adesso il MOD.... pardon.... :)
....
@Ton90maz:
adesso ti chiedo seriamente: dalla prima iterazione di zen , in 2 anni, tu cosa avresti voluto di più da AMD? Cosa ti saresti aspettato, per esempio, al posto di zen2 come è ora (1 anno fa)?
Volevi più frequenza? : non c'è
Volevi ancora più core per il mainstream ALLO STESSO PREZZO? : (i miei neuroni dicono che stai trollando) forse non è possibile, ma anche assolutamente inutile
Volevi ancora più differenza (tra IPC e frequenza) in 2 anni? : c'è stato un effettivo 25% (un 3600x va come un 1800x)..... credo sia impossibile.....:muro:
Ma come? L'MCM, il risparmio dei costi, le varie supercazzole, amd avanti... e forse è non possibile offrire più core allo stesso prezzo del concorrente indietro col processo produttivo e che vende pure una igpu integrata? :rolleyes:
Io voglio proprio quello, che invece era l'unica cosa possibile :asd:
Perché la magia di ryzen non era quello di offrire performance schiacciatamente superiori in multicore? Dov'è finita? Adesso viene fuori che si compra per altri motivi?
Lascia perdere, nemmeno un mese fa un utente ha detto che un 3300 liscio è la miglior cpu per giocare ( liscio non X) e che non offrirà colli di bottiglia a fhd per 3 anni almeno. mentre per 30€ in più consigliavo un 3600 o a 100€ un 2600x da aggiornare ad una serie 4xxx (5xxx).
La mb scelta era una b550 .
Purtroppo c'è gente che non ha capito che praticamente tutti i nuovi giochi che usciranno avranno i data path delle cpu AMD e che un team che sfiluppa per consolle farà la stessa cosa per i giochi pc nativi.
Questa cosa è da tenere in considerazione e tra 2 anni i famisi 10 fps in meno ( su 130) di amd diventeranno 5 in più ( su 70).
"Lascia perdere"
Come se c'entrassi qualcosa con l'utente tipico "dei 10 fps in più"
:muro:
Ma come? L'MCM, il risparmio dei costi, le varie supercazzole, amd avanti... e forse è non possibile offrire più core allo stesso prezzo del concorrente indietro col processo produttivo e che vende pure una igpu integrata? :rolleyes:
Da quando AMD non è più quotata in borsa ed è diventata una onlus? Mi sono perso questo passaggio :mbe:
Dovreste fare giusto un paio di lezioni di economia, prima di voler dettar legge sul listino prezzi delle aziende :rolleyes:
Ton90maz
21-09-2020, 11:17
Per la mia condizione io ho sempre settato le ventole (prima custom poi AIO e Noctua) al massimo degli rpm (fissi).
Sono dell'idea che utilizzando ventole stile Noctua (che al massimo degli rpm sono comunque silenziose), l'avere un "rumore" fisso risulti comunque meno fastidioso e alla fine inavvertibile (ci si abitua) rispetto ad un volume variabile di cui è ovvio che non ci si può abituare.
Credo l'esempio sia di chi abita vicino ad aereoporti/stazioni ferroviare/strade ad alto traffico, che dopo qualche mese assimila il rumore e dorme sonni tranquilli. Ovviamente un aereo al decollo è tutt'altra cosa rispetto ad una ventola Noctua... quindi....
Che noctua? Le mie ventole "stile noctua" per i miei gusti non sono per niente silenziose.
Come compromesso tengo le ventole fisse a 800 rpm finché non raggiungono una temperature oltre le comuni oscillazioni.
Ton90maz
21-09-2020, 11:23
Da quando AMD non è più quotata in borsa ed è diventata una onlus? Mi sono perso questo passaggio :mbe:
Dovreste fare giusto un paio di lezioni di economia, prima di voler dettar legge sul listino prezzi delle aziende :rolleyes:
Ma perché si deve sempre finire a fare mischioni tra economia, qualità di un prodotto e prezzo per l'utente? :rolleyes:
Mi importa zero di tutto questo. Men che meno se si parlando del prodotto e non di quanto salgono le azioni.
paolo.oliva2
21-09-2020, 11:26
paolo le percentuali di utilizzo non significano quasi nulla, descrivono l'impegno temporale e non ti danno un riferimento delle effettive risorse logiche impegnate.
potrei fare lavorare al 100% il processore continuando a calcolare addizioni in parallelo su più thread o task.
Ma il concetto base rimane pur sempre quello... l'SMT "vive" nello spazio "lavoro" non utilizzato dal core, quindi un procio no SMT ha pur sempre un margine inutilizzato superiore all'equivalente SMT.
Poi è ovvio che stiamo parlando di SMT per desktop, il cui scopo è ottenere una prestazione con il minimo dei transitor per ridurre al massimo l'R&D e il size silicio. Credo che parlare di SMT4/SMT8 in altri ambiti, la cosa sia fatta in visione efficienza, con cache, pipeline e complessità R&D totalmente dissimili.
Io volevo solo evidenziare che l'SMT comporta un notevole taglio al margine plus di carico di un procio... quindi oggi parlare di X8 o > di X8 vale sempre, ma vale molto meno che in passato, vuoi perchè non esiste quasi più il plus di costo a core all'aumentare dei core, vuoi perchè l'SMT lascia un margine nullo al plus di carico del core.
Concordo che se il procio si pianta intervenire sul Kernel aiuti, ma un core SMT non può supportare 3X di TH pesanti come invece un core no SMT può fare.
C'è chi "gode" con FPS maggiori giochi e c'è chi gode con un KB/s maggiore in conversione video :).
Ma perché si deve sempre finire a fare mischioni tra economia, qualità di un prodotto e prezzo per l'utente? :rolleyes:
Mi importa zero di tutto questo. Men che meno se si parlando del prodotto e non di quanto salgono le azioni.
No, hai ragione, le 3 cose non sono affatto collegate. :sbonk: :sbonk: :sbonk:
A questo punto, io ti dico che voglio un AMD Epyc da 128 core a 100$. Dato che AMD non lo prezza 100$, AMD fa cagare ed ha un prodotto di merda. Mi sembra logico.
Che noctua? Le mie ventole "stile noctua" per i miei gusti non sono per niente silenziose.
Come compromesso tengo le ventole fisse a 800 rpm finché non raggiungono una temperature oltre le comuni oscillazioni.
Giusto, anche per i miei gusti non sono silenziose , oltre i 900 giri, e per questo non vado oltre nemmeno a pieno carico
leoneazzurro
21-09-2020, 12:17
Quando AMD dice che l'approccio a chiplet le ha fatto risparmiare in termini di costi di produzione rispetto ad un chip monolitico, non vuol dire che le CPU non le costino nulla, soprattutto nella fascia 6-8 core dove il risparmio è inferiore. Anche perché la quantità di silicio nelle CPU AMD non è affatto "piccola". Ad esempio un 3900 utilizza circa 150mm^2 di area di silicio a 7nm (non certo economico) più il chip I/O che seppure su processo meno costoso non è a costo zero, mentre Intel ad esempio sul 10900K usa 206 mm^2 circa ma su un processo più economico senza margini di terze parti. Il packaging poi è sicuramente più costoso rispetto a Intel (MCM vs SCM). Quindi occhio a fare i conti perché se non si considerano tutte le variabili si rischia di prendere degli abbagli. Dove il vantaggio di costo di AMD è enorme, è nella fascia HEDT/Server/Workstation, dove Intel è ancora costretta a fornire chip monolitici di costo sicuramente superiore a causa delle rese e delle minori economie di scala (core count differenti -> chip differenti al contrario di AMD che cambia solo il die I/O ed utilizza un interposer più grande).
digieffe
21-09-2020, 12:17
oltre alle caratteristiche hardware che ho elencato in un post precedente e che possono incidere relativamente a parità di OS, di fatto, le cose stanno come dice Randa:
è l'OS (in particolare lo scheduler) che può o meno permettere fluidità, indipendentemente dal carico!
avete mai messo sotto carico OS diversi da windows*? ;)
*non parlo del 10 perché non l'ho testato sotto carico.
se lo scheduler è "capace" rallenta tutto linearmente ma resta sempre tutto fluido...
Ton90maz
21-09-2020, 12:54
No, hai ragione, le 3 cose non sono affatto collegate. :sbonk: :sbonk: :sbonk:
A questo punto, io ti dico che voglio un AMD Epyc da 128 core a 100$. Dato che AMD non lo prezza 100$, AMD fa cagare ed ha un prodotto di merda. Mi sembra logico.Sì, stessa cosa proprio :asd:
Come se un 12 core a 400 euro fosse minimamente paragonabile e impossibile allo stesso modo.
Quoto... in passato ci sono stati altri post in merito.
Comunque vero che di solito il confronto lo fai a parità di S.O. e settaggio.
Esempio... il Thuban (Phenom II X6) era molto più fluido dell'equivalente Phenom II X4... e pure il tanto criticato BD, lo potevi caricare fino a 3 TH (duri) a core senza avere impuntamenti di sorta (a 4 si :D).
CUT.
su BD ti quoto perchè effettivamente devo dire che è una cosa che avevo notato anche io.....non so poi i motivi sottostanti...magari era windows che non riconoscendolo correttamente lo gestiva bene :D :D
cmq con BD effettivamente lo potevi caricare a palla anche al 100% eppure era reattivo il sistema. E' un ricordo che ho anche io....
Non ho provato con Ryzen....ma nel caso il vero problema è windows non Ryzen
Per la mia condizione io ho sempre settato le ventole (prima custom poi AIO e Noctua) al massimo degli rpm (fissi).
Sono dell'idea che utilizzando ventole stile Noctua (che al massimo degli rpm sono comunque silenziose), l'avere un "rumore" fisso risulti comunque meno fastidioso e alla fine inavvertibile (ci si abitua) rispetto ad un volume variabile di cui è ovvio che non ci si può abituare.
guarda il mio Dark Rock 4 a pieno regime (1300 RPM) è più silenzioso di moltissimi dissipatori, ma non è definibile come "silenzioso" in senso assoluto, quindi l'ipotesi di piazzarlo al massimo costante non la considero.
Ho giocato con le curve per minimizzare le variazioni nella fascia di oscillazioni delle temperature in basso carico (tra 40 e 60º per capirci) , ma qualche piccola variazione di rumore c'è.
Non è un dramma per me, sono poco sensibile al rumore delle ventole.
Ma perché si deve sempre finire a fare mischioni tra economia, qualità di un prodotto e prezzo per l'utente? :rolleyes:
Mi importa zero di tutto questo. Men che meno se si parlando del prodotto e non di quanto salgono le azioni.
ma che cosa hai scritto ??? :doh:
Cioè ti è chiaro che fuori dal tuo mondo fatato dove sei sprezzante verso tutto e tutti c'è il mondo REALE dove senza economia il prodotto a casa tua non arriva proprio ? :mbe:
Giusto, anche per i miei gusti non sono silenziose , oltre i 900 giri, e per questo non vado oltre nemmeno a pieno carico
beh, se tu avessi un 3900X o un 3950X (ma io penso anche un 3800X) a pieno carico ci devi arrivare eccome, altrimenti le temperature salgono molto e le prestazioni crollano.
Sì, stessa cosa proprio :asd:
Come se un 12 core a 400 euro fosse minimamente paragonabile e impossibile allo stesso modo.
Questo lo dici tu. Io invece dico che il 128 core o lo prezzano a 100€ o è AMD che fa pena e l'architettura fa cagare.
Se tu puoi fare i prezzi dei processori AMD e pensare di avere ragione con scuse campate in aria, non vedo perché io non possa fare lo stesso ragionamento e dire che il mio prezzo è quello giusto e che amd dovrebbe adottarlo pena il non essere superiore alla concorrenza :D
Tornando seri, quando capirete che il fatto di poter imporre i propri prezzi è la prova della propria (temporanea) supremazia, non sarà mai troppo tardi. :rolleyes:
beh, se tu avessi un 3900X o un 3950X (ma io penso anche un 3800X) a pieno carico ci devi arrivare eccome, altrimenti le temperature salgono molto e le prestazioni crollano.
Mi sa che tra qualche anno arriveremo ad avere CPU che vengono vendute con un IHS più evoluto e che permetta un maggiore scambio di calore tra cpu e dissy.
Stiamo arrivando a livelli di densità di calore per mm^2 dove il problema grosso è riuscire a spostare velocemente il calore, piuttosto che la quantità totale di calore emessa.
Mi sa che tra qualche anno arriveremo ad avere CPU che vengono vendute con un IHS più evoluto e che permetta un maggiore scambio di calore tra cpu e dissy.
Stiamo arrivando a livelli di densità di calore per mm^2 dove il problema grosso è riuscire a spostare velocemente il calore, piuttosto che la quantità totale di calore emessa.
si credo anche io che stiamo arrivando ai limiti del sistema di dissipazione attuale. Pur con buoni dissipatori i picchi sui Ryzen di fascia alta sono difficili da tenere sotto controllo per il motivo che hai descritto tu: il dissipatore non riesce a spostare istantaneamente tutto quel calore.
Mi domando se a 5 nm la situazione non sarà ancora peggiore. :confused:
Ton90maz
21-09-2020, 13:30
Giusto, anche per i miei gusti non sono silenziose , oltre i 900 giri, e per questo non vado oltre nemmeno a pieno caricoCuriosità. Come mai sei passato dalle thermalright alle noctua?
Quando AMD dice che l'approccio a chiplet le ha fatto risparmiare in termini di costi di produzione rispetto ad un chip monolitico, non vuol dire che le CPU non le costino nulla, soprattutto nella fascia 6-8 core dove il risparmio è inferiore. Anche perché la quantità di silicio nelle CPU AMD non è affatto "piccola". Ad esempio un 3900 utilizza circa 150mm^2 di area di silicio a 7nm (non certo economico) più il chip I/O che seppure su processo meno costoso non è a costo zero, mentre Intel ad esempio sul 10900K usa 206 mm^2 circa ma su un processo più economico senza margini di terze parti. Il packaging poi è sicuramente più costoso rispetto a Intel (MCM vs SCM). Quindi occhio a fare i conti perché se non si considerano tutte le variabili si rischia di prendere degli abbagli. Dove il vantaggio di costo di AMD è enorme, è nella fascia HEDT/Server/Workstation, dove Intel è ancora costretta a fornire chip monolitici di costo sicuramente superiore a causa delle rese e delle minori economie di scala (core count differenti -> chip differenti al contrario di AMD che cambia solo il die I/O ed utilizza un interposer più grande).Se riescono a vendere i 3600 a 180 euro, con due di quei chip anziché tre e il super pregiato package, a maggior ragione non ci sarebbe alcun problema ad abbassare i prezzi delle fasce successive. Anzi, la cosa incomprensibile è che le cpu più conveniente sono proprio quelle da cui guadagnano meno. I prezzi dei 3600 e 3700x sembravano fatti apposta per spingere la gente a non comprare le altre cpu.
ma che cosa hai scritto ??? :doh:
Cioè ti è chiaro che fuori dal tuo mondo fatato dove sei sprezzante verso tutto e tutti c'è il mondo REALE dove senza economia il prodotto a casa tua non arriva proprio ? :mbe:Ma davvero... come vengono in mente certe cose? L'unica economia che conta è conta E' LA MIA. Non vedo perché dovrei fregarmene se amd guadagna 100 o 150 dalla vendita di una cpu :asd:
leoneazzurro
21-09-2020, 13:42
Sigh. I prezzi si fanno sempre in base alle prestazioni della concorrenza, interna e soprattutto esterna. Inoltre sembra che sfugga il senso della "segmentazione dell'offerta", ossia di quelle differenze di prezzo che riproporzionano l'offerta in base alle prestazioni, senza contare che spesso un 3600 è realizzato con un die non pienamente funzionante e/o che non raggiunge i target di frequenza di un 3800X, tanto per dire. Costi e prezzi come detto sono funzioni di un gran numero di variabili. Se AMD mettesse i 3800X al prezzo dei 3600, chi comprerebbe i 3600? Con conseguenze gravi sulla situazione finanziaria...
Ton90maz
21-09-2020, 13:51
Questo lo dici tu. Io invece dico che il 128 core o lo prezzano a 100€ o è AMD che fa pena e l'architettura fa cagare.
Se tu puoi fare i prezzi dei processori AMD e pensare di avere ragione con scuse campate in aria, non vedo perché io non possa fare lo stesso ragionamento e dire che il mio prezzo è quello giusto e che amd dovrebbe adottarlo pena il non essere superiore alla concorrenza :D
Tornando seri, quando capirete che il fatto di poter imporre i propri prezzi è la prova della propria (temporanea) supremazia, non sarà mai troppo tardi. :rolleyes:Qui stiamo arrivando al livello everyeye/spaziogames quando avevo osato criticare il tegrapacco a 20 nm e la defence force aveva cominciato a usare le scuse più assurde pur di difendere ogni singola vite.
Non ricordo il nome ma stai facendo una nota fallacia logica. Praticamente sposti il discorso dove vuoi tu, con le cose più strampalate, solamente per non ammettere alcuna forma di critica o di ragionamento. Non ha senso.
"quando capirete che..." è quello che avrò scritto in 10 post, ma dov'eri? :asd:
Possiamo anche dire che i prezzi li fa il mercato e che, non sapendo nulla delle nuove cpu, non possiamo dire niente per certo (e neanche fare delle ipotesi, perché anche quelle sarebbero campate per aria). Chiudiamo il thread o parliamo solo di cpu esistenti, e prezzi reali.
Qui stiamo arrivando al livello everyeye/spaziogames quando avevo osato criticare il tegrapacco a 20 nm e la defence force aveva cominciato a usare le scuse più assurde pur di difendere ogni singola vite.
Non ricordo il nome ma stai facendo una nota fallacia logica. Praticamente sposti il discorso dove vuoi tu, con le cose più strampalate, solamente per non ammettere alcuna forma di critica o di ragionamento. Non ha senso.
"quando capirete che..." è quello che avrò scritto in 10 post, ma dov'eri? :asd:
Possiamo anche dire che i prezzi li fa il mercato e che, non sapendo nulla delle nuove cpu, non possiamo dire niente per certo (e neanche fare delle ipotesi, perché anche quelle sarebbero campate per aria). Chiudiamo il thread o parliamo solo di cpu esistenti, e prezzi reali.
Lascio agli altri l'onere di risponderti, a me sono bastati questi post per capire che posso aggiungerti senza problemi alla mia ignore list. :)
Sigh. I prezzi si fanno sempre in base alle prestazioni della concorrenza, interna e soprattutto esterna. Inoltre sembra che sfugga il senso della "segmentazione dell'offerta", ossia di quelle differenze di prezzo che riproporzionano l'offerta in base alle prestazioni, senza contare che spesso un 3600 è realizzato con un die non pienamente funzionante e/o che non raggiunge i target di frequenza di un 3800X, tanto per dire. Costi e prezzi come detto sono funzioni di un gran numero di variabili. Se AMD mettesse i 3800X al prezzo dei 3600, chi comprerebbe i 3600? Con conseguenze gravi sulla situazione finanziaria...
ma se uno ti risponde "l'unica economia che conta è la mia" che discorsi pensi di poter portare avanti ? :rolleyes:
L'unica risposta da dargli è: "siediti tranquillo ed aspetta il Ryzen da 16 core a 150€".
Prima o poi arriverà:boh:
si credo anche io che stiamo arrivando ai limiti del sistema di dissipazione attuale. Pur con buoni dissipatori i picchi sui Ryzen di fascia alta sono difficili da tenere sotto controllo per il motivo che hai descritto tu: il dissipatore non riesce a spostare istantaneamente tutto quel calore.
Mi domando se a 5 nm la situazione non sarà ancora peggiore. :confused:
Si, la fisica dice che con i 5nm il problema sarà ancora più sentito. :)
Si, la fisica dice che con i 5nm il problema sarà ancora più sentito. :)
beh, non sappiamo ancora che modifiche faranno al IHS...
beh, non sappiamo ancora che modifiche faranno al IHS...
Non penso vedremo qualcosa di nuovo per i 5nm.
Ma sicuramente tra qualche anno cambieranno le cose, dato che si parla di stackable chip.
Voglio vederti a dissipare il calore di 2 CCD come quelli di amd una volta che li hai impilati uno sull'altro :stordita:
Probabilmente avremo chip stacked con layer intermedio con microsolchi per la circolazione di liquido che aiuti a spostare altrove il calore prodotto. Mi sembra che intel ci stesse già lavorando.
Ziosilvio
21-09-2020, 14:58
Questo lo dici tu. Io invece dico che il 128 core o lo prezzano a 100€ o è AMD che fa pena e l'architettura fa cagare.
Se tu puoi fare i prezzi dei processori AMD e pensare di avere ragione con scuse campate in aria, non vedo perché io non possa fare lo stesso ragionamento e dire che il mio prezzo è quello giusto e che amd dovrebbe adottarlo pena il non essere superiore alla concorrenza :D
Tornando seri, quando capirete che il fatto di poter imporre i propri prezzi è la prova della propria (temporanea) supremazia, non sarà mai troppo tardi. :rolleyes:
Qui stiamo arrivando al livello everyeye/spaziogames quando avevo osato criticare il tegrapacco a 20 nm e la defence force aveva cominciato a usare le scuse più assurde pur di difendere ogni singola vite.
Non ricordo il nome ma stai facendo una nota fallacia logica. Praticamente sposti il discorso dove vuoi tu, con le cose più strampalate, solamente per non ammettere alcuna forma di critica o di ragionamento. Non ha senso.
"quando capirete che..." è quello che avrò scritto in 10 post, ma dov'eri? :asd:
Possiamo anche dire che i prezzi li fa il mercato e che, non sapendo nulla delle nuove cpu, non possiamo dire niente per certo (e neanche fare delle ipotesi, perché anche quelle sarebbero campate per aria). Chiudiamo il thread o parliamo solo di cpu esistenti, e prezzi reali.
Fate tutti e due un bel respiro profondo...
Non penso vedremo qualcosa di nuovo per i 5nm.
Ma sicuramente tra qualche anno cambieranno le cose, dato che si parla di stackable chip.
Voglio vederti a dissipare il calore di 2 CCD come quelli di amd una volta che li hai impilati uno sull'altro :stordita:
Probabilmente avremo chip stacked con layer intermedio con microsolchi per la circolazione di liquido che aiuti a spostare altrove il calore prodotto. Mi sembra che intel ci stesse già lavorando.
beh si, modifiche sostanziali forse non già nel 2022, ma qualcosa magari cambia.
La stessa Intel ha lievemente modificato l'IHS per cui un 10700K è più semplice da raffreddare di un 9900K pur essendo la stessa architettura con frequenza lievemente più elevata.
Sarà interessante vedere Zen 3 intanto (magari qualcosa migliorano già ora) e soprattutto il passaggio ai 5 nm.
Non penso vedremo qualcosa di nuovo per i 5nm.
Ma sicuramente tra qualche anno cambieranno le cose, dato che si parla di stackable chip.
Voglio vederti a dissipare il calore di 2 CCD come quelli di amd una volta che li hai impilati uno sull'altro :stordita:
Probabilmente avremo chip stacked con layer intermedio con microsolchi per la circolazione di liquido che aiuti a spostare altrove il calore prodotto. Mi sembra che intel ci stesse già lavorando.
beh si, modifiche sostanziali forse non già nel 2022, ma qualcosa magari cambia.
La stessa Intel ha lievemente modificato l'IHS per cui un 10700K è più semplice da raffreddare di un 9900K pur essendo la stessa architettura con frequenza lievemente più elevata.
Sarà interessante vedere Zen 3 intanto (magari qualcosa migliorano già ora) e soprattutto il passaggio ai 5 nm.
paolo.oliva2
21-09-2020, 16:51
Che noctua? Le mie ventole "stile noctua" per i miei gusti non sono per niente silenziose.
Come compromesso tengo le ventole fisse a 800 rpm finché non raggiungono una temperature oltre le comuni oscillazioni.
mmmm preciso una cosa. Tutto ciò che ho acquistato successivamente al custom è per me silenziosissimo. Nel custom avevo delle ventole doppia altezza da 3000rpm.... e avendo 4 radiatori doppi e 2 singoli, le ventole erano 6 in totale.
paolo.oliva2
21-09-2020, 17:26
Sigh. I prezzi si fanno sempre in base alle prestazioni della concorrenza, interna e soprattutto esterna. Inoltre sembra che sfugga il senso della "segmentazione dell'offerta", ossia di quelle differenze di prezzo che riproporzionano l'offerta in base alle prestazioni, senza contare che spesso un 3600 è realizzato con un die non pienamente funzionante e/o che non raggiunge i target di frequenza di un 3800X, tanto per dire. Costi e prezzi come detto sono funzioni di un gran numero di variabili. Se AMD mettesse i 3800X al prezzo dei 3600, chi comprerebbe i 3600? Con conseguenze gravi sulla situazione finanziaria...
Quoto, poche parole che dicono tutto, cosa impossibile per me :D.
...il fatto di poter imporre i propri prezzi è la prova della propria (temporanea) supremazia, non sarà mai troppo tardi. :rolleyes:
Per il momento AMD ha operato molto soft, ma è indubbio che ci marci.
Ha steccato un PPT massimo a modello che di fatto impediscono l'OC (io il bug per aggirare il limite non l'ho provato), ha prezzato il prezzo a core costante al numero dei core (ma ha anche ammesso che l'MCM fa risparmiare un 40% a multipli di chiplet).
Ovvio che risulti competitiva verso Intel, ma è pur vero che è ancora Intel a prezzare ed AMD lo fa di conseguenza... per me questa è ancora una fortuna, perchè Intel prezzava 1000$ il 6900K e 1700$ il 6950X... e se oggi fosse Intel ad avere 3950X/3960X/3970X/3990WX, minimo costerebbero 2X.
Non lo so fino a che punto sia meglio avere una AMD nettamente in testa prestazionalmente o una Intel ancora a galla parzialmente.
Cioè... se Zen3 sarà +20% prestazionale su Zen2, ed allo stesso listino di Zen2, avremmo un prezzo/prestazioni del 20% migliore.
Da parte Intel, non mi sembra di vedere alcun segnale di aggiustamento prezzo/prestazioni. Mi ero stupito per 499$ per un X10 monolitico... ma poi la realtà è che nel reale costa un tot di più.
Forse la via d'uscita sarebbe questa... un AMD molto più prestazionale con una risposta Intel su listino di prodotti top ad un prezzo ottimo ma nessuna disponibilità (a parte per i recensori).
Per il momento AMD ha operato molto soft, ma è indubbio che ci marci.
Mai detto il contrario, dopotutto non è una onlus, come scrivevo in precedenza.
Devono cercare di massimizzare i guadagni adesso che possono. Non si pagano gli stipendi col market share, ma con gli incassi :D
Non lo so fino a che punto sia meglio avere una AMD nettamente in testa prestazionalmente o una Intel ancora a galla parzialmente.
L'ideale è avere entrambe su buoni livelli che si dividono il market share. In questo modo avrebbero entrambe le armi per battagliare ed il consumatore se ne avvantaggerebbe :)
Senza contare che ARM (ehm, nvidia) potrebbe potenzialmente essere un bel cetriolone per entrambe :D
digieffe
21-09-2020, 18:01
Sigh. I prezzi si fanno sempre in base alle prestazioni della concorrenza, interna e soprattutto esterna. Inoltre sembra che sfugga il senso della "segmentazione dell'offerta", ossia di quelle differenze di prezzo che riproporzionano l'offerta in base alle prestazioni, senza contare che spesso un 3600 è realizzato con un die non pienamente funzionante e/o che non raggiunge i target di frequenza di un 3800X, tanto per dire. Costi e prezzi come detto sono funzioni di un gran numero di variabili. Se AMD mettesse i 3800X al prezzo dei 3600, chi comprerebbe i 3600? Con conseguenze gravi sulla situazione finanziaria...
Lascio agli altri l'onere di risponderti, a me sono bastati questi post per capire che posso aggiungerti senza problemi alla mia ignore list. :)
ma se uno ti risponde "l'unica economia che conta è la mia" che discorsi pensi di poter portare avanti ? :rolleyes:
L'unica risposta da dargli è: "siediti tranquillo ed aspetta il Ryzen da 16 core a 150€".
Prima o poi arriverà:boh:
c'è un'intera branca dell'economia che si occupa della formazione del prezzo ma evidentemente c'è qualcuno che con la sua presunzione si arroga di saperne di più.
Mi dispiace solo che sono costretto a leggerlo nei quote degli utenti che stimo
*******
Mi sa che tra qualche anno arriveremo ad avere CPU che vengono vendute con un IHS più evoluto e che permetta un maggiore scambio di calore tra cpu e dissy.
Stiamo arrivando a livelli di densità di calore per mm^2 dove il problema grosso è riuscire a spostare velocemente il calore, piuttosto che la quantità totale di calore emessa.
è da tempo che mi pongo il dubbio su come faranno a dissipare i picchi del 5nm.
qualcuno ha una idea anche solo concettuale su come potrebbero fare a trasferire rapidamente il calore? (a parte assottigliare l'HIS)
Nautilu$
21-09-2020, 18:03
L'ideale è avere entrambe su buoni livelli che si dividono il market share. In questo modo avrebbero entrambe le armi per battagliare ed il consumatore se ne avvantaggerebbe :)
....mentre invece probabilmente si vedrebbe un bel cartello! :muro:
estremamente interessante:
https://www.youtube.com/watch?v=1kQUXpZpLXI
....mentre invece probabilmente si vedrebbe un bel cartello! :muro:
Ti avrei dato ragione se non ci fosse ARM. Nutro discrete speranze nell'ecosistema ARM, sempre che nvidia non uccida tutto.
digieffe
21-09-2020, 18:14
....mentre invece probabilmente si vedrebbe un bel cartello! :muro:
purtroppo così la penso anche io...
ci vuole un "dominante" ed un "arrembate" per avere prezzi bassi
CUT
Non lo so fino a che punto sia meglio avere una AMD nettamente in testa prestazionalmente o una Intel ancora a galla parzialmente.
CUT.
personalmente preferisco avere una AMD estremamente competitiva per i seguenti motivi:
1) concorrenza significa maggior scelta per noi consumatori;
2) prodotti migliori significa evoluzione:
3) competizione significa stimoli verso nuove architetture;
4) maggiori guadagni significa disponibilità finanziarie per proporre prodotti sempre migliori.
5) con prodotti non all'altezza o economici hanno rischiato di scomparire :rolleyes: o quasi
Alla fine AMD dovrà sempre rincorrere Intel perchè Intel è un colosso. E sradicarla non è così semplice e soprattutto non sarà un processo breve...hanno una tale base installata di CPU che eroderle quote di mercato non è semplice. Ma lo puoi fare solo se proponi prodotti superiori.
E siccome tutto nella vita ha un prezzo, sono disposto a pagare qcosina in più per farli guadagnare se propongono prodotti ad alto livello....aumenti di IPC del 15/20% a generazione non se ne vedevano da moltissimo tempo...
tutto IMHO:) oltre al fatto che i prezzi che sta proponendo adesso per la qualità/perf sono adeguati.
A chi non piacerebbe un 16 core a 100€...ma adesso è irrealistico. estremizzo per far capire il concetto
Discorso cartello: uhm nn penso che a breve sia un rischio...perchè il cartello lo fai quando magari ti dividi il mercato al 50%....e non è la situazione ad oggi....e neanche la situazione di domani
estremamente interessante:
https://www.youtube.com/watch?v=1kQUXpZpLXI
Grazie per il link!
Vedere affettate le cpu intel/amd al microscopio elettronico mi mancava :eek:
Ti avrei dato ragione se non ci fosse ARM. Nutro discrete speranze nell'ecosistema ARM, sempre che nvidia non uccida tutto.
a chi lo dici...avere dei RISC nel desktop sarebbe una gran cosa...magari...
von Clausewitz
21-09-2020, 19:14
Cioè... se Zen3 sarà +20% prestazionale su Zen2, ed allo stesso listino di Zen2, avremmo un prezzo/prestazioni del 20% migliore.
Da parte Intel, non mi sembra di vedere alcun segnale di aggiustamento prezzo/prestazioni. Mi ero stupito per 499$ per un X10 monolitico... ma poi la realtà è che nel reale costa un tot di più.
tu auspichi che zen 3 abbia il 20%, allora è sicuro che non l'avrà visto che nel tempo tutte le tue previsioni sono state puntualmente smentite dai fatti
per quanto riguarda il 10900 esiste in commercio nella versioni K liscia a 545 e nella versione KF a 506 quindi in linea con il prezzo dichiarato da Intel
ricordiamo invece che per mesi il 3900x è stato sopra i 600€, a trovarlo...
Forse la via d'uscita sarebbe questa... un AMD molto più prestazionale con una risposta Intel su listino di prodotti top ad un prezzo ottimo ma nessuna disponibilità (a parte per i recensori).
questa più che una via d'uscita mi sembra un ennesimo no-sense
ri-ricordiamo invece la serie 3xxx appena uscita con difficoltà di reperibilità dei modelli di punta oltre il sovrapprezzo, addirittura il 3800x non disponibile nemmeno per i recensori e il 3950 disponibile 5 mesi dopo
ho capito che non vedi l'ora di comprarti il 5900x (per il 5950x dovrai invece aspettare il 2021) tuttavia Intel non potrà aiutarti a spendere meno, non è la sua ragione sociale farti risparmiare con tuoi acquisti AMD
ma non vedo il problema, tanto da sempre con i sistemi AMD fai l’Helicopter money, per cui farlo ancora una volta non cambierà molto
Blackbox11
21-09-2020, 23:57
Secondo voi i nuovi Zen 3 colmeranno il gap con Intel per quanto riguarda il gaming?
Che poi tra l'altro è sempre stata l'unica pecca di queste cpu, per il resto superiori in tutto e per tutto.
estremamente interessante:
https://www.youtube.com/watch?v=1kQUXpZpLXI
Questo andrebbe messo in EVIDENZA qui dentro, specie in questo thread.
“Quando comprate una CPU guardate i benchmark, non il nodo (7 nm vs 14 nm vs 10 nm)”
Parole sante :rolleyes:
Io spero davvero che una manciata di utenti (quelli che ho spesso chiamato cheerleader :D) qui dentro lo guardino con attenzione e diventino più moderati nell’esprimere le proprie legittime preferenze verso uno o l’altro marchio.
Continuare a ripetere che “Intel è finita” perché scandalo scandalo sono fermi a 14 nm non significa nulla, perché quel 14 nm ha un significato diverso da quello che si crede.
Ciò non toglie che AMD stia producendo le migliori cpu, e che migliorerà ulteriormente con Zen 3, ma pensare che Rocket lake, ad esempio, sia già battuto in partenza solo perché è a 14 nm ancora significa non capire di cosa stiamo parlando. Così come i discorsi fatti qualche settimana fa del tipo “eh ma quando Intel sarà a 10 nm la nostra amata AMD sarà già a 5 nm”... si ok, allora ? Non significa che sarà migliore automaticamente per questo.
Secondo voi i nuovi Zen 3 colmeranno il gap con Intel per quanto riguarda il gaming?
Che poi tra l'altro è sempre stata l'unica pecca di queste cpu, per il resto superiori in tutto e per tutto.
Possibile.
Ma per me dipenderà comunque dalla frequenza che raggiungeranno.
leoneazzurro
22-09-2020, 08:07
Questo andrebbe messo in EVIDENZA qui dentro, specie in questo thread.
“Quando comprate una CPU guardate i benchmark, non il nodo (7 nm vs 14 nm vs 10 nm)”
Parole sante :rolleyes:
Io spero davvero che una manciata di utenti (quelli che ho spesso chiamato cheerleader :D) qui dentro lo guardino con attenzione e diventino più moderati nell’esprimere le proprie legittime preferenze verso uno o l’altro marchio.
Continuare a ripetere che “Intel è finita” perché scandalo scandalo sono fermi a 14 nm non significa nulla, perché quel 14 nm ha un significato diverso da quello che si crede.
Ciò non toglie che AMD stia producendo le migliori cpu, e che migliorerà ulteriormente con Zen 3, ma pensare che Rocket lake, ad esempio, sia già battuto in partenza solo perché è a 14 nm ancora significa non capire di cosa stiamo parlando. Così come i discorsi fatti qualche settimana fa del tipo “eh ma quando Intel sarà a 10 nm la nostra amata AMD sarà già a 5 nm”... si ok, allora ? Non significa che sarà migliore automaticamente per questo.
Beh, pensare che Intel sia finita è chiaramente una stupidaggine, quando AMD era messa molto peggio negli anni passati ed eccola ancora qui, senza nemmeno considerare il fatto che commercialmente Intel è fortissima. Sicuramente ha dei prodotti che sono meno competitivi tranne che per il settore gaming, e dal punto di vista dell'architettura e del processo è andata in ritardo rispetto a quello che essa stessa aveva come target. Parlo anche di architettura perché proprio dal video linkato, si vede che certe differenze sono molto meno marcate di quanto il numero identificativo del processo dica, e quindi molti guadagni in termini di efficienza sono dovuti come il chip è stato progettato e non solo al fatto che le prestazioni del processo sono eccezionali (basti pensare ai guadagni in termini di prestazioni/W a quasi parità di processo evidenziati dalla GPU integrata in Renoir rispetto alla Radeon VII). Sicuramente Intel sta pagando le scarse prestazioni del management in termini di organizzazione, troppo lassista negli anni passati forte della supremazia prestazionale a seguito del disastro Bulldozer (quello figlio di scellerate scelte manageriali in casa AMD, invece) e che ha causato le debacle dello sviluppo del processo 10nm e il ritardo annunciato di quello 7nm. Detto ciò, non è che la capacità degli ingegneri Intel sia inferiore a quella degli ingegneri AMD, quindi mi aspetto che Intel risalga la china in qualche anno (Rocket Lake sicuramente sarà un passo avanti ma "a naso" mi aspetto che comunque AMD mantenga un vantaggio in termini di efficienza ancora per un bel po').
Beh, pensare che Intel sia finita è chiaramente una stupidaggine, quando AMD era messa molto peggio negli anni passati ed eccola ancora qui, senza nemmeno considerare il fatto che commercialmente Intel è fortissima. Sicuramente ha dei prodotti che sono meno competitivi tranne che per il settore gaming, e dal punto di vista dell'architettura e del processo è andata in ritardo rispetto a quello che essa stessa aveva come target. Parlo anche di architettura perché proprio dal video linkato, si vede che certe differenze sono molto meno marcate di quanto il numero identificativo del processo dica, e quindi molti guadagni in termini di efficienza sono dovuti come il chip è stato progettato e non solo al fatto che le prestazioni del processo sono eccezionali (basti pensare ai guadagni in termini di prestazioni/W a quasi parità di processo evidenziati dalla GPU integrata in Renoir rispetto alla Radeon VII). Sicuramente Intel sta pagando le scarse prestazioni del management in termini di organizzazione, troppo lassista negli anni passati forte della supremazia prestazionale a seguito del disastro Bulldozer (quello figlio di scellerate scelte manageriali in casa AMD, invece) e che ha causato le debacle dello sviluppo del processo 10nm e il ritardo annunciato di quello 7nm. Detto ciò, non è che la capacità degli ingegneri Intel sia inferiore a quella degli ingegneri AMD, quindi mi aspetto che Intel risalga la china in qualche anno (Rocket Lake sicuramente sarà un passo avanti ma "a naso" mi aspetto che comunque AMD mantenga un vantaggio in termini di efficienza ancora per un bel po').
ma infatti attendo con curiosità Rocket Lake ed Alder Lake proprio perché a dispetto di quanto di scrive qui il limite attuale di Intel è solo parzialmente il processo produttivo, ma in realtà è che si tratta pur sempre di SkyLake rivisto e corretto (poco).
Per me Rocket Lake in certi ambiti sarà più veloce di Zen 3 (valutazione fatta "a naso" anche questa, sia ben chiaro), ma questo è solo un bene, perché spingerà AMD a lavorare bene su Zen 4.
Questo andrebbe messo in EVIDENZA qui dentro, specie in questo thread.
si è parlato di processi produttivi decine di volte...parole al vento.
ma infatti attendo con curiosità Rocket Lake ed Alder Lake proprio perché a dispetto di quanto di scrive qui il limite attuale di Intel è solo parzialmente il processo produttivo, ma in realtà è che si tratta pur sempre di SkyLake rivisto e corretto (poco).
Per me Rocket Lake in certi ambiti sarà più veloce di Zen 3 (valutazione fatta "a naso" anche questa, sia ben chiaro), ma questo è solo un bene, perché spingerà AMD a lavorare bene su Zen 4.
Correggetemi se sbaglio, ma Intel si porta ancora dietro la zavorra data dai fix in microcode per i vari bug di sicurezza beccati negli anni.
Una nuova uArch completamente rivista e senza fix lato "firmware" dovrebbe già far guadagnare un 5% secco (anche di più in determinate condizioni).
Il processo produttivo invece è fondamentale per abbassare i consumi, lì c'è poco da fare.
paolo.oliva2
22-09-2020, 08:57
Questo andrebbe messo in EVIDENZA qui dentro, specie in questo thread.
“Quando comprate una CPU guardate i benchmark, non il nodo (7 nm vs 14 nm vs 10 nm)”
Parole sante :rolleyes:
Io spero davvero che una manciata di utenti (quelli che ho spesso chiamato cheerleader :D) qui dentro lo guardino con attenzione e diventino più moderati nell’esprimere le proprie legittime preferenze verso uno o l’altro marchio.
Continuare a ripetere che “Intel è finita” perché scandalo scandalo sono fermi a 14 nm non significa nulla, perché quel 14 nm ha un significato diverso da quello che si crede.
Ciò non toglie che AMD stia producendo le migliori cpu, e che migliorerà ulteriormente con Zen 3, ma pensare che Rocket lake, ad esempio, sia già battuto in partenza solo perché è a 14 nm ancora significa non capire di cosa stiamo parlando. Così come i discorsi fatti qualche settimana fa del tipo “eh ma quando Intel sarà a 10 nm la nostra amata AMD sarà già a 5 nm”... si ok, allora ? Non significa che sarà migliore automaticamente per questo.
:confused:
L'architettura migliore è giudicata tale quando ottiene la prestazione massima nella migliore efficienza, e questo si ottiene bilanciando il numero di transistor (IPC) che devono produrre un consumo che permetta una frequenza massima in linea con la curva rendimento PP del silicio.
In parole povere, un IPC inferiore comporterà frequenze superiori per raggiungere la prestazione voluta (= perdita di efficienza), un IPC superiore comporterebbe un consumo superiore obbligando a frequenze più basse... (= perdita di prestazioni).
Quindi ogni architettura può avere qualsiasi caratteristica, ma su carta, perchè quando si inizia la stesura su silicio, si devono applicare i compromessi.
E' per questo che Intel ha applicato da sempre Tik-Tok, e di esempi ne abbiamo di cappelle quando si è voluto forzare... BD, PIV.
Questo è ovvio che sia il discorso per produrre una architettura a 360°.
Per quanto riguarda la prestazione massima del core, essere indietro di 1 nodo non pregiudica, ma deve avere circostanze favorevoli.
Esempio... se fosse AMD a 5,3GHz e Intel a 4,7GHz, Intel sarebbe OUT.
Essendo Intel con il PP migliore, allora limitando i consumi (numero core max) e aumentando la frequenza, la prestazione a core la puoi anche avere, ma è ovvio che l'efficienza va a farsi benedire.
-------
Intel ha una architettura pensata (o meglio adattata) al 14nm che è l'i10, con IPC inferiore ad AMD e aumentare le frequenze per compensare è possibile con Zen2, ma impensabile con Zen3.
Da quello che ho capito, Rocket lake è una modifica dell'architettura progettata per il 10nm ma adattata al 14nm.
Mi sembra ovvio che un'architettura pensata per un 10nm, prodotta sul 14nm, con un consumo a transistor superiore, non potrà mai sul 14nm ottenere lo stesso IPC alla stessa frequenza.
Per essere chiari... se l'IPC di Rocket aumentasse del 20%, vorrebbe dire che aumenterebbe almeno del 20% i consumi, quindi è impensabile che Rocket possa "lavorare" alle stesse frequenze di un 10900K, altrimenti supererebbe i 300W.
Quindi è presumibile che Intel aumenti l'IPC con lo scopo di migliorare l'efficienza, ottenendo prestazioni simili all'i10 ma a frequenze più basse.
Ma è scontato che il consumo a transistor, rimanendo quello del 14nm, rimane pur sempre l'efficienza della nanometria 14nm, migliore del 22nm e peggiore al 10nm.
Ovvio che se ci fermiamo a X8, magari a 300W, e e valutiamo il sistema unicamente negli FPS, la frase "Intel non è indietro (molto)" ci può stare... ma iil mondo PC non è solamente console. In tutto il resto, dove conta efficienza e massima prestazione a procio, conta la nanometria, ed un tot.
------
Questo è un sunto da Sysoftsandra del 7nm dei PState con la selezione 3700X a Vcore/frequenza e consumo.
https://i.ibb.co/0chrdWH/consumo-Zen2-7nm.png (https://ibb.co/xDJ6Rcx)
E' questo il vantaggio del 7nm TSMC, e non sono giuggiole che si mascherano con gli FPS.
Gyammy85
22-09-2020, 09:00
Per me Rocket Lake in certi ambiti sarà più veloce di Zen 3 (valutazione fatta "a naso" anche questa, sia ben chiaro), ma questo è solo un bene, perché spingerà AMD a lavorare bene su Zen 4.
Rocket lake se va bene supererà di poco in ipc zen 2, non vedo come possa andare più di zen 3
si è parlato di processi produttivi decine di volte...parole al vento.
il post sotto al tuo mi fa capire che hai ragione :rolleyes:
Correggetemi se sbaglio, ma Intel si porta ancora dietro la zavorra data dai fix in microcode per i vari bug di sicurezza beccati negli anni.
Una nuova uArch completamente rivista e senza fix lato "firmware" dovrebbe già far guadagnare un 5% secco (anche di più in determinate condizioni).
Il processo produttivo invece è fondamentale per abbassare i consumi, lì c'è poco da fare.
questo è verissimo (anche se non saprei quantificare in percentuale).
Ma Intel ha questa gravosa tara della quale deve liberarsi (ed è irritante il numero di errori commessi).
:confused:
L'architettura migliore è giudicata tale quando ottiene la prestazione massima nella migliore efficienza, e questo si ottiene bilanciando il numero di transistor (IPC) che devono produrre un consumo che permetta una frequenza massima in linea con la cura rendimento PP del silicio.
In parole povere, un IPC inferiore comporterà frequenze superiori per raggiungere la prestazione voluta (= perdita di efficienza), un IPC superiore comporterebbe un consumo superiore obbligando a frequenze più basse... (= perdita di prestazioni).
Quindi ogni architettura può avere qualsiasi caratteristica, ma su carta, perchè quando si inizia la stesura su silicio, si devono applicare i compromessi.
E' per questo che Intel ha applicato da sempre Tik-Tok, e di esempi ne abbiamo di cappelle quando si è voluto forzare... BD, PIV.
Questo è ovvio che sia il discorso per produrre una architettura a 360°.
Per quanto riguarda la prestazione massima del core, essere indietro di 1 nodo non pregiudica, ma deve avere circostanze favorevoli.
Esempio... se fosse AMD a 5,3GHz e Intel a 4,7GHz, Intel sarebbe OUT.
Essendo Intel con il PP migliore, allora limitando i consumi (numero core max) e aumentando la frequenza, la prestazione a core la puoi anche avere, ma è ovvio che l'efficienza va a farsi benedire.
-------
Intel ha una architettura pensata (o meglio adattata) al 14nm che è l'i10, con IPC inferiore ad AMD e aumentare le frequenze per compensare è possibile con Zen2, ma impensabile con Zen3.
Da quello che ho capito, Rocket lake è una modifica dell'architettura progettata per il 10nm ma adattata al 14nm.
Mi sembra ovvio che un'architettura pensata per un 10nm, prodotta sul 14nm, con un consumo a transistor superiore, non potrà mai sul 14nm ottenere lo stesso IPC alla stessa frequenza.
Per essere chiari... se l'IPC di Rocket aumentasse del 20%, vorrebbe dire che aumenterebbe almeno del 20% i consumi, quindi è impensabile che Rocket possa "lavorare" alle stesse frequenze di un 10900K, altrimenti supererebbe i 300W.
Quindi è presumibile che Intel aumenti l'IPC con lo scopo di migliorare l'efficienza, ottenendo prestazioni simili all'i10 ma a frequenze più basse.
Ma è scontato che il consumo a transistor, rimanendo quello del 14nm, rimane pur sempre l'efficienza della nanometria 14nm, migliore del 22nm e peggiore al 10nm.
Ovvio che se ci fermiamo a X8, magari a 300W, e e valutiamo il sistema unicamente negli FPS, la frase "Intel non è indietro (molto)" ci può stare... ma iil mondo PC non è solamente console. In tutto il resto, dove conta efficienza e massima prestazione a procio, conta la nanometria, ed un tot.
------
Questo è un sunto da Sysoftsandra del 7nm con la selezione 3700X a Vcore/frequenza e consumo.
https://i.ibb.co/0chrdWH/consumo-Zen2-7nm.png (https://ibb.co/xDJ6Rcx)
E' questo il vantaggio del 7nm TSMC, e non sono giuggiole che si mascherano con gli FPS.
perdonami non voglio entrare in polemica con te ma il tuo (lungo) post mi dimostra che il video non l'hai capito.
Intel è "indietro di un nodo" ?
NO... e si.
È indietro di un nodo perché IL SUO PASSAGGIO INTERNO da 14nm a 10nm non è avvenuto nei tempi previsti.
NON è indietro di un nodo solo perché AMD sta usando il TSMC a 7nm.
Nessuno assolutamente discute la maggior efficienza della soluzione AMD, cosi come le eccellenti prestazioni.
Rocket lake se va bene supererà di poco in ipc zen 2, non vedo come possa andare più di zen 3
Tu hai già visto Rocket Lake in azione, naturalmente ? :rolleyes:
Può essere come dici, come può essere che invece in alcuni ambiti superi anche Zen 3.
Io sono solito non tirare fuori le bandierine rosse ed attendere i benchmark per giudicare.
paolo.oliva2
22-09-2020, 09:21
Rocket lake se va bene supererà di poco in ipc zen 2, non vedo come possa andare più di zen 3
Da una parte (Zen3) abbiamo +15% medio e fino a +50% lato FP con frequenze +100/200MHz, dall'altra un "fino a +18%" che è il massimo e non il medio, con frequenze che per forza di cose devono essere inferiori all'i10.
Secondo me è inutile discutere... c'era chi diceva che Rocket sarebbe uscito prima di Zen3 :D, vedremo in quanti avranno le @@ di non acquistare Zen3 e di fidarsi di Intel... per me pochi, pochissii, quasi nulla.
Da una parte (Zen3) abbiamo +15% medio e fino a +50% lato FP con frequenze +100/200MHz, dall'altra un "fino a +18%" che è il massimo e non il medio, con frequenze che per forza di cose devono essere inferiori all'i10.
Secondo me è inutile discutere... c'era chi diceva che Rocket sarebbe uscito prima di Zen3 :D, vedremo in quanti avranno le @@ di non acquistare Zen3 e di fidarsi di Intel... per me pochi, pochissii, quasi nulla.
è questo di cui onestamente non sono convinto fino in fondo. Poi magari verrò sconfessato dai fatti, premetto, ma lo sanno bene che sul desktop, a differenza del portatile, il clock devi mantenerlo alto....altrimenti aumento dell'IPC va a farsi benedire....quindi penso che quando usciranno con rocket lake il clock non sarà di molto inferiore alle soluzioni attuali...teniamo presente che quando usci il 9900k quasi tutti pensavano che non sarebbe stato possibile aumentare il clock e il nr dei core...invece l'hanno fatto...a discapito dell'efficienza sicuramente ma l'hanno fatto
Gyammy85
22-09-2020, 09:37
Tu hai già visto Rocket Lake in azione, naturalmente ? :rolleyes:
Può essere come dici, come può essere che invece in alcuni ambiti superi anche Zen 3.
Io sono solito non tirare fuori le bandierine rosse ed attendere i benchmark per giudicare.
Giudico in base a quello che ho sentito, se amd fa +15% medio (e sappiamo bene che non c'è NEANCHE UN APPLICATIVO dove zen 2 non faccia almeno +20% di ipc su zen) non vedo come possa rocket lake passare zen 3
Per il resto, non vedo l'ora che arrivino l'8 ed il 28 ottobre, di là è tutto un "ma come fanno a far andare rt che nvidia ha 500 teraflops e amd al massimo 5", di qua serpeggia il pericolo, meglio discutere di cose certe
Gyammy85
22-09-2020, 09:40
è questo di cui onestamente non sono convinto fino in fondo. Poi magari verrò sconfessato dai fatti, premetto, ma lo sanno bene che sul desktop, a differenza del portatile, il clock devi mantenerlo alto....altrimenti aumento dell'IPC va a farsi benedire....quindi penso che quando usciranno con rocket lake il clock non sarà di molto inferiore alle soluzioni attuali...teniamo presente che quando usci il 9900k quasi tutti pensavano che non sarebbe stato possibile aumentare il clock e il nr dei core...invece l'hanno fatto...a discapito dell'efficienza sicuramente ma l'hanno fatto
Si gli utlimi anni di intel e nvidia ci hanno dimostrato che se la gente è disposta ad accettare 300 watt di cpu e 500 di gpu allora va bene tutto
AMD più che darti a 750 euro un 16 core che umilia il 18 core hedt intel non può fare (nel 2019), dato che siamo nel 2015 e bulldozer non ce la fa e le azioni stanno a due dollari, ciao core
Giudico in base a quello che ho sentito, se amd fa +15% medio (e sappiamo bene che non c'è NEANCHE UN APPLICATIVO dove zen 2 non faccia almeno +20% di ipc su zen) non vedo come possa rocket lake passare zen 3
Per il resto, non vedo l'ora che arrivino l'8 ed il 28 ottobre, di là è tutto un "ma come fanno a far andare rt che nvidia ha 500 teraflops e amd al massimo 5", di qua serpeggia il pericolo, meglio discutere di cose certe
si considera che il salto da ZEN a ZEN2 è stato notevole...hanno raddoppiato un sacco di cose...dalla FPU alla cache 3. con ZEN3 per quello che so i salti non saranno così significativi. cmq vedremo alla prova dei fatti :)
paolo.oliva2
22-09-2020, 09:41
perdonami non voglio entrare in polemica con te ma il tuo (lungo) post mi dimostra che il video non l'hai capito.
Io il video non l'ho visto... ho la banda africana :D.
Io non ho scritto che prestazionalmente a core il 14nm sia un handicap vs AMD a 7nm... perchè nelle condizioni in cui il consumo non rappresenti un limite, la nanometria non è vitale. Ma dove conta l'efficienza (consumo/prestazioni e numero di core max a seconda del consumo) è ovvio che avere un nodo di svantaggio conta e un totale.
Non penso di essere pessimista ma razionale, e magari mi sbagliassi, perchè il prezzo 10900K per certo ha impedito aumenti di Zen3 X12... e un X10 su Rocket, con presumibili rese più elevate (frequenze max inferiori) potrebbe portare ad un Rocket X10 a prezzo simile o inferiore e a maggiori prestazioni... con conseguente diminuzione listino Zen3.
Ti dirò di più... io farei riti vudu e macumba perchè Intel faccia un +10% di FPS vs Zen3... perchè a me degli FPS non frega una mazza, ma AMD sarebbe costretta a diminuire il listino X12/X16 per invogliare l'acquisto...
La condizione top per il consumatore, cioè noi, è che Intel abbia la prestazione massima e fissi il suo prezzo, con AMD che si rapporta con il prezzo/prestazioni. Poi siamo noi in base al nostro utilizzo a decidere se spendere di più per poco di più o spendere meno il poco meno.
Intel ha lo zoccolo duro del monolitico per calare il listino... ma 499$ per un X10 @5,3GHz non mi stancherò mai di dirlo, è un prezzo bomba per un X10 monolitico.
La condizione IDEALE per noi, sarebbe un 10900K base Rocket, allo stesso prezzo del 10900K, performante uguale o leggermente di più di un Zen3 X12, in modo tale da obbligare AMD a portare Zen3 X16 a prezzi ~550/600$.
FREGA SEGA CHI L'HA PIU' LUNGO.
paolo.oliva2
22-09-2020, 10:19
è questo di cui onestamente non sono convinto fino in fondo. Poi magari verrò sconfessato dai fatti, premetto, ma lo sanno bene che sul desktop, a differenza del portatile, il clock devi mantenerlo alto....altrimenti aumento dell'IPC va a farsi benedire....quindi penso che quando usciranno con rocket lake il clock non sarà di molto inferiore alle soluzioni attuali...teniamo presente che quando usci il 9900k quasi tutti pensavano che non sarebbe stato possibile aumentare il clock e il nr dei core...invece l'hanno fatto...a discapito dell'efficienza sicuramente ma l'hanno fatto
Secondo me:
Per contrastare AMD a 360°, deve puntare sull'aumento efficienza, e ci può stare tutto un +10% di prestazioni a parità di consumo aumentandoo l'IPC, ma ci può stare pure aumentare la massima prestazione n core del 20% se non sfori il consumo (tipo PPT AMD).
Nel desktop-game Intel ha la carta del monoolitico... e a pari "bravura", difficile che AMD MCM faccia meglio di Intel monolitico... quindi in termini di FPS se l'I/O pompa ed è disgiunt dal clock core, poco importa, credo, se i core vanno a 4GHz sfruttando il maggiore IPC e migliorando l'efficienza, per produrre FPS maggiori di AMD.
Per scelte sbagliate e sfortune, nel resto del mercato deve comunque aspettare una nanometria più spinta del 14nm.
Ma forse la soluzione l'avrebbe già con il suo 10nm (che in realtà è equivalente al 7nm TSMC). Se Rocket funzia sul 14nmm, allora potrebbe creare proci MCM con una parte di core a 14nm ed il restante a 10nm, ottenendo le prestazioni grazie alla frequenza 14nm e l'efficienza grazie al 10nm, in caso di carico max. Poi il 7nm prima o poi verrà e si vedrà.
Giudico in base a quello che ho sentito, se amd fa +15% medio (e sappiamo bene che non c'è NEANCHE UN APPLICATIVO dove zen 2 non faccia almeno +20% di ipc su zen) non vedo come possa rocket lake passare zen 3
Per il resto, non vedo l'ora che arrivino l'8 ed il 28 ottobre, di là è tutto un "ma come fanno a far andare rt che nvidia ha 500 teraflops e amd al massimo 5", di qua serpeggia il pericolo, meglio discutere di cose certe
Tra Zen e Zen 2 architetturalmente c'è stato un salto triplo carpiato. Non sono convinto che sarà uguale con Zen 3 (ma ben lieto di essere smentito, visto che ne acquisterò uno).
Per il resto in gaming ed altre specifiche applicazioni già oggi Comet Lake va più veloce di uno Zen 2.
Assai probabile che Zen 3 colmi il gap in toto... ma poi Rocket Lake cosa farà ? Tu sei sicuro che non si porterà nuovamente avanti nel gaming ?
Io non indosso occhialini a luce rossa come te quindi sono solo curioso (e comunque Rocket Lake NON lo acquisterò indipendentemente dalle prestazioni, avendo scelto AMD per questa generazione).
si considera che il salto da ZEN a ZEN2 è stato notevole...hanno raddoppiato un sacco di cose...dalla FPU alla cache 3. con ZEN3 per quello che so i salti non saranno così significativi. cmq vedremo alla prova dei fatti :)
corretto.
Io il video non l'ho visto... ho la banda africana :D.
Io non ho scritto che prestazionalmente a core il 14nm sia un handicap vs AMD a 7nm... perchè nelle condizioni in cui il consumo non rappresenti un limite, la nanometria non è vitale. Ma dove conta l'efficienza (consumo/prestazioni e numero di core max a seconda del consumo) è ovvio che avere un nodo di svantaggio conta e un totale.
Non penso di essere pessimista ma razionale, e magari mi sbagliassi, perchè il prezzo 10900K per certo ha impedito aumenti di Zen3 X12... e un X10 su Rocket, con presumibili rese più elevate (frequenze max inferiori) potrebbe portare ad un Rocket X10 a prezzo simile o inferiore e a maggiori prestazioni... con conseguente diminuzione listino Zen3.
Ti dirò di più... io farei riti vudu e macumba perchè Intel faccia un +10% di FPS vs Zen3... perchè a me degli FPS non frega una mazza, ma AMD sarebbe costretta a diminuire il listino X12/X16 per invogliare l'acquisto...
La condizione top per il consumatore, cioè noi, è che Intel abbia la prestazione massima e fissi il suo prezzo, con AMD che si rapporta con il prezzo/prestazioni. Poi siamo noi in base al nostro utilizzo a decidere se spendere di più per poco di più o spendere meno il poco meno.
Intel ha lo zoccolo duro del monolitico per calare il listino... ma 499$ per un X10 @5,3GHz non mi stancherò mai di dirlo, è un prezzo bomba per un X10 monolitico.
La condizione IDEALE per noi, sarebbe un 10900K base Rocket, allo stesso prezzo del 10900K, performante uguale o leggermente di più di un Zen3 X12, in modo tale da obbligare AMD a portare Zen3 X16 a prezzi ~550/600$.
FREGA SEGA CHI L'HA PIU' LUNGO.
ma sono d'accordissimo.
Però il mio post era riferito SOLO al video, che ti consiglio di vedere appena puoi perché è interessantissimo e sfata molti dei miti che qui dentro (e non solo) circolano.
Da un punto di vista razionale a me di Rocket Lake non importa nulla :D
Non mi metto a comprare una piattaforma Z490 nel 2021...
Però come appassionato, e tutto sommato come gamer, sono assolutamente incuriosito da cosa farà Intel nei prossimi due anni.
E di certo non ho gia deciso che CPU monterò nel 2022.
Si gli utlimi anni di intel e nvidia ci hanno dimostrato che se la gente è disposta ad accettare 300 watt di cpu e 500 di gpu allora va bene tutto
AMD più che darti a 750 euro un 16 core che umilia il 18 core hedt intel non può fare (nel 2019), dato che siamo nel 2015 e bulldozer non ce la fa e le azioni stanno a due dollari, ciao core
AMD è forte in questo Jedi...
Ti ricordo che non è solo Intel ad aver toccato quelle vette (vogliamo parlare di Vega 64 ? :rolleyes: ).
E che "umilia" dipende sempre dal campo di utilizzo, visto che per giocare un Intel i7 da 300€ va meglio del tuo 16C da 750€...
Non esiste il bianco ed il nero (anzi, il rosso ed il blu, nella vostra visione del mondo... :p ), ma ci sono mille sfaccettature diverse.
Oggi se devo indicare una CPU migliore a 360º dico Ryzen, MA se qualcuno mi chiede un consiglio con utilizzi specifici posso anche consigliare un Intel senza paura di prendere un abbaglio.
Proprio ieri ho assemblato per un collega un i5 10600K: lo deve usare per Office (soprattutto Excel) e per gaming (con un figlio di 16 anni). Per quegli specifici compiti Intel va meglio.
A me questi schieramenti a prescindere lasciano sempre perplesso... :rolleyes:
è questo di cui onestamente non sono convinto fino in fondo. Poi magari verrò sconfessato dai fatti, premetto, ma lo sanno bene che sul desktop, a differenza del portatile, il clock devi mantenerlo alto....altrimenti aumento dell'IPC va a farsi benedire....quindi penso che quando usciranno con rocket lake il clock non sarà di molto inferiore alle soluzioni attuali...teniamo presente che quando usci il 9900k quasi tutti pensavano che non sarebbe stato possibile aumentare il clock e il nr dei core...invece l'hanno fatto...a discapito dell'efficienza sicuramente ma l'hanno fatto
concordo anche su questo.
Io credo che Rocket Lake comunque boosterà (che brutto termine :( ) sopra i 5 GHz, non lontano dagli attuali.
Certo mi aspetto che almeno per ora si limitino a 8C/16T perché la soluzione a 10C per me è stata abbastanza "arruffata" ...
Invece sono curioso di capire se Zen 3 potrà salire di frequenze anche sopra al livello degli XT.
Gyammy85
22-09-2020, 10:47
AMD è forte in questo Jedi...
Ti ricordo che non è solo Intel ad aver toccato quelle vette (vogliamo parlare di Vega 64 ? :rolleyes: ).
E che "umilia" dipende sempre dal campo di utilizzo, visto che per giocare un Intel i7 da 300€ va meglio del tuo 16C da 750€...
Non esiste il bianco ed il nero (anzi, il rosso ed il blu, nella vostra visione del mondo... :p ), ma ci sono mille sfaccettature diverse.
Oggi se devo indicare una CPU migliore a 360º dico Ryzen, MA se qualcuno mi chiede un consiglio con utilizzi specifici posso anche consigliare un Intel senza paura di prendere un abbaglio.
Proprio ieri ho assemblato per un collega un i5 10600K: lo deve usare per Office (soprattutto Excel) e per gaming (con un figlio di 16 anni). Per quegli specifici compiti Intel va meglio.
A me questi schieramenti a prescindere lasciano sempre perplesso... :rolleyes:
Ma io direi anche basta con sta vega 64, era una buona scheda con alcuni problemi e molta cattiva reputazione coi siti che benchavano le blower col bios power +100 watt e +0,1 fps...vega 56 ha la stessa efficienza della 1080 e va praticamente uguale, punto
Per il resto, già solo il fatto che intel deve farti pagare quei 40 euro in più nel 2020 per la k "oc sbloccato cliente felicitato" mi farebbe desistere, tipo quando presi il 3570 "eh ma il k fai oc un domani chissà magari", in produttività va al massimo come un 3600x (e in molti casi meno) consumando di più, nei giochi ormai tutti hanno capito che quella manciata di frame è tirata su a suon di spike
Ottima cpu eh, non discuto, ma in questo momento storico...boh.
Ma io direi anche basta con sta vega 64, era una buona scheda con alcuni problemi e molta cattiva reputazione coi siti che benchavano le blower col bios power +100 watt e +0,1 fps...vega 56 ha la stessa efficienza della 1080 e va praticamente uguale, punto
quindi dimentichiamo quello che non ci fa piacere ricordare ? :mbe:
E non inventiamoci false review: Guru3D ha testato la Vega in condizioni standard e NO la Vega 56 non consuma come una 1080 liscia.
https://i.ibb.co/JsDDtd5/consumo-VGA.jpg (https://ibb.co/JsDDtd5)
poi non andrei oltre perché si finisce troppo OT, ma il punto è che le cose non stanno come nella tua visione di AMD Uber alles.
Ogni giudizio va rapportato alle esigenze dell'utente.
IO HO SCELTO AMD adesso, ma la mia scelta non è immutabile e non è universale.
paolo.oliva2
22-09-2020, 12:59
Correggetemi se sbaglio, ma Intel si porta ancora dietro la zavorra data dai fix in microcode per i vari bug di sicurezza beccati negli anni.
Una nuova uArch completamente rivista e senza fix lato "firmware" dovrebbe già far guadagnare un 5% secco (anche di più in determinate condizioni).
Il processo produttivo invece è fondamentale per abbassare i consumi, lì c'è poco da fare.
Da quel che ho capito, le falle hanno trovato terreno fertile nel modo in cui Intel ha cercato di velocizzare la ricerca/trasferimento dei dati da elaborare.
I fix adottano dei work-around, ed è ovvio che la perdita prestazionale ci sia
visto che i circuiti erano progettati per lavorare in modo differente.
Mi fa strano che inserendo dei controlli (o quanto meno un modo differente di lavoro) si possa ottenere la stessa prestazione degli stessi senza FIX.
Esempio la valanga di falle in HT (mi ricordo che era stato postato più volte che per una sicurezza CERTA andava disabilitato l'HT negli Xeon) era a causa di buffer nella L3 a cui le varie L2 potevano attingere più rapidamente. Se creare buffer porta falle, allora si devono eliminare i buffer, e senza buffer difficile che si abbiano le medesime prestazioni.
Non so come cacchio lavori al suo interno un procio per la sicurezza... ma mi sembra ovvio che AMD inserendo un procio ARM al suo interno con l'unico scopo della sicurezza, è pur sempre un qualcosa che genera latenza.
Non trovo logica l'equazione
meno controlli = meno latenza = falle
a
più controlli = stessa latenza = falle sparite.
paolo.oliva2
22-09-2020, 13:04
Secondo voi i nuovi Zen 3 colmeranno il gap con Intel per quanto riguarda il gaming?
Che poi tra l'altro è sempre stata l'unica pecca di queste cpu, per il resto superiori in tutto e per tutto.
la risposta è... nel tuo prox sistema game, hai intenzione di spendere 1000€ o più in VGA e nel contempo giocare a risoluzioni 1K?
Se no, i9, i10, Zen2, Zen3, nessuna differenza.
Se si... forse meglio aspettare Rocket Lake, perchè è presumibile che i miglioramenti di Zen3 siano più che sufficienti a colmare il divario di Zen2.
la risposta è... nel tuo prox sistema game, hai intenzione di spendere 1000€ o più in VGA e nel contempo giocare a risoluzioni 1K?
Se no, i9, i10, Zen2, Zen3, nessuna differenza.
Se si... forse meglio aspettare Rocket Lake, perchè è presumibile che i miglioramenti di Zen3 siano più che sufficienti a colmare il divario di Zen2.
Hai ragione. Molto probabilmente in questi casi intervengono anche fattori psicologici per cui sapere di avere una cpu che in certe condizioni performa meglio in gaming fa la differenza...
Da quel che ho capito, le falle hanno trovato terreno fertile nel modo in cui Intel ha cercato di velocizzare la ricerca/trasferimento dei dati da elaborare.
I fix adottano dei work-around, ed è ovvio che la perdita prestazionale ci sia
visto che i circuiti erano progettati per lavorare in modo differente.
Mi fa strano che inserendo dei controlli (o quanto meno un modo differente di lavoro) si possa ottenere la stessa prestazione degli stessi senza FIX.
La questione è semplice. Tutti i processori fanno branch prediction / speculative execution. Intel ha toppato nell'implementazione in hw di suddetti algoritmi, perché si è spinta troppo oltre a scapito della sicurezza dei dati.
Hanno messo una toppa sia lato hw sia con il microcode ma sono mitigation, non hanno risolto a livello di architettura.
Se ricordo bene, le patch microcode per mitigare spectre e meltdown tagliavano le prestazioni del 20% quando il workload simulato era quello di un DB (caso peggiore possibile).
Se intel tira fuori una nuova uArch pensata concettualmente in modo differente, in teoria potrebbe già recuperare diversi punti %.
Il problema è che ci sono tante variabili in gioco. Magari Intel ha già un'ottima uArch, ma le fonderie non ci stan dietro. O, magari, le fonderie sono già a livello di TSMC, ma la uArch nuova non è ancora all'altezza delle aspettative.
Sarebbe bello poter analizzare le perf di una cpu intel prodotta su wafer di TSMC e/o una cpu amd prodotta con i macchinari intel. :)
paolo.oliva2
22-09-2020, 21:01
La questione è semplice. Tutti i processori fanno branch prediction / speculative execution. Intel ha toppato nell'implementazione in hw di suddetti algoritmi, perché si è spinta troppo oltre a scapito della sicurezza dei dati.
Hanno messo una toppa sia lato hw sia con il microcode ma sono mitigation, non hanno risolto a livello di architettura.
Se ricordo bene, le patch microcode per mitigare spectre e meltdown tagliavano le prestazioni del 20% quando il workload simulato era quello di un DB (caso peggiore possibile).
Se intel tira fuori una nuova uArch pensata concettualmente in modo differente, in teoria potrebbe già recuperare diversi punti %.
Non metto bocca, come ho scritto, non so come lavora il procio al suo interno per la sicurezza. Però se branch prediction / speculative execution erano troppo "spinti", difficile ottenere la stessa performances.
Il problema è che ci sono tante variabili in gioco. Magari Intel ha già un'ottima uArch, ma le fonderie non ci stan dietro.
Intel non è AMD... Intel si può permettere di portare avanti lo sviluppo i9/i10, fare varianti a quella del 10nm (10nm con trasbordo al 14nm e idem al 7nm) e fare una stesura su quella del 7nm. Tra l'altro mi sembra sia quello che sta facendo... :)
O, magari, le fonderie sono già a livello di TSMC, ma la uArch nuova non è ancora all'altezza delle aspettative.
L'i9/i10 ha bisogno di frequenza per il minor IPC e il 10nm non sembra idoneo. Se avesse avuto un PP simile, allora si poteva pensare ad un 10900K sul 10nm con ~metà consumo o aumentare la frequenza a pari consumo.
Ma il vero problema, secondo me, ovviamente, è il tempo perso sul 10nm.
Siccome aumentare l'IPC ha il maggiore costo R&D, non è che ci si alza la mattina e si pensa a +30% di IPC... credo piuttosto che si applichi un obiettivo di X margine superiore sul concorrente e si cerca il miglior connubio con il silicio.
Se non sbaglio i problemi Intel sul 10nm combaciavano con la commercializzazione di Zen 1000 da parte di AMD... ed Intel aveva comunque un IPC superiore... quindi non credo/penso che Intel si sia dannata più di tanto sull'aumento IPC. Poi in un certo senso è stata costretta a farlo per via della frequenza inferiore del 10nm vs 14nm, ma il problema è che nello stesso tempo AMD è passata a Zen 2000 con +4-5% di IPC, poi a Zen 3000 con +15% di IPC e Zen 4000 dovrebbe avere un ulteriore +15%... quindi mi sembra ovvio che se Intel pensava ad un obiettivo nel 2017, non poteva più essere il medesimo nel 2018/2019/2020/2021.
Il problema è se non hai il silicio idoneo almeno per la produzione a rischio, fai fatica a concentrarti sull'architettura X, esempio sul 7nm, semplicemente perchè se non hai la minima idea del PP, non sai la risposta in frequenzza del silicio e quindi non sai su che base di IPC progettare l'architettura.
Non credo che Intel abbia le fonderie a livello TSMC... dover informare gli azionisti del ritardo di 1 anno del 7nm, sarà stata una doccia fredda. Se potesse produrre qualcosa sul 7nm, giusto per dire che l'ha, foss'anche una RAM, credo che sarebbe la prima cosa che farebbe domani.
Antivirusvivente
22-09-2020, 22:30
Non metto bocca, come ho scritto, non so come lavora il procio al suo interno per la sicurezza. Però se branch prediction / speculative execution erano troppo "spinti", difficile ottenere la stessa performances.
La mitigation, per spiegarla terra terra, consiste nello svuotare la cache ad ogni context change, questo causa un cache miss del dato che dovrà essere ricaricato in cache ogni volta.
Questo andrebbe messo in EVIDENZA qui dentro, specie in questo thread.
“Quando comprate una CPU guardate i benchmark, non il nodo (7 nm vs 14 nm vs 10 nm)”
Parole sante :rolleyes:
Io spero davvero che una manciata di utenti (quelli che ho spesso chiamato cheerleader :D) qui dentro lo guardino con attenzione e diventino più moderati nell’esprimere le proprie legittime preferenze verso uno o l’altro marchio.
Continuare a ripetere che “Intel è finita” perché scandalo scandalo sono fermi a 14 nm non significa nulla, perché quel 14 nm ha un significato diverso da quello che si crede.
Ciò non toglie che AMD stia producendo le migliori cpu, e che migliorerà ulteriormente con Zen 3, ma pensare che Rocket lake, ad esempio, sia già battuto in partenza solo perché è a 14 nm ancora significa non capire di cosa stiamo parlando. Così come i discorsi fatti qualche settimana fa del tipo “eh ma quando Intel sarà a 10 nm la nostra amata AMD sarà già a 5 nm”... si ok, allora ? Non significa che sarà migliore automaticamente per questo.
Ciao.
Allora cercherò di essere il più breve possibile; non è questione di capire o meno certe cose (che poi più che credere sarebbe un volerci credere con forza) ma di avere lo scenario ''chiaro''.
Permittimi, senza che sia un attacco e neppure una provocazione ma un semplice discussione....non hai chiaro cosa ho cercato di farti capire....non sono io che debba capire( io lo so da tempo che saremo arrivati a sto punto: DOMINIO; puoi vedere e leggere i miei post passati anche un pò prima di zen e pre-zen, senza che me ne interessa minimamente).
Te sei convinto (d'altronde come me e siamo 1 a 1 e palla centro campo!) che quel coso (rocket lake) che tanto menzioni faccia anche solo lontanamente il solletico a ZEN?...be la chiami, per quanto se ne sappiamo molto poco, nuova architettura quando dovremmo essere nel monolitico quando invece ha un paio di post che ti dico che il problema non c'entra assolutamente nulla il processo produttivo ma l'architettura multi-chip o chiplet.
Credi veramente che ci sia tutta quella percentuale di performance?....ammettiamo (come nel mobile il famoso 18% che poi non esiste che solo giocando con le velocità delle memorie e fine;perchè appunto non esiste...e lo sai cosa sto intendendo) che ci sia quella percentuale a cui tanto credi ma oltre i 10 core che cosa fai? cosa dici al mondo quando dall'altra parte hai un 16 core zen3 che spara fulmini da tutte le parti?:read: :eek:
Io di nuove architetture intendo sulla scia della strada che intendono proseguire e cioè ''Foveros e EMiB''(e quindi di logica conseguenza con core simili alla controparte; ad esempio 16 vs 16!!!:read: ecc ecc 32/48/64 )
https://www.hwupgrade.it/articoli/cpu/5618/la-intel-del-futuro-tra-nanometri-tecnologia-e-6-pilastri-di-crescita_index.html
Fintanto che non vedi una nuova cosa su questo è solo fantasia....ma capisco che a volte si crede perchè si è sempre creduto in un certo modo verso una certa realtà/colore.......ma la realtà è che a volte ci si può trovare veramente in difficoltà ....altrimenti perchè credi che ci sia un rimandare al 10 e poi altri problemi col 7nm.
Semplicemente, sempre secondo me, stanno pastrocchiando perchè in attesa della nuova concezione non sanno come fare per trasbordare ''architetture vecchie''(ottime perchè hanno dominato il mercato fino ad oggi) qua e là , infatti come mai anche nel mobile che le frequenze non sono importanti come nel desktop i modelli più ''potenti'' restano a 14nm e non a 10nm?...per intenderci quelle dove le frequenze sono in spinte in termini di turbo....il trasbordo sul 10nm è stato cancellato per questo motivo, secondo me, perchè ''non rendono''.
Alla fine tu hai la tua idea ed io ho la mia e pace a tutte e due.....non mi devi convincere di nulla, io t'ho solo detto le cose come starebbero; se poi tu vuoi crederci ok, rispetto la tua posizione.
Io ti dico solo che secondo me neppure uscirà quello a cui tanto credi, o le probabilità sono basse, perchè cosa te ne fai di fare uscire un 8 o 10 core quando la controparte ha il doppio dei core a circa parità di consumi?.....mica puoi tirare sempre in ballo la storiella del game come ? gli ultimi campioni di t@na delle ticri sono stati un ''flop'', nel senso che non hanno intaccato nessun parametro performance e ne watt in meno quanto nei giochi erano avanti anche con la serie 9....seppur hanno spinto un pizzico in più per le frequenze(ma figurati che differenza farebbero nel contesto).
Restiamo ciascuno delle nostre idee e aspettiamo come si avvererà il futuro prossimo che ci attende;....tanto ci sono abituato alle dette ''non sta ferma a guardare'', ''uscirà certamente '' ecc.....ma di fatti concreti zero patata fino ad oggi!
...aspettiamo e poi vedrai tu stesso ....ma speriamo che escano qualcosa che sia a concezione di chiplet AL PIU' PRESTO e poi man man (la base) la vanno scolpendo negli anni.....altrimenti (oggi non è ieri!!!...il tempo/gli esseri umani/e tutto il resto è diverso da un tempo) anche una realtà grande ed immensa può precipitare che manco ci crederesti se lo vedessi, fidati.
PS. non centra nulla il fanboysmo od altro...MA la fase di dominio deve avvenire comunque affinchè ci possa essere quello che pensi tu: un ritorno in campo stile quando uscì Conroe :read: ;)
dinamite2
23-09-2020, 05:45
Scusate dopo anni di intel ieri ho montato un ryzen 5 3600 su asus x570.
Non ho ancora installato il SO, ma entrando nel bios dell’asus mi sono accorto xhe segnava 40 gradi di cpu e 1,450 di vcore.
Ho caricato il profilo di default, ma segna sempre lo stesso voltaggio.
È normale?
Purtroppo è da anni che non mi aggiorno e non seguo bene l’evoluzione di queste cpu.
la risposta è... nel tuo prox sistema game, hai intenzione di spendere 1000€ o più in VGA e nel contempo giocare a risoluzioni 1K?
Se no, i9, i10, Zen2, Zen3, nessuna differenza.
Se si... forse meglio aspettare Rocket Lake, perchè è presumibile che i miglioramenti di Zen3 siano più che sufficienti a colmare il divario di Zen2.
Paolo purtroppo almeno con Zen 2 la situazione non è proprio quella che dici tu di “nessuna differenza”.
Un noto e serio sito (e relativo canale YouTube ) un mesetto fa ha fatto un sondaggio: cambiamo piattaforma di testing gaming, passando da 10900K a 3950X ? Dei quasi 65000 votanti, uno schiacciante 80% ha detto SI.
Così loro hanno cambiato...
Poi escono le nuove GeForce Serie 30 e fanno la review della 3080 e ... saltano fuori problemi. In alcuni giochi le prestazioni usando il Ryzen non sono allineate alla concorrenza, in 1080P ma anche a 1440P :rolleyes:
Così hanno fatto una comparativa usando le due cpu, Intel ed AMD. I risultati sono per me un po’ sconfortanti.
IN GENERALE si può dire che a 4K la differenza è ZERO, mentre a 1440P la differenza è attestata su una media del 5% a favore di Intel, che sale ad un 8% a 1080P (tutti con dettaglio Ultra).
Già così il panorama non è esaltante: concordo che il 1080P per hardware del genere sia sprecato, e che se si parla di 200 FPS, anche un 8% di differenza ha impatto nullo sulla giocabilitá, ma a 1440P il 5% è un numero che avrei sperato di non vedere e che senza dubbio infastidisce l’appassionato che spende tanti soldi per una cpu ed una vga di fascia alta.
Quello che è peggio è che si tratta DELLA MEDIA rilevata su una quindicina di giochi, non di un comportamento omogeneo. Quindi fosse il 5% ovunque sarebbe più semplice da digerire, ma mentre abbiamo alcuni giochi, come Tomb Raider o AC Odyssey, dove anche a 1440 le differenze sono nulle (su SoTR addirittura gira meglio sul Ryzen), in altri come Gears 5 o Metro Exodus o Hitman 2 le differenze sono marcate anche a 1440P :rolleyes:
E non sono dipendenti dalle API usate, perché alcuni sono DX11, altri DX12 ed altri ancora Vulkan...
Al punto che il sito si chiede se sia stato o meno un errore usare il Ryzen come benchmark (la loro risposta è “si... e no” ).
Per loro come sito di review ha senso porsi la domanda, per noi come utenti finali il rischio di trovarsi un gioco che viene mal digerito dal nostro Ryzen purtroppo è concreto :boh:
FS2020 allo stato attuale ad esempio lo è... :rolleyes:
https://www.techspot.com/article/2103-amd-vs-intel-rtx-3080/
Insomma per onestà intellettuale se si parla di SOLO GAMING non puoi minimizzare e devi dire a chi chiede consiglio che la piattaforma da scegliere è Intel se non si vogliono sorprese.
Per un uso diverso o misto invece il discorso cambia (ed avendo vantaggi a ... 359° si può accettare il rischio di beccare un gioco dove il nostro hardware non sarà sfruttato in pieno).
Sinceramente spero che Zen3 cancelli anche questo gap.
Scusate dopo anni di intel ieri ho montato un ryzen 5 3600 su asus x570.
Non ho ancora installato il SO, ma entrando nel bios dell’asus mi sono accorto xhe segnava 40 gradi di cpu e 1,450 di vcore.
Ho caricato il profilo di default, ma segna sempre lo stesso voltaggio.
È normale?
Purtroppo è da anni che non mi aggiorno e non seguo bene l’evoluzione di queste cpu.
Che dissipatore usi ?
I 1.45 V di core sono normali sui Ryzen a basso carico. Al limite se vuoi dare una limata a temperatura e tensione, abilità l’offset e metti -0.05 / -0.0625 V e testa per vedere se resta stabile e non perdi in prestazioni (non dovresti con quei valori, ma ogni cpu fa storia a se). Assolutamente non esagerare con l’undervolt altrimenti la cpu rallenta.
conan_75
23-09-2020, 06:16
Paolo purtroppo almeno con Zen 2 la situazione non è proprio quella che dici tu di “nessuna differenza”.
Un noto e serio sito (e relativo canale YouTube ) un mesetto fa ha fatto un sondaggio: cambiamo piattaforma di testing gaming, passando da 10900K a 3950X ? Dei quasi 65000 votanti, uno schiacciante 80% ha detto SI.
Così loro hanno cambiato...
Poi escono le nuove GeForce Serie 30 e fanno la review della 3080 e ... saltano fuori problemi. In alcuni giochi le prestazioni usando il Ryzen non sono allineate alla concorrenza, in 1080P ma anche a 1440P :rolleyes:
Così hanno fatto una comparativa usando le due cpu, Intel ed AMD. I risultati sono per me un po’ sconfortanti.
IN GENERALE si può dire che a 4K la differenza è ZERO, mentre a 1440P la differenza è attestata su una media del 5% a favore di Intel, che sale ad un 8% a 1080P (tutti con dettaglio Ultra).
Già così il panorama non è esaltante: concordo che il 1080P per hardware del genere sia sprecato, e che se si parla di 200 FPS, anche un 8% di differenza ha impatto nullo sulla giocabilitá, ma a 1440P il 5% è un numero che avrei sperato di non vedere e che senza dubbio infastidisce l’appassionato che spende tanti soldi per una cpu ed una vga di fascia alta.
Quello che è peggio è che si tratta DELLA MEDIA rilevata su una quindicina di giochi, non di un comportamento omogeneo. Quindi fosse il 5% ovunque sarebbe più semplice da digerire, ma mentre abbiamo alcuni giochi, come Tomb Raider o AC Odyssey, dove anche a 1440 le differenze sono nulle (su SoTR addirittura gira meglio sul Ryzen), in altri come Gears 5 o Metro Exodus o Hitman 2 le differenze sono marcate anche a 1440P :rolleyes:
E non sono dipendenti dalle API usate, perché alcuni sono DX11, altri DX12 ed altri ancora Vulkan...
Al punto che il sito si chiede se sia stato o meno un errore usare il Ryzen come benchmark (la loro risposta è “si... e no” ).
Per loro come sito di review ha senso porsi la domanda, per noi come utenti finali il rischio di trovarsi un gioco che viene mal digerito dal nostro Ryzen purtroppo è concreto :boh:
FS2020 allo stato attuale ad esempio lo è... :rolleyes:
https://www.techspot.com/article/2103-amd-vs-intel-rtx-3080/
Insomma per onestà intellettuale se si parla di SOLO GAMING non puoi minimizzare e devi dire a chi chiede consiglio che la piattaforma da scegliere è Intel se non si vogliono sorprese.
Per un uso diverso o misto invece il discorso cambia (ed avendo vantaggi a ... 359° si può accettare il rischio di beccare un gioco dove il nostro hardware non sarà sfruttato in pieno).
Sinceramente spero che Zen3 cancelli anche questo gap.
Però riprendo dallo stesso articolo:
There are a few things we could have done to reduce that margin, like using faster memory.*DDR4-3800*CL16 boosts performance by about 4%, and then manually tuning the timings can boost performance by a further 14%. At least this is what we saw at 1080p with the RTX 2080 Ti. In hindsight, maybe that's something we should have done, but we opted not to as tuning memory timings on a test system can get complicated, and also risk causing stability issues.
dinamite2
23-09-2020, 06:27
Che dissipatore usi ?
I 1.45 V di core sono normali sui Ryzen a basso carico. Al limite se vuoi dare una limata a temperatura e tensione, abilità l’offset e metti -0.05 / -0.0625 V e testa per vedere se resta stabile e non perdi in prestazioni (non dovresti con quei valori, ma ogni cpu fa storia a se). Assolutamente non esagerare con l’undervolt altrimenti la cpu rallenta.
Ah ok perfetto grazie, onestamente mi ero preoccupato leggendo quel valore di vcore.
Ho pensato che la scheda madre (asus x570-e) sparasse voltaggi a caso.
Come dissipatore ho preso un Ek-AIO- 360 D-rgb.
Ciao.
Allora cercherò di essere il più breve possibile; non è questione di capire o meno certe cose (che poi più che credere sarebbe un volerci credere con forza) ma di avere lo scenario ''chiaro''.
Permittimi, senza che sia un attacco e neppure una provocazione ma un semplice discussione....non hai chiaro cosa ho cercato di farti capire....non sono io che debba capire( io lo so da tempo che saremo arrivati a sto punto: DOMINIO; puoi vedere e leggere i miei post passati anche un pò prima di zen e pre-zen, senza che me ne interessa minimamente).
Te sei convinto (d'altronde come me e siamo 1 a 1 e palla centro campo!) che quel coso (rocket lake) che tanto menzioni faccia anche solo lontanamente il solletico a ZEN?...be la chiami, per quanto se ne sappiamo molto poco, nuova architettura quando dovremmo essere nel monolitico quando invece ha un paio di post che ti dico che il problema non c'entra assolutamente nulla il processo produttivo ma l'architettura multi-chip o chiplet.
Credi veramente che ci sia tutta quella percentuale di performance?....ammettiamo (come nel mobile il famoso 18% che poi non esiste che solo giocando con le velocità delle memorie e fine;perchè appunto non esiste...e lo sai cosa sto intendendo) che ci sia quella percentuale a cui tanto credi ma oltre i 10 core che cosa fai? cosa dici al mondo quando dall'altra parte hai un 16 core zen3 che spara fulmini da tutte le parti?:read: :eek:
Io di nuove architetture intendo sulla scia della strada che intendono proseguire e cioè ''Foveros e EMiB''(e quindi di logica conseguenza con core simili alla controparte; ad esempio 16 vs 16!!!:read: ecc ecc 32/48/64 )
https://www.hwupgrade.it/articoli/cpu/5618/la-intel-del-futuro-tra-nanometri-tecnologia-e-6-pilastri-di-crescita_index.html
Fintanto che non vedi una nuova cosa su questo è solo fantasia....ma capisco che a volte si crede perchè si è sempre creduto in un certo modo verso una certa realtà/colore.......ma la realtà è che a volte ci si può trovare veramente in difficoltà ....altrimenti perchè credi che ci sia un rimandare al 10 e poi altri problemi col 7nm.
Semplicemente, sempre secondo me, stanno pastrocchiando perchè in attesa della nuova concezione non sanno come fare per trasbordare ''architetture vecchie''(ottime perchè hanno dominato il mercato fino ad oggi) qua e là , infatti come mai anche nel mobile che le frequenze non sono importanti come nel desktop i modelli più ''potenti'' restano a 14nm e non a 10nm?...per intenderci quelle dove le frequenze sono in spinte in termini di turbo....il trasbordo sul 10nm è stato cancellato per questo motivo, secondo me, perchè ''non rendono''.
Alla fine tu hai la tua idea ed io ho la mia e pace a tutte e due.....non mi devi convincere di nulla, io t'ho solo detto le cose come starebbero; se poi tu vuoi crederci ok, rispetto la tua posizione.
Io ti dico solo che secondo me neppure uscirà quello a cui tanto credi, o le probabilità sono basse, perchè cosa te ne fai di fare uscire un 8 o 10 core quando la controparte ha il doppio dei core a circa parità di consumi?.....mica puoi tirare sempre in ballo la storiella del game come ? gli ultimi campioni di t@na delle ticri sono stati un ''flop'', nel senso che non hanno intaccato nessun parametro performance e ne watt in meno quanto nei giochi erano avanti anche con la serie 9....seppur hanno spinto un pizzico in più per le frequenze(ma figurati che differenza farebbero nel contesto).
Restiamo ciascuno delle nostre idee e aspettiamo come si avvererà il futuro prossimo che ci attende;....tanto ci sono abituato alle dette ''non sta ferma a guardare'', ''uscirà certamente '' ecc.....ma di fatti concreti zero patata fino ad oggi!
...aspettiamo e poi vedrai tu stesso ....ma speriamo che escano qualcosa che sia a concezione di chiplet AL PIU' PRESTO e poi man man (la base) la vanno scolpendo negli anni.....altrimenti (oggi non è ieri!!!...il tempo/gli esseri umani/e tutto il resto è diverso da un tempo) anche una realtà grande ed immensa può precipitare che manco ci crederesti se lo vedessi, fidati.
PS. non centra nulla il fanboysmo od altro...MA la fase di dominio deve avvenire comunque affinchè ci possa essere quello che pensi tu: un ritorno in campo stile quando uscì Conroe :read: ;)
Alcune precisazioni.
1) io su Rocket lake non ho nessuna convinzione. Semplicemente a differenza tua non lo bollo già in partenza come un flop (solo perché a 14 nm) sia perché so cosa significa quel “14 nm” sia perché Willow Cove è una nuova architettura , quindi a differenza tua almeno il beneficio del dubbio lo concedo. Che poi io sono IL PRIMO a dover teoricamente augurarsi non sia un buon prodotto, visto che SICURAMENTE non lo comprerò avendo investito su piattaforma AMD, ma per onestà intellettuale aspetto di vedere prima di giudicare;
2) ad oggi lo “zero patata” ancora rifila ai nostri amati Ryzen sonore scoppole (vedasi articolo sopra) in ambito gaming, il che indica che la tua analisi di “14<7” e “16C > 10C” è, come sottolineato dal mio commento, imprecisa e non applicabile in tutti i campi.
Per il resto non ho alcuna intenzione di fare cambiare idea a nessuno (sarebbe tempo sprecato), ma per formazione culturale come ho controbattuto al supporter Intel che è venuto qui dentro a fare disinformazione sullo stato dell’offerta commerciale AMD, controbatto alle cheerleader che vedono dominio e rovina e parlano di “ble e rosso” :p
Senza per questo metterla sul personale o voler cambiare la tua opinione, che in quanto tale resta tua ed hai tutto il diritto di esporla.
Ah ok perfetto grazie, onestamente mi ero preoccupato leggendo quel valore di vcore.
Ho pensato che la scheda madre (asus x570-e) sparasse voltaggi a caso.
Come dissipatore ho preso un Ek-AIO- 360 D-rgb.
Le Asus (ne ho una anche io) sono allegre sui voltaggi, ma con i Ryzen è abbastanza normale quel valore.
Prova l’offset come ti ho suggerito, senza esagerare
Però riprendo dallo stesso articolo:
There are a few things we could have done to reduce that margin, like using faster memory.*DDR4-3800*CL16 boosts performance by about 4%, and then manually tuning the timings can boost performance by a further 14%. At least this is what we saw at 1080p with the RTX 2080 Ti. In hindsight, maybe that's something we should have done, but we opted not to as tuning memory timings on a test system can get complicated, and also risk causing stability issues.
beh hanno usato XMP per l'una e l'altra piattaforma (anche su base Intel puoi fare fine tuning delle DDR eh).
Ma per una comparativa mi sembra equo, anche perché il tuning delle memorie non è una scienza esatta e quello che per te può funzionare bene per un altro può creare instabilità.
In generale nelle review non mi piace considerare overclock in nessun componente perché è qualcosa di troppo variabile...
Possiamo girarci intorno quanto vogliamo, ma la differenza in gaming per adesso rimane. Io credevo che almeno a 1440P con le nuove VGA fosse nulla, invece è cosi solo a 4K. Che poi non sia significativa per me (o anche per te immagino) è un altro discorso assolutamente vero, ma il mio riferimento era all'utente che parlava di "uso gaming".
In quel caso finora io ho sempre consigliato Intel (beh non certo il 10900K, che è assurdo, sia chiaro, ma un 10600K o 10700K).
Il 6 ottobre magari sarà il momento in cui potrei consigliare un 5600X, chissà:boh:
Alcune precisazioni.
1) io su Rocket lake non ho nessuna convinzione. Semplicemente a differenza tua non lo bollo già in partenza come un flop (solo perché a 14 nm) sia perché so cosa significa quel “14 nm” sia perché Willow Cove è una nuova architettura , quindi a differenza tua almeno il beneficio del dubbio lo concedo. Che poi io sono IL PRIMO a dover teoricamente augurarsi non sia un buon prodotto, visto che SICURAMENTE non lo comprerò avendo investito su piattaforma AMD, ma per onestà intellettuale aspetto di vedere prima di giudicare;
2) ad oggi lo “zero patata” ancora rifila ai nostri amati Ryzen sonore scoppole (vedasi articolo sopra) in ambito gaming, il che indica che la tua analisi di “14<7” e “16C > 10C” è, come sottolineato dal mio commento, imprecisa e non applicabile in tutti i campi.
Per il resto non ho alcuna intenzione di fare cambiare idea a nessuno (sarebbe tempo sprecato), ma per formazione culturale come ho controbattuto al supporter Intel che è venuto qui dentro a fare disinformazione sullo stato dell’offerta commerciale AMD, controbatto alle cheerleader che vedono dominio e rovina e parlano di “ble e rosso” :p
Senza per questo metterla sul personale o voler cambiare la tua opinione, che in quanto tale resta tua ed hai tutto il diritto di esporla.
Bene ad ognuno il suo.
Per quanto riguarda la parola ''flop'' non intendo in assoluto, l'ho specificato prima, ma semplicemente nel complesso dell'offerta della controparte mancano il numero di core e consumi/numero di core; ...poi per il game siamo rimasti che c'è quel che c'era prima con la serie 9 è rimasta con la 10.(insomma nulla di nuovo o cambiato).
Io per architettura nuova intendo quelli relativi al link che ti ho postato sopra e alle parole ''Foveros e EMiB''; ...è non mi sembra.
Il mio augurio che si diano presto a queste concezioni di architetture da loro stessi menzionati.
Per quanto riguarda i giochi nessuno sostiene quel 9-10% in full HD 5% in 2k e zero a 4k, non sia vero, ci mancherebbe.....però capisci anche che è l'unica cosa a vantaggio che resta del ble, te l'ho domandi? :(
Per quanto riguarda la teoria del ''tappo'' (Per me è incredibile solo a crederci, ma di sti tempi se ne fanno scoperte scientifiche ogni giorno si che supera il numero stesso da quanto nacque la parola scienza) con le ultime schede verde non vedo cosa sia cambiato rispetto al rapporto di prima tale da evidenziarlo con tale termine?...cioè se i famosi numeri sono rimasti circa gli stessi 10%full/5% 2k/ e 1-2%4k...boh e chi ci capisce cosa?(insomma lo scenario resta quello ma non capisco perchè viene rievocato per dire qualcosa che nonostante sia la stessa cosa che c'era prima oggi acquisisce altra sfumatura....mah).
Aspettiamo va che esca zen3 ...che questo scempio informazionale possa finire presto!
Tanto secondo me uscirà una cosa così:
https://www.hwupgrade.it/news/cpu/intel-incapacita-di-competere-da-parte-di-amd_31298-30.html :read: :rotfl: :rotfl: :rotfl:
...e le parole tornano indietro ...vedrai che col 5nm a voglia di fiumi di pianto ble....vedrai!;)
Altro che ripresa....altro che ''grosso o piccolo o lungo o corto''...una volta al rosso ed una volta al ble.;)
Ti ricordo che threadripper ed EPYC estistono da soli e tra un poco si aggiungerà tutto il resto con zen3!!!...in attesa che tutto passi al 5nm e fine della storia!
beh hanno usato XMP per l'una e l'altra piattaforma (anche su base Intel puoi fare fine tuning delle DDR eh).
Ma per una comparativa mi sembra equo, anche perché il tuning delle memorie non è una scienza esatta e quello che per te può funzionare bene per un altro può creare instabilità.
In generale nelle review non mi piace considerare overclock in nessun componente perché è qualcosa di troppo variabile...
Possiamo girarci intorno quanto vogliamo, ma la differenza in gaming per adesso rimane. Io credevo che almeno a 1440P con le nuove VGA fosse nulla, invece è cosi solo a 4K. Che poi non sia significativa per me (o anche per te immagino) è un altro discorso assolutamente vero, ma il mio riferimento era all'utente che parlava di "uso gaming".
In quel caso finora io ho sempre consigliato Intel (beh non certo il 10900K, che è assurdo, sia chiaro, ma un 10600K o 10700K).
Il 6 ottobre magari sarà il momento in cui potrei consigliare un 5600X, chissà:boh:
Ma scusami come fai ad averlo creduto???
Se una cpu è più veloce lo resta lo stesso anche se si cambia gpu più potente...che dici? :)
La cpu ble è più veloce perchè il suo accesso alla ram è ''più veloce'' con tanto di latenza minore rispetto a ryzen.
E' solo una questione di ''latenza'' ....ma il core ryzen in assoluto resta più veloce (perchè qualcosa che sia più efficiente è anche più veloce) ma a livello di interfacciamento con la ram tramite il suo controller lascia desiderare....certamente centra anche il monolitico vs multi-chip.
Se scendono questo con zen3 non c'è, secondo me, assolutamente bisogno di chissa quale cose per pareggiare nei giochi.
LentapoLenta
23-09-2020, 08:59
Però riprendo dallo stesso articolo:
There are a few things we could have done to reduce that margin, like using faster memory.*DDR4-3800*CL16 boosts performance by about 4%, and then manually tuning the timings can boost performance by a further 14%. At least this is what we saw at 1080p with the RTX 2080 Ti. In hindsight, maybe that's something we should have done, but we opted not to as tuning memory timings on a test system can get complicated, and also risk causing stability issues.
Mettere in evidenza solo ciò che è funzionale al proprio discorso è una tecnica vecchia come il mondo... basterebbe poi non sciacquarsi la bocca con frasi tipo "onestà intellettuale". :rolleyes:
Bene ad ognuno il suo.
Per quanto riguarda la parola ''flop'' non intendo in assoluto, l'ho specificato prima, ma semplicemente nel complesso dell'offerta della controparte mancano il numero di core e consumi/numero di core; ...poi per il game siamo rimasti che c'è quel che c'era prima con la serie 9 è rimasta con la 10.(insomma nulla di nuovo o cambiato).
e quando capirai che il numero di core conta solo in alcuni campi ?
Ok quando Intel per anni ci propinava 4C, magari senza HT, ma oggi che COME MINIMO offrono soluzioni 6C/12T, con il grosso dell'offerta su 8C/12T, per la stragrande maggioranza dell'utenza, anche esigente, sono una soluzione valida.
E comunque anche AMD i numeri di vendita li fa soprattutto su 3600/3700X che sono 6C ed 8C...
E non è vero che Intel dalla serie 9 alla serie 10 non ha cambiato nulla: i Comet Lake vanno più veloce e scaldano meno (nuovo IHS). Potrà non affascinarci per i consumi, ma di certo ha portato miglioramenti.
Io per architettura nuova intendo quelli relativi al link che ti ho postato sopra e alle parole ''Foveros e EMiB''; ...è non mi sembra.
Il mio augurio che si diano presto a queste concezioni di architetture da loro stessi menzionati.
questo lo dirà solo il tempo. Ma Willow Cove è una nuova architettura, questo è un dato di fatto. Quanto meglio andrà lo vedremo immagino ad inizio 2021...
Per quanto riguarda i giochi nessuno sostiene quel 9-10% in full HD 5% in 2k e zero a 4k, non sia vero, ci mancherebbe.....però capisci anche che è l'unica cosa a vantaggio che resta del ble, te l'ho domandi? :(
beh il gaming non è una cosa da poco, ma un elemento trainante del settore.
E poi non è cosi, hai una visione molto ristretta della faccenda.
Physic Simulation:
https://tpucdn.com/review/intel-core-i9-10900k/images/physics-simulation.png
Excel:
https://tpucdn.com/review/intel-core-i9-10900k/images/excel.png
Photoshop:
https://tpucdn.com/review/intel-core-i9-10900k/images/photoshop.png
3D Modeling from photos:
https://tpucdn.com/review/intel-core-i9-10900k/images/photogrammetry.png
Sono tanti i campi in cui le CPU Intel se la cavano benissimo, per architettura o per ottimizzazioni dei software stessi.
Oh, ti ho citato Photoshop ed Office, tutta roba che non usa nessuno, vero ?
Insomma al di la del tuo "ble", sei disinformato su quello che è lo stato attuale dei fatti.
AMD ha la soluzione più avanzata tecnologicamente e di gran lunga più efficiente, ma NON la più veloce in assoluto.
Come sempre dipende dal campo di utilizzo.
Per quanto riguarda la teoria del ''tappo'' (Per me è incredibile solo a crederci, ma di sti tempi se ne fanno scoperte scientifiche ogni giorno si che supera il numero stesso da quanto nacque la parola scienza) con le ultime schede verde non vedo cosa sia cambiato rispetto al rapporto di prima tale da evidenziarlo con tale termine?...cioè se i famosi numeri sono rimasti circa gli stessi 10%full/5% 2k/ e 1-2%4k...boh e chi ci capisce cosa?(insomma lo scenario resta quello ma non capisco perchè viene rievocato per dire qualcosa che nonostante sia la stessa cosa che c'era prima oggi acquisisce altra sfumatura....mah).
acquisisce un altra sfumatura perché ad esempio il tanto acclamato PCIE 4.0 anche su questa generazione di VGA sembra contare meno del due di picche, ad esempio, mentre ci si aspettava magari un vantaggio sui chipset AMD.
Aspettiamo va che esca zen3 ...che questo scempio informazionale possa finire presto!
Tanto secondo me uscirà una cosa così:
https://www.hwupgrade.it/news/cpu/intel-incapacita-di-competere-da-parte-di-amd_31298-30.html :read: :rotfl: :rotfl: :rotfl:
...e le parole tornano indietro ...vedrai che col 5nm a voglia di fiumi di pianto ble....vedrai!;)
Altro che ripresa....altro che ''grosso o piccolo o lungo o corto''...una volta al rosso ed una volta al ble.;)
Ti ricordo che threadripper ed EPYC estistono da soli e tra un poco si aggiungerà tutto il resto con zen3!!!...in attesa che tutto passi al 5nm e fine della storia!
e qui hai svalvolato di nuovo ... :mbe: :rolleyes: :rolleyes:
Ti ricordo che EPYC e TR, per quanto fantastici, esistono e continuano ad essere una piccola percentuale del mercato per ora.
Insomma, non sempre avere il prodotto sulla carta migliore significa condannare la concorrenza all'estinzione.
Nautilu$
23-09-2020, 09:07
Intel, per non perdere troppo guadagni rispetto a quello che può intascarsi Amd con il risparmio dovuto al design chiplet, prima o poi passerà anch'essa ad una sorta di MCM, e lì probabilmente inizierà a non avere più il vantaggio che ha ora nei giochi....
...quindi forse la prossima serie 11 (e 12...) potrebbero essere le ultime "più adatte" ai giochi....
e dopo? Lì si vedrà chi avrà l'architettura migliore per avere tutto al top!
È anche vero che , con le Fab di proprietà, potrebbe riuscire a fare 2 linee di CPU: una monolitica (fino a 8 core per i giochi) e una non.... però i risparmi di avere un unico chiplet sia per il mainstream che per il professionale, andrebbero in parte persi....
Stessa cosa potrebbe pensarla AMD, se interessa realmente la cosa, ma sulla bilancia, vale la pena? (considerando anche che è già infilata totalmente nel mondo console...)
Mettere in evidenza solo ciò che è funzionale al proprio discorso è una tecnica vecchia come il mondo... basterebbe poi non sciacquarsi la bocca con frasi tipo "onestà intellettuale". :rolleyes:
te l'hanno detto vero che anche sulla piattaforma Intel puoi fare fine tuning delle RAM ?
Quanto al "funzionale al proprio discorso" , quell'articolo non l'ho scritto io, ma una nota e famosa testata (con relativo enorme canale YouTube).
Sono stati loro a chiedersi se non hanno fatto uno sbaglio ad usare un Ryzen, non io...
Ma scusami come fai ad averlo creduto???
Se una cpu è più veloce lo resta lo stesso anche se si cambia gpu più potente...che dici? :)
La cpu ble è più veloce perchè il suo accesso alla ram è ''più veloce'' con tanto di latenza minore rispetto a ryzen.
E' solo una questione di ''latenza'' ....ma il core ryzen in assoluto resta più veloce (perchè qualcosa che sia più efficiente è anche più veloce) ma a livello di interfacciamento con la ram tramite il suo controller lascia desiderare....certamente centra anche il monolitico vs multi-chip.
Se scendono questo con zen3 non c'è, secondo me, assolutamente bisogno di chissa quale cose per pareggiare nei giochi.
beh a quanto pare la cosa non ha stupito solo me, visto che quell'articolo non l'ho scritto io :boh:
Quando sono passati dal 10900K al 3950X si aspettavano che con la nuova generazione di GPU la differenza si assottigliasse, da qui l'articolo in cui si sono chiesti: abbiamo fatto un errore ad usare il Ryzen ?
Con Zen 3 questi discorsi spariranno del tutto ? Spero proprio di si !
Intel, per non perdere troppo guadagni rispetto a quello che può intascarsi Amd con il risparmio dovuto al design chiplet, prima o poi passerà anch'essa ad una sorta di MCM, e lì probabilmente inizierà a non avere più il vantaggio che ha ora nei giochi....
...quindi forse la prossima serie 11 (e 12...) potrebbero essere le ultime "più adatte" ai giochi....
e dopo? Lì si vedrà chi avrà l'architettura migliore per avere tutto al top!
È anche vero che , con le Fab di proprietà, potrebbe riuscire a fare 2 linee di CPU: una monolitica (fino a 8 core per i giochi) e una non.... però i risparmi di avere un unico chiplet sia per il mainstream che per il professionale, andrebbero in parte persi....
Stessa cosa potrebbe pensarla AMD, se interessa realmente la cosa, ma sulla bilancia, vale la pena? (considerando anche che è già infilata totalmente nel mondo console...)
beh vediamo Zen 3 prima di dirlo...
Magari AMD ci dimostrerà che si può usare MCM mitigandone i limiti :boh:
Nel futuro di Intel si sussurrava di architetture big.LITTLE, che io vedrei più facili da realizzare in MCM che in monolitico.
te l'hanno detto vero che anche sulla piattaforma Intel puoi fare fine tuning delle RAM ?
Quanto al "funzionale al proprio discorso" , quell'articolo non l'ho scritto io, ma una nota e famosa testata (con relativo enorme canale YouTube).
Sono stati loro a chiedersi se non hanno fatto uno sbaglio ad usare un Ryzen, non io...
beh a quanto pare la cosa non ha stupito solo me, visto che quell'articolo non l'ho scritto io :boh:
Quando sono passati dal 10900K al 3950X si aspettavano che con la nuova generazione di GPU la differenza si assottigliasse, da qui l'articolo in cui si sono chiesti: abbiamo fatto un errore ad usare il Ryzen ?
Con Zen 3 questi discorsi spariranno del tutto ? Spero proprio di si !che è quello che si diceva pagine fa, ma si veniva zittiti con un "ZERO DIFFERENZE! AMD MOLTO MEGLIO!"
un 10900K in OC consuma 50W in più di un 3900X e costa poco di più. Si perdono 2 core ma si guadagnano 5.1ghz all core. Da raffreddare è come un 3900X, che è un forno nuclerare.
Non è una soluzione elegante, ma è una soluzione che performa. C'è anche un confronto di jay2cents, in alcuni giochi c'è una differenza di 20-30 fps a 2k, che non è poco, su una baseline di 110.
E i giochi non sono tutto, ma sicuramente c'è più gente che gioca col pc rispetto a chi compila codice o usa blender.
Poi io sono contento del 3900X, però non mi è mai sembrata una scelta senza compromessi, come già detto, soprattutto per OC limitato e le frequenze di clock.
che è quello che si diceva pagine fa, ma si veniva zittiti con un "ZERO DIFFERENZE! AMD MOLTO MEGLIO!"
un 10900K in OC consuma 50W in più di un 3900X e costa poco di più. Si perdono 2 core ma si guadagnano 5.1ghz all core. Da raffreddare è come un 3900X, che è un forno nuclerare.
Non è una soluzione elegante, ma è una soluzione che performa. C'è anche un confronto di jay2cents, in alcuni giochi c'è una differenza di 20-30 fps a 2k, che non è poco, su una baseline di 110.
E i giochi non sono tutto, ma sicuramente c'è più gente che gioca col pc rispetto a chi compila codice o usa blender.
Poi io sono contento del 3900X, però non mi è mai sembrata una scelta senza compromessi, come già detto, soprattutto per OC limitato e le frequenze di clock.
ma come vedi io ho una posizione molto "moderata" in materia, ed anch'io so che il 3900X, che sto apprezzando molto, è una scelta che ha comportato dei compromessi in alcuni dei miei campi di utilizzo (Office ad esempio non è affatto marginale nel mio uso quotidiano ).
Ma qui dentro ALCUNI utenti (sottolineo ALCUNI, perché altri sono disponibilissimi al dialogo da punti di vista differenti) sono totalmente "integralisti AMD" e non accettano il contraddittorio :boh:
Unica nota a quanto hai scritto: tra un 10900K ed un 3900X sotto carico ci sono più di 50 W di differenza, di certo.
Antivirusvivente
23-09-2020, 09:42
News sul futuro: pare che rembrandt sarà a 6nm, che sia un 7nm++?
https://wccftech.com/amd-rembrandt-ryzen-apus-feature-enhanced-zen-3-cpu-rdna-2-gpu-cores-6nm-process/
PS Riguardo l'articolo, qualcuno mi spiega la differenza fra Van Gogh e Cezanne? Saranno entrambe APU, ma ad occhio guardando il badge CVML potrebbe la prima essere destinata ad un mercato più enthusiast?
Locketto
23-09-2020, 09:58
News sul futuro: pare che rembrandt sarà a 6nm, che sia un 7nm++?
https://wccftech.com/amd-rembrandt-ryzen-apus-feature-enhanced-zen-3-cpu-rdna-2-gpu-cores-6nm-process/
PS Riguardo l'articolo, qualcuno mi spiega la differenza fra Van Gogh e Cezanne? Saranno entrambe APU, ma ad occhio guardando il badge CVML potrebbe la prima essere destinata ad un mercato più enthusiast?
Early 2021 – AMD Ryzen 5000 “Cezanne” 7nm laptop chips with Zen 3 CPU cores and Vega graphics
Early 2021 – AMD “Van Gogh” 7nm chips with Zen 2 CPU cores and Navi 2 graphics (for computer vision/machine learning?)
Mid 2021 – AMD “Warhol” 7nm desktop chips with Zen 3 graphics and PCIe 4 support
Early 2022 – AMD “Rembrandt” laptop chips with Radeon Navi 2 graphics
Early 2022 – AMD “Dragon Crest” follow-up to “Van Gogh”
Mid 2022 – AMD “Raphael” desktop chips
Piedone1113
23-09-2020, 10:01
News sul futuro: pare che rembrandt sarà a 6nm, che sia un 7nm++?
https://wccftech.com/amd-rembrandt-ryzen-apus-feature-enhanced-zen-3-cpu-rdna-2-gpu-cores-6nm-process/
PS Riguardo l'articolo, qualcuno mi spiega la differenza fra Van Gogh e Cezanne? Saranno entrambe APU, ma ad occhio guardando il badge CVML potrebbe la prima essere destinata ad un mercato più enthusiast?
Memory controller diverso?:
LPD5 LPD4x per Vangogh + RNDA2
Mentre LPD4x per Cezanne e vega 7
News sul futuro: pare che rembrandt sarà a 6nm, che sia un 7nm++?
https://wccftech.com/amd-rembrandt-ryzen-apus-feature-enhanced-zen-3-cpu-rdna-2-gpu-cores-6nm-process/
PS Riguardo l'articolo, qualcuno mi spiega la differenza fra Van Gogh e Cezanne? Saranno entrambe APU, ma ad occhio guardando il badge CVML potrebbe la prima essere destinata ad un mercato più enthusiast?
ma esiste un nodo TSMC a 6 nm ?? :mbe:
Locketto
23-09-2020, 10:19
ma esiste un nodo TSMC a 6 nm ?? :mbe:
A quanto pare si nella roadmap postata su techpowerup
https://www.techpowerup.com/img/t0L4aARlFfrFrsUb.jpg
cmq perchè i leaker fanno gli stronzi e non postano la foto intera di amd :muro:
leoneazzurro
23-09-2020, 10:29
che è quello che si diceva pagine fa, ma si veniva zittiti con un "ZERO DIFFERENZE! AMD MOLTO MEGLIO!"
un 10900K in OC consuma 50W in più di un 3900X e costa poco di più. Si perdono 2 core ma si guadagnano 5.1ghz all core. Da raffreddare è come un 3900X, che è un forno nuclerare.
Non è una soluzione elegante, ma è una soluzione che performa. C'è anche un confronto di jay2cents, in alcuni giochi c'è una differenza di 20-30 fps a 2k, che non è poco, su una baseline di 110.
E i giochi non sono tutto, ma sicuramente c'è più gente che gioca col pc rispetto a chi compila codice o usa blender.
Poi io sono contento del 3900X, però non mi è mai sembrata una scelta senza compromessi, come già detto, soprattutto per OC limitato e le frequenze di clock.
Beh, i confronti si fanno stock, dove la differenza di consumo tra un 10900K e un 3900X è parecchio più alta di quella di te indicata, di circa 30W... A parte ciò è chiaro che le CPU Intel hanno i loro punti di forza, anche solo per il fatto che essendo la presenza più forte sul mercato usufruisce anche di software meglio ottimizzato per quell'architettura. Il gaming e le applicazioni light threaded si avvantaggiano della maggiore frequenza di clock, sicuramente. Quello che ha caratterizzato il successo di Ryzen, comunque, è stato l'avere prestazioni molto solide "a tutto tondo": è più lento in single thread? Si, ma non tanto, e in applicazioni con molti thread tende ad avere un buon vantaggio (in entrambi i casi, sto parlando di medie, chiaro che guardando le singole applicazioni si troverà sempre un'architettura che è più o meno performante), il tutto con consumi notevolmente inferiori. Non è la situazione che si aveva tra Ivy Bridge e Bulldozer a parti invertite, chiaro. Inoltre AMD riesce a metterti a disposizione a livello consumer, se vuoi, un numero di core semplicemente impensabile anni fa. Non a caso Intel è stata costretta ad abbassare i prezzi. Poi questa è la situazione attuale. Domani, può cambiare, AMD può migliorare ancora e così può fare Intel. Sicuramente la situazione (tecnica) di Intel nel breve/medio periodo non è eccezionale in quanto i miglioramenti di processo produttivo attesi hanno avuto forti ritardi ed il processo a 10nm (adesso con i +, o enhanced) ha ancora delle rese inferiori alle aspettative, con il 7nm ancora in alto mare (mentre TSMC già produce con i 5nm e prevede di passare ai 3nm in rapida successione). D'altra parte mettere in dubbio la solidità finanziaria di Intel è assolutamente fuori luogo, così come dubitare della capacità ingegneristica del colosso americano. Io ho visto soprattutto un grosso problema manageriale, con la direzione generale dell'azienda che ha pensato più a spartirsi potere e a bisticciare più che alla effettiva gestione tecnica, pensando "tanto AMD non ci raggiungerà mai" e i risultati si sono visti...
Beh, i confronti si fanno stock, dove la differenza di consumo tra un 10900K e un 3900X è parecchio più alta di quella di te indicata, di circa 30W... A parte ciò è chiaro che le CPU Intel hanno i loro punti di forza, anche solo per il fatto che essendo la presenza più forte sul mercato usufruisce anche di software meglio ottimizzato per quell'architettura. Il gaming e le applicazioni light threaded si avvantaggiano della maggiore frequenza di clock, sicuramente. Quello che ha caratterizzato il successo di Ryzen, comunque, è stato l'avere prestazioni molto solide "a tutto tondo": è più lento in single thread? Si, ma non tanto, e in applicazioni con molti thread tende ad avere un buon vantaggio (in entrambi i casi, sto parlando di medie, chiaro che guardando le singole applicazioni si troverà sempre un'architettura che è più o meno performante), il tutto con consumi notevolmente inferiori. Non è la situazione che si aveva tra Ivy Bridge e Bulldozer a parti invertite, chiaro. Inoltre AMD riesce a metterti a disposizione a livello consumer, se vuoi, un numero di core semplicemente impensabile anni fa. Non a caso Intel è stata costretta ad abbassare i prezzi. Poi questa è la situazione attuale. Domani, può cambiare, AMD può migliorare ancora e così può fare Intel. Sicuramente la situazione (tecnica) di Intel nel breve/medio periodo non è eccezionale in quanto i miglioramenti di processo produttivo attesi hanno avuto forti ritardi ed il processo a 10nm (adesso con i +, o enhanced) ha ancora delle rese inferiori alle aspettative, con il 7nm ancora in alto mare (mentre TSMC già produce con i 5nm e prevede di passare ai 3nm in rapida successione). D'altra parte mettere in dubbio la solidità finanziaria di Intel è assolutamente fuori luogo, così come dubitare della capacità ingegneristica del colosso americano. Io ho visto soprattutto un grosso problema manageriale, con la direzione generale dell'azienda che ha pensato più a spartirsi potere e a bisticciare più che alla effettiva gestione tecnica, pensando "tanto AMD non ci raggiungerà mai" e i risultati si sono visti...
condivisibile.
Beh, i confronti si fanno stock, dove la differenza di consumo tra un 10900K e un 3900X è parecchio più alta di quella di te indicata, di circa 30W... A parte ciò è chiaro che le CPU Intel hanno i loro punti di forza, anche solo per il fatto che essendo la presenza più forte sul mercato usufruisce anche di software meglio ottimizzato per quell'architettura. Il gaming e le applicazioni light threaded si avvantaggiano della maggiore frequenza di clock, sicuramente. Quello che ha caratterizzato il successo di Ryzen, comunque, è stato l'avere prestazioni molto solide "a tutto tondo": è più lento in single thread? Si, ma non tanto, e in applicazioni con molti thread tende ad avere un buon vantaggio (in entrambi i casi, sto parlando di medie, chiaro che guardando le singole applicazioni si troverà sempre un'architettura che è più o meno performante), il tutto con consumi notevolmente inferiori. Non è la situazione che si aveva tra Ivy Bridge e Bulldozer a parti invertite, chiaro. Inoltre AMD riesce a metterti a disposizione a livello consumer, se vuoi, un numero di core semplicemente impensabile anni fa. Non a caso Intel è stata costretta ad abbassare i prezzi. Poi questa è la situazione attuale. Domani, può cambiare, AMD può migliorare ancora e così può fare Intel. Sicuramente la situazione (tecnica) di Intel nel breve/medio periodo non è eccezionale in quanto i miglioramenti di processo produttivo attesi hanno avuto forti ritardi ed il processo a 10nm (adesso con i +, o enhanced) ha ancora delle rese inferiori alle aspettative, con il 7nm ancora in alto mare (mentre TSMC già produce con i 5nm e prevede di passare ai 3nm in rapida successione). D'altra parte mettere in dubbio la solidità finanziaria di Intel è assolutamente fuori luogo, così come dubitare della capacità ingegneristica del colosso americano. Io ho visto soprattutto un grosso problema manageriale, con la direzione generale dell'azienda che ha pensato più a spartirsi potere e a bisticciare più che alla effettiva gestione tecnica, pensando "tanto AMD non ci raggiungerà mai" e i risultati si sono visti...relativamente ai consumi: https://www.youtube.com/watch?v=X_wtoCBahhM
a conti fatti, si vede come enormi differenze non ce ne sono.
Ciò detto io ne ho sempre fatto un discorso da consumatore, non mi interessa da chi compro la cpu ne tantomeno come l'azienda si comporti, mi interessa quanto spendo e le prestazioni che ottengo (tra l'altro al di la di tutto una cosa che mi piace di intel è che si costruisca la roba in casa invece che farlo in outsourcing).
E la serie 10 non è vero che è stata un flop disastroso, nella fascia alta della gamma consumer, come qua dentro ce la si racconta. E manco è vero che consumi otto milioni di W o che scaldi più di un 3900/3950X.
Ciò detto ripeto io ho un 3900X e sono contento della scelta ma non è stato un no-brain, e sono soddisfatto anche perché ho un buon bidding.
Vedremo più avanti, ma la competizione mi pare sia ancora bella alta.
Piedone1113
23-09-2020, 10:45
che è quello che si diceva pagine fa, ma si veniva zittiti con un "ZERO DIFFERENZE! AMD MOLTO MEGLIO!"
un 10900K in OC consuma 50W in più di un 3900X e costa poco di più. Si perdono 2 core ma si guadagnano 5.1ghz all core. Da raffreddare è come un 3900X, che è un forno nuclerare.
Non è una soluzione elegante, ma è una soluzione che performa. C'è anche un confronto di jay2cents, in alcuni giochi c'è una differenza di 20-30 fps a 2k, che non è poco, su una baseline di 110.
E i giochi non sono tutto, ma sicuramente c'è più gente che gioca col pc rispetto a chi compila codice o usa blender.
Poi io sono contento del 3900X, però non mi è mai sembrata una scelta senza compromessi, come già detto, soprattutto per OC limitato e le frequenze di clock.
Certamente c'è più gente che gioca rispetto a chi compila, ma c'è tantissima altra gente che fa altro ( il 90%) piuttosto che giocare.
Estremizzando il discorso si può dire pacificamente che per giocare è meglio una PS5 o xbox poichè per l'intera sua vita puoi giocare a tutti i giochi senza avere problemi prestazionali.
Va leggermente meglio nei giochi Intel?
Bon, ce ne faremo una ragione quando passando da un'applicativo a un gioco saremo contenti perchè gira meglio o peggio rispetto alle prestazioni che abbiamo appena usufruito dalla nostra macchina.
ma esiste un nodo TSMC a 6 nm ?? :mbe:
https://www.tsmc.com/english/dedicatedFoundry/technology/logic.htm#l_7nm_technology
Il 6nm dovrebbe essere ''una specie'' di ''avanzamento/ottimizzazione'' del 7 stesso:
.....''Meanwhile, TSMC's 6nm FinFET (N6) technology successfully completed product yield verification in 2019. Thanks to the reduction in mask layer and the process complexity achieved through EUV lithography technology, N6 technology could achieve better yield and shorter production cycles compared to N7 technology in the manufacture of the same products. In addition, N6 manufacturing process delivers 18% higher logic density over the N7 process. At the same time, its design rules are fully compatible with TSMC's proven N7 technology, allowing its comprehensive design ecosystem to be reused. As a result, it offers a seamless migration path with a fast design cycle time with very limited engineering resources for customers not only to achieve the product benefits from the new technology offering but also can significantly reduce customers' product design cycle time and time-to-market.
Risk production of N6 technology started in the first quarter of 2020 with volume production planned before the end of 2020, TSMC's N6 technology provides customers with additional cost-effective benefits while extending the industry-leading power and performance from the 7nm family for a broad array of applications, ranging from high-to-mid end mobile, consumer applications, AI, networking, 5G infrastructure, GPU, and high-performance computing.''
Può anche darsi che facciano un zen3 ''stile'' XT ....prima di passare al 5nm.:)
leoneazzurro
23-09-2020, 10:48
Il 6nm dovrebbe avere prestazioni e costi comparabili al 7nm N7P non EUV ma garantire una densità maggiore
leoneazzurro
23-09-2020, 11:00
Io ho questo come riferimento sulle potenze - poi sicuramente dipende dal carico, da cosa ci metto come motherboard, ecc.
https://www.anandtech.com/show/15785/the-intel-comet-lake-review-skylake-we-go-again/5
https://www.tomshardware.com/reviews/intel-core-i9-10900k-cpu-review/2
Possibilissimo anche che ci sia una forte variabilità tra esemplare ed esemplare (visto che in genere la CPU che raggiungono frequenze più alte sono anche quelle che presentano un leakage maggiore).
Piedone1113
23-09-2020, 11:08
Io ho questo come riferimento sulle potenze - poi sicuramente dipende dal carico, da cosa ci metto come motherboard, ecc.
https://www.anandtech.com/show/15785/the-intel-comet-lake-review-skylake-we-go-again/5
https://www.tomshardware.com/reviews/intel-core-i9-10900k-cpu-review/2
Possibilissimo anche che ci sia una forte variabilità tra esemplare ed esemplare (visto che in genere la CPU che raggiungono frequenze più alte sono anche quelle che presentano un leakage maggiore).
Impressionante il consumo di un 10900 rispetto ad un 3900.
Intel ha fatto miracoli per limitare i danni.
Continuo a reputare i 14+++++ un vero capolavoro tecnico comunque.
Antivirusvivente
23-09-2020, 11:17
Impressionante il consumo di un 10900 rispetto ad un 3900.
Intel ha fatto miracoli per limitare i danni.
Continuo a reputare i 14+++++ un vero capolavoro tecnico comunque.
Vero, probabilmente se non avessero avuto problemi con le fabbriche a 10 e 7nm, non avremmo avuto questo riequilibrarsi del mercato.
O magari ci avrebbero marciato lo stesso, chi lo sa?
Impressionante il consumo di un 10900 rispetto ad un 3900.
Intel ha fatto miracoli per limitare i danni.
Continuo a reputare i 14+++++ un vero capolavoro tecnico comunque.
100W in più di consumo per pareggiare (o essere sopra di qualche punto) non è proprio un miracolo o un capolavoro tecnico. Io lo chiamerei più essere alla canna del gas :)
Se prendi un 3900X e lo overvolti/clocchi per consumare 250W, mi sa che intel sparisce anche dallo specchietto retrovisore. Il problema con le cpu amd è riuscire a dissipare quei 250W... :stordita:
CUT
Sono tanti i campi in cui le CPU Intel se la cavano benissimo, per architettura o per ottimizzazioni dei software stessi.
Oh, ti ho citato Photoshop ed Office, tutta roba che non usa nessuno, vero ?
CUT.
Parlando di prestazioni pure:
Skylake nonostante sia un arch vecchia di 5 o 6 anni direi che proprio pena non fa visto che in certi ambiti è anche superiore ad un 12 core uscito 1 anno fa.
Giusto per la cronaca con ZEN2 AMD si è adeguata a cose che Intel aveva da tempo: la FPU a 256 bit (nel primo ZEN la fpu era a 128). In più aggiungiamoci la perdita di performance dovuta alle patch sulla sicurezza che sicuramente qualche impatto ce l'hanno. Penso e spero che con ZEN3 il vantaggio sia globale.. anche perchè con ZEN3 stanno recependo il concetto di cache unificata, che anche lì è presente da tempo sulle CPU Intel. quindi a livello prestazionale i comet lake non sono male...un'altro punto di forza è il ringbus che permette comunicazioni veloci tra i core....a differenza di IF. ringbus che per sua struttura è limitato ad un massimo di 10 core
100W in più di consumo per pareggiare (o essere sopra di qualche punto) non è proprio un miracolo o un capolavoro tecnico. Io lo chiamerei più essere alla canna del gas :)
Se prendi un 3900X e lo overvolti/clocchi per consumare 250W, mi sa che intel sparisce anche dallo specchietto retrovisore. Il problema con le cpu amd è riuscire a dissipare quei 250W... :stordita:
no il problema è che ti si fotte il chip e che fai fatica anche a dissiparne 150W su un 3900x
leoneazzurro
23-09-2020, 11:31
Il problema più che altro sono gli hotspot (e il fatto che AMD e Intel non misurano la temperatura allo stesso modo), e il fatto che un package MCM presenta un'altezza dei die non omogenea, il che non aiuta lo scambio termico. Cose che comunque potranno essere riviste nelle prossime revisioni del package.
Il problema più che altro sono gli hotspot (e il fatto che AMD e Intel non misurano la temperatura allo stesso modo), e il fatto che un package MCM presenta un'altezza dei die non omogenea, il che non aiuta lo scambio termico. Cose che comunque potranno essere riviste nelle prossime revisioni del package.
giusto per capire: ma tecnicamente gli hotspot da cosa sono causati? dal disegno del chip? dal processo produttivo? perchè gli hotspot sono presenti anche nelle gpu AMD cosa che mi fa pensare che sia una cosa legata al pp. perchè Intel non li ha? se non ho capito male :)
giusto per capire: ma tecnicamente gli hotspot da cosa sono causati? dal disegno del chip? dal processo produttivo? perchè gli hotspot sono presenti anche nelle gpu AMD cosa che mi fa pensare che sia una cosa legata al pp. perchè Intel non li ha? se non ho capito male :)
MCM = più chip sul package.
I ryzen hanno 3 chip: 1 chip che gestisce l'I/O a 12nm, e altri 2 (chiamati CCD) che praticamente contengono 8 core cpu ciascuna e sono a 5nm.
Sono i 2 chip da 5nm, che hanno una dimensione irrisoria, a scaldare tanto in poco spazio.
I dissipatori ad aria attuali sono fatti per processori monolitici centrati rispetto all'IHS (come le cpu intel), quindi è più dificoltoso spostare velocemente il calore dagli hotspot (= le aree dove sono i CCD) verso le lamelle del dissy.
Chi usa un AIO dovrebbe essere meno interessato da suddetto problema, ma ci sarebbe sempre la questione dell'IHS potenzialmnete più distante dai chip a causa della loro diversa altezza, come faceva notare leoneazzurro.
Piedone1113
23-09-2020, 11:46
100W in più di consumo per pareggiare (o essere sopra di qualche punto) non è proprio un miracolo o un capolavoro tecnico. Io lo chiamerei più essere alla canna del gas :)
Se prendi un 3900X e lo overvolti/clocchi per consumare 250W, mi sa che intel sparisce anche dallo specchietto retrovisore. Il problema con le cpu amd è riuscire a dissipare quei 250W... :stordita:
Per un PP riuscire a gestire 250w non è cosa da poco, praticamente è come portare la capacità di trazione di un materiale a 2x quella normale
leoneazzurro
23-09-2020, 11:51
giusto per capire: ma tecnicamente gli hotspot da cosa sono causati? dal disegno del chip? dal processo produttivo? perchè gli hotspot sono presenti anche nelle gpu AMD cosa che mi fa pensare che sia una cosa legata al pp. perchè Intel non li ha? se non ho capito male :)
Intendevo proprio gli hotspot nelle CPU AMD: sono causati da processo E design, contemporaneamente. In pratica si tratta di punti del chip che sono soggetti a una dissipazione di potenza termica superiore a quella delle altre zone, e questo sia perché c'è una alta densità di transistor attivi contemporaneamente (effetto del design) sia perché c'è una minore uniformità di caratteristiche elettriche dei transistor stessi (effetto del processo produttivo). Inoltre AMD ha adottato un sistema di monitoraggio della temperatura molto particolae e con una miriade di punti di misura della temperatura, per cui misura la temperatura in manira molto accurata. Intel ha un sistema simile, ma a memoria credo che non sia così denso. Intel non è che non abbia hotspot, ma il problema potrebbe essere più ridotto perché c'è una minore densità di transistor per mm^2 e una migliore uniformità delle caratteristiche elettriche su un processo ormai stra-raffinato.
Piedone1113
23-09-2020, 11:55
giusto per capire: ma tecnicamente gli hotspot da cosa sono causati? dal disegno del chip? dal processo produttivo? perchè gli hotspot sono presenti anche nelle gpu AMD cosa che mi fa pensare che sia una cosa legata al pp. perchè Intel non li ha? se non ho capito male :)
Gli Hot spot dipendono dal design del chip e non dal pp.
Per esempio i transistor che si occupano delle AVX in Intel sono raggruppati ( come logico che sia) e quando interessati hanno un consumo totale per area molto alta, da qui la necessità di limitare le frequenze.
Altri Hot spot sono le unità FP, la cache, ecc. altre parti della cpu non sono considerate hot spot perchè il loro utilizzo non è continuativo quindi viene prodotto calore in meno per unità di tempo.
Paradossalmente ( non vera la cosa) se tutte le parti della cpu lavorassero in modo continuo e costante non esisterebbero hotspot ( ma la specializzazione nell'utilizzare transistor diversi per parti diverse della cpu rende sempre non vera questa cosa)
MCM = più chip sul package.
I ryzen hanno 3 chip: 1 chip che gestisce l'I/O a 12nm, e altri 2 (chiamati CCD) che praticamente contengono 8 core cpu ciascuna e sono a 5nm.
Sono i 2 chip da 5nm, che hanno una dimensione irrisoria, a scaldare tanto in poco spazio.
I dissipatori ad aria attuali sono fatti per processori monolitici centrati rispetto all'IHS (come le cpu intel), quindi è più dificoltoso spostare velocemente il calore dagli hotspot (= le aree dove sono i CCD) verso le lamelle del dissy.
Chi usa un AIO dovrebbe essere meno interessato da suddetto problema, ma ci sarebbe sempre la questione dell'IHS potenzialmnete più distante dai chip a causa della loro diversa altezza, come faceva notare leoneazzurro.non c'entrano nulla i dissipatori, è un problema dei 7nm e di architettura. La heat density è alta e difficile da gestire.
Nautilu$
23-09-2020, 12:48
no il problema è che ti si fotte il chip e che fai fatica anche a dissiparne 150W su un 3900x
Adesso non esageriamo...... Io dissipo 165W IN ESTATE (leggero overlclock) ...16core, toccando 80° solo con Aida....che per tutti quelli che ho provato è lo stress test più caldo.....
leoneazzurro
23-09-2020, 13:06
non c'entrano nulla i dissipatori, è un problema dei 7nm e di architettura. La heat density è alta e difficile da gestire.
Se facciamo un raffronto, ogni chiplet di Zen 2 misura 76mm^2. Ipotizziamo che il chip I/o non dissipi per nulla potenza e che quindi tutto il calore prodotto da un 3900X/3950X sia dissipato su 152 mm^2 (il che non è vero ma è un'ipotesi conservativa). Prendendo per buoni i valori di TDP (il che non è ver e così favoriamo immensamente Intel) la densità di calore sarebbe circa 0,7W/mm^2 per AMD contro 0.6W/mm^2 per Intel. Valori superiori per AMD ma non certo "irrisolvibili", anche considerando che i consumi reali sono molto più alti per Intel e che anche il die I/O partecipa al consumo e alla dissipazione. Quindi la densità di potenza termica media è su livelli simili o addirittura inferiori per AMD. Il problema, quindi, come detto, è se ci sono degli hot spot e nel package MCM che costringe ad avere in certi casi un maggiore spessore di materiale di interfaccia per traferire il calore all'heat spreader, nonché nella diversa distribuzione della pressione da parte del dissipatore nelle CPU AMD, che come detto hanno i die decentrati rispetto al baricentro della zona di contatto del dissipatore stesso, come giustamente ricordava Warside.
capitan_crasy
23-09-2020, 13:09
http://i.imgur.com/RGC1DZnh.jpg (https://imgur.com/RGC1DZn)
Clicca qui... (https://twitter.com/TUM_APISAK/status/1308734011422904320?s=19)
Intendevo proprio gli hotspot nelle CPU AMD: sono causati da processo E design, contemporaneamente. In pratica si tratta di punti del chip che sono soggetti a una dissipazione di potenza termica superiore a quella delle altre zone, e questo sia perché c'è una alta densità di transistor attivi contemporaneamente (effetto del design) sia perché c'è una minore uniformità di caratteristiche elettriche dei transistor stessi (effetto del processo produttivo). Inoltre AMD ha adottato un sistema di monitoraggio della temperatura molto particolae e con una miriade di punti di misura della temperatura, per cui misura la temperatura in manira molto accurata. Intel ha un sistema simile, ma a memoria credo che non sia così denso. Intel non è che non abbia hotspot, ma il problema potrebbe essere più ridotto perché c'è una minore densità di transistor per mm^2 e una migliore uniformità delle caratteristiche elettriche su un processo ormai stra-raffinato.
grazie per la spiegazione :). Quindi il "problema" è dovuto all'alta densità di transistor in certi punti e per il design dei transistor stessi. Quindi una somma di entrambe le cose :)
paolo.oliva2
23-09-2020, 13:35
Parlando di prestazioni pure:
Skylake nonostante sia un arch vecchia di 5 o 6 anni direi che proprio pena non fa visto che in certi ambiti è anche superiore ad un 12 core uscito 1 anno fa.
Giusto per la cronaca con ZEN2 AMD si è adeguata a cose che Intel aveva da tempo: la FPU a 256 bit (nel primo ZEN la fpu era a 128). In più aggiungiamoci la perdita di performance dovuta alle patch sulla sicurezza che sicuramente qualche impatto ce l'hanno. Penso e spero che con ZEN3 il vantaggio sia globale.. anche perchè con ZEN3 stanno recependo il concetto di cache unificata, che anche lì è presente da tempo sulle CPU Intel. quindi a livello prestazionale i comet lake non sono male...un'altro punto di forza è il ringbus che permette comunicazioni veloci tra i core....a differenza di IF. ringbus che per sua struttura è limitato ad un massimo di 10 core
Però... io considererei anche la situazione Intel/AMD per arrivare ad oggi.
AMD ha speso 300 milioni di $ di R&D per realizzare Zen, e ricordo che aveva riportato che gran parte del know-out l'aveva "attinto" dalla progettazione (e spesa) per terzi, ed AMD post BD aveva una cassa a zero (se non sotto) e lottava per avere una liquidità almeno di 750 milioni di $.
Intel vendeva un X4+4 a 350$, con rese altissime (almeno rispetto alle attuali) per via di frequenze def ben al di sotto di quanto potesse fare il 14nm di allora.
L'evoluzione architetturale di una azienda che produce proci, si basa sul guadagno nel fatturato. Nessuna ricorda la frase ripetuta ad iosa "Intel costa di più perchè Intel investe nell'evoluzione"?
Che una AMD sia dove sia, mi sembra stra-ovvio che il perchè sia che Intel ha fatto cassa e investito lo stretto necessario per concedere incrementi minimi (IPC) giusto per continuare a vendere, e quelli incrementi non li giudicherei tanto "architetturali" quanto invece di affinamento... e >10 anni con nmila tecnici non è che poi abbiano affinato granchè, se consideriamo che Intel era in vantaggio in MC per supporto memorie e AMD garantisce i suoi proci ad una frequenza superiore di quanto lo faccia Intel (e garantire è diverso che "tanto vanno lo stesso", perchè garantire vuol dire che se hai problemi puoi andare di RMA, mentre pagare di più per un procio Intel garantito "meno", mi sa tanto di "hai un problema? Tuo problema"). E non dimentichiamoci le falle... che io non le vedo cme errori progettuali quanto ottenere di più spendendo meno, visto che l'esistenza delle stesse Intel la conosceva molto prima che il tutto venisse a galla, ma ha continuato a produrre "dicendo prb risolti" quando nella realtà erano trilicati.
Tra l'altro leggevo che con proci >12 core, il ring Intel va peggio rispetto all'MCM AMD, e sotto i 12 core a me sembra che Zen2 monolitico (APU) non abbia sta differenza, il che dimostrerebbe che non è tanto la bravura Intel quanto la fisica in sè. E comunque parliamo di Zen2 che come progetto è del 2019 vs produzione progetto Intel 2020... probabile la situazione cambi quando avremo Zen3 sempre progetto 2020.
------
A parte ciò, la cosa va vista anche con altri aspetti.
Intel era leader in nanometria silicio, quindi il problema della resa l'ha ovviamente "sentito" prima di altri.
Con questo intendo il fatto che nanometrie più spinte abbassano il TDP e quindi permettono un numero maggiore di core, ed il monolitico ovviamente non è competitivo commercialmente vs MCM quando il numero di core è superiore al minimo chiplet (incluso l'I/O esterno).
La soluzione Intel? X4+4 è meglio... di più non serve, con il retaggio che dopo 10anni abbiamo software fatto per girare 10 anni fa... :rolleyes:
Cioè... Intel che bilancio ha destinato all'evoluzione? Io ci vedo solamenti degli spiccioli in affinamento... di elogiarla non ci penso manco di striscio.
A tutt'oggi per me da elogiare è solamente l'affinamento del 14nm... ma è oscurato dai risultati 10nm/7nm con continui ritardi... per me è come il giorno e la notte vs TSMC. Cioè... TSMC produce a 5nm, porta il 7n+ a 6nm, il 3nm è sempre più realtà, e ci ritroviamo il leader in nanometria Intel che è inchiodato al 14nm di secoli fa?
Adesso non esageriamo...... Io dissipo 165W IN ESTATE (leggero overlclock) ...16core, toccando 80° solo con Aida....che per tutti quelli che ho provato è lo stress test più caldo.....
dici poco, io prima del 3900X mi incazzavo se superavo i 60 gradi, ora sto sui 78 con custom loop. La sensibilità è cambiata :asd:
Se facciamo un raffronto, ogni chiplet di Zen 2 misura 76mm^2. Ipotizziamo che il chip I/o non dissipi per nulla potenza e che quindi tutto il calore prodotto da un 3900X/3950X sia dissipato su 152 mm^2 (il che non è vero ma è un'ipotesi conservativa). Prendendo per buoni i valori di TDP (il che non è ver e così favoriamo immensamente Intel) la densità di calore sarebbe circa 0,7W/mm^2 per AMD contro 0.6W/mm^2 per Intel. Valori superiori per AMD ma non certo "irrisolvibili", anche considerando che i consumi reali sono molto più alti per Intel e che anche il die I/O partecipa al consumo e alla dissipazione. Quindi la densità di potenza termica media è su livelli simili o addirittura inferiori per AMD. Il problema, quindi, come detto, è se ci sono degli hot spot e nel package MCM che costringe ad avere in certi casi un maggiore spessore di materiale di interfaccia per traferire il calore all'heat spreader, nonché nella diversa distribuzione della pressione da parte del dissipatore nelle CPU AMD, che come detto hanno i die decentrati rispetto al baricentro della zona di contatto del dissipatore stesso, come giustamente ricordava Warside.da sito noctua sull'argomento: "
Depending on the exact CPU model, its specified TDP value and possibly extended power limits (precision boost overdrive), a single CPU-die can create a heatload of up to 130W easily, whereas the I/O-die usually creates a heatload of about 10W. Due to the small size of the CPU-die, the heat density (W/mm²) of this chip is very high. For example, a 120W heatload at a chip-size of 74mm² results in a heat-density of 1.62W/mm², whereas the same heatload on an older Ryzen processor with a chip-size of 212mm² gives a heat-density of just 0.57W/mm²."
inoltre deliddandolo non cambia assolutamente nulla, ne abbiamo già discusso.
paolo.oliva2
23-09-2020, 13:42
Intel, per non perdere troppo guadagni rispetto a quello che può intascarsi Amd con il risparmio dovuto al design chiplet, prima o poi passerà anch'essa ad una sorta di MCM, e lì probabilmente inizierà a non avere più il vantaggio che ha ora nei giochi....
...quindi forse la prossima serie 11 (e 12...) potrebbero essere le ultime "più adatte" ai giochi....
e dopo? Lì si vedrà chi avrà l'architettura migliore per avere tutto al top!
È anche vero che , con le Fab di proprietà, potrebbe riuscire a fare 2 linee di CPU: una monolitica (fino a 8 core per i giochi) e una non.... però i risparmi di avere un unico chiplet sia per il mainstream che per il professionale, andrebbero in parte persi....
Stessa cosa potrebbe pensarla AMD, se interessa realmente la cosa, ma sulla bilancia, vale la pena? (considerando anche che è già infilata totalmente nel mondo console...)
Ottima considerazione.
paolo.oliva2
23-09-2020, 13:53
beh vediamo Zen 3 prima di dirlo...
Magari AMD ci dimostrerà che si può usare MCM mitigandone i limiti :boh:
Nel futuro di Intel si sussurrava di architetture big.LITTLE, che io vedrei più facili da realizzare in MCM che in monolitico.
Ho letto di big.little e mi sembra più un concetto che un reale progetto.
Quello che lascia molti dubbi, è il numero di collegamenti.
Rispetto all'MCM AMD, richiede un totale di collegamenti in più, ed il punto di discussione è che ogni collegamento consuma e non poco (chi si ricorda Zen 1000 con l'IF con DDR4 oltre 3000?).
Non ho il link all'articolo... ma il recensore aveva scritto che come progetto è molto più "aperto" di quello AMD, ma la fattibilità esigerebbe una nanometria di vantaggio, cioè produrre i core con 1 nodo di vantaggio per compensare il maggior consumo dovuto ai collegamenti in numero superiore.
Mi fa strano... visto che al momento sembra più una soluzione per sopperire ad 1 nodo di svantaggio.
paolo.oliva2
23-09-2020, 13:55
http://i.imgur.com/RGC1DZnh.jpg (https://imgur.com/RGC1DZn)
Clicca qui... (https://twitter.com/TUM_APISAK/status/1308734011422904320?s=19)
Hanno segato il link?
Ton90maz
23-09-2020, 14:07
Noto alcuni progressi sul fronte prestazioni. Ora non attaccano gli utenti in 10 se si mette in dubbio la schiacciante superiorità di zen 2 in tutti i settori*
*tranne i giochi. Tenere lontano alla portata dei bambini.
Sigh. I prezzi si fanno sempre in base alle prestazioni della concorrenza, interna e soprattutto esterna. Inoltre sembra che sfugga il senso della "segmentazione dell'offerta", ossia di quelle differenze di prezzo che riproporzionano l'offerta in base alle prestazioni, senza contare che spesso un 3600 è realizzato con un die non pienamente funzionante e/o che non raggiunge i target di frequenza di un 3800X, tanto per dire. Costi e prezzi come detto sono funzioni di un gran numero di variabili. Se AMD mettesse i 3800X al prezzo dei 3600, chi comprerebbe i 3600? Con conseguenze gravi sulla situazione finanziaria...Posto che ad amd questi chip magici, a livello produttivo, non possono che costare uno sputo e che, viste le dimensioni dei chip, le dimensioni della cache e le rese dei 7 nm, la probabilità che un generico 6 core sia effettivamente un chip non funzionante, è davvero bassa.
Notare bene, parlo di generici 6/8 core, non dei chip necessari a rispettare le specifiche di un 3900x o un 3950x. Questo poi fa sorgere una domanda: chi glieli ha chiesti questi quei 100-200 MHz in più sui 12-16? Perché non introdurre modelli, più "lenti", recuperando i malsani chip dei 3600? Tanto se salgono in quel modo con 90 watt, vuoi che con 140 non tiravano decentemente su 12 core?
Loro hanno fatto determinate scelte, hanno voluto tenere i 12 e 16 in fascia premium, nonostante un "3900S(cassone)" sarebbe stata un'ottima alternativa, al giusto prezzo, e nonostante la fascia "rosy bindi" da da 750 euro fortunatamente non se la sia filata nessuno, ma con una cpu più veloce in gaming cosa succederebbe?
Comunque, è altrettanto palese che il famigerato numeretto nei giochi, quello minimizzato da tanti del thread, abbia avuto un notevole impatto sulla selezione dei modelli e relative frequenze.
Sul possibile perché di queste scelte, chissà se qualcuno tirerà fuori cose da me scritte pagine addietro, spacciandole per lezioni a me. L'unica cosa praticamente certa è che i prezzi e le fasce non dipendono né dal costo di produzione (al limite da qualcos'altro, già ampiamente detto) in sé, né dalla questione binning (ripeto: quei 100-200 MHz non sono necessari a tutti).
c'è un'intera branca dell'economia che si occupa della formazione del prezzo ma evidentemente c'è qualcuno che con la sua presunzione si arroga di saperne di più.
Mi dispiace solo che sono costretto a leggerlo nei quote degli utenti che stimoChe non è una scienza esatta e anche con i modelli più avanzati presenti in letteratura, non potrai mai prevedere tutti gli effetti a lungo termine. Secondariamente, a me non frega assolutamente niente del loro massimo profitto. E' così difficile capire che si ragionava in ottica consumatore? Ogni 3x2 si sbatte su sti discorsi aziendalistici.
Se prendi un 3900X e lo overvolti/clocchi per consumare 250W, mi sa che intel sparisce anche dallo specchietto retrovisore. Il problema con le cpu amd è riuscire a dissipare quei 250W... :stordita:
il problema è proprio che overvoltare ed overclockare un Ryzen è impresa ardua...
Parlando di prestazioni pure:
Skylake nonostante sia un arch vecchia di 5 o 6 anni direi che proprio pena non fa visto che in certi ambiti è anche superiore ad un 12 core uscito 1 anno fa.
Giusto per la cronaca con ZEN2 AMD si è adeguata a cose che Intel aveva da tempo: la FPU a 256 bit (nel primo ZEN la fpu era a 128). In più aggiungiamoci la perdita di performance dovuta alle patch sulla sicurezza che sicuramente qualche impatto ce l'hanno. Penso e spero che con ZEN3 il vantaggio sia globale.. anche perchè con ZEN3 stanno recependo il concetto di cache unificata, che anche lì è presente da tempo sulle CPU Intel. quindi a livello prestazionale i comet lake non sono male...un'altro punto di forza è il ringbus che permette comunicazioni veloci tra i core....a differenza di IF. ringbus che per sua struttura è limitato ad un massimo di 10 core
il ringbus già a 10 core ha introdotto latenze che Intel non aveva mai visto prima.
Credo fosse pensato con 8 core come limite, ed il 10900K è stato una forzatura dovuta alla necessità di reagire ad AMD.
Il resto è giustissimo e lo condivido.
paolo.oliva2
23-09-2020, 14:33
@Hador
No metto becco nella discussione perchè da parte mia l'OC di Zen2 l'ho appeso al chiodo da tempo, in quanto per me la perdita di efficienza è di gran lunga superiore al guadagno prestazionale, e lavorando in MT, trovo più corretto acquistare più core che occare meno core.
Ma nel tempo a mio avviso AMD ha impostato il funzionamento del 7nm via via in modo più conservativo.
In primis Zen2 AM4 ha un limite di 95° vs TR4 che è ben più basso (Epyc non lo prendo in considerazione visto le frequenze ben più basse), e con l'Agesa 1.0.0.4 potevi allegramente arrivare a 88° senza abbassamenti della frequenza. Via via, con Agesa più aggiornati, a me pare che oltre 78° (parlo di procio a def senza PBO) non vedo nulla.
Io tutto questo lo collego al fatto che AMD più volte ha riportato "sotto carico"... e secondo me AMD "gioca" tanto sulle frequenze riportate.
Cioè, il trucco degli Agesa via via più aggiornati, è quello di far vedere frequenze uguali/superiori con un Vcore più parco e nel contempo temp procio inferiori, ma se poi fai il confronto nei bench, ti ritrovi valori dei bench non lineari con la frequenza riportata (tipo ti faccio vedere 4,250GHz, ma in realtà a 4,250GHz ci sta 1ns e il resto sparo 4,2GHz, ma ti riporto la frequenza massima di 4,250GHz e nel contempo il Vcore più basso dei 4,2GHz, e tutti felici e contenti)
Non è che faccio allarmismo... nel senso che AMD avrà fatto nmila test per far funzionare i proci con carico 100% e 1,325V massimi, ma sono dell'idea che una cosa sia AM4 desktop, con carico gioco, tutt'altra TR4 con carico MT, e qui sembra avere un senso i max 95° (che scendono a 80°) in AM4 vs i 65° (mi sembra) dei TR4 che ovviamente il carico l'hanno al 100% e non a frazioni come in game.
Credo che il nesso di tutto sia un 7nm TSMC che di suo non si può dire abbia un PP "scarso", se raffrontato al 14nm GF, ma sicuramente soffre nel confronto del PP 14nm Intel. E' probabile che l'aumento di IPC di Zen3, corposo, sia perchè AMD/TSMC non hanno speso più di tanto in affinamento sino ad ora... e probabilmente sul 5nm (visto che AMD ha una versione "sua" del 5nm HP, 5nm+) cambierà qualche cosa.
leoneazzurro
23-09-2020, 14:35
dici poco, io prima del 3900X mi incazzavo se superavo i 60 gradi, ora sto sui 78 con custom loop. La sensibilità è cambiata :asd:
da sito noctua sull'argomento: "
Depending on the exact CPU model, its specified TDP value and possibly extended power limits (precision boost overdrive), a single CPU-die can create a heatload of up to 130W easily, whereas the I/O-die usually creates a heatload of about 10W. Due to the small size of the CPU-die, the heat density (W/mm²) of this chip is very high. For example, a 120W heatload at a chip-size of 74mm² results in a heat-density of 1.62W/mm², whereas the same heatload on an older Ryzen processor with a chip-size of 212mm² gives a heat-density of just 0.57W/mm²."
inoltre deliddandolo non cambia assolutamente nulla, ne abbiamo già discusso.
Il 120W per chiplet potrebbe esserci SOLO su un 3800X molto spinto, il 3900X non ci arriva proprio perché sono DUE chiplet (quindi il doppio di superficie necessaria - 152mm^2). Insomma, la situazione non è esattamente quella. E allora, per lo stesso principio, un 10900K che può arrivare in casi estremi ad assorbire ben oltre 200W sarebbe nelle stesse condizioni (superficie di . Deliddarlo non cambia il problema della differenza di altezza o del decentraggio dei chiplet rispetto al centro del dissipatore.
Noto alcuni progressi sul fronte prestazioni. Ora non attaccano gli utenti in 10 se si mette in dubbio la schiacciante superiorità di zen 2 in tutti i settori*
*tranne i giochi. Tenere lontano alla portata dei bambini.
beh se permetti tu l'hai decisamente fatta "fuori dal vaso" con discorsi che non stanno ne in cielo ne in terra (ed hai proseguito qui sotto :rolleyes: ) quindi sei stato "attaccato" non tanto per aver messo in discussione la Madre di Tutte le Case AMD (cosa che qui dentro accade anche a me) quanto per aver sputato melma gratuitamente con sciocchezze tipo "AMD è ferma dal 2017" che non hanno alcun senso.
Posto che ad amd questi chip magici, a livello produttivo, non possono che costare uno sputo e che, viste le dimensioni dei chip, le dimensioni della cache e le rese dei 7 nm, la probabilità che un generico 6 core sia effettivamente un chip non funzionante, è davvero bassa.
Notare bene, parlo di generici 6/8 core, non dei chip necessari a rispettare le specifiche di un 3900x o un 3950x. Questo poi fa sorgere una domanda: chi glieli ha chiesti questi quei 100-200 MHz in più sui 12-16? Perché non introdurre modelli, più "lenti", recuperando i malsani chip dei 3600? Tanto se salgono in quel modo con 90 watt, vuoi che con 140 non tiravano decentemente su 12 core?
Loro hanno fatto determinate scelte, hanno voluto tenere i 12 e 16 in fascia premium, nonostante un "3900S(cassone)" sarebbe stata un'ottima alternativa, al giusto prezzo, e nonostante la fascia "rosy bindi" da da 750 euro fortunatamente non se la sia filata nessuno, ma con una cpu più veloce in gaming cosa succederebbe?
Comunque, è altrettanto palese che il famigerato numeretto nei giochi, quello minimizzato da tanti del thread, abbia avuto un notevole impatto sulla selezione dei modelli e relative frequenze.
Sul possibile perché di queste scelte, chissà se qualcuno tirerà fuori cose da me scritte pagine addietro, spacciandole per lezioni a me. L'unica cosa praticamente certa è che i prezzi e le fasce non dipendono né dal costo di produzione (al limite da qualcos'altro, già ampiamente detto) in sé, né dalla questione binning (ripeto: quei 100-200 MHz non sono necessari a tutti).
Che non è una scienza esatta e anche con i modelli più avanzati presenti in letteratura, non potrai mai prevedere tutti gli effetti a lungo termine. Secondariamente, a me non frega assolutamente niente del loro massimo profitto. E' così difficile capire che si ragionava in ottica consumatore? Ogni 3x2 si sbatte su sti discorsi aziendalistici.
eh vedi, continui a parlare di fantamercato e crei classi che non esistono (il 16C a basse prestazioni ???) per portare avanti la tua tesi :rolleyes:
Chi glieli ha chiesti i 100/200 MHz in più ? IO, che non a caso ho acquistato un 3900X. Anzi ti dirò che se mi avessero dato 4.8 GHz invece che 4.6 sarei stato più felice.
Se non hai necessità di prestazioni AMD offre CPU valide come il 3300X o 3600 che vanno benissimo a 360º.
AMD garantisce i suoi proci ad una frequenza superiore di quanto lo faccia Intel (e garantire è diverso che "tanto vanno lo stesso", perchè garantire vuol dire che se hai problemi puoi andare di RMA, mentre pagare di più per un procio Intel garantito "meno", mi sa tanto di "hai un problema? Tuo problema").
questa me la devi spiegare :mbe:
Cosa vuole dire che AMD garantisce i suoi processori ad una frequenza superiore di Intel ? Non mi risulta affatto :wtf:
leoneazzurro
23-09-2020, 14:42
Noto alcuni progressi sul fronte prestazioni. Ora non attaccano gli utenti in 10 se si mette in dubbio la schiacciante superiorità di zen 2 in tutti i settori*
*tranne i giochi. Tenere lontano alla portata dei bambini.
Posto che ad amd questi chip magici, a livello produttivo, non possono che costare uno sputo e che, viste le dimensioni dei chip, le dimensioni della cache e le rese dei 7 nm, la probabilità che un generico 6 core sia effettivamente un chip non funzionante, è davvero bassa.
Notare bene, parlo di generici 6/8 core, non dei chip necessari a rispettare le specifiche di un 3900x o un 3950x. Questo poi fa sorgere una domanda: chi glieli ha chiesti questi quei 100-200 MHz in più sui 12-16? Perché non introdurre modelli, più "lenti", recuperando i malsani chip dei 3600? Tanto se salgono in quel modo con 90 watt, vuoi che con 140 non tiravano decentemente su 12 core?
Loro hanno fatto determinate scelte, hanno voluto tenere i 12 e 16 in fascia premium, nonostante un "3900S(cassone)" sarebbe stata un'ottima alternativa, al giusto prezzo, e nonostante la fascia "rosy bindi" da da 750 euro fortunatamente non se la sia filata nessuno, ma con una cpu più veloce in gaming cosa succederebbe?
Comunque, è altrettanto palese che il famigerato numeretto nei giochi, quello minimizzato da tanti del thread, abbia avuto un notevole impatto sulla selezione dei modelli e relative frequenze.
Sul possibile perché di queste scelte, chissà se qualcuno tirerà fuori cose da me scritte pagine addietro, spacciandole per lezioni a me. L'unica cosa praticamente certa è che i prezzi e le fasce non dipendono né dal costo di produzione (al limite da qualcos'altro, già ampiamente detto) in sé, né dalla questione binning (ripeto: quei 100-200 MHz non sono necessari a tutti).
Che non è una scienza esatta e anche con i modelli più avanzati presenti in letteratura, non potrai mai prevedere tutti gli effetti a lungo termine. Secondariamente, a me non frega assolutamente niente del loro massimo profitto. E' così difficile capire che si ragionava in ottica consumatore? Ogni 3x2 si sbatte su sti discorsi aziendalistici.
E' palese che non hai la minima idea di come funzioni il mercato, la segmentazione dei prezzi e nemmeno cosa significhi "sostenibilità economica di un prodotto". Se pensi che il costo per AMD sia poi solo il silicio, ancora peggio. Chiaro che il consumatore vorrebbe il millemila core a prestazioni single thread spaziali e 5W di consumo a 10€, peccato che con questa mentalità in breve non ci sarebbero più produttori di CPU in giro.
paolo.oliva2
23-09-2020, 14:44
Noto alcuni progressi sul fronte prestazioni. Ora non attaccano gli utenti in 10 se si mette in dubbio la schiacciante superiorità di zen 2 in tutti i settori*
*tranne i giochi. Tenere lontano alla portata dei bambini.
Posto che ad amd questi chip magici, a livello produttivo, non possono che costare uno sputo e che, viste le dimensioni dei chip, le dimensioni della cache e le rese dei 7 nm, la probabilità che un generico 6 core sia effettivamente un chip non funzionante, è davvero bassa.
Notare bene, parlo di generici 6/8 core, non dei chip necessari a rispettare le specifiche di un 3900x o un 3950x. Questo poi fa sorgere una domanda: chi glieli ha chiesti questi quei 100-200 MHz in più sui 12-16? Perché non introdurre modelli, più "lenti", recuperando i malsani chip dei 3600? Tanto se salgono in quel modo con 90 watt, vuoi che con 140 non tiravano decentemente su 12 core?
Loro hanno fatto determinate scelte, hanno voluto tenere i 12 e 16 in fascia premium, nonostante un "3900S(cassone)" sarebbe stata un'ottima alternativa, al giusto prezzo, e nonostante la fascia "rosy bindi" da da 750 euro fortunatamente non se la sia filata nessuno, ma con una cpu più veloce in gaming cosa succederebbe?
Comunque, è altrettanto palese che il famigerato numeretto nei giochi, quello minimizzato da tanti del thread, abbia avuto un notevole impatto sulla selezione dei modelli e relative frequenze.
Sul possibile perché di queste scelte, chissà se qualcuno tirerà fuori cose da me scritte pagine addietro, spacciandole per lezioni a me. L'unica cosa praticamente certa è che i prezzi e le fasce non dipendono né dal costo di produzione (al limite da qualcos'altro, già ampiamente detto) in sé, né dalla questione binning (ripeto: quei 100-200 MHz non sono necessari a tutti).
Il problema è il marketing, ed Intel è maestra nell'inciuccio.
Epoca BD
La frequenza non conta una sega, è l'IPC ciò che conta.
Epoca Zen
La frequenza è ciò che conta.
Ovvio che IPC e frequenza contino uguale, ma è ovvio che quando la frequenza Intel era inferiore, faceva comodo i confronti architetturali sull'IPC e osannare l'IPC. Oggi ovviamente con Intel che ha l'IPC inferiore, giammai il confronto architetturale, quello che conta è la frequenza, ed aggiungerei che Intel ai tempi BD disse pure che MAI avrebbe commercializzato proci a 220W TDP...
Ora... commercializzando X12/X16, AMD doveva affrontare un altro totem. >X4 non serve. Se avesse proposto X12/X16 a frequenze massime inferiori agli X6 e X8, mettici l'inciuccio Intel, AMD non avrebbe venduto una mazza. Il 3600 fa più FPS degli X12/X16, quei proci non servono a nulla.
Tra l'altro per me un 3950 (non X) lo avrebbe desiderato a palla, foss'anche con stessa selezione 3700X (ma anche inferiore), proprio per lavorare in MT e spendere meno di un 3950X.
E' palese che non hai la minima idea di come funzioni il mercato, la segmentazione dei prezzi e nemmeno cosa significhi "sostenibilità economica di un prodotto". Se pensi che il costo per AMD sia poi solo il silicio, ancora peggio. Chiaro che il consumatore vorrebbe il millemila core a prestazioni single thread spaziali e 5W di consumo a 10€, peccato che con questa mentalità in breve non ci sarebbero più produttori di CPU in giro.
:D :D :D
non avrei potuto scriverlo meglio
Tra l'altro per me un 3950 (non X) lo avrebbe desiderato a palla, foss'anche con stessa selezione 3700X (ma anche inferiore), proprio per lavorare in MT e spendere meno di un 3950X.
ma io davvero non ti capisco... se tu ti sei preso un 3700X è evidente che per vari motivi (economici o di esigenza che sia) NON SEI nel target di utenza di un 3950X, quindi anche un 3950 liscio a , diciamo, 500/600€ sarebbe stato fuori target per te.
Se ti servivano più core c'è sempre stato il 3900X, che da molto tempo si trova a prezzi accessibili.
Piedone1113
23-09-2020, 14:54
Il 120W per chiplet potrebbe esserci SOLO su un 3800X molto spinto, il 3900X non ci arriva proprio perché sono DUE chiplet (quindi il doppio di superficie necessaria - 152mm^2). Insomma, la situazione non è esattamente quella. E allora, per lo stesso principio, un 10900K che può arrivare in casi estremi ad assorbire ben oltre 200W sarebbe nelle stesse condizioni (superficie di . Deliddarlo non cambia il problema della differenza di altezza o del decentraggio dei chiplet rispetto al centro del dissipatore.
Il discorso è molto ampio e complesso, il design planare è solo una parte della questione, sotto i transistor ci sono i layer di contatto.
Questi ( metallizazione) a seconda della complessità incidono in modo diretto sulla dissipazione a parità di distribuzione dei transistor.
Più layer hai, più puoi gestire sia temperatura che potenza istantanea, ma aumentando i costi in maniera esponenziale.
Circa la superfice dissipante il tuo è un discorso valido solo a parità di pp:
Se un Hotspot Amd ha una superficie di 1 mm2 il corrispettivo Intel lo ha su una superfice doppia e ci ritroviamo AMD che deve dissipare 1w su 1mm2, Intel 3w su 2mm2. Sembrerebbe svantaggiata intel, ma in realtà l'area di confine di Intel è grande almeno 4 volte quelle di amd ( area che partecipa in modo diretto alla dissipazione) e questo permette in definitiva ad intel di avere una superficie di contatto utile maggiore rispetto ad AMD.
Senza nulla togliere alle cpu Intel che arrivano a gestire con relativa facilità fino a 250w di picco.
Intel è stata bravissima con i 14, ma tra 14 e 7 c'è un abisso per poter fare una comparazione diretta.
Intel è stata bravissima con i 14, ma tra 14 e 7 c'è un abisso per poter fare una comparazione diretta.
ma perché insistiamo con questo parallelo (e nonostante il video mostrato da me in precedenza, in cui der8auer ha CHIARAMENTE mostrato come stanno le cose) ? :rolleyes:
Il 14nm di Intel NON è paragonabile direttamente al 7nm di TSMC.
Non c'è nulla li dentro che sia "grande il doppio".
Invece di 14 avrebbero potuto chiamarlo "Pippo" e dire "stiamo avendo difficoltà a passare da Pippo a Pluto". Il concetto sarebbe stato uguale, ma almeno nei blog sarebbero finite queste assurdità su Intel che nun gliela fa mentre AMD è già a 7 nm e punta ai 5nm :muro:
Intel è in ritardo SU SE STESSA, perché non sta riuscendo a passare da Pippo a Pluto nei tempi che aveva (inizialmente) previsto.
Ho letto di big.little e mi sembra più un concetto che un reale progetto.
Quello che lascia molti dubbi, è il numero di collegamenti.
Rispetto all'MCM AMD, richiede un totale di collegamenti in più, ed il punto di discussione è che ogni collegamento consuma e non poco (chi si ricorda Zen 1000 con l'IF con DDR4 oltre 3000?).
Non ho il link all'articolo... ma il recensore aveva scritto che come progetto è molto più "aperto" di quello AMD, ma la fattibilità esigerebbe una nanometria di vantaggio, cioè produrre i core con 1 nodo di vantaggio per compensare il maggior consumo dovuto ai collegamenti in numero superiore.
Mi fa strano... visto che al momento sembra più una soluzione per sopperire ad 1 nodo di svantaggio.
????
big.little se intel lo farà sarà nei portatili dove può avere senso...non penso che lo mettano nel desktop. ARM già lo fa da un sacco di tempo nei SOC dei telefoni. Inoltre il discorso collegamento MCM che c'entra?...perchè se adottano lo stile ARM sarà tutto su un unico die...core più piccoli che consumano meno rispetto a core + grossi...ma tutti su un unico die...anche perchè non so che senso avrebbe metterli su un die separato quando all'interno di un unico die hai core + piccoli con risparmio di transistor...fossi intel metterei i core atom più i core seri. e hai big.little
Non so chi ha scritto articolo che hai letto...
Piedone1113
23-09-2020, 15:05
ma perché insistiamo con questo parallelo (e nonostante il video mostrato da me in precedenza, in cui der8auer ha CHIARAMENTE mostrato come stanno le cose) ? :rolleyes:
Il 14nm di Intel NON è paragonabile direttamente al 7nm di TSMC.
Non c'è nulla li dentro che sia "grande il doppio".
Invece di 14 avrebbero potuto chiamarlo "Pippo" e dire "stiamo avendo difficoltà a passare da Pippo a Pluto". Il concetto sarebbe stato uguale, ma almeno nei blog sarebbero finite queste assurdità su Intel che nun gliela fa mentre AMD è già a 7 nm e punta ai 5nm :muro:
Intel è in ritardo SU SE STESSA, perché non sta riuscendo a passare da Pippo a Pluto nei tempi che aveva (inizialmente) previsto.
Non ti seguo.
I 14 Intel sono 14 Intel, i 7 tsmc sono 7 tsmc.
Ho sempre scritto che un 10nm intel sarebbe simile al 7+ tsmc e che un 7 intel avrebbe ( se continua con la sua consuetudine) come diretto concorrente un 5+ tsmc se non meglio.
Adesso mi vado a spulciare il video ( che mi son perso) e sono certo che confermerà le mie conclusioni
????
big.little se intel lo farà sarà nei portatili dove può avere senso...non penso che lo mettano nel desktop. ARM già lo fa da un sacco di tempo. Inoltre il discorso collegamento MCM che c'entra?...perchè se adottano lo stile ARM sarà tutto su un unico die...core più piccoli che consumano meno rispetto a core + grossi...ma tutti su un unico die...anche perchè non so che senso avrebbe metterli su un die separato quando all'interno di un unico die hai core + piccoli con risparmio di transistor...
Non so chi ha scritto articolo che hai letto...
io non so lui a che articolo si riferisca (ha sempre il viziaccio di non mettere riferimenti) ma io ho letto dichiarazioni abbastanza ufficiali in proposito, ed il big.LITTLE sembra previsto anche sui desktop, anche se ancora non si sa come, già a partire da Alder Lake, quindi nel 2022 (se non prima).
https://www.extremetech.com/computing/313803-intel-makes-it-official-hybrid-cpu-cores-arrive-with-alder-lake
Non ti seguo.
I 14 Intel sono 14 Intel, i 7 tsmc sono 7 tsmc.
Ho sempre scritto che un 10nm intel sarebbe simile al 7+ tsmc e che un 7 intel avrebbe ( se continua con la sua consuetudine) come diretto concorrente un 5+ tsmc se non meglio.
Adesso mi vado a spulciare il video ( che mi son perso) e sono certo che confermerà le mie conclusioni
mi riferivo nello specifico ad una sola frase che hai scritto, non al tuo discorso in generale.
A questa:
Intel è stata bravissima con i 14, ma tra 14 e 7 c'è un abisso per poter fare una comparazione diretta.
tra 14nm e 7nm DI INTEL ci sarebbe un abisso. Ma tra 14nm di Intel e 7nm di TSMC (perché ricordiamoci sempre che il nodo è di TSMC) la differenza non è quella che in molti credono.
Se ho interpretato male il tuo pensiero scusami.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.