View Full Version : [Thread Ufficiale] CPU Zen 14/12/7nm: AMD Ryzen!
paolo.oliva2
27-08-2018, 11:04
non so di elettronica ma pare che il fatto che possa andare ad 1V sia vero https://www.anandtech.com/show/11558/globalfoundries-details-7-nm-plans-three-generations-700-mm-hvm-in-2018
Se consideriamo che un die 14nm è 213mm2 e un Epyc o un 2990WX vede 4 di questi die per un totale di ~850mm2, il fatto che il 7nm possa garantire fino a 700mm2 a die, è pazzesco, sia per il numero di core max a die, sia per quanto potrà riguardare un die APU con HBM e iGPU.
in secondo luogo, "Si prevede che il processo di fabbricazione a 7 nm dell'azienda porti a un potenziale di frequenza del 40% rispetto alla tecnologia di produzione a 14LPP che GlobalFoundries utilizza oggi, assumendo lo stesso numero di transistor e potenza. La tecnologia ridurrà anche il consumo energetico dei circuiti integrati del 60% alla stessa frequenza e complessità".
N.B.
Non vuole dire che il 7nm prossimo (gen1) avrà questi valori, ma il 7nm arrivato alla gen3.
Questo perchè +40% sui 3,7GHz di frequenza minima garantita (2700X), un +40% equivarrebbe >5,1GHz e oltre 6GHz sulla massima (4,4GHz di un 2950X).
Boh... io ero sul pensiero che AMD si sia rivolta pure a TSMC per caratteristiche diverse del silicio... tipo 7nm GF rivolto più alle massime frequenze e 7nm TSMC più parco nei consumi (Epyc server)... ma a guardare quei dati, io sarei più dell'idea che AMD abbia optato per 2 FAB per Zen per non avere prb di insufficienza quantità di produzione... perchè in 2 anni pieni di produzione, con quei dati silicio, per me saranno da incubo per Intel.
CUT
stai mescolando considerazioni su VRM (il discorso era riferito alle mobo e alla corrente che possono offrire) e sul fabbisogno energetico dei futuri processori sulla base di una stima lineare di entrambi i fattori.
ad ogni modo il discorso ha comunque un suo perché logico: se si compra oggi una mobo lasciando aperto lo spiraglio di un upgrade futuro è meglio optare per una con una circuitiera migliore.
fabio.93
27-08-2018, 12:28
Ragazzi, dato che posso recuperare un dissipatore arctic alpine 64 plus da un vecchio pc, secondo voi sul 2400g è meglio questo o lo stock?
capitan_crasy
27-08-2018, 12:43
Ragazzi, dato che posso recuperare un dissipatore arctic alpine 64 plus da un vecchio pc, secondo voi sul 2400g è meglio questo o lo stock?
Il primo è tecnicamente più avanzato, quindi potresti tentare un leggero overclock (dissipa più watt e la ventola è più grande); se lo vuoi tenere in defaut uno vale l'altro...
Semplicemente perchè confondi quello che usi tu (singolo caso) con il caso generale.
Che continueranno ad esserci i casi limiti di gente che ha ancora bisogno di un full tower come chi adesso usa solo il mini itx per farci anche pc high end con liquido custom.
Ma nella stragrande maggioranza dei casi, per utilizzo generico o anche da gaming (per chi non vuole stare su itx) il formato m-atx è più che utile, visto che ormai la necessità di avere 3-4 slot pci o pci-ex è "scemata" un pò per il miglioramento dei componenti interni, un pò per la miniaturizzazione degli altri componenti.
Quello che dicevo è che semplicemente, nonostante questo, nessun produttore produca schede m-atx di un certo livello, cosa che secondo me avrebbe un mercato importante.
Stiamo discutendo sul nulla, lo sai? :D
Ti ho detto che assemblo più sistemi mATX che ATX, e ti ho portato il mio come esempio del perché ATX ha senso.
Schede mATX di livello ne ho viste un po' più sulle piattaforme Intel che AMD, questo è vero, sul perché sia così riassumo quanto ho ipotizzato nei miei precedenti post, ovvero che il risparmio di spazio di mATX è relativamente piccolo, e siccome il costo delle ATX è comunque più alto a pari componentistica - seppur di poco, ecco che su ATX hanno più margini, anche fossero 30 centesimi a scheda madre consegnata.
newtechnology
27-08-2018, 12:53
Ragazzi 2950x ordinato , in arrivo per Venerdì....
Speriamo bene , mi preoccupano un po le temp , il 1950x scaldava pochissimo , speriamo che resti allo stesso livello🤞
fabio.93
27-08-2018, 12:59
Grazie capitan_crasy
Ragazzi quale mb ITX e le ram da abbinare a 2200g/2400g. Grazie.
PS. video h265 @ 4k regge vero?
capitan_crasy
27-08-2018, 16:43
Ragazzi quale mb ITX e le ram da abbinare a 2200g/2400g. Grazie.
A settembre devo (sempre se arriva:stordita:) assemblare un mini PC con 2200G e personalmente ho scelto la ASRock B450 Gaming-ITX/ac (https://www.asrock.com/mb/AMD/Fatal1ty%20B450%20Gaming-ITXac/index.asp)
PS. video h265 @ 4k regge vero?
Direi proprio di si...
Clicca qui... (https://www.guru3d.com/articles-pages/amd-ryzen-5-2400g-review,16.html)
Ragazzi quale mb ITX e le ram da abbinare a 2200g/2400g. Grazie.
PS. video h265 @ 4k regge vero?
La Vega integrata ha il supporto alla decodifica hardware HEVC 4k 10bit 60FPS :)
Ottimo, per le ram invece? :)
Glofo ha abbandonato i 7nm LOL
Ciò significa che tutti i prodotti amd @7nm saranno TSMC
Inviato dal mio XT1068 utilizzando Tapatalk
Gyammy85
27-08-2018, 21:50
Glofo ha abbandonato i 7nm LOL
Ciò significa che tutti i prodotti amd @7nm saranno TSMC
Inviato dal mio XT1068 utilizzando Tapatalk
Dove lo hai letto?
Dove lo hai letto?https://www.anandtech.com/show/13277/globalfoundries-stops-all-7nm-development
Inviato dal mio XT1068 utilizzando Tapatalk
capitan_crasy
27-08-2018, 22:09
Glofo ha abbandonato i 7nm LOL
Ciò significa che tutti i prodotti amd @7nm saranno TSMC
Inviato dal mio XT1068 utilizzando Tapatalk
Facendo una considerazione (e in pochi ci credevano) non avrebbe avuto molto senso produrre i 7nm Epyc e i Ryzen 3000 da due fonderie diverse...
E un peccato che GF non resti al passo con la concorrenza ma se "perde" il suo maggiore cliente è anche inutile investire sui 7nm, almeno non subito...
digieffe
27-08-2018, 22:32
dedicato a GF https://youtu.be/Qlq3M8eon2M?t=1m11s
bagnino89
27-08-2018, 22:33
Glofo ha abbandonato i 7nm LOL
Ciò significa che tutti i prodotti amd @7nm saranno TSMC
Inviato dal mio XT1068 utilizzando Tapatalk
Azzo.
Ma ce la farà TSMC a soddisfare sia AMD che Nvidia?
Gyammy85
27-08-2018, 22:34
https://www.anandtech.com/show/13277/globalfoundries-stops-all-7nm-development
Inviato dal mio XT1068 utilizzando Tapatalk
Wow, quindi amd dal premium partner? :cool:
Dato che nvidia usa solo gddr6, le hbm2 grosse se le pappa tutte amd, verranno fuori delle belle navi hihi :cool:
SpongeJohn
27-08-2018, 22:46
dedicato a GF https://youtu.be/Qlq3M8eon2M?t=1m11s
Ed infatti non erano proprio loro a ciarlare di 5 ghz coi 7nm, con conseguente sbrodolamento lato amd? ... spero gf vada definitivamente al macero.
Benché si voglia minimizzare con la foglia di fico tsmc, questa (lato amd) é una mazzata non da poco. A meno di due mesi dalla serie 9 di intel che dovrebbe eguagliare amd in mt, questa é una mazzata in considerazione di quanto si era sicuri dei 7nm in rapporto al ritardo di intel sui 10.
Prima gf fallisce, meglio é. Sin dalla sbagliatissima acquisizione: ha fatto solo danni.
capitan_crasy
27-08-2018, 22:58
Ed infatti non erano proprio loro a ciarlare di 5 ghz coi 7nm, con conseguente sbrodolamento lato amd? ... spero gf vada definitivamente al macero.
Benché si voglia minimizzare con la foglia di fico tsmc, questa (lato amd) é una mazzata non da poco. A meno di due mesi dalla serie 9 di intel che dovrebbe eguagliare amd in mt, questa é una mazzata in considerazione di quanto si era sicuri dei 7nm in rapporto al ritardo di intel sui 10.
Prima gf fallisce, meglio é. Sin dalla sbagliatissima acquisizione: ha fatto solo danni.
Guarda che non ce nessuna sorpresa, ne tanto meno non ce stata nessuna mazzata...
AMD ha cominciato con lo sviluppo con i 7nm già da parecchio quindi la decisione di GF di interrompere lo sviluppo è legato anche dalla scelta di AMD di produrre ZEN2 da TSMC.
Alla fine i 14nm/12nm sono stati ottimi per la prima generazione di CPU ZEN1, ora per ZEN2 ci si affida ad un altra fonderia ma se credi che AMD sia stata costretta ad utilizzare i 7nm di TSMC siamo fin troppo ingenui...
macchiaiolo
27-08-2018, 23:17
Ma alla fine, in generale negli anni quale è stata tra le due la migliore fonderia? Da che ricordo amd nn ha avuto sempre qualche problema di bontà nel processo produttivo?
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Guarda che non ce nessuna sorpresa, ne tanto meno non ce stata nessuna mazzata...
AMD ha cominciato con lo sviluppo con i 7nm già da parecchio quindi la decisione di GF di interrompere lo sviluppo è legato anche dalla scelta di AMD di produrre ZEN2 da TSMC.
Alla fine i 14nm/12nm sono stati ottimi per la prima generazione di CPU ZEN1, ora per ZEN2 ci si affida ad un altra fonderia ma se credi che AMD sia stata costretta ad utilizzare i 7nm di TSMC siamo fin troppo ingenui...
Concordo!
io sapevo che GF fosse stato uno spinoff di amd, non mi risulta che amd l abbia acquisita ma bensi venduta.
unnilennium
28-08-2018, 05:08
io sapevo che GF fosse stato uno spinoff di amd, non mi risulta che amd l abbia acquisita ma bensi venduta.E infatti e così. Comunque tra progetto e resa esiste sempre un ritardo, sia and che Intel... Non si può prevedere il silicio come sarà... And ha dovuto tenersi i 32nm per anni, mentre Intel galoppava, adesso le parti si sono invertite. I core i9 che stanno arrivando non sono nulla di nuovo, lato architetturale, a meno di non chiamare rivoluzione la saldatura dell'his... Vedremo come vanno gli 8core finalmente, e poi vediamo anche i prezzi... Ma non credo ci saranno stravolgimenti troppo gravi. Augurare il fallimento di qualcuno non e mai un buon auspicio
Inviato dal mio MI 5 utilizzando Tapatalk
ingenuamente pensavo avessero preso accordo con tsmc per i chip destinati alle cpu server così da poter differenziare le linee di produzione e ricavare chip più specializzati (server a conta aumentata o maggior efficienza, desktop più orientati alle prestazioni massime o ad area ridotta), direi che non c'ho preso per niente (a questo punto torno ad aspettarmi che come per la prima serie con un chip facciano tutto destinandolo ad un prodotto anziché l'altro in base alla selezione).
bagnino89
28-08-2018, 07:47
Ma i 7 nm di TSMC arrivano lo stesso a fare millemila GHz? :asd:
Gyammy85
28-08-2018, 07:49
Ma i 7 nm di TSMC arrivano lo stesso a fare millemila GHz? :asd:
Ho sentito dire che daranno quelli buoni alle marche da gioco, ad amd resteranno quelli da 1,8 ghz
Gyammy85
28-08-2018, 07:52
LOL, ci siamo fatti una marea di seghe mentali sul perché Rome e Vega20 siano sui 7nm immaginandoci n-mila possibili motivazioni e poi la realtà era così semplice :D
Eh stavolta si scherza poco, comunicato ufficiale
http://ir.amd.com/news-releases/news-release-details/expanding-our-high-performance-leadership-focused-7nm
E niuzz di anand
https://www.anandtech.com/show/13279/amd-to-fab-7nm-cpus-gpus-at-tsmc
Forza amd che c'è bisogno di roba seria sul mercato :O
digieffe
28-08-2018, 08:05
Eh stavolta si scherza poco, comunicato ufficiale
http://ir.amd.com/news-releases/news-release-details/expanding-our-high-performance-leadership-focused-7nm
E niuzz di anand
https://www.anandtech.com/show/13279/amd-to-fab-7nm-cpus-gpus-at-tsmc
Forza amd che c'è bisogno di roba seria sul mercato :O
purtroppo, in questo periodo non ho abbastanza tempo, in due righe quali sono le novità, i pro ed i contro?
grazie
Gyammy85
28-08-2018, 08:16
purtroppo, in questo periodo non ho abbastanza tempo, in due righe quali sono le novità, i pro ed i contro?
grazie
Non ne so molto neanch'io, ma inizialmente si erano fatte congetture su quali chip amd avrebbe commissionato a glofo e quali a tsmc, con l'uscita di glofo cambia un po' tutto lo scenario. AMD probabilmente sapeva già tutto, ed avrà fatto accordi con tsmc in precedenza. Lo dimostra il fatto che sono in anticipo (avevano intenzione di lanciare vega 20 nel 2019 ed invece arriverà a fine anno).
Marko#88
28-08-2018, 08:23
Posso chiedere un aiuto veloce? Mobo e ram senza pretese da abbinare ad un 2200g? Avevo identificato una Asrock B350M Pro4 (dovrebbe già arrivare col bios aggiornato presumo) mentre per la ram? È un pc senza nessuna grossa pretesa: browsing, office, media server, giochi molto tranquilli senza nessuna richiesta di grafica maxata o framerate elevatissimi.
bagnino89
28-08-2018, 08:39
Ho sentito dire che daranno quelli buoni alle marche da gioco, ad amd resteranno quelli da 1,8 ghz
Scherzi a parte ero abbastanza serio, anche i 7 nm di TSMC promettono di garantire frequenze elevate o è tutta un'altra storia?
Gyammy85
28-08-2018, 08:51
Scherzi a parte ero abbastanza serio, anche i 7 nm di TSMC promettono di garantire frequenze elevate o è tutta un'altra storia?
Penso proprio di si, a conti fatti il silicio di tsmc è risultato migliore.
Marko#88
28-08-2018, 09:16
Non presumere, prendi una B450 se vuoi essere sicuro.
La ram più è veloce e meglio è, per non avere nessun problema ti consiglio di scegliere la velocità in base al profilo JEDEC, per esempio le HyperX hanno i datasheet in pdf pubblici modello per modello con dichiarato il data rate JEDEC.
Quanta ram ci vuoi mettere?
Per la ram 8Gb saranno sufficienti per l'utilizzo che ne farà la persona a cui interessa.
Avevo visto le B450 ma mi paiono un po' più care a parità di caratteristiche, devo controllare meglio. Fosse per me 20/40 euro non cambierebbero nulla ma il budget che mi danno è quello che è e tocca farci i conti :asd:
EDIT: trovata a poco la DS3H :)
Un bel problema, sicuramente i prezzi non potranno essere così bassi con i 7nm, per ovvie ragioni di concorrenza sparita...
come sempre, grazie GF... che banda oh, da quando si sono separati da AMD sono riusciti a fare un solo silicio decente e grazie a Samsung.Lato performance andranno sicuramente meglio di quelli di glofo.
Lato prezzi sicuramente ci sarà un rialzo, tamc avrà monopolio
Inviato dal mio XT1068 utilizzando Tapatalk
Senza i 7nm di GF c'è da considerare che TSMC dovrà soddisfare le richieste di Apple, Qualcomm, Nvidia ed Amd, più o meno in quest'ordine (i dettagli di chi sia in cima alla lista sono riservati, ma non dovremmo essere lontani).
Il fatto che Amd abbia deciso di partire sui 7nm con le cpu più remunerative, indica che TSMC si fa' pagare bene ed è necessario avere i margini più alti possibile.
Vorrei sbagliarmi, ma potrebbero uscire prima i Threadripper 7nm nel Q3 2018, ed i Ryzen nel Q4.
Staremo a vedere.
Certo fa' ridere rileggere oggi le dichiarazioni di qualche mese fa' sui 7nm, del CEO di GF.
bagnino89
28-08-2018, 09:41
Senza i 7nm di GF c'è da considerare che TSMC dovrà soddisfare le richieste di Apple, Qualcomm, Nvidia ed Amd, più o meno in quest'ordine (i dettagli di chi sia in cima alla lista sono riservati, ma non dovremmo essere lontani).
AMD sempre al vertice :asd:
Il fatto che Amd abbia deciso di partire sui 7nm con le cpu più remunerative, indica che TSMC si fa' pagare bene ed è necessario avere i margini più alti possibile.
Vorrei sbagliarmi, ma potrebbero uscire prima i Threadripper 7nm nel Q3 2018, ed i Ryzen nel Q4.
Staremo a vedere.
Mi sa che volevi scrivere 2019... Quindi secondo te i Ryzen 7 nm vanno a finire a fine 2019? Più di un anno ancora insomma. Ed io che pensavo di vedere qualcosa entro aprile 2019...
Ed io che pensavo di vedere qualcosa entro aprile 2019...
per me in questo momento è pressoché impossibile indovinare qualcosa, ma mi aspetto che i produttori di "cose in cui verranno usati chip a 7nm" a volume di vendita molto ampio saranno prioritari così come i produttori di "cose in cui verranno usati chip a 7nm" ad alto margine - e in questo potrebbe anche rientrare AMD se usa ancora una volta fino a 4 chip per cpu e dato che comincia con i prodotti server, tra l'altro chip che non passano la selezione per impiego server potrebbero comunque essere buoni per utilizzo desktop rispettando la nostra aspettativa di lancio, almeno con una parte della lineup, intorno ad aprile - però siamo nel dominio del BHO :D .
AMD sempre al vertice :asd:
Mi sa che volevi scrivere 2019... Quindi secondo te i Ryzen 7 nm vanno a finire a fine 2019? Più di un anno ancora insomma. Ed io che pensavo di vedere qualcosa entro aprile 2019...
Ovviamente intendevo 2019.
I debutti delle varie cpu Amd desktop/server/HEDT nel 2017, e poi 2018 (ma qui niente server), per me verranno cambiati nel 2019.
Per ora è noto che Epyc sarà la prima cpu 7nm, staremo a vedere il resto.
SpongeJohn
28-08-2018, 10:12
Guarda che non ce nessuna sorpresa, ne tanto meno non ce stata nessuna mazzata...
AMD ha cominciato con lo sviluppo con i 7nm già da parecchio quindi la decisione di GF di interrompere lo sviluppo è legato anche dalla scelta di AMD di produrre ZEN2 da TSMC.
Alla fine i 14nm/12nm sono stati ottimi per la prima generazione di CPU ZEN1, ora per ZEN2 ci si affida ad un altra fonderia ma se credi che AMD sia stata costretta ad utilizzare i 7nm di TSMC siamo fin troppo ingenui...
Questo non possiamo saperlo, GF sta commettendo un suicidio commerciale abbandonando di fatto la sua mission principale. Forse è un'eutanasia dettata dal rapporto con AMD che vuole liberarsene? Boh.
In ogni caso quello che sappiamo per certo ora è che AMD sta diventanto definitivamente fabless, in un momento critico in cui vincere la corsa ai <10nm è cruciale. Era GF a fare proclami su proclami approposito dei 7nm, chissà come si evolverà la cosa visto che fare accordi con TSMC per poche linee di produzione è un conto. Affidare a loro quasi il 90% degli ordini la vedo dura.
Ah altra notizia che non mi piace per niente è che Jim Anderson (vice presidente molto attivo quando c'era da presentare prodotti, tipo Threadripper) lascia.
Gyammy85
28-08-2018, 10:14
Questo non possiamo saperlo, GF sta commercialmente commettendo un suicidio commerciale abbandonando di fatto la sua mission principale. Forse è un'eutanasia dettata dal rapporto con AMD che vuole liberarsene? Boh non ci è dato saperlo.
In ogni caso quello che sappiamo per certo ora è che AMD sta diventanto definitivamente fabless, in un momento critico in cui vincere la corsa ai <10nm è cruciale. Era GF a fare proclami su proclami approposito dei 7nm, chissà come si evolverà la cosa visto che fare accordi con TSMC per poche linee di produzione è un conto. Affidare a loro quasi il 90% degli ordini la vedo dura.
Ah altra notizia che non mi piace per niente è che Jim Anderson (vice presidente molto attivo quando c'era da presentare prodotti, tipo Threadripper) lascia.
Credo faccia tutto parte della cura lisa su. Via tutta la roba secca che non serve.
E intanto il titolo vola a 25 dollari, il massimo da tipo 15 anni...
capitan_crasy
28-08-2018, 10:19
GF abbandona nodi inferiori ai 12nm attuali.
AMD aveva già due design a 7nm con TSMC (EPYC Rome e Instinct Vega20) e quando ne abbiamo avuto notizia abbiamo cominciato a fare ipotesi sul perché TSMC.
Erano tutte sbagliate, erano design con TSMC perché GF smette :D
Più chiaro di così...;)
Un bel problema, sicuramente i prezzi non potranno essere così bassi con i 7nm, per ovvie ragioni di concorrenza sparita...
Diciamo che se non arriva Vega 7nm sul mercato desktop (cosa già confermata dalla stessa AMD:muro: ) la colpa è anche di GF, ma dopo il mezzo disastro della versione Vega a 14nm è meglio cercare altri lidi, possibilmente lontano anni luce da IBM...:rolleyes:
come sempre, grazie GF... che banda oh, da quando si sono separati da AMD sono riusciti a fare un solo silicio decente e grazie a Samsung.
Diamo a Cesare quel che è di Cesare, ovvero i peggiori in assoluto sono stati i 65nm seguiti a ruota dai 32nm, ma gran parte della colpa è da imputare ad IBM soprattutto per i numeri che dovevano fare con i 32nm SOI che poi si sono dimostrati semplicemente irrealizzabili...
Di contro i 45nm Ultra low k (Core Thuban) sono stati i migliori in assoluto, seguiti dai 90nm di seconda generazione...
SpongeJohn
28-08-2018, 10:20
Credo faccia tutto parte della cura lisa su. Via tutta la roba secca che non serve.
E intanto il titolo vola a 25 dollari, il massimo da tipo 15 anni...
Wow wow wow momento, ferma, calma.
Tra quelli che avrei voluto vedere partire da AMD (tipo l'intero reparto marketing, beh almeno quello l'han sbolognato a intel), Anderson NON era uno di quelli. Threadripper (commercialmente parlando, perchè lato tecnica è un side project interno) l'ha promosso lui sul mercato.
E poi il roscio con gli occhiali m'era simpatico :|
https://www.tomshw.it/data/thumbs/8/9/3/8/jim-anderson-5e023dee80b709ff751f24ec8fcaa755c.jpg
Gyammy85
28-08-2018, 10:33
Diciamo che se non arriva Vega 7nm sul mercato desktop (cosa già confermata dalla stessa AMD:muro: ) la colpa è anche di GF, ma dopo il mezzo disastro della versione Vega a 14nm è meglio cercare altri lidi, possibilmente lontano anni luce da IBM...:rolleyes:
Bravo, il difetto di vega sono i 14 nm disastrosi di gf fondamentalmente. E credo che non si andata propriamente giù a lisa...
Era GF a fare proclami su proclami approposito dei 7nm, chissà come si evolverà la cosa visto che fare accordi con TSMC per poche linee di produzione è un conto. Affidare a loro quasi il 90% degli ordini la vedo dura.
5GigggaHerttttz fhahcihlhih prima di ieri!
da ignorante quale sono in merito immagino che o i costi sono troppo alti per le rese previste o ci siano in realtà difficoltà tecniche molto serie rispetto a cui fa un minor danno d'immagine dire che si tratta di problemi economici.
bagnino89
28-08-2018, 11:00
5GigggaHerttttz fhahcihlhih prima di ieri!
da ignorante quale sono in merito immagino che o i costi sono troppo alti per le rese previste o ci siano in realtà difficoltà tecniche molto serie rispetto a cui fa un minor danno d'immagine dire che si tratta di problemi economici.
Sembrava troppo bello per essere vero, va a finire che Intel prima o poi si sveglia ed i suoi 10 nm si rivelano persino migliori.
Peter Sellers
28-08-2018, 11:41
AMD sempre al vertice :asd:
Mi sa che volevi scrivere 2019... Quindi secondo te i Ryzen 7 nm vanno a finire a fine 2019? Più di un anno ancora insomma. Ed io che pensavo di vedere qualcosa entro aprile 2019...
perchè ti sei fatto, tuo malgrado, suggestionare da paolo oliva...:sofico: :p
intanto ecco cosa gli scrivevo in data 3 agosto, prima delle ferie... ;)
stai pure tranquillo e vivi in pace
perche fra 18 mesi il TR4 su base Zen2 e 7nm ancora non sarà uscito...:fagiano:
Difficile fare previsioni.
Per quel che sappiamo oggi, i 10nm d'Intel dovrebbero arrivare sui desktop dopo i 7nm di Amd.
Io vedo uno slittamento dai precedenti debutti dei Ryzen al Q2, ad un Q4, ma è solo una mia idea.
E' di sicuro interesse per Amd, offrire nel frattempo qualcosa di più performante del 2700X: sebbene l'i9-9900K a 150-200$ in più, non sarà nemmeno nella stessa fascia di mercato, non potrebbe stare più di 6 mesi solo con quello.
Chissà, magari salterà fuori veramente un 2800X.
paolo.oliva2
28-08-2018, 11:57
Boh... Io sarei dell'idea che AMD abbia immesso i TR X24 eX32 per "pulire" in modo rapido i due Zen+ 12nm e nel contempo rendere molto appetibile la piatta TR4, così da prendere fette di mercato su quel settore.
Altro punto... In primis il settore server richiede un tot di tempo in più per le certificazioni... e i die per server sono selezionati, e che farebbe AMD? Se li terrebbe
fermi in magazzino?
A che pro il tutto? Tenere un 70% (almeno) di die prodotti, tra gli scarti e quelli che non supererebbero la selezione, non porterebbe alcun guadagno oltre che una perdita pazzesca del vantaggio su Intel, diciamo nel proporre un X12 Zen 7nm come anti 9900K.
Io invece sarei dell'idea che AMD stia bella zitta, perché al momento Zen+, tra 2600/2600X e 2700X per prezzo e prestazioni è competitiva, e sarei dell'idea che aspetta il lancio del 9900K per conoscerne i dati, i prezzi e prenderne le contromisure.
Per spiegarmi meglio, ipotizziamo che Intel prezzi a 450€ un 9900K. AMD potrebbe controbattere offrendo un Zen2 X12 7nm a 450€, AM4.
Chi prenderebbe un 2950X X16 a prezzo doppio con 4 core in più?
Del resto la notizia che AMD non produrrà Zen2 da GF, è venuta fuori da ieri? Beh, mi sembra evidente che la si è voluta coprire... quindi, se vogliamo, con una assenza di ES Zen2 desktop e invece presenza di ES Epyc, è ovvio che se si voleva coprire tutto, la soluzione era quella di riportare prima Epyc e poi desktop.
Gyammy85
28-08-2018, 12:03
perchè ti sei fatto, tuo malgrado, suggestionare da paolo oliva...:sofico: :p
intanto ecco cosa gli scrivevo in data 3 agosto, prima delle ferie... ;)
Improvvisamente i 7 nm di tsmc fanno schifo :asd:
Amd dice di essere in anticipo e voi dite "no è in ritardo", vabbè :asd:
La nuova frontiera del damage control
Per spiegarmi meglio, ipotizziamo che Intel prezzi a 450€ un 9900K.
dai leak di questi giorni sembra che si aggirerà sui 500/600$, non so però se sia il prezzo di listino o una stima, l'ho visto qua e la oltre ad uno store di non ricordo dove con il preorder si è visto a cifra ancora maggiore (che probabilmente è solo un placeholder).
con la serie nove da quel poco che si è visto intel sarà nuovamente sopra amd dovrebbe giocare di anticipo e rilasciare i 7nm un po prima, al massimo prolungando il periodo di doppia commercializzazione dei 12 e 7nm, se escono ad inizio estate perdono sicuramente terreno si intel.
Io sono del parere che se Intel sta' avendo problemi con i 10nm, vuol dire che scendere sotto i 12 nm (addirittura 7) è davvero problematico.
perchè ti sei fatto, tuo malgrado, suggestionare da paolo oliva...:sofico: :p
intanto ecco cosa gli scrivevo in data 3 agosto, prima delle ferie... ;)
Lisa Su ha detto che le roadmap saranno rispettate, anzi, che sono pure in anticipo. Sono parole di poco tempo fa, quindi SICURAMENTE sapevano di GF.
Non credo affatto che avrebbe fatto un'uscita del genere senza essere sicura delle capacità di TSMC.
Per TSMC evidentemente non sono tanto problematici i 7nm: i soc Huawei ed Apple vanno in commercio il prossimo mese a botte di decine di milioni di pezzi al mese, seguiti a ruota da Qualcomm.
Più piccoli e relativamente più semplici delle cpu desktop, senza parlare delle gpu, ma la resa deve essere ottimale fin da subito (inteso entro il 2018) altrimenti sono dolori.
Se a giugno Amd ha parlato di prodotti complessi, server e gpu, a 7nm tra fine 2018 e inizio 2019, evidentemente ci sono indizi che la produzione procede bene.
nevets89
28-08-2018, 12:36
con la serie nove da quel poco che si è visto intel sarà nuovamente sopra amd dovrebbe giocare di anticipo e rilasciare i 7nm un po prima, al massimo prolungando il periodo di doppia commercializzazione dei 12 e 7nm, se escono ad inizio estate perdono sicuramente terreno si intel.
mah, tanto quando amd è sopra si grida "grazie aemmedì, così posso comprare l'8700k", se sarà intel sopra allora si dirà "che aemmedì si sbrighi a tirare fuori ryzen 3, altrimenti il 9900k non scende di prezzo e quindi mi tocca spendere un patrimonio"....
io credo che in questo momento ad amd non importi molto se lo scettro di cpu più potente lo ha intel, l'importante è essere competitivi e la serie ryzen+ rimarrà competitiva per molto, quelli che vogliono l'i9 9900k lo compreranno, anche se amd facesse uscire un 12 core a 4.5GHz direbbero "eh ma il 9900k lo overclocco a 5.5Giggi e recupero il gap, poi ho un single thread molto più alto"...
IMHO amd può tranquillamente continuare con i suoi tempi e far uscire i ryzen 3 quando saranno pronti e senza errori di gioventù.
capitan_crasy
28-08-2018, 12:48
Vedo che certe cose non cambiano mai...:asd:
State sereni che comunque quello che crediamo di sapere non conta un cavolo a merenda e fare previsioni alla "remember me" non serve a dimostrare proprio nulla.
Per ora quello confermato/ufficiale è che Vega a 7nm la danno per dicembre 2018 (solo per il mercato professionale), ma non si sa se sia la produzioni in volumi o la presentazione, ZEN2 7nm uscirà nel 2019, prima come Epyc poi come Ryzen; più avanti dovrebbe esserci anche Threadripper.
Per le APU per ora niente di confermato solo rumors di un possibile passaggio ai 12nm, mentre per la prossima generazione di GPU integrata si parla di NAVI, quindi 2019 (molto?) inoltrato oppure addirittura 2020, almeno per quanto riguarda il socket AM4...
Gyammy85
28-08-2018, 13:23
Intervista (non proprio) a lisa su di ieri pomeriggio sulle varie vicende
https://www.marketwatch.com/story/interview-with-amds-su-on-change-in-foundry-its-roadmap-and-new-head-of-client-compute-business-2018-08-28?siteid=yhoof2&yptr=yahoo
Free Gordon
28-08-2018, 14:48
GF abbandona nodi inferiori ai 12nm attuali.
AMD aveva già due design a 7nm con TSMC (EPYC Rome e Instinct Vega20) e quando ne abbiamo avuto notizia abbiamo cominciato a fare ipotesi sul perché TSMC.
Erano tutte sbagliate, erano design con TSMC perché GF smette :D
AMD ed Nvidia quindi usciranno pressappoco nello stesso periodo con le GPU @7nm.
Magari Nvidia avrà 3 mesi di ritardo ma nulla di sostanziale.
Questo per chi immaginava che AMD avesse chissà quale vantaggio grazie ai "precoci" 7nm di GloFo... :asd:
Sempre peggio GloFo... :doh: per AMD invece (anche se hanno dovuto pagare pegno :rolleyes: ) meglio così. Si leva quei brocchi dalle palle...
vi prego, non tirate in mezzo le schede grafiche...per sbaglio ho aperto una delle notizie e ho visto il massacro che c'è sotto nei commenti :D
paolo.oliva2
28-08-2018, 16:28
Io parlerei invece di silicio.
Lasciamo a parte Intel, perché tanto è guerra persa, nel senso che se la stessa Intel riporta che per fine 2020 produrranno su un nuovo silicio (che lei riporta sempre 10nm ma ci sono voci invece che sia il 14nm portato a 12nm) mentre se guardiamo lato AMD si parla di ES Epyc 7nm per i produttori già in corso o al più entro il prox mese.
Se qualcuno pensa che gioisco, si sbaglia. Se entrambi i produttori sono a filo con prestazioni, allora è certa la guerra di prezzo, altrimenti chi sia in vantaggio comunque ci marcerà. Lo sottolineo solamente perché qualcuno pensa che Intel sia un dio, invece volente o nolente sta saltando per le botte nei denti prese da AMD. Senza polemica, mi sembra piuttosto evidente. Poi mi sembra innaturale tifare contro AMD, a meno che non vogliate vivere con il 9900K versione ABCDEFGHI fino al 2050. :).
Per il discorso del silicio TSMC e le frequenze massime, secondo me è un discorso troppo complesso e parlare sul nulla non vale una mazza.
Quello che però vorrei far notare, è che la frequenza massima è relativa, la si deve accoppiare al TDP.
Facciamo un esempio, e prendo Intel perché il suo silicio pompa. Intel rispetto ad AMD non ha un vero e proprio limite di frequenza in sé, ma ha più un limite di TDP. AMD ha scelto più un compromesso tra avere più core possibili in un certo TDP anche a scapito della frequenza massima, è al momento sembra che i 4,4GHz siano proprio la crema della crema.
Però occhio, che se fissiamo, come del resto è, il TDP come vero limite, avremmo questo:
(dati a caso)
Ogni silicio ha una impennata dei consumi arrivando alla soglia massima di frequenza in rapporto all'efficienza.
Ipotizziamo Zen+, 12nm, X8 sui 100W per 4GHz, 140W per 4,3GHz.
Ora... SE il 7nm TSMC avesse una curva simile al 12nm GF, però bisogna rapportare il calo di TDP del 7nm sul 12nm, nel senso che se si passasse da 100W a 60W per 4GHz, e si avesse la stessa impennata, però non si avrebbero 140W ma 100W è sarebbe commerciabile. È per questo che direi che la frequenza è relativa, perché comunque sarebbe in base al TDP.
Grazie per le risposte. Che ne pensate della b450 aorus m?
A parte che anno ripetuto la "stranezza" di alcune altre MB B350 (ha 4 fasi sulla cpu, con circuiti raddoppiati, ma due di loro, quindi una fase, non hanno dissipatori... va a sapere perché :) ), non sembra male.
Gyammy85
29-08-2018, 08:08
Io parlerei invece di silicio.
Lasciamo a parte Intel, perché tanto è guerra persa, nel senso che se la stessa Intel riporta che per fine 2020 produrranno su un nuovo silicio (che lei riporta sempre 10nm ma ci sono voci invece che sia il 14nm portato a 12nm) mentre se guardiamo lato AMD si parla di ES Epyc 7nm per i produttori già in corso o al più entro il prox mese.
Se qualcuno pensa che gioisco, si sbaglia. Se entrambi i produttori sono a filo con prestazioni, allora è certa la guerra di prezzo, altrimenti chi sia in vantaggio comunque ci marcerà. Lo sottolineo solamente perché qualcuno pensa che Intel sia un dio, invece volente o nolente sta saltando per le botte nei denti prese da AMD. Senza polemica, mi sembra piuttosto evidente. Poi mi sembra innaturale tifare contro AMD, a meno che non vogliate vivere con il 9900K versione ABCDEFGHI fino al 2050. :).
Per il discorso del silicio TSMC e le frequenze massime, secondo me è un discorso troppo complesso e parlare sul nulla non vale una mazza.
Quello che però vorrei far notare, è che la frequenza massima è relativa, la si deve accoppiare al TDP.
Facciamo un esempio, e prendo Intel perché il suo silicio pompa. Intel rispetto ad AMD non ha un vero e proprio limite di frequenza in sé, ma ha più un limite di TDP. AMD ha scelto più un compromesso tra avere più core possibili in un certo TDP anche a scapito della frequenza massima, è al momento sembra che i 4,4GHz siano proprio la crema della crema.
Però occhio, che se fissiamo, come del resto è, il TDP come vero limite, avremmo questo:
(dati a caso)
Ogni silicio ha una impennata dei consumi arrivando alla soglia massima di frequenza in rapporto all'efficienza.
Ipotizziamo Zen+, 12nm, X8 sui 100W per 4GHz, 140W per 4,3GHz.
Ora... SE il 7nm TSMC avesse una curva simile al 12nm GF, però bisogna rapportare il calo di TDP del 7nm sul 12nm, nel senso che se si passasse da 100W a 60W per 4GHz, e si avesse la stessa impennata, però non si avrebbero 140W ma 100W è sarebbe commerciabile. È per questo che direi che la frequenza è relativa, perché comunque sarebbe in base al TDP.
Io non mi preoccuperei più di tanto, se ora si arriva a 4,3-4,4 ghz coi 7 nm è logico aspettarsi minimo 500 mhz in più (2x density, 2x perf/watt, 1.35x performance), per la roadmap faranno come al solito, del resto gli epyc naples hanno anticipato quello che si è visto dopo col 2990wx come core count, quindi è logico che escano per primi sui 7 nm, e per marzo-aprile zen 2, non mi stupirei se presentassero assieme ryzen 3+navi
Chi mi ha seguito saprà che ad aprile ho avuto problemi improvvisi di instabilità con la RAM in firma (quasi certamente un modulo fallato dopo 6 mesi di uso) ed ho provveduto a sostituirla in garanzia sull'amazzone. Oggi aggiornavo i miei dati sul mio hardware e mi sono accorto con Typhoonburner che i nuovi banchi sono Hynix C-die "CJR", credo relativamente nuovi e con un "salto" della dimensione da 25nm a 18nm. Qualcuono ne sa di più ? Sono migliori degli M-die o al peggio uguali, con Ryzen ? E' normale che con Ryzen DRAM calculator se importo il report html completo di typhoon mi escono dei valori (cas-ras-tfc-ecc.), invece se premo su r-xmp me ne escono altri? Graize
Vecchie RAM
http://www.imagebam.com/image/4f6f2e863935704
Nuove RAM
http://www.imagebam.com/image/5c9421958887744
Notizia a caso con foto dei chip
https://vaaju.com/japaneng/ascii-jp-sk-hynix-c-die-chip-adoption-ddr-4-3600-memory-from-ocmemory/
Forum tedesco che ne parla
https://www.hardwareluxx.de/community/f13/hynix-8gbit-ddr4-cjr-c-die-h5an8g8ncjr-1206340.html
paolo.oliva2
29-08-2018, 14:53
Io non mi preoccuperei più di tanto, se ora si arriva a 4,3-4,4 ghz coi 7 nm è logico aspettarsi minimo 500 mhz in più (2x density, 2x perf/watt, 1.35x performance), per la roadmap faranno come al solito, del resto gli epyc naples hanno anticipato quello che si è visto dopo col 2990wx come core count, quindi è logico che escano per primi sui 7 nm, e per marzo-aprile zen 2, non mi stupirei se presentassero assieme ryzen 3+navi
Perdonami, non voglio fare il saputello, ma la frequenza non dipende dalla nanometria o dal silicio, ma dalla bontà del PP. In poche parole un 14nm potrebbe avere frequenze massime migliori di un 7nm, mentre per certo una nanometri più spinta, a parità di TDP, permetterebbe la stessa frequenza esempio di un X8 su un X12.
Nel mio discorso precedente, avevo evidenziato come il TDP di per sé, inferiore con nanometri più spinta, potrebbe re dere possibile un procio più over locato (in realtà) ma pur sempre accettabile nel TDP.
Facendo un esempio, per spiegarmi. Uso Intel perché con AMD "non rende" :) e metto dati a caso.
9900K X8 14nm @5GHz 200W.
Supponiamo che con un 10nm si abbia un - 50% di TDP.
Risulterebbe che un 9900K X8 10nm @5GHz diventerebbe 100W.
Però il 10nm ha un PP peggiore, cioè percentualmente necessita di un consumo superiore per salire di frequenza, quindi VS il 14nm non conserva il - 50% su tutta la gamma di frequenza e impenna prima i consumi, e quindi dal - 50% arriva ad un - 20% a @5GHz.
Però, dai 200W, anche se solo - 20%, già risulterebbe 160W, diciamo più commerciabile.
Non si sa una mazza sul 7nm TSMC, ma io reputerei frequenze simili, a parità di TDP, con un +50% di core. In ambito server e pure in ambito desktop/MT, quello che conta è la prestazione massima unità ai consumi, e un salto di nodo permette ambedue le cose, perché più transistor a parità di consumi significa aumentare il numero di core, di conseguenza le prestazioni.
Quello che non è affatto sicuro, è di pareggiare a parità di core le prestazioni Intel, però c'è un però grande quanto una casa.
In primis va valutato quale sarà l'incremento di IPC di Zen2 su Zen, perché andrà ad influire sulla frequenza relativa (esempio, già un solo +5%, comporterebbe che un Zen2 a max 4,4GHz (come il 2950X), alla stessa frequenza sarebbe come @4,620GHz di relativa.
Vedremo, comunque direi che andando comunque male, si potrebbe avere un X12 alle frequenze di un 2700X a consumi simili ma con potenzdel 50% superiori.
In poche parole, sarebbe come avere un 2920X con TDP e consumi di un 2700X.
Immagina, sotto carico massimo, di confrontarlo ad un 7900X.
Se poi il PP del 7nm TSMC sarà ottimo e/o ancor più cospicuo l'aumento di IPC, sarà tutto grasso che cola.
Neverlost
29-08-2018, 16:35
io col dissi stock e ryzen 7 1700 1.2volt a 3750mhz ultimamente ho problemi di temperature in stress e idle… toccherà smonare e sistemare polvere e pasta termica mi sa… sto mediamente in 45/50c idle e 75/80c in game o stress.
Nautilu$
29-08-2018, 19:21
beh...se hai 30° in stanza alle ore 13,00 e non hai i risparmi energetici attivi in idle , ci può pure stare....
....col dissi stock.....
Neverlost
29-08-2018, 20:21
beh...se hai 30° in stanza alle ore 13,00 e non hai i risparmi energetici attivi in idle , ci può pure stare....
....col dissi stock.....
si vagamente e ho case con 5 ventole mmm
megamitch
29-08-2018, 23:05
Domanda, per chi usa Adobe Premiere.
Forse il prossimo anno per mio papa (fotografo semi-pro) dovrò assemblare un PC per montaggio video con Adobe Premiere lavorando su flussi 4k (ora lavora su un iMac del 2010 su flussi 1080p).
Sul sito Adobe i requisiti di sistema per l'accelerazione video di Premiere richiede processori intel di settima generazione come requisito minimo. Non c'è il minimo accenno a processori AMD.
E' solo una strategia commerciale (qualche accordo tra Adobe e Intel) o ci sono anche reali motivazioni tecniche per cui Intel lavora meglio? Che so, istruzioni particolari, ottimizzazione del software. Perchè pensavo ad AMD per risparmiare un pò, ma questa cosa mi confonde.
Grazie a chi saprà darmi qualche informazione.
Domanda, per chi usa Adobe Premiere.
Forse il prossimo anno per mio papa (fotografo semi-pro) dovrò assemblare un PC per montaggio video con Adobe Premiere lavorando su flussi 4k (ora lavora su un iMac del 2010 su flussi 1080p).
Sul sito Adobe i requisiti di sistema per l'accelerazione video di Premiere richiede processori intel di settima generazione come requisito minimo. Non c'è il minimo accenno a processori AMD.
E' solo una strategia commerciale (qualche accordo tra Adobe e Intel) o ci sono anche reali motivazioni tecniche per cui Intel lavora meglio? Che so, istruzioni particolari, ottimizzazione del software. Perchè pensavo ad AMD per risparmiare un pò, ma questa cosa mi confonde.
Grazie a chi saprà darmi qualche informazione.
Quello che intendi tu, ovvero la parte relativa a "Codifica HEVC con accelerazione hardware" - si consiglia un Intel settima generazione in quanto supporta un encoding accelerato tramite la GPU integrata. Teoricamente anche le APU AMD 2200G e 2400G dovrebbero offrire la stessa cosa, ed in ogni caso se usi una scheda video dedicata hai sicuramente il supporto.
Quello che i processori Intel hanno in più è la tecnologia QuickSync (https://www.intel.it/content/www/it/it/architecture-and-technology/quick-sync-video/quick-sync-video-general.html), ma deve valutare come vuole fare rendering, se via CPU, via QuickSync o via GPU, ogni metodo ha qualità, velocità e impostazioni disponibili differenti. Insomma, c'è da ragionarci un po' :D .
Nello specifico non uso Premiere, ma ho comunque familiarità con l'encoding. Leggendo i requisiti di Adobe Premiere mi sembra comunque di capire che puoi andare di CPU, QuickSync o di GPU, ma in ambiente Windows solo con nVidia per schede commerciali, AMD solo quelle professionali, ma non so se è una mancanza della documentazione o se sia effettivamente così. Se qualcuno lo utilizza saprà dirti sicuramente di più.
paolo.oliva2
30-08-2018, 07:22
Anche io ho una domanda in merito.
Nelle conversioni video, esempio Freemaker, come hardware figura solo Nvidia, ho comunque spuntato di sfruttare l'hardware, ma non compare l'RX-480 che ho.
Non ho presente l'incremento di Zen su BD, come non lo avevo di BD sul Phenom, perché i video cambiano via via la risoluzione (640*480, 1K.2K, 4K) e alla fine i tempi ad elaborazione sono simili, e incremento le prestazioni sfruttando il numero dei core/TH per più conversioni contemporaneamente.
Ignoro completamente quale sarebbe la prestazione usando una Nvidia... e non so se poi potrebbe supportare la parallelizzazione. Cioè, ipotizzo che utilizzando Cuda (?) una discreta Nvidia sarebbe più veloce del solo procio, ma se poi posso fare 1 sola conversione alla volta, con Zen X8 ne faccio 3 a botta senza problemi, ed anche più, e ho il controllo sulle temp del procio perché posso comunque giostrarne il carico... le VGA scaldano un tot, e ad esempio avevo tolto una RX-480 a favore di una inferiore perché in Costa d'Avorio mi sembrava di avere un asciuga-capelli che rimbalzava sul monitor e veniva verso di me. :(
megamitch
30-08-2018, 07:40
Quello che intendi tu, ovvero la parte relativa a "Codifica HEVC con accelerazione hardware" - si consiglia un Intel settima generazione in quanto supporta un encoding accelerato tramite la GPU integrata. Teoricamente anche le APU AMD 2200G e 2400G dovrebbero offrire la stessa cosa, ed in ogni caso se usi una scheda video dedicata hai sicuramente il supporto.
Quello che i processori Intel hanno in più è la tecnologia QuickSync (https://www.intel.it/content/www/it/it/architecture-and-technology/quick-sync-video/quick-sync-video-general.html), ma deve valutare come vuole fare rendering, se via CPU, via QuickSync o via GPU, ogni metodo ha qualità, velocità e impostazioni disponibili differenti. Insomma, c'è da ragionarci un po' :D .
Nello specifico non uso Premiere, ma ho comunque familiarità con l'encoding. Leggendo i requisiti di Adobe Premiere mi sembra comunque di capire che puoi andare di CPU, QuickSync o di GPU, ma in ambiente Windows solo con nVidia per schede commerciali, AMD solo quelle professionali, ma non so se è una mancanza della documentazione o se sia effettivamente così. Se qualcuno lo utilizza saprà dirti sicuramente di più.
Stando al link che hai postato, Adobe Premiere non è tra le applicazioni compatibili con QuickSync (lo è la versione "elements", noi usiamo la versione Pro).
Per quanto riguarda l'accelerazione via GPU, leggendo sui forum Adobe si guadagnerebbe su alcuni filtri e se ho capito bene anche in operazioni tipo scaling (inteso come cambio di risoluzione).
Non usando molti filtri né prevedendo grosse operazioni di scaling, pensavo di acquistare una GPU Nvidia modello di gamma bassa (una x60) e usare soprattutto il processore.
Alla luce di queste considerazioni, meglio più thread di AMD o meglio i processori Intel per Premiere Pro ? A parità di prezzo intendo, che è la variabile principale che mi interessa.
Inviato dal mio Moto Z2 Play utilizzando Tapatalk
paolo.oliva2
30-08-2018, 09:16
Fate attenzione che la qualità di compressione video tramite gpu Nvidia e ancor di più Intel non è paragonabile all'algoritmo software eseguito dal processore.
Questo è importante per me... il tempo è relativo, tanto con 2 sistemi X8 posso fare 6 conversioni contemporanee e avere ancora il 2700x libero.
Comunque avrò da fare, tra sottotitoli e lingua parlata, sono 4 le combinazioni tra italiano e francese e quindi 4 elaborazioni a film.
Comunque, da quanto capito, meglio puntare su più core, grazie.
Stando al link che hai postato, Adobe Premiere non è tra le applicazioni compatibili con QuickSync (lo è la versione "elements", noi usiamo la versione Pro).
Per quanto riguarda l'accelerazione via GPU, leggendo sui forum Adobe si guadagnerebbe su alcuni filtri e se ho capito bene anche in operazioni tipo scaling (inteso come cambio di risoluzione).
Non usando molti filtri né prevedendo grosse operazioni di scaling, pensavo di acquistare una GPU Nvidia modello di gamma bassa (una x60) e usare soprattutto il processore.
Alla luce di queste considerazioni, meglio più thread di AMD o meglio i processori Intel per Premiere Pro ? A parità di prezzo intendo, che è la variabile principale che mi interessa.
Inviato dal mio Moto Z2 Play utilizzando Tapatalk
Tra core AMD e frequenza Intel dipende da come è stato creato il codec. Nell'encoding via CPU ci sono delle cose molto parallelizzabili e altre meno, e lo stesso codec si comporta diversamente a seconda della sorgente. In FullHD l'ideale su x265, che è un codec HEVC benché diverso da quello Adobe, l'ideale è avere 8 core, in 4k la scalabilità aumenta decisamente, a quanto ho visto fino a 32 core. In effetti se ci pensi il 4k è 4 volte il FullHD, quindi il conto torna.
Quindi al momento ti consiglierei una cpu AMD per via del numero di core, e puoi usare una GPU nVidia per quelle operazioni che hai nominato. Come ti è stato detto l'encoding puro via GPU è inferiore qualitativamente, torna utile magari per fare un controllo al volo che sia tutto a posto, come passaggio di anteprima - e comunque rispetto ad anni fa sono diventati decisamente più trasparenti.
Anche io ho una domanda in merito.
Nelle conversioni video, esempio Freemaker, come hardware figura solo Nvidia, ho comunque spuntato di sfruttare l'hardware, ma non compare l'RX-480 che ho.
Purtroppo sono pochi i programmi che sfruttano l'accelerazione delle GPU AMD, mi sovviene StaxRip fra i freeware e le ultime versioni di Vegas Pro in ambito più professionale.
megamitch
30-08-2018, 11:57
Tra core AMD e frequenza Intel dipende da come è stato creato il codec. Nell'encoding via CPU ci sono delle cose molto parallelizzabili e altre meno, e lo stesso codec si comporta diversamente a seconda della sorgente. In FullHD l'ideale su x265, che è un codec HEVC benché diverso da quello Adobe, l'ideale è avere 8 core, in 4k la scalabilità aumenta decisamente, a quanto ho visto fino a 32 core. In effetti se ci pensi il 4k è 4 volte il FullHD, quindi il conto torna.
Quindi al momento ti consiglierei una cpu AMD per via del numero di core, e puoi usare una GPU nVidia per quelle operazioni che hai nominato. Come ti è stato detto l'encoding puro via GPU è inferiore qualitativamente, torna utile magari per fare un controllo al volo che sia tutto a posto, come passaggio di anteprima - e comunque rispetto ad anni fa sono diventati decisamente più trasparenti.
Purtroppo sono pochi i programmi che sfruttano l'accelerazione delle GPU AMD, mi sovviene StaxRip fra i freeware e le ultime versioni di Vegas Pro in ambito più professionale.Ma informazioni in rete o "sul campo" riguardo il caso specifico di Adobe Premiere Pro come posso reperirne, hai qualche idea ?
Per la parallelizzazione dipende anche da come scala il software, non è detto che se hai 32 core vengano usati tutti. Per questo cerco informazioni da chi usa questi software.
Inviato dal mio Moto Z2 Play utilizzando Tapatalk
Ma informazioni in rete o "sul campo" riguardo il caso specifico di Adobe Premiere Pro come posso reperirne, hai qualche idea ?
Per la parallelizzazione dipende anche da come scala il software, non è detto che se hai 32 core vengano usati tutti. Per questo cerco informazioni da chi usa questi software.
Inviato dal mio Moto Z2 Play utilizzando Tapatalk
La parallelizzazione di cui parlavo io è per la fase di encoding, quindi quella finale, non quella di lavorazione che ovviamente dipende da software a software, ma essendo usato anche in ambiti professionali immagino Premiere scali bene, o quanto meno in modo decente :)
Quindi nella fase di lavorazione una volta che hai un Ryzen o un i7-i9 recente non credo noterai grosse differenze, specie in abbinamento ad una GPU che accelera il lavoro. Più differenze si possono vedere in fase di codifica, e lì dipende dal codec, so che di base Premiere usa Adobe Media Encoder, ma non so né se è quanto vuole utilizzare tuo padre, né se è l'unico codec che può utilizzare, per quello ti ho portato la mia esperienza con x265 :)
techfede
30-08-2018, 12:53
Ragazzi, un paio di domande / curiosità: tempo fa mi ricordo si era parlato di una collaborazione AMD - Qualcomm, e qualcuno ipotizzava magari laptop con raven ridge e modulo LTE.
C'è roba di questo tipo, per i comuni mortali?
Ragazzi è una mia impressione o il 2400g è aumentato di prezzo?
Ricordo che qualche mese fa lo vedevo in giro a 120€ in offerta, adesso minimo 140€ :mbe:
Anche io ho una domanda in merito.
Nelle conversioni video, esempio Freemaker, come hardware figura solo Nvidia, ho comunque spuntato di sfruttare l'hardware, ma non compare l'RX-480 che ho.
freemake non credo l'abbiano aggiornato per sfruttare l'accelerazione offerta dalle schede video "nuove".
puoi provare staxrip, è molto meno intuitivo ed ha un'interfaccia che magari ti crea confusione le prime volte(ma dovrebbero esserci guide e manuali abbastanza chiari e potresti comunque riuscire a giostrarti da solo smanettandoci un po'), supporta x264/x265/nvench264/nvench265/intelh264/intelh265/amdh264/amdh265/altro.
per fare un'esempio a parità di settaggi lo stesso video lo riesco a renderizzare con la GTX1060 a quasi il triplo del framerate (quindi a poco più di 1/3 del tempo) rispetto al 1700@3.8GHz, come preannunciato da mini4wdking la qualità dell'encoding è tendenzialmente inferiore rispetto alla codifica software ma poi dipende sia dal tuo video che dai parametri che applichi/compressione che cerchi, secondo me può valere la pena provarlo e farti una tua idea in merito.
quando faccio filmati per me io li comprimo in quel modo perché poi tanto li guardo sulla televisione e non noto differenze, quando mi è capitato di fare riprese per terzi ho preferito comunque la codifica software.
... facendo 5fps con il 1700 a 3,8ghz.
io vengo a compromessi tali per cui o tu sei un eroe per la pazienza dovuta ai tempi di attesa o io sono un eroe per la mia tolleranza alla scarsa qualità :D :D
io vengo a compromessi tali per cui o tu sei un eroe per la pazienza dovuta ai tempi di attesa o io sono un eroe per la mia tolleranza alla scarsa qualità :D :D
La seconda, io quando mi serve qualità accetto anche 1,xx fps :D
La seconda, io quando mi serve qualità accetto anche 1,xx fps :D
quando passerò all'hedt magari alzerò l'asticella dell'intolleranza anche io :p
Windtears
30-08-2018, 19:58
La seconda, io quando mi serve qualità accetto anche 1,xx fps :D
se penso ai tempi di virtual dub e codec xvid dual pass più i filtri per deringing - denoise per gli anime con un athlon... 8h per 24 minuti. :(
se penso ai tempi di virtual dub e codec xvid dual pass più i filtri per deringing - denoise per gli anime con un athlon... 8h per 24 minuti. :(
Circa la velocità è quella se ti fai i conti, anzi, a 1 fps per fare 24 minuti ci metti quasi 10 ore :D
se penso ai tempi di virtual dub e codec xvid dual pass più i filtri per deringing - denoise per gli anime con un athlon... 8h per 24 minuti. :(
ricordo di aver fatto il mio primo video in qualcosa come 16 ore e mezza(e mi si era pure rovinato il nastro della cassetta a furia di ripetere lo spezzone iniziale per fare prove coi settaggi), ma erano altri tempi... oggi un risultato "mediocre" che puoi ottenere in "poco" è comunque su tutt'altri livelli qualità/tempo e compressione/qualità anche usando la codifica hw :D
poi comunque secondo me uno fa sempre bene a provare queste soluzioni e valutare se ne è soddisfatto, soppesare i pro e i contro dei diversi approcci ha un esito abbastanza soggettivo ;) .
chiudo l'OT
newtechnology
30-08-2018, 21:19
La seconda, io quando mi serve qualità accetto anche 1,xx fps :D
Sopra un certo bit rate non c'è alcuna differenza sia per l'h264 che hevec 265-10bit , provato personalmente in diversi video da mè registrati con telecamera Sony PXW-FS5M2K + ottica 18-105 mm F4 SELP18105G ingrandendo l'immagine al 2000% è quasi impossibile notare differenze.
Diciamo che se lo scopo e codificare video H265-10 a 1080p con bitrate inferiori ai 4,00 Mbps (che reputo gia ridicolo) effettivamente la codifica risulta migliore via CPU.
Utilizzo Cuda dall'architettura Maxwell , prima di questa anche con Premiere la qualità era davvero più scadente , con Pascal ho trovato un pareggio a bitrate elevati o con differenze impossibili da notare anche ad ingrandimenti del 1000/2000% (non guardate i test con cuda prima del 2015 li la qualità era ko)
AMD APP ha pochissimo supporto , seppur la conversione non è male , ho letto alcuni test on-line è la davono a 8/10 seppur con velocità 30-40% inferiore di cuda ma più veloce di qualsiasi processore al mondo (puoi avere anche il 3990wx 64 core 128th ma non farai neanche il 20% dei frame di una 1080ti o vega64) restando ovviamente su codifiche 265-10bit
Ovviamente i tempi diventano irrisori , si passa da ore a poco meno di 20 minuti con una conversione 1080p 5Mbps HDR HQ H265 in massima qualità.
Poi se si vogliono creare video 1080 di circa 2 ore a 3GB di spazio e ovvio che è meglio la conversione via CPU , quella via GPU a compressioni cosi alte, crea una sacco di errori che degradano in maniera significativa la qualità , ma uno che cerca la qualità sicuramente non comprimerà cosi tanto i video.
Cosa diversa utilizzando l'h264 8-bit con color sampling 4:2:0 li le differenze prestazionali sono meno marcate , e noto in certe scene una qualità superiore con la codifica software.
Io sinceramente non condivido l'uso della CPU per la codifica video (tralasciando chi ne fa uso di tanto in tanto, non gli farei mai prendere una Pascal per convertire qualche video) , troppo tempo ed energie utilizzate a fronte di differenze impercettibili sopratutto su TV 4K sotto i 100". Le reputo più fisse psicologiche... ovviamente dal mio punto di vista ;) poi concordo che la codifica via software sia ancora oggi il massimo esprimibile , ma bisogna sempre valutare i reali benefici:D
paolo.oliva2
30-08-2018, 22:21
Io sinceramente faccio da hobbista, ma preferisco avere un film da 30GB e vederlo bene che 1GB è vederlo"normale".
Però sono troppo ignorante in materia... esempio ho visto dei televisori HDR fuori di testa, dove sembrava di essere dentro il video, ma 2500€ per un TV non li spendo di certo...
Però non capisco, ho un monitor LG 2K da 140€, e mi sono capitati dei video che addirittura si avvicinavano parecchio a quei TV da 2500€, eppure per certo un monitor 24" da 140€ non può avere quella qualità.
Quindi mi viene da ipotizzare che codificando "bene" e sfruttando il mio monitor, già la qualità che vorrei ci sia.
Però, boh... fare conversioni è difficile, perché i vari interventi dipendono sempre dall'originale, e gli originali non sono mai uguali e quindi presumo che ci voglia una procedura specifica soggettiva per ogni video, ed è un incubo.
Mi ero messo dietro con le foto, e pure lì mi sono perso, alla fine faccio 2-3 interventi e stop, tipo la saturazione dei colori, nitidezza e poco altro, ma ogni foto è un caso a sé, e non puoi fare foto per 1h e poi starci una settimana dietro... Ho parato salvando RAW + jpeg, il jpeg al limite lo modifico e il RAW lo lascio lì, quando m'illumineró d'immenso (ma non ci spero).
Nautilu$
30-08-2018, 22:46
Proseguendo i vostri OT.... posso dirti che per le foto fai bene!
Io per quelle di tutti i giorni uso comunque il raw, lo modifico ormai con i miei soliti parametri che uso spesso, li converto in JPG e li tengo solo così (perdendoci 30 secondi a foto). Invece per le foto più belle faccio la stessa cosa, ma tengo anche il raw!
Per i video, il discorso è molto ampio...... e bisogna sapere anche che risultato finale si vuole ottenere e a che risoluzione. Poi è da considerare se parlate di sola conversione/encoding, oppure anche editing.......
Se si parla anche di editing , non mi sono piaciuti i risultati finali con la codifica interna dei programmi stessi, quindi ho adottato un altro sistema......io mi sto trovando da dio in questo modo:
riprendo alla risoluzione più alta possibile (4K anche se poi il risultato finale lo voglio inferiore) , faccio editing con Vegas Pro con il rendering finale in AVI lossless - RGB o YUV 4.4.4 (ho acquistato l'ottimo codec video MagicYUV 2 a soli 10€ , l'unico o quasi che sfrutta multicore.... fa l'encoding in 4K/60fps in tempo reale)...... l'unico problema è lo spazio utilizzato su hdd e la velocità necessaria:D ..... si parla di video oltre i 350MByte/s ! (se non ricordo male...forse di più)
Poi converto il risultato finale con Handbrake in 1080/60fps h265 qualità media (15fps circa): RISULTATO ECCELLENTE !
Di solito il risultato finale lo lascio a 17Mbit per il fhd/30 , il doppio per il fhd/60 .....che dite? Troppo?
P.S.: facendo l'editing direttamente in fhd per poi comprimere con Handbrake con gli stessi parametri sopra, il risultato finale è visibilmente inferiore guardando i dettagli piccoli in secondo piano. Invece con il mio "master" in 4k e successivamente ribassato in fhd con Handbrake, gli stessi dettagli sono una lama di rasoio! E senza orrendi "ringing" sui contorni!
megamitch
30-08-2018, 23:24
Mio papà da cliente Adobe utilizza Adobe media encoder. Da Qui nasce la mia domanda iniziale, che supporto ha un processore Ryzen per editing ed encoding con la suite Adobe, visto che sul sito non viene menzionata l'alternativa AMD.
Meglio orientarsi su Nvidia + Intel ?
Inviato dal mio iPad utilizzando Tapatalk
Proseguendo i vostri OT.... posso dirti che per le foto fai bene!
Io per quelle di tutti i giorni uso comunque il raw, lo modifico ormai con i miei soliti parametri che uso spesso, li converto in JPG e li tengo solo così (perdendoci 30 secondi a foto). Invece per le foto più belle faccio la stessa cosa, ma tengo anche il raw!
Per i video, il discorso è molto ampio...... e bisogna sapere anche che risultato finale si vuole ottenere e a che risoluzione. Poi è da considerare se parlate di sola conversione/encoding, oppure anche editing.......
Se si parla anche di editing , non mi sono piaciuti i risultati finali con la codifica interna dei programmi stessi, quindi ho adottato un altro sistema......io mi sto trovando da dio in questo modo:
riprendo alla risoluzione più alta possibile (4K anche se poi il risultato finale lo voglio inferiore) , faccio editing con Vegas Pro con il rendering finale in AVI lossless - RGB o YUV 4.4.4 (ho acquistato l'ottimo codec video MagicYUV 2 a soli 10€ , l'unico o quasi che sfrutta multicore.... fa l'encoding in 4K/60fps in tempo reale)...... l'unico problema è lo spazio utilizzato su hdd e la velocità necessaria:D ..... si parla di video oltre i 350MByte/s ! (se non ricordo male...forse di più)
Poi converto il risultato finale con Handbrake in 1080/60fps h265 qualità media (15fps circa): RISULTATO ECCELLENTE !
Di solito il risultato finale lo lascio a 17Mbit per il fhd/30 , il doppio per il fhd/60 .....che dite? Troppo?
P.S.: facendo l'editing direttamente in fhd per poi comprimere con Handbrake con gli stessi parametri sopra, il risultato finale è visibilmente inferiore guardando i dettagli piccoli in secondo piano. Invece con il mio "master" in 4k e successivamente ribassato in fhd con Handbrake, gli stessi dettagli sono una lama di rasoio! E senza orrendi "ringing" sui contorni!
Lo sai che si può fare frameserving da Vegas pro a Handbrake in un solo passaggio, vero?
Stando al link che hai postato, Adobe Premiere non è tra le applicazioni compatibili con QuickSync (lo è la versione "elements", noi usiamo la versione Pro).
Per quanto riguarda l'accelerazione via GPU, leggendo sui forum Adobe si guadagnerebbe su alcuni filtri e se ho capito bene anche in operazioni tipo scaling (inteso come cambio di risoluzione).
Non usando molti filtri né prevedendo grosse operazioni di scaling, pensavo di acquistare una GPU Nvidia modello di gamma bassa (una x60) e usare soprattutto il processore.
Alla luce di queste considerazioni, meglio più thread di AMD o meglio i processori Intel per Premiere Pro ? A parità di prezzo intendo, che è la variabile principale che mi interessa.
Inviato dal mio Moto Z2 Play utilizzando Tapatalk
Quando parli di "quale è meglio" nel montaggio, e lo fai da "neofita" (senza voler con questo offendere, chiunque lo è stato) non sai che le fasi del montaggio sono tipicamente 3 (più alcune opzionali):
import - montaggio - export.
per darti un consiglio, bisognerebbe sapere quanto è importante, dal punto di vista di "quanto tempo ci perdi" la fase 2 rispetto alle altre.
Ti faccio un esempio banale: se devo montare un avvenimento complesso (ti do due esempi: una rappresentazione in multicamera e un matrimonio compresso in 12-13 minuti) all' incirca la fase di montaggio richiederà (per fare un lavoro accurato) dalle 20 alle 25 ore di lavoro (una volta che sei esperto). Se la fase di import e/o rendering/export impiega 1 ora in più o in meno, ti importa relativamente: lo fa il pc mentre dormi o guardi un film o fai altro.
Importa quindi che tu non abbia rallentamenti dovuti all' hw nella fase di montaggio.
Se invece hai bisogno di velocità nella fase 1 e 3, perchè tanto fai solo tagli, ti servirà un hw dedicato a quello, se proprio cerchi velocità.
nota anche che spesso si usa montare a bassa risoluzione e esportare in alta (evantualmente fare solo una run di preview in alta).
PEr questo per esempio con media composer ho usato anche il blackmagic
intensity
paolo.oliva2
31-08-2018, 09:44
E' una valutazione di mercato borsistico, però basata su considerazioni tecniche, che ben rendono la situazione attuale e a venire dei prox 2 anni e più.
https://seekingalpha.com/article/4203302-intel-amd-nvidia-3-way-valuation
AMD vs. Intel
...Le CPU 10nm di Cannon Lake hanno problemi. I costi di produzione sono molto più alti di quelli pianificati e le rese dei wafer sono state scarse, rendendo impossibile un'implementazione del 2018. Senza ridurre le dimensioni e lo spessore dei wafer, i processori Intel potrebbero ancora essere in grado di competere in termini di velocità e multi-threading, ma non in riduzioni critiche del consumo di energia e della sovrapproduzione di calore risultante. I problemi di sovrapproduzione di energia e calore menzionati prima fanno battere Intel fuori dal posto di guida nel server, nei mercati Cloud e AI per un tempo indeterminato.
Nel frattempo, AMD, l'antagonista di Intel ha lanciato nuove tecnologie nel primo trimestre del 2017 e da allora ha rilasciato il secondo e si sta preparando a implementare le iterazioni 7nm di terza generazione di Epyc, Threadripper e Vega, per non parlare delle soluzioni embedded. Tutti i prodotti AMD superano Intel in termini di core count, velocità, multi-threading, larghezza di banda del canale di memoria, efficienza energetica e IA integrata che indica alla CPU quale sarà l'attività successiva e imposta le istruzioni impostate in anticipo, tutte le operazioni funziona senza problemi utilizzando il fabric infinity proprietario di AMD e la DRAM a bassa latenza a banda larga, fornendo alla CPU più corsie attraverso la CPU e più corsie fuori dalla CPU sia nella memoria che nella GPU, rendendo possibili più calcoli simultanei. Questo porta il multitasking a nuovi livelli.
I migliori sforzi di Intel per combattere AMD dovranno essere una CPU l'anno prossimo che avrà il codice permanentemente bruciato nella CPU che correggerà le sue vulnerabilità. La CPU avrà probabilmente 28 core basati su Zeon Platinum 8180, ha capacità multi-threading competitive e potrebbe essere in grado di overclockare vicino a 5,0 GHz. Lo svantaggio è che senza una riduzione delle dimensioni e dello spessore dei wafer questa tecnologia avrà un'applicazione limitata nel mercato dei server, dell'IA e del cloud computing a causa delle ragioni sopra discusse.
Alcuni potrebbero ipotizzare che, nel migliore dei casi, Intel potrebbe essere in grado di sviluppare una soluzione temporanea fino a quando non saranno progettate architetture completamente nuove che apriranno i colli di bottiglia nelle tecnologie esistenti e incorporeranno una CPU interna superiore alla crittografia dei dati DRAM simile a quella di AMD. Il tempo di commercializzazione sarà probabilmente tra due o tre anni apparentemente lontani. Nel frattempo, Intel probabilmente offrirà probabilmente versioni addomesticate del divoratore di energia 8180 dimostrate al Computex o più probabilmente zittirà le versioni delle sue CPU consumer-grade nel tentativo di sostenere la sua posizione dominante sul mercato.
Sul lato positivo, Intel ha diversi assi nella manica che potrebbe essere la sua grazia salvifica. Innanzitutto, Intel ha collaborato con AMD e produrrà CPU Intel incorporate con le GPU Vega di AMD. Ciò manterrà il piede di Intel sul mercato per i desktop, i laptop e, se possibile, mobili HPC se possono ridurre le dimensioni del wafer di pochi nm. In secondo luogo, l'acquisizione da parte di Intel di Mobileye, combinata con Intel / MU 3D X point NAND (il nome commerciale di Intel è Optane) e la partnership Intel / AMD embedded, possono produrre una APU in grado di competere con le aspirazioni di Nvidia di possedere il segmento autonomo del settore automobilistico . A questo punto, questo è solo congetturato da parte mia, ma penso che un risultato leggermente probabile.
.
Gyammy85
31-08-2018, 09:46
Certo, 5 gigga con raffreddamento criogenico della nestlè per i suoi stabilimenti :asd: :asd:
AMD trema :asd: :asd:
paolo.oliva2
31-08-2018, 10:07
Articolo interessante sulle cache
https://translate.googleusercontent.com/translate_c?depth=1&hl=it&prev=search&rurl=translate.google.com&sl=en&sp=nmt4&u=https://www.extremetech.com/extreme/188776-how-l1-and-l2-cpu-caches-work-and-why-theyre-an-essential-part-of-modern-chips&xid=17259,1500004,15700019,15700124,15700149,15700186,15700190,15700201,15700213&usg=ALkJrhiNeXZht34gE70BbE_UbADqEuY6_w
megamitch
31-08-2018, 10:10
Quando parli di "quale è meglio" nel montaggio, e lo fai da "neofita" (senza voler con questo offendere, chiunque lo è stato) non sai che le fasi del montaggio sono tipicamente 3 (più alcune opzionali):
import - montaggio - export.
per darti un consiglio, bisognerebbe sapere quanto è importante, dal punto di vista di "quanto tempo ci perdi" la fase 2 rispetto alle altre.
Ti faccio un esempio banale: se devo montare un avvenimento complesso (ti do due esempi: una rappresentazione in multicamera e un matrimonio compresso in 12-13 minuti) all' incirca la fase di montaggio richiederà (per fare un lavoro accurato) dalle 20 alle 25 ore di lavoro (una volta che sei esperto). Se la fase di import e/o rendering/export impiega 1 ora in più o in meno, ti importa relativamente: lo fa il pc mentre dormi o guardi un film o fai altro.
Importa quindi che tu non abbia rallentamenti dovuti all' hw nella fase di montaggio.
Se invece hai bisogno di velocità nella fase 1 e 3, perchè tanto fai solo tagli, ti servirà un hw dedicato a quello, se proprio cerchi velocità.
nota anche che spesso si usa montare a bassa risoluzione e esportare in alta (evantualmente fare solo una run di preview in alta).
PEr questo per esempio con media composer ho usato anche il blackmagic
intensity
Non sono io direttamente a lavorarci ma mio papà. Direi senza dubbio che la fase di montaggio è quella più lunga.
Direi anche che non usa molti filtri, per cui da quello che ho letto sui forum Adobe non trarrebbe molto vantaggio dal rendering via GPU che, sempre se ho capito bene, è vantaggioso con alcuni filtri.
Il mio discorso è leggermente diverso. Con il prossimo anno, se mio papà cambia attrezzature foto/video per iniziare a lavorare con il 4K, si pensava anche a sostituire il vecchio iMac del 2010.
Ora, sul sito Adobe danno come specifiche processori Intel di settima generazione per la parte di export. Non si menziona AMD.
Quindi chiedevo nel thread di Ryzen se conviene usare questi processori per questo tipo di lavoro o se sono meglio gli Intel come dicono sul sito Adobe. Più che altro perché non ho trovato sul sito Adobe informazioni di dettaglio sulla scalabilità del software sul numero di core / frequenze, in tutte e tre le fasi che dici tu.
Poniamo ad esempio che voglia ottenere il massimo delle prestazioni durante la fase di montaggio, devo puntare di più sul numero di thread o sulla frequenza del processore? Ryzen è ok o è più indicato Intel?
Inviato dal mio iPad utilizzando Tapatalk
paolo.oliva2
31-08-2018, 10:21
Certo, 5 gigga con raffreddamento criogenico della nestlè per i suoi stabilimenti :asd: :asd:
AMD trema :asd: :asd:
In rete sono praticamente tutti concordi che Intel sul 14nm riuscirà ad aumentare ancora le frequenze fin qui raggiunte (che diciamo sono già un notevole risultato già ora), ma altrettanto all'unanimità, concordano che l'efficienza si abbasserà ulteriormente.
E' ovvio che l'obiettivo commerciale di Intel sarà quello di incentrare l'attenzione sull'aumento prestazionale e di fare di tutto di più per far credere che non ci sarà alcun aumento dei consumi.
imho nella fase di montaggio puro non cambia molto, e se si devono spendere cifre diverse le soluzioni sono:
a) una scheda video PRO (tipo quadro)
b) accessori che rendono il lavoro più comodo: superfici tattili come avid artist control , jog/shuttle, moduli per import/export/preview realtime tipo appunto quelli della blackmagic
c) il sw con cui si può lavorare meglio: valutare se continuare a usare premiere o passare a sw come vegas, davinci resolve, media composer (che non necessariamente sono migliori, ma spesso un workflow più adatto al tuo stile ti permette di risparmiare tempo nella fase - appunto - più lunga)
Ultima cosa: per montaggi lunghi, alla fine, non è detto che la scelta migliore sia per forza di lavorare in nativo, ma magari lavorare in formati meno compressi (esempio il dnxhd) o con proxy in bassa risoluzione
paolo.oliva2
31-08-2018, 10:39
Non sono io direttamente a lavorarci ma mio papà. Direi senza dubbio che la fase di montaggio è quella più lunga.
Direi anche che non usa molti filtri, per cui da quello che ho letto sui forum Adobe non trarrebbe molto vantaggio dal rendering via GPU che, sempre se ho capito bene, è vantaggioso con alcuni filtri.
Il mio discorso è leggermente diverso. Con il prossimo anno, se mio papà cambia attrezzature foto/video per iniziare a lavorare con il 4K, si pensava anche a sostituire il vecchio iMac del 2010.
Ora, sul sito Adobe danno come specifiche processori Intel di settima generazione per la parte di export. Non si menziona AMD.
Quindi chiedevo nel thread di Ryzen se conviene usare questi processori per questo tipo di lavoro o se sono meglio gli Intel come dicono sul sito Adobe. Più che altro perché non ho trovato sul sito Adobe informazioni di dettaglio sulla scalabilità del software sul numero di core / frequenze, in tutte e tre le fasi che dici tu.
Poniamo ad esempio che voglia ottenere il massimo delle prestazioni durante la fase di montaggio, devo puntare di più sul numero di thread o sulla frequenza del processore? Ryzen è ok o è più indicato Intel?
Inviato dal mio iPad utilizzando Tapatalk
Io penso che sia tutto molto complesso... e che Adobe imposti il suo "consiglio" più su un discorso "core Intel vs core AMD" più che sul costo prestazioni in sè.
Per farti un esempio... se confronti un 8700K X6 vs un 2600X X6, il processore Intel ha una frequenza superiore su tutti i core e ancor più da -1 a -5 core, quindi dire che Adobe consigli (esempio) un X6 Intel vs un X6 AMD, diciamo che non ci sarebbe nulla da obiettare.
Ma adobe non può fare un discorso di prezzo prestazioni, perchè ad esempio costerebbe meno un 2700X AMD X8 di un 8700K Intel X6, vuoi perchè non avrebbe senso rincorrere i listini dei produttori per "modificare il consiglio" e vuoi perchè l'utilizzo potrebbe essere sfalsato da software principalmente ST o viceversa MT.
Personalmente, visto che il sistema che vorresti prendere dovrebbe durare anni (parli di un iMac del 2010, sono 8 anni che tuo papà lo utilizza), l'offerta super di AMD sui Threadripper 1a generazione capiterebbe a fagiolo, perchè potresti acquistare a +50€ rispetto ad un 8700K X6 un 1920X X12 AMD, spendendo ~100€ in più comunque anche nella mobo, che rappresenterebbe un ottimo sistema sia attualmente che pure upgradabile in futuro.
Potrebbe essere una alternativa il 9900K X8 Intel a breve... che sicuramente sarà più performante in ST, in MT sicuramente no... ma difficilmente il sistema 9900K Intel costerà meno del 1920X AMD... ed inoltre penso che probabilmente il sistema Intel sarà un sistema chiuso, cioè nascerà così e così morirà, mentre il sistema AMD, magari tra 2 anni lo potrai aggiornare ad un X16/X32 Zen2 usato con 500€.
------
In molti ti hanno risposto che la base del giudizio sia l'utilizzo e il software applicato. Io non sono esperto di quel tipo di software, ma è pure vero che oggi potresti utilizzare quel software e domani cambiare... quindi personalmente opterei per un sistema a 360° che abbia buona performances sia in ST che in MT. Intel è superiore in ST ad AMD, ed è inferiore in MT (prezzo/prestazioni perchè AMD offre più core a parità di costo rispetto ad Intel).
Quindi, secondo il mio punto di vista, se il procio X AMD mi dasse -15% di ST e +15% di MT vs il procio Y Intel, si avrebbe una situazione alla pari... a quel punto valuterei la differenza di prezzo tra i 2.
nickname88
31-08-2018, 10:46
Si sà nulla sui periodi di uscita dei prossimi Ryzen ?
zanflank
31-08-2018, 10:49
Io penso che sia tutto molto complesso... e che Adobe imposti il suo "consiglio" più su un discorso "core Intel vs core AMD" più che sul costo prestazioni in sè.
Per farti un esempio... se confronti un 8700K X6 vs un 2600X X6, il processore Intel ha una frequenza superiore su tutti i core e ancor più da -1 a -5 core, quindi dire che Adobe consigli (esempio) un X6 Intel vs un X6 AMD, diciamo che non ci sarebbe nulla da obiettare.
Ma adobe non può fare un discorso di prezzo prestazioni, perchè ad esempio costerebbe meno un 2700X AMD X8 di un 8700K Intel X6, vuoi perchè non avrebbe senso rincorrere i listini dei produttori per "modificare il consiglio" e vuoi perchè l'utilizzo potrebbe essere sfalsato da software principalmente ST o viceversa MT.
Personalmente, visto che il sistema che vorresti prendere dovrebbe durare anni (parli di un iMac del 2010, sono 8 anni che tuo papà lo utilizza), l'offerta super di AMD sui Threadripper 1a generazione capiterebbe a fagiolo, perchè potresti acquistare a +50€ rispetto ad un 8700K X6 un 1920X X12 AMD, spendendo ~100€ in più comunque anche nella mobo, che rappresenterebbe un ottimo sistema sia attualmente che pure upgradabile in futuro.
Potrebbe essere una alternativa il 9900K X8 Intel a breve... che sicuramente sarà più performante in ST, in MT sicuramente no... ma difficilmente il sistema 9900K Intel costerà meno del 1920X AMD... ed inoltre penso che probabilmente il sistema Intel sarà un sistema chiuso, cioè nascerà così e così morirà, mentre il sistema AMD, magari tra 2 anni lo potrai aggiornare ad un X16/X32 Zen2 usato con 500€.
Tipo una cosa simile:
https://www.techspot.com/review/1686-affordable-12-core-threadripper/
megamitch
31-08-2018, 12:13
Apprezzo i vari suggerimenti, ma non ho in programma di acquistare strumenti aggiuntivi per il montaggio né di cambiare software (l'ho già pagato per tutto l'anno, in più mio papà si trova bene e non è intenzionato a stravolgere il suo flusso di lavoro).
Quindi, il punto cruciale è, Ryzen è la scelta giusta per Adobe Premiere Pro ?
Se non avete esperienze dirette, sapete indicarmi dove potrei trovare informazioni?
Inviato dal mio Moto Z2 Play utilizzando Tapatalk
Neverlost
31-08-2018, 12:22
Apprezzo i vari suggerimenti, ma non ho in programma di acquistare strumenti aggiuntivi per il montaggio né di cambiare software (l'ho già pagato per tutto l'anno, in più mio papà si trova bene e non è intenzionato a stravolgere il suo flusso di lavoro).
Quindi, il punto cruciale è, Ryzen è la scelta giusta per Adobe Premiere Pro ?
Se non avete esperienze dirette, sapete indicarmi dove potrei trovare informazioni?
Inviato dal mio Moto Z2 Play utilizzando Tapatalk
si ma punta sul ryzen 7.
paolo.oliva2
31-08-2018, 13:47
Tipo una cosa simile:
https://www.techspot.com/review/1686-affordable-12-core-threadripper/
Esatto. In MT è un rullo, a prezzi di procio di fascia AM4. In ST ovviamente Intel è più forte, ma visto il prezzo, io ci penserei un po' a puntare tutto sull'ST.
Comunque... da notare una cosa. Se Intel con il 9900K avrà intenzione di spingerlo di brutto in frequenza, come sembra, non è che sarà tanto distante in MT da un 1920X. Cioè, 1920X +50% di core, 9900k +50% di frequenza, e via. Ovvio però che se porti un X8 a elaborare quanto un X12, di certo non consumerà come un X8 e pure più di un X12.
Io penso che sia tutto molto complesso... e che Adobe imposti il suo "consiglio" più su un discorso "core Intel vs core AMD" più che sul costo prestazioni in sè.
CUT
occhio però che la suite di Adobe è fortemente ottimizzata per l'architettura core, se non ricordo male (e potrei farlo) è lo scenario più sensibile in cui intel va meglio di amd.
non usando la suite Adobe e non sapendo se e quanto la situazione sia cambiata eviterei di fare discorsi di carattere generico sul lato prezzo/prestazioni e credo che bisognerebbe riportare esperienze d'uso dirette per valutare effettivamente il comportamento dei processori in quei vari software, perché un i5 o un i3 potrebbero in questo specifico caso offrire prestazioni superiori rispetto ad R5 o R7, diverso se facciamo un discorso in generale dove "qua va più amd, la più intel, altra cosa sono circa equivalenti... ma l'octacore amd costa pari o meno all'esacore intel".
megamitch
31-08-2018, 14:21
occhio però che la suite di Adobe è fortemente ottimizzata per l'architettura core, se non ricordo male (e potrei farlo) è lo scenario più sensibile in cui intel va meglio di amd.
non usando la suite Adobe e non sapendo se e quanto la situazione sia cambiata eviterei di fare discorsi di carattere generico sul lato prezzo/prestazioni e credo che bisognerebbe riportare esperienze d'uso dirette per valutare effettivamente il comportamento dei processori in quei vari software, perché un i5 o un i3 potrebbero in questo specifico caso offrire prestazioni superiori rispetto ad R5 o R7, diverso se facciamo un discorso in generale dove "qua va più amd, la più intel, altra cosa sono circa equivalenti... ma l'octacore amd costa pari o meno all'esacore intel".Hai centrato il punto, io sarei interessato a conoscere i vantaggi di Ryzen specificatamente per questa attività, non in generale.
A me interessa spendere al meglio.
Inviato dal mio Moto Z2 Play utilizzando Tapatalk
paolo.oliva2
31-08-2018, 15:42
occhio però che la suite di Adobe è fortemente ottimizzata per l'architettura core, se non ricordo male (e potrei farlo) è lo scenario più sensibile in cui intel va meglio di amd.
non usando la suite Adobe e non sapendo se e quanto la situazione sia cambiata eviterei di fare discorsi di carattere generico sul lato prezzo/prestazioni e credo che bisognerebbe riportare esperienze d'uso dirette per valutare effettivamente il comportamento dei processori in quei vari software, perché un i5 o un i3 potrebbero in questo specifico caso offrire prestazioni superiori rispetto ad R5 o R7, diverso se facciamo un discorso in generale dove "qua va più amd, la più intel, altra cosa sono circa equivalenti... ma l'octacore amd costa pari o meno all'esacore intel".
Onestamente mi sembra quello che pure ho detto io, no?
Se uno non prendesse in considerazione upgrade futuri e diciamo che a tutti gli effetti sarebbe un "regalo per papà" in cui non credo si stia a guardare tanto lo spendere di più, io andrei di 9900k, perché in ST sarà il procio top ed in MT non penso che andrà tanto di meno di un 1920X (considerando ~3,4GHz di un 1920X X12, con - 50% di core basterebbe una frequenza del 50% superiore, e quindi a spannella con 5,1GHz andrebbe simile, ma già con 4,5/4,7GHz non starebbe manco tanto sotto.
Differenza di consumi e eventuali sistemi di dissipazione di potenza differente, non è che abbiano molta importanza... mi pare di capire per uso obbistico, quindi metti 50h/mese non è importante quanto 50h a settimana.
Detto tra noi, è difficile dare un consiglio obiettivo, perché "dietro" non c'è un discorso di bandiera vero e proprio, ma la scelta di una bandiera su caratteristiche procio più confacente. Cioè, facendo un esempio, sarei un utonto se tifassi per AMD e vorrei un procio con la massima frequenza su 1 core. Viceversa, siccome io personalmente inquadro come potenza di un procio il carico e di qui MT/parallelizzazione, AMD mi va completamente a fagiolo, sia per la mia personale condizione di tamb che per il prezzo e il numero di core.
macchiaiolo
31-08-2018, 16:02
Secondo me se nn vai col cronometro, qualsiasi cpu prendi di queste citate cadi in piedi dai!!! Sono preoccupazioni dovute a le linee dei benchmarck , che un secondo di differenza sembra un eternità.. poi nessuno parla del costo beneficio
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
mi sono solo collegato al fatto che venivano espresse considerazioni generali e non specifiche come invece richiesto dall'utente.
in alcuni test ricordo anche il 7700k stock sopra i TR con specifiche componenti della suite (probabilmente la funzioni/plugin/componenti/quel che è... che scalano peggio o per niente con il numero di core e ricavano miglior boost dalle frequenze superiori), per questo dicevo che dovrebbe capire oggi con la release software attuale, nelle cose che fa il padre quanto vanno i processori, perché un generico discorso ST/MT può decadere del tutto a seconda del caso specifico
ad esempio qui vari test: https://youtu.be/R6YH3AmEmBs?t=90
mentre qui invece l'8600K(6 core 6 threads) nel rendering dei video è presentato come paragonabile al 1700X: https://youtu.be/7wOBGmxyBEs?t=583
avevo visto altri articoli e video alle uscite delle varie cpu, ma non essendo applicazioni di mio interesse non saprei ritrovarle.
P.S. priam che venga tirata in ballo mia sorella come l'ultima volta che ho scritto una cosa e sono stato frainteso... ribadisco che io non uso e non conosco queste applicazioni ne so se, ed eventualmente come, siano state aggiornate per migliorare le prestazioni.
conan_75
31-08-2018, 16:36
Non vorrei che la suite sia ottimizzata per quicksync
Nautilu$
31-08-2018, 16:43
Lo sai che si può fare frameserving da Vegas pro a Handbrake in un solo passaggio, vero?
assolutamente no! :) mi illumini?:D
[edit]
Mi sto illuminando da solo..... simpatica come cosa...un po' macchinosa però..... con i suoi pro e contro....
digieffe
31-08-2018, 17:46
ma... se il padre dovrà acquistare tra un 6 mesi è probabile che si troverà con la serie 3000 (Zen2) dove IMHO, viste le frequenze più spinte ed l'aumento di IPC, la differenza in ST con intel sarà "trascuraqbile", in MT e rapporto presto prestazioni dovrebbe essere a vantaggio di Amd
Gyammy85
31-08-2018, 18:11
ma... se il padre dovrà acquistare tra un 6 mesi è probabile che si troverà con la serie 3000 (Zen2) dove IMHO, viste le frequenze più spinte ed l'aumento di IPC, la differenza in ST con intel sarà "trascuraqbile", in MT e rapporto presto prestazioni dovrebbe essere a vantaggio di Amd
Già ora è trascurabile, con zen 2 amd potrebbe benissimo essere in vantaggio pure in st.
paolo.oliva2
31-08-2018, 19:25
Segnalo il 2990WX sull'Amazzone a 1810€ + 7€ di spedizione.
paolo.oliva2
31-08-2018, 19:47
Già ora è trascurabile, con zen 2 amd potrebbe benissimo essere in vantaggio pure in st.
Diciamo che per preferire Intel, bisogna ignorare il prezzo/prestazioni (del procio a 360 gradi), i consumi, la dissipazione, l'upgradabilità, il problema delle falle che escono di continuo ed il supporto/garanzia offerto da Intel alle medesime, l'MT a parità di spesa e Zen2 7nm a breve.
Ovviamente l'importanza di quanto sopra è soggettiva, ed è indubbio che se uno se ne frega in toto, allora è ovvio che reputi Intel competitiva.
Come dici tu, infatti, ok che il 9900k rappresenterà un passo avanti sul 2700x, ma con Zen2 all'orizzonte, si rischia veramente di spendere veramente tanti soldi, forse addirittura di più di un teorico X12 Zen2 AM4. Tra l'altro, darei per certo che l'offerta Zen2 sarà più prestante in MT a parità di spesa e non darei per certo che Intel conserverà la supremazia in St.
bhè il 1920X ai prezzi attuali disintegra il concetto stesso di prezzo/prestazioni :D
assolutamente no! :) mi illumini?:D
[edit]
Mi sto illuminando da solo..... simpatica come cosa...un po' macchinosa però..... con i suoi pro e contro....
mah, una volta settato basta un clic e fa tutto da solo. Io lo uso abbastanza di frequente, di buono c'è che spreme bene il mio Ryzen 1700, l'unica controindicazione è per l'audio, visto che handbrake ricampiona tutto a 44.1 kHz
e io registro l'audio a 96 kHz e faccio video di musica. Poi automatizza quello che fai tu: un .avi mandato in handbrake che fa un mp4 o un mkv. I video h265 non mi interessano molto, per risparmiare un po' di spazio i tempi di elaborazione quadruplicano, poi per caricarli ho la connessione in fibra con 300 mb in upload,
sono finiti i tempi dei caricamenti infiniti :sofico:
Gyammy85
31-08-2018, 21:34
bhè il 1920X ai prezzi attuali disintegra il concetto stesso di prezzo/prestazioni :D
E un anno e mezzo fa quasi al triplo del prezzo ti prendevi il 6900k :asd:
Gyammy85
31-08-2018, 21:35
mah, una volta settato basta un clic e fa tutto da solo. Io lo uso abbastanza di frequente, di buono c'è che spreme bene il mio Ryzen 1700, l'unica controindicazione è per l'audio, visto che handbrake ricampiona tutto a 44.1 kHz
e io registro l'audio a 96 kHz e faccio video di musica. Poi automatizza quello che fai tu: un .avi mandato in handbrake che fa un mp4 o un mkv. I video h265 non mi interessano molto, per risparmiare un po' di spazio i tempi di elaborazione quadruplicano, poi per caricarli ho la connessione in fibra con 300 mb in upload,
sono finiti i tempi dei caricamenti infiniti :sofico:
96khz non era lo standard dvd? 44khz è lo standard cd stereo giusto?
E un anno e mezzo fa quasi al triplo del prezzo ti prendevi il 6900k :asd:
che poi volendo vedere un 1700 adesso lo trovi nelle patatine.
Gyammy85
31-08-2018, 21:40
che poi volendo vedere un 1700 adesso lo trovi nelle patatine.
Si ottima per gli smanettoni
Nautilu$
31-08-2018, 21:54
96khz non era lo standard dvd? 44khz è lo standard cd stereo giusto?
No. Per i DVD l'audio è 48khz.....il problema è il bitrate pessimo per l'ac3......... Spesso 448kbps per 6 canali!:rolleyes:
megamitch
31-08-2018, 22:57
Cmq leggendo su forum Adobe c'è gente che ha rimandato indietro un iMac pro a 10core a 3ghz perché nella fase di editing con Premiere era più lento di un iMac "base" con i7 a 4ghz. Ergo probabilmente Premiere nella parte di editing non scala molto con il numero di core (sempre di CPU Intel si parla in questo caso)
Probabilmente in fase di encoder parallelizza bene ma a me interessa essere più rapido quando "lavoro" , la fase di esportazione posso aspettare qualche minuto in più.
Starò al palo un po' e prima di acquistare leggerò le ultime informazioni.
Inviato dal mio Moto Z2 Play utilizzando Tapatalk
celsius100
01-09-2018, 04:14
Ciao
Première ad esempio scala così con n°di core
https://techgage.com/wp-content/uploads/2018/04/AMD-Ryzen-5-2600X-7-2700X-Performance-Adobe-Premiere-Pro-Blu-ray-4K-RED.png
Visto il costo attuale del 1920X nn potrei che consiglaire un 12core/24thread
Zen 2 utilizzerà i 7nm hpc, ergo frequenze più alte rispetto l'altra variante (più densi ma con meno frequenze)
https://mobile.twitter.com/Ashraf__Eassa/status/1035511047514468352
Inviato dal mio XT1068 utilizzando Tapatalk
Gyammy85
01-09-2018, 07:34
Zen 2 utilizzerà i 7nm hpc, ergo frequenze più alte rispetto l'altra variante (più densi ma con meno frequenze)
https://mobile.twitter.com/Ashraf__Eassa/status/1035511047514468352
Inviato dal mio XT1068 utilizzando Tapatalk
Dai che ora xi aspetta un bel zen 2 12 core 4,8 ghz all core
Mi sa che nvidia farebbe meglio a presentare ora la titan rtxyz, la pacchia ha i minuti contati :O
megamitch
01-09-2018, 08:12
Ciao
Première ad esempio scala così con n°di core
https://techgage.com/wp-content/uploads/2018/04/AMD-Ryzen-5-2600X-7-2700X-Performance-Adobe-Premiere-Pro-Blu-ray-4K-RED.png
Visto il costo attuale del 1920X nn potrei che consiglaire un 12core/24threadMa scala in editing ? O solo in encoding ?
Inviato dal mio Moto Z2 Play utilizzando Tapatalk
paolo.oliva2
01-09-2018, 09:24
Zen 2 utilizzerà i 7nm hpc, ergo frequenze più alte rispetto l'altra variante (più densi ma con meno frequenze)
https://mobile.twitter.com/Ashraf__Eassa/status/1035511047514468352
Inviato dal mio XT1068 utilizzando Tapatalk
Io nutro seri dubbi che il 7nm TSMC riuscirà a raggiungere le frequenze massime Intel.
Ricordando quello che dicevano i *guru", cioè che se vuoi frequenze più alte con qualsiasi PP, puoi ovviare aumentando i layes (ma aumentando i costi"
Intel non può accettare la guerra del numero massimo dei core e né la guerra della massima efficienza, quindi è più che ovvio che giochi l'unica carta che ha, cioè la frequenza massima.
Per AMD conterà il PP e sfruttare (al limite) il margine di TDP per un OC di fabbrica, ma sarebbe da idioti accettare la guerra sulla frequenza massima.
Cioè, AMD ha servito senza sforzo e ad un costo produzione più basso un +50% di core VS Intel, e potrà offrirli allo stesso TDP degli attuali e +50% di core alle stesse frequenze (in linea di massima).
ma chiedere direttamente sul thread di adobe o sul forum di adobe non ti darebbe indicazioni piu precise?
paolo.oliva2
01-09-2018, 09:36
Comunque non riesco a capire perché AMD non opti per una produzione del die con tipologia differente di frequenza.
Cioè, nei cellulari, esempio l'845 Qualcomm, abbiamo 4 core che sono per l'efficienza a scapito della frequenza e altri 4 core che sono per la frequenza a scapito dell'efficienza.
Il die Zen è composto da 2 CCX, quindi andrebbe a fagiolo il concetto.
Sarebbe relativamente facile (credo) di creare un die con una libreria efficiente per un CCX e per la frequenza massima con un'altra libreria sull'altro CCX.
In primis avremmo un impatto sul TDP del 50% (perché su n core solamente la metà sarebbe meno efficiente) ed in secondo luogo, facendo lavorare solo 1 CCX alle frequenze massime (in turbo) si avrebbe pure meno latenza (un CCX si potrebbe spegnere) e quindi disattivare lIF e avere frequenze massime top.
I die si potrebbe pure far coesistere la stessa produzione, tipo CCX efficienti per server, 2 CCXX efficiente/prestante per desktop e se si volesse, 2 CCX prestati per modelli top.
megamitch
01-09-2018, 09:53
ma chiedere direttamente sul thread di adobe o sul forum di adobe non ti darebbe indicazioni piu precise?Sul sito Adobe si parla solo di Intel come raccomandazioni.
Ho pensato che nel thread dedicato ai Ryzen qualcuno che lo usasse anche per fare video editing ci fosse, tra l'altro ho posto domande specifiche su un software specifico molto diffuso.
Credo di essere in topic chiedendo queste informazioni, su uno specifico utilizzo di Ryzen.
Inviato dal mio Moto Z2 Play utilizzando Tapatalk
Comunque non riesco a capire perché AMD non opti per una produzione del die con tipologia differente di frequenza.
Cioè, nei cellulari, esempio l'845 Qualcomm, abbiamo 4 core che sono per l'efficienza a scapito della frequenza e altri 4 core che sono per la frequenza a scapito dell'efficienza.
Il die Zen è composto da 2 CCX, quindi andrebbe a fagiolo il concetto.
Sarebbe relativamente facile (credo) di creare un die con una libreria efficiente per un CCX e per la frequenza massima con un'altra libreria sull'altro CCX.
In primis avremmo un impatto sul TDP del 50% (perché su n core solamente la metà sarebbe meno efficiente) ed in secondo luogo, facendo lavorare solo 1 CCX alle frequenze massime (in turbo) si avrebbe pure meno latenza (un CCX si potrebbe spegnere) e quindi disattivare lIF e avere frequenze massime top.
I die si potrebbe pure far coesistere la stessa produzione, tipo CCX efficienti per server, 2 CCXX efficiente/prestante per desktop e se si volesse, 2 CCX prestati per modelli top.Nessuno si aspetta i 5.2/5.3 Massimi che si vedono sulle CPU Intel, ma qualcosa sui 4.8 sì e sarebbero già ottimi.
Inviato dal mio XT1068 utilizzando Tapatalk
Sul sito Adobe si parla solo di Intel come raccomandazioni.
Ho pensato che nel thread dedicato ai Ryzen qualcuno che lo usasse anche per fare video editing ci fosse, tra l'altro ho posto domande specifiche su un software specifico molto diffuso.
Credo di essere in topic chiedendo queste informazioni, su uno specifico utilizzo di Ryzen.
Inviato dal mio Moto Z2 Play utilizzando Tapatalk
non stavo criticando te,tra tutti gli off topic che ho letto negli anni,questo almeno e' relativo alle prestazioni cpu in ambito lavorativo,pero' se vuoi un vero paragone ti serve qualcuno che usa il software che ti interessa su entrambe le cpu amd e intel e pensavo che nel thread adobe o sul forum ci fosse piu' possibilita di trovare qualcuno che puo' darti risposte imparziali.
paolo.oliva2
01-09-2018, 10:35
Nessuno si aspetta i 5.2/5.3 Massimi che si vedono sulle CPU Intel, ma qualcosa sui 4.8 sì e sarebbero già ottimi.
Inviato dal mio XT1068 utilizzando Tapatalk
Per me i 4,8GHz sarebbero già un totale.
Conta che alla male/peggio, la max frequenza sarebbe comunque replicabile su tutti i core, esempio 2700X 4,350GHz massimi, 4,350GHz in OC su tutti i core, quindi foss'anche 4,5GHz, cacchio, anche tralasciando l'aumento di IPC Zen-->Zen2, già un X12 equivarrebbe ad un 2700X @7GHz circa...
Sto giro farò le cose per bene. Volente o nolente prima di ottobre 2019 in Italia non verrò, quindi potrò scegliere bene bene, senza prb di scimmia, l'offerta futura di Zen2, Vedrò a quanti core arriverà l'AM4 e cosa offrirà TR4.
Ipotizzare un upgrade su AM4 ad un X12, suppergiú con consumi/temp di un 2700X, e magari a 400€, non mi sembra un'aspettativa irreale. Degno upgrade di un 1700X, con una Taichi tutta per sé.
digieffe
01-09-2018, 10:58
Ma scala in editing ? O solo in encoding ?
Inviato dal mio Moto Z2 Play utilizzando Tapatalk
soprattutto in editing. In ogni caso, se l'aquisto è programmato in cncomitanza conb l'uscita di Zen2 serie 3000, il mio consiglio è di attendere e valutare attentamente, in quanto i principali miglioramenti saranno relativi al ST (+~10% frequenze e +10/15% IPC) dunque tutto a vantaggio dell'editing
ciao
ninety-five
01-09-2018, 20:21
Se ho capito bene...passando dal FHD al 2K 144Hz può essere interessante cambiare il mio 1600 con un 3600(?) visto le migliorie per gli alti refresh?
Gyammy85
01-09-2018, 20:59
Se ho capito bene...passando dal FHD al 2K 144Hz può essere interessante cambiare il mio 1600 con un 3600(?) visto le migliorie per gli alti refresh?
Penso che un 1600 a 4 GHz sia più che adeguato, è ancora troppo presto per fare previsioni...
Ciao a tutti,
Riguardo al 2500X di prossima uscita sembra esserci un po' di confusione sul web... sarà un 6c/6t oppure un 4c/8t?
Se fosse un 6c, sarebbe IL ryzen da gaming! :)
sgrinfia
01-09-2018, 23:39
Penso sia un 4c/8, altrimenti entrerebbe in concorrenza con il 2600.
capitan_crasy
02-09-2018, 00:03
Ciao a tutti,
Riguardo al 2500X di prossima uscita sembra esserci un po' di confusione sul web... sarà un 6c/6t oppure un 4c/8t?
Se fosse un 6c, sarebbe IL ryzen da gaming! :)
Sara un 4/8 e sinceramente un 6/6 alla Intel (:doh:) per un Ryzen è totalmente inutile...
paolo.oliva2
02-09-2018, 07:29
soprattutto in editing. In ogni caso, se l'aquisto è programmato in cncomitanza conb l'uscita di Zen2 serie 3000, il mio consiglio è di attendere e valutare attentamente, in quanto i principali miglioramenti saranno relativi al ST (+~10% frequenze e +10/15% IPC) dunque tutto a vantaggio dell'editing
ciao
Condivido, considerando che da Zen a Zen+ AMD ha guadagnato un +11% pressochè solamente "aggiustando" il turbo e con un salto nodo silicio minimo (14nm-12nm), Zen2 interviene anche sull'architettura e il salto silicio è molto più corposo (12nm-7nm), l'aspettativa minima (mia personale) direi sia sul +20% per quanto riguarda il core secco, ma ben più corposa dovrebbe essere l'incremento a die (X12 vs X8 è +50%).
Mister D
02-09-2018, 07:39
https://www.bitsandchips.it/9-hardware/10617-soc-kirin-980-sui-7nm-di-tsmc-6-9-mld-di-transistor-in-circa-100mm2
Gyammy85
02-09-2018, 07:46
https://www.bitsandchips.it/9-hardware/10617-soc-kirin-980-sui-7nm-di-tsmc-6-9-mld-di-transistor-in-circa-100mm2
Ma il 2x densità delle slide è confermato?
Anche vega 20 utilizzerà hpc quindi...
Mister D
02-09-2018, 08:20
Ma il 2x densità delle slide è confermato?
Anche vega 20 utilizzerà hpc quindi...
Mi pare abbastanza ovvio che per gpu e cpu con tali complessità il compromesso sia di usare un nodo HP per massimizzare le prestazioni anche perdendo in densità;) Magari solo alcuni utenti blu qua pensano che AMD sia sprovveduta e che scelga un nodo LP ad alta densità utilizzato ovviamente e solitamente nel mobile.
Cmq il redattore di b&c è stato pure dalla parte del sicuro, perché ipotizzando circa una riduzione della densità del 10% rispetto il nodo 7 nm SOC si ottiene circa 62,1 ma per stare dalla parte del sicuro diciamo 60 milioniT/mm2.
E usando 60 non verrebbe manco la stima da lui riportata per uno shrink a 7nm HPC di summit ridge perché:
4,8*10^3/110=43,63 (i 110 li ipotizza lui)
Invece usando i 60 teorici dalla stima -10% si otterebbe:
4,8*10^3/60=80 mm2 che sarebbe addirittura oltre il 2x di densità.
Ecco che da tutto questo mi viene da pensare che il 2x di densità ci stia tutto!
Ecco perché ORA è più verosimile che AMD (almeno sugli EPYC) possa spingersi al raddoppio del CCX. In teoria in 192mm2 ci stanno eccome 16 core ZEN2 ipotizzando pure che abbiano più transistor per aumentare l'IPC;)
Ecco perché ORA è più verosimile che AMD (almeno sugli EPYC) possa spingersi al raddoppio del CCX. In teoria in 192mm2 ci stanno eccome 16 core ZEN2 ipotizzando pure che abbiano più transistor per aumentare l'IPC;)
nell'articolo fa considerazioni sulla densità partendo dall'assunzione sottointesa che tutta l'area/transistor siano destinati ai ccx.
io credo sia possibile che, anche qualora volessero aumentare la conta dei core spingendosi ad esempio a 12, parte dell'area risparmiata grazie alla maggior densità potrebbero destinarla ad un'evoluzione più sofisticata di data fabric e infinity fabric "mangiando" superficie in cui avrebbero potuto ampliare i ccx. sarà interessante vedere come il risparmio di superficie verrà utilizzato per migliorare diversi aspetti di zen.
Mister D
02-09-2018, 09:00
nell'articolo fa considerazioni sulla densità partendo dall'assunzione sottointesa che tutta l'area/transistor siano destinati ai ccx.
io credo sia possibile che, anche qualora volessero aumentare la conta dei core spingendosi ad esempio a 12, parte dell'area risparmiata grazie alla maggior densità potrebbero destinarla ad un'evoluzione più sofisticata di data fabric e infinity fabric "mangiando" superficie in cui avrebbero potuto ampliare i ccx. sarà interessante vedere come il risparmio di superficie verrà utilizzato per migliorare diversi aspetti di zen.
No, non penso proprio dato che un ccx occupa 44 mm2 mentre lì parte da 192 mm2 che dovrebbero essere l'intero die composto dai due ccx, l3 e if/mc. E d'altra parte non avrebbe senso fare speculazioni a partire dall'area del ccx perché appunto non possiamo sapere proprio come dici te quanto amd metterà mano alle varie parti e in che percentuali destinerà die size.
Per cui quei dati servono solo a dirci che teoricamente già ora amd potrebbe shrinkare e andare sotto i 100mm2 per tutto il die di summit ridge, ergo confermato il dato di 2x densità dei 7nm hpc TSMC vs i 14 lpp GF. Hanno sicuramente spazio sia per aumentare i core del ccx fino a raddoppiare sia incrementare quelle aree strategiche come l'if
No, non penso proprio dato che un ccx occupa 44 mm2 mentre lì parte da 192 mm2 che dovrebbero essere l'intero die composto dai due ccx, l3 e if/mc. E d'altra parte non avrebbe senso fare speculazioni a partire dall'area del ccx perché appunto non possiamo sapere proprio come dici te quanto amd metterà mano alle varie parti e in che percentuali destinerà die size.
Per cui quei dati servono solo a dirci che teoricamente già ora amd potrebbe shrinkare e andare sotto i 100mm2 per tutto il die di summit ridge, ergo confermato il dato di 2x densità dei 7nm hpc TSMC vs i 14 lpp GF. Hanno sicuramente spazio sia per aumentare i core del ccx fino a raddoppiare sia incrementare quelle aree strategiche come l'if
forse ho capito male io il suo ragionamento, ma conclude dicendo che il summit ridge (zen prima gen) potrebbe rientrare in 110mm^2, da cui vede possibili i 16 core in 192mm^2: sta arbitrariamente considerando che tutto venga rimpicciolito in scala senza alterazioni, ignorando il fatto che tutta la parte "fabric" può dover richiedere "spesa" di superficie tale da peggiorare il gudagno in area sui ccx non permettendo il ragionamento cirrca x2 = circa x2 core a parità di area.
non so se ora sono più chiaro, il fatto è che suppone (e può aver ragione, dico solo che sarà da vedere come useranno l'area guadagnata) che tutto l'uncore venga semplicemente scalato e che quindi ci sarà una spesa di area per aumentare core e cache ma non il resto.
paolo.oliva2
02-09-2018, 09:42
https://wccftech.com/amd-confirms-new-7nm-radeon-graphics-cards-launching-in-2018/
“AMD’s next major milestone is the introduction of our upcoming 7nm product portfolio, including the initial products with our second generation “Zen 2” CPU core and our new “Navi” GPU architecture. We have already taped out multiple 7nm products at TSMC, including our first 7nm GPU planned to launch later this year and our first 7nm server CPU that we plan to launch in 2019″
paolo.oliva2
02-09-2018, 10:07
In modo squisitamente didattico... se aumentano i CCX, debbono aumentare i collegamenti IF, ma se aumentano i core a CCX, devono aumentare i collegamenti dei core verso la L3, se ho capito bene, credo si possa parlare anzichè di una L3 a 8 vie (4 IN e 4 OUT) dovrebbe essere 12 vie (6 IN e 6 OUT).
(spero di non dire una cacchiata).
Siccome mi piace capire... in passato si era parlato di pro e contro tra aumentare i core a CCX o aumentare i CCX (il tutto per aumentare i core).
Ma a prescindere che aumentando i core a CCX si debba aumentare ovviamente i collegamenti alla L3, ma non sarebbe comunque la migliore soluzione? Aggiungere 1 CCX, appesantirebbe la IF, perchè se già oggi il 2° CCX è più penalizzato del 1° nel collegamento ad altri die, aggiungerne un 3°, porterebbe ad uno stallo superiore. In teoria si potrebbe ovviare aumentando le linee IF (ovviamente parlo di TR, in quanto AM4 sarebbe dentro il die), e ciò porterebbe ad una incompatibilità di Socket, cosa che AMD non riporta.
Quello che non riesco a quantificare, o perlomeno a comprendere, quanto potrebbe essere l'aumento di transistor tra una L3 a 8 vie ed una L3 a 12 vie... perchè sulla conta di 2MB di L3 a core per 8MB totali per 4 core, un CCX a 6 core porterebbe la L3 a 12MB, ma se ogni "gruppo" di 2MB di L3 avrebbe già 1 canale IN ed 1 OUT, di fatto una L3 da 12MB avrebbe già 6 canali IN e 6 OUT vs una 8MB che avrebbe già 4 IN e 4 OUT... dove sarebbe l'aumento?
La matrice dei puntatori di ricerca? O qualcosa di simile? Ma quanto poi potrebbe aumentare?
Edit:
https://wccftech.com/amd-zen-architetcure-details/
La L3 di Zen è 16 vie ma non sarebbe proprio di 2MB a core, quanto 2*1MB a core. Ma io già mi perdo.
paolo.oliva2
02-09-2018, 10:22
Battuta.
Alla Ferrari hanno già dato in uso Zen2? :D
In modo squisitamente didattico... CUT
è pressoché il discorso che facevo io, le soluzioni, gli approcci e le possibilità sono molteplici dato il grande margine di risparmio area e dipende da cosa in amd ritengano sia meglio fare.
non sapendo quantificare l'impatto effettivo che possano avere le diverse soluzioni sulle prestazioni immagino potrebbe essere da utile a necessario un intervento significativo su IF ed annessi, poi un ipotetico raddoppio dei core sarebbe anche da valutare se e quanto potrebbe trovarsi limitato dalla banda di memoria (almeno in certi scenari) senza una revisione dell'infrastruttura di comunicazione.
capitan_crasy
02-09-2018, 11:01
https://i.imgur.com/kZY5SKl.jpg
https://i.imgur.com/N082r3i.jpg
https://i.imgur.com/F8WcRu9.jpg
In pre-ordine in Germania a meno di 500€...
Clicca qui... (https://www.techpowerup.com/247215/create-your-masterpiece-with-msi-meg-x399-creation)
ninety-five
02-09-2018, 11:40
Penso che un 1600 a 4 GHz sia più che adeguato, è ancora troppo presto per fare previsioni...Giusto, soprattutto perché il carico con il 2K si sposta di più sulla GPU...
A sto punto sono curioso di provare il monitor a 1440P :D
FedeGata
02-09-2018, 13:31
https://i.imgur.com/kZY5SKl.jpg
https://i.imgur.com/N082r3i.jpg
https://i.imgur.com/F8WcRu9.jpg
In pre-ordine in Germania a meno di 500€...
Clicca qui... (https://www.techpowerup.com/247215/create-your-masterpiece-with-msi-meg-x399-creation)
Spero solo che comincino ad arrivare schede x399 sotto i 300€, allora sì che fanno il botto (e mi convinco a cambiare pc).
paolo.oliva2
02-09-2018, 13:45
è pressoché il discorso che facevo io, le soluzioni, gli approcci e le possibilità sono molteplici dato il grande margine di risparmio area e dipende da cosa in amd ritengano sia meglio fare.
non sapendo quantificare l'impatto effettivo che possano avere le diverse soluzioni sulle prestazioni immagino potrebbe essere da utile a necessario un intervento significativo su IF ed annessi, poi un ipotetico raddoppio dei core sarebbe anche da valutare se e quanto potrebbe trovarsi limitato dalla banda di memoria (almeno in certi scenari) senza una revisione dell'infrastruttura di comunicazione.
Io non ricordo tutti i valori... ma mi sembra di ricordare che l'IF era sui 500GB/s mentre con la L3 si arrivava vicino a 500GB/s su Zen1 @4,1GHz, a def era sui 400GB/s, e Zen+, disgiunta dalla frequenza core, è sempre lì attorno ai 400GB/s.
Diciamo quindi che su Zen1 (e CCX 4 core), la potenzialità di banda dell'IF era ben di più di quella che la L3 poteva dare... e credo che essendo l'IF collegata alle L3, il paletto lo dia la L3.
Con un CCX a 6 core o anche a 8, la banda della L3 aumenterebbe (non so, ma penso che la banda L3 sia calcolata a core e moltiplicata per il numero dei core), quindi forse andrebbe aumentata la banda IF... ma (credo) sarebbe sufficiente aumentare il clock base dell'IF, un po' come succedeva con l'NB dei Phenom II, anche perchè sicuramente con la prima implementazione di Zen, sarei dell'idea che AMD abbia messo su silicio il concetto ma con ampi margini operativi di sviluppo.
Gyammy85
02-09-2018, 13:49
https://wccftech.com/amd-confirms-new-7nm-radeon-graphics-cards-launching-in-2018/
“AMD’s next major milestone is the introduction of our upcoming 7nm product portfolio, including the initial products with our second generation “Zen 2” CPU core and our new “Navi” GPU architecture. We have already taped out multiple 7nm products at TSMC, including our first 7nm GPU planned to launch later this year and our first 7nm server CPU that we plan to launch in 2019″
:eek: :eek: WOW :cool: :cool:
Battuta.
Alla Ferrari hanno già dato in uso Zen2? :D
:D :D
Magari c'è pure lisona nei box :D :D
https://i.imgur.com/kZY5SKl.jpg
https://i.imgur.com/N082r3i.jpg
https://i.imgur.com/F8WcRu9.jpg
In pre-ordine in Germania a meno di 500€...
Clicca qui... (https://www.techpowerup.com/247215/create-your-masterpiece-with-msi-meg-x399-creation)
E' piena di lucette :) :)
Pure la hall of fame dei record :cool: :cool:
Ma in bundle danno una rx550?
paolo.oliva2
02-09-2018, 13:51
Spero solo che comincino ad arrivare schede x399 sotto i 300€, allora sì che fanno il botto (e mi convinco a cambiare pc).
Tempo fa, c'era una offerta Taichi X399 che era sui 320€.
Per il mio punto di vista, mi sembra quasi inutile investire sulla qualità alimentazione in fasi di una X399. Cioè... parliamo di mobo che sono TUTTE in grado di alimentare un 2990WX da 250W... quindi se al posto di un X32 ci monti un X16, di margine ce n'è a iosa (sarebbe come se su una mobo che supporta un 2700X X8 poi ci andiamo a mettere un X4, margine OC a randa), se invece ci monti l'X32... dai... a parte qualche smanettone ad azoto, dubito che chi si prenda un X32 per lavoro pensi all'OC.
Ma in bundle danno una rx550?
scheda di espansione Pci-ex con alloggiamenti M2.
asus ha uno slot proprietario sulle mobo x399 di fascia altissima, se guardi la zenith sembra ci sia una sorta di "dimm" extra su cui puoi montare questa scheda con 1 o 2 dischi M2, MSI ti propone questa soluzione con ventola altri non so se implementino qualcosa di analogo.
newtechnology
02-09-2018, 19:59
scheda di espansione Pci-ex con alloggiamenti M2.
asus ha uno slot proprietario sulle mobo x399 di fascia altissima, se guardi la zenith sembra ci sia una sorta di "dimm" extra su cui puoi montare questa scheda con 1 o 2 dischi M2, MSI ti propone questa soluzione con ventola altri non so se implementino qualcosa di analogo.
Spero venga adottato con il tempo su altre mobo , è comodissimo ed in più gli SSD restano freschi anche senza ventole , basta montargli un dissipatore.
La soluzione sotto la scheda video o nel dissipatore PCH non è ottimale, gli M2 risentono della temperatura della vga e del PCH , quelli più veloci raggiungono velocemente i 70° e passa andando in throttle in quella posizione invece con il dissi delle EK (pochissima spesa) a fine luglio quando c'erano 37-38° non l'ho mai visto passare i 46° (circa 7-8° sopra la temp amb) e senza ventole (si puo montare in caso anche una ventola da 40x40)
https://preview.ibb.co/gCLmnz/20180902_203838.jpg (https://ibb.co/nzY6nz)
https://preview.ibb.co/jqfafK/20180902_203848.jpg (https://ibb.co/jDoT0K)
https://preview.ibb.co/dGhXSz/20180902_204101.jpg (https://ibb.co/foJ6nz)
https://preview.ibb.co/fjkxue/Temp_970.png (https://ibb.co/cH9e7z)
newtechnology
02-09-2018, 20:08
Domani finalmente monto il 2950x poi vi saprò dire , è stato spedito Venerdi ed in consegna domani;)
Non vedo l'ora.... , mi manca solo la 2080ti poi per quest'anno sono a posto:sofico:
CrazyDog
02-09-2018, 20:11
Domani finalmente monto il 2950x poi vi saprò dire , è stato spedito Venerdi ed in consegna domani;)
Non vedo l'ora.... , mi manca solo la 2080ti poi per quest'anno sono a posto:sofico:
farai qualche confronto con il 1950x? :)
newtechnology
02-09-2018, 20:17
farai qualche confronto con il 1950x? :)
Si anche se immagino che ci sara in proporzione lo stesso incremento come dal 1800x al 2700x.
Mi spiace darlo via perchè alla fine il 1950x scalda davvero poco e rulla bene...
CrazyDog
02-09-2018, 20:30
Si anche se immagino che ci sara in proporzione lo stesso incremento come dal 1800x al 2700x.
Mi spiace darlo via perchè alla fine il 1950x scalda davvero poco e rulla bene...
io rimango impressionato da quello che è riuscita a fare amd, non mi sarei mai aspettato addirittura un raddoppio dei core con il 2990, avrei scommesso che il massimo fosse stato il 2950x
io rimango impressionato da quello che è riuscita a fare amd, non mi sarei mai aspettato addirittura un raddoppio dei core con il 2990, avrei scommesso che il massimo fosse stato il 2950x
Io sono già impressionato in anticipo,a pensare quello che potrà fare con i 7nm :D
Nautilu$
02-09-2018, 22:44
Spero venga adottato con il tempo su altre mobo , è comodissimo ed in più gli SSD restano freschi anche senza ventole , basta montargli un dissipatore.
La soluzione sotto la scheda video o nel dissipatore PCH non è ottimale, gli M2 risentono della temperatura della vga e del PCH , quelli più veloci raggiungono velocemente i 70° e passa andando in throttle in quella posizione invece con il dissi delle EK (pochissima spesa) a fine luglio quando c'erano 37-38° non l'ho mai visto passare i 46° (circa 7-8° sopra la temp amb) e senza ventole (si puo montare in caso anche una ventola da 40x40)
Per il mio nvme ho acquistato proprio quel dissipatorino EK (13€).
Lo tiene perfettamente a bada (47°) anche montato sulla piastra madre!
(anche se non è coperto da nulla!;) )
https://www.mediafire.com/convkey/e61a/t93j6q4bvg6l79z4g.jpg (http://www.mediafire.com/view/t93j6q4bvg6l79z/IMG_20180902_234003.jpg/file)
P.S.: non far caso alla polvere....al casino di cavi, alle fascette che tengono il water block, e alle 2 ventoline posticce per le fasi! :D
Lunar Wolf
02-09-2018, 23:19
Per il mio nvme ho acquistato proprio quel dissipatorino EK (13€).
Lo tiene perfettamente a bada (47°) anche montato sulla piastra madre!
(anche se non è coperto da nulla!;) )
https://www.mediafire.com/convkey/e61a/t93j6q4bvg6l79z4g.jpg (http://www.mediafire.com/view/t93j6q4bvg6l79z/IMG_20180902_234003.jpg/file)
P.S.: non far caso alla polvere....al casino di cavi, alle fascette che tengono il water block, e alle 2 ventoline posticce per le fasi! :DAnche io uso quel dissi di ek per l'm2.
montato il 2990Wx :D
il waterblock della Ek nato soto sfighe vicendiali a pieno regime non riesce a mantenerlo fresco... se col 1950x riusciva a tenerlo a bada qui dovrò trovare qualcosa di più efficace :cool:
Gyammy85
03-09-2018, 09:41
P.S.: non far caso alla polvere....al casino di cavi, alle fascette che tengono il water block, e alle 2 ventoline posticce per le fasi! :D
La furyx coperta di polvere...non si fa :nonsifa: :nonsifa:
montato il 2990Wx :D
il waterblock della Ek nato soto sfighe vicendiali a pieno regime non riesce a mantenerlo fresco... se col 1950x riusciva a tenerlo a bada qui dovrò trovare qualcosa di più efficace :cool:
Ti manca solo vega 20 a questo punto.
paolo.oliva2
03-09-2018, 09:41
(non è una battuta contro l'avversario)
E fortuna che ha un HIS enorme ed è saldato, altrimenti...
Comunque non potrò avere un X32 manco sul 7nm in Cote d'Ivoire, minimo ci vorrà il 5nm
(si nota un pizzico d'invidia? Comunque miei complimenti per i sistemi, 2950X e 2990WX)
Gyammy85
03-09-2018, 09:44
Ma coi 7 nm zen 2 desktop potrebbe spingersi pure a 16 core no? o si fermano a 12?
newtechnology
03-09-2018, 11:45
montato il 2990Wx :D
il waterblock della Ek nato soto sfighe vicendiali a pieno regime non riesce a mantenerlo fresco... se col 1950x riusciva a tenerlo a bada qui dovrò trovare qualcosa di più efficace :cool:
Io ho preso l'xspc per Tr4 non c'è di meglio , io ne ho provati 3 e questo fa paura.
Montato il 2950x tra poco posto i test , temperatura il linea con il 1950x , in full 55/57° (e già mezzora che gira con prime 95) in idle e addirittura più fresco 33-35° con 26° in casa
Cinebench 3450 punti tutto stock e con PBO disattivato
Io ho preso l'xspc per Tr4 non c'è di meglio , io ne ho provati 3 e questo fa paura.
Montato il 2950x tra poco posto i test , temperatura il linea con il 1950x , in full 55/57° (e già mezzora che gira con prime 95) in idle e addirittura più fresco 33-35° con 26° in casa
Cinebench 3450 punti tutto stock e con PBO disattivato
In un test veloce in ricodifica a 3.2ghz fissi all core al 100% rispetto il 1950 ho calato le tempistiche di un 60% 😁 temp di 72° e ambiente di 23°
paolo.oliva2
03-09-2018, 12:07
Ma coi 7 nm zen 2 desktop potrebbe spingersi pure a 16 core no? o si fermano a 12?
Io penso che se realizzano il die nativo X16, allora l'X16 di vedrà anche su AM4, ma di sicuro X12 lo darei per certo.
Il discorso al più si sposterebbe al dual-channel per 12/16 core se basti o meno.
però, se un quad Channel basta per un 2990WX, non vedo perché un Dual non basti per un X16.
Preciso, le frequenze saranno quelle permesse dal TDP, quindi sui 120W (mettiamo +15W su un 2700X) non potrà avere chissà che frequenza su tutti i core (e quindi minor esigenza di banda). Poi probabilmente avrà la logica del turbo che aumenterà le frequenze in base al carico.
Comunque mi sembra ovvio che i 2 produttori di provi spingeranno di più dove l'avversario può fare meno, quindi mi sembra palese che AMD spingerà alla massima prestazione MT ed Intel alla massima frequenza.
ELMAGICO82
03-09-2018, 13:10
L'offerta ryzen nel mercato 2 in 1 13' è pressochè inesistente :cry: , ho preso uno spectre con i5 anche se preferivo un ryzen per via del comparto video più meglio e cpu quasi uguali.
.Diablo.
03-09-2018, 13:53
Buon pomeriggio ragazzi :)
Sono riuscito ad accaparrarmi un ryzen 1800x a buon prezzo da abbinare ad una Asus Prime X470.
Essendo a conoscenza della "schizzinosità" dei ryzen 1a gen con alcune tipologie di ram, mi rivolgo a voi per sapere se queste ram potrebbero darmi problemi degni di nota:
https://www.gskill.com/en/product/f4-3200c16d-16gtzkw
Devo comunque dire che la lista QVL non è di grande aiuto, visto che contempla esclusivamente Intel...
Mi affido a voi ragazzi ;)
bagnino89
03-09-2018, 14:04
Buon pomeriggio ragazzi :)
Sono riuscito ad accaparrarmi un ryzen 1800x a buon prezzo da abbinare ad una Asus Prime X470.
Essendo a conoscenza della "schizzinosità" dei ryzen 1a gen con alcune tipologie di ram, mi rivolgo a voi per sapere se queste ram potrebbero darmi problemi degni di nota:
https://www.gskill.com/en/product/f4-3200c16d-16gtzkw
Devo comunque dire che la lista QVL non è di grande aiuto, visto che contempla esclusivamente Intel...
Mi affido a voi ragazzi ;)
Piuttosto io guarderei la QVL RAM della X470.
.Diablo.
03-09-2018, 14:12
Piuttosto io guarderei la QVL RAM della X470.
Ciao bagnino89 :)
Si, ci ho riflettuto subito dopo aver postato e...sulla QVL della Asus non sono purtroppo presenti :(
Meglio lasciar perdere, giusto?
Gyammy85
03-09-2018, 14:16
In un test veloce in ricodifica a 3.2ghz fissi all core al 100% rispetto il 1950 ho calato le tempistiche di un 60% 😁 temp di 72° e ambiente di 23°
Meno di metà tempo in pratica :D
Io penso che se realizzano il die nativo X16, allora l'X16 di vedrà anche su AM4, ma di sicuro X12 lo darei per certo.
Il discorso al più si sposterebbe al dual-channel per 12/16 core se basti o meno.
però, se un quad Channel basta per un 2990WX, non vedo perché un Dual non basti per un X16.
Preciso, le frequenze saranno quelle permesse dal TDP, quindi sui 120W (mettiamo +15W su un 2700X) non potrà avere chissà che frequenza su tutti i core (e quindi minor esigenza di banda). Poi probabilmente avrà la logica del turbo che aumenterà le frequenze in base al carico.
Comunque mi sembra ovvio che i 2 produttori di provi spingeranno di più dove l'avversario può fare meno, quindi mi sembra palese che AMD spingerà alla massima prestazione MT ed Intel alla massima frequenza.
Si infatti...amd punta al massimo numero di core principalmente...
walter.caorle
03-09-2018, 14:17
Ciao bagnino89 :)
Si, ci ho riflettuto subito dopo aver postato e...sulla QVL della Asus non sono purtroppo presenti :(
Meglio lasciar perdere, giusto?
sul sito asus velocità e timings corrispondono, varia solo il colore
.Diablo.
03-09-2018, 14:21
sul sito asus velocità e timings corrispondono, varia solo il colore
Ciao walter.caorle :)
La lettera finale è "R" mentre le mie finiscono per "W".
Quindi la lettera finale indica solo il colore?
Ci sarebbero le RGB ma costano di più e dei led non mi frega una mazza... :D
Anzi essendo la Asus bianca preferirei proprio le g.skill bianche...
Ma coi 7 nm zen 2 desktop potrebbe spingersi pure a 16 core no? o si fermano a 12?
se vogliono restare nelle dimensioni attuale probabilmente si spingeranno a 12.
Se vogliono aumentare la superficie di quel 20/25% possono farlo. Alla fine zen non ha un die cosi grosso per via dell'assenza della gpu. (Anche i proci intel, se intel gli togliesse la parte gpu, sarebbero un 60% più piccoli a livello di die)
walter.caorle
03-09-2018, 14:41
Ciao walter.caorle :)
La lettera finale è "R" mentre le mie finiscono per "W".
Quindi la lettera finale indica solo il colore?
Ci sarebbero le RGB ma costano di più e dei led non mi frega una mazza... :D
Anzi essendo la Asus bianca preferirei proprio le g.skill bianche...
Solitamente per le g.skill è così
R=rgb kw=white
.Diablo.
03-09-2018, 14:41
sul sito asus velocità e timings corrispondono, varia solo il colore
ricontrollando walter ho notato che manca la "K" prima della "R"...
Mi sa che dovrò andare sulle rgb...
Edit: ah! quindi "KW" assieme si intende "White"...io pensavo solo la "W"
bagnino89
03-09-2018, 14:47
Ciao bagnino89 :)
Si, ci ho riflettuto subito dopo aver postato e...sulla QVL della Asus non sono purtroppo presenti :(
Meglio lasciar perdere, giusto?
Cerca di prendere RAM con profilo JEDEC più elevato possibile, se non sbaglio Zen+ accetta JEDEC fino a 2993 MHz.
Non so la Prime X470, ma la X370 - che posseggo - è molto, molto schizzinosa con le RAM, e con gli ultimi BIOS tenerle a più di 3000 MHz sembra praticamente impossibile. Supporto Asus pessimo... La mia "salvezza" sono appunto le RAM con profilo JEDEC a 2666 MHz che tengo così senza troppi sbattimenti.
Purtroppo la piattaforma AMD è ancora parecchio immatura sul supporto RAM rispetto ad Intel.
bagnino89
03-09-2018, 14:55
Quindi Asus è immatura, non AMD...
Io con MSI con l'ultimo bios tengo a 3133 (testate con 12h di memtest) delle Gskill Hynix m-die "certificate" a 3000 con xmp...
Ed il bello è che le tengo con i timings per i 3000! Senza rilassarli.
Asus è scandalosa ma in generale Ryzen non riesce a garantire i millemila MHz stabili delle più recenti piattaforme Intel. Basta farsi un giro negli "altri thread" per vedere gente che tiene RAM a 4000 MHz in totale scioltezza.
3, 2, 1... per il "tenere RAM a frequenze così alte non serve a niente, bla bla bla".
Passo e chiudo! ;)
.Diablo.
03-09-2018, 14:57
E' palese che ryzen vada meglio con ram rapide...
Se no mi sarei fiondato su delle Flare X da 2400 Mhz e tanti saluti.
Impossibile dire il contrario ;)
bagnino89
03-09-2018, 15:04
E' palese che ryzen vada meglio con ram rapide...
Se no mi sarei fiondato su delle Flare X da 2400 Mhz e tanti saluti.
Impossibile dire il contrario ;)
Più che palese, il problema è che il memory controller non ce la fa a garantire stabilità con frequenze molto elevate, diversamente da Intel. Ed è un peccato perché i miglioramenti con Zen sarebbero migliori di quelli con Intel.
Con Zen+ la situazione è migliorata ma non siamo ancora alla pari con Intel, da questo punto di vista.
Spitfire84
03-09-2018, 15:13
Buon pomeriggio ragazzi :)
Sono riuscito ad accaparrarmi un ryzen 1800x a buon prezzo da abbinare ad una Asus Prime X470.
Essendo a conoscenza della "schizzinosità" dei ryzen 1a gen con alcune tipologie di ram, mi rivolgo a voi per sapere se queste ram potrebbero darmi problemi degni di nota:
https://www.gskill.com/en/product/f4-3200c16d-16gtzkw
Devo comunque dire che la lista QVL non è di grande aiuto, visto che contempla esclusivamente Intel...
Mi affido a voi ragazzi ;)
g.skill flare x 3200 MHz CL14 e dormi tranquillo.
Oppure in alternativa ram con chip samsung b-die (https://www.reddit.com/r/Amd/comments/62vp2g/clearing_up_any_samsung_bdie_confusion_eg_on/)
E' palese che ryzen vada meglio con ram rapide...
Se no mi sarei fiondato su delle Flare X da 2400 Mhz e tanti saluti.
Impossibile dire il contrario ;)
Se vuoi sfruttarli al massimo, in specifiche situazioni si, altrimenti nell'utilizzo medio, spesso consiglio anche le 2400, anche se già le 2666 come quelle di bagnino89 sono un buon compromesso :)
In ogni caso, F4-3200C16D-16GTZ (le Trident Z nella colorazione più "classica" grigio/rosso) e F4-3200C16D-16GTZKW (bianco/nero) sono uguali a livello di chip, immagino anche le F4-3200C16D-16GTZR (nero/rgb) ma non le ho mai avute da provare.
Le C16 sulle vecchie MB davano più grattacapi che sulle nuove, ho rpovato di recente le F4-3200C16D-16GTZ su una X470-Pro consigliata ad un amico, e sembrano andare bene.
Rispetto Zen/Zen+ e Ram, in realtà sembra che la maggior differenza la fanno chipset/MB e agesa.
1600 e 2600X su B350-Plus, e X370-Pro di Asus gestiscono le mie in firma e le Team Group che avevo prima nello stesso identico modo, mentre sulla X470-Pro (stesso agesa 1.0.0.2 delle altre due) che ho ora, le gskill sono tornate ad andare a 3200 C14 senza dover aumentare la tensione (1.35 sulla X470, 1.385 sulle altre due).
Con i vecchi bios per Zen prima maniera, quindi agesa NON "Pinnacle", sia la B350 che la X370 gestivano le gskill in firma a 3200 C14 anche a 1.35v.
L'ultimo bios MSI ha il nuovo agesa 1.0.0.4c, che dovrebbe appunto migliorare un poco la gestione delle Ram, anche sulle vecchie MB (x370/b350). O almeno questo sembra in generale, spero anche con Asus (in ritardo con il rilascio dei bios con questo agesa) vada come su Asrock e MSI.
Se le hai in qvl Asus, e ti piacciono, io le proverei a prendere, altrimenti se proprio vuoi spendere di più, andrei sulle Flare-X o sulle C14 (F4-3200C14D-16GTZ) piuttosto che sulle rgb C16 :)
g.skill flare x 3200 MHz CL14 e dormi tranquillo.
Oppure in alternativa ram con chip samsung b-die (https://www.reddit.com/r/Amd/comments/62vp2g/clearing_up_any_samsung_bdie_confusion_eg_on/)
Esatto :)
.Diablo.
03-09-2018, 15:26
g.skill flare x 3200 MHz CL14 e dormi tranquillo.
Oppure in alternativa ram con chip samsung b-die (https://www.reddit.com/r/Amd/comments/62vp2g/clearing_up_any_samsung_bdie_confusion_eg_on/)
Ciao Spitfire84 :)
Purtroppo le Flare X da 3200 sono difficile da reperire e costosissime...
Sulla VGA e sulla RAM sto cercando di risparmiare più che posso perchè non sopporto farmi spennare per stupidi cartelli o per periodi di mining folle... :(
Quindi non voglio spendere 250 euro (se va bene) per 16 gb di ram...
.Diablo.
03-09-2018, 15:30
Se vuoi sfruttarli al massimo, in specifiche situazioni si, altrimenti nell'utilizzo medio, spesso consiglio anche le 2400, anche se già le 2666 come quelle di bagnino89 sono un buon compromesso :)
In ogni caso, F4-3200C16D-16GTZ (le Trident Z nella colorazione più "classica" grigio/rosso) e F4-3200C16D-16GTZKW (bianco/nero) sono uguali a livello di chip, immagino anche le F4-3200C16D-16GTZR (nero/rgb) ma non le ho mai avute da provare.
Le C16 sulle vecchie MB davano più grattacapi che sulle nuove, ho rpovato di recente le F4-3200C16D-16GTZ su una X470-Pro consigliata ad un amico, e sembrano andare bene.
Rispetto Zen/Zen+ e Ram, in realtà sembra che la maggior differenza la fanno chipset/MB e agesa.
1600 e 2600X su B350-Plus, e X370-Pro di Asus gestiscono le mie in firma e le Team Group che avevo prima nello stesso identico modo, mentre sulla X470-Pro (stesso agesa 1.0.0.2 delle altre due) che ho ora, le gskill sono tornate ad andare a 3200 C14 senza dover aumentare la tensione (1.35 sulla X470, 1.385 sulle altre due).
Con i vecchi bios per Zen prima maniera, quindi agesa NON "Pinnacle", sia la B350 che la X370 gestivano le gskill in firma a 3200 C14 anche a 1.35v.
L'ultimo bios MSI ha il nuovo agesa 1.0.0.4c, che dovrebbe appunto migliorare un poco la gestione delle Ram, anche sulle vecchie MB (x370/b350). O almeno questo sembra in generale, spero anche con Asus (in ritardo con il rilascio dei bios con questo agesa) vada come su Asrock e MSI.
Se le hai in qvl Asus, e ti piacciono, io le proverei a prendere, altrimenti se proprio vuoi spendere di più, andrei sulle Flare-X o sulle C14 (F4-3200C14D-16GTZ) piuttosto che sulle rgb C16 :)
Esatto :)
Ciao ZanteGE :)
Grazie per l'esaustiva risposta ;)
Quindi tu daresti una chance alle g.skill "KW" che ho menzionato, giusto?
Me le porterei a casa con 170 euro circa...20 euro meno delle RGB che...fottesega dei led :D
Ora però mi state mettendo addosso dei dubbi sulla "bontà" dell'Asus Prime X470-Pro...
Avevo letto fosse una delle migliori motherboard per Ryzen...oppure sbaglio?
Ciao ZanteGE :)
Grazie per l'esaustiva risposta ;)
Quindi tu daresti una chance alle g.skill "KW" che ho menzionato, giusto?
Me le porterei a casa con 170 euro circa...20 euro meno delle RGB che...fottesega dei led :D
Ora però mi state mettendo addosso dei dubbi sulla "bontà" dell'Asus Prime X470-Pro...
Avevo letto fosse una delle migliori motherboard per Ryzen...oppure sbaglio?
Si, esatto, e a quel prezzo mi sembrano ottime.
Non potrai avere la certezza matematica prima di provarle, ma penso ci siano buone possibilità, se hanno testato la versione rgb dello stesso modulo.
Personalmente sono più che soddisfatto della MB, la riprenderei anche oggi.
Sulla X370 è vero che Asus non ci ha azzeccato molto lato ram, dai primi bios per Zen+ (con i precedenti andava meglio), mentre già al tempo ad esempio Gigabyte riusciva ad ottenere qualche cosa di più dalle stesse ram.
Oggi il tema è un poco diverso, Asus è in ritardo rispetto agli altri con il rilascio del bios nuovo, creato sulla base del nuovo agesa di AMD, ma se guardi la situazione un paio di mesi fa era l'esatto contrario ... era tra i primi produttori a garantire il funzionamento degli Zen+ ancora prima della loro uscita, con bios stabili.
Personalmente credo ci sarà sempre un produttore in ritaro e uno più svelto per ogni singola versione di agesa ... ma la valutazione alungo termine, non credo proprio metta Asus tra gli ultimi, perlomeno a mio parere :)
Anche a livello di costo/funzionalità/prestazioni, secondo me, resta una delle migliori X470.
nevets89
03-09-2018, 15:38
Ciao Spitfire84 :)
Purtroppo le Flare X da 3200 sono difficile da reperire e costosissime...
Sulla VGA e sulla RAM sto cercando di risparmiare più che posso perchè non sopporto farmi spennare per stupidi cartelli o per periodi di mining folle... :(
Quindi non voglio spendere 250 euro (se va bene) per 16 gb di ram...
io 250€ li spendo per 32GB di ram... ma voi che ram comprate? a me non interessa che siano a 3200MHz.. anche 2800 vanno bene, ma anche 2666 se costano il giusto... io ora punto a spendere sui 100€ per 16gb o 200€ per 32gb... dipende cosa trovo prima.
io 250€ li spendo per 32GB di ram... ma voi che ram comprate? a me non interessa che siano a 3200MHz.. anche 2800 vanno bene, ma anche 2666 se costano il giusto... io ora punto a spendere sui 100€ per 16gb o 200€ per 32gb... dipende cosa trovo prima.
:eek:
DDR4 ?
E' un po' che non guardo le 2133 ... ma ... sembrano un po troppo bassi quei prezzi.
Hai visto qualche modello a quei prezzi ?
Per il resto ... concordo, sti prezzi sono assurdi :(
nevets89
03-09-2018, 15:47
ddr4 sì, nell'ultimo periodo ho visto delle 2400 sui 270 e 3000 sui 300€, parlo di kit da 32gb, ma spero di trovare qualche buon kit a 200€ circa... a marzo comprai 64gb 3000MHz a 400€.... basta aspettare. se si ha tempo :fagiano:
Spitfire84
03-09-2018, 15:53
Ciao Spitfire84 :)
Purtroppo le Flare X da 3200 sono difficile da reperire e costosissime...
Sulla VGA e sulla RAM sto cercando di risparmiare più che posso perchè non sopporto farmi spennare per stupidi cartelli o per periodi di mining folle... :(
Quindi non voglio spendere 250 euro (se va bene) per 16 gb di ram...
io ho preso un kit 2x8 GB F4-3200C15D-16GTZSW che costano un po' meno.
Sulla mia Gigabyte X370 Gaming 5 vanno come da screeshot con 1,4V (con i Samsung b-die può salire anche a 1,45V in daily use), però va detto che le mobo Gigabyte con le memorie (ma hanno altre pecche) sono tra le migliori mobo se non le migliori:
https://s33.postimg.cc/vigooerpb/ryzen_ram.png
Se vuoi farti un'idea dei vantaggi prestazionali delle ram puoi dare un'occhiata alla guida che ho scritto sull'overclock e nel post relativo alle ram trovi dei bench.
ddr4 sì, nell'ultimo periodo ho visto delle 2400 sui 270 e 3000 sui 300€, parlo di kit da 32gb, ma spero di trovare qualche buon kit a 200€ circa... a marzo comprai 64gb 3000MHz a 400€.... basta aspettare. se si ha tempo :fagiano:
Ha ok :)
Su singola offerta ogni tanto capita (es: ora le mie un solo store le ha a 229 ... sino a scorsa settimana erano a 275 anche li), ma i prezzi generali sono alle stelle.
Nel febbraio 2017 si ... il kit 16GB 2666 C15 lo avevo comunque preso sui 95 più iva, ed erano i prezzi normali, anzi, medio alti del tempo.
Cmq noi davvero qui a Fonderia abbiam fatto un monumento ad AMD perchè in un anno ci ha concesso di prendere Workstation di rendering che solo un anno fa sarebbero state una follia trovare a questi prezzi ...
In pratica quello che Intel dava (CPU+MOBO) un anno e qualcosa fa a 2000 euro, oggi AMD lo da a 500.
Moltiplicato per 4 postazioni ... altro che problemi di RAM a 4GHZ
bagnino89
03-09-2018, 16:24
Ciao ZanteGE :)
Grazie per l'esaustiva risposta ;)
Quindi tu daresti una chance alle g.skill "KW" che ho menzionato, giusto?
Me le porterei a casa con 170 euro circa...20 euro meno delle RGB che...fottesega dei led :D
Ora però mi state mettendo addosso dei dubbi sulla "bontà" dell'Asus Prime X470-Pro...
Avevo letto fosse una delle migliori motherboard per Ryzen...oppure sbaglio?Lato hardware le mobo Asus non sono affatto male, ma lato supporto BIOS sono tra le peggiori, secondo me. Parlo di AMD, non conosco la situazione per Intel.
.Diablo.
03-09-2018, 16:57
Si, esatto, e a quel prezzo mi sembrano ottime.
Non potrai avere la certezza matematica prima di provarle, ma penso ci siano buone possibilità, se hanno testato la versione rgb dello stesso modulo.
Personalmente sono più che soddisfatto della MB, la riprenderei anche oggi.
Sulla X370 è vero che Asus non ci ha azzeccato molto lato ram, dai primi bios per Zen+ (con i precedenti andava meglio), mentre già al tempo ad esempio Gigabyte riusciva ad ottenere qualche cosa di più dalle stesse ram.
Oggi il tema è un poco diverso, Asus è in ritardo rispetto agli altri con il rilascio del bios nuovo, creato sulla base del nuovo agesa di AMD, ma se guardi la situazione un paio di mesi fa era l'esatto contrario ... era tra i primi produttori a garantire il funzionamento degli Zen+ ancora prima della loro uscita, con bios stabili.
Personalmente credo ci sarà sempre un produttore in ritaro e uno più svelto per ogni singola versione di agesa ... ma la valutazione alungo termine, non credo proprio metta Asus tra gli ultimi, perlomeno a mio parere :)
Anche a livello di costo/funzionalità/prestazioni, secondo me, resta una delle migliori X470.
Ok ZanteGE allora proverò a prendere le trident Z bianche :)
Da quello che scrivi mi sa che dovrò aggiornare il bios della Asus tra non molto...o sbaglio?
.Diablo.
03-09-2018, 16:59
io 250€ li spendo per 32GB di ram... ma voi che ram comprate? a me non interessa che siano a 3200MHz.. anche 2800 vanno bene, ma anche 2666 se costano il giusto... io ora punto a spendere sui 100€ per 16gb o 200€ per 32gb... dipende cosa trovo prima.
Ciao nevets89 :)
Se puoi mandarmi un pm riguardo a dove possa trovare 16gb di ddr4 a 100 euro, anche a 2666 Mhz, te ne sarei grato ;)
Come ho scritto sopra sto facendo di tutto per risparmiare sui componenti su cui il mercato sta lucrando fin troppo...
.Diablo.
03-09-2018, 17:01
io ho preso un kit 2x8 GB F4-3200C15D-16GTZSW che costano un po' meno.
Sulla mia Gigabyte X370 Gaming 5 vanno come da screeshot con 1,4V (con i Samsung b-die può salire anche a 1,45V in daily use), però va detto che le mobo Gigabyte con le memorie (ma hanno altre pecche) sono tra le migliori mobo se non le migliori:
https://s33.postimg.cc/vigooerpb/ryzen_ram.png
Se vuoi farti un'idea dei vantaggi prestazionali delle ram puoi dare un'occhiata alla guida che ho scritto sull'overclock e nel post relativo alle ram trovi dei bench.
Grazie mille Spitfire84 ;)
Edit: scusatemi, non sono pratico col multiquote...ma d'ora in avanti lo utilizzerò :)
Ha ok :)
Su singola offerta ogni tanto capita (es: ora le mie un solo store le ha a 229 ... sino a scorsa settimana erano a 275 anche li), ma i prezzi generali sono alle stelle.
Nel febbraio 2017 si ... il kit 16GB 2666 C15 lo avevo comunque preso sui 95 più iva, ed erano i prezzi normali, anzi, medio alti del tempo.
Prendo ad esempio le G.skill.
Le F4-3200C16D-32GVK (Hynix) vengono sui 280 euro, una piccola differenza rispetto a quelle di clock inferiore (20-30 euro)
Per dire, le più "blasonate" F4-3200C14D-16GFX (16GB Flare X Samsung B-die) vengono sui 220 euro: se si ha bisogno della quantità, cambia poco tra c16 e c14, anche a dover mettere le prime a 2933/3133.
Restiamo comunque molto lontani dai minimi di 2 anni fa', ma il peggio sul "caro ram" dovrebbe essere passato.
Le GSkill F4-3000C16D-16GISB vanno bene per Ryzen 1° Gen ?
Prendo ad esempio le G.skill.
Le F4-3200C16D-32GVK (Hynix) vengono sui 280 euro, una piccola differenza rispetto a quelle di clock inferiore (20-30 euro)
Per dire, le più "blasonate" F4-3200C14D-16GFX (16GB Flare X Samsung B-die) vengono sui 220 euro: se si ha bisogno della quantità, cambia poco tra c16 e c14, anche a dover mettere le prime a 2933/3133.
Restiamo comunque molto lontani dai minimi di 2 anni fa', ma il peggio sul "caro ram" dovrebbe essere passato.
Si, anzi, a volte secondo il tipo di programmi usati, vanno benone anche i kit da 32GB a 2400, e limi ancora un poco il prezzo.
Personalmente poi, a parte il primo kit a 2666 C15, tutte le successive ho preferite prenderle usate, 250 e passa per le mie in firma, nemmeno io le avrei pagate !
Kit da 32Gb su AM4, difficile restino a 3200 davvero, se non sulle ultime MB.
Non so a quanto vadano su MB AM4 di fascia media le F4-3200C16D-32GVK (che immagino siano dual rank), ma i kit sempre Hynix C15 o C16 da 4 moduli, sono tra quelli che cerco di solito per TR, non costano una fucilata, e su quella piattaforma rendono alla grande :)
Su AM4 invece, consiglio sempre di restare tra 2400 e 2666 (molte di queste tra la'altro, con lieve overvolt arrivano a 2933).
Se proprio si preferiscono i 3200/3400, resto sulle b-die c14, non ho ancora la certezza che le Hynix riescano a salire, anche se alcune nuove MB, le mettono in QVL.
Le GSkill F4-3000C16D-16GISB vanno bene per Ryzen 1° Gen ?
Se ricordo bene, su MB media gamma e B350/X370, andavano a 2666, non so se con bios o MB più recenti sono riusciti a farle girare a 3000.
A prezzo congruo comunque, non le scarterei, 2666, non è poi così male :)
EDIT:
Ok ZanteGE allora proverò a prendere le trident Z bianche :)
Da quello che scrivi mi sa che dovrò aggiornare il bios della Asus tra non molto...o sbaglio?
Si, speriamo prima possibile, anche se non esistono date ... :D
E soprattutto ... con gli stessi miglioramenti che stanno dimostrando i bios stesso agesa degli altri vendor :sofico:
Se ricordo bene, su MB media gamma e B350/X370, andavano a 2666, non so se con bios o MB più recenti sono riusciti a farle girare a 3000.
A prezzo congruo comunque, non le scarterei, 2666, non è poi così male :)
Grazie :) mi interessa sopratutto la stabilità, mi interessano per la conf. in firma, visto il basso costo.
Io le ho e le faccio andare a 3133 con la configurazione in firma.
Inviato dal mio G8441 utilizzando Tapatalk
Ottimo grazie :)
Grazie :) mi interessa sopratutto la stabilità, mi interessano per la conf. in firma, visto il basso costo.
Ottimo grazie :)
Non avevo guardato il prezzo :eek:
Si, mi sembrano un'ottima scelta, soprattutto per quanto scrive Mini4wdking, buono a sapersi !
E complimenti anche per l'oc del 1200 !!! :)
Prendo ad esempio le G.skill.
Le F4-3200C16D-32GVK (Hynix) vengono sui 280 euro, una piccola differenza rispetto a quelle di clock inferiore (20-30 euro)
Per dire, le più "blasonate" F4-3200C14D-16GFX (16GB Flare X Samsung B-die) vengono sui 220 euro: se si ha bisogno della quantità, cambia poco tra c16 e c14, anche a dover mettere le prime a 2933/3133.
Restiamo comunque molto lontani dai minimi di 2 anni fa', ma il peggio sul "caro ram" dovrebbe essere passato.
ma le F4-3200C16D-32GVK andrebbero bene con un ryzen 2600x con Asrock x470 k4 o in alternativa Msi x470 pro carbon? (non farò overclock e lascio fare tutto al sistema (xfr ecc)
ma le F4-3200C16D-32GVK andrebbero bene con un ryzen 2600x con Asrock x470 k4 o in alternativa Msi x470 pro carbon? (non farò overclock e lascio fare tutto al sistema (xfr ecc)
Molto probabilmente caricando l'XFR non andrebbero a 3200 e dovresti abbassarle manualmente a 2800 o 2933.
paolo.oliva2
04-09-2018, 07:55
Ah in effetti più di 3466 non ho sentito nessuno, con Ryzen.
Comunque anche per andare a 4000 ci vogliono belle ram cazzute... mica è immediato.
Concordo.
Il mio sistema, CH6 + 2700X) può funzionare a:
3600 CL16
3466 CL14
3400 CL14.
A parte i bench, tra 3600 CL16 e 3466 CL14, preferisco i 3466 CL14, il sistema non mi si è mai bloccato ma a 3466 CL14 a volte lagga, ho quindi optato per 3400 CL 14.
Secondo me, il miglior settaggio, è CL14 (o inferiore) su Zen1 ~2800 e su Zen+. 3400.
Se uno vuole di più, per me non ha senso su AM4, cioè, se bisogna spendere 1000mila € sulle DDR4, allora tanto vale prendersi una TR4 +Zen1 1920X e 4 Banchi DDR4 2600 con ottimo CL e via.
Buongiorno, sto provando la mia nuova configurazione, è normale che il voltaggio della cpu rimanga inchiodato a 1,30?
Ho abilitato la funzione game boost della mobo che mandava la cpu a 3900mhz e 1,30 di vcore fissi.
L'ho disabilitata perchè preferisco che si attivi il risparmio energetico ma ho notato che il vcore non si muove mentre la frequenza varia in base al carico.
paolo.oliva2
04-09-2018, 08:31
Asus è scandalosa ma in generale Ryzen non riesce a garantire i millemila MHz stabili delle più recenti piattaforme Intel. Basta farsi un giro negli "altri thread" per vedere gente che tiene RAM a 4000 MHz in totale scioltezza.
3, 2, 1... per il "tenere RAM a frequenze così alte non serve a niente, bla bla bla".
Passo e chiudo! ;)
Non ti quoto per darti contro...sul concetto.
Però, vorrei farti notare che se valuto il lato spesa, a un 8700K con Dual Channel DDR4 4000, con gli stessi soldi farei un sistema TR4 con quad-Channei con 1920X e 4 DDR4 scrause. Anche mettendoci delle 2133, otterresti delle 4266, come CL senz'altro meglio, è al posto di un X6/12TH un X12/24TH.
L'alternativa, se proprio il doppio dei core non serve, rimane pur sempre quella di un 2900X X8, che probabilmente non avrà le stesse frequenze di un 9900K, però, avresti di tutto di più con spesa di tutto di meno.
Spesa per velocità DDR4 inferiore, upgradabilità sistema, dissipazione procio, sollecitazione VRM mobo...
Preciso che vanno così solo con l'ultimo bios con agesa 1.0.0.4b, in automatico mettendo xmp=2933 e poi alzando la frequenza.
Prima andavano a 2933 mettendo i timings a mano, non con xmp che non funzionava.
Sono comunque andate a 2933 anche con uno dei primi agesa, il 1.0.0.5, come dichiarato fra l'altro dal QVL della mia scheda madre.
Lo immaginavo :)
Prima di rispondere avevo controllato che anche Asrock lo mettesse a disposizione sulla Asrock AB350m Pro4.
Non vedo l'ora di averlo anche sulla Asus, menomale che sono via, altrimenti anche io mi lamenterei del ritardo con i loro bios :D
In ogni caso, per il loro costo, cavolo, i 2933 erano già più che buoni !
Non avevo guardato il prezzo :eek:
Si, mi sembrano un'ottima scelta, soprattutto per quanto scrive Mini4wdking, buono a sapersi !
E complimenti anche per l'oc del 1200 !!! :)
Colpo di fortuna :ciapet: :D
L'unico dubbio su queste ram è l'assenza di dissi, c'è solo un adesivo plastificato, non è che il calore sarà un problema in estate? non penso se le hanne fatto così, però qualche dubbio mi viene sempre :stordita:
Ottimo :)
L'importante è che siano stabili, le mie Corsair ogni tanto mi fanno laggare il sistema anche a default e non ne capisco il motivo, se provo con le ram di un altro pc invece nessun problema :rolleyes:
hwinfo e hwmonitor riportano le temp delle ram, spaere poi il range ottimale è un altro discorso, non so se è menzionato nei datasheet dei moduli ram sinceramente......nel mio enthoo il componente più caldo dopo la cpu e la gpu è l'ssd non le ram (mi sembra sui 36c a 3200 1,35V quando faceva caldo)
Io le ho comprate a settembre 2017 e le ho pagate 140€ per 16gb.
Non mi posso lamentare. E neanche di MSI, che sul fronte bios non è un fenomeno, ma basta seguire (Come sempre) i forum per capire quali bios evitare.
Per la mia scheda i bios E ed F (i primi due con supporto a Pinnacle Ridge) avevano un bug di forte calo della bandwidth quando il processore era overcloccato da bios (tutto ok a default e con overclock da ryzen master), li ho quindi evitati.
Per il resto MSI viene un po' snobbata, vedo, tutti su Asus e AsRock, ma io ne posso parlare bene. VRM mai arrivati a 80° neanche con il più duro stress test e con temperatura ambiente oltre i 30° in estate.
Be, la Pro Carbon era un'ottima scheda sin dalla sua uscita, erano le B350 che apparentemente sembravano un poco legegrine. Di MSI mi ha sempre un poco preoccupato la lentezza nell'aggiornare i bios, e l'abbandono di alcune schede ai tempi dell'am2/3; immagino a causa dell'ampiezza della gamma, e del fatto che non hanno troppe risorse da impegnare a lungo su quel fronte, il loro core, sino a pochi anni fa, era l'OEM.
Ma a questo giro (B450 soprattutto, ma anche X470), le sto consigliando perché sembrano davvero molto ben fatte, sia lato hardware che bios.
Ottimo :)
L'importante è che siano stabili, le mie Corsair ogni tanto mi fanno laggare il sistema anche a default e non ne capisco il motivo, se provo con le ram di un altro pc invece nessun problema :rolleyes:
Quoto Mini4wdking, sono fatte per andare a 3000 con 1.35v, se non ti allontani troppo, soprattutto lato tensione, non mi preoccuperei davvero.
hwinfo e hwmonitor riportano le temp delle ram, spaere poi il range ottimale è un altro discorso, non so se è menzionato nei datasheet dei moduli ram sinceramente......nel mio enthoo il componente più caldo dopo la cpu e la gpu è l'ssd non le ram (mi sembra sui 36c a 3200 1,35V quando faceva caldo)
Vero, e dipende non solo dal singolo chip utilizzato, ma anche dalla sua revision oltre chiaramente a come sono costruiti i moduli.
Salvo le b-die, famose per spingersi anche in daily a 1.5v se ben dissipate, se resti nei dintorni di 1.35, quasi qualsiasi chip regge senza problemi, restando a mio parere non troppo lontano dall'ottimale.
Salvo server e ws che ne fanno un'uso molto intensivo, per i quali di solito si preferiscono le classiche jedec funzionanti a 1.2v, mantenendosi in questi range non mi è mai capitato di vedere ram fritte, o causa di problemi dovuti alla loro temperatura.
Spero venga adottato con il tempo su altre mobo , è comodissimo ed in più gli SSD restano freschi anche senza ventole , basta montargli un dissipatore.
La soluzione sotto la scheda video o nel dissipatore PCH non è ottimale, gli M2 risentono della temperatura della vga e del PCH , quelli più veloci raggiungono velocemente i 70° e passa andando in throttle in quella posizione invece con il dissi delle EK (pochissima spesa) a fine luglio quando c'erano 37-38° non l'ho mai visto passare i 46° (circa 7-8° sopra la temp amb) e senza ventole (si puo montare in caso anche una ventola da 40x40)
grazie per le info, un report interessante.
3, 2, 1... per il "tenere RAM a frequenze così alte non serve a niente, bla bla bla".
non so se ti riferisci a me, quando ho scritto sulla questione ram avevo specificato che dipende molto dagli ambiti d'uso l'incidenza sulla prestazioni e che quindi se per lo scopo a cui uno acquista il vantaggio è minimo a fronte di un incremento di spesa elevato allora non lo trovo conveniente e che l'utente dovrebbe soppesare prestazioni e spesa a seconda di ciò che fa principalmente con la macchina che va ad assemblare.
https://www.hwupgrade.it/forum/showpost.php?p=45655268&postcount=33946
bagnino89
04-09-2018, 15:31
non so se ti riferisci a me, quando ho scritto sulla questione ram avevo specificato che dipende molto dagli ambiti d'uso l'incidenza sulla prestazioni e che quindi se per lo scopo a cui uno acquista il vantaggio è minimo a fronte di un incremento di spesa elevato allora non lo trovo conveniente e che l'utente dovrebbe soppesare prestazioni e spesa a seconda di ciò che fa principalmente con la macchina che va ad assemblare.
https://www.hwupgrade.it/forum/showpost.php?p=45655268&postcount=33946
Assolutamente no.
Una domanda per chi ha un 2600x con una X370: senza oc, che frequenze riesce a tenere con tutti i thread al 100%? E con oc a quanto si riesce a portarlo con tensioni "tranquille" (ammesso che abbia senso farlo)?
Assolutamente no.
Una domanda per chi ha un 2600x con una X370: senza oc, che frequenze riesce a tenere con tutti i thread al 100%? E con oc a quanto si riesce a portarlo con tensioni "tranquille" (ammesso che abbia senso farlo)?
Dipende dal dissy, o meglio, dalla temperatura.
In ogni caso sulla X370-Pro, mi teneva il moltiplicatore tra 38.8x/39x (già sui 70° e passa) e 40x (solo sotto i 55/60°).
Ha, scusa, intendo PB2 e XFR2 attivi, e PBO disattivo.
Non ho notato differenze rispetto alla X470-Pro che ho poi deciso di tenere.
Non ho provato a fare OC classico però.
EDIT:
Se ti può interessare, sempre in auto (no oc manuale), con tutti i core a circa 3.9GHz le tensioni restavano poco sopra 1.3v, da 1.3 a 1.33 diciamo.
Assolutamente no.
Una domanda per chi ha un 2600x con una X370: senza oc, che frequenze riesce a tenere con tutti i thread al 100%? E con oc a quanto si riesce a portarlo con tensioni "tranquille" (ammesso che abbia senso farlo)?
OC non ho provato a farne, ma con il custom loop in firma sono a 4.25 in single thread, 4,2 in MT con carico leggero (es. memtest), tra i 4,125 e i 4,175 con cinebench e intorno ai 4,125 con OCCT, il tutto con un offset di -0,1v sul processore
bagnino89
04-09-2018, 16:43
Dipende dal dissy, o meglio, dalla temperatura.
In ogni caso sulla X370-Pro, mi teneva il moltiplicatore tra 38.8x/39x (già sui 70° e passa) e 40x (solo sotto i 55/60°).
Ha, scusa, intendo PB2 e XFR2 attivi, e PBO disattivo.
Non ho notato differenze rispetto alla X470-Pro che ho poi deciso di tenere.
Non ho provato a fare OC classico però.
EDIT:
Se ti può interessare, sempre in auto (no oc manuale), con tutti i core a circa 3.9GHz le tensioni restavano poco sopra 1.3v, da 1.3 a 1.33 diciamo.
Pensavo meglio!
Io tengo il mio 1600x a 1.25 V a 3900 MHz con i P States, quindi a meno di fare un po' di OC è un upgrade inutile.
Temperature alte cmq, il dissipatore è stock? Io ho un Noctua con ventola da 9 cm e sto sui 70 gradi massimi.
Sempre più convinto che PB e XFR sparino decisamente troppo le tensioni, con temperature fuori controllo...
bagnino89
04-09-2018, 16:45
OC non ho provato a farne, ma con il custom loop in firma sono a 4.25 in single thread, 4,2 in MT con carico leggero (es. memtest), tra i 4,125 e i 4,175 con cinebench e intorno ai 4,125 con OCCT, il tutto con un offset di -0,1v sul processore
PBO attivo? A che temperature arrivi?
Polpi_91
04-09-2018, 19:52
Io con un Venomous X + 2 Noctua Industrial 2000rpm @50% e il processore a 3.7ghz a 1.21V arrivo a 62°C
Pensavo meglio!
Io tengo il mio 1600x a 1.25 V a 3900 MHz con i P States, quindi a meno di fare un po' di OC è un upgrade inutile.
Temperature alte cmq, il dissipatore è stock? Io ho un Noctua con ventola da 9 cm e sto sui 70 gradi massimi.
Sempre più convinto che PB e XFR sparino decisamente troppo le tensioni, con temperature fuori controllo...
Sulla X370 il test era con il buon vecchio NH-C14S, in un case un poco sacrificato a dire il vero.
Per il resto si, sparano parecchio alto, sulla X470 ho poi continuato le prove abbassando lievemente la tensione, sono arrivato a -0.075, ma per la massima stabilità ho poi tenuto -0.05.
La differenza, per le temperature, l'ha poi fatta il Freezer 240, con l'AIO sono sceso mediamente di una decina di gradi nei momenti in cui spara alta la tensione.
Lo scrivevo anche in altri post, ma la differenza maggiore non è sulla massima potenza da dissipare, ma sulla rapidità con cui sale quando la tensione passa 1.35v su 3 o 4 core, o arriva anche a 1.5 per tenere due core a 4.25 GHz.
Il tutto amplificato se attivo il PBO, con il Noctua quasi non vedevo differenze, mentre con l'AIO resta spesso sotto i 60° e le frequenze salgono, tiene i 4 o 4,05 GHz anche dopo 30 minuti in Prime95.
Anche se, spesso nei giochi (o meglio, nei bench interni al gioco) va meglio tutto auto che con PBO attivo ...
Mentre con i custom si fanno faville :)
Rispetto al mio vecchio 1600 liscio la differenza, nell'encoding e in alcuni giochi (es: TR) si sente abbastanza, ma se ricordo bene il 1600X (mai avuto personalmente, ma ne ho montati 2 per alcuni amici), no, secondo me non vale la pena, meglio tenerli da parte per Zen2 :)
bagnino89
04-09-2018, 22:22
Rispetto al mio vecchio 1600 liscio la differenza, nell'encoding e in alcuni giochi (es: TR) si sente abbastanza, ma se ricordo bene il 1600X (mai avuto personalmente, ma ne ho montati 2 per alcuni amici), no, secondo me non vale la pena, meglio tenerli da parte per Zen2 :)
Sempre che Asus si degni di aggiornare i microcode delle X370 per le nuove CPU, cosa affatto scontata :asd:
techsaskia
05-09-2018, 00:11
Ma io 2950x non lo ha preso nessuno?
A me sembra un mostro.
Che dite per giocare è tanto meglio Intel?
PBO attivo? A che temperature arrivi?
Si per il PBO, con Tamb di 30° sto sui 42 in idle e 63 con OCCT
Gyammy85
05-09-2018, 07:44
Ma io 2950x non lo ha preso nessuno?
A me sembra un mostro.
Che dite per giocare è tanto meglio Intel?
Un utente qui l'ha preso, ma per i giochi ancora non è la scelta migliore, anche se credo abbia la modalità gaming, ho visto alcune review e in certi giochi va quanto o leggermente più di un 2700x. In ottica futura avrebbe senso, sembra che i giochi in rt abbiano bisogno di cpu con tanti core...
bagnino89
05-09-2018, 08:03
Un utente qui l'ha preso, ma per i giochi ancora non è la scelta migliore, anche se credo abbia la modalità gaming, ho visto alcune review e in certi giochi va quanto o leggermente più di un 2700x. In ottica futura avrebbe senso, sembra che i giochi in rt abbiano bisogno di cpu con tanti core...Futura tipo 10 anni dove ci saranno CPU quantiche? :asd:
Dai su, come detto nell'altro thread spero che certe CPU si prendano per farci lavori seri ad altissima parallelizzazione, altrimenti è follia.
Gyammy85
05-09-2018, 08:17
Edit
Ma io 2950x non lo ha preso nessuno?
A me sembra un mostro.
Che dite per giocare è tanto meglio Intel?
Se lo usi solo per giocare, con un Threadripper butti solo i soldi, tanto più che Sli/Crossfire sono in via d'estinzione.
Se lo usi per usare altri programmi intensivi in background e nel frattempo vuoi giocare, in multitasking spinto i Threadripper sono delle bestie:
https://www.techspot.com/review/1680-threadripper-2-mega-tasking/
quello è un 2990WX, ma rende l'idea.
No, nessuna paura... Aggiornerà! È solo questione di tempo.
Inviato dal mio G8441 utilizzando Tapatalk
Credo anche io, non so se lo faranno per tutte le MB, ma sono così simili che probabilmente lo faranno pochi giorni prima della presentazione di Zen2; sulle top, ne sarei quasi certo.
Tra l'altro con quelli per Zen+ erano in test sia i bios con il 1.0.0.4, che 1.0.0.5 se non sbaglio, visti alcuni piccoli problemi, lato linux del primo ... chissà che non arrivi direttamente il secondo.
Sono curioso soprattutto sulla B350, se tornano a funzionare appieno anche le b-die.
EDIT:
Se lo usi solo per giocare, con un Threadripper butti solo i soldi, tanto più che Sli/Crossfire sono in via d'estinzione.
Se lo usi per usare altri programmi intensivi in background e nel frattempo vuoi giocare, in multitasking spinto i Threadripper sono delle bestie:
https://www.techspot.com/review/1680-threadripper-2-mega-tasking/
quello è un 2990WX, ma rende l'idea.
Quoto per intero !
Solo che, tra presentazioni AMD, e funzioni tipo appunto il gaming mode ... per non parlare di luci, lucine e simili ... ho il sospetto che la strada sia anche in quel senso :(
paolo.oliva2
05-09-2018, 11:17
Io penso che sia AMD che Intel pubblicizzino la fascia alta per game unicamente per incassare di più.
poi è ovvio che quando lo faceva 2 anni fa Intel, aveva più senso, visto che l'offerta per la fascia inferiore era max X4.
A mio parere, se uno deve giocare e solo giocare, un 2700x e il 9900k che uscirà vanno più che bene (considerando di prendere un X8 al posto di un X6 per avere più margine).
Poi è ovvio, se serve l'MT, diciamo che >X8, e diciamo in ottica AMD (il costo a core è più basso di Intel) ha senso perché un 2920X/2950X non perde nulla rispetto ad un 2700X.
Cioè... una volta se volevi più MT dovevi avere più core e più core significava perdere frequenza rispetto agli X4. AMD, per come è concepito il due e più die, addirittura un 2950X X16 ha frequenze massime superiori ad un 2700X X8 e comunque a parità di sfruttamento il 2950X dovrebbe avere frequenze superiori.
Gyammy85
05-09-2018, 11:22
Cioè... una volta se volevi più MT dovevi avere più core e più core significava perdere frequenza rispetto agli X4. AMD, per come è concepito il due e più die, addirittura un 2950X X16 ha frequenze massime superiori ad un 2700X X8 e comunque a parità di sfruttamento il 2950X dovrebbe avere frequenze superiori.
Infatti per questo dicevo che alla fine un 2950x non sarebbe affatto una cattiva idea anche per i giochi se non fosse per il costo della piattaforma...
Il gaming su HEDT deve essere un'attività assolutamente secondaria, altrimenti si buttano solo i soldi.
Le priorità del gaming sono la spesa per la scheda video e per il monitor con un occhio di riguardo per tastiera e mouse e già solo per questi si possono spendere 1000-3000 euro come niente.
Solo dopo viene il resto.
Spendere 1200 euro per un 2950X + x399 anzichè 300 per un 2600X + B450, soprattutto per giocare, è un buttare i soldi.
Se poi non si hanno limiti di budget, è un altro discorso :)
newtechnology
05-09-2018, 12:14
Il gaming su HEDT deve essere un'attività assolutamente secondaria, altrimenti si buttano solo i soldi.
Le priorità del gaming sono la spesa per la scheda video e per il monitor con un occhio di riguardo per tastiera e mouse e già solo per questi si possono spendere 1000-3000 euro come niente.
Solo dopo viene il resto.
Spendere 1200 euro per un 2950X + x399 anzichè 300 per un 2600X + B450, soprattutto per giocare, è un buttare i soldi.
Se poi non si hanno limiti di budget, è un altro discorso :)
Concordo se il pc ha come unico scopo il gioco , ma nel mio caso che lo uso a 360° il 2950 come il 1950 che avevo prima sono ottimi compromessi.
Nelle app di conversione , rendering ecc le differenze con il 1950 sono nell'ordine del 15% , nei giochi invece le differenze sono più marchiate. Ho provato la 1080ti sul 2700x testandolo con diversi giochi tra i quali (quello che uso di piu) The division , Tomb Rider e Metro , o sempre più frame con il 2950x rendendolo dal mio punto di vista è per il mio uso il miglior proccio disponibile sul mercato.
La cosa bella di AMD e che i suoi procci della serie HEDT sono superiori anche come frequenza sui singoli cori a differenza di Intel che ha sempre avuto grandi frequenze sulla fascia bassa e più core a discapito dei MHz sulla fascia HEDT
Prodotto davvero al top basta guardare la scatola, quando l'ho aperta mi sembrava di essere un bambino a Natale...
capitan_crasy
05-09-2018, 13:20
2 Core/4 Thread
3.20Ghz senza turbo core
Vega 3 con 192 Shader
TDP 35W
Costo sui 55 dollari...
http://i.imgur.com/b4858Bph.jpg (https://imgur.com/b4858Bp)
http://i.imgur.com/RAzsuUxh.jpg (https://imgur.com/RAzsuUx)
http://i.imgur.com/XjUgXV6h.png (https://imgur.com/XjUgXV6)
Clicca qui... (https://www.computerbase.de/2018-02/amd-raven-ridge-athlon/)
Gyammy85
05-09-2018, 13:31
2 Core/4 Thread
3.20Ghz senza turbo core
Vega 3 con 192 Shader
TDP 35W
Costo sui 55 dollari...
http://i.imgur.com/b4858Bph.jpg (https://imgur.com/b4858Bp)
http://i.imgur.com/RAzsuUxh.jpg (https://imgur.com/RAzsuUx)
http://i.imgur.com/XjUgXV6h.png (https://imgur.com/XjUgXV6)
Clicca qui... (https://www.computerbase.de/2018-02/amd-raven-ridge-athlon/)
Carino
Vega tiny :oink:
VanCleef
05-09-2018, 13:36
Ma è un derivato dai ryzen 2400g/2200g è parzialmente spento oppure è una serie a sé stante?
Sono curioso di vedere come si comporta vs un g4560 che ho usato per assemblare un PC low budget ad uso multimediale/Office...
Gyammy85
05-09-2018, 13:40
Ma è un derivato dai ryzen 2400g/2200g è parzialmente spento oppure è una serie a sé stante?
Sono curioso di vedere come si comporta vs un g4560 che ho usato per assemblare un PC low budget ad uso multimediale/Office...
Nella slide c'è il confronto :O
Penso che lo superi senza problemi, ormai è assodato che l'smt è più efficiente dell'ht
Nella slide c'è il confronto :O
Penso che lo superi senza problemi, ormai è assodato che l'smt è più efficiente dell'ht
Sembra leggermente più lento, -3%, ma lato grafica nettamente meglio.
Se mantiene l'accelerazione video dei fratelli maggiori, molto appetibile anche per htpc da attaccare dietro le tv, immagino scaldi davvero poco, se fosse AM4.
Vedo però che quel dispositivo usava ddr3, o sbaglio ? :eek:
Forse solo per OEM e dispositivi tipo nuc & C. ?
capitan_crasy
05-09-2018, 14:35
Ma è un derivato dai ryzen 2400g/2200g è parzialmente spento oppure è una serie a sé stante?
Sono curioso di vedere come si comporta vs un g4560 che ho usato per assemblare un PC low budget ad uso multimediale/Office...
E' un classico Raven Ridge castrato...
Il fatto che esca solo adesso è perché fino ad ora non c'erano abbastanza 'scarti' per la distribuzione in volumi...
Gyammy85
05-09-2018, 14:35
Sembra leggermente più lento, -3%, ma lato grafica nettamente meglio.
Se mantiene l'accelerazione video dei fratelli maggiori, molto appetibile anche per htpc da attaccare dietro le tv, immagino scaldi davvero poco, se fosse AM4.
Vedo però che quel dispositivo usava ddr3, o sbaglio ? :eek:
Forse solo per OEM e dispositivi tipo nuc & C. ?
Quel -3% è cinebench in st, già nel pcmark sta sopra...
capitan_crasy
05-09-2018, 16:43
Sembra leggermente più lento, -3%, ma lato grafica nettamente meglio.
Se mantiene l'accelerazione video dei fratelli maggiori, molto appetibile anche per htpc da attaccare dietro le tv, immagino scaldi davvero poco, se fosse AM4.
Vedo però che quel dispositivo usava ddr3, o sbaglio ? :eek:
Forse solo per OEM e dispositivi tipo nuc & C. ?
Quel -3% è cinebench in st, già nel pcmark sta sopra...
Il Cinebench è uno dei tanti bench che preso da solo serve a niente, mentre i vari 3D pork servono a riempire le slide di numeri inutili...:rolleyes:
Per il resto:
Ma veramente state guardando quanto può fare un pentium???:asd::sbonk:
P.S. non esistono RR (o comunque con architettura ZEN) con memoria DDR3...
Il 200GE ha il molti sbloccato?
capitan_crasy
05-09-2018, 17:05
http://i.imgur.com/XyQsQJZh.jpg (https://imgur.com/XyQsQJZ)
Athlon 200GE gestisce "solo" 4 linee PCI-Express contro le 8 della serie 2000G e i 16 della serie 2000/1000; disponibilità sul mercato 18 settembre 2018...
Clicca qui... (https://www.techpowerup.com/247363/amd-athlon-pro-200ge-detailed-an-extremely-cut-down-raven-ridge-at-usd-55)
credo sia interessante che se la giochi sui 35W contro i credo 60W del pentium, per il resto immagino sia in una di quelle fasce in cui conta più che cosa ti offre l'OEM complessivamente che non la prestazione superiore o inferiore rispetto al corrispettivo.
tra l'altro è della categoria etichettata "Pro", quindi mi aspetto che l'utilizzo più verosimile all'atto pratico sia per mansioni d'ufficio soft (principalmente stampa/mail/modificare ed archiviare documenti) dove probabilmente il prezzo(del sistema fatto e finito - quindi lato offerta OEM più che singolo componente, per quanto anche questo farà la sua parte) è l'unico parametro realmente preso in considerazione.
EDIT: non avevo visto quest'ultima slide dove lo indicano come 200GE "senza PRO", ma quindi arriva sul mercato come prodotto entry level AM4 anche al dettaglio?
Ma io 2950x non lo ha preso nessuno?
A me sembra un mostro.
Che dite per giocare è tanto meglio Intel?
se devi cambiare il 5930K per farci anche altro potresti anche aspettare di vedere il 12 core nuovo 2920X, non so per giocare quanto andrà più o meno del tuo sistema ma in parecchie altre attività sarebbe un boost parecchio sensibile.
capitan_crasy
05-09-2018, 18:18
EDIT: non avevo visto quest'ultima slide dove lo indicano come 200GE "senza PRO", ma quindi arriva sul mercato come prodotto entry level AM4 anche al dettaglio?
Dovrebbe arrivare anche sul mercato Retail e dato che stavo aspettando una APU da raffreddare passivamente mi sa che appena esce (o quasi) mi faccio un media center...
capitan_crasy
05-09-2018, 20:00
Il problema rimane sempre quello del costo esagerato delle mobo am4 mini ixt...
Inviato dal mio G8441 utilizzando Tapatalk
Infatti mi butto su una micro ATX che tanto di spazio ne ho a sufficienza...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.