Entra

View Full Version : Ryzen 7 1800X: la nuova rinascita di AMD nel mondo delle CPU


Pagine : 1 2 3 [4] 5

george_p
08-03-2017, 14:00
Quoto tutto (sono appena tornato dalla sospensione:rolleyes: :read: )

Ahahahah, gente che va e gente che torna :D
Menomale che non acquisto mai un processore appena uscito.

L'unica volta è stata con il mio attuale 7850K ma almeno li si trattava di solo aggiornamento bios mainboard per riconoscere la nuova apu. Risolto in pochi minuti.

Qui, mainboard, ram (ddr 4), OS che devono ancora familiarizzare con la cpu, e capire quanto il nuovo silicio sia valido... che vista anche la complessità e abnorme quantità di transistor e i consumi di Ryzen, sembrano decretarne la bontà.

MiKeLezZ
08-03-2017, 14:35
è molto strano che utenti esperti siano così perentori nel giudicare una nuova piattaforma appena entrata sul mercato.
tutti quelli che hanno qualche anno di esperienza sanno benissimo che a una nuova architetura, totalmente diversa dalle precedenti e da quelle presenti sul mercato, si deve concedere il tempo di adattamento dei software.

ci sono poi cose che non tornano in diversi test che si sono visti sulle review, soprattutto sui giochi.
da quello che hanno mostrato le review ho notato che molti giochi non hanno nessuno scaling prestazionale passando a risoluzioni inferiori al FHD, con qualsiasi processore; SONO ESPRESSAMENTE CREATI PER ANDARE IN FHD e qualsiasi risoluzione inferiore è solo una questione di visuale; il computo rimane IDENTICO, quindi è anche inutile testare in modalità non supportate dagli elementi di misura usati.

La quasi totalità delle review sui giochi è stata condotta su schede Nvidia, sostenendo che la controparte AMD avrebbe causato limiti prestazionali dovuti alla GPU, per poi vedere che alcuni hanno usato delle GTX 1070, ben poco superiori ad una Fury X.
non è una questione da fanboy, ma tecnica: nessuno garantisce che i driver Nvidia riescano a sfruttare la nuova architettura; quantomeno AMD conoscerà la propria architettura per riuscirla a sfruttare (e senza menzionare le carenze nelle diverse API).

Problemi evidenti si sono manifestati, con gli stessi test, anche sulla 4° generazione intel, con un 4770K (4/8) che veniva perentoriamente superato da un i5-7600K (4/4) di almeno il 10%, e dal 7700K (4/16) del 40%, quando haswell perde al massimo il 10% da kaby lake in IPC, e questo anche in giochi che palesemente offrono la possibilità di usare piu' di 4 thread (evidenziati dai valori ottenuti dalla serie B-E), ed evitando di inserire anche un i5-4690K, che praticamente è il 4770K senza HT abilitato, che avrebbe mostrato l'inutilizzo di alcune caratteristiche anche su quei processori.

hanno misurato, giustamente, l'IPC a frequenze tagliate sulle applicazioni, ma non sui giochi.
un sempice test a 3Ghz a diverse risoluzioni avrebbe mostrato l'evidenza, a molti, sull'inutilità di alcuni setting HW e SW.

insomma: test condotti con pressapochismo su un sistema acerbo e su cui si vi state facendo un sacco di inutili, per ora, questioni.

i test sui giochi hanno solo evidenziato la scarsissima qualità di alcuni, anche AAA, che poteva essere messa in luce anche solo confrontando le generazioni dei processori Intel.

quindi ad oggi la questione è quella riportata:
RyZen non ha problemi sui giochi su un setting adeguato alla categoria di spesa e di aspettative (>=1440p ), per il semplice fatto che è la GPU a presentare i limiti prestazionali, livellando quelle di molti processori.
le prestazioni mostrate sono in minimo dell'ottimizzazione, e possono solo crescere.
nei giochi a confronto con i B-E si ha un netto risparmio economico, nel resto, spesso si si somma anche a prestazioni superiori.
sempre nei giochi a confronto con i quadcore Intel presenta le stesse mancanze che presentano spesso i B-E (e quando le presenta và in coppia con le precedenti generazioni Intel, segno che è il gioco ad essere fatto non male per RyZen, ma male e basta), e non sono così marcate se non quando la mancanza è appunto SW, mentre nel resto dei possibili utilizzi spesso vengono surclassati.
il suo costo maggiore (per 1700x e 1800x) non ne giustifica per ora l'utilizzo per un gamer che fà solo questo con il PC, se non quando è lo stesso uso in game a richiederlo, evitando, ad esempio, un secondo sistema per lo streaming on line (non a caso AMD ha puntato anche su questo punto nella presentazione), ma, oltre che "fino a quando?" per l'aggiustamento SW, e "fino a quando?" per la questione che il 1151 quasi alla sua fine del ciclo, soprattutto "fino a quanto?".
una piattaforma Intel di quelle caratteristiche non è certo piu' economica, soprattutto se si guardano le MB H270+7700K contro le "semplici" B350, che facendo a meno della certificazione SLI Nvidia sono decisamente piu' economiche, tanto da bilanciarne il costo finale.
altro tipo di processore e mobo esce totalmente dal confronto, perche' si scende di classe prestazionale; i non K sono bloccati e non li schiodi dalle prestazioni a default; sfuma il mito dei 5Ghz..

non menzioniamo poi la questione, non evidenziata da nessuna review, del consumo totale... su un desktop è alquanto relativa, ma un i7-7700K per sopravanzare RyZen nei giochi consuma molto di piu', e non meno un B-E.

quindi i "detrattori del primo momento" di RyZen mi sembra che stiano facendo piu' che altro "CAGNARA", senza riuscire ad intuire la cosa piu' importante: c'e' concorrenza, finalmente; c'e' scelta, finalmente.

non vi piace AMD e non vi piacciono i prodotti che propone?
e prendetevi Intel o Nvidia, godendo, trà l'altro, di un minor prezzo di acquisto dovuto ad una sana concorrenza, ma evitate di fare tutta sta "CAGNARA", che è poco credibile agli occhi di qualsiasi persona cum grano salis.
1) Non (ti) tornano i test sui giochi perché Ryzen octacore ha un problema dato dalla suddivisione in CCX e relativo accesso a cache L3, nonché una scarsa efficacia del SMT in tali ambiti
2) Per i >=1440p non servono CPU octacore, domani alle 16:00 su hwupgrade c'è lo streaming della GTX1080TI, basta quella
3) Una piattaforma basata su 7700K consuma 7W in meno in idle e 30W in meno in full load rispetto una 1800X; lo stesso 6950X consuma 20W in meno in full load
4) Attualmente il prezzo di una motherboard H270 è speculare rispetto alla diretta concorrente B350, con la differenza che quella Intel offre qualcosina in più
5) Il valore aggiunto dello "sblocco" presente sugli R7 è relativo, alla luce che le controparti Intel "bloccate" vengono offerte già con 400MHz/800MHz in più e l'architettura Ryzen presenta un andamento di temperatura e consumi esponenziale già superati i 3,5GHz

NvidiaMen
08-03-2017, 15:38
Ero umile al primo messaggio che t'ho scritto, ma ho smesso subito d'esserlo a seguito delle tue piccate repliche. E considerato il trend, non prevedo alcun piano di rientro.

Ognuno è ciò che è.


Quel link lo conoscevo da un bel pezzo, tant'è che l'avevo anche postato nel thread Aspettando Zen (assieme a un altro sull'argomento), e da cui avevo estratto delle informazioni. Ma si vede che tu nemmeno l'hai letto: l'hai buttato lì in pompa magna solo perché è il sito ufficiale dell'applicazione, e a mo' di intimidazione, visto che secondo te dovrei scontrarmi con gli sviluppatori.

Invece mi basta riportare quello che c'è scritto:

Processore minimo: Intel Pentium 4, Athlon 64

Processori supportati: Intel Pentium 4, Intel Pentium 4 D, Intel XEON, Intel Core 2, Intel Core i7, Intel Core i5, Intel Core i3, Intel Celeron, Intel Celeron D, AMD Sempron, AMD Athlon 64, AMD Opteron, AMD Phenom, AMD FX, AMD Ontario, AMD Zacate, AMD Kabini, AMD Temash, AMD Beema, AMD Mullins, AMD Llano, AMD Trinity, AMD Richland, AMD Kaveri

Il benchmark OpenGL richiede una scheda grafica che supporti OpenGL 2.1 e abbia almeno 512 MB di memoria grafica.

CINEBENCH R15 è stato progettato per testare le funzionalità OpenGL 2.1 migliorate come la trasparenza.

Quindi basta un processore a 64 bit, che ha come requisito minimo le SSE2. Dunque le SSE3+ non sa nemmeno cosa siano.

Soprattutto è richiesta una scheda grafica OpenGL 2.1: standard rilasciato nel... 2006!

Dunque le AVX non erano nemmeno nella mente del signore, come si dice dalle mie parti.

E meno male che con Cinebench ci lavori...

Mettendo come ipotesi che ciò che affermi sia vero (anche se non lo è) con AVX (256bit) o senza AVX (128bit) il software rimarrebbe comunque uno tra i migliori indicatori sulla scalabilità delle prestazioni all'aumento del numero dei cores. Comunque per tua informazione il motore di Cinema 4D già dal lontano 2011 (la oramai obsoleta release 13) supportava le istruzioni AVX per gli effetti dinamici (http://www.software3d.de/blog/cinema-4d-r-13-051.html#). Successivamente nel lontano 2013 con la versione 15 è stato ampliato il supporto alle istruziuoni AVX anche negli algoritmi di raytracing (http://postperspective.com/review-maxon-cinema-4d-studio-release-15/). Nel software che utilizzo c'è una spunta dove attivare il supporto alle istruzioni AVX (http://c4d.cn/help/r17/US/html/DYNWORLDOBJECT-WORLD_GROUP_EXPERT.html), se non mi credi ecco un altro utente che faceva uso delle AVX già dalla R13 il quale chiede come attivarla nella nuova versione non sapendo che dalla R15 la spunta non c'è perche è attivata di default in quanto dopo due anni dalla R13 quasi tutti i processori le supportavano (https://forums.creativecow.net/thread/19/883739). Il fatto che venga utilizzato sino ad oggi in tutti i test ha proprio questa valenza, al contrario dei giochini da 4 soldi che oltre i 4 core non scalano per nulla (neanche nei costosissimi octacore Intel) e per questo sono il metro di confronto meno adeguato in attesa di un aggiornamento sul fronte della parellelizzazione del codice nei principali motori di gioco come avvenne quando si passò dai dual core ai quad core che inizialmente non rendevano per nulla.
Non lavoro con Cinebench che è una piattaforma di test ma con Cinema 4D da cui esso deriva adesso giunta alla versione 18.


Sai com'è: lo si fa da parecchi da anni. Esce un processore nuovo -> lo si testa ANCHE con applicazioni scientifiche. Forse perché, solo per puro caso, anche gli scienziati hanno bisogno di CPU sulle quali far girare le loro applicazioni.

Nel mondo accademico difficilmente succede quello che affermi, visto che gli scienziati NON sono programmatori, ma sono costretti a diventarlo (con tutti i limiti del caso) perché nella loro professione l'uso del computer è divenuto un requisito senza il quale non si può fare più nulla. Quindi anche se hanno studiato materie completamente diverse, devono improvvisarsi programmatori.

Fortunatamente a volte vengono affiancati da programmatori veri e propri, magari esperti di ottimizzazioni, che reingegnerizzano e/o ottimizzano quel "codice" che avevano scritto.

Non sai ciò che scrivi te lo assicuro. Il mio ex collega di università nonchè mio migliore amico attualmente ricercatore e professore di Ingegneria informatica all'UNICAL (Basi di Dati, Calcolatori elettronici, Sistemi Operativi di Rete) il quale, unitamente ai suoi colleghi ricercatori di progetto, passa giorni ed intere nottate ad ottimizzare i suoi algoritmi di data mining e per la maggiore lavorando a basso livello presso l'Istituto di Calcolo e Reti ad Alte Prestazioni (ICAR-CNR).
Inoltre per i loro datacenter non utilizzano processorini di questo tipo ma VERI processori multicores. A proposito dato che sei sempre informatissimo avrai certamente già letto qua (http://pro.hwupgrade.it/articoli/server-workstation/4854/zen-anche-nel-datacenter-primi-bench-per-un-server-con-cpu-amd-naples_index.html) come si comporta Naples (lo Zen dei datacenter) prima di arrivare a conclusioni affrettate su queste nuove architetture AMD per le quali occorre portare rispetto.


Considerato che, come dicevo sopra, è prassi testare un nuovo processore col... software attualmente disponibile (in mancanza di macchine del tempo, purtroppo ci si deve arrangiare con quel che si ha), se ho capito bene stai chiedendo, con Ryzen, di fare un'eccezione a ciò che normalmente avviene.

Dunque il processore viene rilasciato, ma non dovrebbe essere testato. Rimandiamo i test a tempi migliori (quando, non si sa).

Ma a questo punto rimandiamo anche l'acquisto, oppure dalle tue parti si è abituati a comprare un processore a scatola vuota? Solo perché è nuovo, magari.

Allora non sarebbe meglio NON presentare alcun processore, e commercializzarlo soltanto quando finalmente il software ci giri bene?

Forse non conosci come funziona il mercato, non informatico ma addirittura quello generale. Se AMD non avesse presentato alcun processore con IPC finalmente adeguato (dopo la delusione di Piledriver) come lo è adesso ZEN ad un costo più accessibile rispetto alla controparte Intel, chissà per quanti altri anni avremmo dovuto subirci micro ottimizzazioni architetturali "risibili" dei "Core" quad Intel (nessuno ad oggi si sognerebbe di cambiare il proprio 3770k del 2012 o 4790k del 2013 (https://www.youtube.com/watch?v=tbGT-u4i3EY) di diverse generazioni prima con un 7700k in ambito game soprattutto per giocare con dettaglio massimo a 1080p). Allo stesso modo non essendoci una valida base installata (in termini numerici) di octacore con un IPC tale da giustificarne il riadattamento degli algoritmi nessuno sviluppatore avrebbe interesse a ottimizzare il proprio codice per otto cores ben sapendo che la maggior parte dei gamers con 4 cores non riuscirebbero mai ad ottenere prestazioni adeguate. Quindi un plauso ad AMD che grazie a ZEN metterà le basi per cambiare questo pietoso andazzo come avvenne sei/sette anni fà con le architetture quad core rispetto a quelle dual core. Ovviamente questo avverrà se tra i gamers inizieranno a diffondersi piattaforme ad otto core, ma se si parla sempre male ed a prescindere (pur se su un Ryzen gira bene anche se non al massimo qualunque gioco a 4 thread in circolazione) di queste piattaforme ciò non avverrà mai.


E infatti si vede quanto sia imparziale nei tuoi ragionamenti: vorresti misurare l'IPC con UN solo test (cosa che nessuna stampa specializzata s'è mai sognata di fare. Ovviamente), peraltro sbilanciato sul solo versante MT, che è fermo a una decina d'anni fa quanto a supporto dei processori, e si dovrebbero pure bloccare gli altri test perché... non sarebbe ancora pronti per sfruttarlo.

L'IPC è un buon indicatore per i software single core se tu non lo sapessi. Un'architettura di ultima generazione oltre a tale indicatore si deve avvalere di specifiche ottimizzazioni mirate all'efficienza dei thread nell'uso simultaneo dei singoli core (fisici o logici che siano) senza che vi siano code o ritardi nel processamento dei dati. Come vedi in questo l'architettura di ZEN è piuttosto ben messa e non solo con Naples.


Preferisco una compagnia diversa, grazie.

Fortunatamente sono in buona compagna: la solitudine non so cosa sia. Preoccupati, piuttosto, del tuo solipsismo cinebench-centrico.

Adesso se la smetti col tuo vittimismo spicciolo e cerchi di dare un qualche contributo alla discussione, faresti cosa gradita.
Non è vittimismo, ma compassione per chi fà interventi spiccioli.

!fazz
08-03-2017, 17:23
Ognuno è ciò che è.


Mettendo come ipotesi che ciò che affermi sia vero (anche se non lo è) con AVX (256bit) o senza AVX (128bit) il software rimarrebbe comunque uno tra i migliori indicatori sulla scalabilità delle prestazioni all'aumento del numero dei cores. Comunque per tua informazione il motore di Cinema 4D già dal lontano 2011 (la oramai obsoleta release 13) supportava le istruzioni AVX per gli effetti dinamici (http://www.software3d.de/blog/cinema-4d-r-13-051.html#). Successivamente nel lontano 2013 con la versione 15 è stato ampliato il supporto alle istruziuoni AVX anche negli algoritmi di raytracing (http://postperspective.com/review-maxon-cinema-4d-studio-release-15/). Nel software che utilizzo c'è una spunta dove attivare il supporto alle istruzioni AVX (http://c4d.cn/help/r17/US/html/DYNWORLDOBJECT-WORLD_GROUP_EXPERT.html), se non mi credi ecco un altro utente che faceva uso delle AVX già dalla R13 il quale chiede come attivarla nella nuova versione non sapendo che dalla R15 la spunta non c'è perche è attivata di default in quanto dopo due anni dalla R13 quasi tutti i processori le supportavano (https://forums.creativecow.net/thread/19/883739). Il fatto che venga utilizzato sino ad oggi in tutti i test ha proprio questa valenza, al contrario dei giochini da 4 soldi che oltre i 4 core non scalano per nulla (neanche nei costosissimi octacore Intel) e per questo sono il metro di confronto meno adeguato in attesa di un aggiornamento sul fronte della parellelizzazione del codice nei principali motori di gioco come avvenne quando si passò dai dual core ai quad core che inizialmente non rendevano per nulla.
Non lavoro con Cinebench che è una piattaforma di test ma con Cinema 4D da cui esso deriva adesso giunta alla versione 18.


Non sai ciò che scrivi te lo assicuro. Il mio ex collega di università nonchè mio migliore amico attualmente ricercatore e professore di Ingegneria informatica all'UNICAL (Basi di Dati, Calcolatori elettronici, Sistemi Operativi di Rete) il quale, unitamente ai suoi colleghi ricercatori di progetto, passa giorni ed intere nottate ad ottimizzare i suoi algoritmi di data mining e per la maggiore lavorando a basso livello presso l'Istituto di Calcolo e Reti ad Alte Prestazioni (ICAR-CNR).
Inoltre per i loro datacenter non utilizzano processorini di questo tipo ma VERI processori multicores. A proposito dato che sei sempre informatissimo avrai certamente già letto qua (http://pro.hwupgrade.it/articoli/server-workstation/4854/zen-anche-nel-datacenter-primi-bench-per-un-server-con-cpu-amd-naples_index.html) come si comporta Naples (lo Zen dei datacenter) prima di arrivare a conclusioni affrettate su queste nuove architetture AMD per le quali occorre portare rispetto.


Forse non conosci come funziona il mercato, non informatico ma addirittura quello generale. Se AMD non avesse presentato alcun processore con IPC finalmente adeguato (dopo la delusione di Piledriver) come lo è adesso ZEN ad un costo più accessibile rispetto alla controparte Intel, chissà per quanti altri anni avremmo dovuto subirci micro ottimizzazioni architetturali "risibili" dei "Core" quad Intel (nessuno ad oggi si sognerebbe di cambiare il proprio 3770k del 2012 o 4790k del 2013 (https://www.youtube.com/watch?v=tbGT-u4i3EY) di diverse generazioni prima con un 7700k in ambito game soprattutto per giocare con dettaglio massimo a 1080p). Allo stesso modo non essendoci una valida base installata (in termini numerici) di octacore con un IPC tale da giustificarne il riadattamento degli algoritmi nessuno sviluppatore avrebbe interesse a ottimizzare il proprio codice per otto cores ben sapendo che la maggior parte dei gamers con 4 cores non riuscirebbero mai ad ottenere prestazioni adeguate. Quindi un plauso ad AMD che grazie a ZEN metterà le basi per cambiare questo pietoso andazzo come avvenne sei/sette anni fà con le architetture quad core rispetto a quelle dual core. Ovviamente questo avverrà se tra i gamers inizieranno a diffondersi piattaforme ad otto core, ma se si parla sempre male ed a prescindere (pur se su un Ryzen gira bene anche se non al massimo qualunque gioco a 4 thread in circolazione) di queste piattaforme ciò non avverrà mai.


L'IPC è un buon indicatore per i software single core se tu non lo sapessi. Un'architettura di ultima generazione oltre a tale indicatore si deve avvalere di specifiche ottimizzazioni mirate all'efficienza dei thread nell'uso simultaneo dei singoli core (fisici o logici che siano) senza che vi siano code o ritardi nel processamento dei dati. Come vedi in questo l'architettura di ZEN è piuttosto ben messa e non solo con Naples.


Non è vittimismo, ma compassione per chi fà interventi spiccioli.

5g

Ren
08-03-2017, 17:28
edit

bjt2
08-03-2017, 18:32
Non sai ciò che scrivi te lo assicuro. Il mio ex collega di università nonchè mio migliore amico attualmente ricercatore e professore di Ingegneria informatica all'UNICAL (Basi di Dati, Calcolatori elettronici, Sistemi Operativi di Rete) il quale, unitamente ai suoi colleghi ricercatori di progetto, passa giorni ed intere nottate ad ottimizzare i suoi algoritmi di data mining e per la maggiore lavorando a basso livello presso l'Istituto di Calcolo e Reti ad Alte Prestazioni (ICAR-CNR).
Inoltre per i loro datacenter non utilizzano processorini di questo tipo ma VERI processori multicores. A proposito dato che sei sempre informatissimo avrai certamente già letto qua (http://pro.hwupgrade.it/articoli/server-workstation/4854/zen-anche-nel-datacenter-primi-bench-per-un-server-con-cpu-amd-naples_index.html) come si comporta Naples (lo Zen dei datacenter) prima di arrivare a conclusioni affrettate su queste nuove architetture AMD per le quali occorre portare rispetto.

Ho collaborato con l'ICAR, sezione di Napoli, e negli scantinati è da anni che hanno rack in rete da svariati processori. C'era anche una idea di condividere spese e tempo macchina, ma noi ci siamo accontentati di normali rack socket 2011 con 2x2GPU... I nostri algoritmi scalano bene con CUDA... Comunque ci abbiamo collaborato spesso con il nostro istituto (il direttore veniva spesso da noi) e io personalmente ho collaborato con un paio di loro... Ho fatto anche da cavia per un software per ruotare e navigare in 3D con le tac con il controller della WII e stanno sviluppando un clone per windows di Osirix (che è un software per le immagini mediche) che si chiama Mito... :D

lucusta
08-03-2017, 18:52
1) Non (ti) tornano i test sui giochi perché Ryzen octacore ha un problema dato dalla suddivisione in CCX e relativo accesso a cache L3, nonché una scarsa efficacia del SMT in tali ambiti

se lo vedi come un problema, significa che le patch non rimedieranno a queste incongruenze...

2) Per i >=1440p non servono CPU octacore, domani alle 16:00 su hwupgrade c'è lo streaming della GTX1080TI, basta quella

è un Pascal, usa driver Nvidia, ed oggi nessuno si è accertato se le incongruenze derivano proprio da quelli, o se è un limite architetturale della GPU.
ti faccio notare che un 7700K aveva già seri problemi nello stare dietro ad una Titan X a risoluzioni FHD, ma che nemmeno un B-E andava meglio.

3) Una piattaforma basata su 7700K consuma 7W in meno in idle e 30W in meno in full load rispetto una 1800X; lo stesso 6950X consuma 20W in meno in full load

non sembra, almeno dai test che ho letto io.
se poni un 7700K a 5Ghz non puoi pretendere che consumi sempre 70W in game, e nelle review 7700K VS 6700K si mostrava questo.
oltretutto li stai considerando con evidenti problemi (riconosciuti) dello scheduler e power saving di windows...
oltretutto li consideri contro il 6900X in quale viene superato in prestazioni (e comunque stanno entrambi sui 140W).
ma mi piacerebbe anche che linkassi questi test.

4) Attualmente il prezzo di una motherboard H270 è speculare rispetto alla diretta concorrente B350, con la differenza che quella Intel offre qualcosina in più

fortunato te che trovi schede AM4, perchè io non le trovo affatto, buggate o meno (evito accuratamente gli articoli "attualmente non disponibile", perchè non avranno mai un prezzo di mercato, tralasciando poi l'ovvia speculazione per carenza di tali schede)
le h270 partono con le M-ATX da 100 euro, ma sono 5 fasi, inadatte a far prendere 5Ghz del 7700K.

5) Il valore aggiunto dello "sblocco" presente sugli R7 è relativo, alla luce che le controparti Intel "bloccate" vengono offerte già con 400MHz/800MHz in più e l'architettura Ryzen presenta un andamento di temperatura e consumi esponenziale già superati i 3,5GHz
...e questo lo dovresti dimostrare.

ma, in finale, la questione del "meglio per tutti" non l'hai proprio fatta tua, e dimostra solo il discorso che ho fatto.

rug22
08-03-2017, 20:05
3) Una piattaforma basata su 7700K consuma 7W in meno in idle e 30W in meno in full load rispetto una 1800X; lo stesso 6950X consuma 20W in meno in full load

5) Il valore aggiunto dello "sblocco" presente sugli R7 è relativo, alla luce che le controparti Intel "bloccate" vengono offerte già con 400MHz/800MHz in più e l'architettura Ryzen presenta un andamento di temperatura e consumi esponenziale già superati i 3,5GHz


3)

http://www.hwupgrade.it/articoli/cpu/4853/consumi_2.png

7700K 117 watt
6950X 135 watt
1800X 139 watt

Quindi i watt di differenza con il 7700K sono 22 watt e non 30 watt e non è vero che il 6950X consuma 20 watt in meno.

Avevo già fatto qualche conto di massima,cosa significano 20 watt di differenza?Ipotizzando un utilizzo di 12 ore al giorno in full load per un anno sono 17,52€ con un costo di 0,20€ per kw/h.

COn un consumo più ragionato,diciamo 3 ore al giorno per 5 giorni a settimana in un anno la differenza è di 3,13€..poca roba.

5)Esito un po' a fare questa domanda visto che hai sbagliato una sottrazione ma ci provo...dici che hanno un andamento esponenziale,mi fai vedere questo andamento?come hai fittato i dati?

sgrinfia
08-03-2017, 20:55
Ah ecco perchè si vive così tranquilli ultimamente sul forum dei processori... cdmauro s'è fatto bannare qua, e ha portato con sè i partecipanti alla tenzone! :D

Boh a me sembrano tutte polemiche molto sterili. Non riesco ad immaginare un motivo che sia uno per non comprare RyZen, la differenza prezzo/prestazioni sui software che fanno effettivamente utilizzo di 8/16 processori è imbarazzante, le CPU Intel sono indifendibili, comprarle adesso vuol proprio dire buttar via il proprio denaro.

Nel gaming la situazione è molto semplice: AMD ad oggi non ha CPU specifiche. Francamente trovo miracoloso che il divario fra R7-1700 e i7-7700k sia così contenuto, l'unica cosa che queste due CPU hanno in comune è il prezzo. Entrame le scelte sono overkill per uso gaming, quindi c'è solo da capire se ti piace di più fare lo sborone modaiolo che ha nel case la cpu che va di moda adesso fra chi "vuole il top" o l'alternativo che gioca con un mostro di cpu da workstation - pagata pochissimo tra l'altro.

Sentirsi fighi vs sentirsi furbi. La Forza del Bisogno Indotto è potente in questa scimmia! :D

Poi ok, la questione che il socket 1151 va a morire mentre il socket AM4 è appena nato farebbe pendere di più la bilancia verso AMD, ma è anche vero che sarebbe meglio aspettare gli R5 da 150 euro e investire in VGA il risparmiato... :)

LA piattaforma AM4 e come i diamanti.......e per sempre ;)

bobby10
08-03-2017, 21:07
state rendendo la vita un inferno ai mod con sti papiri da leggere :asd:

MiKeLezZ
08-03-2017, 21:23
3)

7700K 117 watt
6950X 135 watt
1800X 139 watt

Quindi i watt di differenza con il 7700K sono 22 watt e non 30 watt e non è vero che il 6950X consuma 20 watt in meno.E' tutto relativo rispetto al test preso in esame. Io ho altre fonti che non hwupgrade (che reputo buono, ma non ottimo) e si basano sul carico dato dall'encoding x.264. Sono abbastanza maturo da disinteressarmi di 1-2W o 1-2fps di differenza, se ti solleva l'animo possiamo anzi usare i tuoi dati, in ogni caso sia il 7700K che il 6950X consumano di meno e non di più come erroneamente affermato.
Inoltre il TDP dichiarato in termini di marketing da AMD per Ryzen (95W) è totalmente campato in aria e non paragonabile né a quello delle sue vecchie architetture né a quello delle attuali architetture Intel.
Di fatto AMD dichiara anche un altro TDP per le sue CPU 1800X/1700X, ovviamente non pubblicizzandolo, pari a 128W (effettivamente congruo rispetto gli altri processori).

Avevo già fatto qualche conto di massima,cosa significano 20 watt di differenza?Ipotizzando un utilizzo di 12 ore al giorno in full load per un anno sono 17,52€ con un costo di 0,20€ per kw/h.Ti ricordo che sono anche io da PLC forum perché del mestiere. Il costo dell'energia per l'anno 2017 relativo a clienti residenziali, compreso di tasse, è di circa 0,25€/kWh. In ogni caso a me personalmente il costo in bolletta tange relativamente, essendo più un fautore del low power silent computing.

5)Esito un po' a fare questa domanda visto che hai sbagliato una sottrazione ma ci provo...dici che hanno un andamento esponenziale,mi fai vedere questo andamento?come hai fittato i dati?Non ho sbagliato una sottrazione.
Comunque nella settimana di ferie forzata dal forum mi sono informato estensivamente.

http://i.imgur.com/8Rch6JF.png

Se può consolarti un trend simile avviene per tutte le architetture compresa ovviamente quella Kaby Lake e nello specifico il 7700K sta identicamente oltrepassando l'andamento pseudo lineare della sua architettura (il flesso è a circa 4,0 GHz, un po' superiore rispetto i 3,5 GHz di Ryzen).

se lo vedi come un problema, significa che le patch non rimedieranno a queste incongruenze...Ci sono diversi problemi di diversa entità.
La suddivisione in 2 CCX ognuna dotata di 8MB di cache L3 costringe i core che non risiedono nella stessa CCX ad effettuare due diverse chiamate per recuperare i dati richiesti, una all'altra CCX l'altra al MCI. Entrambe però usano lo stesso bus e inoltre la larghezza di banda fra i due CCX è di soli 22GB/s, un valore relativamente basso, addirittura minore della larghezza di banda fornita dalle DDR4-2133 in DC (ca. 33GB/s). Il che spiega anche perché l'accesso ai dati nella L3 abbia latenze molto superiori rispetto l'architettura Intel. Oltre a questo l'architettura Intel utilizza una cache L1 dalle prestazioni doppie. Questi per esempio sono deficit architetturali non risolvibili con una patch.

C'è poi la questione del "Core Parking" effettuato di default da Windows (ma non per "cattiveria" verso Ryzen: era un comportamento rilevato anche sui vecchi processori Intel) che introduce delle latenze in quanto effettua un continuo passaggio dei core negli stati C3/C4/C6 a seconda del carico di lavoro. Carico che peraltro viene predetto con algoritmi predittivi e quindi non sempre ci azzecca (non risvegliando la quantità di core necessaria). Da Skylake Intel ha risolto tale problema spostando la gestione dei deep power state all'interno della CPU (quasi azzerando le latenze) mentre nel caso della piattaforma X99 (basata sull'architettura precedente di Skylake e quindi non ancora dotata di tale tecnologia) ha delegato il fix a Microsoft, che effettua automaticamente la stessa cosa che tutti i vari recensori hanno attuato con Ryzen (il cambio di impostazione di risparmio energetico da "bilanciato" a "performance", che nello specifico va a modificare la percentuale di unità computazionali che possono andare a riposo... impostandolo a 0).

Infine c'è il "Load Balancing" che Windows effettua di default (probabilmente una feature derivata dalla branca server), in pratica sposta sequenzialmente i thread in esecuzione occupando ciclicamente tutti i core disponibili (che nel caso della modifica dell'impostazione precedente risultano tutti e 8) così da non creare un surriscaldamento localizzato in una sola porzione del die della CPU e non usurare unicamente i transistor della CPU 0. Ovviamente è abbastanza intelligente da evitare, per esempio in configurazioni dual socket, di spostare un thread da una CPU all'altra (andando così ad incorrere in penalità prestazionali). Nel caso delle declinazioni Ryzen a doppio CCX ci troviamo però invischiati ancora nella problematica di cui sopra, dove lo spostamento di un thread dal core di una CCX a quello di un'altra CCX può risultare in penalità prestazionale, dovute anche a uno spreco di L3 (il che non avviene per esempio sulle architetture Intel). Qui la situazione relativa ad eventuali patch già si complica, visto che evidentemente è più colpa di come è strutturata l'architettura, che non un malfunzionamento del SO.

Il SMT che molti reputano un "problema" e un "gomblotto", in realtà non lo è affatto. Con determinati giochi anche le CPU Intel dotate di HT hanno perdite prestazionali. Questo comportamento su Intel viene nascosto dalla frequenza operativa a cui lavora l'offerta Intel a 4 core dotata di HT (i7-7700k da 4,4GHz), che è superiore alla stessa offerta a 4 core che invece ne è sprovvista (i5-7600k da 4GHz). Tali 400MHz sono perfettamente in grado di annullare il degrado prestazionale su alcuni giochi, che si aggira sul 3%.

ti faccio notare che un 7700K aveva già seri problemi nello stare dietro ad una Titan X a risoluzioni FHD, ma che nemmeno un B-E andava meglio.Ti faccio notare che una CPU Intel da 50€ accoppiata a una GTX1070 fa girare Rise of The Tomb Raider a 1080p a 100fps.

oltretutto li stai considerando con evidenti problemi (riconosciuti) dello scheduler e power saving di windows...In realtà non ritengo che Windows abbia alcun problema o comunque li ha evidentemente allo stesso modo con Intel e AMD (tali processori sono utilizzati tramite astrazioni logiche).

fortunato te che trovi schede AM4, perchè io non le trovo affatto, buggate o meno (evito accuratamente gli articoli "attualmente non disponibile", perchè non avranno mai un prezzo di mercato, tralasciando poi l'ovvia speculazione per carenza di tali schede)La Asus Prime B350M-A è disponibile in vari negozi a circa 100€.

le h270 partono con le M-ATX da 100 euro, ma sono 5 fasi, inadatte a far prendere 5Ghz del 7700K.La Asus Prime H270M-A Plus viene circa 107 euro e ha 6 fasi di alimentazione CPU. Mi sfugge comunque la necessità di portare un 7700K a 5,0 GHz (effettivamente risultando in consumi ben elevati), vista anche l'accoppiata con l'H270 che non permette l'OC.

...e questo lo dovresti dimostrare.Vedi grafico precedente. Ma anche senza grafico si intuiva già dalle recensioni con i test sui consumi, dove il minimo incremento di frequenza che separa 1700X e 1800X (200MHz) si traduce in un notevole incremento dei consumi.

rug22
08-03-2017, 21:42
Si,ma capisci bene che una differenza di una decina di euro l'anno sono una emerita fesseria, quindi parlare dei consumi significa parlare del niente, e infatti lascio pure perdere il fatto che l'energia costa 0,20 e non 0,25.

Più interessante è invece il fatto che per te quella a partire da 3.5 ghz è una curva esponenziale,affermazione falsa ovviamente.

Serve che faccio una regressione lineare prendendo dei punti a caso e mostrando R o ci fidiamo sulla parola?La derivata prima del grafico non è una funzione crescente.

Fin quando si discute ok, ma se si deve cominciare a inventare e sparare a nastro, direi che ci sono forum e posti più idonei.

TUTTO pur di denigrare AMD :D

HwWizzard
08-03-2017, 21:46
Si,ma capisci bene che una differenza di una decina di euro l'anno sono una emerita fesseria, quindi parlare dei consumi significa parlare del niente, e infatti lascio pure perdere il fatto che l'energia costa 0,20 e non 0,25.

Più interessante è invece il fatto che per te quella a partire da 3.5 ghz è una curva esponenziale,affermazione falsa ovviamente.

Serve che faccio una regressione lineare prendendo dei punti a caso e mostrando R o ci fidiamo sulla parola?

Fin quando si discute ok, ma se si deve cominciare a inventare e sparare a nastro, direi che ci sono forum e posti più idonei.

Lascia perdere.... lo conosciamo tutti ;)

MiKeLezZ
08-03-2017, 22:33
Più interessante è invece il fatto che per te quella a partire da 3.5 ghz è una curva esponenziale,affermazione falsa ovviamente.

Serve che faccio una regressione lineare prendendo dei punti a caso e mostrando R o ci fidiamo sulla parola?La derivata prima del grafico non è una funzione crescente.Dovrebbe essere una specie di minaccia?

http://i65.tinypic.com/30k3l0l.png

In rosso una funzione esponenziale di tipo quadratico.
In verde una funzione lineare.
In blu l'andamento di Ryzen.

Ricordo solo 2 cose per chi è evidentemente poco pratico della questione in esame.

1) In ordinata è presente la tensione di alimentazione, quindi la "gobba blu" che si vede dopo i 3,5 GHz rappresenta un peggioramento rispetto l'andamento esponenziale in rosso (è richiesto un valore di tensione di alimentazione maggiore per ottenere il corrispettivo livello di frequenza).

2) Il consumo di una CPU è dato da 3 fattori: potenza dinamica dei gate logici, potenza dalle correnti di corto circuito e potenza dalle correnti parassite. Generalmente quando una CPU è in normale funzionamento gli ultimi due fattori sono trascurabili e il calcolo della potenza si ottiene con la relativamente semplice formula "P=C*f*V^2" dove "C" è la capacità, "f" è la frequenza e "V" è la tensione di alimentazione.
La cosa interessante è che i consumi hanno quindi un andamento lineare rispetto la frequenza, ma quadratico rispetto la tensione di alimentazione. Se, come nel caso in oggetto, sopra i 3,5 GHz è quadratico anche l'andamento della tensione di alimentazione per ottenere una determinata frequenza, lascio a voi immaginare quanto velocemente cresca il valore di potenza.

Si,ma capisci bene che una differenza di una decina di euro l'anno sono una emerita fesseria, quindi parlare dei consumi significa parlare del niente, e infatti lascio pure perdere il fatto che l'energia costa 0,20 e non 0,25.Certo, era solo una puntualizzazione volta a dimostrare che può esserci anche gente che ne sa più di te e quindi di evitare comportamenti inutilmente aggressivi.

Fin quando si discute ok, ma se si deve cominciare a inventare e sparare a nastro, direi che ci sono forum e posti più idonei.CVD.

rug22
08-03-2017, 23:33
No che minaccia, è che la gente che ne fa una questione di religione non la capisco.

Ottimo il disegno con paint,sei molto bravo,io uso excel.

http://i63.tinypic.com/264lti1.jpg

In ordine,esponenziale,logaritmico,lineare e polinomiale del secondo ordine.

Quello che fitta meglio è il polinomiale, ma è tutta fuffa, un esponenziale con 0,0005 è un esponenziale ridotto ai minimi termini, infatti il lineare ha un R praticamente uguale,cambia la terza cifra decimale.

Riguardo il costo dell'energia,io ho qui la mia bolletta,72,57€ per 342kw/h di consumo,mi viene 0,21€,se però consideriamo che ci sono 9€ di canone,scendiamo a 0,19,ho preso 0,20€ per fare il valore medio,in ogni caso bel lontani da quel 0,25€ di cui parli.

La foto della bolletta per favore no,il costo è in una facciata,il consumo nell'altra,quindi dovrei fare il video,censurare i dati,caricarlo,troppa fatica,fidati sulla parola.

E ripeto,ai fini dei consumi con differenze così esigue cambia veramente poco, mi è solo servito per capire che sei di parte e che non verifichi le tue informazioni.

Come consigliava il moderatore,lista ignore e alla prox...:D

MiKeLezZ
08-03-2017, 23:58
Nel grafico di questa recensione si può notare come portando a 4,0 GHz il R7-1700 i consumi (e le temperature) esplodano, sono 106W di più, si sfora il doppio rispetto ai 90W dichiarati da AMD per il R7-1700 a frequenze standard.

https://www.pcper.com/files/review/2017-03-08/oc-power.png

...se qualcuno della mia precedente trattazione matematica si fidasse poco.

lucusta
09-03-2017, 07:04
Mi spieghi perche citi sempre mezze verità?
I consumi sono ottimi, per queste cpu;
In CBR15 dovresti correlare le prestazioni rispetto al consumo; a quel punto ti accorgi che stai realmente difendendo l'impossibile.
Il 1700 é una cpu con TDP da 65W; in quella comparativa lo stanno mandando a 4Ghz e 1.5v.
Fuori dal range di miglior rapporto performance per watt i consumi di questi PP diventano esponenziali, e non ne vale la pena.
Ad oggi, volendo giocare come un essere umano in FHD o a 1440p con filtri attivi, vai ad ottenere le stesse prestazioni in game, il doppio in molte altre, consumando 65w e spendendo la stessa cifra.
Non ti fá i 240fps per giocare con l'ultimo monitor g-sync?
Ma sai a quanti interessa?

Lascia perdere...

Piedone1113
09-03-2017, 07:48
Mi spieghi perche citi sempre mezze verità?
I consumi sono ottimi, per queste cpu;
In CBR15 dovresti correlare le prestazioni rispetto al consumo; a quel punto ti accorgi che stai realmente difendendo l'impossibile.
Il 1700 é una cpu con TDP da 65W; in quella comparativa lo stanno mandando a 4Ghz e 1.5v.
Fuori dal range di miglior rapporto performance per watt i consumi di questi PP diventano esponenziali, e non ne vale la pena.
Ad oggi, volendo giocare come un essere umano in FHD o a 1440p con filtri attivi, vai ad ottenere le stesse prestazioni in game, il doppio in molte altre, consumando 65w e spendendo la stessa cifra.
Non ti fá i 240fps per giocare con l'ultimo monitor g-sync?
Ma sai a quanti interessa?

Lascia perdere...

Ma perchè stai li a rispondere?
Uno che ti vuol far passare l'assorbimento istantaneo per il consumo effettivo per dimostrare non so cosa e creare funzioni esponenziali è tutto un dire.
Se consideriamo che nel suo tanto amato cinebench un 1800x consuma dal 60 all'80% in meno del suo amato 7700, e si ostina a dichiarare il contrario lascia poco spazio alle repliche.
Se la mia auto consuma 1,5 lt al minuto contro la tua che ne consuma 1 lt al minuto, ma al tempo stesso io impiego metà del tempo per coprire la stessa tratta di strada va da se che ho consumato di meno (molto di meno) della tua parsimoniosa auto.

fraquar
09-03-2017, 08:22
E' assurdo che anche i benchmark si apprestino a interpretazioni.
Dovrebbero essere un modo obbiettivo e incontestabile per valutare una CPU.

Questo perché le prestazioni delle CPU alla fine sono molto simili.
Ci fosse stato veramente un vantaggio come dai finti leak ci sarebbe stato poco da discutere.
Quando la differenza tra una piattaforma è 1-2W oppure 2-3 fps i tifosi si scaldano e cercano il pelo nell'uovo per "vincere la propria guerra".

dado1979
09-03-2017, 08:45
E' assurdo che anche i benchmark si apprestino a interpretazioni.
Dovrebbero essere un modo obbiettivo e incontestabile per valutare una CPU.
Se ci devi giocare con il pc, la cpu conta davvero poco.

MiKeLezZ
09-03-2017, 11:36
Mi spieghi perche citi sempre mezze verità?
I consumi sono ottimi, per queste cpu;
In CBR15 dovresti correlare le prestazioni rispetto al consumo; a quel punto ti accorgi che stai realmente difendendo l'impossibile.
Il 1700 é una cpu con TDP da 65W; in quella comparativa lo stanno mandando a 4Ghz e 1.5v.
Fuori dal range di miglior rapporto performance per watt i consumi di questi PP diventano esponenziali, e non ne vale la pena.
Ad oggi, volendo giocare come un essere umano in FHD o a 1440p con filtri attivi, vai ad ottenere le stesse prestazioni in game, il doppio in molte altre, consumando 65w e spendendo la stessa cifra.
Non ti fá i 240fps per giocare con l'ultimo monitor g-sync?
Ma sai a quanti interessa?

Lascia perdere...Il TDP reale dichiarato da AMD è 90W e non 65W.
Per il resto va bene che in certi scenari d'uso abbia una migliora efficienza, ma non è quello di cui si discuteva.

fatantony
09-03-2017, 13:28
Concordo, e aggiungerei per la n-esima volta, che TDP e consumo sono due cose diverse!!!
Comunque son curioso di vedere r3 e r5.... Potremmo avere sorprese :)

Zappa1981
09-03-2017, 13:51
Concordo, e aggiungerei per la n-esima volta, che TDP e consumo sono due cose diverse!!!
Comunque son curioso di vedere r3 e r5.... Potremmo avere sorprese :)

Mi sono venuti in mente due scenari ma solo per l r5 4 core 8 thread e l r3 4core 4thread. Il primo è che siano cloccati a 3.5 turbo a 4ghz ma cloccabili a manetta, e il secondo è che siano cloccati fino a 4.7 e overcloccabili fino a 5ghz ma forse sono ottimista

Vul
09-03-2017, 15:01
https://i.redd.it/e9vdxtsb4bky.jpg

MiKeLezZ
09-03-2017, 17:36
O ragazzi ma perche fate del casino?
Cerchiamo di dare info corrette una volta per tutte.
Altrimenti chi legge il thread come me non ci capisce piu niente.

Sul sito AMD il TDP del 1700 e' 65W, 95W e' del 1700xIl valore di TDP del 1700, inteso come valore numerico comparabile con quello delle precedenti architetture AMD e di quelle Intel (ovvero rappresentativo del consumo di potenza, dato dalla precedente formula "C*f*V^2") è di 90W. Mentre quello del 1700X e del 1800X è di 128W (pari al limite di assorbimento consentito dal socket AM4). Questi non sono errori di battitura e sono comunicati direttamente dall'ufficio tecnico AMD.

Il valore di TDP che AMD dichiara per il 1700 di 65W e per il 1700X/1800X di 95W è marketing, per quello si trova nella pagina internet ad uso commerciale, ed è ottenuto tramite la formula "P=(tC - tA)/(HSF/W)" dove "tC" è la "massima temperatura consentita tra die e dissipatore per mantenere le prestazioni per un tempo indefinito", "tA" è la massima temperatura dell'interno del case per mantenere le prestazioni per un tempo indefinito, "HSF/W" è la resistenza minima richiesta dal dissipatore per mantenere le prestazioni per un tempo indefinito. In pratica, non ha significato.

Il valore TDP dichiarato da Intel è invece "la potenza massima che un prodotto può assorbire mentre elabora software di tipo commerciale per un tempo indefinito". Ovvero un valore simile alla formula "C*f*V^2".

Mi sono venuti in mente due scenari ma solo per l r5 4 core 8 thread e l r3 4core 4thread. Il primo è che siano cloccati a 3.5 turbo a 4ghz ma cloccabili a manetta, e il secondo è che siano cloccati fino a 4.7 e overcloccabili fino a 5ghz ma forse sono ottimistaSi conoscono già le frequenze operative e i prezzi a cui saranno venduti. Il più veloce sarà l'R5-1600X 6c/12t da 300€ che avrà le medesime frequenze del R7-1800X (ovvero massimo 3,7 GHz con tutti i core attivi), non certo una sorpresa visto che si tratta di uno scarto di produzione dei modelli R7-1800X (con disattivato 1 core per CCX).

maldepanza
09-03-2017, 17:51
Il più veloce sarà l'R5-1600X 6c/12t da 300€
300€? Tu questo ancora non lo sai, imho sarà certamente di meno.

MiKeLezZ
09-03-2017, 17:57
300€? Tu questo ancora non lo sai, imho sarà certamente di meno.299$.

k0nt3
09-03-2017, 19:04
Il valore di TDP del 1700, inteso come valore numerico comparabile con quello delle precedenti architetture AMD e di quelle Intel (ovvero rappresentativo del consumo di potenza, dato dalla precedente formula "C*f*V^2") è di 90W. Mentre quello del 1700X e del 1800X è di 128W (pari al limite di assorbimento consentito dal socket AM4). Questi non sono errori di battitura e sono comunicati direttamente dall'ufficio tecnico AMD.

Il valore di TDP che AMD dichiara per il 1700 di 65W e per il 1700X/1800X di 95W è marketing, per quello si trova nella pagina internet ad uso commerciale, ed è ottenuto tramite la formula "P=(tC - tA)/(HSF/W)" dove "tC" è la "massima temperatura consentita tra die e dissipatore per mantenere le prestazioni per un tempo indefinito", "tA" è la massima temperatura dell'interno del case per mantenere le prestazioni per un tempo indefinito, "HSF/W" è la resistenza minima richiesta dal dissipatore per mantenere le prestazioni per un tempo indefinito. In pratica, non ha significato.

Il valore TDP dichiarato da Intel è invece "la potenza massima che un prodotto può assorbire mentre elabora software di tipo commerciale per un tempo indefinito". Ovvero un valore simile alla formula "C*f*V^2".

Si conoscono già le frequenze operative e i prezzi a cui saranno venduti. Il più veloce sarà l'R5-1600X 6c/12t da 300€ che avrà le medesime frequenze del R7-1800X (ovvero massimo 3,7 GHz con tutti i core attivi), non certo una sorpresa visto che si tratta di uno scarto di produzione dei modelli R7-1800X (con disattivato 1 core per CCX).

TDP significa Thermal Design Power e serve a dimensionare il sistema di dissipazione, non corrisponde alla potenza massima assorbita. La formula che hai indicato utilizzata da AMD mi sembra proprio misurare questo, dove hai letto che Intel utilizza la potenza massima assorbita?

http://www.intel.com/content/dam/doc/white-paper/resources-xeon-measuring-processor-power-paper.pdf
Intel defines TDP as follows:
The upper point of the thermal profile consists of the Thermal Design
Power (TDP) and the associated Tcase value. Thermal Design Power (TDP) should be used for
processor thermal solution design targets. TDP is
not the maximum power that the processor can
dissipate.

Prezzi e frequenze delle cpu r5 e r3 sono solo voci di corridoio, quindi nulla di ufficiale. Come fai a essere così certo che corrispondano alla verità? Almeno manteniamo il beneficio del dubbio visto che non sono stati ancora annunciati.

[A]okyZ
09-03-2017, 19:11
Non so se è stato già inserito questo interessante test della 1080ti con Ryzen.

https://youtu.be/L34ZkAF9q9w

Preview:

http://i65.tinypic.com/m9lok0.jpg

Vul
09-03-2017, 20:48
300€? Tu questo ancora non lo sai, imho sarà certamente di meno.

Specialmente considerando che a quel prezzo si prenderebbe una 1700.

MiKeLezZ
09-03-2017, 21:22
TDP significa Thermal Design Power e serve a dimensionare il sistema di dissipazione, non corrisponde alla potenza massima assorbita. La formula che hai indicato utilizzata da AMD mi sembra proprio misurare questo, dove hai letto che Intel utilizza la potenza massima assorbita?

http://www.intel.com/content/dam/doc/white-paper/resources-xeon-measuring-processor-power-paper.pdfIl tuo documento è datato 2011. Dall'anno successivo Intel ha modificato tale descrizione in:

"MAX TDP: Thermal Design Power (TDP) represents the near maximum power a product can draw for a thermally significant period while running commercially available software."

http://hostragon.com/downloads/Intel-Xeon-Processor-3050.pdf

Prezzi e frequenze delle cpu r5 e r3 sono solo voci di corridoio, quindi nulla di ufficiale. Come fai a essere così certo che corrispondano alla verità? Almeno manteniamo il beneficio del dubbio visto che non sono stati ancora annunciati.AMD potrebbe anche rivoluzionare tutto il giorno prima. Credo però sia più fondato questo che proviene direttamente da AMD, che non le speranze/visioni di qualche utente su un Ryzen R5 a 4,5 GHz.

http://cdn.wccftech.com/wp-content/uploads/2017/03/AMD-Ryzen-5-1600X-and-Ryzen-5-1500X.jpg

Vul
09-03-2017, 21:26
Sono interessatissimo al 4c/8t sperando stia sui 150-200 euro sperando che overclocki a 4ghz.

k0nt3
09-03-2017, 21:42
Il tuo documento è datato 2011. Dall'anno successivo Intel ha modificato tale descrizione in:

"MAX TDP: Thermal Design Power (TDP) represents the near maximum power a product can draw for a thermally significant period while running commercially available software."

http://hostragon.com/downloads/Intel-Xeon-Processor-3050.pdf


Grazie per il link è molto interessante. E' chiaro che non c'è una definizione univoca di TDP, e mi sembra una forzatura stabilire che ha ragione Intel per partito preso.

Ora invece qui: http://ark.intel.com/it/products/94196/Intel-Core-i7-6900K-Processor-20M-Cache-up-to-3_70-GHz
cliccando sul "?" di fianco a TDP leggo:
Il Thermal Design Power (TDP) indica la potenza media, in watt, dissipata dal processore durante il funzionamento a frequenza base con tutti i core attivi in un carico di lavoro di alta complessità definito da Intel. Per i requisiti termici della soluzione, fare riferimento al datasheet.

Questo sì che non ha senso: il Thermal Design Power non serve a delineare i requisiti termici della soluzione Intel.. :confused:
Nota che in ogni caso indica la potenza media e non massima.


AMD potrebbe anche rivoluzionare tutto il giorno prima. Credo però sia più fondato questo che proviene direttamente da AMD, che non le speranze/visioni di qualche utente su un Ryzen R5 a 4,5 GHz.


Non vedo nessun prezzo

MiKeLezZ
09-03-2017, 22:45
Grazie per il link è molto interessante. E' chiaro che non c'è una definizione univoca di TDP, e mi sembra una forzatura stabilire che ha ragione Intel per partito preso.Non è un partito preso. Leggi la definizione di AMD prima che, guarda caso, uscisse Ryzen:

AMD:
Thermal Design Power is the maximum power a processor can draw for a thermally significant period while running commercially useful software.

http://www.intel.com/content/dam/doc/white-paper/resources-xeon-measuring-processor-power-paper.pdf
http://www.anandtech.com/show/2807/2

Mi ricorda qualcosa...

INTEL:
Thermal Design Power represents the near maximum power a product can draw for a thermally significant period while running commercially available software.

Questo sì che non ha senso: il Thermal Design Power non serve a delineare i requisiti termici della soluzione Intel.. :confused: Veramente non c'è scritto quello. C'è il rimando al datasheet per approfondire la questione.
Se ti interessa perché, leggi il datasheet, che problema c'è? Sono 18 pagine a cominciare dalla 80:
http://www.intel.com/content/dam/www/public/us/en/documents/datasheets/desktop-6th-gen-core-family-datasheet-vol-1.pdf


Nota che in ogni caso indica la potenza media e non massima.Ehm. No. Non ne hai capito il senso.

"Media" indica che Intel testa il consumo della CPU, a frequenza base e con tutti i core attivi, su (CENTINAIA di) software ad "alta complessità" e poi fa una MEDIA dei risultati (e, non è specificato per non renderla troppo complicata, rimuove i risultati fuori scala e sovrastima di una certa percentuale il risultato).

Non vedo nessun prezzoPerché l'ha detto in un'intervista Jim Anderson (Senior Vice President and General Manager, Computing and Graphics Business Group, AMD), dichiarando che gli R5 avranno un range di prezzo dai 199$ ai 299$. E il top range R5 è appunto il 1600X.

k0nt3
09-03-2017, 23:17
Non è un partito preso. Leggi la definizione di AMD prima che, guarda caso, uscisse Ryzen:

AMD:
Thermal Design Power is the maximum power a processor can draw for a thermally significant period while running commercially useful software.

http://www.anandtech.com/show/2807/2

Familiare?

INTEL:
Thermal Design Power represents the near maximum power a product can draw for a thermally significant period while running commercially available software.

Non rigirare la frittata, perchè nel 2011 Intel usava un calcolo simile a quello che usa ora AMD, mentre ora le parti sono invertite.
Quindi mi stai dicendo che Intel prima usava un calcolo sbagliato? E se fosse che male c'è se lo sta usando AMD ora? Avrei voluto farti questa domanda nel 2011.. chissà quale sarebbe stata la risposta.
Detto che IMHO è più corretta la definizione attuale di AMD, dato che il TDP come dice il nome serve a dimensionare il sistema di dissipazione e non a calcolare la potenza dissipata.

Ehm. No. Non ha senso perché non lo hai capito.

"Media" indica che Intel testa il consumo della CPU, a frequenza base e con tutti i core attivi, su (CENTINAIA di) software ad "alta complessità" e poi fa una MEDIA dei risultati (e, non è specificato per non renderla troppo complicata, rimuove i risultati fuori scala e sovrastima di una certa percentuale il risultato).

Non dice da nessuna parte che viene fatta la media delle potenze massime, quindi sono portato a pensare che sia semplicemente una media e non la potenza massima come hai indicato precedentemente.

Perché l'ha detto in un'intervista Jim Anderson (Senior Vice President and General Manager, Computing and Graphics Business Group, AMD), dichiarando che gli R5 avranno un range di prezzo dai 199$ ai 299$. E il top range R5 è appunto il 1600X.
E quindi? :confused: Finchè non escono nulla è certo.

In ogni caso considerala l'ultima mia risposta, dato che la discussione sta diventando sterile. Buonanotte!

MiKeLezZ
09-03-2017, 23:38
Non rigirare la frittata, perchè nel 2011 Intel usava un calcolo simile a quello che usa ora AMD, mentre ora le parti sono invertite.
Quindi mi stai dicendo che Intel prima usava un calcolo sbagliato? E se fosse che male c'è se lo sta usando AMD ora? Avrei voluto farti questa domanda nel 2011.. chissà quale sarebbe stata la risposta.
Detto che IMHO è più corretta la definizione attuale di AMD, dato che il TDP come dice il nome serve a dimensionare il sistema di dissipazione e non a calcolare la potenza dissipata.Usa la definizione che preferisci.
L'importante è che non crei disinformazione comparando il TDP degli attuali prodotti AMD con il TDP degli attuali prodotti INTEL e, ogni volta che parli di TDP, hai l'accortezza di specificare se riguarda il dimensionamento del sistema di dissipazione della potenza della CPU (AMD) oppure un approssimativo consumo di potenza della CPU (INTEL).

Non dice da nessuna parte che viene fatta la media delle potenze massime, quindi sono portato a pensare che sia semplicemente una media e non la potenza massima come hai indicato precedentemente.Quello che sei portato a pensare te non è importante visto che la risposta giusta già la sappiamo e deriva direttamente dall'ufficio tecnico INTEL (oltre che dalle conferme indirette derivanti dalla prove sperimentali effettuate dalle varie recensioni).

E quindi? :confused: Finchè non escono nulla è certo.Quindi niente.
Ho solo riportato informazioni richieste e corretto altre affermazioni del tutto fantasiose (es. Ryzen R5-1600X a 150€ e 4,5GHz).
Ritengo che una dichiarazione proveniente dal Vice General Manager possa ritenersi piuttosto "ufficiale".

In ogni caso considerala l'ultima mia risposta, dato che la discussione sta diventando sterile. Buonanotte!Ok, ma nessuno ti ha mai chiesto di rispondere a qualcosa. Buonanotte.

imayoda
09-03-2017, 23:43
il "significant" per Intel è quel lasso di tempo che passa tra il lancio di prime95 e l'inizio del throttle più totale
:D

MiKeLezZ
10-03-2017, 00:00
il "significant" per Intel è quel lasso di tempo che passa tra il lancio di prime95 e l'inizio del throttle più totale
:DNo. Tale affermazione significa che, nel normale funzionamento a pieno carico, vengono poi scartati eventuali picchi di assorbimento di durata inferiore ai microsecondi (1 microsecondo = 1 milionesimo di secondo).

"It is possible for the processor to consume more than the TDP power for a short period of time that isn’t “thermally significant”. For example, a processor might consume slightly more power than the rated TDP value for say one microsecond... but then consume less power than the rated TDP value for a long period of time.

(cit. whitepaper ufficiale Intel)

imayoda
10-03-2017, 00:29
dico che le cpu intel non ci stanno più tanto dentro con la dissipazione termica, ecco perché certe applicazioni (pur commerciali) sono sconsigliate..
non ho ancora visto un amd (non apu) piegarsi sotto-frequenza (non turbo) solo perché sta facendo del lavoro a pieno carico..

finché non provo come dico io un ryzen non mi esprimo ma è palese credo che la tecnologia core inizi a mostrare il fianco con le ultime due iterazioni.
:)

fraquar
10-03-2017, 10:00
okyZ;44557877']Non so se è stato già inserito questo interessante test della 1080ti con Ryzen.

https://youtu.be/L34ZkAF9q9w

Preview:

http://i65.tinypic.com/m9lok0.jpg

Normale, più la GPU è potente più il divario è marcato.
Se ci metti una vecchia 660 entrambe le CPU lo fanno girare a 5fps costanti. :muro:

Questo per chi si lamentava dei test fatti a bassa risoluzione.

TheDarkAngel
10-03-2017, 10:31
okyZ;44557877']Non so se è stato già inserito questo interessante test della 1080ti con Ryzen.

https://youtu.be/L34ZkAF9q9w

Preview:

http://i65.tinypic.com/m9lok0.jpg

La cosa più divertente, a parte la selezione del gioco ed aver tagliato il riferimento min&avg, è che giocando con intel ci saranno degli scatti e con amd no.
I frame minimi non mentono :fagiano:

Korn
10-03-2017, 11:23
infatti, i minini sono estramamente più elevati :o

dado1979
10-03-2017, 11:32
Normale, più la GPU è potente più il divario è marcato.
Se ci metti una vecchia 660 entrambe le CPU lo fanno girare a 5fps costanti. :muro:

Questo per chi si lamentava dei test fatti a bassa risoluzione.
Non hai colto il senso del grafico (che non è che con Intel si fanno 75 fps al posto dei 65 con AMD); il senso del grafico è che i minimi sono più elevati con AMD.

Piedone1113
10-03-2017, 11:52
Non hai colto il senso del grafico (che non è che con Intel si fanno 75 fps al posto dei 65 con AMD); il senso del grafico è che i minimi sono più elevati con AMD.

Adesso aspetto la spiegazione di tutti quelli che dicevano che all'aumentare dalla risoluzione cala l'impiego della cpu perchè è costretta ad aspettare la vga.
Secondo me il 7700 aspetta così tanto che spesso si ferma al bar a bere un caffe.

nickname88
10-03-2017, 12:27
infatti, i minini sono estramamente più elevati :o
Quello è il singolo valore minimo.
Ciò non vuol dire che il frame oscilla di più con chi ha il minimo più basso, può benissimo essersi manifestato come uno scatto singolo in tutto il bench.

skadex
10-03-2017, 13:16
I minimi andrebbero integrati anche con una percentuale di tempo con la quale si raggiungono: se faccio il minimo una volta su 100 e ben diverso dal farlo tipo 30 volte su 100 anche se quel secondo minimo magari è superiore come limite.

In ogni caso non è il primo bench in cui ryzen ha minimi migliori e più indizi fanno una prova a mio giudizio sopratutto con una piattaforma così acerba.
Praticamente senza bios vanno così.

TheDarkAngel
10-03-2017, 13:23
Quello è il singolo valore minimo.
Ciò non vuol dire che il frame oscilla di più con chi ha il minimo più basso, può benissimo essersi manifestato come uno scatto singolo in tutto il bench.

Ed è un singolo scatto che vedi e dall'altra parte no :p
Ecco perchè è importante sapere i minini e la % sul totale, uno scatto lo vedi anche se dormi davanti al pc, da 65 @ 74 fps non lo vedi neppure su un monitor freesync 2.

marchigiano
10-03-2017, 13:55
non ho ancora visto un amd (non apu) piegarsi sotto-frequenza (non turbo) solo perché sta facendo del lavoro a pieno carico..


allora cambia occhiali da vista perchè gli 8350 sotto stress stavano addirittura 100-200mhz meno della frequenza base col dissi stock mentre per dire, un 4770, riusciva a tenere la massima frequenza turbo per 4 core impegnati (test fatti da me, non sentito dire dal cuggino). poi magari incide anche la mobo non posso dare la colpa al 100% alla cpu però era così...

Piedone1113
10-03-2017, 14:57
Quello è il singolo valore minimo.
Ciò non vuol dire che il frame oscilla di più con chi ha il minimo più basso, può benissimo essersi manifestato come uno scatto singolo in tutto il bench.

Ma difatti è quello che dico anch'io.
35 frame è il minimo che si ha con amd, magari è l'unico frame sotto i 60, tutti gli altri sono tra 61 e 68.
Ti suona meglio?

Korn
10-03-2017, 14:59
Quello è il singolo valore minimo.
Ciò non vuol dire che il frame oscilla di più con chi ha il minimo più basso, può benissimo essersi manifestato come uno scatto singolo in tutto il bench.

e allora dovrebbe mettere media, ma sta di fatto che intel arriva più giù

Korn
10-03-2017, 14:59
allora cambia occhiali da vista perchè gli 8350 sotto stress stavano addirittura 100-200mhz meno della frequenza base col dissi stock mentre per dire, un 4770, riusciva a tenere la massima frequenza turbo per 4 core impegnati (test fatti da me, non sentito dire dal cuggino). poi magari incide anche la mobo non posso dare la colpa al 100% alla cpu però era così...

dissy stock? siamo seri su...

nickname88
10-03-2017, 16:43
Per chi fosse interessato Techspot ha pubblicita il suo confronto videoludico usando la Titan X pascal e le risoluzioni 1080p e 1440p.

http://www.techspot.com/review/1348-amd-ryzen-gaming-performance/

Quì il video :
https://www.youtube.com/watch?v=PoEcgfbhwTs

Ren
10-03-2017, 16:45
Sta diventando peggio della politica. :sofico:
I numeri escono dalle fxttute pareti... :asd:

http://www.techspot.com/articles-info/1348/bench/1080_GTAV.png

http://www.techspot.com/articles-info/1348/bench/1440_GTAV.png

Ren
10-03-2017, 16:46
Per chi fosse interessato Techspot ha pubblicita il suo confronto videoludico usando la Titan X pascal e le risoluzioni 1080p e 1440p.

http://www.techspot.com/review/1348-amd-ryzen-gaming-performance/

Quì il video :
https://www.youtube.com/watch?v=PoEcgfbhwTs

I numeri sono un pò diversi...:asd:

skadex
10-03-2017, 17:49
I numeri sono un pò diversi...:asd:

Il bello è che da rece a rece esce di tutto

http://www.eteknix.com/nvidia-gtx-1080-ti-cpu-showdown-i7-7700k-vs-ryzen-r7-1800x-vs-i7-5820k/7/

qui addirittura ryzen spacca con la 1080ti.

MiKeLezZ
10-03-2017, 17:50
Per chi fosse interessato Techspot ha pubblicita il suo confronto videoludico usando la Titan X pascal e le risoluzioni 1080p e 1440p.

http://www.techspot.com/review/1348-amd-ryzen-gaming-performance/

Quì il video :
https://www.youtube.com/watch?v=PoEcgfbhwTsHmm non so, qua credo siano sopratutto interessati alla recensione di PippoPasticcioGamer su youtube screenshottando l'unico gioco stranamente problematico (chi se ne frega dell'andamento generale?)

http://www.techspot.com/articles-info/1348/bench/1080_All.png

nickname88
10-03-2017, 18:11
Sempre in attesa delle comparazioni di DigitalFoundry e Techpowerup che non vogliono uscire. ;)

Ren
10-03-2017, 19:17
Il bello è che da rece a rece esce di tutto

http://www.eteknix.com/nvidia-gtx-1080-ti-cpu-showdown-i7-7700k-vs-ryzen-r7-1800x-vs-i7-5820k/7/

qui addirittura ryzen spacca con la 1080ti.

eteknix ? :confused:

http://i.ebayimg.com/00/s/NzQ2WDEwMDA=/z/2i4AAOSwARZXnGqJ/$_35.JPG

:sofico:

skadex
10-03-2017, 20:25
Boh, ma spuntano recensioni ovunque e io le vedo tanto non mi costano :D .
In quella il 7700k fa risultati identici ad altre testate mentre il 1800x prende il volo.
Sarà fake o no?

imayoda
10-03-2017, 23:40
allora cambia occhiali da vista perchè gli 8350 sotto stress stavano addirittura 100-200mhz meno della frequenza base col dissi stock mentre per dire, un 4770, riusciva a tenere la massima frequenza turbo per 4 core impegnati (test fatti da me, non sentito dire dal cuggino). poi magari incide anche la mobo non posso dare la colpa al 100% alla cpu però era così...

le mobo hanno qualche colpa a volte con le loro funzioni di auto overclock o semplice calibrazione aggressiva ma..

prime95 uccide le cpu intel (4c8t che ho in firma e non linko toms), amd fx reggono senza turbo .... ryzen non lo so, per quello che ho detto che voglio fare dei test personali, fino ad allora la stampa può vomitare numeri. :)

non può esistere un applicazione per computer x86 che mandi in combustione un componente se non l'intera cpu (col loro dissipatore sopra), perché questo significa che (rullo di tamburi) la cpu è progettata male, o le statistiche termiche le inventano in condizioni a loro favorevoli, oppure è a fine ciclo (qualcuno ha detto prescott?).
Magari dovevo fare trasformazioni di fourier, e non lo scrivono sulla scatola che serve una patch o un software vecchio e non "ottimizzato" per la mia costosa cpu.
I prossimi cryptolocker cosa faranno, mi faranno throttlare a morte la cpu se non pago ? :D

george_p
11-03-2017, 10:50
le mobo hanno qualche colpa a volte con le loro funzioni di auto overclock o semplice calibrazione aggressiva ma..

prime95 uccide le cpu intel (4c8t che ho in firma e non linko toms), amd fx reggono senza turbo .... ryzen non lo so, per quello che ho detto che voglio fare dei test personali, fino ad allora la stampa può vomitare numeri. :)

non può esistere un applicazione per computer x86 che mandi in combustione un componente se non l'intera cpu (col loro dissipatore sopra), perché questo significa che (rullo di tamburi) la cpu è progettata male, o le statistiche termiche le inventano in condizioni a loro favorevoli, oppure è a fine ciclo (qualcuno ha detto prescott?).
Magari dovevo fare trasformazioni di fourier, e non lo scrivono sulla scatola che serve una patch o un software vecchio e non "ottimizzato" per la mia costosa cpu.
I prossimi cryptolocker cosa faranno, mi faranno throttlare a morte la cpu se non pago ? :D

Qui ci sono dei numeri fatti da MadMax:
http://www.hwupgrade.it/forum/showpost.php?p=44563084&postcount=1379

MiKeLezZ
11-03-2017, 12:44
le mobo hanno qualche colpa a volte con le loro funzioni di auto overclock o semplice calibrazione aggressiva ma..

prime95 uccide le cpu intel (4c8t che ho in firma e non linko toms), amd fx reggono senza turbo .... ryzen non lo so, per quello che ho detto che voglio fare dei test personali, fino ad allora la stampa può vomitare numeri. :)

non può esistere un applicazione per computer x86 che mandi in combustione un componente se non l'intera cpu (col loro dissipatore sopra), perché questo significa che (rullo di tamburi) la cpu è progettata male, o le statistiche termiche le inventano in condizioni a loro favorevoli, oppure è a fine ciclo (qualcuno ha detto prescott?).
Magari dovevo fare trasformazioni di fourier, e non lo scrivono sulla scatola che serve una patch o un software vecchio e non "ottimizzato" per la mia costosa cpu.
I prossimi cryptolocker cosa faranno, mi faranno throttlare a morte la cpu se non pago ? :DStai evidentemente farneticando, l'AMD A10-5800 su stress test con Prime95 riduce saltuariamente il suo moltiplicatore da 43X a 30X (da 4,3 GHz a 3,0 GHz) per "riprendere fiato".

Tutte casistiche che, peraltro, si risolvono con 15€ di dissipatore aftermarket. Se un utente deve fare "trasformazioni di fourier" 24/24 e non cambia il dissipatore stock alla luce della nuova destinazione di uso, diversa dal general purpose, credo sia piuttosto incompetente.

marchigiano
11-03-2017, 13:45
prime95 uccide le cpu intel (4c8t che ho in firma e non linko toms), amd fx reggono senza turbo ....

prime95 non lo uso, ma linpack dovrebbe essere anche peggio, con quello ho avuto problemi con il 8350 mentre il 4770 filava liscio. il tuo 2700 non l'ho mai avuto quindi non escludo un surriscaldamento sul 32nm, ma ripeto col 22nm andavo alla grande

il 8350 era un forno e ok il dissi stock faceva pena ma cavoli con quello che costa un dissi decente tanto valeva prendersi il 4770 liscio... :rolleyes:

HwWizzard
11-03-2017, 14:07
prime95 non lo uso, ma linpack dovrebbe essere anche peggio, con quello ho avuto problemi con il 8350 mentre il 4770 filava liscio. il tuo 2700 non l'ho mai avuto quindi non escludo un surriscaldamento sul 32nm, ma ripeto col 22nm andavo alla grande

il 8350 era un forno e ok il dissi stock faceva pena ma cavoli con quello che costa un dissi decente tanto valeva prendersi il 4770 liscio... :rolleyes:

Non so il 2700 ma il 2500@4.5Ghz mai calato un mhz. Ovvio con dissi aftermarket

imayoda
11-03-2017, 14:42
Stai evidentemente farneticando, l'AMD A10-5800 su stress test con Prime95 riduce saltuariamente il suo moltiplicatore da 43X a 30X (da 4,3 GHz a 3,0 GHz) per "riprendere fiato".

Tutte casistiche che, peraltro, si risolvono con 15€ di dissipatore aftermarket. Se un utente deve fare "trasformazioni di fourier" 24/24 e non cambia il dissipatore stock alla luce della nuova destinazione di uso, diversa dal general purpose, credo sia piuttosto incompetente.
i matti farneticano :D
no, avevo scritto fx, niente apu, quelle cpu sono troppo tirate termicamente anche con la gpu "spenta" (cosa che non sono mai riuscito a osservare forse colpa dei bios o del design)

prime95 non lo uso, ma linpack dovrebbe essere anche peggio, con quello ho avuto problemi con il 8350 mentre il 4770 filava liscio. il tuo 2700 non l'ho mai avuto quindi non escludo un surriscaldamento sul 32nm, ma ripeto col 22nm andavo alla grande

il 8350 era un forno e ok il dissi stock faceva pena ma cavoli con quello che costa un dissi decente tanto valeva prendersi il 4770 liscio... :rolleyes:
il documento che trovi su toms dice che le cpu 32nm e 45nm soffrivano meno di questo surriscaldamento in prime (anche per le dimensioni maggiori del die).. riporto solo una considerazione:
7th Generation 14 nanometer ... 1.400 Vcore
6th Generation 14 nanometer ... 1.400 Vcore
5th Generation 14 nanometer ... 1.400 Vcore
4th Generation 22 nanometer ... 1.300 Vcore
3rd Generation 22 nanometer ... 1.300 Vcore
2nd Generation 32 nanometer ... 1.350 Vcore
Previous (1st) Generation 32 nanometer ... 1.350 Vcore
Previous (1st) Generation 45 nanometer ... 1.400 Vcore

cosa sta succedendo al vcore massimo consigliato? nella storia è sempre andato calando, adesso torna su in cpu con mos 3 volte più piccoli, su cui l'attivazione delle istruzioni vector già surriscalda di brutto la cpu?
per questo che dico che sono sul finire le arch core..


per il 4770 toccava aspettare (quasi) 1 annetto però :D
Non so il 2700 ma il 2500@4.5Ghz mai calato un mhz. Ovvio con dissi aftermarket

il 2500 ha meno roba accesa, ed è saldato.. prova con un occhio a temp e freq. prime95 la versione "sconsigliata" da intel, ossia una di quelle appena uscite.. secondo me osserverai throttle.

sui nuovi dalla 4a gen. in su ho notato una rampa davvero troppo assurda per non sospettare di intel (anche cpu piccole come il 3258)

MiKeLezZ
11-03-2017, 19:25
i matti farneticano :D
no, avevo scritto fx, niente apu, quelle cpu sono troppo tirate termicamente anche con la gpu "spenta" (cosa che non sono mai riuscito a osservare forse colpa dei bios o del design)


il documento che trovi su toms dice che le cpu 32nm e 45nm soffrivano meno di questo surriscaldamento in prime (anche per le dimensioni maggiori del die).. riporto solo una considerazione:
7th Generation 14 nanometer ... 1.400 Vcore
6th Generation 14 nanometer ... 1.400 Vcore
5th Generation 14 nanometer ... 1.400 Vcore
4th Generation 22 nanometer ... 1.300 Vcore
3rd Generation 22 nanometer ... 1.300 Vcore
2nd Generation 32 nanometer ... 1.350 Vcore
Previous (1st) Generation 32 nanometer ... 1.350 Vcore
Previous (1st) Generation 45 nanometer ... 1.400 Vcore

cosa sta succedendo al vcore massimo consigliato? nella storia è sempre andato calando, adesso torna su in cpu con mos 3 volte più piccoli, su cui l'attivazione delle istruzioni vector già surriscalda di brutto la cpu?
per questo che dico che sono sul finire le arch core..


per il 4770 toccava aspettare (quasi) 1 annetto però :D


il 2500 ha meno roba accesa, ed è saldato.. prova con un occhio a temp e freq. prime95 la versione "sconsigliata" da intel, ossia una di quelle appena uscite.. secondo me osserverai throttle.

sui nuovi dalla 4a gen. in su ho notato una rampa davvero troppo assurda per non sospettare di intel (anche cpu piccole come il 3258)Le tue non solo sono farneticazioni senza alcun dato oggettivo, ma pure totalmente sballate:

AMD R7-1800X (14nm) ha un Vcore di default di 1,25V e anche salendo a 1,45V/1,5V non riesce a superare i 4,1 GHz.

Intel i7-7700K (14nm) ha un Vcore di default di 1,25V e salendo ad appena 1,32V raggiunge i 5,0 GHz.


p.s. Intel Pentium G4560 (14nm) rimane perfettamente funzionante alla frequenza di default di 3,5 GHz (superiore a quella di AMD R7-1700X) anche abbassandolo a 1,0V.

MiKeLezZ
11-03-2017, 20:06
La cosa più divertente, a parte la selezione del gioco ed aver tagliato il riferimento min&avg, è che giocando con intel ci saranno degli scatti e con amd no.
I frame minimi non mentono :fagiano:
A chi interessava il report sui frame minimi...

http://techreport.com/r.x/2017_03_07_Where_minimum_FPS_figures_may_mislead_frame_time_analysis_shines/gtav-ryzen-normalized2.png

http://techreport.com/r.x/2017_03_07_Where_minimum_FPS_figures_may_mislead_frame_time_analysis_shines/gtav-7700K-normalized2.png

Come si evince dalle immagini gli scatti per i frame rate drop si vedono più con Ryzen che non il 7700K..............

LkMsWb
11-03-2017, 20:57
A chi interessava il report sui frame minimi...

http://techreport.com/r.x/2017_03_07_Where_minimum_FPS_figures_may_mislead_frame_time_analysis_shines/gtav-ryzen-normalized2.png

http://techreport.com/r.x/2017_03_07_Where_minimum_FPS_figures_may_mislead_frame_time_analysis_shines/gtav-7700K-normalized2.png

Come si evince dalle immagini gli scatti per i frame rate drop si vedono più con Ryzen che non il 7700K..............

Non direi che siano le stesse condizioni dell'altro test, visto che qua coi minimi siamo sopra i 60 fps (Ryzen) e 72 (7700k), nell'altro test dove si parlava di minimi (pagina precedente) era stato testato il tutto a 4k, con minimi sotto i 20fps, tutt'altra situazione. Sarei curioso ovviamente di vedere il grafico frame in quelle condizioni.

george_p
11-03-2017, 22:46
Le tue non solo sono farneticazioni senza alcun dato oggettivo, ma pure totalmente sballate:

AMD R7-1800X (14nm) ha un Vcore di default di 1,4V e anche salendo a 1,45V/1,5V non riesce a superare i 4,1 GHz.

Intel i7-7700K (14nm) ha un Vcore di default di 1,25V e salendo ad appena 1,32V raggiunge i 5,0 GHz.


p.s. Intel Pentium G4560 (14nm) rimane perfettamente funzionante alla frequenza di default di 3,5 GHz (superiore a quella di AMD R7-1700X) anche abbassandolo a 1,0V.

http://www.bitsandchips.it/forum/download/file.php?id=2684

Diciamo che interessa solo per una parte ciò che difendi con i videogames.
Ryzen, pur con tutti i problemi di gioventù, fa il culo alla controparte intel con gli stessi core nella maggioranza delle applicazioni dove queste cpu operano, ma soprattutto lo fa costando decisamente di meno e non 50 dollari in meno.
E il 7700K può andare di più nei frames quanto vuoi ma non è che si gioca con i soli frames, senza considerare che sta storia dei videogiochi sta diventando un mero cavallo da battaglia solo per cercare di affossare Ryzen, niente di più.

Passata l'era in cui si dava contro amd perché non è per niente competitiva e quando lo diventa tutti i riflettori puntano stranamente solo sui minimi frames in giochi dove per anni sono state ottimizzate le cpu intel.

Chi si compra oggi Ryzen non gioca a risoluzioni a 720 per dimostrare quanto l'ha lungo sta nuova cpu ma si acquista come minimo una scheda video decente non una scheda dove si gioca a risoluzioni di 15 anni fa.

Smettiamola con ste menate, che non servono nemmeno quando Ryzen sarà ottimizzato per fare quei 10 o 20 frames in più rispetto a ora.

Zappa1981
12-03-2017, 00:12
Sono interessatissimo al 4c/8t sperando stia sui 150-200 euro sperando che overclocki a 4ghz.

io spero che salga anche di più ma da come si sta mettendo mi stanno venendo dubbi atroci che non sarà così

Zappa1981
12-03-2017, 00:17
http://www.bitsandchips.it/forum/download/file.php?id=2684

Diciamo che interessa solo per una parte ciò che difendi con i videogames.
Ryzen, pur con tutti i problemi di gioventù, fa il culo alla controparte intel con gli stessi core nella maggioranza delle applicazioni dove queste cpu operano, ma soprattutto lo fa costando decisamente di meno e non 50 dollari in meno.
E il 7700K può andare di più nei frames quanto vuoi ma non è che si gioca con i soli frames, senza considerare che sta storia dei videogiochi sta diventando un mero cavallo da battaglia solo per cercare di affossare Ryzen, niente di più.

Passata l'era in cui si dava contro amd perché non è per niente competitiva e quando lo diventa tutti i riflettori puntano stranamente solo sui minimi frames in giochi dove per anni sono state ottimizzate le cpu intel.

Chi si compra oggi Ryzen non gioca a risoluzioni a 720 per dimostrare quanto l'ha lungo sta nuova cpu ma si acquista come minimo una scheda video decente non una scheda dove si gioca a risoluzioni di 15 anni fa.

Smettiamola con ste menate, che non servono nemmeno quando Ryzen sarà ottimizzato per fare quei 10 o 20 frames in più rispetto a ora.


devono far si che ryzen sembri una schifezza così da avvalorare la spesa di 350 euro per un quad core intel.. io spero solo che gli r5 4c 8t siano cloccabili sopra i 4.5ghz solo così staranno zitti ma dubito che lo faranno

ziobepi
12-03-2017, 09:10
A chi interessava il report sui frame minimi...

http://techreport.com/r.x/2017_03_07_Where_minimum_FPS_figures_may_mislead_frame_time_analysis_shines/gtav-ryzen-normalized2.png

http://techreport.com/r.x/2017_03_07_Where_minimum_FPS_figures_may_mislead_frame_time_analysis_shines/gtav-7700K-normalized2.png


Report molto chiari, che non lasciano spazio ad interpretazioni soggettive.
Grazie :D

HwWizzard
12-03-2017, 09:24
Report molto chiari, che non lasciano spazio ad interpretazioni soggettive.
Grazie :D

Siamo molto curiosi di sentire la tua interpretazione oggettiva:D :ciapet:

Piedone1113
12-03-2017, 09:29
Report molto chiari, che non lasciano spazio ad interpretazioni soggettive.
Grazie :D

Sbaglio o non c'è visualizzato il grafico del tuo decantato I5?


Ps: vedo che ti sei ripresi dal caccolone, felice che ti sei ripreso, le tue sparate mi mancavano.

blackshard
12-03-2017, 10:38
Report molto chiari, che non lasciano spazio ad interpretazioni soggettive.
Grazie :D

Piuttosto curiosamente...:

https://cdn.arstechnica.net/wp-content/uploads/sites/3/2017/03/Ryzen-Benchmarks-3.5GHz.017-1440x1080.png

Questo per dire che se uno cerca, trova tutto e il contrario di tutto nelle review. Siccome per adesso c'è un po' troppo fumo nella faccenda giochi, mi piace pensare che le cose possano migliorare

george_p
12-03-2017, 10:40
Report molto chiari, che non lasciano spazio ad interpretazioni soggettive.
Grazie :D

E' rientrato da viaggi hypergalattici l'utente più oggettivo dell'intero multiverso.
Adesso dopo il chaos ...l'ordine assoluto e oggettivo del non soggettivo ziodobbepi.
A lei la parola.

Piuttosto curiosamente...:

https://cdn.arstechnica.net/wp-content/uploads/sites/3/2017/03/Ryzen-Benchmarks-3.5GHz.017-1440x1080.png

Questo per dire che se uno cerca, trova tutto e il contrario di tutto nelle review. Siccome per adesso c'è un po' troppo fumo nella faccenda giochi, mi piace pensare che le cose possano migliorare

Acc... ma non ha fatto in tempo nemmeno a postare, poverino, che lo demolisci così...

sgrinfia
12-03-2017, 10:48
Mi ricorda una intervista vista in televisione, ad un funzionario Intel che diceva che Intel era davanti a un muro con la sua architettura , che dovevano mettersi sotto al lavoro duro ..........bà penso che quel muro oramai lo hanno di fronte , e stiano già lavorando duro.
Penso che in Intel sapevano che sarebbero stati raggiunti (mica dormono da piedi), comunque questo Ryzen e una mano santa sia per le elevate prestazioni e per la spesa contenuta per questa fascia di cpu ad alte prestazioni.

bjt2
12-03-2017, 11:58
A chi interessava il report sui frame minimi...

http://techreport.com/r.x/2017_03_07_Where_minimum_FPS_figures_may_mislead_frame_time_analysis_shines/gtav-ryzen-normalized2.png

http://techreport.com/r.x/2017_03_07_Where_minimum_FPS_figures_may_mislead_frame_time_analysis_shines/gtav-7700K-normalized2.png

Come si evince dalle immagini gli scatti per i frame rate drop si vedono più con Ryzen che non il 7700K..............

Visto che i minimi e massimi sono così rumorosi, si possono usare i percentili... Ad esempio i percentili 5 50 e 95 per minimo "medio" (in realtà è la mediana) e massimo...

MiKeLezZ
12-03-2017, 12:22
Piuttosto curiosamente...:

https://cdn.arstechnica.net/wp-content/uploads/sites/3/2017/03/Ryzen-Benchmarks-3.5GHz.017-1440x1080.png

Questo per dire che se uno cerca, trova tutto e il contrario di tutto nelle review. Siccome per adesso c'è un po' troppo fumo nella faccenda giochi, mi piace pensare che le cose possano migliorareNo, no, non parlerei di "curiosamente", parlerei di "utenti che maliziosamente comparano il il 7700K downcloccato al R7-1800X sperando che nessuno se ne accorga perché sono persone disoneste"

Il grafico corretto è infatti questo:

https://cdn.arstechnica.net/wp-content/uploads/sites/3/2017/03/Ryzen-Benchmarks-Stock.018-1440x1080.png

Visto che i minimi e massimi sono così rumorosi, si possono usare i percentili... Ad esempio i percentili 5 50 e 95 per minimo "medio" (in realtà è la mediana) e massimo...Con quel grafico hai GIA' i percentili... Quel grafico è superiore sia ai grafici classici in cui è riportato solo "min, max, average", sia a quelli più "avanzati" con i percentili. Con tale grafico sai la totale distribuzione dei FPS per l'intero arco del test.

skadex
12-03-2017, 12:48
No, no, non parlerei di "curiosamente", parlerei di "utenti che maliziosamente comparano il R7-1800X overcloccato al 7700K stock sperando che nessuno se ne accorga perché sono persone disoneste"

Il grafico corretto è infatti questo:

https://cdn.arstechnica.net/wp-content/uploads/sites/3/2017/03/Ryzen-Benchmarks-Stock.018-1440x1080.png

Con quel grafico hai GIA' i percentili... Quel grafico è superiore sia ai grafici classici in cui è riportato solo "min, max, average", sia a quelli più "avanzati" con i percentili. Con tale grafico sai la totale distribuzione dei FPS per l'intero arco del test.

Perdonami ma sulla prima considerazione sono in completo disaccordo:
il primo grafico mostrato mostra il risultato con entrambe le cpu a default ed il secondo entrambe a 3.5 ghz (nessuno è in oc) come fa anche Corsini qui sul sito per mostrare eventuali differenze di sostanza ed il risultato è che di fatto sono minime.
Direi invece che la cosa che noterei nei grafici di Ars è che ryzen in dx12 a parità di clock vede aumentare il differenziale dal 7700k a pari frequenze e questa è una cosa curiosa per Amd vedendo ciò che avevano fatto con la gpu.

Inoltre si mostra ancora la giovane età della piattaforma: ryzen in gta5 fa più fps lockato a 3,5 ghz che a stock.
Il grafico sui minimi indica anche la stessa cosa (il grafico intel è bello regolare, quello amd è "anomalo").

In ogni caso anche così sono cpu notevoli, AMd ha fatto un capolavoro questa volta.

Mister D
12-03-2017, 12:53
No, no, non parlerei di "curiosamente", parlerei di "utenti che maliziosamente comparano il R7-1800X overcloccato al 7700K stock sperando che nessuno se ne accorga perché sono persone disoneste"

Il grafico corretto è infatti questo:

https://cdn.arstechnica.net/wp-content/uploads/sites/3/2017/03/Ryzen-Benchmarks-Stock.018-1440x1080.png

Con quel grafico hai GIA' i percentili... Quel grafico è superiore sia ai grafici classici in cui è riportato solo "min, max, average", sia a quelli più "avanzati" con i percentili. Con tale grafico sai la totale distribuzione dei FPS per l'intero arco del test.

Tu dai del disonesto ad un altro ma fai pure di peggio visto che parli di r7 1800X occato vs i7 stock quando NON è vero:
https://arstechnica.com/gadgets/2017/03/amd-ryzen-review/2/#h4
In older games like GTA V and Metro Last Light, performance is largely the same across all the CPUs, with only the 7700K pulling ahead in GTA V thanks to its slightly higher clock speed. Levelled out at 3.5GHz, the scores are nearly all identical.


Sai leggere? Le hanno portati tutti a 3,5 GHz per vedere l'IPC nei giochi e cmq anche senza leggere basta usare il cervello. Come è possibile che il i7 7700k faccia due risultati diversi se fosse sempre stock in ambedue i test? NON è possibile perché in uno è stock 4,2/4,5 mentre nell'altro è a 3,5 e infatti fa meno :asd: mamma mia che figura......:banned:

MiKeLezZ
12-03-2017, 12:57
Tu dai del disonesto ad un altro ma fai pure di peggio visto che parli di r7 1800X occato vs i7 stock quando NON è vero:
https://arstechnica.com/gadgets/2017/03/amd-ryzen-review/2/#h4
In older games like GTA V and Metro Last Light, performance is largely the same across all the CPUs, with only the 7700K pulling ahead in GTA V thanks to its slightly higher clock speed. Levelled out at 3.5GHz, the scores are nearly all identical.


Sai leggere? Le hanno portati tutti a 3,5 GHz per vedere l'IPC nei giochi e cmq anche senza leggere basta usare il cervello. Come è possibile che il i7 7700k faccia due risultati diversi se fosse sempre stock in ambedue i test? NON è possibile perché in uno è stock 4,2/4,5 mentre nell'altro è a 3,5 e infatti fa meno :asd: mamma mia che figura......:banned:Che figura io? La gente tira fuori i grafici che confrontano il R7-1800X col i7-7700K downcloccato facendoli passare per "legittimi"... io sono quello che l'ha fatto notare!!!

Le CPU non si devono confrontare allo stesso clock perché le architetture sono diverse! Ryzen non sale oltre i 4,1 GHZ, si inchioda! L'i7-7700K arriva pure a 5,2 GHz! Per quello sono vendute di default a due diverse frequenze! Sveglia!

Mister D
12-03-2017, 13:48
Che figura io? La gente tira fuori i grafici che confrontano il R7-1800X col i7-7700K downcloccato facendoli passare per "legittimi"... io sono quello che l'ha fatto notare!!!

Le CPU non si devono confrontare allo stesso clock perché le architetture sono diverse! Ryzen non sale oltre i 4,1 GHZ, si inchioda! L'i7-7700K arriva pure a 5,2 GHz! Per quello sono vendute di default a due diverse frequenze! Sveglia!

Fai pure il furbo caro mio, ora stai dicendo che il i7 7700k è downcloccato come anche il r7 1800x e questo, come ti ho già scritto, è per far vedere l'IPC, cioè quanto è efficiente ogni architetture visto che viene misurata indirettamente la capacità elaborativa di processare le istruzioni a parità di clock. Ma fai finta di nulla anche su questo e mi dici a me di essere sveglio. Altra figura visto che io ti ho ripreso su una TUA inesattezza mentre accusi un altro utente di aver riportato anche lui un'altra inesattezza (nel suo caso direi che più che altro non ha riportato che il grafico si riferiva alle cpu a parità di frequenza mentre tu invece dici proprio una cosa inesatta).
Ergo ora non prendertela con me ma con te stesso che non sei stato attento, da qui la magra figura:

No, no, non parlerei di "curiosamente", parlerei di "utenti che maliziosamente comparano il il 7700K downcloccato al R7-1800X sperando che nessuno se ne accorga perché sono persone disoneste"



Tu hai scritto quella frase ed è inesatta ergo magra figura.:doh:

Poi caro mio viene a dirmi che le cpu non si devono confrontare a parità di frequenza perché hanno architettura diverse? Ma che cavolo stai dicendo. Proprio perché hanno architettura diverse (da cui deriva anche una frequenza di esercizio diversa perché se il produttore a parità di processo opta per un FO4 di progetto più basso mi pare ovvio che questa architettura mediamente girerà a frequenza più elevate. Nota che ho scritto a parità di processo produttivo.) oltre che in condizioni stock, DEVONO essere confrontate a parità di frequenza per togliere il contributo della frequenza nella prestazione e evidenziare la capacità elaborativa di una architettura rispetto ad un'altra. Infatti l'IPC rappresenta proprio questo: quante istruzioni vengono processate ogni ciclo di clock. Questo è un fatto incontrovertibile come che IPC moltiplicato per frequenza dà le prestazioni generali di una cpu o IPS (istruction per second).
Se non ci credi, basta eseguire l'analisi dimensionale:

IPS=IPC*freq
Istr/sec= istr/ciclo* cicli/sec

Una recensione completa, per me, quindi deve far vedere sia il comportamento a stock perché ovviamente così vengono vendute le cpu (e infatti così si analizzi il rapporto prezzo/prestazioni - quanto devo pagare per tot prestazioni?), sia il comportamento a parità di frequenza per i motivi detti sopra per analizzare quindi il perché di alcune prestazioni.
Detto questo quindi per te anandtech, ars techina, hwupgrade, hardware.fr, ecc sono tutti incompetenti che non capiscono nulla, visto che fanno quello che dico io, cioè esaminare in tutte e due gli aspetti e non quanto dici te, cioè solo cpu a stock? :asd:

imayoda
12-03-2017, 14:56
Le tue non solo sono farneticazioni senza alcun dato oggettivo, ma pure totalmente sballate:

AMD R7-1800X (14nm) ha un Vcore di default di 1,4V e anche salendo a 1,45V/1,5V non riesce a superare i 4,1 GHz.

Intel i7-7700K (14nm) ha un Vcore di default di 1,25V e salendo ad appena 1,32V raggiunge i 5,0 GHz.


p.s. Intel Pentium G4560 (14nm) rimane perfettamente funzionante alla frequenza di default di 3,5 GHz (superiore a quella di AMD R7-1700X) anche abbassandolo a 1,0V.

speravo che almeno avessi letto, e invece via di nuovo a riportare sfide intel/amd e confronti senza senso..
appena trovi una supercazzola "totalmente oggettiva" per spiegarmi perché in prime95 le cpu intel bruciano, batti un colpo e fa sapere. :Prrr:

OvErClOck82
12-03-2017, 14:58
ma statae ancora a perdere tempo con lui ? :asd:

blackshard
12-03-2017, 15:06
Che figura io? La gente tira fuori i grafici che confrontano il R7-1800X col i7-7700K downcloccato facendoli passare per "legittimi"... io sono quello che l'ha fatto notare!!!

Le CPU non si devono confrontare allo stesso clock perché le architetture sono diverse! Ryzen non sale oltre i 4,1 GHZ, si inchioda! L'i7-7700K arriva pure a 5,2 GHz! Per quello sono vendute di default a due diverse frequenze! Sveglia!

Attenzione, subito a dire di me, che ho postato il grafico, di "utente disonesto": quel grafico lì andava considerato con quello che poi c'era scritto sotto. Ribadisco che, a mio avviso e come qualcuno ha fatto già notare, qualcosa con ryzen nel gaming non torna (vedi il commento di skadex poco sopra)

In seconda battuta, il 7700K rimane pur sempre un quad core, r7-1800x è un 8 core, con tute le conseguenze del caso

rug22
12-03-2017, 17:16
Potreste evitare di quotare almeno?Perchè anche se messo in lista ignore i quote li leggo...e preferirei non leggerli :sofico:

MiKeLezZ
12-03-2017, 19:04
Fai pure il furbo caro mio, ora stai dicendo che il i7 7700k è downcloccato come anche il r7 1800x e questo, come ti ho già scritto, è per far vedere l'IPC, cioè quanto è efficiente ogni architetture visto che viene misurata indirettamente la capacità elaborativa di processare le istruzioni a parità di clock. Ma fai finta di nulla anche su questo e mi dici a me di essere sveglio. Altra figura visto che io ti ho ripreso su una TUA inesattezza mentre accusi un altro utente di aver riportato anche lui un'altra inesattezza (nel suo caso direi che più che altro non ha riportato che il grafico si riferiva alle cpu a parità di frequenza mentre tu invece dici proprio una cosa inesatta).
Ergo ora non prendertela con me ma con te stesso che non sei stato attento, da qui la magra figura:



Tu hai scritto quella frase ed è inesatta ergo magra figura.:doh:

Poi caro mio viene a dirmi che le cpu non si devono confrontare a parità di frequenza perché hanno architettura diverse? Ma che cavolo stai dicendo. Proprio perché hanno architettura diverse (da cui deriva anche una frequenza di esercizio diversa perché se il produttore a parità di processo opta per un FO4 di progetto più basso mi pare ovvio che questa architettura mediamente girerà a frequenza più elevate. Nota che ho scritto a parità di processo produttivo.) oltre che in condizioni stock, DEVONO essere confrontate a parità di frequenza per togliere il contributo della frequenza nella prestazione e evidenziare la capacità elaborativa di una architettura rispetto ad un'altra. Infatti l'IPC rappresenta proprio questo: quante istruzioni vengono processate ogni ciclo di clock. Questo è un fatto incontrovertibile come che IPC moltiplicato per frequenza dà le prestazioni generali di una cpu o IPS (istruction per second).
Se non ci credi, basta eseguire l'analisi dimensionale:

IPS=IPC*freq
Istr/sec= istr/ciclo* cicli/sec

Una recensione completa, per me, quindi deve far vedere sia il comportamento a stock perché ovviamente così vengono vendute le cpu (e infatti così si analizzi il rapporto prezzo/prestazioni - quanto devo pagare per tot prestazioni?), sia il comportamento a parità di frequenza per i motivi detti sopra per analizzare quindi il perché di alcune prestazioni.
Detto questo quindi per te anandtech, ars techina, hwupgrade, hardware.fr, ecc sono tutti incompetenti che non capiscono nulla, visto che fanno quello che dico io, cioè esaminare in tutte e due gli aspetti e non quanto dici te, cioè solo cpu a stock? :asd:Ogni costruttore di CPU decide, di progetto, il target di frequenza operativa della sua CPU. Spesso questo è direttamente proporzionale alla lunghezza della pipeline. Quella di Kaby Lake è lunga 14-19 a seconda delle istruzioni processate. Basta che AMD abbia scelto una lunghezza leggermente inferiore, di 12-16, per limitare la frequenza massima ottenibile e spiegare l'IPC.
Per questo tale comparativa ha poco senso. Le CPU Intel hanno di progetto un target di frequenze più elevato.
Se vuoi approfondire,
http://www.agner.org/optimize/microarchitecture.pdf&ved=0ahUKEwj_xN_T09HSAhWG8RQKHfiECZ0QFggiMAE&usg=AFQjCNGRPm4A8ixWqSSGOOtNPCxp1YRfQg&sig2=I9FQvSvnnF6YYyNlR5kkdQ

HwWizzard
12-03-2017, 21:28
Potreste evitare di quotare almeno?Perchè anche se messo in lista ignore i quote li leggo...e preferirei non leggerli :sofico:

Quoto! Lo strumento ignore esiste per non dover leggere certe stupidaggini e deliri religiosi, perciò per favore non quotate e consiglio spensierato: don't feed the troll!!!

bjt2
12-03-2017, 21:33
No, no, non parlerei di "curiosamente", parlerei di "utenti che maliziosamente comparano il il 7700K downcloccato al R7-1800X sperando che nessuno se ne accorga perché sono persone disoneste"

Il grafico corretto è infatti questo:

https://cdn.arstechnica.net/wp-content/uploads/sites/3/2017/03/Ryzen-Benchmarks-Stock.018-1440x1080.png

Con quel grafico hai GIA' i percentili... Quel grafico è superiore sia ai grafici classici in cui è riportato solo "min, max, average", sia a quelli più "avanzati" con i percentili. Con tale grafico sai la totale distribuzione dei FPS per l'intero arco del test.

Si ma devi saperli leggere... Con 3 numeri invece caratterizzi la prestazione...

bjt2
12-03-2017, 21:36
Ogni costruttore di CPU decide, di progetto, il target di frequenza operativa della sua CPU. Spesso questo è direttamente proporzionale alla lunghezza della pipeline. Quella di Kaby Lake è lunga 14-19 a seconda delle istruzioni processate. Basta che AMD abbia scelto una lunghezza leggermente inferiore, di 12-16, per limitare la frequenza massima ottenibile e spiegare l'IPC.
Per questo tale comparativa ha poco senso. Le CPU Intel hanno di progetto un target di frequenze più elevato.
Se vuoi approfondire,
http://www.agner.org/optimize/microarchitecture.pdf&ved=0ahUKEwj_xN_T09HSAhWG8RQKHfiECZ0QFggiMAE&usg=AFQjCNGRPm4A8ixWqSSGOOtNPCxp1YRfQg&sig2=I9FQvSvnnF6YYyNlR5kkdQ

Secondo un paper ufficiale la pipeline INT di Ryzen (immagino max, senza la uop cache) è 19 stadi.

MiKeLezZ
12-03-2017, 22:30
Secondo un paper ufficiale la pipeline INT di Ryzen (immagino max, senza la uop cache) è 19 stadi.No.

Bulldozer era 18-20 (infatti certi sample superavano i 5,0 GHz) e con Ryzen è stato dichiarato di aver fatto il lavoro opposto: riduzione della lunghezza della pipeline (ovvero aumento del IPC e di conseguenza diminuzione delle frequenze operative).

Tale dichiarazione viene direttamente da Michael T. Clark, ingegnere capo che ha preso il posto di Jim Keller, ed è impegnato sulle architetture AMD da 24 anni.

Da nessuna parte è riportata la specifica ufficiale.
Fra i 20 di Bulldozer e i 12 del Athlon64 credo sia lecito immaginarsi un valore nell'intorno dei 14-16 (comunque inferiore sia a Bulldozer che a Kaby Lake).

cdimauro
13-03-2017, 06:07
Ecco, Ryzen buona come cpu e pure economica finché si vuole, ma è stata letteralmente azzoppata da una congiunta miopìa di AMD/produttori mobo.
Francamente delle schede madri, nell'ultima decina d'anni, non m'è mai importato: ho preso fra quelle più economiche (in genere AsRock; di recente anche Gigabyte, ma solo perché c'erano vantaggiosi bundle con la CPU), perché non m'interessa più da tempo l'overclock, dunque da questo punto vista non posso aggiungere nulla, a parte che i vari problemi usciti fuori denotano una certa immaturità della piattaforma, nel suo complesso.
Se poi verrà confermato quanto dici sullo scheduler di win e cioè: "Non è un bug dello scheduler di Windows. E' che Zen si comporta con i suoi CCX come se fosse un sistema NUMA, ma senza esporre quest'informazione. Dunque Windows lo gestisce, correttamente, come se fosse un sistema non NUMA." allora sarà ancora peggio.
Non è una cosa che mi sia inventato io. Sono stati fatti dei test per misurare la latenza, e il quadro che ne viene fuori è sostanzialmente quello. Ma per qualche dettaglio in più, leggi sotto.

E, come già detto da leoneazzurro, quello che s'è visto è un problema generale, che affligge anche le CPU Intel, sebbene in misura minore (mi pare che hardware.fr abbia effettuato dei test appositi).
Lo faranno solo se sarà DAVVERO conveniente rispetto ad altre alternative.
I test con le applicazioni che le usano finora dimostrano che sono convenienti.
Intel ha puntato su AVX perché in tal modo entro certi limiti può contrastare meglio le soluzioni cpu+gpu dei concorrenti nel settore HPC cercando di mantenersi il più x86-centrica possibile, ma come dici tu stesso questo ha un costo in termini di progettazione ed implementazione (che Intel per ora può permettersi).
Sai meglio di me che una GPU non può sostituire in toto una buona unità SIMD, nemmeno se la GPU si trova incollata ai core del processore.
Non è un caso se circolano voci riguardo un ripensamento radicale dell'architettura da parte di Intel,
Le voci che sono circolate finora affermano che Intel potrebbe eliminare dall'ISA roba vecchia come le MMX, e si paventa anche l'FPU x87 (anche se personalmente non ci credo: c'è TROPPO software che la usa), ma niente stravolgimenti.
in presenza di un concorrente che non "insegue" sullo stesso percorso non è che potranno opporgli FPU sempre più larghe e questo lo sapevano da ben prima dell' arrivo degli Zen.
Il vero pericolo per Intel non è tanto AMD quanto piuttosto l'architettura ARM a 64bit visto che ormai è pronta per erodere anche dall'alto quote di mercato ad Intel.
Lo dico da tempo, ma dovresti anche sapere che a uno degli ultimi eventi dedicati ai microprocessori, ARM ha presentato un nuova estensione vettoriale a 128, 512 (casualmente! :D) e perfino 2048 bit per la sua ISA.

Considerato che ARM ha già in casa progetti di GPU, e che unità vettoriali così massicce sono particolarmente complesse da implementare (del clock skew ne parlavi tu tempo fa, se non ricordo male), sarebbe una svolta illogica rispetto a quello che avevi scritto prima. :) Si vede che, invece, avere unità vettoriali massicce continua ad avere prepotentemente il suo perché. ;)
È in essenza un architettura NUMA, ma proprio per questo si presta a più semplici evoluzioni incrementali senza dover riprogettare tutto, inoltre quello che conta non è il "come se" ma piuttosto "come va" (e già ora con tale architettura dalla L3 in giù i Ryzen sono competitivi).
Non è soltanto un'architettura NUMA. Impostando le informazioni del firmware in questo modo si risolverebbero certamente i problemi di accesso al CCX vicino, senza andare a toccare lo scheduler dei s.o., ma non si risolverebbero tutti i problemi.

La microarchitettura di Ryzen è abbastanza strana / particolare anche andando a guardare dentro il singolo CCX. L'ho fatto di recente, anche con le immagini dei die, e sembra che la situazione sia più complicata.

Un core ha, come detto prima, 2MB di cache L3 affiancati, e a cui può accedere con latenza minima. Può anche accedere con la stessa latenza a 1MB di cache L3 dei due core più vicini, e dunque per un totale di 4MB di cache L3. Ma i due vicini hanno un altro MB di cache L3, solo che per accedere a questo la latenza aumenta. Infine, la latenza aumenta anche nel caso in cui si volesse accedere ai 2MB di cache L3 dell'ultimo core del CCX, che si trova all'opposto.

Dunque un core riesce ad accedere soltanto parzialmente alle cache L3 dei vari core, e in misura diversa a seconda delle reciproche posizioni.

Immagina il lavoro che dovrebbe fare uno scheduler se dovesse anche cercare di tenere conto di tutto ciò, all'interno del singolo CCX.

La cosa più sensata da fare in questi casi sarebbe quello di non far muovere del tutto i thread hardware da dove stanno: bloccarli lì fino alla loro fine. Ma immagino che anche questo produrrebbe dei problemi, perché un'applicazione (in particolare i giochi sono un buon rappresentante di questa tipologia) che crei thread/processi non omogenei a cui smistare i vari task, dovrebbe farsi carico personalmente della loro collocazione in una piattaforma come questa, se l'obiettivo è quello di sfruttarla al meglio.

Il che crea problemi lato sviluppo, perché non credo che sia piacevole realizzarlo, peraltro con la prospettiva che in futuro le cose possano cambiare (ad esempio, e del tutto teoricamente sia chiaro, AMD potrebbe realizzare un CCX diverso con Zen2, con una cache unificata L3 per CCX, che serva equamente i 4 core), e dunque vanificando il lavoro fatto dagli sviluppatori per supportare questa strana configurazione degli attuali CCX di Ryzen.

Da qualunque parti la si guardi (s.o., applicazioni) è una bella gatta da pelare.
prime95 uccide le cpu intel (4c8t che ho in firma e non linko toms),
Ci sono applicazioni ancora più pesanti / stressanti. Dai un'occhiata al thread di The Stilt su AnandTech. ;)
non può esistere un applicazione per computer x86 che mandi in combustione un componente se non l'intera cpu (col loro dissipatore sopra), perché questo significa che (rullo di tamburi) la cpu è progettata male, o le statistiche termiche le inventano in condizioni a loro favorevoli, oppure è a fine ciclo (qualcuno ha detto prescott?).
Magari dovevo fare trasformazioni di fourier, e non lo scrivono sulla scatola che serve una patch o un software vecchio e non "ottimizzato" per la mia costosa cpu.
I prossimi cryptolocker cosa faranno, mi faranno throttlare a morte la cpu se non pago ? :D
Non funziona così. E' vero che il consumo aumenti se utilizzi pesantemente le AVX sui sistemi Intel, ma al contempo le frequenze scendono. Il tutto per cercare di far rimanere il chip entro i limiti del sistema di dissipazione.
i matti farneticano :D
no, avevo scritto fx, niente apu, quelle cpu sono troppo tirate termicamente anche con la gpu "spenta" (cosa che non sono mai riuscito a osservare forse colpa dei bios o del design)
Le CPU "desktop" di Intel sono di fatto delle APU, ma non diminuiscono drasticamente la frequenza di clock della componente x86, nemmeno quando la GPU è pienamente operativa.

Fatta eccezione per l'uso intensivo della AVX (e nemmeno di molto), come già detto, ma in questo caso anche a fronte di vantaggi prestazioni che possono essere notevoli.
Passata l'era in cui si dava contro amd perché non è per niente competitiva e quando lo diventa tutti i riflettori puntano stranamente solo sui minimi frames in giochi dove per anni sono state ottimizzate le cpu intel.
Hai informazioni tecniche su questo? Perché pur avendo letto il manuale delle ottimizzazioni sia di Intel sia di AMD, non ho colto nulla del genere.
No.

Bulldozer era 18-20 (infatti certi sample superavano i 5,0 GHz) e con Ryzen è stato dichiarato di aver fatto il lavoro opposto: riduzione della lunghezza della pipeline (ovvero aumento del IPC e di conseguenza diminuzione delle frequenze operative).

Tale dichiarazione viene direttamente da Michael T. Clark, ingegnere capo che ha preso il posto di Jim Keller, ed è impegnato sulle architetture AMD da 24 anni.

Da nessuna parte è riportata la specifica ufficiale.
Fra i 20 di Bulldozer e i 12 del Athlon64 credo sia lecito immaginarsi un valore nell'intorno dei 14-16 (comunque inferiore sia a Bulldozer che a Kaby Lake).
Potresti recuperare il link alla dichiarazione? Sarebbe molto interessante. Grazie.

bjt2
13-03-2017, 07:08
No.

Bulldozer era 18-20 (infatti certi sample superavano i 5,0 GHz) e con Ryzen è stato dichiarato di aver fatto il lavoro opposto: riduzione della lunghezza della pipeline (ovvero aumento del IPC e di conseguenza diminuzione delle frequenze operative).

Tale dichiarazione viene direttamente da Michael T. Clark, ingegnere capo che ha preso il posto di Jim Keller, ed è impegnato sulle architetture AMD da 24 anni.

Da nessuna parte è riportata la specifica ufficiale.
Fra i 20 di Bulldozer e i 12 del Athlon64 credo sia lecito immaginarsi un valore nell'intorno dei 14-16 (comunque inferiore sia a Bulldozer che a Kaby Lake).

http://www.linleygroup.com/newsletters/newsletter_detail.php?num=5577&year=2016&tag=3

"The basic integer pipeline is 19 stages"

Io non parlo mai a vanvera. Se dico che c'è un paper, allora c'è. Se non hai seguito il thread nella sezione processori allora forse ti sei perso il link.

bjt2
13-03-2017, 07:11
Un core ha, come detto prima, 2MB di cache L3 affiancati, e a cui può accedere con latenza minima. Può anche accedere con la stessa latenza a 1MB di cache L3 dei due core più vicini, e dunque per un totale di 4MB di cache L3. Ma i due vicini hanno un altro MB di cache L3, solo che per accedere a questo la latenza aumenta. Infine, la latenza aumenta anche nel caso in cui si volesse accedere ai 2MB di cache L3 dell'ultimo core del CCX, che si trova all'opposto.

Dunque un core riesce ad accedere soltanto parzialmente alle cache L3 dei vari core, e in misura diversa a seconda delle reciproche posizioni.

Immagina il lavoro che dovrebbe fare uno scheduler se dovesse anche cercare di tenere conto di tutto ciò, all'interno del singolo CCX.

La cosa più sensata da fare in questi casi sarebbe quello di non far muovere del tutto i thread hardware da dove stanno: bloccarli lì fino alla loro fine. Ma immagino che anche questo produrrebbe dei problemi, perché un'applicazione (in particolare i giochi sono un buon rappresentante di questa tipologia) che crei thread/processi non omogenei a cui smistare i vari task, dovrebbe farsi carico personalmente della loro collocazione in una piattaforma come questa, se l'obiettivo è quello di sfruttarla al meglio.

Il che crea problemi lato sviluppo, perché non credo che sia piacevole realizzarlo, peraltro con la prospettiva che in futuro le cose possano cambiare (ad esempio, e del tutto teoricamente sia chiaro, AMD potrebbe realizzare un CCX diverso con Zen2, con una cache unificata L3 per CCX, che serva equamente i 4 core), e dunque vanificando il lavoro fatto dagli sviluppatori per supportare questa strana configurazione degli attuali CCX di Ryzen.

Ryzen accede alla L3 facendo l'interleaving con i bit bassi dell'indirizzo, così da avere latenza media uguale per tutti i thread. Non è possibile allocare un thread in modo da usare un solo spicchio di L3...

fatantony
13-03-2017, 09:00
http://www.linleygroup.com/newsletters/newsletter_detail.php?num=5577&year=2016&tag=3

"The basic integer pipeline is 19 stages"

Io non parlo mai a vanvera. Se dico che c'è un paper, allora c'è. Se non hai seguito il thread nella sezione processori allora forse ti sei perso il link.

No.
"Non sai niente di CPU, hai chiesto quale processore era meglio usare su un socket 7, e vieni qui a fare il gradasso?" (cit.):D :D

Piuttosto, ho notato che il commento di Mister D sul FO4 è stato bellamente ignorato:doh::mbe: :D :D

P.s. Concordo con chi dice don't feed the troll ;)

ilbarabba
13-03-2017, 09:01
Quante pippe ragazzi, ma non dovremmo essere TUTTI contenti che AMD, che partiva da una distanza siderale, è quasi riuscita a raggiungere Intel?
Ne guadagniamo tutti a prescindere.
Anche se il 1800x non raggiunge il 700k (e grazie al cazzo che non lo possa raggiungere, era ovvio) però almeno si è avvicinato molto.
Non capisco questa guerra all'ultimo frame dove addirittura si taroccano i grafici per far vincere l'uno o l'altro.
Mah

fatantony
13-03-2017, 09:12
... ma non dovremmo essere TUTTI contenti che AMD, che partiva da una distanza siderale, è quasi riuscita a raggiungere Intel?
Ne guadagniamo tutti a prescindere...

Questo è il pensiero delle persone cum grano salis, però leggendo vari commenti non solo su questo thread, pare che ci sia qualche voce fuori dal coro:mbe: :mbe: :mc:

MiKeLezZ
13-03-2017, 11:27
http://www.linleygroup.com/newsletters/newsletter_detail.php?num=5577&year=2016&tag=3

"The basic integer pipeline is 19 stages"

Io non parlo mai a vanvera. Se dico che c'è un paper, allora c'è. Se non hai seguito il thread nella sezione processori allora forse ti sei perso il link.Te hai detto "SECONDO UN PAPER UFFICIALE".
Quello non è un paper ufficiale, quella è una rivista. Speculazioni.

The company also made the chip’s integer and floating point processing units more dynamic and accessible to single- and multithreaded workloads. It will take fewer cycles to load operations on the processing units. The units in Bulldozer and its derivatives weren’t as dynamic, widely considered a problem.
The designers also sharpened the chip’s execution units. Zen has a distributed scheduler, and it provides visibility to more threads in a window. Bulldozer had a unified scheduler with more complexity.

It all begins with branch prediction, which feeds instructions into the 64K 4-way I-Cache. Data flows into decode, which then issues four instructions per cycle to the micro-op queue. Micro-ops are also stored in the op cache, which, in turn, serves frequently encountered ops to the queue. This technique boosts performance and saves power by reducing pipeline stages. As expected, Clark declined to comment on the specific length of the pipeline but noted that the op cache scheme allows the company to shorten it.

Clark said that the Zen core has much better branch prediction, and that one of the biggest new features was a large op cache. “In the X86 architecture, there is a variable instruction length and this makes trying to find multiple instructions to get going in the machine a very difficult problem because it is a serial process. To attack that, you build a pretty deep pipeline and you spend a lot of logic, it burns a lot of power. Having seen instructions once come through the pipeline, we now have the micro-ops and we can store them in an op cache and store them so that the next time we hit those instructions, we can just pull them out of the op cache. We can cut stages out of our pipeline when we are hitting the op cache and we can use those high power decoders and not burn all that power as well removing the state we can also deliver more ops into the machine per cycle, too. This is a really great feature that delivers us way more performance and saves us power at the same time.”

Questo è il pensiero delle persone cum grano salis, però leggendo vari commenti non solo su questo thread, pare che ci sia qualche voce fuori dal coro:mbe: :mbe: :mc:Io sono contento. Però vengono scritte molte inesattezze ed è corretto correggerle.
Fra chi compara il 1800X al 7700K downcloccato, a chi spaccia per ufficiali delle indiscrezioni, a chi sogna infattibili CPU Ryzen da 5,0 GHz, a chi non sa riconoscere neppure un esponenziale, a chi non sa montare un dissipatore aftermarket, il lavoro non è dei più facili.

george_p
13-03-2017, 12:09
Hai informazioni tecniche su questo? Perché pur avendo letto il manuale delle ottimizzazioni sia di Intel sia di AMD, non ho colto nulla del genere.


Ah si, perché tu cerchi nel manuale amd e intel se ci sta scritta la voce su eventuali ottimizzazioni fatte da parte delle software house per gestire al meglio una architettura soprattutto se nuova?

Quando intel ha introdotto il suo SMT nei coreduo non c'è mai stato bisogno (da parte delle software house) di ottimizzare le varie applicazioni per questa feature?
O riconoscevano automaticamente l'SMT?

I drivers, bios, di tutte le applicazioni esistenti, siano esse giochi, OS, e quant'altro, a cosa servono?

Facevi prima a risparmiare i caratteri con la tua solita uscita "Fonte?".

LMCH
13-03-2017, 12:12
I test con le applicazioni che le usano finora dimostrano che sono convenienti.

Sai meglio di me che una GPU non può sostituire in toto una buona unità SIMD, nemmeno se la GPU si trova incollata ai core del processore.

Ma la "buona unità SIMD" non ha senso quando diventa troppo larga per cercare di competere con le gpu dove queste ultime sono già la soluzione migliore.


Lo dico da tempo, ma dovresti anche sapere che a uno degli ultimi eventi dedicati ai microprocessori, ARM ha presentato un nuova estensione vettoriale a 128, 512 (casualmente! :D) e perfino 2048 bit per la sua ISA.

Considerato che ARM ha già in casa progetti di GPU, e che unità vettoriali così massicce sono particolarmente complesse da implementare (del clock skew ne parlavi tu tempo fa, se non ricordo male), sarebbe una svolta illogica rispetto a quello che avevi scritto prima. :) Si vede che, invece, avere unità vettoriali massicce continua ad avere prepotentemente il suo perché. ;)

Avere unità ottimizzate per l'elaborazione vettoriale ha SEMPRE avuto il suo perché in settori applicativi specifici.
Basta pensare ad esempio alle cpu dei vecchi supercomputer Cray.

A differenza di Intel ed AMD, c'è da considerare che ARM propone un vero e proprio arsenale di IP adattabili alle esigenze di vari settori e di vari target di consumo e potenza di calcolo, ma il set d'istruzioni "base" ARMv8 ha registri SIMD a 128bit.

Non a caso la SVE non è un estensione SIMD tipo SSE, AVX o NEON ma un vero e proprio
COPROCESSORE VETTORIALE con lo stesso set d'istruzioni per implementazioni di SVE da 128bit a 2048bit ( è "vector-lenght agnostic" ), tutto un altro paio di maniche insomma.
Gli dai le dimensioni dei vettori/matrici da processare e lo SVE se le macina con una granularita interna dipendente dall'implementazione se ho capito bene.


Non è soltanto un'architettura NUMA. Impostando le informazioni del firmware in questo modo si risolverebbero certamente i problemi di accesso al CCX vicino, senza andare a toccare lo scheduler dei s.o., ma non si risolverebbero tutti i problemi.

La microarchitettura di Ryzen è abbastanza strana / particolare anche andando a guardare dentro il singolo CCX. L'ho fatto di recente, anche con le immagini dei die, e sembra che la situazione sia più complicata.

Un core ha, come detto prima, 2MB di cache L3 affiancati, e a cui può accedere con latenza minima. Può anche accedere con la stessa latenza a 1MB di cache L3 dei due core più vicini, e dunque per un totale di 4MB di cache L3. Ma i due vicini hanno un altro MB di cache L3, solo che per accedere a questo la latenza aumenta. Infine, la latenza aumenta anche nel caso in cui si volesse accedere ai 2MB di cache L3 dell'ultimo core del CCX, che si trova all'opposto.

Dunque un core riesce ad accedere soltanto parzialmente alle cache L3 dei vari core, e in misura diversa a seconda delle reciproche posizioni.

Immagina il lavoro che dovrebbe fare uno scheduler se dovesse anche cercare di tenere conto di tutto ciò, all'interno del singolo CCX.

La cosa più sensata da fare in questi casi sarebbe quello di non far muovere del tutto i thread hardware da dove stanno: bloccarli lì fino alla loro fine. Ma immagino che anche questo produrrebbe dei problemi, perché un'applicazione (in particolare i giochi sono un buon rappresentante di questa tipologia) che crei thread/processi non omogenei a cui smistare i vari task, dovrebbe farsi carico personalmente della loro collocazione in una piattaforma come questa, se l'obiettivo è quello di sfruttarla al meglio.

Il che crea problemi lato sviluppo, perché non credo che sia piacevole realizzarlo, peraltro con la prospettiva che in futuro le cose possano cambiare (ad esempio, e del tutto teoricamente sia chiaro, AMD potrebbe realizzare un CCX diverso con Zen2, con una cache unificata L3 per CCX, che serva equamente i 4 core), e dunque vanificando il lavoro fatto dagli sviluppatori per supportare questa strana configurazione degli attuali CCX di Ryzen.

Da qualunque parti la si guardi (s.o., applicazioni) è una bella gatta da pelare.

Non è che sia quel gran problema che sembra, le cose più rilevanti da fare sono:
1) dare (a parità degli altri criteri di selezione) la preferenza di selezione thread sullo stesso core del precedente time slice ed in secondo ordine a quelli adiacenti;
2) non deattivare completamente i due core adiacenti ad un core attivo (perché in tal caso gli accessi alle L3 "di secondo livello" si allungano, se ho capito bene).

Non si tratta di sfruttare al 100% le peculiarità dell'architettura delle L3 di Ryzen, ma semplicemente di sfruttarle meglio ( e già ora ha buone prestazioni per il prezzo che ha).

Edit: corretto un quote terminato male

bjt2
13-03-2017, 12:32
Te hai detto "SECONDO UN PAPER UFFICIALE".
Quello non è un paper ufficiale, quella è una rivista. Speculazioni.

The company also made the chip’s integer and floating point processing units more dynamic and accessible to single- and multithreaded workloads. It will take fewer cycles to load operations on the processing units. The units in Bulldozer and its derivatives weren’t as dynamic, widely considered a problem.
The designers also sharpened the chip’s execution units. Zen has a distributed scheduler, and it provides visibility to more threads in a window. Bulldozer had a unified scheduler with more complexity.

It all begins with branch prediction, which feeds instructions into the 64K 4-way I-Cache. Data flows into decode, which then issues four instructions per cycle to the micro-op queue. Micro-ops are also stored in the op cache, which, in turn, serves frequently encountered ops to the queue. This technique boosts performance and saves power by reducing pipeline stages. As expected, Clark declined to comment on the specific length of the pipeline but noted that the op cache scheme allows the company to shorten it.

Clark said that the Zen core has much better branch prediction, and that one of the biggest new features was a large op cache. “In the X86 architecture, there is a variable instruction length and this makes trying to find multiple instructions to get going in the machine a very difficult problem because it is a serial process. To attack that, you build a pretty deep pipeline and you spend a lot of logic, it burns a lot of power. Having seen instructions once come through the pipeline, we now have the micro-ops and we can store them in an op cache and store them so that the next time we hit those instructions, we can just pull them out of the op cache. We can cut stages out of our pipeline when we are hitting the op cache and we can use those high power decoders and not burn all that power as well removing the state we can also deliver more ops into the machine per cycle, too. This is a really great feature that delivers us way more performance and saves us power at the same time.”

Io sono contento. Però vengono scritte molte inesattezze ed è corretto correggerle.
Fra chi compara il 1800X al 7700K downcloccato, a chi spaccia per ufficiali delle indiscrezioni, a chi sogna infattibili CPU Ryzen da 5,0 GHz, a chi non sa riconoscere neppure un esponenziale, a chi non sa montare un dissipatore aftermarket, il lavoro non è dei più facili.

La parte in grassetto secondo te cosa significa? Scheduler più semplice, FO4 addirittura più basso e possibilmente più stadi di pipeline necessari. Ryzen ha 6 scheduler a una coda contro uno a 4 code di BD. E' più semplice. Non ha ottenuto clock più elevati solo perchè ha optato per librerie ultradense (la L3 di Ryzen occupa meno spazio a parità di capacità del processo più denso di INTEL) che sono più lente e causano una maggiore densità di potenza da dissipare, limitando ulteriormente il clock. Il fatto che il FO4 è più basso si deduce anche dalla potenza dissipata (ricordiamo, su un processo INFERIORE) da Ryzen rispetto al 6900K, a parità di clock e anche a parità di rpestazioni.

lucusta
13-03-2017, 14:02
Le CPU "desktop" di Intel sono di fatto delle APU, ma non diminuiscono drasticamente la frequenza di clock della componente x86, nemmeno quando la GPU è pienamente operativa.

non sono delle APU, ma delle CPU con accanto una GPU via PCIe.
una APU è HSA, ma condivide il bus con la CPU, ed ha accesso diretto alla memoria e caches.
Intel usa un bus interno PCIe, come le soluzioni HSA AMD su scheda video didicata.
per quanto riguarda la gestione delle frequenze di CPU e iGPU di una APU è un altro paio di maniche rispetto alle AWX Intel.
anche in overclock del 50% la iGPU integrata nella APU è talmente blanda da non risentire di colli prestazionali nemmeno quando i 4 core la CPU sono a 2.4Ghz... non saturano affatto la CPU e le prestazioni calano solo di una piccola percentuale dovuta agli spike...

ho una APU, ed arriva a 4.9Ghz con iGPU a 1199mhz, sforando i 140W, ma usandola con la iGPU è totalmente inutile averla fissa a quella frequenza, come è inutile avere un i7-7700K a 5Ghz quando usi la sua iGPU....

diversa la questione della AWX: sono computo diretto, e piu' vanno su in frequenza piu' producono prestazioni... chiamalo overclock o chiamala gestione dei consumi, ma la frequenza della CPU non centra nulla.

le AWX consumano, e tanto, ed intel è costretta a limitarne la frequenza.
stesso dicasi della temporizzazione caches; se overclocki un i7 verrà aggiunta latenza, perche' la caches non regge e non otterrai prestazioni lineari rispetto alla frequenza, soprattutto negli ambiti in cui la caches la fà da padrona.

sono giusto delle precisazioni.

MiKeLezZ
13-03-2017, 14:08
La parte in grassetto secondo te cosa significa? Scheduler più semplice, FO4 addirittura più basso e possibilmente più stadi di pipeline necessari. Ryzen ha 6 scheduler a una coda contro uno a 4 code di BD. E' più semplice. Non ha ottenuto clock più elevati solo perchè ha optato per librerie ultradense (la L3 di Ryzen occupa meno spazio a parità di capacità del processo più denso di INTEL) che sono più lente e causano una maggiore densità di potenza da dissipare, limitando ulteriormente il clock. Il fatto che il FO4 è più basso si deduce anche dalla potenza dissipata (ricordiamo, su un processo INFERIORE) da Ryzen rispetto al 6900K, a parità di clock e anche a parità di rpestazioni.Un conto è allargare, un conto è allungare. La frase che tu stesso hai scritto, che vi siano 6 scheduler a 1 coda rispetto a 1 a 4 code significa una riduzione degli stadi di pipeline.

In ogni caso non c'è alcuna analisi da fare: il chief engineer lead architect di Ryzen ha affermato la pipeline sia più corta rispetto a Bulldozer, e di conseguenza Kaby Lake. Tanto basta.

p.s. La L3 di Ryzen occupa il 16% di spazio mentre la L3 di Intel occupa il 4,5% di spazio.
Anche considerando che la L3 su Ryzen è il doppio rispetto a quella su Kaby Lake, il risultato è che la L3 di Intel è molto più densa e occupa molto meno spazio. Quindi il tuo discorso che su Ryzen i clock siano limitati dal processo produttivo della L3 non fila per nulla (visto che buona parte del suo die è occupata da essa, ed è quella che meno limita la velocità del clock della CPU - inoltre è meno densa e a regola dovrebbe salire meglio).

Puoi avere anche 1 miliardo di messaggi ed averne discusso per mesi su qualche thread "aspettando", ma un conto sono le chiacchiere da bar con gli amici che "ve la cantate e ve la sonate", un altro la realtà dei fatti.

bjt2
13-03-2017, 14:18
Un conto è allargare, un conto è allungare. La frase che tu stesso hai scritto, che vi siano 6 scheduler a 1 coda rispetto a 1 a 4 code significa una riduzione degli stadi di pipeline.

Lo stadio di scheduler è fatto da un solo stadio di pipeline. Se lo stadio è più semplice, ha un FO4 più basso, quindi gli altri stadi, per compensare, devono essere semplificati, spezzandoli. E poi è risaputo che una CPU con un FO4 più basso ha più stadi, a parità di architettura.

In ogni caso non c'è alcuna analisi da fare: il chief engineer lead architect di Ryzen ha affermato la pipeline sia più corta rispetto a Bulldozer, e di conseguenza Kaby Lake. Tanto basta.

Link, please. Se no io posso dire che è risaputo che Zen ha millemila stadi e stop.

p.s. La L3 di Ryzen occupa il 36% di spazio su un die di 44mm^2 mentre la L3 di Intel occupa il 4,5% di spazio su un die di 49mm^2.
Anche considerando che la L3 su Ryzen è il doppio rispetto a quella su Kaby Lake, il risultato è che la L3 di Intel è enormemente più densa e occupa enormemente meno spazio. Quindi il tuo discorso che su Ryzen i clock siano limitati dal processo produttivo della L3 non fila per nulla (visto che gran parte del suo die è occupata da essa, ed è quella che meno limita la velocità del clock della CPU - inoltre è meno densa e a regola dovrebbe salire meglio).

Addirittura un ordine di grandezza di differenza? Ma dove li hai presi questi numeri?

Sei sicuro?

http://img.deusm.com/eetimes/2016/02/1331317/Zen-comparison.png

:read:

Puoi avere anche 1 miliardo di messaggi ed averne discusso per mesi su qualche thread "aspettando", ma un conto sono le chiacchiere da bar con gli amici che "ve la cantate e ve la sonate", un altro la realtà dei fatti.

Non è il numero di messaggi, ma è il sapere di cosa si sta parlando... :read:

MiKeLezZ
13-03-2017, 14:27
Link, please. Se no io posso dire che è risaputo che Zen ha millemila stadi e stop.I quote sono sopra. Basta che copi-incolli e cerchi con google. Se Bulldozer ha 18-20 stadi, Ryzen che ha il 52% in più di IPC deve averne di meno. E' semplice.
http://www.ece.ualberta.ca/~elliott/ece510/seminars/2002f/2002-10-08/Zhulei.ppt

Addirittura un ordine di grandezza di differenza? Ma dove li hai presi questi numeri?Non è 36%, ma 16%, è stato corretto. I dati li prendi anche col righello, se sai cosa cercare.

george_p
13-03-2017, 14:34
Scusa ma se la L3 di intel è di 19 mm^2 su 49 mm^2 mi spieghi come fa a essere il 4,5%?

MiKeLezZ
13-03-2017, 14:42
Scusa ma se la L3 di intel è di 19 mm^2 su 49 mm^2 mi spieghi come fa a essere il 4,5%?Questo è un 7700K. La "shared cache" al centro è la L3. Prendi un righello o photoshop e misuratela.

https://www.tomshw.it/data/images/8/7/0/6/kbl-s-42-circuit-map-8ea3251636d45c03584da41db8061e89e.jpg

In questo disegno fa 4% e io per gentilezza mi sono tenuto largo.

leoneazzurro
13-03-2017, 15:24
Ehm, Mikelezz... I dati di Zen riportati nella tabella fanno riferimento al singolo CCX (44mm^2) e quelli di Kaby Lake al complesso core-cache (49 mm^2) e le percentuali sono calcolate rispetto a queste aree. La foto del die a cui fai riferimento contiene parecchie altre cose, tra cui i controller di memoria, I/O e la GPU integrata. Es. Sky Lake e Kaby Lake condividono lo stesso complesso core-cache, e Sky Lake misura circa 122mm^2, con 4 core e GPU (più piccola di Kaby Lake). Kaby Lake nel suo complesso dovrebbe (perchè non è stato confermato ufficialmente) misurare intorno ai 125-140 mm^2.

leoneazzurro
13-03-2017, 15:31
ah bene, aggiorno i dati sopra ;)

Pardon, ho aggiornato, stime più recenti danno il die size di Kaby lake solo leggermente superiore a Sky Lake

MiKeLezZ
13-03-2017, 15:31
Ehm, Mikelezz... I dati di Zen riportati nella tabella fanno riferimento al singolo CCX (44mm^2) e quelli di Kaby Lake al complesso core-cache (49 mm^2) e le percentuali sono calcolate rispetto a queste aree. La foto del die a cui fai riferimento contiene parecchie altre cose, tra cui i controller di memoria, I/O e la GPU integrata. Es. Sky Lake e Kaby Lake condividono lo stesso complesso core-cache, e Sky Lake misura circa 122mm^2, con 4 core e GPU (più piccola di Kaby Lake). Kaby Lake nel suo complesso dovrebbe (perchè non è stato confermato ufficialmente) misurare intorno ai 140-150 mm^2.ok. ma per la percentuale io ho usato la misura della cache l3 dall'immagine del die e rapportata direttamente all'immagine intera del die.

leoneazzurro
13-03-2017, 15:49
ok. ma per la percentuale io ho usato la misura della cache l3 dall'immagine del die e rapportata direttamente all'immagine intera del die.

Se usassimo lo stesso criterio la cache in zen sarebbe il 16% del die, ma ha poco senso perchè di core x86 ce ne sono il doppio e in Ryzen non c'è la GPU.

MiKeLezZ
13-03-2017, 16:01
Se usassimo lo stesso criterio la cache in zen sarebbe il 16% del die, ma ha poco senso perchè di core x86 ce ne sono il doppio e in Ryzen non c'è la GPU.sì hai ragione. puoi commentare anche riguardo la lunghezza pipeline, se rispetto ai comunque stimati 18-20 di bulldozer vi sia stata una riduzione in ryzen?

demon77
13-03-2017, 16:02
Se usassimo lo stesso criterio la cache in zen sarebbe il 16% del die, ma ha poco senso perchè di core x86 ce ne sono il doppio e in Ryzen non c'è la GPU.

Io dico solo che in tutte ste pagine di 3d ho visto pippozzi mentali oltremisura in tutte le salse immaginabili. :rolleyes: :rolleyes: :rolleyes:

Sinceramente, visti i risultati dei test, se dovvessi prendere un pc oggi credo sarebbe un RYZEN.

Perchè con otto cores ho garanzia di potenza e longevità massima, il tutto ad un prezzo meravigliosamente conveniente rispetto ad Intel.

Il fatto del OC limitato sono briciole.
Il fatto che coi giochi va qualcosina in meno sono sempre briciole. (oltretutto questa cosa anrà a sparire secondo me, solo questione di ottimizzazione)

MiKeLezZ
13-03-2017, 16:32
ps. il 1800x non ha 1.40v a default come dice il guru @MiKeLezZ :rolleyes:Ho scritto una caz_ata, il 1800X non ha 1,4V di tensione di alimentazione, ma 1,25V (come il 7700K). Ma non mi è uscito dal nulla: stavo correggendo un utente che era convinto le CPU 14nm Intel andassero a 1,4V.

george_p
13-03-2017, 17:07
Mamma mia, ma a questo si deve arrivare?
Mo mi devo prendere il righello per misurare quanta cache L3 c'ha una cpu, devo contarne le pipeline, quanto son lunghe, grosse ecc... Ma per che cosa poi?

bjt2
13-03-2017, 18:08
I quote sono sopra. Basta che copi-incolli e cerchi con google. Se Bulldozer ha 18-20 stadi, Ryzen che ha il 52% in più di IPC deve averne di meno. E' semplice.
http://www.ece.ualberta.ca/~elliott/ece510/seminars/2002f/2002-10-08/Zhulei.ppt

Ti ho dimostrato che gli stadi sono 19 e solo per la pipeline intera. Ovviamente quella FP ne ha di più anche perchè lo scheduler è almeno 2 stadi...
EDIT: e quel PPT è quello che ha portato al pentium 4, che ha FO4 di circa 13 (compresi i flip flop intra stadio) e consiglia il FO4 ottimale per avere le massime prestazioni A PRESCINDERE dal consumo... E sappiamo tutti com'è finita con il P4. Bulldozer ha FO4 di circa 17, guarda caso quello ottimale, secondo uno studio IBM, per il miglior rapporto prestazioni/consumo. Zen si muove in quei dintorni. Altrimenti non si spiega come fa ad essere così efficiente.

Non è 36%, ma 16%, è stato corretto. I dati li prendi anche col righello, se sai cosa cercare.

Si vede l'immagine che ho postato? Mi viene il dubbio che non si veda. Quelli sono dati ufficiali di AMD. Per la colonna relativa ad INTEL, immagino che in AMD, una volta comprato un chip di skylake/kabylake sul mercato sappiano come deliddarlo, togliere lo strato protettivo e misuare le aree, quindi possiamo assumere che sono accurate...

MiKeLezZ
13-03-2017, 18:40
http://www.bitsandchips.it/9-hardware/8127-approfondimento-ryzen-r7-1800x-prove-di-overclock-e-undervolt?showall=1
si, a parte che con tutti queste features sul risparmio energetico e clock/volt dinamico è difficile stabilirlo con precisione e dipende dal carico, ma dalle prove effettuate pare essere intorno 1.25v
http://www.bitsandchips.it/forum/download/file.php?id=2684

matematicamente pare essere quadratico il rapporto vcore/consumo come anche il rapporto frequenza/vcore in quel range.

3.7@1.15v 155watt → 4.0@1.35v 211watt

frequenza 4/3.7=1.08^2 = 1.17x
vcore 1.35/1.15= 1.17x → 1.17^2 = 1.37x
consumo 211/155= 1.36xSì, bhe, interessante, ma tralasciando il fatto che il tipo è laureato in storia e non è buono neppure a fare i grafici con libreoffice...

http://i66.tinypic.com/11k9h6u.jpg

leoneazzurro
13-03-2017, 18:45
sì hai ragione. puoi commentare anche riguardo la lunghezza pipeline, se rispetto ai comunque stimati 18-20 di bulldozer vi sia stata una riduzione in ryzen?

A dire la verità non ne ho idea, in realtà credo che le lunghezze non siano molto diverse, per arrivare a certe frequenze le CPU moderne usano comunque pipeline abbastanza lunghe e poi alleviano i problemi usando meccanismi per prevenire le branch misprediction. Le stesse architetture Intel odierne possono arrivare a 19 stadi, secondo alcune stime.

[A]okyZ
13-03-2017, 19:38
Vabbe potete sparare tutte le pippiate che volete.
Il 1700 RYzen è un ottimo processore che in quella fascia non ha paragoni, nemmeno nelle cose in cui non dovrebbe eccellere come game &co, dove cmq va da Dio.
Il resto sono parole.

riuzasan
13-03-2017, 19:42
Sì, bhe, interessante, ma tralasciando il fatto che il tipo è laureato in storia e non è buono neppure a fare i grafici con libreoffice...


Mmm e quindi, non è che i tuoi post siano molto lontani da articoli su ilfattoquotiDaino.it o ansIa.it
Adesso mi prendo una foto del die e ci misuro la velocità delle pipeline ...

MiKeLezZ
13-03-2017, 19:43
Mmm e quindi, non è che i tuoi post siano molto lontani da articoli su ilfattoquotiDaino.it o ansIa.it
Adesso mi prendo una foto del die e ci misuro la velocità delle pipeline ...Sei davvero utile alla discussione.

Ti ho dimostrato che gli stadi sono 19 e solo per la pipeline intera.Non capisco perché ti intestardisci, AMD non ha fornito alcuna specifica (con un lapidario "no comment"), il tuo "sapere" deriva dalla speculazione del blogger "dresdenboy", poi ripresa da un magazine qualunque (che hai linkato).
Il link originario è questo:
http://semiaccurate.com/forums/showpost.php?p=273034&postcount=3781
L'informazione non è ufficiale.

Bulldozer aveva una pipeline lenght di 16-19 che si trasformava in 19-22 nel caso di misprediction (http://www.agner.org/optimize/microarchitecture.pdf).
AMD ha dichiarato che con Ryzen è riuscita a migliorare notevolmente l'IPC migliorando il branch predictor e ingrandendo la opcache.
In effetti non ha mai parlato direttamente di riduzione di stage di pipeline (la riduzione che intende potrebbe anche derivare dalla scorciatoia della opcache)... per quanto ne sappiamo sia io che te può anche averla lasciata 16-19 oppure averla portata a 14-19, in entrambi i casi non vedo l'importanza della cosa.

Di certo se voleva migliorare il suo IPC non sarebbe stata l'idea più geniale fare una pipeline a 30 stadi e accoppiarvi CPU da 3 GHz.

Si vede l'immagine che ho postato? Mi viene il dubbio che non si veda. Quelli sono dati ufficiali di AMD. Per la colonna relativa ad INTEL, immagino che in AMD, una volta comprato un chip di skylake/kabylake sul mercato sappiano come deliddarlo, togliere lo strato protettivo e misuare le aree, quindi possiamo assumere che sono accurate...Sì hai ragione.
Sempre allo stesso link si evince come il processo a 14nm di AMD sia leggermente meno performante di quello Intel:
http://wccftech.com/ryzen-smaller-die-intel-zen-architecture-not-good-hpc/

In definitiva, che la colpa sia della scarsa maturità dell'architettura, della difficoltà di far dialogare 8 CPU assieme, della maggiormente compressa L2/L3, delle differenze architetturali fra le CPU, della differente abilità produttiva della fonderia... IL PUNTO E' CHE LE CPU RYZEN HANNO QUALCHE CENTINAIO DI MHZ IN MENO RISPETTO LE CPU INTEL e un paragone clock-to-clock non ha senso, se non a fini accademici (visto si tratta di downcloccare una delle due CPU).
Si parlava di questo 2 giorni fa, poi è stato tutto un divagare.
Con Ryzen 2 è possibile risolvano tutto, vada a bomba e tiri a 5 GHz, ma se ne riparla fra 16 mesi.
Ok? La accendiamo?

cdimauro
13-03-2017, 20:13
Ryzen accede alla L3 facendo l'interleaving con i bit bassi dell'indirizzo, così da avere latenza media uguale per tutti i thread. Non è possibile allocare un thread in modo da usare un solo spicchio di L3...
Perché l'L3 non è di esclusiva proprietà di un core, ma le "fette" (slice) vengono usate alla bisogna, dai vari thread hardware.

Inoltre i thread hardware non accedono alla L3 facendo interleaving coi bit bassi. I test sulla latenza hanno dimostrato inequivocabilmente che i pattern 4MB, 6MB, e 8MB sono dovuti alla suddivisione & dislocazione della cache L3 a "tagli" di 1MB. Come da diagramma che ha riportato qualche utente (LHMC?) qualche giorno fa, e idem per la foto del CCX.
Ah si, perché tu cerchi nel manuale amd e intel se ci sta scritta la voce su eventuali ottimizzazioni fatte da parte delle software house per gestire al meglio una architettura soprattutto se nuova?
Al contrario: leggo se qualche caratteristica micro-architetturale possa essere utilizzata allo scopo da un certo tipo di software.
Quando intel ha introdotto il suo SMT nei coreduo non c'è mai stato bisogno (da parte delle software house) di ottimizzare le varie applicazioni per questa feature?
O riconoscevano automaticamente l'SMT?
Intel ha introdotto l'SMT col P4, e infatti continua a chiamarsi HyperThreading.

Non so se all'epoca il software dovesse necessariamente controllare la presenza dell'HT, visto che i due thread hardware venivano visti come due core indipendenti. Infatti in genere le applicazioni vengono sviluppate non tenendo dell'SMT, ma rilevando invece il numero di "core" presenti nel sistema, e creando dei processi e/o thread hardware per cercare di usarli tutti, oppure dei generici pool ("worker", in gergo) a cui assegnare dei task da eseguire, e che questi poi smisteranno ai vari "core" via via liberi.

E' il s.o., infatti, che normalmente si prende la briga di allocare i processi/thread hardware nei vari "core" a disposizione, tenendo eventualmente conto di caratteristiche come il NUMA.

Ovviamente son tutte cose che potrebbe fare autonomamente anche un'applicazione, decidendo da sé in quali specifici "core" piazzare i suoi processi / thread hardware.

Ma è una cosa che non rappresenta affatto la norma, per l'appunto, perché è comodo lasciare che il s.o. se ne occupi.
I drivers, bios, di tutte le applicazioni esistenti, siano esse giochi, OS, e quant'altro, a cosa servono?
Le applicazioni (inclusi i giochi) non hanno a che vedere con driver e BIOS, se non indirettamente, sfruttandoli in maniera trasparente tramite il s.o..
Facevi prima a risparmiare i caratteri con la tua solita uscita "Fonte?".
Hai fatto un'affermazione e te ne ho semplicemente nonché asetticamente chiesta la motivazione tecnica.

Se vuoi rispondere OK, e possiamo intavolare una discussione. Ma se non vuoi rispondere, allora evita direttamente queste uscite polemiche.

bjt2
13-03-2017, 20:14
Bulldozer aveva una pipeline lenght di 16-19 che si trasformava in 19-22 nel caso di misprediction (http://www.agner.org/optimize/microarchitecture.pdf).
AMD ha dichiarato che con Ryzen è riuscita a migliorare notevolmente l'IPC migliorando il branch predictor e ingrandendo la opcache.
In effetti non ha mai parlato direttamente di riduzione di stage di pipeline (la riduzione che intende potrebbe anche derivare dalla scorciatoia della opcache)... per quanto ne sappiamo sia io che te può anche averla lasciata 16-19 oppure averla portata a 14-19, in entrambi i casi non vedo l'importanza della cosa.

L'articolo è paywalled e quello è solo l'abstract. E l'ha scritto David Kanter che non è proprio un blogger qualunque, ma autore di realworldtech. Se hai mai letto quel sito, capirai che sono molto ferrati sull'argomento e credo abbiano anche informazioni privilegiate.

Di certo se voleva migliorare il suo IPC non sarebbe stata l'idea più geniale fare una pipeline a 30 stadi e accoppiarvi CPU da 3 GHz.

Se una pipeline è a 30 stadi, non hai una CPU da 3 GHz. Il prescott che era 31 stadi era 3.8GHz sul 90nm... Non sono scollegate le due cose... Se non comprendi questa cosa, non vedo come tu possa disquisire di pipeline, FO4 e compagnia bella...

Sì hai ragione.
Sempre allo stesso link si evince come il processo a 14nm di AMD sia leggermente meno performante di quello Intel:
http://wccftech.com/ryzen-smaller-die-intel-zen-architecture-not-good-hpc/

In definitiva, che la colpa sia della scarsa maturità dell'architettura, della difficoltà di far dialogare 8 CPU assieme, della maggiormente compressa L2/L3, delle differenze architetturali fra le CPU, della differente abilità produttiva della fonderia... IL PUNTO E' CHE LE CPU RYZEN HANNO QUALCHE CENTINAIO DI MHZ IN MENO RISPETTO LE CPU INTEL e un paragone clock-to-clock non ha senso, se non a fini accademici (visto si tratta di downcloccare una delle due CPU).
Si parlava di questo 2 giorni fa, poi è stato tutto un divagare.
Con Ryzen 2 è possibile risolvano tutto, vada a bomba e tiri a 5 GHz, ma se ne riparla fra 16 mesi.
Ok? La accendiamo?

Ha qualche centinaio di MHz in meno? 8 core vs 4 core! Prendi il 6900K a default e Ryzen a default e poi ne parliamo!
E poi se vedi la densità di transistor è quasi doppia, quindi qualcosa in frequenza la perdi...

bjt2
13-03-2017, 20:18
Perché l'L3 non è di esclusiva proprietà di un core, ma le "fette" (slice) vengono usate alla bisogna, dai vari thread hardware.

Inoltre i thread hardware non accedono alla L3 facendo interleaving coi bit bassi. I test sulla latenza hanno dimostrato inequivocabilmente che i pattern 4MB, 6MB, e 8MB sono dovuti alla suddivisione & dislocazione della cache L3 a "tagli" di 1MB. Come da diagramma che ha riportato qualche utente (LHMC?) qualche giorno fa, e idem per la foto del CCX.

Questo è quello che ha dichiarato AMD ad hot chips. Se poi è configurabile come per la RAM ai tempi andati e per qualche ragione è settato diversamente, non lo posso sapere. I gradini al megabyte può anche essere dovuta alle vie: la cache L3 è 2x8MB mi pare o 8 o 16 vie...

cdimauro
13-03-2017, 20:23
Ma la "buona unità SIMD" non ha senso quando diventa troppo larga per cercare di competere con le gpu dove queste ultime sono già la soluzione migliore.
Allora perché la tendenza (e non mi riferisco solo a Intel qui) in ambito rimane quella di avere unità vettoriali sempre più larghe?
Avere unità ottimizzate per l'elaborazione vettoriale ha SEMPRE avuto il suo perché in settori applicativi specifici.
Basta pensare ad esempio alle cpu dei vecchi supercomputer Cray.
OK, ma è dai tempi delle MMX che sono approdate in ambito desktop, e continuano a essere potenziate.
A differenza di Intel ed AMD, c'è da considerare che ARM propone un vero e proprio arsenale di IP adattabili alle esigenze di vari settori e di vari target di consumo e potenza di calcolo, ma il set d'istruzioni "base" ARMv8 ha registri SIMD a 128bit.

Non a caso la SVE non è un estensione SIMD tipo SSE, AVX o NEON ma un vero e proprio
COPROCESSORE VETTORIALE con lo stesso set d'istruzioni per implementazioni di SVE da 128bit a 2048bit ( è "vector-lenght agnostic" ), tutto un altro paio di maniche insomma.
Gli dai le dimensioni dei vettori/matrici da processare e lo SVE se le macina con una granularita interna dipendente dall'implementazione se ho capito bene.
Hum. Ho letto poco, ma da quel che ho capito l'applicazione definisce (a livello di ISA / istruzioni) se usare vettori da 128, 512, o 2048 bit. Poi è l'implementazione specifica che, se ce la fa, esegue in un colpo l'operazione, oppure la suddivide in base alla massima dimensione che riesce a gestire.

Ma ribadisco: è quel ricordo da ciò che lessi tempo fa. Per cui potrei anche sbagliarmi.

In ogni caso il nocciolo della discussione è che pure ARM crede nelle unità SIMD "massicce".
Non è che sia quel gran problema che sembra, le cose più rilevanti da fare sono:
1) dare (a parità degli altri criteri di selezione) la preferenza di selezione thread sullo stesso core del precedente time slice ed in secondo ordine a quelli adiacenti;
2) non deattivare completamente i due core adiacenti ad un core attivo (perché in tal caso gli accessi alle L3 "di secondo livello" si allungano, se ho capito bene).

Non si tratta di sfruttare al 100% le peculiarità dell'architettura delle L3 di Ryzen, ma semplicemente di sfruttarle meglio
Certamente, ma, data la particolarità della micro-architettura, lo scheduler dovrà essere cambiato non poco per alleviare le problematiche emerse in queste particolari situazioni. E non so nemmeno se ne valga la pena (vedi anche sotto).
( e già ora ha buone prestazioni per il prezzo che ha).
Ma infatti se qualcuno pensasse che le prestazioni potrebbero essere rivoluzionate soltanto cambiando lo scheduler, mi sa che peccherebbe d'ingenuità.

Per il resto concordo: ci sono buone prestazioni, e il prezzo rappresenta il vantaggio più grande di questa nuova famiglia di processori.

cdimauro
13-03-2017, 20:34
non sono delle APU, ma delle CPU con accanto una GPU via PCIe.
una APU è HSA, ma condivide il bus con la CPU, ed ha accesso diretto alla memoria e caches.
Intel usa un bus interno PCIe, come le soluzioni HSA AMD su scheda video didicata.
No. Da tempo Intel condivide la cache L3 fra CPU e iGPU. E nel caso delle versioni Iris Pro con eDRAM integrata, quest'ultima viene utilizzata trasparentemente come fosse una cache L4 dalla CPU, con un certo vantaggio prestazionale.

Non concordo, poi, che APU = HSA. Anche qui, da tempo le iGPU di Intel possono essere sfruttate con strumenti quali OpenCL o le ben più vecchie (perfino di HSA) Cilk / Cilk+ (https://en.wikipedia.org/wiki/Cilk).
per quanto riguarda la gestione delle frequenze di CPU e iGPU di una APU è un altro paio di maniche rispetto alle AWX Intel.
Le AWX non esistono. Immagino che, dal contesto, ti riferissi alle AVX.
anche in overclock del 50% la iGPU integrata nella APU è talmente blanda da non risentire di colli prestazionali nemmeno quando i 4 core la CPU sono a 2.4Ghz... non saturano affatto la CPU e le prestazioni calano solo di una piccola percentuale dovuta agli spike...

ho una APU, ed arriva a 4.9Ghz con iGPU a 1199mhz, sforando i 140W, ma usandola con la iGPU è totalmente inutile averla fissa a quella frequenza, come è inutile avere un i7-7700K a 5Ghz quando usi la sua iGPU....

diversa la questione della AWX: sono computo diretto, e piu' vanno su in frequenza piu' producono prestazioni... chiamalo overclock o chiamala gestione dei consumi, ma la frequenza della CPU non centra nulla.

le AWX consumano, e tanto, ed intel è costretta a limitarne la frequenza.
stesso dicasi della temporizzazione caches; se overclocki un i7 verrà aggiunta latenza, perche' la caches non regge e non otterrai prestazioni lineari rispetto alla frequenza, soprattutto negli ambiti in cui la caches la fà da padrona.

sono giusto delle precisazioni.
Non so che esperienze hai avuto, ma è noto nonché documentato che le APU di AMD abbiano seri problemi di throttling / abbassamento consistente della frequenza della CPU, in particolare usandola al contempo con l'iGPU.

Viceversa, è anch'esso noto e documentato che le frequenze nei processori Intel calino di qualche centinaio di Mhz, ma soltanto usando intensamente le AVX. L'uso dell'iGPU non influisce sulla frequenza del processore.

cdimauro
13-03-2017, 21:05
Ti ho dimostrato che gli stadi sono 19 e solo per la pipeline intera. Ovviamente quella FP ne ha di più anche perchè lo scheduler è almeno 2 stadi...
EDIT: e quel PPT è quello che ha portato al pentium 4, che ha FO4 di circa 13 (compresi i flip flop intra stadio) e consiglia il FO4 ottimale per avere le massime prestazioni A PRESCINDERE dal consumo... E sappiamo tutti com'è finita con il P4. Bulldozer ha FO4 di circa 17, guarda caso quello ottimale, secondo uno studio IBM, per il miglior rapporto prestazioni/consumo. Zen si muove in quei dintorni. Altrimenti non si spiega come fa ad essere così efficiente.
Infatti Zen non è così efficiente, come s'è visto. Ecco gli ultimi test, effettuati con Photoshop: (https://www.pugetsystems.com/labs/articles/Adobe-Photoshop-CC-2017-AMD-Ryzen-7-1700X-1800X-Performance-907/)https://www.pugetsystems.com/pic_disp.php?id=41966&width=701
Lightroom (https://www.pugetsystems.com/labs/articles/Adobe-Lightroom-CC-2015-8-AMD-Ryzen-7-1700X-1800X-Performance-910/):https://www.pugetsystems.com/pic_disp.php?id=41990&width=700
Premier (https://www.pugetsystems.com/labs/articles/Premiere-Pro-CC-2017-AMD-Ryzen-7-1700X-1800X-Performance-909/):https://www.pugetsystems.com/pic_disp.php?id=41990&width=700
e Solidworks (https://www.pugetsystems.com/labs/articles/SOLIDWORKS-2017-AMD-Ryzen-7-1700X-1800X-Performance-908/):https://www.pugetsystems.com/pic_disp.php?id=42009&width=701

dove si vede che è costantemente sotto il 6900K, che però viaggia a frequenze ben inferiori.

La micro-architettura, come già detto, non è efficiente come quella delle CPU Intel. Ma riesce a fare molto bene in ambiti MT, con codice "più lineare".

Comunque nulla che non abbia già detto.
L'articolo è paywalled e quello è solo l'abstract. E l'ha scritto David Kanter che non è proprio un blogger qualunque, ma autore di realworldtech. Se hai mai letto quel sito, capirai che sono molto ferrati sull'argomento e credo abbiano anche informazioni privilegiate.
Di questo ne abbiamo già parlato nel thread Aspettando Zen, e ti feci notare che Kanter esprimesse sue opinioni. Dunque non v'era/è alcuna certezza né tanto meno ufficialità.

D'altra parte Bulldozer, sui 32nm SOI, è arrivato a toccare i 4,2Ghz su un TDP di 125W.
Piledriver, sui 28nm BULK, è arrivato a 4,3Ghz sullo stesso TDP.
Zen, invece, è arrivato a stento a 4Ghz, ma a "14"nm e FinFET: più di un nodo di vantaggio nonché l'enorme vantaggio della nuova tecnologia. Dunque ben lontano dalle fantasmagoriche frequenze che avrebbe dovuto raggiungere.

Si vede con Bulldozer & co. non è che abbia poi tanto da spartire. ;)
Se una pipeline è a 30 stadi, non hai una CPU da 3 GHz. Il prescott che era 31 stadi era 3.8GHz sul 90nm... Non sono scollegate le due cose... Se non comprendi questa cosa, non vedo come tu possa disquisire di pipeline, FO4 e compagnia bella...
A quanto è arrivato Northwood, con 20 stadi di pipeline? ;)
Ha qualche centinaio di MHz in meno? 8 core vs 4 core! Prendi il 6900K a default e Ryzen a default e poi ne parliamo!
Fatto: vedi sopra i nuovi test con 4 applicazioni rinomate / blasonate. Guarda pure a quanto arriva il 1800X a default, e a quanto il 6900K.
E poi se vedi la densità di transistor è quasi doppia, quindi qualcosa in frequenza la perdi...
E non dimentichiamo che il processo produttivo è un LP: si comporta benissimo a basse frequenze, dove i consumi sono eccezionalmente bassi (infatti IMO sarà questo il suo vero punto di forza in ambito server, dove Intel non può arrivare a certi livelli di consumo a causa del suo processo HP), ma diventano eccezionalmente alti quando si superano i 3Ghz.

Infatti fra 1700X e 1800X ci sono 200 (base) e 100 (turbo) Mhz di differenza: una miseria. Ma quest'ultimo ha consumi di gran lunga superiori.
Questo è quello che ha dichiarato AMD ad hot chips. Se poi è configurabile come per la RAM ai tempi andati e per qualche ragione è settato diversamente, non lo posso sapere.
Non credo che si possa settare alcunché per la cache L3.
I gradini al megabyte può anche essere dovuta alle vie: la cache L3 è 2x8MB mi pare o 8 o 16 vie...
Potrebbe anche essere. AMD pubblicizza la L3 a 16 vie, e guarda caso sono 16 slice da 1MB.

Ma 1MB di cache L3 a una sola via sarebbe troppo poco performante (nel senso che sarebbe troppo soggetto a trashing dei dati).

Purtroppo non ci sono informazioni chiare in merito.

bjt2
13-03-2017, 21:42
Infatti Zen non è così efficiente, come s'è visto. Ecco gli ultimi test, effettuati con Photoshop: (https://www.pugetsystems.com/labs/articles/Adobe-Photoshop-CC-2017-AMD-Ryzen-7-1700X-1800X-Performance-907/)https://www.pugetsystems.com/pic_disp.php?id=41966&width=701
Lightroom (https://www.pugetsystems.com/labs/articles/Adobe-Lightroom-CC-2015-8-AMD-Ryzen-7-1700X-1800X-Performance-910/):https://www.pugetsystems.com/pic_disp.php?id=41990&width=700
Premier (https://www.pugetsystems.com/labs/articles/Premiere-Pro-CC-2017-AMD-Ryzen-7-1700X-1800X-Performance-909/):https://www.pugetsystems.com/pic_disp.php?id=41990&width=700
e Solidworks (https://www.pugetsystems.com/labs/articles/SOLIDWORKS-2017-AMD-Ryzen-7-1700X-1800X-Performance-908/):https://www.pugetsystems.com/pic_disp.php?id=42009&width=701

dove si vede che è costantemente sotto il 6900K, che però viaggia a frequenze ben inferiori.

La micro-architettura, come già detto, non è efficiente come quella delle CPU Intel. Ma riesce a fare molto bene in ambiti MT, con codice "più lineare".

Comunque nulla che non abbia già detto.
[CUT]

Fatto: vedi sopra i nuovi test con 4 applicazioni rinomate / blasonate. Guarda pure a quanto arriva il 1800X a default, e a quanto il 6900K.

E non dimentichiamo che il processo produttivo è un LP: si comporta benissimo a basse frequenze, dove i consumi sono eccezionalmente bassi (infatti IMO sarà questo il suo vero punto di forza in ambito server, dove Intel non può arrivare a certi livelli di consumo a causa del suo processo HP), ma diventano eccezionalmente alti quando si superano i 3Ghz.

Infatti fra 1700X e 1800X ci sono 200 (base) e 100 (turbo) Mhz di differenza: una miseria. Ma quest'ultimo ha consumi di gran lunga superiori.

Non in tutti i bench. E gli adobe sono sempre andati bene con intel. Supporrei che usi compilatori intel recenti, visto che i suoi clienti sono interessati alle massime prestazioni e comunque suppongo che usi le AVX a 256 bit (vorrei vedere anche le cpu entry level con avx2 disabilitato, IMHO una auto-martellata sui maroni di INTEL). Ci sono test (handbrake ad esempio) in cui l'IPC è superiore. E il tanto osannato cinebench ha pari IPC in ST anche rispetto a kaby lake (o quasi) e maggiore MT grazie all'SMT... Quindi ryzen non fa poi tanto schifo...

E comunque mi riferivo al rapporto prestazioni consumi in ambito server, vedi test vs 44c/88c Xeon...

Di questo ne abbiamo già parlato nel thread Aspettando Zen, e ti feci notare che Kanter esprimesse sue opinioni. Dunque non v'era/è alcuna certezza né tanto meno ufficialità.

E' un articolo paywalled... Non credo ci siano scritte solo sue opinioni. Su realworldtech ho letto dei magnifici articoli, a gratis, su molte architetture moderne...

D'altra parte Bulldozer, sui 32nm SOI, è arrivato a toccare i 4,2Ghz su un TDP di 125W.
Piledriver, sui 28nm BULK, è arrivato a 4,3Ghz sullo stesso TDP.
Zen, invece, è arrivato a stento a 4Ghz, ma a "14"nm e FinFET: più di un nodo di vantaggio nonché l'enorme vantaggio della nuova tecnologia. Dunque ben lontano dalle fantasmagoriche frequenze che avrebbe dovuto raggiungere.

Si vede con Bulldozer & co. non è che abbia poi tanto da spartire. ;

A causa della densità di transistor... Sicuramente il FO4 è inferiore a BDWE, perchè ha clock superiore e TDP nominale inferiore...

A quanto è arrivato Northwood, con 20 stadi di pipeline? ;)

Ho un northwood 2.8GHz con HT in ufficio. 130nm. E l'Athlon64 sul 90nm (e forse anche il 65nm) era sui 2.6GHz...

NvidiaMen
13-03-2017, 22:06
Nonostante gli approfondimenti sulle architetture spesso rischino l'off topic è da fare un plauso a tutti i partecipanti del thread che con il loro contributo aiutano a stimolare la mente sui perché di alcune scelte architetturali eseguite dai due maggiori produttori di microchip con licenza x86.

In attesa di alcuni affinamenti software sullo scheduler di Windows 10, un passaggio dovuto per valutare appieno una nuova piattaforma come Ryzen nella quale non si dà priorità ai core fisici rispetto a quelli logici, rimanendo questi inefficaci, ed anzi dovendo gli stessi essere disabilitati, venendo meno alla loro principale funzione di ottimizzazione dei threads paralleli, rimane tuttavia una considerazione che prescinde da tutto ciò in ordine alle scelte che un gamer di alto livello dovrebbe fare.
Mi riferisco alle piattaforme quadcore, che a mio modesto avviso dovrebbero essere messe da parte nei futuri upgrade a favore di quelle octacore, Intel o AMD che siano. In un mondo videoludico con codice ottimizzato per quad core la differenza a vantaggio di un 7700k, che in media lavora in campo videoludico tra il 60 ed il 65%, a differenza del 30-35% di un octacore 1800x o 6800k è assolutamente trascurabile soprattutto con l'avvento del 4k e modesta a 1080p con dettagli al massimo; inoltre le percentuali di occupazione delle risorse la dicono tutta sulla potenzialità inespressa dai processori con il doppio delle unità di calcolo.

Aumentando la base installata di processori ad 8 cores si darebbe modo anche agli sviluppatori di prendere in considerazione un upgrade dei loro motori di gioco per aumentare ancor di più il realismo nei giochi e favorire l'abbandono della tecnica di rasterizzazione a vantaggio di tecniche grafiche fotorealistiche di raytracing in tempo reale supportate da CPU e GPU di alto livello.

Ecco perché sono completamente favorevole all'introduzione di piattaforme octacore nel mercato a prezzi più concorrenziali, consapevole del fatto che se mai si effettuerà il passaggio mai entreremo in una nuova fase.
Giusto per far intuire cosa si intenda per "esperienze videoludiche di nuova generazione" vi lascio dei link a due nuovi e promettenti motori in sviluppo che un giorno non troppo lontano spero possano soppiantare quelli attuali.
Mizuchi Engine (https://www.youtube.com/watch?v=sYX9I3ONHc4)
Dream Engine by Vaya (https://www.youtube.com/watch?v=jKcSTjWBtNs)

george_p
13-03-2017, 22:51
Le applicazioni (inclusi i giochi) non hanno a che vedere con driver e BIOS, se non indirettamente, sfruttandoli in maniera trasparente tramite il s.o..



Occhio che nella mia frase ho scritto "di" al posto di "le", drivers, bios, applicazioni e giochi sono tutti softwares e intendevo infatti dire che in quanto tali, questi insiemi di software, a cosa servono se non a far funzionare correttamente un determinato tipo di hardware?
In definitiva e senza tanti giri di parole, che sia un sistema operativo che sia un driver o una applicazione/gioco questa può venire ottimizzata per una cpu o per l'altra.
Sfruttando anche a dovere le features di ogni architettura.

Piedone1113
13-03-2017, 23:05
Non in tutti i bench. E gli adobe sono sempre andati bene con intel. Supporrei che usi compilatori intel recenti, visto che i suoi clienti sono interessati alle massime prestazioni e comunque suppongo che usi le AVX a 256 bit (vorrei vedere anche le cpu entry level con avx2 disabilitato, IMHO una auto-martellata sui maroni di INTEL). Ci sono test (handbrake ad esempio) in cui l'IPC è superiore. E il tanto osannato cinebench ha pari IPC in ST anche rispetto a kaby lake (o quasi) e maggiore MT grazie all'SMT... Quindi ryzen non fa poi tanto schifo...

E comunque mi riferivo al rapporto prestazioni consumi in ambito server, vedi test vs 44c/88c Xeon...



E' un articolo paywalled... Non credo ci siano scritte solo sue opinioni. Su realworldtech ho letto dei magnifici articoli, a gratis, su molte architetture moderne...



A causa della densità di transistor... Sicuramente il FO4 è inferiore a BDWE, perchè ha clock superiore e TDP nominale inferiore...



Ho un northwood 2.8GHz con HT in ufficio. 130nm. E l'Athlon64 sul 90nm (e forse anche il 65nm) era sui 2.6GHz...

Il nortwood lo ricordo fino a 3.2 GHz, l'A64 2600 sul 90 ( fx60 dual-core e se non sbaglio anche il 4000 single core era 2600) mentre sul 65 mm arrivò a 3000 con il 6000+ ( x2) e con l'fx 4x4 (dual socket)

Mister D
13-03-2017, 23:47
cut....
D'altra parte Bulldozer, sui 32nm SOI, è arrivato a toccare i 4,2Ghz su un TDP di 125W.
Piledriver, sui 28nm BULK, è arrivato a 4,3Ghz sullo stesso TDP.
Zen, invece, è arrivato a stento a 4Ghz, ma a "14"nm e FinFET: più di un nodo di vantaggio nonché l'enorme vantaggio della nuova tecnologia. Dunque ben lontano dalle fantasmagoriche frequenze che avrebbe dovuto raggiungere.

Si vede con Bulldozer & co. non è che abbia poi tanto da spartire. ;)

A quanto è arrivato Northwood, con 20 stadi di pipeline? ;)

cut...


No Cesare.
Piledriver è rimasto sui 32 soi. Solo da steamroller in poi amd ha usato il 28 SHP di GF ma SOLO per le APU kaveri, godavari e infine carrizo e bristol ridge (aggiornate con excavator).

Northwood max 3,4 GHz in feb 2004 sui 130nm.

Mister D
13-03-2017, 23:47
Il nortwood lo ricordo fino a 3.2 GHz, l'A64 2600 sul 90 ( fx60 dual-core e se non sbaglio anche il 4000 single core era 2600) mentre sul 65 mm arrivò a 3000 con il 6000+ ( x2) e con l'fx 4x4 (dual socket)

Il fx-57 era arrivato a 2,8 vs i 2,6 del dual core.;)

imayoda
14-03-2017, 05:08
Ho scritto una caz_ata, il 1800X non ha 1,4V di tensione di alimentazione, ma 1,25V (come il 7700K). Ma non mi è uscito dal nulla: stavo correggendo un utente che era convinto le CPU 14nm Intel andassero a 1,4V.

Di cazzate ne scrivi perché non leggi.. Un utente

cdimauro
14-03-2017, 05:48
Non in tutti i bench.
Mai affermato il contrario. Infatti ho parlato di media.

Le micro-architetture sono molto diverse, ed è difficile che una abbia prestazioni sempre migliori di un'altra, in tutte le condizioni / tipologie di codice eseguite.

In questo caso, in tutti questi test (che non sono pochi), ce ne sono in cui Ryzen è andato meglio, e in altri il 6900K. Ma in media quest'ultimo ha fatto meglio (e non di poco. Medie alla mano).
E gli adobe sono sempre andati bene con intel.
Non sempre: Athlon 64 vs. Apple G5 Systems: Not Even Close (chart) (http://www.pcworld.com/article/112749/article.html?page=8)

Ma ne è passato di tempo. :p
Supporrei che usi compilatori intel recenti, visto che i suoi clienti sono interessati alle massime prestazioni e comunque suppongo che usi le AVX a 256 bit
Qualche volta penso che vengano usate, perché ci sono alcuni test (ma sono pochi, se li analizzi uno per uno) in cui c'è un consistente divario fra il 6900K e il 1800X.

In generale ho i miei dubbi che vengano usate le AVX/-2 ovunque. Ad esempio nei filtri che fanno uso di convoluzione, se non ricordo male con Photoshop & co. viene usato un kernel 3x3, che è abbastanza complicato da implementare già usando le SSE2, visto che hai una riga di 3 elementi alla volta: non riempi nemmeno un vettore a 128 bit, che di elementi in virgola mobile a singola precisione ne ha 4. Con AVX/-2 e vettori a 256 bit hai ben 8 elementi: molto più di quelli necessari per processare un kernel come quello.

Infine, fino alla beta pubblica di Photoshop CS6 ho disassemblato circa 1,7 milioni di istruzioni per le versioni a 32 e 64 bit, ma non ho trovato la minima traccia di istruzioni AVX. Se c'erano, non sono riuscite a beccarle. :D Ma comunque è un'applicazione abbastanza vecchia ormai.
(vorrei vedere anche le cpu entry level con avx2 disabilitato, IMHO una auto-martellata sui maroni di INTEL).
Senz'altro. Mi piacerebbe molto vedere tanti test effettuati con e senza AVX2, per capire meglio come si comportino le varie micro-architetture.

Ma, al contrario di te, non prevederei genericamente "martellate", considerato che ne ho viste ben poche coi test effettuati finora in applicazioni che hanno usano soltanto le SSE2+.
Ci sono test (handbrake ad esempio) in cui l'IPC è superiore. E il tanto osannato cinebench ha pari IPC in ST anche rispetto a kaby lake (o quasi) e maggiore MT grazie all'SMT... Quindi ryzen non fa poi tanto schifo...
Mi riquoto:

"riesce a fare molto bene in ambiti MT, con codice "più lineare""

Che sono proprio gli ambiti in cui rientrano le applicazioni che hai elencato. ;)

Ti ricordi cosa dicevo nel thread Aspettando Zen? Per valutare l'efficienza della micro-architettura mi sarebbe piaciuto vedere benchmark con emulatori, come Dolphin o PCSX2. Infatti è codice che stressa particolarmente branch predictor, decoder, load & store (visto che ci sono due working set di cui tenere conto). I test con Dolphin sono finalmente arrivati, e non mi sembrano lusinghieri per Ryzen.
E comunque mi riferivo al rapporto prestazioni consumi in ambito server, vedi test vs 44c/88c Xeon...
Quello è un altro ambito, e al solito AMD ha presentato in pompa magna il suo prodotto, con UN solo benchmark. Ho avuto modo di discuterne nell'apposito thread, sollevando alcuni dubbi.

Anch'io penso, e l'ho già detto ieri sera peraltro, che la carta vincente di AMD in ambito server sia rappresentato dai consumi, grazie al processo LP che usa.

Sulle prestazioni, invece, ho non pochi dubbi, perché la micro-architettura è la stessa di Ryzen, che è stata già testata in parecchi ambiti, incluso l'HPC, e mediamente rimane sotto a quelle Intel. Inoltre con ben 8 CCX, i problemi che ha avuto Ryzen finora diventeranno ancora più rilevanti, se non ci si metterà una pezza in qualche modo (come ho già suggerito, una buona soluzione sarebbe stata quella di marcare come NUMA i CCX).
E' un articolo paywalled... Non credo ci siano scritte solo sue opinioni. Su realworldtech ho letto dei magnifici articoli, a gratis, su molte architetture moderne...
Allora riparliamone quando usciranno fuori informazioni che non saranno frutto di opinioni personali.

Vedremo, in proposito, i test che farà il solito Agner Fog: io sto aspettando quelli. :D
A causa della densità di transistor... Sicuramente il FO4 è inferiore a BDWE, perchè ha clock superiore e TDP nominale inferiore...
Il TDP lasciamolo perdere, perché i test effettuati hanno mostrato non essere molto affidabile.

Quanto alle frequenze, Broadwell-E ha la stessa micro-architettura degli altri Broadwell, e dunque lo stesso FO4.

Vedremo quando arriveranno i Ryzen in versione nativa quadcore (dunque non frutto di die octacore fallati), a quanto si potranno spingere.
Ho un northwood 2.8GHz con HT in ufficio. 130nm. E l'Athlon64 sul 90nm (e forse anche il 65nm) era sui 2.6GHz...
Ma il Pentium 4 Northwood è arrivato a ben 3,4Ghz a 130nm, e con un TDP di 89W. Mentre l'Athlon64 si è fermato a 2,4Ghz, sempre a 130nm, e con identico TDP.

Questo perché la sua micro-architettura, NetBurst, era stata pensata / realizzata appositamente per arrivare a frequenze elevate. E infatti non mi sembra che sia sia comportata male, quando finalmente sono state raggiunte. ;)

cdimauro
14-03-2017, 06:00
Tutto bello e interessante, ma pare che le DX12 permetteranno agli sviluppatori di far scalare i propri giochi su più di 4 core senza diventare matti.
Sono passati 3 anni da quando sono state annunciate le DirectX 12, e 4 da quando sono arrivate le console x86 con ben 8 core.

Per non parlare delle precedenti console, che integravano già 1+7 core (e il doppio di thread hardware) e 3 core (e il doppio di thread hardware).

Per non parlare dei PC, che da più di 5 lustri hanno visto l'SMT (HyperThreading) sdoganato alla massa, e da una dozzina d'anni sistemi multicore.

Dunque... aspettiamo...
Occhio che nella mia frase ho scritto "di" al posto di "le", drivers, bios, applicazioni e giochi sono tutti softwares e intendevo infatti dire che in quanto tali, questi insiemi di software, a cosa servono se non a far funzionare correttamente un determinato tipo di hardware?
In definitiva e senza tanti giri di parole, che sia un sistema operativo che sia un driver o una applicazione/gioco questa può venire ottimizzata per una cpu o per l'altra.
Sfruttando anche a dovere le features di ogni architettura.
Ma un conto è che di certe ottimizzazioni se ne occupino BIOS, s.o., ed eventualmente driver, e tutt'altra cosa è lasciare che a occuparsene siano l'ultima ruota del carro, cioé è i programmatori di applicazioni / giochi.

E da programmatore nutro non pochi dubbi che adesso tutti saranno felici di mettere mano al proprio codice solo per dare una sistemata ai problemi di Ryzen. Problemi che il produttore dominante non ha, o che ne risente di meno (e nessuno ha mai pensato di dargli una mano per questo, pur con le enormi quote di mercato che ha. Mai letto informazioni finora).

Scrivere codice è molto costoso, specialmente per aziende di un certo calibro, e i cui dipendenti vengono profumatamente pagati. E siccome i costi di realizzazione sono molto elevati, c'è già parecchia pressione, di per sé, per rilasciare quanto prima i prodotti, in modo da passare alla monetizzazione.

Ecco perché è molto facile che titoli AAA escano fuori immaturi, non ottimizzati adeguatamente, e in alcuni casi sono così afflitti da problemi, da dover essere ritirati.

E tu pensi che, in questa situazione, le software house, tutte, si "divertano" a investire soltanto per sistemare i problemi di Ryzen, che peraltro ha una sparuta quota di mercato?
No Cesare.
Piledriver è rimasto sui 32 soi. Solo da steamroller in poi amd ha usato il 28 SHP di GF ma SOLO per le APU kaveri, godavari e infine carrizo e bristol ridge (aggiornate con excavator).
OK. Dunque non ci sono processori FX (non APU, per intenderci) a 28nm.
Northwood max 3,4 GHz in feb 2004 sui 130nm.
Sì, infatti.

EDIT. @NvidiaMen: ho letto anche il tuo messaggio, ma una risposta la trovi già in ciò che ho scritto a george.

Purtroppo cambiare il codice per sfruttare più core non è affatto semplice. I motori di rendering 3D è da quando sono nati che si possono facilmente adattare a sfruttare più core: è quella tipologia di codice che scala molto, molto bene. Ma non è affatto così in generale.

Per parlare di raytracing nei giochi è ancora presto, ma considera che in un gioco non c'è il mero rendering della scena, ma altro da calcolare.

Adesso devo correre a lavoro. Buona giornata a tutti. :)

Piedone1113
14-03-2017, 07:10
Il fx-57 era arrivato a 2,8 vs i 2,6 del dual core.;)

No fx 57 2.6, il 4000 era invece 2.4.
Ma sul 90 mm uscì anche un 6200+ ( almeno cpu World lo riporta) che era 3.2 dual core

bjt2
14-03-2017, 08:35
Il nortwood lo ricordo fino a 3.2 GHz, l'A64 2600 sul 90 ( fx60 dual-core e se non sbaglio anche il 4000 single core era 2600) mentre sul 65 mm arrivò a 3000 con il 6000+ ( x2) e con l'fx 4x4 (dual socket)

Giusto... 3.2GHz... Era il top di gamma...

bjt2
14-03-2017, 08:45
In generale ho i miei dubbi che vengano usate le AVX/-2 ovunque. Ad esempio nei filtri che fanno uso di convoluzione, se non ricordo male con Photoshop & co. viene usato un kernel 3x3, che è abbastanza complicato da implementare già usando le SSE2, visto che hai una riga di 3 elementi alla volta: non riempi nemmeno un vettore a 128 bit, che di elementi in virgola mobile a singola precisione ne ha 4. Con AVX/-2 e vettori a 256 bit hai ben 8 elementi: molto più di quelli necessari per processare un kernel come quello.

Se devi fare un filtro gaussiano, un kernel 3x3 è molto grossolano, a meno che il kernel non abbia una FWHM di molto meno di un pixel. Nel mio codice in genere uso una griglia sufficiente ad avere punti del kernel all'1%, quindi almeno 5-6 volte la FWHM.

Ma, al contrario di te, non prevederei genericamente "martellate", considerato che ne ho viste ben poche coi test effettuati finora in applicazioni che hanno usano soltanto le SSE2+.

Mi sono spiegato male... :D Per martellate intendevo l'atteggiamento Tafazziano di INTEL di togliere, per questioni meramente di marketing, i 256 bit dalle CPU low cost, limitandone di molto la diffusione...

Ti ricordi cosa dicevo nel thread Aspettando Zen? Per valutare l'efficienza della micro-architettura mi sarebbe piaciuto vedere benchmark con emulatori, come Dolphin o PCSX2. Infatti è codice che stressa particolarmente branch predictor, decoder, load & store (visto che ci sono due working set di cui tenere conto). I test con Dolphin sono finalmente arrivati, e non mi sembrano lusinghieri per Ryzen.

Ho postato qualche giorno fa un link su anand (indirizzato a te) di un test su Dolphin, dove un ryzen 4GHz straccia una CPU serie 4xxx a 4.2GHz... :D Non so quanto siano aumentate le prestazioni in skylake, ma non mi sembra malaccio... :D

Quello è un altro ambito, e al solito AMD ha presentato in pompa magna il suo prodotto, con UN solo benchmark. Ho avuto modo di discuterne nell'apposito thread, sollevando alcuni dubbi.

Anch'io penso, e l'ho già detto ieri sera peraltro, che la carta vincente di AMD in ambito server sia rappresentato dai consumi, grazie al processo LP che usa.

Sulle prestazioni, invece, ho non pochi dubbi, perché la micro-architettura è la stessa di Ryzen, che è stata già testata in parecchi ambiti, incluso l'HPC, e mediamente rimane sotto a quelle Intel. Inoltre con ben 8 CCX, i problemi che ha avuto Ryzen finora diventeranno ancora più rilevanti, se non ci si metterà una pezza in qualche modo (come ho già suggerito, una buona soluzione sarebbe stata quella di marcare come NUMA i CCX).

E' solo un test, ma +100% a parità di core e +150% 64 core vs 44 core non mi sembra malaccio... :D Resta da vedere i clock (credo che siano maggiori per ryzen nonostante i maggiori core) e se erano definitivi o ancora ES... Comunque molto promettente...

leoneazzurro
14-03-2017, 09:01
Il Nortwood arrivò a 3,46 Ghz nell'edizione P4 Extreme Edition mentre il Prescott a 3,8 Ghz. L'Athlon 64x2 arrivò a 3,2 Ghz sui 90nm (6200+).

Mister D
14-03-2017, 09:04
No fx 57 2.6, il 4000 era invece 2.4.
Ma sul 90 mm uscì anche un 6200+ ( almeno cpu World lo riporta) che era 3.2 dual core

Ti stai dimenticando il FX-55 da 2,6 GHz, poi superato dal FX-57 da 2,8 entrambi single core sui 90 nm (del fx-55 però esiste una precedente versione sui 130 nm):
http://www.cpu-world.com/CPUs/K8/AMD-Athlon%2064%20FX-57%20-%20ADAFX57DAA5BN%20(ADAFX57BNBOX).html
https://en.wikipedia.org/wiki/List_of_AMD_Athlon_64_microprocessors

Me le ricordavo anche senza link giusto perché all'epoca avevo il 4000+ ed ero interessato a prendere un dual core o uno con moltiplicatore sbloccato, poi intel tirò fuori conroe e pazientando un po' mi tolsi lo sfizio con il fx-60 pagato nuovo 330$ sulla baia da indianapolis:D e come cpu era pure fortunato perché ad arai la tenei per parecchi anni su dfi a 3,1 Ghz.:ciapet:

Mister D
14-03-2017, 09:10
Il Nortwood arrivò a 3,46 Ghz nell'edizione P4 Extreme Edition mentre il Prescott a 3,8 Ghz. L'Athlon 64x2 arrivò a 3,2 Ghz sui 90nm (6200+).

Quello era il core gallatin di derivazione xeon;)
Il nortwood si fermò sui 3,4 e nessuna versione extreme edition;)
https://it.wikipedia.org/wiki/Gallatin_(hardware)
https://it.wikipedia.org/wiki/Pentium_4
http://www.cpu-world.com/Cores/Northwood.html

nickname88
14-03-2017, 10:00
Domanda rivolta a tutti.

Il problema che AMD mostra con la distinzione delle CCX .... per caso è un problema che con le versioni quad core dovrebbe sparire ?

leoneazzurro
14-03-2017, 10:36
Quello era il core gallatin di derivazione xeon;)
Il nortwood si fermò sui 3,4 e nessuna versione extreme edition;)
https://it.wikipedia.org/wiki/Gallatin_(hardware)
https://it.wikipedia.org/wiki/Pentium_4
http://www.cpu-world.com/Cores/Northwood.html

Vero, ricordavo male

leoneazzurro
14-03-2017, 10:57
Questo è molto interessante

https://community.amd.com/community/gaming/blog/2017/03/14/tips-for-building-a-better-amd-ryzen-system

leoneazzurro
14-03-2017, 11:00
Domanda rivolta a tutti.

Il problema che AMD mostra con la distinzione delle CCX .... per caso è un problema che con le versioni quad core dovrebbe sparire ?

Se i quad core sono nativi, non ci possono essere problemi di interscambio tra i CCX, se sono downgrade degli octacore non ci dovrebbero essere problemi in configurazione 4+0, ci sarebbero in configurazione 2+2.
Detto ciò, è probabile che il deficit di clock con le CPU top Intel rimarrà, per le ottimizzazioni specifiche vedremo. Certo è che il prezzo dovrebbe essere a livello di un i3 e non di un i7...

Mister D
14-03-2017, 11:05
Domanda rivolta a tutti.

Il problema che AMD mostra con la distinzione delle CCX .... per caso è un problema che con le versioni quad core dovrebbe sparire ?

Dipende se i 4c saranno riciclati o no da die 8c e in che modo. Se verranno disabilitati 2 core per ciascun ccx allora il problema latenze rimarrà, se invece verrà disabilitato un ccx intero allora il problema sparirà. E questo nel caso si riutilizzo di die 8 core che non passano la selezione come r7.
Se invece useranno le apu raven ridge dal secondo semestre disabilitando la parte gpu allora viene da se che in quel caso essendo solo un ccx il problema non esisterà.
Per come la penso io e per come amd ci ha abituati per me i primi r5 (nei due modelli 1600X e 1500X) proverranno da die 8 core (6c/12 th per il primo e 4c/8th per il secondo) e quindi dipenderà da cosa disabiliteranno nel die.
Invece dal secondo semestre, visto che amd ha dichiarato H2 per i rimanenti r3, i quad core probabilmente deriveranno dalle apu raven ridge. Che poi mi pare un'ipotesi plausibile visto che nel tempo le rese aumenteranno e il numero di scarti diminuirà ergo saranno sempre meno i die 8 core con 4 core "fallati".

nickname88
14-03-2017, 11:14
Se i quad core sono nativi, non ci possono essere problemi di interscambio tra i CCX, se sono downgrade degli octacore non ci dovrebbero essere problemi in configurazione 4+0, ci sarebbero in configurazione 2+2.
Detto ciò, è probabile che il deficit di clock con le CPU top Intel rimarrà, per le ottimizzazioni specifiche vedremo. Certo è che il prezzo dovrebbe essere a livello di un i3 e non di un i7...

Dipende se i 4c saranno riciclati o no da die 8c e in che modo. Se verranno disabilitati 2 core per ciascun ccx allora il problema latenze rimarrà, se invece verrà disabilitato un ccx intero allora il problema sparirà. E questo nel caso si riutilizzo di die 8 core che non passano la selezione come r7.
Se invece useranno le apu raven ridge dal secondo semestre disabilitando la parte gpu allora viene da se che in quel caso essendo solo un ccx il problema non esisterà.
Per come la penso io e per come amd ci ha abituati per me i primi r5 (nei due modelli 1600X e 1500X) proverranno da die 8 core (6c/12 th per il primo e 4c/8th per il secondo) e quindi dipenderà da cosa disabiliteranno nel die.
Invece dal secondo semestre, visto che amd ha dichiarato H2 per i rimanenti r3, i quad core probabilmente deriveranno dalle apu raven ridge. Che poi mi pare un'ipotesi plausibile visto che nel tempo le rese aumenteranno e il numero di scarti diminuirà ergo saranno sempre meno i die 8 core con 4 core "fallati".

I CCX alla fine sono dei moduli, il quad viene venduto a singolo modulo e l'octo viene venduto con due, quindi è logico pensare che gli scarti degli octo saranno solamente gli esa .... su carta.

Poi immagino possa esistere un quad che è uno scarto dell'octo ma non penso mandino in giro quad con differenti prestazioni, quindi se proprio deve essere uno scarto dovrà essere 1 CCX pienamente funzionante ed uno disattivato.

Almeno questo è un ragionamento secondo me logico.


Tornando al discorso di prima comunque, se i quad saranno formati da 1 solo CCX vorrebbe per caso dire che le prestazioni nei giochi a parità di frequenza potrebbero anche essere superiori agli octo ?

Mister D
14-03-2017, 11:17
Bè gli scarti degli octo dovrebbero essere gli esa.

I CCX alla fine sono dei moduli, il quad viene venduto a singolo modulo e l'octo viene venduto con due .... su carta.

Poi immagino possa esistere un quad che è uno scarto dell'octo ma non penso mandino in giro quad con differenti prestazioni, quindi se proprio deve essere uno scarto dovrà essere 1 CXX pienamente funzionante ed uno disattivato.

Almeno questo è un ragionamento secondo me logico.

Condivido appieno;)

MiKeLezZ
14-03-2017, 12:09
Tutto bello e interessante, ma pare che le DX12 permetteranno agli sviluppatori di far scalare i propri giochi su più di 4 core senza diventare matti.

A quel punto le cicale che si son comprate a prezzo pieno il 7700k si compreranno una cpu nuova (e anche una motherboard nuova dato che 1151 è stata relegata a "fascia medio-bassa" da Intel).

Chi s'è preso Ryzen, invece, si farà delle grasse risate. Con buona pace di chi ha pensato che le supercazzole dei fanboy Intel avessero un qualche fondamento.Sia PS4 che XBOX1, le piattaforme di elezione per l'attuale sviluppo videoludico, utilizzano una CPU AMD x86-64 8 core (denominata "Jaguar"). Il problema è che la frequenza di tale CPU è pressapoco la metà delle attuali CPU desktop e, a pari frequenza, un cluster di 4 core Jaguar ha un IPC che è meno della metà di una recente architettura Intel a soli 2 core (non solo: di questi 8 core ne sono utilizzabili solo 6 o 7). In soldoni, un i3-7100 da 3,9 GHz nonostante abbia solo 2 core risulta ben più performante della CPU montata su PS4/XBOX1. Che questa abbia più core non importa, perché dall'altra parte sono eseguiti più thread nello stesso tempo. E' come se da una parte ci fossero a scavare 7 uomini con una pala, mentre dall'altra ci fosse 1 solo uomo, ma con un enorme trattore, in grado di fare il loro stesso lavoro con un solo movimento.

Come da link:
http://www.techpowerup.com/forums/threads/gaming-benchmarks-core-i7-6700k-hyperthreading-test.219417
quasi nessun gioco (a parte 3 eccezioni, che misurano incrementi prestazionali comunque poco rilevanti e solo in scenari particolarmente concitati) sfrutta 8 core/thread (anzi, spesso disabilitare il SMT porta a benefici prestazionali, anche su piattaforma Intel!).
Tutti i giochi per PC, passati e presenti, si limitano a 2 o 4 core/thread, quindi non solo è evidente che oggigiorno tale numero sia sufficiente, ma che tale trend resterà tale per ancora minimo 2 o 3 anni, ovvero fino a quando non usciranno le console next-gen (sempre che non si passi direttamente a sistemi di streaming in stile GeForce GRID).

Andando a spulciare l'hardware in questo momento più diffuso:
http://store.steampowered.com/hwsurvey
si nota come il 50% dei videogiocatori abbia 3 o 4 CPU, il 48% ne abbia 1 o 2 e solo il 1,6% ne abbia 5 o più.

Quindi si può tranquillamente affermare che per videogiocare su PC -ora e nell’immediato futuro- 4 core bastino, e nessuna software house si prenderà la briga di investire risorse nel sfruttarne di più, se non obbligata per motivi di marketing (ovvero dietro foraggiamento).

Anche i casi in cui risultano effettivamente utili più di 4 core (che alla fine, su migliaia di titoli esistenti, sono solo 3: "Watch Dogs 2", "Total War: Warhammer" e "Battlefield 1 M.P.") sono solo casualità determinate da engine di gioco particolarmente pesanti (per "TW:H" è colpa dei molti oggetti animati a schermo, per "BF1" dei 64 giocatori contemporanei sulla mappa) o male ottimizzati ("Watch Dogs 2" non scala con l'IPC, ma con il numero di core, evidentemente utilizzando codice eccessivamente parallelizzato) e nulla che non potrà esser tenuto a bada con un futuro upgrade VGA, senza starsi a svenare adesso su un inutile upgrade CPU.

Anzi, essendo ancora così elevata la diffusione di PC con 2 core gli sviluppatori sono spesso costretti a NON aumentare troppo il parallelismo (ed è per questo che le prestazioni spesso dipendono unicamente dalle frequenze di funzionamento della CPU): è contro il loro interesse sviluppare giochi fruibili unicamente dalla metà degli attuali videogiocatori. Non è un caso che oggi per videogiocare sia sufficiente anche solo un Pentium G4560 con 2 core fisici (e 2 virtuali) da 53€ (che accoppiato a una "semplice" GTX1070 spara oltre 80fps a 1080p in "Rise of the Tomb Raider"... non so se rendo l'idea!)... altro che i7-7700K!!!

L'acquisto di un octa-core per i videogiochi non credo avrà senso prima di 3 anni e comunque, per chi è deciso a tale upgrade, ha sicuramente più senso aspettare le future evoluzioni CPU, che sia un Zen 2 con i vari problemi sistemati che un Cannonlake con presumibilmente anche un maggiore IPC degli attuali Kaby Lake.

Beninteso: lungi da me affermare che un Pentium equivalga a un 7770K, in 2 ore di gioco magari ci potranno essere alcuni istanti in cui i fps crollano, magari per poi tornare subito dopo stabili, ma è così da 30 anni, nelle console, nei cabinati, nel mondo PC (CLICK (http://www.tomshardware.com/reviews/nvidia,87-7.html)). Per 300€ risparmiati credo si possa chiudere un occhio. Inoltre se gli fps medi fossero anche 70 per il Pentium, 90 per l'i7 e 110 per l'R7, se si usa un monitor da 60Hz non cambierà un fico secco, venendo TUTTI questi limitati a una riproduzione di 60fps.

p.s. Io al momento gioco con un dual-core di 8 anni fa e viaggio sui 60fps a 1080p, che scendono a dei comunque accettabili 30fps negli scenari più concitati. Chiaramente ho una GTX1060 ad assistermi. A volte un "reality check" su ciò che sia veramente "necessario" non farebbe male.

leoneazzurro
14-03-2017, 13:17
Tornando al discorso di prima comunque, se i quad saranno formati da 1 solo CCX vorrebbe per caso dire che le prestazioni nei giochi a parità di frequenza potrebbero anche essere superiori agli octo ?

Potrebbe essere, in quei giochi che sfruttano pochi thread e fanno thread juggling (lo scambio selvaggio di thread che potrebbe portare ai problemi di latenza tra CCX). Se un gioco sfrutta bene il numero di core, le prestazioni saranno inferiori.

nickname88
14-03-2017, 13:18
Sia PS4 che XBOX1, le piattaforme di elezione per l'attuale sviluppo videoludico, utilizzano una CPU AMD x86-64 8 core (denominata "Jaguar"). Il problema è che la frequenza di tale CPU è pressapoco la metà delle attuali CPU desktop e, a pari frequenza, un cluster di 4 core Jaguar ha un IPC che è meno della metà di una recente architettura Intel a soli 2 core (non solo: di questi 8 core ne sono utilizzabili solo 6 o 7). In soldoni, un i3-7100 da 3,9 GHz nonostante abbia solo 2 core risulta ben più performante della CPU montata su PS4/XBOX1. Che questa abbia più core non importa, perché dall'altra parte sono eseguiti più thread nello stesso tempo. E' come se da una parte ci fossero a scavare 7 uomini con una pala, mentre dall'altra ci fosse 1 solo uomo, ma con un enorme trattore, in grado di fare il loro stesso lavoro con un solo movimento.

Come da link:
http://www.techpowerup.com/forums/threads/gaming-benchmarks-core-i7-6700k-hyperthreading-test.219417
quasi nessun gioco (a parte 3 eccezioni, che misurano incrementi prestazionali comunque poco rilevanti e solo in scenari particolarmente concitati) sfrutta 8 core/thread (anzi, spesso disabilitare il SMT porta a benefici prestazionali, anche su piattaforma Intel!).
Tutti i giochi per PC, passati e presenti, si limitano a 2 o 4 core/thread, quindi non solo è evidente che oggigiorno tale numero sia sufficiente, ma che tale trend resterà tale per ancora minimo 2 o 3 anni, ovvero fino a quando non usciranno le console next-gen (sempre che non si passi direttamente a sistemi di streaming in stile GeForce GRID).

Andando a spulciare l'hardware in questo momento più diffuso:
http://store.steampowered.com/hwsurvey
si nota come il 50% dei videogiocatori abbia 3 o 4 CPU, il 48% ne abbia 1 o 2 e solo il 1,6% ne abbia 5 o più.

Quindi si può tranquillamente affermare che per videogiocare su PC -ora e nell’immediato futuro- 4 core bastino, e nessuna software house si prenderà la briga di investire risorse nel sfruttarne di più, se non obbligata per motivi di marketing (ovvero dietro foraggiamento).

Anche i casi in cui risultano effettivamente utili più di 4 core (che alla fine, su migliaia di titoli esistenti, sono solo 3: "Watch Dogs 2", "Total War: Warhammer" e "Battlefield 1 M.P.") sono solo casualità determinate da engine di gioco particolarmente pesanti (per "TW:H" è colpa dei molti oggetti animati a schermo, per "BF1" dei 64 giocatori contemporanei sulla mappa) o male ottimizzati ("Watch Dogs 2" non scala con l'IPC, ma con il numero di core, evidentemente utilizzando codice eccessivamente parallelizzato) e nulla che non potrà esser tenuto a bada con un futuro upgrade VGA, senza starsi a svenare adesso su un inutile upgrade CPU.

Anzi, essendo ancora così elevata la diffusione di PC con 2 core gli sviluppatori sono spesso costretti a NON aumentare troppo il parallelismo (ed è per questo che le prestazioni spesso dipendono unicamente dalle frequenze di funzionamento della CPU): è contro il loro interesse sviluppare giochi fruibili unicamente dalla metà degli attuali videogiocatori. Non è un caso che oggi per videogiocare sia sufficiente anche solo un Pentium G4560 con 2 core fisici (e 2 virtuali) da 53€ (che accoppiato a una "semplice" GTX1070 spara oltre 80fps a 1080p in "Rise of the Tomb Raider"... non so se rendo l'idea!)... altro che i7-7700K!!!

L'acquisto di un octa-core per i videogiochi non credo avrà senso prima di 3 anni e comunque, per chi è deciso a tale upgrade, ha sicuramente più senso aspettare le future evoluzioni CPU, che sia un Zen 2 con i vari problemi sistemati che un Cannonlake con presumibilmente anche un maggiore IPC degli attuali Kaby Lake.

Beninteso: lungi da me affermare che un Pentium equivalga a un 7770K, in 2 ore di gioco magari ci potranno essere alcuni istanti in cui i fps crollano, magari per poi tornare subito dopo stabili, ma è così da 30 anni, nelle console, nei cabinati, nel mondo PC (CLICK (http://www.tomshardware.com/reviews/nvidia,87-7.html)). Per 300€ risparmiati credo si possa chiudere un occhio. Inoltre se gli fps medi fossero anche 70 per il Pentium, 90 per l'i7 e 110 per l'R7, se si usa un monitor da 60Hz non cambierà un fico secco, venendo TUTTI questi limitati a una riproduzione di 60fps.

p.s. Io al momento gioco con un dual-core di 8 anni fa e viaggio sui 60fps a 1080p, che scendono a dei comunque accettabili 30fps negli scenari più concitati. Chiaramente ho una GTX1060 ad assistermi. A volte un "reality check" su ciò che sia veramente "necessario" non farebbe male.
Scusa ma il dual core è oramai alle porte ed è evidente dai video comparativi.
Il quad no, ma il dual direi proprio di sì.

fraquar
14-03-2017, 13:37
Scusa ma il dual core è oramai alle porte ed è evidente dai video comparativi.
Il quad no, ma il dual direi proprio di sì.

Non esiste un motore grafico in commercio che richieda più di un dual core.
Tutti sono ottimizzati per il dual e sarà così almeno per 3 anni.
Tra 3 anni passeranno a 4 core? Chi lo sa!
Io spero di si ma il problema me lo porrò tra 3 anni non ora.
Non voglio prendere nulla ora sperando che un giorno mi servirà.
Oggi compro quello che va meglio... oggi.
Tra 3 anni se ci sarà necessità di passare a 16 core mi adeguerò.

von Clausewitz
14-03-2017, 13:38
Quello era il core gallatin di derivazione xeon;)
Il nortwood si fermò sui 3,4 e nessuna versione extreme edition;)
https://it.wikipedia.org/wiki/Gallatin_(hardware)
https://it.wikipedia.org/wiki/Pentium_4
http://www.cpu-world.com/Cores/Northwood.html

il core gallatin deriva dal nortwood e rispetto a quest'ultimo aveva la cache L3 da 2mb, la versione extreme edition fu adattata sia alle schede madri socket 478 che 775 mantenendo la cache L3 ma aumentando il bus, ma si può classificare a tutti gli effetti come nortwood dato che il design è lo stesso e infatti Intel lo classifica come tale

http://ark.intel.com/products/27491/Pentium-4-Processor-Extreme-Edition-supporting-HT-Technology-3_46-GHz-2M-Cache-1066-MHz-FSB

mamma mia il vezzo di fare precisini, il punto se ti fosse sfuggito è fin dove si spinse Intel con i 130 nm sui pentium 4 :rolleyes:

george_p
14-03-2017, 13:39
E tu pensi che, in questa situazione, le software house, tutte, si "divertano" a investire soltanto per sistemare i problemi di Ryzen, che peraltro ha una sparuta quota di mercato?


Non c'entra nulla ciò che credo io, semplicemente si discuteva del fatto che questa è una cpu nuova che, quote di mercato a parte, non ha nessun tipo di ottimizzazione come invece le ha quasi ogni cpu intel, semplice.
lato silicio idem.

nickname88
14-03-2017, 13:40
Non esiste un motore grafico in commercio che richieda più di un dual core.
Tutti sono ottimizzati per il dual e sarà così almeno per 3 anni.
Tra 3 anni passeranno a 4 core? Chi lo sa!
Io spero di si ma il problema me lo porrò tra 3 anni non ora.
Non voglio prendere nulla ora sperando che un giorno mi servirà.
Oggi compro quello che va meglio... oggi.
Tra 3 anni se ci sarà necessità di passare a 16 core mi adeguerò.

https://www.youtube.com/watch?v=TtpSiYFFjbI

MiKeLezZ
14-03-2017, 13:53
https://www.youtube.com/watch?v=TtpSiYFFjbISecondo il mio "reality check" fare 110 fps con 50 euro di CPU (dual-core) può bastare. Visto che oltre i 60 fps vanno generalmente sprecati.

https://www.youtube.com/watch?v=oy7VLV5Knxw

Poi liberi di comprarvi anzi 550 euro di CPU (giusto 5 volte tanto) per fare i fighi sui forum e/o passare le giornate a rippare i blu-ray.

Oppure una più onesta via di mezzo.

Cerchiamo solo di distinguere sfizio da necessità.

fraquar
14-03-2017, 14:20
https://www.youtube.com/watch?v=TtpSiYFFjbI

E cosa c'entra? :muro:

skadex
14-03-2017, 14:37
Da possessore di un dual core (un vecchio ma valido e8400), pur non essendo fanatico di filtri e robe simili, in fullhd ci si è arrivati fino ad oggi in maniera abbastanza comoda.
Forse non i 60fps stabili, ma si giocava onestamente.
Adesso davvero non ce la fanno più, ci sono le eccezioni ma c'è il fiato tirato in maniera evidente.
Chi come me vuole anche giocarci con il pc e si trova nella medesima situazione non può pensare a un dual core. Ovviamente budget a parte.
Penso che anche a volersi rifare oggi un pc, passare ad un quadcore non sia molto intelligente considerando quanto vanno questi ryzen anche in game.
Non penso che i rispettivi quadcore e esacore andranno di più ma in compenso i prezzi bassi daranno comeunque alternative economiche fino ad oggi impensabili.
Ma se hai soldi per farlo il 1700 è la cpu da prendere senza sè e senza ma al momento.

NvidiaMen
14-03-2017, 14:44
EDIT. @NvidiaMen: ho letto anche il tuo messaggio, ma una risposta la trovi già in ciò che ho scritto a george.

Purtroppo cambiare il codice per sfruttare più core non è affatto semplice. I motori di rendering 3D è da quando sono nati che si possono facilmente adattare a sfruttare più core: è quella tipologia di codice che scala molto, molto bene. Ma non è affatto così in generale.

Le analisi fatte oggi nel mondo dell'informatica sono già obsolete domani mattina. Chi avrebbe mai scommesso che in un prossimo futuro attraverso la funzionalità Explicit Multi-GPU di API Vulkan (https://www.tomshw.it/api-vulkan-migliore-supporto-multi-gpu-futuro-83849) è possibile far elaborare come se fosse un unico dispositivo logico anche più GPUs di diversi produttori ed accedere alle rispettive memorie eliminando il vincolo di replica dei dati?

Questo approccio è molto e notevolmente più complesso che sviluppare motori 3D per qualche core in più eppure lo si sta perseguendo.


Per parlare di raytracing nei giochi è ancora presto, ma considera che in un gioco non c'è il mero rendering della scena, ma altro da calcolare.

Adesso devo correre a lavoro. Buona giornata a tutti. :)

Lavorandoci con algoritmi di ray-tracing credo di sapere che non c'è solo il mero rendering il quale, tra l'altro sarebbe in carico alla GPU per la fase di rappresentazione su schermo. Alla CPU sarebbe demandato il compito di calcolare la riflessione del raggio, la sua rifrazione (o l'assorbimento) e le ombre partendo dall'oggetto illuminato andando a ritroso verso la sorgente di illuminazione. Il risultato qualitativo dipende dal numero di interazioni (ad esempio numero di rifrazioni) che viene stabilito in base alla potenza di calcolo messa a disposizione ed in base al numero di sorgenti luminose presenti nella scena. Nel caso del photom mapping si gestisce il numero di fotoni e dei loro rimbalzi su altri oggetti illuminati indirettamente. Più unità di calcolo parallelo ci sono (cores) più rapida sarà la ricostruzione dei percorsi luminosi calcolati (https://www.youtube.com/watch?v=ianMNs12ITc), sulla falsariga di quel che accade in Cinema 4D, 3D Studio Max, Blender, SketchUp attraverso l'algoritmo V-Ray o SBrusse (https://www.youtube.com/watch?v=raxoyqpOayM).
Vale sempre l'invito di abbandonare, in qualità di consumatori, al più presto i processori quadcore a favore di quelli octacore per creare le basi per un ulteriore passo in avanti anche in ambito gaming dove le risorse (finanziarie) di sviluppo sono enormemente più ampie e maggiori rispetto ai limitati mercati a destinazione professionale.
Buon lavoro a te ed un saluto a tutti.

MiKeLezZ
14-03-2017, 14:52
Da possessore di un dual core (un vecchio ma valido e8400), pur non essendo fanatico di filtri e robe simili, in fullhd ci si è arrivati fino ad oggi in maniera abbastanza comoda.
Forse non i 60fps stabili, ma si giocava onestamente.
Adesso davvero non ce la fanno più, ci sono le eccezioni ma c'è il fiato tirato in maniera evidente.
Chi come me vuole anche giocarci con il pc e si trova nella medesima situazione non può pensare a un dual core. Ovviamente budget a parte.
Penso che anche a volersi rifare oggi un pc, passare ad un quadcore non sia molto intelligente considerando quanto vanno questi ryzen anche in game.
Non penso che i rispettivi quadcore e esacore andranno di più ma in compenso i prezzi bassi daranno comeunque alternative economiche fino ad oggi impensabili.
Ma se hai soldi per farlo il 1700 è la cpu da prendere senza sè e senza ma al momento.Ricordati che un attuale Intel G4560 è circa il 75% più prestante del tuo E8400, pur rimanendo sul dual-core la differenza sarebbe astronomica.

nickname88
14-03-2017, 15:16
Secondo il mio "reality check" fare 110 fps con 50 euro di CPU (dual-core) può bastare. Visto che oltre i 60 fps vanno generalmente sprecati.

https://www.youtube.com/watch?v=oy7VLV5Knxw

Poi liberi di comprarvi anzi 550 euro di CPU (giusto 5 volte tanto) per fare i fighi sui forum e/o passare le giornate a rippare i blu-ray.

Oppure una più onesta via di mezzo.

Cerchiamo solo di distinguere sfizio da necessità.
Lo scopo era un altro.
Quello di mostrato che nei giochi il quad anche con SMT è sfruttato e pesa sul dual, e per giunta alcun di quei titoli sono pure VGA limited.

AoS : 20 vs 38
TW3 : 64 vs 112
Tomb Raider : 54 vs 102
AC : 68 vs 112
Crysis : 30 vs 68

Sinceramente non so dove li vedi i 110fps, e pensare che mancano Total War, BF, Watch Dogs ed Anno.

skadex
14-03-2017, 16:25
Ricordati che un attuale Intel G4560 è circa il 75% più prestante del tuo E8400, pur rimanendo sul dual-core la differenza sarebbe astronomica.

Non lo metto in dubbio ma i tempi iniziano ad essere maturi per il cambiamento e i limiti iniziano a venire fuori.
Se il budget è molto limitato sono d'accordo, ma se si dispone di più risorse sarebbe saggio vedere un po' più in là.
Discorso valido ovviamente per chi non cambia configurazione ogni 1-2 anni, altrimenti chiaramente non ha senso.

LMCH
14-03-2017, 19:17
Hum. Ho letto poco, ma da quel che ho capito l'applicazione definisce (a livello di ISA / istruzioni) se usare vettori da 128, 512, o 2048 bit. Poi è l'implementazione specifica che, se ce la fa, esegue in un colpo l'operazione, oppure la suddivide in base alla massima dimensione che riesce a gestire.

Ma ribadisco: è quel ricordo da ciò che lessi tempo fa. Per cui potrei anche sbagliarmi.

In ogni caso il nocciolo della discussione è che pure ARM crede nelle unità SIMD "massicce".

Le SVE NON SONO delle unità SIMD come SSE, AVX o NEON, sono dei veri e propri vector processor con set d'istruzioni indipendenti dalla dimensione dei registri dati della specifica implementazione.

Gli unici vincoli sono la granularita dei registri ad unità di 128bit
(da un minimo di 128bit su fino a 2048 bit) legati ai registri dei predicati.
Questo pemette di avere codice vettoriale che può sfruttare al massimo distinte implementazioni di SVE senza dover ricompilare.

Quindi in base alla convenienza si possono estendere o restringere i registri dati (ed i datapath) delle varie implementazioni in base alle specifiche esigenze, senza dover ricompilare di volta in volta per adattarsi all'implementazione "ridimensionata".

In pratica i "registri dati" di SVE sono dei "descrittori di vettori" che a livello software si possono dimensionare da 128 a 2048 bit (con istruzioni per gestire gli sfridi, gather load e scatter store per "riorganizzare" i dati, ecc.) mentre i datapath ed i"registri buffer" dele ALU vettoriali dipendono dall'implementazione specifica.

Non si ragiona in termini di registri ma di veri e proprio di vettori
( fino a 2048bit con singole istruzioni assembly, con funzioni/subroutine che si appoggiano sulle istruzioni SVE per dimensioni superiori ).

Questo elimina alla radice i problemi di ricompilazione/riottimizzazione che si sono avuti passando da MMX a SSE, AVX, ecc. e da pure una maggior flessibilità nella progettazione di sistemi i multicore
( si possono ridimensionare pure ALU e registri dati, ad esempio riducendoli su implementazioni a parallelismo massiccio per integrare un maggior numero di core o salire di più di frequenza).

Maggiori dettagli in questo pdf. (https://developer.arm.com/hpc/a-sneak-peek-into-sve-and-vla-programming)

cdimauro
15-03-2017, 05:26
Se devi fare un filtro gaussiano, un kernel 3x3 è molto grossolano, a meno che il kernel non abbia una FWHM di molto meno di un pixel. Nel mio codice in genere uso una griglia sufficiente ad avere punti del kernel all'1%, quindi almeno 5-6 volte la FWHM.
Sono riuscito a recuperare le informazioni sui filtri personalizzati di Photoshop (http://www.photoshopsupport.com/photoshop-cs3/forensic/custom-filters.html).

Come puoi vedere, utilizza una matrice 5x5, ma... di interi. E dai numeri ed esempi immagino che li utilizzino a 16 bit. Dunque una riga ci starebbe benissimo in un registro vettoriale a 128 bit.
Mi sono spiegato male... :D Per martellate intendevo l'atteggiamento Tafazziano di INTEL di togliere, per questioni meramente di marketing, i 256 bit dalle CPU low cost, limitandone di molto la diffusione...
Ah, OK. Scusami, ma non avevo capito. Su questo non posso che darti ragione. Posso capire differenziare il mercato con processori aventi HT abilitato o no, o sulle varie tecnologie di virtualizzazione, protezione della memoria, secure enclave, ecc.. Ma almeno l'ISA "base" (e l'unità SIMD c'è ormai entrata di diritto), dovrebbe essere sempre messa a disposizione. :muro:
Ho postato qualche giorno fa un link su anand (indirizzato a te) di un test su Dolphin, dove un ryzen 4GHz straccia una CPU serie 4xxx a 4.2GHz... :D Non so quanto siano aumentate le prestazioni in skylake, ma non mi sembra malaccio... :D
Sì, ne avevamo parlato, ma era l'overclock di un utente. Mentre io avevo riportato i risultati di computerbase.de (https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/3/#diagramm-dolphin-cpu-benchmark), che mi pare sia eloquente. :)
E' solo un test, ma +100% a parità di core e +150% 64 core vs 44 core non mi sembra malaccio... :D Resta da vedere i clock (credo che siano maggiori per ryzen nonostante i maggiori core) e se erano definitivi o ancora ES... Comunque molto promettente...
Dopo aver visto la prima presentazione con solo Blender. Poi con Blender e Handbrake. Poi con Blender, Handbreak, e Cinebench. E infine i risultati delle varie recensioni, che hanno sgonfiato il miracolo e riportato i piedi per terra, diciamo che preferisco aspettare che Naples venga commercializzato e recensito da terzi. ;)

cdimauro
15-03-2017, 05:42
Ci sono pochi dubbi sulla ricezione delle DX12 da parte degli sviluppatori: troppi giochi DX11 hanno ricevuto corpose patch per lavorare con le nuove librerie per dubitarne. Non credo si siano presi la briga di rifare i motori grafici perchè non sapevano come riempire le giornate... l'hanno fatto per mettersi in tasca un solido know-how sulla nuova tecnologia, così da poter lavorare sui nuovi progetti: che saranno tutti nativi DX12 imho.
Ciò contribuisce sicuramente a snellire l'interfacciamento fra gioco e sottosistema grafico, consentendone di distribuire molto meglio il lavoro ai vari core/thread hardware a disposizione. Ma se hai visto i grafici delle differenze di carico fra DX11 e DX12, il primo core rimane sempre il più tartassato, mentre un po' di carico lo ricevono anche gli altri, ma non in maniera comparabile, e via via scemando.

Ma questo vale per il solo interfacciamento fra gioco e il sottosistema grafico, per l'appunto. Poi c'è da gestire la scena, i vari elementi, la fisica, l'IA, l'audio, su cui le DX12 non contribuiscono ad alcun miglioramento.
Intel lo sa e non sta certo a guardare: non è un caso che 1151 sia diventato "la piattaforma di fascia medio-bassa", con Cannonlake ci sarà certamente una forte riduzione dei prezzi dei processori con più di quattro core, allieandosi a Ryzen.
Al momento la sorpresa è rappresentata proprio da Intel, che non ha abbassato i prezzi, nemmeno delle versioni a 8 core delle sue CPU (http://ark.intel.com/products/94196/Intel-Core-i7-6900K-Processor-20M-Cache-up-to-3_70-GHz): Recommended Customer Price $1089.00 - $1109.00

Personalmente pensavo che almeno questi top di gamma avrebbe dovuto ritoccarli. E invece... niente!

E nemmeno il presunto Kaby Lake pompato con 100Mhz e 10W in più s'è fatto vivo. Sparito dalla circolazione.
Per questo dico che è da stupidi spendere tanto per comprarsi un 7700k oggi. Meglio un Ryzen 1700, acerbo finchè vuoi.
C'è gente che la può pensare in maniera diametralmente opposta: anziché affidarsi a un prodotto immaturo e che rimarrà inutilizzato ancora chissà per quanto tempo, preferisce affidarsi a un prodotto che già oggi è solido e gli consente di ottenere ottime prestazioni in molti ambiti "consumer".
O, se proprio odi AMD perchè senza blu non puoi stare, un i7 haswell usato a 150 euro, così ti bastano le ddr3 (che hanno cmq ottime prestazioni e non sono assurdamente sovraprezzate come le ddr4) per svernare fino all'arrivo di Cannonlake e Zen+.
Non mi confondere coi fanboy. Io guardo alle MIE esigenze e al mio portafogli.

Al momento non ho alcun bisogno di processori nuovi, visto che ho 2 Skylake "a uso desktop", più laptop, netbook, nettop, e chissà cos'altro ho dimenticato.

Quando si romperà qualcuno di questi, vedrò ciò che ci sarà in giro, e deciderò di conseguenza.

Per il resto trovo ridicolo che ci si debba fare la guerra per dei pezzi di silicio. A maggior ragione se non si è dipendenti o azionisti. E' del tutto insensato. Illogico. Incomprensibile... come la natura umana. Bah.

Meglio discutere sul piano tecnico.
Questo è molto interessante

https://community.amd.com/community/gaming/blog/2017/03/14/tips-for-building-a-better-amd-ryzen-system
Soprattutto per chi dovrà comprare le memorie per Ryzen... :D

cdimauro
15-03-2017, 05:53
Non c'entra nulla ciò che credo io, semplicemente si discuteva del fatto che questa è una cpu nuova che, quote di mercato a parte, non ha nessun tipo di ottimizzazione come invece le ha quasi ogni cpu intel, semplice.
Ma quali ottimizzazioni avrebbero i giochi per le CPU Intel? Che ciò da cui è partita la nostra (sotto)discussione.

L'SMT, infatti, crea problemi anche alle CPU Intel, com'è stato mostrato con test in cui è stato disattivato, sebbene in misura minore rispetto a Ryzen. Ma il problema è lì, da parecchio tempo, pur tenendo conto che Intel è l'azienda dominante.
lato silicio idem.
Il silicio è ormai maturo, dopo 15 mesi dalla commercializzazione dei primi prodotti da parte di GF, per cui non aspettatevi dei cambiamenti in merito.
Le analisi fatte oggi nel mondo dell'informatica sono già obsolete domani mattina. Chi avrebbe mai scommesso che in un prossimo futuro attraverso la funzionalità Explicit Multi-GPU di API Vulkan (https://www.tomshw.it/api-vulkan-migliore-supporto-multi-gpu-futuro-83849) è possibile far elaborare come se fosse un unico dispositivo logico anche più GPUs di diversi produttori ed accedere alle rispettive memorie eliminando il vincolo di replica dei dati?

Questo approccio è molto e notevolmente più complesso che sviluppare motori 3D per qualche core in più eppure lo si sta perseguendo.

Lavorandoci con algoritmi di ray-tracing credo di sapere che non c'è solo il mero rendering il quale, tra l'altro sarebbe in carico alla GPU per la fase di rappresentazione su schermo. Alla CPU sarebbe demandato il compito di calcolare la riflessione del raggio, la sua rifrazione (o l'assorbimento) e le ombre partendo dall'oggetto illuminato andando a ritroso verso la sorgente di illuminazione. Il risultato qualitativo dipende dal numero di interazioni (ad esempio numero di rifrazioni) che viene stabilito in base alla potenza di calcolo messa a disposizione ed in base al numero di sorgenti luminose presenti nella scena. Nel caso del photom mapping si gestisce il numero di fotoni e dei loro rimbalzi su altri oggetti illuminati indirettamente. Più unità di calcolo parallelo ci sono (cores) più rapida sarà la ricostruzione dei percorsi luminosi calcolati (https://www.youtube.com/watch?v=ianMNs12ITc), sulla falsariga di quel che accade in Cinema 4D, 3D Studio Max, Blender, SketchUp attraverso l'algoritmo V-Ray o SBrusse (https://www.youtube.com/watch?v=raxoyqpOayM).
Stai rimanendo sempre in ambito grafico, dove è naturale parallelizzare & distribuire i carichi di lavoro. Ovviamente la tecnologia avanza, si affina, arrivano sempre novità per avere prestazioni migliori, ma il trend generale non cambia: sono algoritmi altamente scalabili.

D'altra parte l'evoluzione delle GPU penso sia eloquente: siamo arrivati a migliaia di core integrati, che processano e renderizzano le scena.

Ma in altri ambiti non è affatto così. Anzi, alcuni problemi sono intrinsecamente seriali, e non possono nemmeno avvantaggiarsi di qualche thread hardware in più.

Faccio il classico esempio dell'emulazione: emulare un processore fa parte di queste tipologie di codice assolutamente non parallelizzabili. Puoi metterci tutto l'impegno e le risorse che vuoi: sarà sempre e soltanto un core / thread hardware a potersi fare carico dell'operazione.
Vale sempre l'invito di abbandonare, in qualità di consumatori, al più presto i processori quadcore a favore di quelli octacore per creare le basi per un ulteriore passo in avanti anche in ambito gaming dove le risorse (finanziarie) di sviluppo sono enormemente più ampie e maggiori rispetto ai limitati mercati a destinazione professionale.
Buon lavoro a te ed un saluto a tutti.
Come già detto, sistemi con più core e/o più thread hardware ci sono ormai da più di 15 anni, eppure sono ancora poco sfruttati, e tante volte non certo per la pigrizia dei programmatori (vedi sopra).

Inoltre le software house hanno budget da rispettare, e dunque anche nel caso in cui del codice sia parallelizzabile, bisogna investirci.

cdimauro
15-03-2017, 06:02
Non lo metto in dubbio ma i tempi iniziano ad essere maturi per il cambiamento e i limiti iniziano a venire fuori.
Se il budget è molto limitato sono d'accordo, ma se si dispone di più risorse sarebbe saggio vedere un po' più in là.
Discorso valido ovviamente per chi non cambia configurazione ogni 1-2 anni, altrimenti chiaramente non ha senso.
Ma il rischio rimane quello di aver investito in qualcosa che verrà utilizzato, se va bene, fra un po' di anni, quando ci saranno già soluzioni molto più performanti ed economiche.
Le SVE NON SONO delle unità SIMD come SSE, AVX o NEON, sono dei veri e propri vector processor con set d'istruzioni indipendenti dalla dimensione dei registri dati della specifica implementazione.

Gli unici vincoli sono la granularita dei registri ad unità di 128bit
(da un minimo di 128bit su fino a 2048 bit) legati ai registri dei predicati.
Questo pemette di avere codice vettoriale che può sfruttare al massimo distinte implementazioni di SVE senza dover ricompilare.

Quindi in base alla convenienza si possono estendere o restringere i registri dati (ed i datapath) delle varie implementazioni in base alle specifiche esigenze, senza dover ricompilare di volta in volta per adattarsi all'implementazione "ridimensionata".

In pratica i "registri dati" di SVE sono dei "descrittori di vettori" che a livello software si possono dimensionare da 128 a 2048 bit (con istruzioni per gestire gli sfridi, gather load e scatter store per "riorganizzare" i dati, ecc.) mentre i datapath ed i"registri buffer" dele ALU vettoriali dipendono dall'implementazione specifica.

Non si ragiona in termini di registri ma di veri e proprio di vettori
( fino a 2048bit con singole istruzioni assembly, con funzioni/subroutine che si appoggiano sulle istruzioni SVE per dimensioni superiori ).

Questo elimina alla radice i problemi di ricompilazione/riottimizzazione che si sono avuti passando da MMX a SSE, AVX, ecc. e da pure una maggior flessibilità nella progettazione di sistemi i multicore
( si possono ridimensionare pure ALU e registri dati, ad esempio riducendoli su implementazioni a parallelismo massiccio per integrare un maggior numero di core o salire di più di frequenza).

Maggiori dettagli in questo pdf. (https://developer.arm.com/hpc/a-sneak-peek-into-sve-and-vla-programming)
Grazie per il documento, che finalmente ha fatto chiarezza su quest'oggetto misterioso. :)

Ti confermo che NON si tratta di un coprocessore. :D

Per fare un paragone, SVE sta a NEON come AVX-512 ad SSE/AVX. :)

E non a caso, visto che ha preso a piene mani dalle AVX-512 di Intel:
- vettori ampi, che si mappano sugli esistenti registri dell'unità SIMD preesistente;
- registri di maschera che qui vengono chiamati di predizione;
- concetto di lane, con relativa modalità di merge o zeroing;
- istruzioni condizionate che sfruttano i suddetti registri di predizione;
- istruzioni che generano maschere per i registri di predizione;
- istruzioni di loop basate sui registri di predizione;
- modalità d'indirizzamento della memoria con gather/scatter sfruttando registri vettoriali.

Ovviamente ha esteso il tutto, con una versione vector-length agnostic, per l'appunto (e dunque con opportune istruzioni che servono allo scopo). ;)

Buona giornata a tutti. :)

leoneazzurro
15-03-2017, 08:52
Soprattutto per chi dovrà comprare le memorie per Ryzen... :D

Non proprio... sicuramente si guadagna anche lì (il 7%) ma il post riguarda soprattutto dei problemi specifici di alcuni giochi e le configurazioni generati da essi e salvate sul cloud. Questo spiega le discrepanze tra le recensioni in quel gioco, e chissà che non salti fuori anche qualche altra magagna del genere in altri giochi.

LMCH
15-03-2017, 09:16
Grazie per il documento, che finalmente ha fatto chiarezza su quest'oggetto misterioso. :)

Ti confermo che NON si tratta di un coprocessore. :D

Dipende dall'implementazione, non ti fare ingannare dalla mappatura logica dei registi NEON.
Nell' implementazione massima (registri a 2048bit) devono essere per forza un unità funzionale separata, a tutti gli effetti un coprocessore.
Il grosso vantaggio rispetto ad altri approcci è che nelle implementazioni più "spartane"
si possono integrare nei core aggiungendo una manciata di registri dei predicati
senza neanche dove ampliare i datapath e mantenendo piena compatibilità con una implementazione a 2048bit.


Per fare un paragone, SVE sta a NEON come AVX-512 ad SSE/AVX. :)

Non è un estensione dello stesso concetto, l'idea di base non è "unita SIMD" ma unità ottimizzata per l'elaborazione di vettori di lunghezza variabile che per avere le massime prestazioni non richiede riscrittura o ricompilazione del codice per adattarsi a differenti dimensioni dei registri "interni" come invece succede con le SIMD ( e con la possibilità di cambiare l'ampiezza dei registri e dei datapath come più torna comodo).

Come modello architetturale e modello di programmazione è tutto un altro paio di maniche rispetto ad AVX-512.

O per dirla in un altro modo sarebbe come avere un unico set d'istruzioni
AVX identico per AVX, AVX-512, AVX-768,.., AVX-1024,...,AVX-2048
e con codice ottimizzato esclusivamente per AVX-2048 che gira senza ricompilare e senza degrado di prestazioni (rispetto alla specifica cpu) su un implementazione "solo" AVX.
Questo perche si ragiona, si codifica e si ottimizza il codice SVE in termini di VETTORI (con lunghezza generica), non in termini di registri "multimediali" di lunghezza fissa.



E non a caso, visto che ha preso a piene mani dalle AVX-512 di Intel:
- vettori ampi, che si mappano sugli esistenti registri dell'unità SIMD preesistente;
- registri di maschera che qui vengono chiamati di predizione;
- concetto di lane, con relativa modalità di merge o zeroing;
- istruzioni condizionate che sfruttano i suddetti registri di predizione;
- istruzioni che generano maschere per i registri di predizione;
- istruzioni di loop basate sui registri di predizione;
- modalità d'indirizzamento della memoria con gather/scatter sfruttando registri vettoriali.

Ovviamente ha esteso il tutto, con una versione vector-length agnostic, per l'appunto (e dunque con opportune istruzioni che servono allo scopo). ;)

La mappatura (parziale) sui NEON serve per semplificare l'interscambio dati sui registri interni senza dover aggiungere istruzioni ad hoc e per rendere ancora più compatta l'implementazione minima ( SVE-128 ).

E, ripeto, il fatto che SVE sia vector-lenght agnostic cambia totalmente le carte in tavola rispetto ad un architettura SIMD, specialmente sul lato software.

george_p
15-03-2017, 11:31
Ma quali ottimizzazioni avrebbero i giochi per le CPU Intel? Che ciò da cui è partita la nostra (sotto)discussione.

L'SMT, infatti, crea problemi anche alle CPU Intel, com'è stato mostrato con test in cui è stato disattivato, sebbene in misura minore rispetto a Ryzen. Ma il problema è lì, da parecchio tempo, pur tenendo conto che Intel è l'azienda dominante.

Il silicio è ormai maturo, dopo 15 mesi dalla commercializzazione dei primi prodotti da parte di GF, per cui non aspettatevi dei cambiamenti in merito.

Stai rimanendo sempre in ambito grafico, dove è naturale parallelizzare & distribuire i carichi di lavoro. Ovviamente la tecnologia avanza, si affina, arrivano sempre novità per avere prestazioni migliori, ma il trend generale non cambia: sono algoritmi altamente scalabili.

D'altra parte l'evoluzione delle GPU penso sia eloquente: siamo arrivati a migliaia di core integrati, che processano e renderizzano le scena.

Ma in altri ambiti non è affatto così. Anzi, alcuni problemi sono intrinsecamente seriali, e non possono nemmeno avvantaggiarsi di qualche thread hardware in più.

Faccio il classico esempio dell'emulazione: emulare un processore fa parte di queste tipologie di codice assolutamente non parallelizzabili. Puoi metterci tutto l'impegno e le risorse che vuoi: sarà sempre e soltanto un core / thread hardware a potersi fare carico dell'operazione.

Come già detto, sistemi con più core e/o più thread hardware ci sono ormai da più di 15 anni, eppure sono ancora poco sfruttati, e tante volte non certo per la pigrizia dei programmatori (vedi sopra).

Inoltre le software house hanno budget da rispettare, e dunque anche nel caso in cui del codice sia parallelizzabile, bisogna investirci.

Ma non penso ci sia solo l'SMT in una architettura complessa come quelle intel e amd, no?

Non sono io a scrivere questo che riporto ma tante persone che studiano o lavorano nel settore programmazione.

Lato silicio non ho detto che il 14 nm glofo sia immaturo, ovvio deve esserlo abbastanza maturo per aver permesso questi risultati per frequenze e consumi con gli octacore amd che ricordiamo hanno circa 5 miliardi di transistor. Ma penso anche ci sia un ulteriore margine di miglioramento del prodotto nei prossimi mesi... come è accaduto per il 14 nm di intel.
non sarà mica come il 32 nm sempre glofo precedente? Quello non aveva permesso nessun miglioramento o quasi da subito, vedi differenza tra i sample e le cpu BD al loro debutto, e la differenza nel caso di Zen.

NvidiaMen
15-03-2017, 15:25
Ma quali ottimizzazioni avrebbero i giochi per le CPU Intel? Che ciò da cui è partita la nostra (sotto)discussione.

L'SMT, infatti, crea problemi anche alle CPU Intel, com'è stato mostrato con test in cui è stato disattivato, sebbene in misura minore rispetto a Ryzen. Ma il problema è lì, da parecchio tempo, pur tenendo conto che Intel è l'azienda dominante.

Il silicio è ormai maturo, dopo 15 mesi dalla commercializzazione dei primi prodotti da parte di GF, per cui non aspettatevi dei cambiamenti in merito.


Quoto in toto circa la poca utilità ad oggi in ambito videoludico delle SMT. Circa le ottimizzazioni ad hoc credo che Intel con le attuali architetture sia circa al 90%, ed AMD solo nei prossimi mesi potrà avvalersi di un tale vantaggio.


Stai rimanendo sempre in ambito grafico, dove è naturale parallelizzare & distribuire i carichi di lavoro. Ovviamente la tecnologia avanza, si affina, arrivano sempre novità per avere prestazioni migliori, ma il trend generale non cambia: sono algoritmi altamente scalabili.
D'altra parte l'evoluzione delle GPU penso sia eloquente: siamo arrivati a migliaia di core integrati, che processano e renderizzano le scena.
Ma in altri ambiti non è affatto così. Anzi, alcuni problemi sono intrinsecamente seriali, e non possono nemmeno avvantaggiarsi di qualche thread hardware in più.


E tu stai rimanendo sempre ancorato alla situazione attuale che è davvero "poco auspicabile" per un appassionato di tecnologia come sembri essere te. Fosse per te ed il tuo ragionamento quasi quasi il mondo videoludico si dovrebbe fermare vita natural durante sui quad core e spingere quest'ultimi magari su frequenze irraggiungibili al silicio.
La legge di Moore secondo la quale il numero di transistori per chip, raddoppi ogni 18 mesi ha necessità del multicore affinché possa avere un senso da un punto di vista prestazionale e, volenti o nolenti, anche il software dovrà seguire questa strada. Ricorda che nella vita ed in ogni ambito tutto è difficile solo per chi non ci crede. Mi chiedo un po', ma la pensavi anche così all'epoca dei single core, dei dual core e dei quad core prima della loro introduzione? Il codice può assolutamente essere parallelizzato anche lato CPU, questo non è un punto di vista ma un dato di fatto in quanto TUTTI gli algoritmi di renderizzazione in ray-tracing lavorano esclusivamente in multithreading sui cores attraverso algoritmi software (vedi il predetto Vray utilizzato anche nel tuo odiato Cinebench). Semmai quest'oggi è vero il contrario: pur disponendo di GPU con elevata prestazione computazionale il codice per sfruttarle via hardware in tale ambito non è a livello di quello utilizzato per il processamento via software mediante CPU. Questo perché stiamo continuando a "perder tempo" in ambito gaming con affinamenti sulla tecnica di rasterizzazione, ambito nel quale girano e si investono un sacco di soldi. Ma quando questi affinamenti grafici non troveranno più ulteriori migliorie apprezzabili dagli utenti si dovrà OBBLIGATORIAMENTE passare oltre.


Faccio il classico esempio dell'emulazione: emulare un processore fa parte di queste tipologie di codice assolutamente non parallelizzabili. Puoi metterci tutto l'impegno e le risorse che vuoi: sarà sempre e soltanto un core / thread hardware a potersi fare carico dell'operazione.

L'emulazione è proprio un discorso che nulla ha a che vedere con la parallelizzazione del codice perché porta un livello di complessità ben diversa e con problematiche molto più delicate e per la quale son pochissime le risorse che si destinano in ambito di sviluppo software. Per tali ambiti si utilizzano più "semplicemente" le virtualizzazioni via hardware che fanno vedere un insieme di risorse (cores) come un'unica unità elaborativa e con risultati molto soddisfacenti rispetto alla originaria macchina emulata.


Come già detto, sistemi con più core e/o più thread hardware ci sono ormai da più di 15 anni, eppure sono ancora poco sfruttati, e tante volte non certo per la pigrizia dei programmatori (vedi sopra).
Inoltre le software house hanno budget da rispettare, e dunque anche nel caso in cui del codice sia parallelizzabile, bisogna investirci.

Nei precedenti 15 anni è stato possibile migliorare le prestazioni dei processori a livello architetturale nel rispetto della Legge di Moore senza affidarsi al multithreading che è rimasto relegato esclusivamente in ambiti specifici della ricerca e per algoritmi progettati ad hoc per i quali era richiesta una elevata capacità computazionale.
Ti assicuro che le case software più che i budget da rispettare devono in primis rispettare le scadenze annuali di immissione sul mercato dei loro prodotti. Ecco il perché ci si ritrova con giochi pieni di bug all'uscita che poi vengono risolti strada facendo. I soldi sono l'ultimo dei problemi in quanto a fine 2016 l'intera industria di gaming ed entrainment mondiale ha raggiunto la stratosferica cifra di 91 Miliardi di dollari (http://www.e-duesse.it/index.php/News/Videogiochi/Industria-dell-interactive-entertainment-mondiale-a-91-miliardi-di-dollari-212734) ed è in continua ascesa visto l'interesse che si allarga sempre più a macchia d'olio tra i consumatori, praticamente più del fatturato dell'industria cinematografica e musicale mondiali messe insieme tanto per dare un'idea (http://www.ilpost.it/2015/06/21/vendite-videogiochi/). Parallelamente ad esse (Ubisoft, EA, Activision, ecc.), che nello sviluppo di nuove tecnologie software entrano solo parzialmente occupandosi di mero "assemblaggio" di codice destinando le loro risorse alla realizzazione dei prodotti, operano altre software houses che si dedicano esclusivamente ai motori di fisica, di render, di IA con il fine ultimo di sfruttare sempre più, con algoritmi proprietari ed API, le ultime tecnologie hardware di nuova e prossima introduzione. Sta solo a noi consumatori promuovere attraverso acquisti intelligenti di prodotti con maggior potenziale di crescita al fine di farli diffondere maggiormente e giustificare gli sforzi da destinare a chi opera nel settore. I margini ed il profitto in ambito videoludico si fanno su larga scala ed occorre favorire una diffusione più capillare per contribuire come consumatori che fanno il loro interesse in tutto questo processo. Spero sia stato chiaro e non oggetto di un tuo ulteriore quote che vada a rispondere con altro pur di rispondere.

Vul
15-03-2017, 18:17
Interessantissima recensione per chi si preoccupa di Ryzen e il gaming:

https://www.youtube.com/watch?v=O0fgy4rKWhk

Riassumendo:
-gli fps medi sono molto più simili fra R7 ed i7 quando si gioca davvero che nei benchmark
-R7 offre molto meno stuttering registrando, usando shadowplay, ecc
-R7 quadruplica a volte le prestazioni di un 7700k in ambito produttività, nel migliore dei casi un i7 distacca un r7 di 10 punti percentuali solo su giochi abbastanza male ottimizzati
-AMD collabora con una valanga di produttori di giochi (che hanno già ufficializzato ottimizzazioni pro Ryzen), Intel non può vantare la stessa cosa
-AM4 è destinato a durare 3-4 generazioni di cpu, con Intel si cambia tutto in continuazione
-il futuro è verso un numero di core/thread superiore

george_p
15-03-2017, 20:39
Interessantissima recensione per chi si preoccupa di Ryzen e il gaming:

https://www.youtube.com/watch?v=O0fgy4rKWhk

Riassumendo:
-gli fps medi sono molto più simili fra R7 ed i7 quando si gioca davvero che nei benchmark
-R7 offre molto meno stuttering registrando, usando shadowplay, ecc
-R7 quadruplica a volte le prestazioni di un 7700k in ambito produttività, nel migliore dei casi un i7 distacca un r7 di 10 punti percentuali solo su giochi abbastanza male ottimizzati
-AMD collabora con una valanga di produttori di giochi (che hanno già ufficializzato ottimizzazioni pro Ryzen), Intel non può vantare la stessa cosa
-AM4 è destinato a durare 3-4 generazioni di cpu, con Intel si cambia tutto in continuazione
-il futuro è verso un numero di core/thread superiore


Questo è già stato fatto notare da quasi subito ma si preferisce far pesare i grafici che "congelano" il numero dei frames in un dato intervallo di tempo senza alla fine considerare la realtà del gioco.
Ah si, vero avevo già letto di ottimizzazioni per Ryzen da parte delle software house peraltro annunciate da amd stessa, in "contraddizione" con quello che si scrive qui per certi versi dove non sembrano esistere queste ottimizzazioni per videogames.

Zappa1981
15-03-2017, 23:23
Lo scopo era un altro.
Quello di mostrato che nei giochi il quad anche con SMT è sfruttato e pesa sul dual, e per giunta alcun di quei titoli sono pure VGA limited.

AoS : 20 vs 38
TW3 : 64 vs 112
Tomb Raider : 54 vs 102
AC : 68 vs 112
Crysis : 30 vs 68

Sinceramente non so dove li vedi i 110fps, e pensare che mancano Total War, BF, Watch Dogs ed Anno.

io volevo vedere il risultato di ungine heaven, io con un phenomII x6 sono già cpu limited per la 1060 e lo noto bene negli fps minimi

cdimauro
16-03-2017, 05:48
Non proprio... sicuramente si guadagna anche lì (il 7%)
Sì, ma mettiti nei panni dell'utente che dovrà comprare le memorie per Ryzen.
ma il post riguarda soprattutto dei problemi specifici di alcuni giochi e le configurazioni generati da essi e salvate sul cloud. Questo spiega le discrepanze tra le recensioni in quel gioco, e chissà che non salti fuori anche qualche altra magagna del genere in altri giochi.
Se i giochi sono realizzati dalla stessa "mano", potrebbe essere. Ma, per questo motivo, dubito che ce ne siano tanti nella stessa condizione.
Dipende dall'implementazione, non ti fare ingannare dalla mappatura logica dei registi NEON.
Nell' implementazione massima (registri a 2048bit) devono essere per forza un unità funzionale separata, a tutti gli effetti un coprocessore.
Il grosso vantaggio rispetto ad altri approcci è che nelle implementazioni più "spartane"
si possono integrare nei core aggiungendo una manciata di registri dei predicati
senza neanche dove ampliare i datapath e mantenendo piena compatibilità con una implementazione a 2048bit.
Dubito che assisteremo a implementazioni così spinte, per i problemi di clock skew di cui abbiamo già parlato.

Ciò premesso, se hai avuto modo di vedere come funziona, anche nel caso di implementazione con vettori particolarmente lunghi, non vedrai comunque implementata quest'unità SIMD come un coprocessore separato, visto che vengono eseguite normali istruzioni dell'ISA ARM, e parecchie di esse riguardano i registri di predizione.

IMO il design sarà molto simile a quello di Larrabee & Xeon Phi, dove l'unità "intera" (classiche istruzioni x86. ARMv8 in questo caso) ha il suo scheduler, mentre l'unità SIMD ha il suo, e comunicano fra di loro quando necessario (ad esempio quando si deve indirizzare la memoria per leggere o scrivere un vettore, ma ovviamente servono i registri GP per calcolare l'indirizzo).
Non è un estensione dello stesso concetto, l'idea di base non è "unita SIMD" ma unità ottimizzata per l'elaborazione di vettori di lunghezza variabile che per avere le massime prestazioni non richiede riscrittura o ricompilazione del codice per adattarsi a differenti dimensioni dei registri "interni" come invece succede con le SIMD ( e con la possibilità di cambiare l'ampiezza dei registri e dei datapath come più torna comodo).
Rimane un'unità SIMD come modello, tant'è che, una volta fissata la lunghezza dell'implementazione, poi elabora comunque istruzioni di tipo SIMD o "scalari" (per i registri di predizioni, e roba associata).
Come modello architetturale e modello di programmazione è tutto un altro paio di maniche rispetto ad AVX-512.

O per dirla in un altro modo sarebbe come avere un unico set d'istruzioni
AVX identico per AVX, AVX-512, AVX-768,.., AVX-1024,...,AVX-2048
e con codice ottimizzato esclusivamente per AVX-2048 che gira senza ricompilare e senza degrado di prestazioni (rispetto alla specifica cpu) su un implementazione "solo" AVX.
Questo perche si ragiona, si codifica e si ottimizza il codice SVE in termini di VETTORI (con lunghezza generica), non in termini di registri "multimediali" di lunghezza fissa.
In realtà se avessi visto come funziona Larrabee/Xeon Phi (KNI come ISA)/AVX-512, il funzionamento di SVE è molto simile al codice di "epilogo" di un loop.

Con le ISA SIMD tradizionali, sei costretto a generare una sequenza di istruzioni che manipolano i dati rimanenti da elaborare, e questo ha un certo costo.

Con AVX-512 ti basta caricare l'opportuno di registro di maschera marcando su quali elementi lavorare, e poi esegui esattamente le stesse istruzioni che hai usato nel loop principale, ovviamente usando l'apposita maschera per lavorare esclusivamente sulle "lane" interessate.

Se vedi SVE, fa esattamente la stessa cosa di quest'ultimo caso, con la differenza che applica a livello generale il concetto di lavorare su un certo insieme di lane. La differenza è che all'inizio i registri di predizione saranno sempre pieni, e dunque lavoreranno su tutti i dati.
Mentre nell'ultima iterazione del ciclo i registri di predizione saranno "automaticamente" (nel senso che ci pensa il codice, scritto in maniera opportuna, a farlo proprio durante la normale esecuzione del ciclo), a riempirli opportunamente con le lane da usare in questo specifico caso.
La mappatura (parziale) sui NEON serve per semplificare l'interscambio dati sui registri interni senza dover aggiungere istruzioni ad hoc e per rendere ancora più compatta l'implementazione minima ( SVE-128 ).
Serve a risparmiare sull'implementazione, non a semplificare l'interscambio coi registri interni. D'altra parte se usi SVE non puoi usare NEON (questo non l'ho letto, ma da come funziona immagino che sia così).
E, ripeto, il fatto che SVE sia vector-lenght agnostic cambia totalmente le carte in tavola rispetto ad un architettura SIMD, specialmente sul lato software.
Questo senz'altro, ed è una gran comodità dover scrivere il codice una volta sola, e lasciare che se lo smazzi poi l'implementazione.

Ma non sono tutte rose e fiori. Se hai visto gli esempi, proprio a causa dell'utilizzo dei registri di predizione per selezionare su quali dati lavorare, si crea una forte dipendenza fra le istruzioni, e inoltre ci sono diverse istruzioni "scalari" da eseguire.

Dunque in ottica di scalabilità / esecuzione parallela di più istruzioni SVE, questo può rappresentare un problema, anche con architetture out-of-order.

Cosa che con un'architettura che utilizza registri SIMD a dimensione fissa, è di gran lunga meno impattante.

Se hai lavorato con unità SIMD, dovresti cogliere la differenza fra i due approcci, coi loro pro e contro.

In ogni caso se ti studi bene il documento che mi hai passato, te ne renderai conto tu stesso, analizzando anche gli esempi che sono stati forniti, che sono utili a capire come funziona il tutto con casi concreti (ci sono pure implementazioni di strcpy e strcmp). ;)

cdimauro
16-03-2017, 06:06
Quoto in toto circa la poca utilità ad oggi in ambito videoludico delle SMT. Circa le ottimizzazioni ad hoc credo che Intel con le attuali architetture sia circa al 90%, ed AMD solo nei prossimi mesi potrà avvalersi di un tale vantaggio.
Riguardo alle quote di mercato, sicuramente. Quanto ciò si rifletta nelle specifiche ottimizzazioni, è tutto da vedere. E di fatti i problemi con l'SMT le hanno pure le CPU Intel, per l'appunto, che sono le più diffuse in assoluto, come già detto.

Personalmente e da programmatore posso capire che si possa compilare un'applicazione con un compilatore Intel (che a default ottimizza al meglio per ALCUNE delle sue micro-architetture), oppure usando un altro compilatore ma generando codice più ottimizzato per le micro-architetture più utilizzate.

Ma a parte questo, dubito che gli sviluppatori perdano tempo con ottimizzazioni IN CODICE appositamente per Intel.
E tu stai rimanendo sempre ancorato alla situazione attuale che è davvero "poco auspicabile" per un appassionato di tecnologia come sembri essere te. Fosse per te ed il tuo ragionamento quasi quasi il mondo videoludico si dovrebbe fermare vita natural durante sui quad core e spingere quest'ultimi magari su frequenze irraggiungibili al silicio.
Non ho mai detto questo e, al contrario, ho già detto che col tempo ci saranno sempre più giochi ottimizzati per sfruttare più core. Cosa che ho scritto sia qui sia nel thread Aspettando Zen.
La legge di Moore secondo la quale il numero di transistori per chip, raddoppi ogni 18 mesi ha necessità del multicore affinché possa avere un senso da un punto di vista prestazionale e, volenti o nolenti, anche il software dovrà seguire questa strada. Ricorda che nella vita ed in ogni ambito tutto è difficile solo per chi non ci crede. Mi chiedo un po', ma la pensavi anche così all'epoca dei single core, dei dual core e dei quad core prima della loro introduzione?
Da programmatore conosco i benefici nell'avere più core e/o thread hardware a disposizione, e se capita ne faccio anche uso.

Ad esempio, prima di lasciare Intel ho scritto apposito codice che scala in base al numero di core, per alcuni calcoli intensivi (checksum di file). E visto che Python (che ho usato) è intrinsecamente mono-core/thread, ho dovuto lavorare un po' per implementare il tutto. A dimostrazione che non è che la manna scenda dal cielo in questi casi.
Il codice può assolutamente essere parallelizzato anche lato CPU, questo non è un punto di vista ma un dato di fatto in quanto TUTTI gli algoritmi di renderizzazione in ray-tracing lavorano esclusivamente in multithreading sui cores attraverso algoritmi software (vedi il predetto Vray utilizzato anche nel tuo odiato Cinebench).
Ma guarda che ho detto esattamente la stessa cosa, eh!

Mi riquoto: "Stai rimanendo sempre in ambito grafico, dove è naturale parallelizzare & distribuire i carichi di lavoro. ".
Semmai quest'oggi è vero il contrario: pur disponendo di GPU con elevata prestazione computazionale il codice per sfruttarle via hardware in tale ambito non è a livello di quello utilizzato per il processamento via software mediante CPU. Questo perché stiamo continuando a "perder tempo" in ambito gaming con affinamenti sulla tecnica di rasterizzazione, ambito nel quale girano e si investono un sacco di soldi. Ma quando questi affinamenti grafici non troveranno più ulteriori migliorie apprezzabili dagli utenti si dovrà OBBLIGATORIAMENTE passare oltre.
Il futuro è rappresentato dal ray tracing, che consentirà di rimuovere queste problematiche, consentendo un'enorme scalabilità.

Ancora qualche anno, e ci arriveremo.
L'emulazione è proprio un discorso che nulla ha a che vedere con la parallelizzazione del codice perché porta un livello di complessità ben diversa e con problematiche molto più delicate e per la quale son pochissime le risorse che si destinano in ambito di sviluppo software. Per tali ambiti si utilizzano più "semplicemente" le virtualizzazioni via hardware che fanno vedere un insieme di risorse (cores) come un'unica unità elaborativa e con risultati molto soddisfacenti rispetto alla originaria macchina emulata.
Se hai bisogno di eseguire un emulatore, non te ne fai nulla di poter lanciare più istanze dello stesso, assegnandole a core diversi.

Prendi uno che vuole lanciare Dolphin, PCSX2, MAME, WinUAE, ecc.: non è che lancia n istanze di questi emulatori. Ne viene eseguito uno, e l'utente userà quella sola istanza.

E in questi casi, come già detto, non c'è parallellizzazione che tenga: quando devi emulare UN processore della piattaforma emulata, potrai sempre e soltanto sfruttare un solo core/thread hardware.

Non si scappa. E' così perché il codice è intrinsecamente "seriale" / non parallellizzabile, e la situazione non è affatto destinata a cambiare anche fra diversi, e con migliaia di core a disposizione: è questo codice che è così.

Chiunque abbia esperienza in merito te lo potrà confermare.

E idem per diverse altre tipologie di software "seriale".
Nei precedenti 15 anni è stato possibile migliorare le prestazioni dei processori a livello architetturale nel rispetto della Legge di Moore senza affidarsi al multithreading che è rimasto relegato esclusivamente in ambiti specifici della ricerca e per algoritmi progettati ad hoc per i quali era richiesta una elevata capacità computazionale.
Ti assicuro che le case software più che i budget da rispettare devono in primis rispettare le scadenze annuali di immissione sul mercato dei loro prodotti. Ecco il perché ci si ritrova con giochi pieni di bug all'uscita che poi vengono risolti strada facendo. I soldi sono l'ultimo dei problemi in quanto a fine 2016 l'intera industria di gaming ed entrainment mondiale ha raggiunto la stratosferica cifra di 91 Miliardi di dollari (http://www.e-duesse.it/index.php/News/Videogiochi/Industria-dell-interactive-entertainment-mondiale-a-91-miliardi-di-dollari-212734) ed è in continua ascesa visto l'interesse che si allarga sempre più a macchia d'olio tra i consumatori, praticamente più del fatturato dell'industria cinematografica e musicale mondiali messe insieme tanto per dare un'idea (http://www.ilpost.it/2015/06/21/vendite-videogiochi/). Parallelamente ad esse (Ubisoft, EA, Activision, ecc.), che nello sviluppo di nuove tecnologie software entrano solo parzialmente occupandosi di mero "assemblaggio" di codice destinando le loro risorse alla realizzazione dei prodotti, operano altre software houses che si dedicano esclusivamente ai motori di fisica, di render, di IA con il fine ultimo di sfruttare sempre più, con algoritmi proprietari ed API, le ultime tecnologie hardware di nuova e prossima introduzione. Sta solo a noi consumatori promuovere attraverso acquisti intelligenti di prodotti con maggior potenziale di crescita al fine di farli diffondere maggiormente e giustificare gli sforzi da destinare a chi opera nel settore. I margini ed il profitto in ambito videoludico si fanno su larga scala ed occorre favorire una diffusione più capillare per contribuire come consumatori che fanno il loro interesse in tutto questo processo.
E questo succede già, ma non è sufficiente, visto che per realizzare un gioco AAA a volte servono più soldi che per realizzare un film AAA.

I costi sono elevatissimi in assoluto, per cui ci sarà sempre da tagliare nelle ottimizzazioni per arrivare prima possibile nel mercato, e recuperare gli investimenti.

Sì, i consumatori possono cercar di dirigere, ma fino a un certo punto.
Spero sia stato chiaro e non oggetto di un tuo ulteriore quote che vada a rispondere con altro pur di rispondere.
Io rispondo perché programmo da 35 anni, e nella mia vita ho sviluppato di tutto: dal bassissimo livello (anche videogiochi. Per Amiga) fino all'altissimo livello. Da codice seriale a parallelo.

E casualmente sono anche appassionato di architetture, micro-architetture, ed emulatori.

Dunque riporto la mia esperienza e la mia visione. Da professionista.

cdimauro
16-03-2017, 06:09
Ma non penso ci sia solo l'SMT in una architettura complessa come quelle intel e amd, no?
No, ma vedi sopra il mio precedente commento.
Non sono io a scrivere questo che riporto ma tante persone che studiano o lavorano nel settore programmazione.
Hai qualche link in merito?
Lato silicio non ho detto che il 14 nm glofo sia immaturo, ovvio deve esserlo abbastanza maturo per aver permesso questi risultati per frequenze e consumi con gli octacore amd che ricordiamo hanno circa 5 miliardi di transistor. Ma penso anche ci sia un ulteriore margine di miglioramento del prodotto nei prossimi mesi... come è accaduto per il 14 nm di intel.
non sarà mica come il 32 nm sempre glofo precedente? Quello non aveva permesso nessun miglioramento o quasi da subito, vedi differenza tra i sample e le cpu BD al loro debutto, e la differenza nel caso di Zen.
Beh, GF potrebbe anche tirare fuori un affinamento dei 14nm, come ha fatto Intel col 14+nm, anche se lo vedo meno plausibile.
Interessantissima recensione per chi si preoccupa di Ryzen e il gaming:

https://www.youtube.com/watch?v=O0fgy4rKWhk

Riassumendo:
-gli fps medi sono molto più simili fra R7 ed i7 quando si gioca davvero che nei benchmark
-R7 offre molto meno stuttering registrando, usando shadowplay, ecc
-R7 quadruplica a volte le prestazioni di un 7700k in ambito produttività, nel migliore dei casi un i7 distacca un r7 di 10 punti percentuali solo su giochi abbastanza male ottimizzati
-AMD collabora con una valanga di produttori di giochi (che hanno già ufficializzato ottimizzazioni pro Ryzen), Intel non può vantare la stessa cosa
-AM4 è destinato a durare 3-4 generazioni di cpu, con Intel si cambia tutto in continuazione
-il futuro è verso un numero di core/thread superiore
Son tutte cose di cui s'è già discusso, incluso l'annuncio di AMD di lavorare con gli sviluppatori per cercare di sfruttare meglio le sue nuove micro-architetture.

Come / cosa / quando è, però, tutto un altro paio di maniche.

Come ho già scritto, aspettiamo...
Questo è già stato fatto notare da quasi subito ma si preferisce far pesare i grafici che "congelano" il numero dei frames in un dato intervallo di tempo senza alla fine considerare la realtà del gioco.
Ah si, vero avevo già letto di ottimizzazioni per Ryzen da parte delle software house peraltro annunciate da amd stessa, in "contraddizione" con quello che si scrive qui per certi versi dove non sembrano esistere queste ottimizzazioni per videogames.
Vedi sopra anche tu.

Buondì a tutti.

street
16-03-2017, 08:02
E tu stai rimanendo sempre ancorato alla situazione attuale che è davvero "poco auspicabile" per un appassionato di tecnologia come sembri essere te. Fosse per te ed il tuo ragionamento quasi quasi il mondo videoludico si dovrebbe fermare vita natural durante sui quad core e spingere quest'ultimi magari su frequenze irraggiungibili al silicio.


Guarda, mi sa che nel rispondere a lui ignori (credo tu sia uno dei pochi, per questo ti avverto) che é un ex-ingegnere intel, da poco passato ad altra azienda.
Sicuramente competenza tecnica la ha nel suo campo, ma quando lo leggi é inevitabile fare la tara al discorso considerando questo fatto.
Come lo sarà in futuro se discuteremo su come alfa possa tirar fuori un'auto migliore rispetto a bmw...

george_p
16-03-2017, 08:19
Son tutte cose di cui s'è già discusso, incluso l'annuncio di AMD di lavorare con gli sviluppatori per cercare di sfruttare meglio le sue nuove micro-architetture.

Come / cosa / quando è, però, tutto un altro paio di maniche.


Il link a un post di risposta a una mia domanda (il post subito precedente) se è possibile ottimizzare una cpu intel o amd per i videogiochi.
http://www.bitsandchips.it/forum/viewtopic.php?p=97460#p97460

E ok, ma io parlo di possibilità ossia che ciò sia possibile non di tempo, il tempo sappiamo che non è di due giorni.

bjt2
16-03-2017, 08:33
https://twitter.com/mustmann/status/842240026486439937

Il freeze con codice FMA3 scompare disabilitando l'SMT. In arrivo aggiornamento microcodice...

leoneazzurro
16-03-2017, 10:03
Sì, ma mettiti nei panni dell'utente che dovrà comprare le memorie per Ryzen.

Se i giochi sono realizzati dalla stessa "mano", potrebbe essere. Ma, per questo motivo, dubito che ce ne siano tanti nella stessa condizione.


Anche Intel guadagna nei giochi usando memorie più veloci, e grossomodo in percentuali simili. Che facciamo, ci mettiamo nei panni di chi deve comprare le memorie per Intel?
No, non serve che i giochi siano realizzati dalla stessa mano, basta che riconoscano erroneamente la topologia della CPU.

k0nt3
16-03-2017, 18:37
Perché l'ha detto in un'intervista Jim Anderson (Senior Vice President and General Manager, Computing and Graphics Business Group, AMD), dichiarando che gli R5 avranno un range di prezzo dai 199$ ai 299$. E il top range R5 è appunto il 1600X.

Il tempo è galantuomo :read:

http://www.hwupgrade.it/articoli/4865/slide_6.jpg

NvidiaMen
16-03-2017, 19:39
Io rispondo perché programmo da 35 anni, e nella mia vita ho sviluppato di tutto: dal bassissimo livello (anche videogiochi. Per Amiga) fino all'altissimo livello. Da codice seriale a parallelo.

E casualmente sono anche appassionato di architetture, micro-architetture, ed emulatori.

Dunque riporto la mia esperienza e la mia visione. Da professionista.

Finalmente dopo tanti batti e ribatti sono stato premiato da te con risposte coerenti che per la maggiore mi trovano d'accordo. Solo una cosa tengo a sottolineare, che si sia filoIntel o filoAMD, iniziamo al più presto ad abbandonare le piattaforme quadcore nei prossimi upgrade. I consumatori ed i prodotti che sono i più diffusi la fanno sempre da padrone in tutti i settori del mercato, quindi per chi può è opportuno consigliare prodotti con maggiori margini di sviluppo per il futuro per rendere quest'ultimo (il futuro) il più prossimo possibile e non fare inavvertitamente il gioco di chi vende sempre lo stesso prodotto differenziandolo dal precedente per qualche spicciolo di fps in più.
Ciao e grazie del costruttivo confronto.

phicrand_6358
16-03-2017, 19:56
cut

OT: sono tornato da poco qua, ma da quand'è che non sei più moderatore? per curiosità...

NvidiaMen
16-03-2017, 20:12
Guarda, mi sa che nel rispondere a lui ignori (credo tu sia uno dei pochi, per questo ti avverto) che é un ex-ingegnere intel, da poco passato ad altra azienda.
Sicuramente competenza tecnica la ha nel suo campo, ma quando lo leggi é inevitabile fare la tara al discorso considerando questo fatto.
Come lo sarà in futuro se discuteremo su come alfa possa tirar fuori un'auto migliore rispetto a bmw...
Grazie per la dritta, non lo sapevo. :sbonk: In ogni caso io sono dell'avviso che una persona davvero professionale debba esser imparziale quando si discute di fatti oggettivi che possono sol far bene allo sviluppo informatico e che nulla hanno a che vedere con il parlar bene o male di questo o quel produttore. Io mi trovo da almeno cinque generazioni ad acquistare CPU Intel, dopo un lungo passato in cui mi sono affidato ad AMD, ma continuo sempre ad apprezzare molto gli sforzi di AMD che nel suo piccolo riesce sempre a dimostrare la bontà dei propri prodotti ad un prezzo molto più accessibile della concorrenza sia in capo CPU che GPU. Con Ryzen occorre oggettivamente ammettere che si è superata dimostrando che si possono realizzare CPU multicore più prestazionali ed al contempo più accessibili dal punto di vista economico, quasi AMD stessa volesse segnare una strada nuova da seguire. Sta a noi cogliere questo input e dare ragione una volta per tutte a questo nuovo modo di stimolare il mercato. In questo modo anche Intel si adeguerà con la sua serie 6xx0, non tanto dal punto di vista prestazionale, ma soprattutto dal punto di vista del costo d'acquisto dove con Ryzen ha davvero subito un grosso colpo dal suo maggiore competitor. Il mio contributo a questa causa non verrà a mancare in quanto il mio prossimo upgrade, previsto per fine anno sarà basato su un 1800x o superiore se ci sarà.

street
16-03-2017, 20:27
Grazie per la dritta, non lo sapevo. :sbonk: In ogni caso io sono dell'avviso che una persona davvero professionale debba esser imparziale quando si discute di fatti oggettivi che possono sol far bene allo sviluppo informatico e che nulla hanno a che vedere con il parlar bene o male di questo o quel produttore.

da esterno, si, sono d'accordo.
Ma per me un dipendente può essere al 100% imparziale (in pubblico) solo se non ci mette passione in quel che fa.

LMCH
17-03-2017, 01:03
Dubito che assisteremo a implementazioni così spinte, per i problemi di clock skew di cui abbiamo già parlato.

Questo perche continui a ragionare in termini di
"è un unità SIMD con relative estensioni del set d'istruzioni".

Mentre invece a livello di progettazione del set d'istruzioni è un estensione per vector processing generico senza vincoli troppo stretti su COME E DOVE va implementata. ;)

Un vettore è un gruppo di word di una certa dimensione, non necessariamente un unico super-registro.

SVE è pensata per essere implementata in modo semplice ed economico ANCHE come unità SIMD "nel core" ed ovviamente per interoperare agilmente con il set d'istruzioni "standard" (da cui la sovrapposizione dei primi 128bit dei registri Z di SVE con i registri NEON a livello di logica di programmazione), ma non è l'unica implementazione possibile.

E non è un caso che nel documento che avevo linkato dicano esplicitamente
"SVE is not an extension of NEON, but a new set of vector instructions developed to target HPC workloads".

Ad esempio un implementazione a 2048bit in realtà potrebbe generare microOp o macroOp per 16 shadow register a 128bit da/verso fino a 16 unita funzionali e/o accumulando le operazioni nel reorder buffer del core o di un unita di esecuzione separata con datapath separati verso le cache e/o condivisa tra più core.

Immagina ad esempio un core ARM 4-way SMT in cui ogni thread ha un SVE "virtuale"
che in realtà è implementato come 16 unità NEON condivise tra i 4 thread;
dove quindi quando tutti e 4 i thread eseguono istruzioni SVE hanno le prestazioni di un SVE-512 ma quando solo uno di essi sta usando SVE e gli altri operano su interi è come se questo avesse un unità SVE-2048 tutta per se.

Notare che l'unico "aggravio" sarebbe che i registri P dei predicati dovrebbero essere a 128bit ma non si supererebbe il caso peggiore di problemi di clock skew che si avrebbe implementando dei "semplici" core con set d'istruzioni ARMv8 e come detto prima nel caso "peggiore" in cui tutti i thread usano SVE simultaneamene si avrebbero "solo" le prestazioni di un implementazione SVE-512 (oppure SVE-1536 con un thread che usa SVE e gli altri che usano "solo" le NEON).

A parte questo, non mi stupirei se in futuro spuntassero fuori GPU
basate su ARMv8+SVE a gestire le parti più "computazionalmente flessibili"
o anche SoC multicore ottimizzati per il signal processing e cose simili con implementazioni di SVE che dominano sul resto del core ARM vero e proprio.

cdimauro
17-03-2017, 05:13
Guarda che siamo sostanzialmente d'accordo su tutto. :D

Lo so che si può fare "cracking" delle istruzioni, e suddividerle in più micro-op, se le unità SVE sono più piccole della dimensione massima esposta dall'ISA. E' proprio quello che ha fatto Intel quando ha introdotto le SSE (128 bit) col Pentium 3 (unità a 64 bit), ed è quello che ha fatto AMD con Ryzen (unità a 128 bit) per le AVX/-2 (256 bit). Nulla di nuovo qui, e ovviamente i benefici sono quelli che hai esposto (ma ci sono anche i risvolti negativi).

Preciso pure che non ho mai detto che SVE sia un'estensione di NEON. Al contrario, se ho affermato questo:

"se usi SVE non puoi usare NEON"

è proprio per confermare il contrario. IMO se usi SVE non puoi usare NEON, e viceversa, proprio perché sono due cose diverse, anche se condividono il banco di registri vettoriali.

Mentre, come penso saprai, puoi far eseguire codice SSE, AVX, e AVX-512 assieme, perché condividono tutte le risorse SIMD.

L'unico appunto è che non vedo assolutamente SVE come un coprocessore. Anche nello scenario che hai esposto, con SMT4 (ma potrebbe anche essere SMT8 o addirittura SMT16 se si volessero utilizzare unità a 128 bit), rimarrebbero comunque delle normali unità d'esecuzione.

E giusto per essere chiari, per coprocessore intendo un dispositivo esterno al core, come oggi è l'iGPU. Questo proprio per come funziona SVE.

Spero che ci siamo finalmente chiariti. :)

cdimauro
17-03-2017, 05:32
Guarda, mi sa che nel rispondere a lui ignori (credo tu sia uno dei pochi, per questo ti avverto) che é un ex-ingegnere intel, da poco passato ad altra azienda.
Sicuramente competenza tecnica la ha nel suo campo, ma quando lo leggi é inevitabile fare la tara al discorso considerando questo fatto.
Come lo sarà in futuro se discuteremo su come alfa possa tirar fuori un'auto migliore rispetto a bmw...
da esterno, si, sono d'accordo.
Ma per me un dipendente può essere al 100% imparziale (in pubblico) solo se non ci mette passione in quel che fa.
Se tiri in ballo la professione (anche ex) di qualcuno quando si fanno dei precisi discorsi/ragionamenti, senza provare che certe risposte siano dovute proprio a questo motivo, ricadi nella fallacia (comune e purtroppo diffusa) logica dell'attacco ad hominen (http://www.linux.it/~della/fallacies/ad-hominem.html).

In una discussione l'unica cosa che dovrebbe contare, nonché essere vagliata / analizzata, è rappresentata dai FATTI e dalle ARGOMENTAZIONI esposte dalle parti.

Nello specifico, e per fare un esempio, che l'emulazione di un processore sia un problema seriale e assolutamente non parallelizzabile, era tale (ben) prima che entrassi alla Intel, durante il mio lavoro alla Intel, e sarà ancora così anche adesso che ne sono uscito fuori.
Questo perché rimane un FATTO OGGETTIVO, a prescindere da quello che io abbia fatto, faccio, e farò nella mia vita.

Similmente, ho affermato che le prestazioni ST siano importanti (per ME, e chi ha esigenze come le mie) prima che lavorassi alla Intel (http://www.appuntidigitali.it/16539/notizie-semi-accurate-o-semi-inventate/) (commento #15: "Da programmatore preferisco anch’io avere prestazioni più elevate in “single-thread”". 25 novembre 2011), durante (diverse volte l'ho affermato nel thread Aspettando Zen. Alla Intel ho iniziato a lavorare ad agosto 2013), e dopo (stesso thread. Ma anche qui. Fine del lavoro a Intel: dicembre 2016).
Ovviamente se le MIE esigenze dovessero cambiare, mi regolerei di conseguenza. Qui, a differenza del codice degli emulatori per il quale varrà sempre ciò che ho affermato, parliamo di questioni che sono influenzate da altri fattori, che quindi sono mutabili, e di conseguenza lo sono anche le decisioni (a meno che uno non voglia farsi del male prendendo delle decisioni sbagliate, contro i suoi stessi interessi, per puro fanatismo/fanboyismo. Ma qui non ci posso far nulla).
Grazie per la dritta, non lo sapevo. :sbonk: In ogni caso io sono dell'avviso che una persona davvero professionale debba esser imparziale quando si discute di fatti oggettivi che possono sol far bene allo sviluppo informatico e che nulla hanno a che vedere con il parlar bene o male di questo o quel produttore.
Infatti questo è l'approccio giusto. :)

cdimauro
17-03-2017, 06:02
Il link a un post di risposta a una mia domanda (il post subito precedente) se è possibile ottimizzare una cpu intel o amd per i videogiochi.
http://www.bitsandchips.it/forum/viewtopic.php?p=97460#p97460

E ok, ma io parlo di possibilità ossia che ciò sia possibile non di tempo, il tempo sappiamo che non è di due giorni.
Che è proprio quello che avevo detto qualche post fa. Mi riquoto:

"Personalmente e da programmatore posso capire che si possa compilare un'applicazione con un compilatore Intel (che a default ottimizza al meglio per ALCUNE delle sue micro-architetture), oppure usando un altro compilatore ma generando codice più ottimizzato per le micro-architetture più utilizzate.

Ma a parte questo, dubito che gli sviluppatori perdano tempo con ottimizzazioni IN CODICE appositamente per Intel."

Come ho precisato nell'ultima frase, dubito che si possa scrivere del codice apposito per un preciso processore.

Meglio affidare il lavoro ai compilatori, per l'appunto. E ai s.o. / driver; vedi sotto.

Alessio89 è stato più dettagliato, ma il concetto è esattamente lo stesso. ;)
https://twitter.com/mustmann/status/842240026486439937

Il freeze con codice FMA3 scompare disabilitando l'SMT. In arrivo aggiornamento microcodice...
Mi pare che un problema simile l'abbiano avuto le prime CPU Intel con AVX.

L'importante è che sia (così facilmente) risolvibile. :p
Anche Intel guadagna nei giochi usando memorie più veloci, e grossomodo in percentuali simili. Che facciamo, ci mettiamo nei panni di chi deve comprare le memorie per Intel?
Non è questo il punto. Se hai letto tutto, c'è anche la questione dei rank delle memorie. Dunque con Ryzen bisogna stare attenti pure a questo.

Tant'è che c'è pure un elenco di memorie consigliate:

"Potential kits include:
Geil EVO X - GEX416GB3200C16DC [16-16-16-36 @ 1.35v]
G.Skill Trident Z - F4-3200C16D-16GTZR [16-18-18-36 @ 1.35v]
Corsair CMK16GX4M2B3200C16 VERSION 5.39 [16-18-18-36 @ 1.35v]"

perché bisogna andare a caccia di precisi chip di memoria:

"kits based on Samsung “B-die” memory chips"

Ora, questo lo può fare uno smanettone che ha parecchio tempo da perdere e che si documenta per bene prima di acquistare qualcosa, ma mettiti nei panni di quelli che non lo sono (leggi: la massa).

Aggiungici che al momento fra schede madri e firmware immaturi, Ryzen schizzinoso con le memorie, e prestazioni del chipset non all'altezza (mi riferisco in particolare al controller SATA; vedi i test che sono stati fatti con gli SSD), c'è un bagno di sangue.

Se hai seguito le avventure di chi per primo s'è buttato in quest'avventura, dovresti esserne a conoscenza. Tant'è che già alcuni utenti hanno mestamente restituito Ryzen.

AMD avrebbe dovuto posticipare di un paio di mesi la commercializzazione di Ryzen. Ma capisco che con Skylake-X e Kabylake-X alle porte, abbia voluto anticipare per accaparrarsi un po' di mercato, e far prendere una boccata d'ossigeno alle proprie finanze.

Solo che tutto ciò le si potrà rivelare deleterio in termini di cattiva pubblicità che sta raccogliendo, tant'è che sta già ritornando il mito di "AMD non compatibile"...
No, non serve che i giochi siano realizzati dalla stessa mano, basta che riconoscano erroneamente la topologia della CPU.
In questo caso non è un problema dei giochi, ma di come la CPU esponga le informazioni sui propri core/thread hardware, e di conseguenza come poi il s.o. (e non le applicazioni) li gestisca.

Come già detto, per come si comporta sarebbe stato meglio far vedere Ryzen come sistema NUMA, quanto meno per evitare lo spostamento dei processi/thread da un CCX a un altro.

Parliamoci chiaramente: pensi che gli sviluppatori debbano aggiungere codice apposito alle loro applicazioni / giochi per gestire correttamente Ryzen, quando è il s.o. a doversene fare carico? E se domani AMD dovesse cambiare l'implementazione, cosa succederebbe?

E' per questo che certe questioni debbano essere delegate al s.o. e/o driver della CPU (a supporto del primo), che si possono aggiornare, e gestire il tutto senza che le applicazioni debbano essere toccate di una virgola.

Non si può tornare ai tempi in cui si doveva scrivere codice apposito per ogni tipologia di hardware a disposizione. Non ci sono più le risorse per poterlo fare, a causa dei troppi tipi di hardware che circolano, e che anche in futuro arriveranno.

L'astrazione dall'hardware, nel bene e male, è e rimane il miglior compromesso che sia stato raggiunto. ;)

Buona giornata a tutti.

bjt2
17-03-2017, 06:51
In realtà da nuove notizie il fix è disponibile da inizio febbraio, ma a causa dei tempi di validazione, non si è potuto integrarli nelle CPU uscite dalla fabbrica. Il fix sarà integrato nel firmware datato 27 febbraio... Fonte: the stilt.

leoneazzurro
17-03-2017, 08:31
OT: sono tornato da poco qua, ma da quand'è che non sei più moderatore? per curiosità...

Da anni direi, troppo lavoro + figli = niente tempo da dedicare a questa attività

george_p
17-03-2017, 08:49
Che è proprio quello che avevo detto qualche post fa. Mi riquoto:

"Personalmente e da programmatore posso capire che si possa compilare un'applicazione con un compilatore Intel (che a default ottimizza al meglio per ALCUNE delle sue micro-architetture), oppure usando un altro compilatore ma generando codice più ottimizzato per le micro-architetture più utilizzate.

Ma a parte questo, dubito che gli sviluppatori perdano tempo con ottimizzazioni IN CODICE appositamente per Intel."

Come ho precisato nell'ultima frase, dubito che si possa scrivere del codice apposito per un preciso processore.

Meglio affidare il lavoro ai compilatori, per l'appunto. E ai s.o. / driver; vedi sotto.

Alessio89 è stato più dettagliato, ma il concetto è esattamente lo stesso. ;)


Ok

leoneazzurro
17-03-2017, 09:22
Non è questo il punto. Se hai letto tutto, c'è anche la questione dei rank delle memorie. Dunque con Ryzen bisogna stare attenti pure a questo.

Tant'è che c'è pure un elenco di memorie consigliate:

"Potential kits include:
Geil EVO X - GEX416GB3200C16DC [16-16-16-36 @ 1.35v]
G.Skill Trident Z - F4-3200C16D-16GTZR [16-18-18-36 @ 1.35v]
Corsair CMK16GX4M2B3200C16 VERSION 5.39 [16-18-18-36 @ 1.35v]"

perché bisogna andare a caccia di precisi chip di memoria:

"kits based on Samsung “B-die” memory chips"

Ora, questo lo può fare uno smanettone che ha parecchio tempo da perdere e che si documenta per bene prima di acquistare qualcosa, ma mettiti nei panni di quelli che non lo sono (leggi: la massa).

Aggiungici che al momento fra schede madri e firmware immaturi, Ryzen schizzinoso con le memorie, e prestazioni del chipset non all'altezza (mi riferisco in particolare al controller SATA; vedi i test che sono stati fatti con gli SSD), c'è un bagno di sangue.

Se hai seguito le avventure di chi per primo s'è buttato in quest'avventura, dovresti esserne a conoscenza. Tant'è che già alcuni utenti hanno mestamente restituito Ryzen.


Stai esagerando il problema. Ho letto di un paio di casi, e di norma i forum tendono sempre ad ingigantire le questioni. Ci sono anche i moltissimi utenti soddisfatti. Per a questione memorie: molto è dovuto anche ai BIOS immaturi, e non ci piove che sarebbero dovuti essere meno "beta" (ne riparlo un po' più giù) ma la lista di compatibilità delle memorie è una cosa che hanno tutti i produttori e cosa Ryzen gestiva e come si era visto già prima della commercializzazione (basta vedere la tabella riguardante le frequenze massime supportate di specifica da AMD con banchi SS/DS). Nessuno testa TUTTI i moduli di RAM esistenti, e spesso chi si lamenta lo fa perchè non riesce ad arrivare a frequenze ufficialmente non supportata. Evocare spettri di "incompatibilità" lo farebbero solo i fan Intel più sfegatati.
Questione maturità: posto che qualunque piattaforma nuova ha le sue magagne, e non solo in campo informatico, pensare che se AMD avesse rimandato di qualche mese la situazione sarebbe stata diversa è abbastanza ingenuo. Molte cose sono totalmente al di fuori del controllo di AMD: i produttori di schede madri non sono di proprietà AMD e hanno anche altre priorità. Da come conosco io diverse aziende, tra due-tre mesi, senza il prodotto fuori su cui lavorare, la situazione sarebbe stata esattamente la stessa.

street
17-03-2017, 09:48
Se tiri in ballo la professione (anche ex) di qualcuno quando si fanno dei precisi discorsi/ragionamenti, senza provare che certe risposte siano dovute proprio a questo motivo, ricadi nella fallacia (comune e purtroppo diffusa) logica dell'attacco ad hominen (http://www.linux.it/~della/fallacies/ad-hominem.html).

In una discussione l'unica cosa che dovrebbe contare, nonché essere vagliata / analizzata, è rappresentata dai FATTI e dalle ARGOMENTAZIONI esposte dalle parti.


guarda, io glielo facevo presente per evitare ulteriori wot che rendono faticoso leggere un thread, cosa puntualmente avveratasi.
Se per te è un attacco ad hominem, fai pure. io lo leggo più "coda di paglia", visto che attacchi non mi sembra di avertene fatti. a meno che dire "sicuramente di competenza tecnica ne ha" lo sia.

rug22
17-03-2017, 12:47
Ma questa incompatibilità da cosa è data?alpha timings settati a default in modo errato?

leoneazzurro
17-03-2017, 12:57
Ma questa incompatibilità da cosa è data?alpha timings settati a default in modo errato?

http://www.legitreviews.com/ddr4-memory-scaling-amd-am4-platform-best-memory-kit-amd-ryzen-cpus_192259

Questa è la questione della "compatibilità". Incompatibilità di certi modelli di RAM su specifiche motherboard ci possono essere e ci sono sempre stati. In genere quando si vuole acquistare una motherboard + RAM si controlla la compatibility list del produttore della motherboards. E questo non vale solo per AMD perchè ci può essere un problema specifico della motherboard.

rug22
17-03-2017, 13:50
seeeeee vabbè,si dovrebbe fare,ma io non l'ho mai fatto.

Se ho capito bene è un problema di timings e di frequenza,se è realmente questo si risolve facile con un bios che parta con certi alpha.

leoneazzurro
17-03-2017, 14:00
E' un problema di velocità supportate in base al tipo di memoria e al numero di banchi riempiti. Se si va oltre con la frequenza il funzionamento non è garantito da AMD. I produttori di MB poi possono implementare altre frequenze ma il supporto e la garanzia su questi non è a carico di AMD.

rug22
17-03-2017, 16:24
E' un problema di velocità supportate in base al tipo di memoria e al numero di banchi riempiti. Se si va oltre con la frequenza il funzionamento non è garantito da AMD. I produttori di MB poi possono implementare altre frequenze ma il supporto e la garanzia su questi non è a carico di AMD.

Io chiedo quale è il problema e ipotizzo una causa, tu dici quale è il problema ma non ipotizzi una causa.

Incompatibilità ok,ma perchè?Con le ram solitamente il problema sono i timings.

Lo chiedo per capire se è un problema facilmente risolvibile o qualcosa di più serio e che quindi in futuro effettivamente limiterà lo sviluppo della piattaforma.

Nui_Mg
17-03-2017, 20:22
Aggiungici che al momento fra schede madri e firmware immaturi, Ryzen schizzinoso con le memorie, e prestazioni del chipset non all'altezza (mi riferisco in particolare al controller SATA; vedi i test che sono stati fatti con gli SSD), c'è un bagno di sangue.
Con l'ssd su pcie il divario è ancora più grosso con Intel, siamo attorno al centinaio di MB/s in più a favore di intel per quanto riguarda il 4k random (uno dei dati più importanti negli ssd). Mi sa poi che la cosa è ancora più grave perché le linee provengono dal soc ryzen stesso e non chipset.

Capisco che per mobo/bios/ecc. la colpa sia soprattutto dei produttori di mobo che non ci hanno creduto più di tanto, ma cazzo, amd ci ha messo molto di suo (per esempio il non divulgare subito alcune info vitali che ha allarmato tantissimi utenti, vedi l'offset temperature per i modelli x), è stato un debutto teriBBile che ha gettato ombre nefaste su un SoC amd che all'atto pratico è ben meno disastroso di quanto parrebbe.

Un peccato, speravo che Intel contrattaccasse velocemente ma evidentemente non è preoccupata.

leoneazzurro
17-03-2017, 20:32
Io chiedo quale è il problema e ipotizzo una causa, tu dici quale è il problema ma non ipotizzi una causa.

Incompatibilità ok,ma perchè?Con le ram solitamente il problema sono i timings.

Lo chiedo per capire se è un problema facilmente risolvibile o qualcosa di più serio e che quindi in futuro effettivamente limiterà lo sviluppo della piattaforma.

Si possono fare mille ipotesi, fatto sta che ci sono memorie che vanno anche a 2933 Mhz o anche a 3200 Mhz e altre che se vengono portate fuori specifica AMD danno problemi. Dato che alcune RAM vanno, non è un problema intrinseco di frequenza del memory controller, potrebbe essere più probabilmente un problema di incorretto "dialogo" tra controller della memoria e determinate memorie. Da qui a capire se e come possa essere risolvibile ce ne passa. In alcuni casi potrebbe essere un semplice problema di BIOS, in altri potrebbe essere un vero e proprio conflitto tra RAM e MB.

NvidiaMen
17-03-2017, 23:16
Sembra incredibile, ma ecco finalmente un gioco non ottimizzato per architetture Intel oppure ottimizzato per Ryzen, fate un po' voi... :D :D :D
Deus Ex: Mankind Divided.

http://i68.tinypic.com/2z4crj4.jpg

http://i68.tinypic.com/2gv50dl.jpg

http://i66.tinypic.com/2ngv12u.jpg

http://i67.tinypic.com/25im1cz.jpg

http://i67.tinypic.com/2zr0ps1.jpg

http://i67.tinypic.com/126fwxl.jpg

cdimauro
18-03-2017, 05:53
In realtà da nuove notizie il fix è disponibile da inizio febbraio, ma a causa dei tempi di validazione, non si è potuto integrarli nelle CPU uscite dalla fabbrica. Il fix sarà integrato nel firmware datato 27 febbraio... Fonte: the stilt.
Lo credo bene: all'epoca le CPU dovevano essere già sfornate per andare a finire ai grossisti.

Comunque è cosa normale, e va tutto bene finché è risolvibile con un aggiornamento del firmware, visto che per le nuove CPU capita che agli inizi possano essere rilasciati dei firmware per risolvere delle problematiche.
Stai esagerando il problema. Ho letto di un paio di casi, e di norma i forum tendono sempre ad ingigantire le questioni. Ci sono anche i moltissimi utenti soddisfatti.
I casi non sono soltanto un paio, e c'è gente che ha persino bruciato qualche banco di memoria. Ma questo lo dovresti sapere, visto che segui certi thread.

Poi che molti non abbiano problemi non ho difficoltà ad accettarlo.
Per a questione memorie: molto è dovuto anche ai BIOS immaturi, e non ci piove che sarebbero dovuti essere meno "beta" (ne riparlo un po' più giù) ma la lista di compatibilità delle memorie è una cosa che hanno tutti i produttori e cosa Ryzen gestiva e come si era visto già prima della commercializzazione (basta vedere la tabella riguardante le frequenze massime supportate di specifica da AMD con banchi SS/DS). Nessuno testa TUTTI i moduli di RAM esistenti, e spesso chi si lamenta lo fa perchè non riesce ad arrivare a frequenze ufficialmente non supportata.
Si lamenta anche gente che aveva già dei banchi di memoria e che non funzionano, vista la schizzinosità della piattaforma.

Per la mia Gigabyte H170M-D3H c'è una lista di memorie certificate (QVL) (http://download.gigabyte.eu/FileList/Memory/mb_memory_ga-h170m-d3h.pdf), ma le memorie che monto non sono elencate (proprio perché il produttore non le testa tutte).

Poi la lista delle memorie certificate lascia il tempo che trova, e Catan ha spiegato bene la situazione.
Evocare spettri di "incompatibilità" lo farebbero solo i fan Intel più sfegatati.
O gente che ha provato Ryzen e ha effettuato il reso. E ce ne sono, come dovresti sapere, visto che ormai non è inusuale che ne spunti fuori qualcuno. Tutti fan Intel "sfegatati"?
Questione maturità: posto che qualunque piattaforma nuova ha le sue magagne, e non solo in campo informatico, pensare che se AMD avesse rimandato di qualche mese la situazione sarebbe stata diversa è abbastanza ingenuo. Molte cose sono totalmente al di fuori del controllo di AMD: i produttori di schede madri non sono di proprietà AMD e hanno anche altre priorità. Da come conosco io diverse aziende, tra due-tre mesi, senza il prodotto fuori su cui lavorare, la situazione sarebbe stata esattamente la stessa.
Posto che non ho mai letto di quantità tali di magagne con le piattaforme Intel all'uscita di suoi processori, stai scartando l'ipotesi che i produttori di schede madri abbiano avuto poco tempo per testare meglio le piattaforma.

Perché non penso che abbiano tutta questa gran voglia di avere a che fare coi resi, che come sai sono piuttosto costosi per un produttore, specialmente coi margini ridotti che ci sono con questa tipologia di prodotti.

A quanto pare con Ryzen praticamente tutti i produttori di schede madri hanno deciso di suicidarsi come i lemmings, sfornando schede madri che presentano problemi...
Con l'ssd su pcie il divario è ancora più grosso con Intel, siamo attorno al centinaio di MB/s in più a favore di intel per quanto riguarda il 4k random (uno dei dati più importanti negli ssd).
Francamente adesso non ricordo se il problema fosse saltato fuori usando il PCI-Express (M2?) o il normale controller SATA (che comunque passa da una linea PCI-E, e dunque immagino che avrebbe comunque gli stessi problemi), ma prendo per buono quello che hai detto, visto che in passato ti sei particolarmente documentato nonché interessato ai chipset.
Mi sa poi che la cosa è ancora più grave perché le linee provengono dal soc ryzen stesso e non chipset.
Questo sarebbe un problema solo per le soluzioni "senza chipset" (quelle più economiche, ma che immagino vedremo solo con le APU), cioé che sfruttino solo le linee PCI-E di Ryzen.

Ma non sembra il caso, visto che affermi con certezza che sono quelle provenienti da Ryzen.
Capisco che per mobo/bios/ecc. la colpa sia soprattutto dei produttori di mobo che non ci hanno creduto più di tanto, ma cazzo, amd ci ha messo molto di suo (per esempio il non divulgare subito alcune info vitali che ha allarmato tantissimi utenti, vedi l'offset temperature per i modelli x), è stato un debutto teriBBile che ha gettato ombre nefaste su un SoC amd che all'atto pratico è ben meno disastroso di quanto parrebbe.
L'impressione che si ha è quella, infatti.
Un peccato, speravo che Intel contrattaccasse velocemente ma evidentemente non è preoccupata.
In effetti sembra proprio così, considerato che sono passate più di 2 settimane ormai, e non c'è la minima traccia di cambiamenti di listino né tanto meno del famigerato Kaby Lake "pompato".

Ma ciò non esclude che a breve possa esserci qualche annuncio. Magari stanno aspettando di valutare l'impatto sulle vendite, prima di prendere qualche decisione.

cdimauro
18-03-2017, 06:03
guarda, io glielo facevo presente per evitare ulteriori wot che rendono faticoso leggere un thread, cosa puntualmente avveratasi.
Se per te è un attacco ad hominem, fai pure. io lo leggo più "coda di paglia", visto che attacchi non mi sembra di avertene fatti. a meno che dire "sicuramente di competenza tecnica ne ha" lo sia.
Non è un attacco ad hominem. Per configurarsi come tale, io avrei dovuto fare un'affermazione X, e tu avresti dovuto confutarla soltanto sulla base che io fossi un (ex) dipendente Intel (in questo caso). Cosa che non è avvenuta.

"Semplicemente" hai affermato di "fare la tara" a quello che dico solo per il mio pregresso professionale, a cui hai successivamente aggiunto che mi definiresti "imparziale" solo se "non ci mettessi passione".

Al che ho sottolineato che in questo modo ci sarebbe il rischio di ricadere nella suddetta fallacia logica, a meno che non fosse provata, ovviamente.

E ho concluso affermando che, invece, si dovrebbero prendere fatti e argomentazioni per quello che sono, e valutarli in quanto tali (per l'intrinseco contenuto). Dunque escludendo eventuali "bias" (non mi viene il termine italiano al momento).

Spero di aver chiarito, ma ne approfitto per ribadire ancora una volta che non c'era nessun tuo attacco nei miei confronti né il viceversa.
Sembra incredibile, ma ecco finalmente un gioco non ottimizzato per architetture Intel oppure ottimizzato per Ryzen, fate un po' voi... :D :D :D
Deus Ex: Mankind Divided.
[...]

Non è incredibile: i giochi sono spesso diversi, per cui si comportano diversamente.

Non penso nemmeno che si possa parlare di ottimizzazione per le (micro)architetture Intel, tranne per l'eventuale compilazione di cui ho discusso con george. ;)

Buona giornata a tutti. :)

Piedone1113
18-03-2017, 08:10
Ma ciò non esclude che a breve possa esserci qualche annuncio. Magari stanno aspettando di valutare l'impatto sulle vendite, prima di prendere qualche decisione.

L'ho gia ribadito molte volte nel th aspettando:
1: intel ha a suo favore l'inerzia del mercato, inclusi i contratti a lungo termine con i grossisti.
2: Se non si abbassano le quote di mercato in modo significativo abbassare i listini significa abbassare gli utili.

Se io produttore ho una vendita sullo specifico mercato del 100% ( cpu da 8 core o più) per tagliare il listino (sarebbe meglio dire riposizionare il listino) devo avere una contrazione di almeno il 15-20%.
Non avrebbe senso per me abbassare il listino del 20% se poi ho una flessione del solo 10%, anzi sarebbe autolesionismo perchè diminuirei gli utili.
Se rammenti con l'uscità dei Core 2 AMD (nonostante la netta inferiorità tecnica) abbasso il listino poco per volta in tempi diversi per arginare la perdità di quote di mercato.
A sfavore di amd però ci fu:
A, una evidente inferiorità dei propri prodotti
B, la capacità produttiva di Intel elevatà che saturò subito il mercato con i suoi prodotti.
In questo caso i prodotti AMD ed Intel sono sovrapponibili come prestazioni (a fronte di un evidente costo diverso) e sopratutto tra carenze cpu (andate subito a ruba) e di motherboard (molte non pervenute) la diversa scalata di marketshare sarà più lenta ed omogenea (con evidente maggior tempo di intel di aspettare il mercato e applicare ritocchi ai listini invece che tagli).

bjt2
18-03-2017, 09:31
Sembra incredibile, ma ecco finalmente un gioco non ottimizzato per architetture Intel oppure ottimizzato per Ryzen, fate un po' voi... :D :D :D
Deus Ex: Mankind Divided.



[IMGhttp://i68.tinypic.com/2gv50dl.jpg



[IMGhttp://i67.tinypic.com/25im1cz.jpg



[IMGhttp://i67.tinypic.com/126fwxl.jpg

Schifano talmente tanto quel gioco, perchè favorisce l'odiata AMD ( :ciapet: ) che hanno sbagliato a scrivere il nome in tutti i grafici... :asd: :read:

NvidiaMen
18-03-2017, 12:11
Non è incredibile: i giochi sono spesso diversi, per cui si comportano diversamente.

Non penso nemmeno che si possa parlare di ottimizzazione per le (micro)architetture Intel, tranne per l'eventuale compilazione di cui ho discusso con george. ;)

Buona giornata a tutti. :)
A mio modestissimo avviso le ottimizzazioni (che siano proposte da Intel o da AMD) contano eccome, per te potrà rimanere il mio un parere del tutto personale, del quale però io rimango fermamente convinto. La patch Deus EX Mankind Divided (http://gaming.hwupgrade.it/news/videogames/deus-ex-mankind-divided-come-migliora-con-le-directx-12_65561.html) uscita solo successivamente per sfruttare al meglio sia le DX12 che l'hardware multithread, attraverso la collaborazione con AMD, utilizza il motore Dawn Engine il quale gestisce funzionalità grafiche come ad esempio il "Pure Hair Technology" che attraverso una efficiente quanto corretta gestione dei thread simula il movimento dinamico dei ciuffi dei capelli Slave dei personaggi attraverso un algoritmo di fisica cinematica che li lega ai ciuffi di capelli Master al fine di contenere il calcolo sulla GPU e spostarlo sulla CPU.
Ovviamente le ottimizzazioni sviluppate con AMD non si fermano qui ma riguardano lato GPU e CPU altre tecnologie grafiche come il: Contact Hardening Shadows, il Parallax Occlusion Mapping, le illuminazioni volumetriche, il Sub-Surface Scattering, una sottospecie di ray-Tracing (altamente semplificato) per la gestione dell'assorbimento della luce della pelle dei personaggi ed il Bokeh Depth of Field.
Inoltre già nelle DX11 tra il preset di "dettaglio elevato" e quello "dettaglio molto elevato" (http://gaming.hwupgrade.it/news/videogames/deus-ex-mankind-divided-ecco-com-e-la-grafica-su-pc_64210.html) nel primo caso il motore grafico non applica le illuminazioni agli oggetti che si trovano oltre una certa distanza rispetto al punto di osservazione, mentre nel secondo caso sì. Nel preset "very high detail" prima di procedere con la rasterizzazione occorrerà che la CPU prepari una scena geometricamente più complessa per il calcolo delle triangolazioni poligonali illuminate da quelle in ombra, trattandosi di oggetti da illuminare riferiti a livelli di profondità differenti il carico è stato diviso in thread, ed alla fine del suo lavoro il thread sottoposto ad una computazione geometrica (intersezioni) più complessa rappresenterà nella scena il proprio risultato sommandolo a quello del thread meno complesso che avrà completato prima il lavoro. Tutto ciò restituisce così una scena più realistica anche a distanze maggiori dal punto di osservazione.
Molte di queste tecniche richiedono molte elaborazioni parallele da parte della CPU ed il risultato dei bench di Deus Ex (https://www.youtube.com/watch?v=2gjJlNOlVqA) che sfrutta meglio di altri giochi la gran parte dei thread messi a disposizione dalla CPU conferma tutto questo.
E' bene osservare che in Deus Ex e nel caso del 7700k l'IPC più elevato di quest'ultimo compensa il maggior numero di core (thread) del 6900k mostrando un pareggio tra le due diverse architetture Intel. AMD con Ryzen ne esce vincitrice perché la gestione in multithreading è più efficiente della controparte Intel, situazione già vista in tutti i test con software multithread (Cinebench incluso). Questo è solo un piccolo assaggio di ciò che ha già annunciato AMD con i suoi tool di sviluppo distribuiti alla software house, ovvero di come le ottimizzazioni nei prossimi titoli sfrutteranno molto di più le architetture Ryzen e di conseguenza e riflesso anche gli Intel 6xx0.

nickname88
18-03-2017, 12:14
Schifano talmente tanto quel gioco, perchè favorisce l'odiata AMD ( :ciapet: ) che hanno sbagliato a scrivere il nome in tutti i grafici... :asd: :read:

In realtà ci sono molte recensione dove il risultato è contrario

leoneazzurro
18-03-2017, 13:47
I casi non sono soltanto un paio, e c'è gente che ha persino bruciato qualche banco di memoria. Ma questo lo dovresti sapere, visto che segui certi thread.

Poi che molti non abbiano problemi non ho difficoltà ad accettarlo.

Si lamenta anche gente che aveva già dei banchi di memoria e che non funzionano, vista la schizzinosità della piattaforma.

Per la mia Gigabyte H170M-D3H c'è una lista di memorie certificate (QVL) (http://download.gigabyte.eu/FileList/Memory/mb_memory_ga-h170m-d3h.pdf), ma le memorie che monto non sono elencate (proprio perché il produttore non le testa tutte).

Poi la lista delle memorie certificate lascia il tempo che trova, e Catan ha spiegato bene la situazione.


Io sto parlando di chi ha restituito il sistema dopo averlo provato, non di chi annulla gli ordini spaventato da chi va propagandando incompatibilità varie. Scusa Cesare ma hai presente che chi ha bruciato le memorie le ha anche overvoltate perchè stava overcloccando (ed è accaduto su di una UNICA piattaforma, la Gigabyte)? Hai capito o no che c'è gente che si lamenta perchè cerca di portare le memorie oltre specifica e poi il sistema gli va in blocco? Come se io mettessi alla mia macchina ruote certificate solo fino a 180 Km/h e poi mi lamento se a 210 vado fuori strada. La piattaforma è immatura, schizzinosa ma trovami UN recensore che stia dicendo che c'è un problema sulla CPU. E la tabella di compatibilità delle memorie non è "un vezzo", è quello he il produttore ti dice che è certo che funzioni. Come le gomme di cui sopra. Ci sono stati notevoli problemi di compatibilità memorie anche al tempo di Haswell, quando uscirono le prime MB, e non ho sentito nessuno strapparsi i capelli per quel motivo...

Ma giusto per capirsi:
http://www.webhostingtalk.com/showthread.php?t=1305328
https://communities.intel.com/thread/46848
https://techreport.com/forums/viewtopic.php?t=94534
https://rog.asus.com/forum/showthread.php?78760-From-BIOS-1601-to-1701-produces-RAM-compatibility-issues
https://discuss.howtogeek.com/t/ram-compatibility-with-haswell/4787/4
http://www.makeuseof.com/tag/ram-speed-running-advertised-try-turning-xmp-watch/
https://forums.tweaktown.com/asrock/60538-dr-debug-error-53-67-asrock-x99-ws-skill-ripjaws-4-series-16gb-2x8gb-intel-core-i7-5820k-haswell-6-core-3-3ghz-lga2011-v3-cpu.html
https://forums.macrumors.com/threads/2013-haswell-imac-32gb-ram-crashing.1668450/

TheDarkAngel
18-03-2017, 13:56
Ci sono stati notevoli problemi di compatibilità memorie anche al tempo di Haswell, quando uscirono le prime MB, e non ho sentito nessuno strapparsi i capelli per quel motivo...
Invece molti di quelli che hanno effettu

Anche per gli alimentatori a causa dei nuovi c state :p
Le piattaforme intel sono state tutte piene di piccoli o grandi problemi, io li ricordo e non ne ho fatto una tragedia, ora invece sembra chissà quale nuovo avvento. :mbe:

NvidiaMen
18-03-2017, 14:28
In realtà ci sono molte recensione dove il risultato è contrario

Occorrerà che molti recensori di riferimento nel mondo dell'IT più avanti, magari in occasione della presentazione dei nuovi Ryzen six e quad core, rieseguino molti test in quanto i primi bench sulle nuove architetture AMD sono stati effettuati (ovviamente nessuno poteva immaginarselo) senza disabilitare il "risparmio energetico bilanciato" che in Windows 10 crea molta latenza spegnendo in modo eccessivo i core (core parking) nel corso delle normali attività di elaborazione delle CPU.
I riferimenti prestazionali relativamente a Deus Ex Mankind Divided che ho postato in precedenza (https://www.tomshw.it/ryzen-7-vs-core-i7-gaming-situazione-attuale-84125-p4) sono stati eseguiti con tale metodologia, in attesa di una patch correttiva di AMD per Windows 10, ovvero sia disabilitando l'HPET (High Precision Event Timer) che utilizzando il profilo energetico High performance (Elevate prestazioni) di Windows (https://www.tomshw.it/ryzen-7-vs-core-i7-gaming-situazione-attuale-84125-p2).

nickname88
18-03-2017, 14:55
Occorrerà che molti recensori di riferimento nel mondo dell'IT più avanti, magari in occasione della presentazione dei nuovi Ryzen six e quad core, rieseguino molti test in quanto i primi bench sulle nuove architetture AMD sono stati effettuati (ovviamente nessuno poteva immaginarselo) senza disabilitare il "risparmio energetico bilanciato" che in Windows 10 crea molta latenza spegnendo in modo eccessivo i core (core parking) nel corso delle normali attività di elaborazione delle CPU.
I riferimenti prestazionali relativamente a Deus Ex Mankind Divided che ho postato in precedenza (https://www.tomshw.it/ryzen-7-vs-core-i7-gaming-situazione-attuale-84125-p4) sono stati eseguiti con tale metodologia, in attesa di una patch correttiva di AMD per Windows 10, ovvero sia disabilitando l'HPET (High Precision Event Timer) che utilizzando il profilo energetico High performance (Elevate prestazioni) di Windows (https://www.tomshw.it/ryzen-7-vs-core-i7-gaming-situazione-attuale-84125-p2).Anche disabilitando l'HPET col profilo HP togli di fatto il risparmio energetico, quindi mi pare di capire che la cpu sta sempre alla massima frequenza.

Mister D
18-03-2017, 15:17
Io sto parlando di chi ha restituito il sistema dopo averlo provato, non di chi annulla gli ordini spaventato da chi va propagandando incompatibilità varie. Scusa Cesare ma hai presente che chi ha bruciato le memorie le ha anche overvoltate perchè stava overcloccando (ed è accaduto su di una UNICA piattaforma, la Gigabyte)? Hai capito o no che c'è gente che si lamenta perchè cerca di portare le memorie oltre specifica e poi il sistema gli va in blocco? Come se io mettessi alla mia macchina ruote certificate solo fino a 180 Km/h e poi mi lamento se a 210 vado fuori strada. La piattaforma è immatura, schizzinosa ma trovami UN recensore che stia dicendo che c'è un problema sulla CPU. E la tabella di compatibilità delle memorie non è "un vezzo", è quello he il produttore ti dice che è certo che funzioni. Come le gomme di cui sopra. Ci sono stati notevoli problemi di compatibilità memorie anche al tempo di Haswell, quando uscirono le prime MB, e non ho sentito nessuno strapparsi i capelli per quel motivo...

Ma giusto per capirsi:
http://www.webhostingtalk.com/showthread.php?t=1305328
https://communities.intel.com/thread/46848
https://techreport.com/forums/viewtopic.php?t=94534
https://rog.asus.com/forum/showthread.php?78760-From-BIOS-1601-to-1701-produces-RAM-compatibility-issues
https://discuss.howtogeek.com/t/ram-compatibility-with-haswell/4787/4
http://www.makeuseof.com/tag/ram-speed-running-advertised-try-turning-xmp-watch/
https://forums.tweaktown.com/asrock/60538-dr-debug-error-53-67-asrock-x99-ws-skill-ripjaws-4-series-16gb-2x8gb-intel-core-i7-5820k-haswell-6-core-3-3ghz-lga2011-v3-cpu.html
https://forums.macrumors.com/threads/2013-haswell-imac-32gb-ram-crashing.1668450/

Quoto e cmq un paio di utenti sul thread ufficiale hanno confermato di aver avuto problemi anche con le loro passate piattaforme intel (sandy-e, chi skylake/kabylake, ecc). Anzi mi pare "normale" ma deprecabile (perché putroppo TUTTE le case ci fanno diventare betatester non pagati) che le prime settimane fino ai primi mesi i bios possano non essere a puntino.
Poi che amd per via del suo market share minore (e di molto) rispetto ad intel venga seguita con MINORE PRIORITA' dai produttori di schede madri rispetto ad intel, è altrettanto pacifico.
Insomma tutto dovrebbe essere gestito con l'analisi del rischio.
Che rischio corro a comprare al day one o nel primo mese una nuova piattaforma amd o intel che sia? Bios acerbi, poco compatibilità con le ram, ecc
Sono un tipo di utente avezzo a questo tipo di problematiche? Non mi da fastidio aspettare e per me il rischio è accettabile? Se sì allora compro se no allora aspetto e bona lì.
Che poi io di problemi con le ram ne ho avuti in egual misura sia su amd che su intel dal socket 478 e amd 939 fino ai recenti ma mica mi sogno di venire qua e lamentarmi con i produttori delle cpu. Il problema è dei produttori delle scheda madri e dei produttori delle ram che devono cooperare per produrre moduli che siano compatibili con le specifiche rilasciate da intel e amd. Soprattutto se poi scelgo di prendere ram fuori da specifica jedec e fuori dal massimo supportato dal Memory controller delle cpu intel amd.
Tutto il resto è fuffa, per me;)

Mister D
18-03-2017, 15:25
Anche disabilitando l'HPET col profilo HP togli di fatto il risparmio energetico, quindi mi pare di capire che la cpu sta sempre alla massima frequenza.

Anche io avevo questo dubbio (perché attualmente ho win10 solo su portatili) ma invece ho scoperto da altro utente che mettendo profilo HP puoi modificare su WIN10 (su win 7 no), come succede sui mobile, il livello minimo della cpu mettendolo al 5% e così C&Q funziona e la cpu scnede al minimo p-state. La cosa buona è che con HP il core parking viene disattivato e il controllo dello switch dei p-stata passa da software (lo stesso windows) al controllo hardware (che con ryzen è di 1ms come anche con kabylake).
Aggiungo che chi ha per es i 6900k ha notato che cmq il parking è su OFF anche con bilanciato perché sicuramente intel lo avrà richiesto a microsoft. Cosa che amd ha fatto e a leggere da qui verrà risolta dai primi di aprile quando anche per ryzen il core parking e il p-state switch sarà hardware anche su bilanciato:
https://community.amd.com/community/gaming/blog/2017/03/14/tips-for-building-a-better-amd-ryzen-system
Mind Your Power Plan
Make sure the Windows® 10 High Performance power plan is being used (picture). The High Performance plan offers two key benefits:

1. Core Parking OFF: Idle CPU cores are instantaneously available for thread scheduling. In contrast, the Balanced plan aggressively places idle CPU cores into low power states. This can cause additional latency when un-parking cores to accommodate varying loads.
2. Fast frequency change: The AMD Ryzen™ processor can alter its voltage and frequency states in the 1ms intervals natively supported by the “Zen” architecture. In contrast, the Balanced plan may take longer for voltage and frequency changes due to software participation in power state changes.

In the near term, we recommend that games and other high-performance applications are complemented by the High Performance plan. By the first week of April, AMD intends to provide an update for AMD Ryzen™ processors that optimizes the power policy parameters of the Balanced plan to favor performance more consistent with the typical usage models of a desktop PC.

Lo stesso utente che me lo ha confermato cmq ha rilasciato sul thread oc di rzyen modifica al registro di windows che introduce nelle impostazioni avanzate del risparmio energetico la possibilità di modificare per ogni profilo il core parking da 100% a 0%.

NvidiaMen
18-03-2017, 15:50
Anche io avevo questo dubbio (perché attualmente ho win10 solo su portatili) ma invece ho scoperto da altro utente che mettendo profilo HP puoi modificare su WIN10 (su win 7 no), come succede sui mobile, il livello minimo della cpu mettendolo al 5% e così C&Q funziona e la cpu scnede al minimo p-state. La cosa buona è che con HP il core parking viene disattivato e il controllo dello switch dei p-stata passa da software (lo stesso windows) al controllo hardware (che con ryzen è di 1ms come anche con kabylake).
Aggiungo che chi ha per es i 6900k ha notato che cmq il parking è su OFF anche con bilanciato perché sicuramente intel lo avrà richiesto a microsoft. Cosa che amd ha fatto e a leggere da qui verrà risolta dai primi di aprile quando anche per ryzen il core parking e il p-state switch sarà hardware anche su bilanciato:
https://community.amd.com/community/gaming/blog/2017/03/14/tips-for-building-a-better-amd-ryzen-system
Mind Your Power Plan
Make sure the Windows® 10 High Performance power plan is being used (picture). The High Performance plan offers two key benefits:

1. Core Parking OFF: Idle CPU cores are instantaneously available for thread scheduling. In contrast, the Balanced plan aggressively places idle CPU cores into low power states. This can cause additional latency when un-parking cores to accommodate varying loads.
2. Fast frequency change: The AMD Ryzen™ processor can alter its voltage and frequency states in the 1ms intervals natively supported by the “Zen” architecture. In contrast, the Balanced plan may take longer for voltage and frequency changes due to software participation in power state changes.

In the near term, we recommend that games and other high-performance applications are complemented by the High Performance plan. By the first week of April, AMD intends to provide an update for AMD Ryzen™ processors that optimizes the power policy parameters of the Balanced plan to favor performance more consistent with the typical usage models of a desktop PC.

Lo stesso utente che me lo ha confermato cmq ha rilasciato sul thread oc di rzyen modifica al registro di windows che introduce nelle impostazioni avanzate del risparmio energetico la possibilità di modificare per ogni profilo il core parking da 100% a 0%.

Ottima puntualizzazione Mister D. Mi hai preceduto. :)

nickname88
19-03-2017, 07:46
Anche io avevo questo dubbio (perché attualmente ho win10 solo su portatili) ma invece ho scoperto da altro utente che mettendo profilo HP puoi modificare su WIN10 (su win 7 no), come succede sui mobile, il livello minimo della cpu mettendolo al 5% e così C&Q funziona e la cpu scnede al minimo p-state. La cosa buona è che con HP il core parking viene disattivato e il controllo dello switch dei p-stata passa da software (lo stesso windows) al controllo hardware (che con ryzen è di 1ms come anche con kabylake).
Aggiungo che chi ha per es i 6900k ha notato che cmq il parking è su OFF anche con bilanciato perché sicuramente intel lo avrà richiesto a microsoft. Cosa che amd ha fatto e a leggere da qui verrà risolta dai primi di aprile quando anche per ryzen il core parking e il p-state switch sarà hardware anche su bilanciato:
https://community.amd.com/community/gaming/blog/2017/03/14/tips-for-building-a-better-amd-ryzen-system
Mind Your Power Plan
Make sure the Windows® 10 High Performance power plan is being used (picture). The High Performance plan offers two key benefits:

1. Core Parking OFF: Idle CPU cores are instantaneously available for thread scheduling. In contrast, the Balanced plan aggressively places idle CPU cores into low power states. This can cause additional latency when un-parking cores to accommodate varying loads.
2. Fast frequency change: The AMD Ryzen™ processor can alter its voltage and frequency states in the 1ms intervals natively supported by the “Zen” architecture. In contrast, the Balanced plan may take longer for voltage and frequency changes due to software participation in power state changes.

In the near term, we recommend that games and other high-performance applications are complemented by the High Performance plan. By the first week of April, AMD intends to provide an update for AMD Ryzen™ processors that optimizes the power policy parameters of the Balanced plan to favor performance more consistent with the typical usage models of a desktop PC.

Lo stesso utente che me lo ha confermato cmq ha rilasciato sul thread oc di rzyen modifica al registro di windows che introduce nelle impostazioni avanzate del risparmio energetico la possibilità di modificare per ogni profilo il core parking da 100% a 0%.Ottimo
Ma non facevi prima a lasciare su bilanciato e disattivare il core parking ?

Mister D
19-03-2017, 12:31
Ottimo
Ma non facevi prima a lasciare su bilanciato e disattivare il core parking ?

Ma bravo, solo che non esiste la stringa sui registri che ti abilita la voce nelle impostazioni avanzate. Se vai a controllare non c'è nessuna voce in win10 def. Mentre questo utente:

come da richiesta di
inserisco quì il link della chiave di registro caricata sul mio one drive
atta ad abilitare in impostazioni avanzate risparmio energia il menù ( "numero minimo arresto core prestazione del processore") dove è possibile impostare la %
di arresto dei core( core parking) in ogni piano energetico ( risparmio/bilanciato/prestazioni elevate) senza dover aspettare gli interventi promessi da amd .
la chiave compatibile con qualsiasi versione di windows ( 7,8,8.1,10) e cpu (intel/amd) che supporti il core parking.

https://onedrive.live.com/?authkey=%21AAHjNRkBFQSELrM&cid=1DE2DC621A7CBED1&id=1DE2DC621A7CBED1%21247330&parId=root&action=locate :read:


differenze con il mio fx

prima

https://ylmygg.bl3302.livefilestore.com/y3m6Usv3aDv5auJoXqOldrai9nZjuyNZD7jAtzK7aXOJGqj8ua_8ZacJ10yhxp0N1A_DRIpBbLVjNp5IjQ_-MqnAwhE92LBc2E_SFJfR6gujaXPbOuWbTYt6EKjIJ2gOIl0q_T3YCe9NYTFPPTR2uxFEo2JXRMLRwnEzkE_aaVbvnU/Immagine%201.png?psid=1

dopo
https://xuqlea.bl3302.livefilestore.com/y3mfXMFidgQrwfCdbwOY1JHraHZ_c1kWIzzfm5NVvqBQzrjcxbmjYsIgsEPzt0iGOXU6vqw7ndMtOWGoGTPZ-tHPIidnX_NQqlWdyNd9RaxbRNihzcntgBvAVocZ85ma1QnSx03qWD2mqS1hBR90RNbtjP71zj7mukjYv3G20-wOXM/Immagine%203.png?psid=1

ha fatto lui il lavoro sporco e con l'aggiunta di quella voce di registro finalmente puoi modificare il core parking fino a disattivarlo anche in bilanciato.
Però ora come ora, anche con questa modifica al win, il punto 2 rimane, cioè in bilanciato è windows a comandare lo switch dei p-state e lo fa più lentamente (secondo tom's lo farebbe pure su intel). Per questo meglio per ora Prestazioni elevate perché oltre a disattivarsi il core parking lo switch passa alla cpu con controllo in hardware.

MiKeLezZ
19-03-2017, 21:12
Il "core parking" NON E' UN BUG DI WINDOWS e tale modifica impatta il consumo energetico (edit: rimuovo lo screen perché avevo preso un granchio).

Mentre HPET significa "High Precision Event Timer" e anche lui è tutto fuori che "un bug".

Nel sistema ci sono numerosi timer: TSC, LAPICS, HPET, ognuno è integrato più o meno a fondo e ha quindi diversi usi. TSC è veloce, ma non precisissimo. LAPICS è leggermente più preciso e usato come backup del TSC, mentre HPET è il più preciso in assoluto, ma per questo utilizza più risorse di sistema (anche perché risiede a un livello più alto). Windows è abbastanza intelligente da utilizzare HPET solo quando necessario (streaming multimedia, dialogo multi sistema), tant'è che in molte schede madri Intel non c'è l'opzione nel BIOS di disabilitarlo.

Non ve lo vorrei dire, ma se ne parla da almeno il 2010, è roba vecchia come il cucco:
https://www.techpowerup.com/forums/threads/how-do-i-turn-off-high-precision-event-timer.180823/

Anche qui non c'è bisogno di "stregoni magici" per modificare l'impostazione, basta eseguire CMD con privilegi amministrativi e digitare:
"bcdedit /set useplatformclock true" per abilitarlo
"bcdedit /set useplatformclock false" per disabilitarlo.

Performance migliori del 2%-3% valgono disabilitarlo? Ognuno usa il computer come crede, io non mi sognerei mai di farlo.

Comunque le prestazioni non impattano solo Ryzen, ma anche i sistemi Intel......

La piattaforma è immatura, schizzinosa ma trovami UN recensore che stia dicendo che c'è un problema sulla CPU. E la tabella di compatibilità delle memorie non è "un vezzo", è quello he il produttore ti dice che è certo che funzioni. Come le gomme di cui sopra. Ci sono stati notevoli problemi di compatibilità memorie anche al tempo di Haswell, quando uscirono le prime MB, e non ho sentito nessuno strapparsi i capelli per quel motivo...Indubbiamente.
Ma quando uno va a confrontare due diverse piattaforme, come ad esempio Ryzen e Kaby Lake, mi sembra alquanto doveroso mettere sul piatto della bilancia anche questo.
Quando acquistai Wolfdale lo feci ben consapevole del termine ultimo di tale architettura, del mero refresh che era, e del suo immediato rimpiazzo... e ad oggi non ho riscontrato un problema che fosse uno. L'ICH10 finora ha digerito qualsiasi cosa senza fiatare.
Secondo il mio parere molti, troppi, consigliano una piattaforma Ryzen sull'onda dell'entusiasmo, inconsapevoli di stare in realtà spingendo la gente a fare da betatester e ad accollarsi eventuali problemi e difetti di gioventù.

E' chiaro che troppi di voi (non mi riferisco a leoneazzurro) guardano troppo superficialmente a queste "recensioni"
https://support.amd.com/TechDocs/33610.PDF
http://developer.amd.com/wordpress/media/2012/10/48063_15h_Mod_00h-0Fh_Rev_Guide.pdf
http://techreport.com/review/13741/phenom-tlb-patch-benchmarked
A me preoccupano più i "no fix planned" che vengono fixati solo con le revisioni hardware.

Fino a che il raddoppio di core serve lavorativamente e il budget è limitato, si può anche prendere il rischio (e magari prendersi quel paio di crash misteriosi in più), ma trovo poco sensato che per usi general purpose dove le differenze prestazionali fra le due architetture siano trascurabili si preferisca una piattaforma acerba (Ryzen) a una che in pratica è al 3° stadio di affinamento (Kaby Lake).
Che poi il "non ci sono grossi problemi", è relativo... Con 4 banchi popolati la velocità è fissa a 2133 MHz e rispetto ad avere 2 soli banchi (sempre a 2133 MHz) si perde anche in latenza e throughput.
http://www.legitreviews.com/ddr4-memory-scaling-amd-am4-platform-best-memory-kit-amd-ryzen-cpus_192259/5
Una nota di colore è inoltre che a Ryzen "non piacciono" i CAS Latency dispari.

Con l'ssd su pcie il divario è ancora più grosso con Intel, siamo attorno al centinaio di MB/s in più a favore di intel per quanto riguarda il 4k random (uno dei dati più importanti negli ssd). Mi sa poi che la cosa è ancora più grave perché le linee provengono dal soc ryzen stesso e non chipset.

Capisco che per mobo/bios/ecc. la colpa sia soprattutto dei produttori di mobo che non ci hanno creduto più di tanto, ma cazzo, amd ci ha messo molto di suo (per esempio il non divulgare subito alcune info vitali che ha allarmato tantissimi utenti, vedi l'offset temperature per i modelli x), è stato un debutto teriBBile che ha gettato ombre nefaste su un SoC amd che all'atto pratico è ben meno disastroso di quanto parrebbe.

Un peccato, speravo che Intel contrattaccasse velocemente ma evidentemente non è preoccupata.Infatti quello che spesso viene dimenticato è che un PC non può essere identificato con la sola CPU, ma è la somma di tutti i suoi componenti e deve essere quindi perseguito un giusto equilibrio.
Nello specifico, la scelta di una piattaforma AMD o Intel determina anche il chipset montato ed eventuali dotazioni e compatibilità: come è ovvio che sia, solo motherboard Intel integrano la NIC Intel i219v (e, per quanto magari nessuno di voi ci abbia mai pensato, ci sono non trascurabili differenze prestazionali e di compatibilità rispetto la classica Realtek ed anche la più sofisticata "Killer": CLICK (http://techreport.com/review/29144/revisiting-the-killer-nic-eight-years-on/2)), ma è già meno ovvio che differiscono anche le prestazioni del sottosistema storage: l'X370 rispetto agli Intel va leggermente più lento in SATA e presenta rilevanti deficit prestazionali sui 4k sia sotto NVME che sotto AHCI. Il B350 non supporta lo SLI e ha sole 10 USB, non un grosso problema, se non fosse che l'antagonista Intel H270 supporta lo SLI e di USB ne fornisce 12 (e a me, ad esempio, non utilizzando più le porte PS/2, ne servono 12). Qualcuno dirà "e compra una X370", ma sono principalmente full ATX e al momento, oltre a non esser disponibili, i prezzi sono il 30% superiori di una già relativamente costosa Z270.

Non è poi da sottovalutare la comodità della GPU integrata nella CPU (pure sia un enorme spreco di silicio): nel caso di guasto alla VGA discreta ti salva la produttività, può essere utilizzata in handbrake per l'encoding x264/h265 (CLICK (http://www.anandtech.com/show/10610/intel-announces-7th-gen-kaby-lake-14nm-plus-six-notebook-skus-desktop-coming-in-january/3)) e garantisce un più semplice riutilizzo del sistema nel caso le proprie necessità mutino col tempo.

Purtroppo la qualità delle recensioni ultimamente si è molto appiattita e ci si riduce all'inutile benchmark sintetico di turno, incapace di rispondere sia alla semplice domanda: "come va la piattaforma?" sia all'ancora più basilare: "basta per il mio uso quotidiano?" e costringendo la ricerca di informazioni per tutto il web, quasi a mo’ di puzzle da ricostruire.

Io sorrido a chi magari si preoccupa di quei 3-4 fps in più o in meno, a chi si preoccupa dei 100MB/s in più in 7-zip (che sono teorici) e in generale a chi non si accorge di cose ben più macroscopiche.

Per esempio anche tutta questa menarla per il 7700K: ma non ve ne siete accorti che è una CPU overcloccata e overvoltata di fabbrica? Mi va poi a scontrarmi direttamente con i 330€ del 1700... Ma esiste anche un certo 7700 non k che costa 50 euro di meno e consuma 25W in meno! Non ho visto una recensione che sia una che abbia considerato il 7700 non k.

Il tempo è galantuomo :read:

http://www.hwupgrade.it/articoli/4865/slide_6.jpg

Eh già, direi che ci ho preso al 90%, altro che frequenze di oltre 4 GHz come si voleva sperare... e considerando che lo dissi in anteprima 10 giorni fa..........:oink:

Si conoscono già le frequenze operative e i prezzi a cui saranno venduti. Il più veloce sarà l'R5-1600X 6c/12t da 300€ che avrà le medesime frequenze del R7-1800X (ovvero massimo 3,7 GHz con tutti i core attivi), non certo una sorpresa visto che si tratta di uno scarto di produzione dei modelli R7-1800X (con disattivato 1 core per CCX).http://www.hwupgrade.it/forum/showpost.php?p=44557544&postcount=828

Sembra incredibile, ma ecco finalmente un gioco non ottimizzato per architetture Intel oppure ottimizzato per Ryzen, fate un po' voi... :D :D :D
Deus Ex: Mankind Divided.
Deus Ex: Mankind Divided è un gioco estremamente pesante che ha avuto anche la mano di AMD nel suo sviluppo, comunque sinceramente a vedere che tutti i risultati hanno gli stessi FPS mi sembra quasi GPU limited. Lo stesso recensore ha affermato che guarderà più nel dettaglio la questione.

Però non capisco il senso del tuo post, poi io metto l'immagine, dalla stessa recensione, di Rise of the Tomb Raider:

http://media.bestofmicro.com/ext/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS8yL1IvNjU5NzYzL29yaWdpbmFsL2ltYWdlMDQ4LnBuZw==/r_600x450.png

Dove i massimi del 1800X sono uguali ai minimi del 7700K...

Poi cito le conclusioni della recensione:
"Intel's Kaby Lake-based CPUs are definitely less expensive, and typically faster."

...e rinizia la guerra di religione?! :fagiano:

Ale55andr0
19-03-2017, 21:22
Ancora postate troll hardware :rotfl:

Piedone1113
19-03-2017, 22:52
Ehm.. per disabilitare il "core parking" non ci vuole la magia di qualche stregone.

http://i68.tinypic.com/ogl8xy.jpg

Basta cambiare tale valore, dal 5% dell'esempio al 100%. Fine.

:fagiano:

Quello che hai postato non è l'impostazione del core parking.
Il core parking spegne il core, quell'opzione indica la frequenza minima di funzionamento.
E non serve essere un mago per capire che hai preso fischi per fiaschi

NvidiaMen
19-03-2017, 23:25
Deus Ex: Mankind Divided è un gioco estremamente pesante che ha avuto anche la mano di AMD nel suo sviluppo, comunque sinceramente a vedere che tutti i risultati hanno gli stessi FPS mi sembra quasi GPU limited. Lo stesso recensore ha affermato che guarderà più nel dettaglio la questione.

Però non capisco il senso del tuo post, poi io metto l'immagine, dalla stessa recensione, di Rise of the Tomb Raider:

http://media.bestofmicro.com/ext/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS8yL1IvNjU5NzYzL29yaWdpbmFsL2ltYWdlMDQ4LnBuZw==/r_600x450.png

Dove i massimi del 1800X sono uguali ai minimi del 7700K...

Poi cito le conclusioni della recensione:
"Intel's Kaby Lake-based CPUs are definitely less expensive, and typically faster."

...e rinizia la guerra di religione?! :fagiano:

C'è chi capisce al primo colpo c'è chi non capisce e c'è chi non vuole capire. Abbiamo capito che a quelli del primo colpo tu non fai o non vuoi far parte. Il senso del mio post non intende dimostrare quel che pensi te da puro fanboy, il 7700k in quasi (direi tutti escluso Deus Ex) i giochi ha la meglio su una piattaforma nuova come quella Ryzen ed,allo stesso modo, su una non propria nuova come quella Intel 6xx0 semplicemente perché la total parte dei motori di gioco attuali è ottimizzato per i processori quadcore. Tuttavia in Deus Ex il 1800x fa un figurone perché in multithreading sfrutta meglio qualche core in più oltre ai 4 in Detail Very High, il 6900k no. Fosse stato, il test di Deus Ex, GPU limited avrebbe avuto alti FPS, come quelli espressi da Ryzen, anche con gli Intel a parità di scheda video, ma ciò non è accaduto, mi sembra elementare Watson. Il mio post voleva proprio dimostrare a CDMauro che le ottimizzazioni contano eccome e quindi non vedo cosa mi vieni a dire se era proprio quella lo scopo del mio post: far notare che le ottimizzazioni possono fare la differenza. In ogni caso ai tempi di Deus Ex ancora AMD non aveva pronto Ryzen, diciamo che l'ottimizzazione può aver riguardato esclusivamente l'utilizzo di qualche core in più oltre il quarto, per favorire la vecchia architettura octacore Piledriver a basso IPC. Ma non so quante volte dovrò riscrivere queste parole, mi sa che in questo forum si ha difficoltà non nel leggere tra le righe, ma proprio di leggerle le righe. Quindi se mi prendi nella stessa recensione da me postata la prova del gioco Tomb Raider che va meglio su un 7700k rispetto ad un 1800x cadi nello scontato e nel banale e fai la scoperta dell'acqua calda. Complimenti. Ma dico io in questo forum c'è davvero gente così di parte? Inutile continuare a rispondere su quesiti ripetitivi e fuori luogo, quesiti che fanno solo perdere tempo alle persone con voglia di svegliare chi ancora vive di presente e rifiuta il futuro dichiarando magari di amare la tecnologia.

Mister D
20-03-2017, 00:19
Ehm.. per disabilitare il "core parking" non ci vuole la magia di qualche stregone.

http://i68.tinypic.com/ogl8xy.jpg

Basta cambiare tale valore, dal 5% dell'esempio al 100%. Fine.

Ovviamente questo NON E' UN BUG DI WINDOWS e tale modifica impatta il consumo energetico.



Mi dispiace ma stai prendendo un gran bel granchio. Quell'impostazione modifica il massimo e il minimo p-state utilizzabile da C&Q per amd e da speedstep per intel.
Ma lo hai mai provato a modificare?


Secondo il mio parere molti, troppi, consigliano una piattaforma Ryzen sull'onda dell'entusiasmo, inconsapevoli di stare in realtà spingendo la gente a fare da betatester e ad accollarsi eventuali problemi e difetti di gioventù.


Veramente io l'ho spiegato in uno dei miei precedenti post. I vari utenti dovrebbero sempre analizzare l'acquisto di una piattaforma nuova, intel o amd che sia, con l'analisi del rischio. Che ti tipo di utente sono? Che tipo di rischio corro a comprare al day one o nel primo mese? E' accettabile per me? Posso fronteggiare i pericoli di una piattaforma nuova? Fine.


E' chiaro che troppi di voi (non mi riferisco a leoneazzurro) guardano troppo superficialmente a queste "recensioni"
https://support.amd.com/TechDocs/33610.PDF
http://developer.amd.com/wordpress/media/2012/10/48063_15h_Mod_00h-0Fh_Rev_Guide.pdf
http://techreport.com/review/13741/phenom-tlb-patch-benchmarked
A me preoccupano più i "no fix planned" che vengono fixati solo con le revisioni hardware.


Guarda che succede anche con intel. Vedi bug sulle tsx di haswell
http://www.bitsandchips.it/hardware/9-hardware/4887-intel-fixera-il-bug-tsx-per-broadwell-mentre-per-haswell-tutto-tace
https://en.wikipedia.org/wiki/Transactional_Synchronization_Extensions
oppure il bug sulle skylake
http://www.bitsandchips.it/informativa-sull-uso-dei-cookie/9-hardware/6486-bug-hardware-nelle-cpu-skylake-intel-rimedia-con-fix-software
https://arstechnica.com/gadgets/2016/01/intel-skylake-bug-causes-pcs-to-freeze-during-complex-workloads/
o anche le cpu skylake versione 2 esenti da bug sulle SGX:
http://www.bitsandchips.it/9-hardware/6126-seconda-ondata-di-cpu-skylake-queste-con-le-istruzioni-sgx-abilitate

Quindi con il tuo ragionamento avremmo dovuto attendere pure con quelle cpu e non fidarci di intel?


Fino a che il raddoppio di core serve lavorativamente e il budget è limitato, si può anche prendere il rischio (e magari prendersi quel paio di crash misteriosi in più), ma trovo poco sensato che per usi general purpose dove le differenze prestazionali fra le due architetture siano trascurabili si preferisca una piattaforma acerba (Ryzen) a una che in pratica è al 3° stadio di affinamento (Kaby Lake).


Guarda per ora gli unici crash (bsod o non boot) che hanno avuto gli utenti di questo forum che lo hanno sono solo relativi a ram che con i primi bios non andavano bene.
Per il resto una volta sistemato il problema bios acerbi e scelta corretta della ram, nessuno ha più lamentato nulla.
Ma una persona che non ne vuole sapere può benissimo aspettare di più e non fa bene, ma fa strabene. Questo però vale non solo con amd ma con qualsiasi prodotto nuovo e purtroppo oggi succede di più che rispetto al passato.


Che poi il "non ci sono grossi problemi", è relativo... Con 4 banchi popolati la velocità è fissa a 2133 MHz e rispetto ad avere 2 soli banchi (sempre a 2133 MHz) si perde anche in latenza e throughput.
http://www.legitreviews.com/ddr4-memory-scaling-amd-am4-platform-best-memory-kit-amd-ryzen-cpus_192259/5
Una nota di colore è inoltre che a Ryzen "non piacciono" i CAS Latency dispari.


Ovviamente te porti una sola recensione al day one per affermare che 4 moduli la velocità viene ridotta a 2133?
Prova ancora
http://dlcdnet.asus.com/pub/ASUS/mb/SocketAM4/PRIME_X370-PRO/PRIME_X370_PRO_Memory_QVL.pdf
Peccato che il QVL sopra di smentisce clamorosamente perché ce ne sono di moduli che sono stati testati in configurazione di 4 banchi con profilo ddr4 2400.
E idem per i cas latency dispari.:D
http://www.gskill.com/en/press/view/g-skill-announces-flare-x-series-and-fortis-series-ddr4-memory-for-amd-ryzen
http://www.corsair.com/en-us/landing/ryzen


Non è poi da sottovalutare la comodità della GPU integrata nella CPU (pure sia un enorme spreco di silicio): nel caso di guasto alla VGA discreta ti salva la produttività, può essere utilizzata in handbrake per l'encoding x264/h265 (CLICK (http://www.anandtech.com/show/10610/intel-announces-7th-gen-kaby-lake-14nm-plus-six-notebook-skus-desktop-coming-in-january/3)) e garantisce un più semplice riutilizzo del sistema nel caso le proprie necessità mutino col tempo.


Eh sì, con amd c'è da aspettare un po' per questo che stai chiedendo. Sai com'è, amd non ha la stessa capacità finanziaria di intel e non è riuscita a gestire la presentazione di cpu e apu basate su ryzen, per cui le apu raven ridge sempre compatibili con am4 ci sarà da aspettare. Pazienta un po' che arriveranno pure loro con una gpu arch vega.

MiKeLezZ
20-03-2017, 05:49
Mi dispiace ma stai prendendo un gran bel granchio. Quell'impostazione modifica il massimo e il minimo p-state utilizzabile da C&Q per amd e da speedstep per intel.
Ma lo hai mai provato a modificare?Hai ragione, ho provato, gestisce la frequenza dinamica della CPU, col core parking non c'entra nulla.

Guarda che succede anche con intel. Vedi bug sulle tsx di haswell
http://www.bitsandchips.it/hardware/9-hardware/4887-intel-fixera-il-bug-tsx-per-broadwell-mentre-per-haswell-tutto-tace
https://en.wikipedia.org/wiki/Transactional_Synchronization_Extensions
oppure il bug sulle skylake
http://www.bitsandchips.it/informativa-sull-uso-dei-cookie/9-hardware/6486-bug-hardware-nelle-cpu-skylake-intel-rimedia-con-fix-software
https://arstechnica.com/gadgets/2016/01/intel-skylake-bug-causes-pcs-to-freeze-during-complex-workloads/
o anche le cpu skylake versione 2 esenti da bug sulle SGX:
http://www.bitsandchips.it/9-hardware/6126-seconda-ondata-di-cpu-skylake-queste-con-le-istruzioni-sgx-abilitate

Quindi con il tuo ragionamento avremmo dovuto attendere pure con quelle cpu e non fidarci di intel?Certo che succede pure con Intel, con la differenza che l'user base è maggiore e i bug si scovano e quindi si fixano più facilmente.

I bug che citi su SGX e TSX (feature comunque non proprio utilissime...) sono finalmente stati corretti con Kaby Lake. Che quindi è una piattaforma molto stabile, anche rispetto il chipset (il 270 non è altro che una revisione del 170).

Come lo dico di Ryzen, direi lo stesso anche per la prima sfornata di Cannonlake.

http://dlcdnet.asus.com/pub/ASUS/mb/SocketAM4/PRIME_X370-PRO/PRIME_X370_PRO_Memory_QVL.pdf
Peccato che il QVL sopra di smentisce clamorosamente perché ce ne sono di moduli che sono stati testati in configurazione di 4 banchi con profilo ddr4 2400.
E idem per i cas latency dispari.:D
http://www.gskill.com/en/press/view/g-skill-announces-flare-x-series-and-fortis-series-ddr4-memory-for-amd-ryzen
http://www.corsair.com/en-us/landing/ryzenAh non so che dirti, quello è un PDF, il mio è un test reale, ognuno mi sembra che tiri un po' l'acqua al suo mulino. Di certo questa menata con la ricerca delle RAM "giuste" era un po' che non si vedeva...

Però non è che si può dare tutta la colpa ai produttori di motherboard, anche loro non sono stati proprio contentissimi di come AMD abbia effettuato il lancio di questi nuovi processori:
http://www.legitreviews.com/one-motherboard-maker-explains-why-amd-am4-boards-are-missing_192470

Eh sì, con amd c'è da aspettare un po' per questo che stai chiedendo. Sai com'è, amd non ha la stessa capacità finanziaria di intel e non è riuscita a gestire la presentazione di cpu e apu basate su ryzen, per cui le apu raven ridge sempre compatibili con am4 ci sarà da aspettare. Pazienta un po' che arriveranno pure loro con una gpu arch vega.Magari aspettare le APU non è una scelta così sbagliata, architetturalmente non faranno in tempo a fixare eventuali errata, ma certamente da allora la compatibilità sarà aumentata così come anche la disponibilità di M/B AM4 (e come conseguenza ci saranno anche prezzi decisamente migliori di adesso). Un 4c/8t (magari senza il "problema" dei due CCX) non sarebbe certo un ripiego.

cdimauro
20-03-2017, 05:54
L'ho gia ribadito molte volte nel th aspettando:
1: intel ha a suo favore l'inerzia del mercato, inclusi i contratti a lungo termine con i grossisti.
2: Se non si abbassano le quote di mercato in modo significativo abbassare i listini significa abbassare gli utili.

Se io produttore ho una vendita sullo specifico mercato del 100% ( cpu da 8 core o più) per tagliare il listino (sarebbe meglio dire riposizionare il listino) devo avere una contrazione di almeno il 15-20%.
Non avrebbe senso per me abbassare il listino del 20% se poi ho una flessione del solo 10%, anzi sarebbe autolesionismo perchè diminuirei gli utili.
Se rammenti con l'uscità dei Core 2 AMD (nonostante la netta inferiorità tecnica) abbasso il listino poco per volta in tempi diversi per arginare la perdità di quote di mercato.
A sfavore di amd però ci fu:
A, una evidente inferiorità dei propri prodotti
B, la capacità produttiva di Intel elevatà che saturò subito il mercato con i suoi prodotti.
In questo caso i prodotti AMD ed Intel sono sovrapponibili come prestazioni (a fronte di un evidente costo diverso) e sopratutto tra carenze cpu (andate subito a ruba) e di motherboard (molte non pervenute) la diversa scalata di marketshare sarà più lenta ed omogenea (con evidente maggior tempo di intel di aspettare il mercato e applicare ritocchi ai listini invece che tagli).
Sono sostanzialmente d'accordo (ma non ricordo degli abbassamenti di listino graduali di Intel coi Core 2. E' passato troppo tempo).
Io sto parlando di chi ha restituito il sistema dopo averlo provato, non di chi annulla gli ordini spaventato da chi va propagandando incompatibilità varie.
Ho scritto "reso", non "annullamento" dell'ordine.
Scusa Cesare ma hai presente che chi ha bruciato le memorie le ha anche overvoltate perchè stava overcloccando (ed è accaduto su di una UNICA piattaforma, la Gigabyte)? Hai capito o no che c'è gente che si lamenta perchè cerca di portare le memorie oltre specifica e poi il sistema gli va in blocco? Come se io mettessi alla mia macchina ruote certificate solo fino a 180 Km/h e poi mi lamento se a 210 vado fuori strada.
Pare che in questi casi il problema potrebbe essere dovuto a una tensione superiore (di 0.2v? Non ricordo bene adesso).
La piattaforma è immatura, schizzinosa ma trovami UN recensore che stia dicendo che c'è un problema sulla CPU.
Purtroppo ho pochissimo tempo, comunque:
http://www.mobipicker.com/amd-ryzen-high-frequency-ddr4-memory-issue/
https://www.dvhardware.net/article66073.html#
https://forums.overclockers.co.uk/threads/ryzen-ddr4-memory-what-you-need-to-know.18770248/page-3#post-30533843
Quindi già da poco prima del lancio si sapeva che c'erano problemi, e che sarebbero stati fixati da AMD in 1-2 mesi. Fonte: ASUS.

http://www.legitreviews.com/ddr4-memory-scaling-amd-am4-platform-best-memory-kit-amd-ryzen-cpus_192259
"We noticed that no motherboards offer a memory strap beyond 3200MHz and asked AMD if this was a limitation of the processor architecture and we were told that it is just a limit in the base UEFI code and that it is not a limitation of the memory controller design or the overall Zen architecture. So, right now the memory strap limitation is on AMD’s side and that the DDR4-3200 is the highest memory strap you can get today. AMD is discussing changing that, but right now it is just a talking point. Official Ryzen DDR4 memory support is listed above. The dual channel/dual tank/4 DIMM support of just 1866 MHz just goes to show how far AMD needs to come. Singe Rank Memory is memory with chips on only one side of the stick of memory, although we have seen some exceptions of the years."

https://www.extremetech.com/computing/245718-ryzen-cpus-readily-available-ryzen-motherboards-not-much
I produttori di schede madri si sono lamentati del poco tempo a disposizione. Chi l'avrebbe mai detto...

https://www.techpowerup.com/231518/amd-shares-details-on-ryzen-ddr4-memory-support-and-upcoming-am4-updates
"In a blog post titled "Tips for Building a Better AMD Ryzen System", AMD has shed some light on the current memory support quirks with their Ryzen CPUs. First interesting detail: Ryzen processors do not offer memory dividers for DDR4-3000 or DDR4-3400. As such, AMD recommends that users looking to use higher memory speeds with their Ryzen processors instead look towards 3200 or 3500 MT/s."

Mi pare che non si possa parlare di piattaforma matura, e che conferma quanto avevo già scritto: AMD ha avuto fretta di incassare, lasciando poco tempo ai produttori di schede madri per lavorare ai loro prodotti. E non ha nemmeno avuto tempo lei per implementare i divisori per supportare le frequenze di tutte le memorie che ci sono in circolazione.
E la tabella di compatibilità delle memorie non è "un vezzo", è quello he il produttore ti dice che è certo che funzioni. Come le gomme di cui sopra.
Dovresti aver letto che ci sono utenti a cui non funzionano anche memorie QVL. E utenti che hanno problemi di stabilità persino con le memorie a 2133Mhz, che sono il "minimo sindacale" per chi monta memorie DDR4.
Ci sono stati notevoli problemi di compatibilità memorie anche al tempo di Haswell, quando uscirono le prime MB, e non ho sentito nessuno strapparsi i capelli per quel motivo...

Ma giusto per capirsi:
http://www.webhostingtalk.com/showthread.php?t=1305328
https://communities.intel.com/thread/46848
https://techreport.com/forums/viewtopic.php?t=94534
https://rog.asus.com/forum/showthread.php?78760-From-BIOS-1601-to-1701-produces-RAM-compatibility-issues
https://discuss.howtogeek.com/t/ram-compatibility-with-haswell/4787/4
http://www.makeuseof.com/tag/ram-speed-running-advertised-try-turning-xmp-watch/
https://forums.tweaktown.com/asrock/60538-dr-debug-error-53-67-asrock-x99-ws-skill-ripjaws-4-series-16gb-2x8gb-intel-core-i7-5820k-haswell-6-core-3-3ghz-lga2011-v3-cpu.html
https://forums.macrumors.com/threads/2013-haswell-imac-32gb-ram-crashing.1668450/
Sì, ok, ma mi pare che a un paio di settimane dal lancio di Ryzen ci siano un po' troppi problemi con schede madri e memorie.

Ed Haswell avrà pure venduto un tantino di più.

MiKeLezZ
20-03-2017, 05:59
C'è chi capisce al primo colpo c'è chi non capisce e c'è chi non vuole capire. Abbiamo capito che a quelli del primo colpo tu non fai o non vuoi far parte. Il senso del mio post non intende dimostrare quel che pensi te da puro fanboy, il 7700k in quasi (direi tutti escluso Deus Ex) i giochi ha la meglio su una piattaforma nuova come quella Ryzen ed,allo stesso modo, su una non propria nuova come quella Intel 6xx0 semplicemente perché la total parte dei motori di gioco attuali è ottimizzato per i processori quadcore. Tuttavia in Deus Ex il 1800x fa un figurone perché in multithreading sfrutta meglio qualche core in più oltre ai 4 in Detail Very High, il 6900k no. Fosse stato, il test di Deus Ex, GPU limited avrebbe avuto alti FPS, come quelli espressi da Ryzen, anche con gli Intel a parità di scheda video, ma ciò non è accaduto, mi sembra elementare Watson. Il mio post voleva proprio dimostrare a CDMauro che le ottimizzazioni contano eccome e quindi non vedo cosa mi vieni a dire se era proprio quella lo scopo del mio post: far notare che le ottimizzazioni possono fare la differenza. In ogni caso ai tempi di Deus Ex ancora AMD non aveva pronto Ryzen, diciamo che l'ottimizzazione può aver riguardato esclusivamente l'utilizzo di qualche core in più oltre il quarto, per favorire la vecchia architettura octacore Piledriver a basso IPC. Ma non so quante volte dovrò riscrivere queste parole, mi sa che in questo forum si ha difficoltà non nel leggere tra le righe, ma proprio di leggerle le righe. Quindi se mi prendi nella stessa recensione da me postata la prova del gioco Tomb Raider che va meglio su un 7700k rispetto ad un 1800x cadi nello scontato e nel banale e fai la scoperta dell'acqua calda. Complimenti. Ma dico io in questo forum c'è davvero gente così di parte? Inutile continuare a rispondere su quesiti ripetitivi e fuori luogo, quesiti che fanno solo perdere tempo alle persone con voglia di svegliare chi ancora vive di presente e rifiuta il futuro dichiarando magari di amare la tecnologia.Va bene. Ma parliamo invece di cose un po' più reali.

Da steam survey:
http://store.steampowered.com/hwsurvey/cpus/
il 98,32% di videogiocatori ha non più di 4 core. Con un tasso di adozione che è in crescita solo nel 4-core (ed è in discesa sia nel 6 che nel 8 core, segno che probabilmente X99 sta vendendo poco).

Lo scenario che ti stai immaginando, delle software house che impazziscono per il multi-core è utopico. Il loro target primario sono i sistemi 4-core per poi eventualmente scalare l'engine su sistemi a 2-core.

Ne ho già parlato, prima del tuo screen:
http://www.hwupgrade.it/forum/showpost.php?p=44572399&postcount=965

Anche perché ti ricordo che la piattaforma X99 per esa ed octacore ha ben 3 anni e gli sviluppatori di giochi, in pratica, non se la sono "cac..." di striscio... se volevano fare i giochi a 16 threads in 3 anni qualcosina facevano, non credi?

cdimauro
20-03-2017, 05:59
A mio modestissimo avviso le ottimizzazioni (che siano proposte da Intel o da AMD) contano eccome, per te potrà rimanere il mio un parere del tutto personale, del quale però io rimango fermamente convinto. La patch Deus EX Mankind Divided (http://gaming.hwupgrade.it/news/videogames/deus-ex-mankind-divided-come-migliora-con-le-directx-12_65561.html) uscita solo successivamente per sfruttare al meglio sia le DX12 che l'hardware multithread, attraverso la collaborazione con AMD, utilizza il motore Dawn Engine il quale gestisce funzionalità grafiche come ad esempio il "Pure Hair Technology" che attraverso una efficiente quanto corretta gestione dei thread simula il movimento dinamico dei ciuffi dei capelli Slave dei personaggi attraverso un algoritmo di fisica cinematica che li lega ai ciuffi di capelli Master al fine di contenere il calcolo sulla GPU e spostarlo sulla CPU.
Ovviamente le ottimizzazioni sviluppate con AMD non si fermano qui ma riguardano lato GPU e CPU altre tecnologie grafiche come il: Contact Hardening Shadows, il Parallax Occlusion Mapping, le illuminazioni volumetriche, il Sub-Surface Scattering, una sottospecie di ray-Tracing (altamente semplificato) per la gestione dell'assorbimento della luce della pelle dei personaggi ed il Bokeh Depth of Field.
Inoltre già nelle DX11 tra il preset di "dettaglio elevato" e quello "dettaglio molto elevato" (http://gaming.hwupgrade.it/news/videogames/deus-ex-mankind-divided-ecco-com-e-la-grafica-su-pc_64210.html) nel primo caso il motore grafico non applica le illuminazioni agli oggetti che si trovano oltre una certa distanza rispetto al punto di osservazione, mentre nel secondo caso sì. Nel preset "very high detail" prima di procedere con la rasterizzazione occorrerà che la CPU prepari una scena geometricamente più complessa per il calcolo delle triangolazioni poligonali illuminate da quelle in ombra, trattandosi di oggetti da illuminare riferiti a livelli di profondità differenti il carico è stato diviso in thread, ed alla fine del suo lavoro il thread sottoposto ad una computazione geometrica (intersezioni) più complessa rappresenterà nella scena il proprio risultato sommandolo a quello del thread meno complesso che avrà completato prima il lavoro. Tutto ciò restituisce così una scena più realistica anche a distanze maggiori dal punto di osservazione.
Molte di queste tecniche richiedono molte elaborazioni parallele da parte della CPU ed il risultato dei bench di Deus Ex (https://www.youtube.com/watch?v=2gjJlNOlVqA) che sfrutta meglio di altri giochi la gran parte dei thread messi a disposizione dalla CPU conferma tutto questo.
E' bene osservare che in Deus Ex e nel caso del 7700k l'IPC più elevato di quest'ultimo compensa il maggior numero di core (thread) del 6900k mostrando un pareggio tra le due diverse architetture Intel. AMD con Ryzen ne esce vincitrice perché la gestione in multithreading è più efficiente della controparte Intel, situazione già vista in tutti i test con software multithread (Cinebench incluso). Questo è solo un piccolo assaggio di ciò che ha già annunciato AMD con i suoi tool di sviluppo distribuiti alla software house, ovvero di come le ottimizzazioni nei prossimi titoli sfrutteranno molto di più le architetture Ryzen e di conseguenza e riflesso anche gli Intel 6xx0.
Queste, però, sono ottimizzazioni generiche, di cui beneficiano i processori di qualunque marca.

Anche le ottimizzazioni volte a scaricare sulla GPU parte dei calcoli, sono "trasversali": scaricano roba dalla CPU, di qualunque marca essa sia, al componente che più facilmente scala (la GPU, per l'appunto).

Come, peraltro, affermi tu stesso nell'ultima frase.

cdimauro
20-03-2017, 06:04
Aggiungo che chi ha per es i 6900k ha notato che cmq il parking è su OFF anche con bilanciato perché sicuramente intel lo avrà richiesto a microsoft. Cosa che amd ha fatto e a leggere da qui verrà risolta dai primi di aprile quando anche per ryzen il core parking e il p-state switch sarà hardware anche su bilanciato:
https://community.amd.com/community/gaming/blog/2017/03/14/tips-for-building-a-better-amd-ryzen-system
Mind Your Power Plan
Make sure the Windows® 10 High Performance power plan is being used (picture). The High Performance plan offers two key benefits:

1. Core Parking OFF: Idle CPU cores are instantaneously available for thread scheduling. In contrast, the Balanced plan aggressively places idle CPU cores into low power states. This can cause additional latency when un-parking cores to accommodate varying loads.
2. Fast frequency change: The AMD Ryzen™ processor can alter its voltage and frequency states in the 1ms intervals natively supported by the “Zen” architecture. In contrast, the Balanced plan may take longer for voltage and frequency changes due to software participation in power state changes.

In the near term, we recommend that games and other high-performance applications are complemented by the High Performance plan. By the first week of April, AMD intends to provide an update for AMD Ryzen™ processors that optimizes the power policy parameters of the Balanced plan to favor performance more consistent with the typical usage models of a desktop PC.

Lo stesso utente che me lo ha confermato cmq ha rilasciato sul thread oc di rzyen modifica al registro di windows che introduce nelle impostazioni avanzate del risparmio energetico la possibilità di modificare per ogni profilo il core parking da 100% a 0%.
Non credo che Intel l'abbia chiesto a Microsoft. Piuttosto, Intel fornisce un driver per la CPU, che ne espone le caratteristiche, e che Windows poi utilizza.

Ma è vero di solito è Intel a spingere sull'implementazione di nuovi p-state et similia, introducendoli sui suoi processori, e collaborando con Microsoft per il supporto su Windows.

Ma ovviamente tutti i produttori di hardware possono poi implementare il loro driver per fargli supportare le stesse cose.

Buondì a tutti.

bjt2
20-03-2017, 09:12
In questi giorni ci sono stati 2 aggiornamenti di windows (sulla mia ciofeca di 4 anni fa, notebook di fascia bassa, ho notato solo una ripresa da ibernazione molto più veloce) e B&C ha notato un aumento da 200 e rotti FPS a 300 e rotti fps di un gioco (stessi driver e stesse patch del gioco, solo windows update), quindi bisognerebbe rifare tutti i bench...

george_p
20-03-2017, 11:37
In questi giorni ci sono stati 2 aggiornamenti di windows (sulla mia ciofeca di 4 anni fa, notebook di fascia bassa, ho notato solo una ripresa da ibernazione molto più veloce) e B&C ha notato un aumento da 200 e rotti FPS a 300 e rotti fps di un gioco (stessi driver e stesse patch del gioco, solo windows update), quindi bisognerebbe rifare tutti i bench...

Sempre tardi, ma meglio che mai.

NvidiaMen
20-03-2017, 12:05
Va bene. Ma parliamo invece di cose un po' più reali.

Da steam survey:
http://store.steampowered.com/hwsurvey/cpus/
il 98,32% di videogiocatori ha non più di 4 core. Con un tasso di adozione che è in crescita solo nel 4-core (ed è in discesa sia nel 6 che nel 8 core, segno che probabilmente X99 sta vendendo poco).

Lo scenario che ti stai immaginando, delle software house che impazziscono per il multi-core è utopico. Il loro target primario sono i sistemi 4-core per poi eventualmente scalare l'engine su sistemi a 2-core.

Ne ho già parlato, prima del tuo screen:
http://www.hwupgrade.it/forum/showpost.php?p=44572399&postcount=965

Anche perché ti ricordo che la piattaforma X99 per esa ed octacore ha ben 3 anni e gli sviluppatori di giochi, in pratica, non se la sono "cac..." di striscio... se volevano fare i giochi a 16 threads in 3 anni qualcosina facevano, non credi?

Uhmm... interessante prendere come riferimento il passato per studiare il futuro. Tuttavia, il passato, occorre sempre analizzarlo, confrontarlo con il presente e coglierne le eventuali corrispondenze o differenze con il precedente presente per un'analisi che si possa dimostrare la più obiettiva possibile. Agli inizi e nel proseguo dei miei interventi ciò che ho sempre ripetuto e sottolineato è che occorre fare un plauso ad AMD che sta proponendo octacore ad elevata prestazione in multithreading ad un prezzo praticamente dimezzato (Ryzen 1800x contro i7 6900k, o Ryzen 1700 rispetto a i7 6800k) per dare una svolta e favorire lo stimolo all'abbandono dei quadcore anche nel segmento gaming. Cosa che non ha mai fatto Intel in questi anni rendendo, proprio come hai accennato tu stesso, inaccessibili le sue architetture esa ed octa core, non solo con la serie 6x00, ma anche con le precedenti serie (5xx0K, 4xx0K e 3xx0K) pur essendo quest'ultime destinate alla fascia enthusiast (dei videogiocatori ed overclockatori amanti della K e non) e non permettendo, per via dei prezzi di nicchia, mai la penetrazione massiva di tali architetture nei sistemi videoludici di fascia alta a grande diffusione. Praticamente è da circa 6 anni ovvero dall'i7 2700k che a causa della evidente inferiorità della concorrenza (leggasi AMD) Intel si è limitata a fare refresh, ottimizzazioni di processo e architetturali alla propria piattaforma quadcore, relegando a pochi eletti le stesse ottimizzazioni alla fascia enthusiast esa ed octa core e di fatto rallentando lo sviluppo software in ambito gaming. AMD in questi stessi anni ha tentato un'altra strada, con le sue architetture esa ed octa core a basso costo, ma l'IPC molto basso dei propri processori non ha mai convinto neanche per un attimo gli sviluppatori a parallelizzare ancor di più il codice, in quanto le maggiori prestazioni computazionali erano garantite già dai "semplici" quad core Intel. In conseguenza di ciò Intel stessa ha preferito tener in alto il piede e non schiacciare sull'accelleratore relegando esa ed octa core a coloro che avevano soldi da buttare nel gaming oltre a chi, ovviamente, voleva realizzarsi una workstation in casa senza affidarsi alle piattaforme Xeon.
Oggi (presente da analizzare diverso dal vecchio presente) la situazione è diversa dal passato, ed Intel dovrà presto rivedere e riposizionare (economicamente parlando) i propri 6900k-6850k-6800k per continuare a venderli a coloro che vogliono la loro potente workstation di lavoro e che ovviamente non possono non vedere di buon occhio i Ryzen. Ma se in Intel, per poter sperare di continuare a vendere la proprie proposte della fascia Enthusiast, abbasseranno i prezzi delle CPU esa ed octa core (6xx0k) dovranno anche ridurre proporzionalmente il loro listino dei quadcore, ma di quanto mi chiedo...??? Non credo che sarebbe conveniente per Intel "regalare" un i7 7700k a 200€ per poter vendere un 6850k (all'incirca equivalente in gaming ma decisamente superiore in produttività) almeno 150€ (https://www.youtube.com/watch?v=OXbOC_OyvG4) in più, in tal caso rischierebbe di sparire la fascia i5 ed i3 in un colpo solo...
E' questa la batosta che AMD ha dato ad Intel sulla fascia più alta del mercato, batosta che si ripercuoterà ben presto anche verso il basso con i suoi Ryzen e di cui nessuno sta, a mio modesto avviso, facendo la dovuta riflessione.

Queste, però, sono ottimizzazioni generiche, di cui beneficiano i processori di qualunque marca.

Anche le ottimizzazioni volte a scaricare sulla GPU parte dei calcoli, sono "trasversali": scaricano roba dalla CPU, di qualunque marca essa sia, al componente che più facilmente scala (la GPU, per l'appunto).

Come, peraltro, affermi tu stesso nell'ultima frase.

Che siano generiche o specifiche tali ottimizzazioni sono comunque proposte e promosse dai produttori hardware (AMD, Intel, nVidia) per favorire la logica "generale" delle proprie piattaforme, quindi di fatto esistono e sono un dato di fatto incontrovertibile. Più piattaforme dello stesso tipo esistono nel mercato, più i programmatori si adegueranno nello sfruttarle, anche questo rappresenta un altro dato di fatto incontrovertibile che ci dovrebbe far riflettere. L'interesse è di noi consumatori, ciò che compriamo e diffondiamo di più (migliore o peggiore che sia) diventa ben presto lo standard.

bjt2
20-03-2017, 14:19
Sempre tardi, ma meglio che mai.

https://forums.anandtech.com/threads/official-amd-ryzen-benchmarks-reviews-prices-and-discussion.2499879/page-195#post-38803783

Altre conferme... +18.8% in fritz benchmark con 8 thread... Praticamente il vecchio scheduler usa tutti e 16 i thread... Il nuovo usa correttamente prima i core fisici...

Ma il vecchio scheduler di windows 10 era perfettissimissimo... :rolleyes:

fatantony
20-03-2017, 14:43
https://forums.anandtech.com/threads/official-amd-ryzen-benchmarks-reviews-prices-and-discussion.2499879/page-195#post-38803783

Altre conferme... +18.8% in fritz benchmark con 8 thread... Praticamente il vecchio scheduler usa tutti e 16 i thread... Il nuovo usa correttamente prima i core fisici...

Ma il vecchio scheduler di windows 10 era perfettissimissimo... :rolleyes:
L'avevo detto il 3 marzo :D:D:read: :read: E il buon lucusta mi aveva fatto notare di come lo scheduler lavorasse coi piedi:doh:

P.s. a parte le boiate scritte da me sulla gestione dei thread ecc...:D




Condivido il ragionamento sul quando vedremo un gioco ottimizzato per più di 4 thread... In questo senso potremmo anche dover attendere il 2020 (scenario pessimista:D ).

Il ragionamento esemplificativo che faccio io è il seguente:
-1 thread occupato da S.O., aggiungiamo antivirus e varie app in background
-4 thread assegnati ad un gioco che scala bene su 4 thread

Usando una CPU 4C/8TH, uno dei 5 thread sarebbe "di troppo", nel senso che verrebbe eseguito dal cosiddetto core logico (sto supponendo che lo scheduler prima assegni tasks ai thread fisici, e dopo a quelli logici), che avendo prestazioni inferiori (quantificate voi la percentuale) potrebbe causare un "leggero rallentamento" in gaming.
Il discorso cambierebbe se avessimo a disposizione 8 core fisici, in quanto tutti e 5 i thread sarebbero gestiti da unità con tutte le risorse a disposizione e quindi prestazioni pressochè identiche tra loro.

Cosa ne pensate?:confused:

P.s. spero almeno di essermi spiegato sufficientemente bene... Vista l'ora :)

purtroppo non è proprio cosi'.
lo scheduler windows non fà distinzione sui core logici; li usa indipendentemente.

[cut]

per tutto il resto.. siamo messi ancora male.

per quanto riguarda l'idea che ti sei fatto sul modo di operare del sistema mentre giochi, non è cosi';in questo momento il sistema mi indica circa 234 thread operativi, duel del browser, uno del task manager e il resto sono servizi di sistema...
un gioco puo' anche avere piu' di 10 thread, ma molti di piu', perche' quelli grafici principali sono limitati, nel tuo esempio, a 4, matra quelli propri e quelli d'interfaccia con il sistema per qualsivoglia servizio, ce ne saranno una dozzina.
sono piccoli, brevi, ma e la massa che fà il numero.
piu' efficacie è però la funzione gaming che applicheranno a windows, che metterà in pausa tutti i servizi non necessari (e magari li libera quando i principali del gioco non sono operativi).

bello sarebbe che dessero una nuova regolata allo scheduler, maè una delle parti piu' impegnative dell'OS, e ti devi realmente mettere d'accordo sul come farlo, se lo cambi (una tecnologia univoca sul riconoscimento qualitativo dei threads e della qualità dei core... una specie di BIG LITTLE alla ARM, anche se pure in quel caso è solo un drive che opera in background)....
per ora basta una CPU, e windows va indistintamente (male) ma lo fa...

non so... bisognerebbe provare su un gioco ad associare uno o piu' core, ma non credo che sia facile (dovresti dissociarli prima dallo scheduling generale).

george_p
20-03-2017, 15:22
https://forums.anandtech.com/threads/official-amd-ryzen-benchmarks-reviews-prices-and-discussion.2499879/page-195#post-38803783

Altre conferme... +18.8% in fritz benchmark con 8 thread... Praticamente il vecchio scheduler usa tutti e 16 i thread... Il nuovo usa correttamente prima i core fisici...

Ma il vecchio scheduler di windows 10 era perfettissimissimo... :rolleyes:

Aspettiamo altri giochi, buono comunque.

bjt2
20-03-2017, 17:22
Aspettiamo altri giochi, buono comunque.

http://www.bitsandchips.it/forum/viewtopic.php?f=4&t=9903&sid=3acfe8f37346449a5171230fbc04e241&start=1090#p97623

Non è molto, ma per iniziare...

TheDarkAngel
20-03-2017, 17:27
http://www.bitsandchips.it/forum/viewtopic.php?f=4&t=9903&sid=3acfe8f37346449a5171230fbc04e241&start=1090#p97623

Non è molto, ma per iniziare...

Facciamo le scommesse di chi rifarà le recensioni :p ?

george_p
20-03-2017, 17:58
http://www.bitsandchips.it/forum/viewtopic.php?f=4&t=9903&sid=3acfe8f37346449a5171230fbc04e241&start=1090#p97623

Non è molto, ma per iniziare...

E caspita!!!!
Ma dipende tutto dall'aggiornamento dello scheduler di win10???

MiKeLezZ
20-03-2017, 18:39
http://www.bitsandchips.it/forum/viewtopic.php?f=4&t=9903&sid=3acfe8f37346449a5171230fbc04e241&start=1090#p97623

Non è molto, ma per iniziare..."Total War: Warhammer, Cinebench R15, Handbrake, Batman: Arkham Asylum: same results."
Non è 45%, ma 35%.. e su anandtech li stanno già prendendo in giro, che magari il test precedente era semplicemente fatto su balanced.
Aspettiamo và.

k0nt3
20-03-2017, 18:42
Eh già, direi che ci ho preso al 90%, altro che frequenze di oltre 4 GHz come si voleva sperare... e considerando che lo dissi in anteprima 10 giorni fa..........:oink:

http://www.hwupgrade.it/forum/showpost.php?p=44557544&postcount=828

Si conoscono già le frequenze operative e i prezzi a cui saranno venduti. Il più veloce sarà l'R5-1600X 6c/12t da 300€ che avrà le medesime frequenze del R7-1800X (ovvero massimo 3,7 GHz con tutti i core attivi), non certo una sorpresa visto che si tratta di uno scarto di produzione dei modelli R7-1800X (con disattivato 1 core per CCX).


Non far finta di non capire, mi riferisco al fatto che spacciavi per sicuro R5-1600X a 300$ (anzi addirittura 300€ dal testo che tu stesso hai quotato). Che dire.. hai sbagliato del 20% :read: ma insisti a dire che ci hai preso :doh:

cdimauro
20-03-2017, 18:58
In questi giorni ci sono stati 2 aggiornamenti di windows (sulla mia ciofeca di 4 anni fa, notebook di fascia bassa, ho notato solo una ripresa da ibernazione molto più veloce) e B&C ha notato un aumento da 200 e rotti FPS a 300 e rotti fps di un gioco (stessi driver e stesse patch del gioco, solo windows update), quindi bisognerebbe rifare tutti i bench...
http://www.bitsandchips.it/forum/viewtopic.php?f=4&t=9903&sid=3acfe8f37346449a5171230fbc04e241&start=1090#p97623

Non è molto, ma per iniziare...
Per iniziare puoi chiedere se provano direttamente Wolfenstein 3D. :asd:
https://forums.anandtech.com/threads/official-amd-ryzen-benchmarks-reviews-prices-and-discussion.2499879/page-195#post-38803783

Altre conferme... +18.8% in fritz benchmark con 8 thread... Praticamente il vecchio scheduler usa tutti e 16 i thread... Il nuovo usa correttamente prima i core fisici...

Ma il vecchio scheduler di windows 10 era perfettissimissimo... :rolleyes:
Passiamo a qualcosa di più serio, va.

Hanno fatto delle prove con Fritz anche con altri processori?

cdimauro
20-03-2017, 19:28
Uhmm... interessante prendere come riferimento il passato per studiare il futuro. Tuttavia, il passato, occorre sempre analizzarlo, confrontarlo con il presente e coglierne le eventuali corrispondenze o differenze con il precedente presente per un'analisi che si possa dimostrare la più obiettiva possibile. Agli inizi e nel proseguo dei miei interventi ciò che ho sempre ripetuto e sottolineato è che occorre fare un plauso ad AMD che sta proponendo octacore ad elevata prestazione in multithreading ad un prezzo praticamente dimezzato (Ryzen 1800x contro i7 6900k, o Ryzen 1700 rispetto a i7 6800k) per dare una svolta e favorire lo stimolo all'abbandono dei quadcore anche nel segmento gaming. Cosa che non ha mai fatto Intel in questi anni rendendo, proprio come hai accennato tu stesso, inaccessibili le sue architetture esa ed octa core, non solo con la serie 6x00, ma anche con le precedenti serie (5xx0K, 4xx0K e 3xx0K) pur essendo quest'ultime destinate alla fascia enthusiast (dei videogiocatori ed overclockatori amanti della K e non) e non permettendo, per via dei prezzi di nicchia, mai la penetrazione massiva di tali architetture nei sistemi videoludici di fascia alta a grande diffusione.
L'avevo scritto tempo fa, ma è già con le precedenti console (e dunque parliamo di circa 11-12 anni fa) che si sono avuti a disposizione parecchi core & thread hardware (rispetto ai PC dell'epoca), e dunque gli sviluppatori hanno avuto modo di sperimentare col multithreading più spinto.

Ma i risultati si sono visti. E dunque questo certamente non per l'inerzia di Intel, che non c'entra niente, visto che i processori delle console erano PowerPC prima, e soltanto con la recente generazione sono in maggioranza x86/x64, ma... AMD.
Praticamente è da circa 6 anni ovvero dall'i7 2700k che a causa della evidente inferiorità della concorrenza (leggasi AMD) Intel si è limitata a fare refresh, ottimizzazioni di processo e architetturali alla propria piattaforma quadcore, relegando a pochi eletti le stesse ottimizzazioni alla fascia enthusiast esa ed octa core e di fatto rallentando lo sviluppo software in ambito gaming.
Intel sviluppa un core che "ricicla" poi in tutti gli ambiti: dai laptop, ai desktop, ai server. Dunque non si è "limitata" a refresh, ottimizzazioni di processo, e microarchitetturali, visto che aveva tutto l'interesse a migliorare i suoi core in modo da essere aggressiva in tutti i mercati.

Semplicemente per la fascia consumer non ha ritenuto opportuno di offrire CPU con più di 4 ore (tranne per la fascia enthusiast, per l'appunto). Ma i core sono, per l'appunto, quelli che usa ovunque.
AMD in questi stessi anni ha tentato un'altra strada, con le sue architetture esa ed octa core a basso costo, ma l'IPC molto basso dei propri processori non ha mai convinto neanche per un attimo gli sviluppatori a parallelizzare ancor di più il codice, in quanto le maggiori prestazioni computazionali erano garantite già dai "semplici" quad core Intel.
In realtà gli "octa" core di AMD erano quad-core. AMD ha chiamato "moduli" quelli che Intel chiama core, e "core" quelli che Intel chiama "thread hardware".

Gli esa-core AMD immagino che siano i Phenom-II, che però non erano SMT, e dunque avere core in più per AMD è stato necessario per contrastare le soluzioni top di gamma di Intel, che avevano fino a 8 thread hardware.

In ogni caso, visto che i top di gamma di Intel erano (e sono) comunque venduti abbastanza nonché raccomandati nelle configurazioni "high-end", gli sviluppatori avrebbero potuto benissimo cercare di sfruttare gli 8 thread hardware, e di riflesso di ciò avrebbero beneficiato anche i processori AMD con 8 thread hardware.
In conseguenza di ciò Intel stessa ha preferito tener in alto il piede e non schiacciare sull'accelleratore relegando esa ed octa core a coloro che avevano soldi da buttare nel gaming oltre a chi, ovviamente, voleva realizzarsi una workstation in casa senza affidarsi alle piattaforme Xeon.
In realtà le soluzioni enthusiast altro non sono che processori Xeon. Dunque, come vedi, Intel piazza processori server su sistemi "più consumer".
Oggi (presente da analizzare diverso dal vecchio presente) la situazione è diversa dal passato, ed Intel dovrà presto rivedere e riposizionare (economicamente parlando) i propri 6900k-6850k-6800k per continuare a venderli a coloro che vogliono la loro potente workstation di lavoro e che ovviamente non possono non vedere di buon occhio i Ryzen. Ma se in Intel, per poter sperare di continuare a vendere la proprie proposte della fascia Enthusiast, abbasseranno i prezzi delle CPU esa ed octa core (6xx0k) dovranno anche ridurre proporzionalmente il loro listino dei quadcore, ma di quanto mi chiedo...??? Non credo che sarebbe conveniente per Intel "regalare" un i7 7700k a 200€ per poter vendere un 6850k (all'incirca equivalente in gaming ma decisamente superiore in produttività) almeno 150€ (https://www.youtube.com/watch?v=OXbOC_OyvG4) in più, in tal caso rischierebbe di sparire la fascia i5 ed i3 in un colpo solo...
E' questa la batosta che AMD ha dato ad Intel sulla fascia più alta del mercato, batosta che si ripercuoterà ben presto anche verso il basso con i suoi Ryzen e di cui nessuno sta, a mio modesto avviso, facendo la dovuta riflessione.
Francamente non vedo quale batosta AMD avrebbe dato a Intel, visto che a quasi 3 settimane dalla presentazione & commercializzazione di Ryzen, i listini di quest'ultima non sono stati ritoccati di una virgola, e non è nemmeno apparso il famigerato Kaby Lake con 100Mhz in più e da 100W.

Come già discusso con Antonio ("Piedone"), finché non ci saranno dei dati di vendita di Ryzen, è plausibile che la situazione attuale sia destinata a perdurare.
Che siano generiche o specifiche tali ottimizzazioni sono comunque proposte e promosse dai produttori hardware (AMD, Intel, nVidia) per favorire la logica "generale" delle proprie piattaforme, quindi di fatto esistono e sono un dato di fatto incontrovertibile. Più piattaforme dello stesso tipo esistono nel mercato, più i programmatori si adegueranno nello sfruttarle, anche questo rappresenta un altro dato di fatto incontrovertibile che ci dovrebbe far riflettere. L'interesse è di noi consumatori, ciò che compriamo e diffondiamo di più (migliore o peggiore che sia) diventa ben presto lo standard.
Come già detto sopra, sistemi multicore & multithread per la massa, nonché economici, sono già arrivati 11-12 anni fa. I progressi ci sono stati, ma hanno richiesto tempo, e ancora la situazione non è certo esemplare in merito allo sfruttamento dell'hardware.

Questo perché cambiare il codice da seriale a parallelo non è affatto semplice come si potrebbe pensare. E questo ovviamente quando ciò risulti possibile.

Faccio anche presente che Intel investe da tantissimi anni nello sviluppo di codice multi-threaded, mettendo a disposizione strumenti appositi (che altri non offrono):
- Intel Thread Checker (almeno dal 2005) (http://www.polyhedron.com/threading_tools/reseller_productpage_thread_checker.html);
- Threading Building Blocks (almeno dal 2006) (https://en.wikipedia.org/wiki/Threading_Building_Blocks);
- Intel Array Building Blocks (2007) (https://en.wikipedia.org/wiki/Intel_Array_Building_Blocks);
- Cilk+ (2009) (https://en.wikipedia.org/wiki/Cilk#Intel_Cilk_Plus).
Per non parlare poi dei contributi a OpenMP e OpenCL, e per altri progetti & librerie appositamente dedicati al calcolo scientifico & HPC (e anch'esse votate al parallelismo spinto, ovviamente).

Dunque Intel li ha messi in campo dove servivano: tool per aiutare gli sviluppatori a parallelizzare il loro codice.

Ma questo da solo, non basta, per l'appunto.

NvidiaMen
20-03-2017, 19:51
L'avevo scritto tempo fa, ma è già con le precedenti console (e dunque parliamo di circa 11-12 anni fa) che si sono avuti a disposizione parecchi core & thread hardware (rispetto ai PC dell'epoca), e dunque gli sviluppatori hanno avuto modo di sperimentare col multithreading più spinto.

Ma i risultati si sono visti. E dunque questo certamente non per l'inerzia di Intel, che non c'entra niente, visto che i processori delle console erano PowerPC prima, e soltanto con la recente generazione sono in maggioranza x86/x64, ma... AMD.

Intel sviluppa un core che "ricicla" poi in tutti gli ambiti: dai laptop, ai desktop, ai server. Dunque non si è "limitata" a refresh, ottimizzazioni di processo, e microarchitetturali, visto che aveva tutto l'interesse a migliorare i suoi core in modo da essere aggressiva in tutti i mercati.

Semplicemente per la fascia consumer non ha ritenuto opportuno di offrire CPU con più di 4 ore (tranne per la fascia enthusiast, per l'appunto). Ma i core sono, per l'appunto, quelli che usa ovunque.

In realtà gli "octa" core di AMD erano quad-core. AMD ha chiamato "moduli" quelli che Intel chiama core, e "core" quelli che Intel chiama "thread hardware".

Gli esa-core AMD immagino che siano i Phenom-II, che però non erano SMT, e dunque avere core in più per AMD è stato necessario per contrastare le soluzioni top di gamma di Intel, che avevano fino a 8 thread hardware.

In ogni caso, visto che i top di gamma di Intel erano (e sono) comunque venduti abbastanza nonché raccomandati nelle configurazioni "high-end", gli sviluppatori avrebbero potuto benissimo cercare di sfruttare gli 8 thread hardware, e di riflesso di ciò avrebbero beneficiato anche i processori AMD con 8 thread hardware.

In realtà le soluzioni enthusiast altro non sono che processori Xeon. Dunque, come vedi, Intel piazza processori server su sistemi "più consumer".

Francamente non vedo quale batosta AMD avrebbe dato a Intel, visto che a quasi 3 settimane dalla presentazione & commercializzazione di Ryzen, i listini di quest'ultima non sono stati ritoccati di una virgola, e non è nemmeno apparso il famigerato Kaby Lake con 100Mhz in più e da 100W.

Come già discusso con Antonio ("Piedone"), finché non ci saranno dei dati di vendita di Ryzen, è plausibile che la situazione attuale sia destinata a perdurare.

Come già detto sopra, sistemi multicore & multithread per la massa, nonché economici, sono già arrivati 11-12 anni fa. I progressi ci sono stati, ma hanno richiesto tempo, e ancora la situazione non è certo esemplare in merito allo sfruttamento dell'hardware.

Questo perché cambiare il codice da seriale a parallelo non è affatto semplice come si potrebbe pensare. E questo ovviamente quando ciò risulti possibile.

Faccio anche presente che Intel investe da tantissimi anni nello sviluppo di codice multi-threaded, mettendo a disposizione strumenti appositi (che altri non offrono):
- Intel Thread Checker (almeno dal 2005) (http://www.polyhedron.com/threading_tools/reseller_productpage_thread_checker.html);
- Threading Building Blocks (almeno dal 2006) (https://en.wikipedia.org/wiki/Threading_Building_Blocks);
- Intel Array Building Blocks (2007) (https://en.wikipedia.org/wiki/Intel_Array_Building_Blocks);
- Cilk+ (2009) (https://en.wikipedia.org/wiki/Cilk#Intel_Cilk_Plus).
Per non parlare poi dei contributi a OpenMP e OpenCL, e per altri progetti & librerie appositamente dedicati al calcolo scientifico & HPC (e anch'esse votate al parallelismo spinto, ovviamente).

Dunque Intel li ha messi in campo dove servivano: tool per aiutare gli sviluppatori a parallelizzare il loro codice.

Ma questo da solo, non basta, per l'appunto.

Capisco solo adesso cosa intendeva dirmi Street... Me ne farò una ragione. Sarà il mercato a dare ragione ad una delle due tesi. Generalmente io, come tutti gli umani sbaglio, vorrei solo vedere in che misura e quanto invece indovinerai te.

cdimauro
20-03-2017, 19:52
Io non sono un indovino, ma un professionista.

E mi sono limitato a riportare ciò che la storia, non io, ci ha consegnato.

Se c'è qualcosa di sbagliato in quello che ho scritto, sei liberissimo di farmi vedere dove.

bjt2
20-03-2017, 20:13
E caspita!!!!
Ma dipende tutto dall'aggiornamento dello scheduler di win10???

Non so cosa cambia con l'aggiornamento...

"Total War: Warhammer, Cinebench R15, Handbrake, Batman: Arkham Asylum: same results."
Non è 45%, ma 35%.. e su anandtech li stanno già prendendo in giro, che magari il test precedente era semplicemente fatto su balanced.
Aspettiamo và.

Sembra che sulle CPU intel anche con balanced il core parking è disabilitato. Perchè su AMD no? Molti non sanno o non fanno questi cambiamenti e il profilo di default di Windows è balanced. Quindi se anche si sono messi in pari con le CPU INTEL è già qualcosa.

Per iniziare puoi chiedere se provano direttamente Wolfenstein 3D. :asd:

Passiamo a qualcosa di più serio, va.

Hanno fatto delle prove con Fritz anche con altri processori?

Se vedi i grafici del task manager, con windows pre-aggiornamento lo scheduler distribuisce i thread quasi uniformemente, mentre post riempe prima le CPU dispari. Quest'ultimo è lo stesso comportamento rilevato con le CPU INTEL, quindi deduco che su quest'ultimo non cambi nulla con la nuova versione... Semplicemente hanno messo Ryzen in pari con INTEL...

cdimauro
20-03-2017, 20:23
Non so cosa cambia con l'aggiornamento...
Può essere che AMD abbia rilasciato il driver aggiornato della CPU per Ryzen, e che Microsoft l'abbia integrato nell'ultimo aggiornamento.
Sembra che sulle CPU intel anche con balanced il core parking è disabilitato. Perchè su AMD no? Molti non sanno o non fanno questi cambiamenti e il profilo di default di Windows è balanced. Quindi se anche si sono messi in pari con le CPU INTEL è già qualcosa.
Vedi sopra: IMO è stato finalmente integrato il driver della CPU, che si occupa di gestire il core parking anche col profilo bilanciato.
Se vedi i grafici del task manager, con windows pre-aggiornamento lo scheduler distribuisce i thread quasi uniformemente, mentre post riempe prima le CPU dispari. Quest'ultimo è lo stesso comportamento rilevato con le CPU INTEL, quindi deduco che su quest'ultimo non cambi nulla con la nuova versione... Semplicemente hanno messo Ryzen in pari con INTEL...
Ho visto, ed è strano, visto che c'è stato un sito specializzato (PC hardware o qualcosa del genere) che ha fatto test appositi, in cui si vedeva che Windows cominciava a smistare i processi/thread prima su tutte le CPU "pari" (o "dispari", a seconda se si parte da 0 oppure da 1 a contare).

Comunque c'è chi i test li ha fatti col profilo bilanciato, e dunque col core parking disabilitato, per cui non dovrebbe cambiare nulla anche con dopo quest'aggiornamento.

Ren
20-03-2017, 20:23
L'avevo scritto tempo fa, ma è già con le precedenti console (e dunque parliamo di circa 11-12 anni fa) che si sono avuti a disposizione parecchi core & thread hardware (rispetto ai PC dell'epoca), e dunque gli sviluppatori hanno avuto modo di sperimentare col multithreading più spinto.

Famose na risata...;)
I dev hanno preso un altra strada. Del resto i CU sono concettualmente simili ad una SPU del Cell.

http://media.redgamingtech.com/rgt-website/2014/10/ubisoft-cloth-simulation-ps4-vs-ps3.jpg

Molti compiti dei core CPU (object culling,post-fx,fisica etc) sono stati spostati su GPU....

L'audio ha un dsp apposito.

cdimauro
20-03-2017, 20:25
Per chi vuol vedere. :D

P.S. Il DSP apposito mi pare che la PS3 non ce l'abbia. Ma tanto, con ben 16 thread hardware a disposizione, non aveva certo problemi ad assegnarne uno solo per questo scopo. ;)

blackshard
20-03-2017, 20:27
Per iniziare puoi chiedere se provano direttamente Wolfenstein 3D. :asd:


Quello di UT3 è stato uno dei primi engine a sfruttare sul serio più core:

http://www.anandtech.com/show/2352/4

Il fatto che una patch allo scheduler faccia guadagnare il 30% di performance lascia ipotizzare che si, un conflitto fra scheduler di win10 e ryzen sembra esserci davvero.