Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

HONOR Magic 8 Pro: ecco il primo TOP del 2026! La recensione
HONOR Magic 8 Pro: ecco il primo TOP del 2026! La recensione
HONOR ha finalmente lanciato il suo nuovo flagship: Magic 8 Pro. Lo abbiamo provato a fondo in queste settimane e ve lo raccontiamo nella nostra recensione completa. HONOR rimane fedele alle linee della versione precedente, aggiungendo però un nuovo tasto dedicato all'AI. Ma è al suo interno che c'è la vera rivoluzione grazie al nuovo Snapdragon 8 Elite Gen 5 e alla nuova MagicOS 10
Insta360 Link 2 Pro e 2C Pro: le webcam 4K che ti seguono, anche con gimbal integrata
Insta360 Link 2 Pro e 2C Pro: le webcam 4K che ti seguono, anche con gimbal integrata
Le webcam Insta360 Link 2 Pro e Link 2C Pro sono una proposta di fascia alta per chi cerca qualità 4K e tracciamento automatico del soggetto senza ricorrere a configurazioni complesse. Entrambi i modelli condividono sensore, ottiche e funzionalità audio avanzate, differenziandosi per il sistema di tracciamento: gimbal a due assi sul modello Link 2 Pro, soluzione digitale sul 2C Pro
Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza
Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza
Motorola edge 70 porta il concetto di smartphone ultrasottile su un terreno più concreto e accessibile: abbina uno spessore sotto i 6 mm a una batteria di capacità relativamente elevata, un display pOLED da 6,7 pollici e un comparto fotografico triplo da 50 MP. Non punta ai record di potenza, ma si configura come alternativa più pragmatica rispetto ai modelli sottili più costosi di Samsung e Apple
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 06-03-2017, 23:03   #661
Vul
Senior Member
 
Iscritto dal: Nov 2006
Messaggi: 6849
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
Presumo ci sia mancanza di comprensione.
Il 1800x ( il top di gamma da oltre 500 euro ) se tutto va bene va come l'i5 7600K, quindi il 1700 liscio che dovrebbe essere il rivale diretto del 7700K paga molto più del 10% .... ammesso che si trovi la scheda madre giusta in caso di AMD.

I casi sono 2, o a breve si comincieranno a sfuttare gli octo cores ( cosa che dal 2011 ad oggi non è successa ) oppure se l'andazzo continua di questo passo con le prossime schede video Ryzen rischia già di essere limited.
Perchè mai Ryzen dovrebbe essere limited?

Un FX8350 andava il 10,4 % più lento di un i5 2500k nei giochi con una 680.

La stessa cpu va il 10% più veloce con una titan pascal.

L'assunzione che fanno nelle review, ovvero che all'aumentare della potenza delle gpu la cpu che fa meno fps a risoluzioni basse (in condizioni cpu limited) è palesemente smentita dai fatti:

https://www.computerbase.de/2017-03/...x-1700-test/4/

Di fatti le cpu che rimangono più indietro sono quelle con meno core.

E visto e considerato che il problema di Ryzen è solo ed esclusivamente software (una cpu o effettua calcoli in int o in float, non esiste un terzo processo per il gaming) e Ryzen surclassa la competizione sia in Single che Multi Thread è solo ed esclusivamente un fattore di supporto lato software. Ryzen è anche alla base delle prossime apu console (bulldozer non è nelle console invece).

Se è vero che bulldozer ci ha messo quasi 5 anni a recuperare su sandy bridge, non c'è alcun motivo per pensare che Ryzen che gode di un supporto molto più massivo non recuperi molto ma molto prima.

Per come la vedo io a lungo termine Ryzen è nettamente superiore, poi fate vobis.

Ultima modifica di Vul : 06-03-2017 alle 23:07.
Vul è offline   Rispondi citando il messaggio o parte di esso
Old 06-03-2017, 23:41   #662
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
Non facciamo terrorismo mediatico ma:
Quando hai una risoluzione di 1600x900 a schermo hai meno oggetti da posizionare, alla risoluzione di 2540x1440 ne hai molti di più.
La cpu a quella risoluzione per ogni singola scena (e non per ogni singolo secondo) deve calcolare più cose.
Ci sono giochi (pochi per il momento) che a 1600x900 danno il 6600 in vantaggio di frame, mentre in 2k il 1800x offre più fps del 6600.
Se questo non lo consideri significa che non hai inteso bene dove vanno i giochi.
Il motivo sarebbe pure semplice perchè entro un dato range di numeri risultati è preferibile avere più clock che core, superata una certa soglia abbiamo bisogno di più core che frequenza.
Per valutare poi bene le prestazioni in game di un sistema (perchè un sistema è composto anche da altro oltre che cpu e vga, ma anche e sopratutto dalla congestione del bus pce quando messo alla frutta) dovremmo vedere test ad uguale risoluzione da 1600 a 2k con e senza filtri attivati e valutare se ci siano differenze nel trend.
No per niente.
Aumentando di risoluzione non aumenta il FOV.

Il motivo per cui può capitare che ad ad una risoluzione maggiore una CPU che prima stava POCO sotto poi segni risultati migliori, è che faccia registrare valori di frames minimi migliori, perchè i valori più alti non si esprimono in quanto tappati dalla VGA.

La bassa risoluzione si usa per simulare un comporto grafico più spinto possibile, ma se la cosa ti urta o hai dubbi in proposito puoi benissimo utilizzare le solite risoluzioni 1080p e 1440p ed usare una configurazione grafica molto spinta come uno SLI di Titan.
La finalità è la stessa ed il risultato vedrai che non cambia.

Ultima modifica di nickname88 : 06-03-2017 alle 23:59.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 06-03-2017, 23:43   #663
zerothehero
Senior Member
 
L'Avatar di zerothehero
 
Iscritto dal: Aug 2003
Città: milano
Messaggi: 14071
Io continuo a non capire come si possa pretendere che una cpu con così tanti core (che ad es. in the witcher vengono sfruttati ben sotto il 30%..addirittura è un balletto di metà core a valori tra 0 e il 20%..praticamente le cpu girano a vuoto) vada più di una cpu quad core a frequenze più alte e con una maggiore occupazione della cpu.
Quanto intel introdusse l'HT ricordo (mi pare core prescott) che in tutte le recensioni disabilitandolo i frame aumentavano di un 5-7%.

Se domani uscisse un 16 core /32 thread a 3 ghz dovremmo stracciarci le vesti perchè è battuto da un quad?

Paradossalmente va bene nei benchmark sintetici (come il vantage) perchè li probabilmente vengono sfruttati al 100% tutti i core, cosa che non avviene (e non avverrà ancora per molto) in tutti gli altri giochi (reali), dove con 70 euro te la cavi più che egregiamente (mi riferisco ad un dual core 4560 kabylake).
Chi è preoccupato di perdere qualche manciata di frame con ryzen rispetto ai quad intel, prenda questi ultimi, perchè ragionevolmente la situazione rimarrà questa per parecchi anni a venire, dal momento che in pochissimi si metteranno a riprogrammare solo perchè qualche giorno fa è uscito un 8 core a prezzi che anche i gamers possono acquistare (meno di 400 eur).
__________________
We are the flame and darkness fears us !

Ultima modifica di zerothehero : 06-03-2017 alle 23:48.
zerothehero è offline   Rispondi citando il messaggio o parte di esso
Old 06-03-2017, 23:44   #664
Mister D
Bannato
 
Iscritto dal: Jun 2011
Città: Forlì
Messaggi: 8199
Quote:
Originariamente inviato da zerothehero Guarda i messaggi
Io continuo a non capire come si possa pretendere che una cpu con così tanti core (che ad es. in the witcher vengono sfruttati ben sotto il 30%) vada più di una cpu quad core a frequenze più alte e con una maggiore occupazione della cpu.

Se domani uscisse un 16 core /32 thread a 3 ghz dovremmo stracciarci le vesti perchè è battuto da un quad?

Paradossalmente va bene nei benchmark sintetici (come il vantage) perchè li probabilmente vengono sfruttati al 100% tutti i core, cosa che non avviene (e non avverrà ancora per molto) in tutti gli altri giochi (reali).
Io è due giorni che cerco di farlo capire ma so de coccio alcuni ergo amen

Ultima modifica di Mister D : 06-03-2017 alle 23:51.
Mister D è offline   Rispondi citando il messaggio o parte di esso
Old 06-03-2017, 23:51   #665
Mister D
Bannato
 
Iscritto dal: Jun 2011
Città: Forlì
Messaggi: 8199
Quote:
Originariamente inviato da bagnino89 Guarda i messaggi
cut...
I test in video in tempo reale non li considero affidabili. Non vengono riprodotte esattamente le stesse scene, e senza grafici globali riassuntivi è impossibile capire cosa succeda realmente. Tra l'altro, non viene riportata la scheda madre utilizzata.

cut...
Ciao,
ho trovato la recensione da cui derivano i test video:
http://www.toptengamer.com/amd-ryzen...7-7700k-1800x/
http://www.toptengamer.com/amd-ryzen-1800x-review/

A lui vengono quei risultati del video e non penso si sia messo a taroccarli e lì viene usata la gigabyte. A sto punto penso proprio ci siano diversi problemi con ram e bios acerbi che spiegano tutte queste differenze. Che poi cmq anche a lui il 7700k o il 6800k rimangono davanti in alcuni giochi ma con meno distacco
Oggi nn ero riuscito a trovarle e poi l'ho trovata in prima pagina nel thread ufficiale oc
Mister D è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2017, 00:07   #666
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da zerothehero Guarda i messaggi
Io continuo a non capire come si possa pretendere che una cpu con così tanti core vada più di una cpu quad core a frequenze più alte e con una maggiore occupazione della cpu.
Quote:
Originariamente inviato da Mister D Guarda i messaggi
Io è due giorni che cerco di farlo capire ma so de coccio alcuni ergo amen
Gli octo e deca core Intel lo fanno, sono sempre allineati o quasi con il 7700K senza problemi, anzi pure davanti.



La frequenza dovrebbe essere modulata a seconda del num di cores utilizzati, non è che spendi di più e ottieni una coperta corta, questo genere di problema esisteva solo ai tempi dei primi dual core ( dal Athlon 64 X2 al primo Core 2 Conroe ), poi inventarono il Turbo.
Con 4 cores utilizzati il teoria la CPU con tanto cores dovrebbe utilizzare una frequenza più spinta.

Ultima modifica di nickname88 : 07-03-2017 alle 00:18.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2017, 00:13   #667
skadex
Senior Member
 
L'Avatar di skadex
 
Iscritto dal: Jun 2008
Messaggi: 4311
Ma che ci siano problemi di gioventù è palese, basta fare un salto nella sezione oc apposita e vedere tutti i problemi che stanno dando i bios di quasi tutte le schede madri.
Tuttavia considerando questo, considerando che siamo nel peggior scenario per ryzen e che la situazione può solo migliorare, personalmente io non avrei problemi a prendere in particolare il 1700 liscio anche per il gaming preferendolo a parità di costi anche al 7700k:
il test mostra quello che già si sapeva (ovvero le 3 cpu sono identiche, cambia solo la selezione ma il 1700 è migliore dal punto di vista energetico, le prestazioni a pari frequenza sono ovviamente identiche) e il potenziale è impressionante.
Fino a poco tempo fa chi poteva immaginare di avere un octacore simile a questi prezzi per un pc da casa?
skadex è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2017, 00:14   #668
Piedone1113
Senior Member
 
Iscritto dal: Jul 2015
Messaggi: 5580
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
No per niente.
Aumentando di risoluzione non aumenta il FOV.

Il motivo per cui può capitare che ad ad una risoluzione maggiore una CPU che prima stava POCO sotto poi segni risultati migliori, è che faccia registrare valori di frames minimi migliori, perchè i valori più alti non si esprimono in quanto tappati dalla VGA.

La bassa risoluzione si usa per simulare un comporto grafico più spinto possibile, altrimenti puoi benissimo utilizzare la solita risoluzione 1080p o 1440p ed usare una configurazione grafica molto spinta come uno SLI di Titan X.
Fai un test con una configurazione simile e vedrai che lo scenario sarebbe lo stesso di un test a bassa risoluzione.
Quindi secondo la tua opinione aumentando gli oggetti presenti nella scena non aumenta il carico sulla cpu?
Forse non hai capito che si passa da cpu limite a gpu limited perché il carico sulla gpu cresce molto più velocemente rispetto alla cpu al crescere della risoluzione.
Quando si progetta un gioco lo si fa in base al target di utenza.
Per il momento progettare un gioco per consolle implica sfruttare al massimo 6/7 core lento ( che possono venir eguagliati e anche superati in prestazioni da un 2+2 molto alto in frequenza) ma la prossima gen di consolle ( che non ci sarà tra 5 anni) porterà in dote 8 core dalle prestazioni triple delle odierne e un 2+2 sarà considerato inadeguato, mentre un 4 core appena sufficiente.
Non è che le sh castreranno il gioco per gli i7, saranno i Player a dover ridurre il carico sulla cpu ( ti ricordi quando si potevano settare i personaggi Max a schermo nei vecchi giochi?)
Piedone1113 è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2017, 00:18   #669
Piedone1113
Senior Member
 
Iscritto dal: Jul 2015
Messaggi: 5580
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
Gli octo e deca core Intel lo fanno, sono sempre allineati o quasi con il 7700K senza problemi, anzi pure davanti.



La frequenza dovrebbe essere modulata a seconda del num di cores utilizzati, non è che spendi di più e ottieni una coperta corta, questo genere di problema esisteva solo ai tempi dei primi dual core ( Athlon 64 X2 e Pentium D ), poi inventarono il Turbo.
Con 4 cores utilizzati il teoria la CPU con tanto cores dovrebbe utilizzare una frequenza più spinta.
Si ed un 6950 manda 4 core a 4500mhz in game?
Piedone1113 è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2017, 00:20   #670
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
Quindi secondo la tua opinione aumentando gli oggetti presenti nella scena non aumenta il carico sulla cpu?
Non aumentano gli oggetti in scena.

Come ti ho detto prima al variare della risoluzione NON varia il FOV ( a meno che non cambi il formato del monitor ), che io utilizzi il 1080p, il 1440p o il 4K lo spazio di gioco visualizzato è sempre lo stesso, in quanto lo scenario e renderizzato in tempo reale.

Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
Per il momento progettare un gioco per consolle implica sfruttare al massimo 6/7 core lento ( che possono venir eguagliati e anche superati in prestazioni da un 2+2 molto alto in frequenza) ma la prossima gen di consolle ( che non ci sarà tra 5 anni) porterà in dote 8 core dalle prestazioni triple delle odierne e un 2+2 sarà considerato inadeguato, mentre un 4 core appena sufficiente.
Non è che le sh castreranno il gioco per gli i7, saranno i Player a dover ridurre il carico sulla cpu ( ti ricordi quando si potevano settare i personaggi Max a schermo nei vecchi giochi?)
Lo sviluppo su console avviene tramite apposito SDK, il fatto che le console montino un octo core può lasciare il tempo che trova su PC.

E' da anni oramai che le console octo core esistono eppure come vedi ancora non si sfrutta appieno nemmeno un quad.
Sul resto del discorso è solo purissima supposizione senza base alcuna ma soprattutto senza alcuna scadenza temporale.

Ultima modifica di nickname88 : 07-03-2017 alle 00:59.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2017, 06:05   #671
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da gridracedriver Guarda i messaggi
una differenza di ipc del 10% lo definisci non comparabile e che è una uarch sbilanciata nel MT.
E' del 10% con le applicazioni, mentre nei giochi arriva anche al doppio.

Poi che sia sbilanciata nel MT lo vedi dai benchmark, a questo punto mi chiedo che cosa tu abbia fatto finora, considerate le tantissime recensioni che sono state pubblicate.
Quote:
e quei mesteriosi grafici di the stilt sono usciti dopo che hai detto questa cosa e non so nemmeno quanto siano affidabili rispetto alle recensioni di mezzo mondo ci sono dei valori davvero strani.
Premesso che manco da AnandTech (e nemmeno leggo alcunché) da un po' di mesi causa cronica mancanza di tempo (puoi chiedere a chi frequenta lì da quant'è che non mi vedono), questa che tenti di portare avanti è la classica fallacia logica dell'avvelenamento del pozzo: vorresti sminuire/screditare una fonte che fa certe affermazioni accampando scuse di altro tipo, solo perché non ti piace quello che dice.

The Stilt non ha bisogno che lo difenda: chiedi pure a bjt2 e leoneazzurro, che hanno partecipato attivamente al suo thread e persino interloquito con lui, cosa ne pensano del personaggio in questione.

Visto che non credo che ti prenderesti il lusso di smazzarti tutta la mole di materiale che ha postato, e da questo cercare di capire lo spessore del personaggio e magari anche quello che fa nella vita, visto che nessuna delle recensioni che abbiamo letto finora raggiunge la qualità e il mostruoso livello di dettaglio tecnico di ciò che ha riportato lui, inclusi i numerosi test che ha realizzato in tante condizioni diverse. E tutta quella montagna di roba pubblicata guarda caso il 2: il giorno della scadenza...
Quote:
poi dimmi se dobbiamo prenderti sul serio quando fai certe uscite.
Detto da te lo prendo come un complimento, visti i tuoi sistematici attacchi che puntualmente cadono nel vuoto.
Quote:
tu stai ripetendo più e più volte che sfora il TDP, quindi alludi che il TDP indica il consumo quando non è cosi
Alludo per te che vuoi vederla così. Io ho affermato altro. Poi lo fai tu, che tecnico non sei, e solo perché non sai dove appigliarti per cercare di sminuirmi.

Adesso potresti cortesemente fammi vedere quale sarebbe il tuo contributo a questa discussione su Ryzen (a parte la cieca difesa a spada tratta)?
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2017, 06:32   #672
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da NvidiaMen Guarda i messaggi
Io lo ricordo sempre e come ben vedi lo ho fatto. Dovresti prendere sempre il buon esempio perché chi non conosce umiltà non conoscerà mai i suoi limiti nè mai potrà migliorarsi.
Ero umile al primo messaggio che t'ho scritto, ma ho smesso subito d'esserlo a seguito delle tue piccate repliche. E considerato il trend, non prevedo alcun piano di rientro.
Quote:
Infatti bisogna informarsi. Dimostrarglielo prima agli sviluppatori del codice direttamente alla Maxon che affermano proprio il contrario. Vai qui e fammi sapere cosa ti rispondono.
Quel link lo conoscevo da un bel pezzo, tant'è che l'avevo anche postato nel thread Aspettando Zen (assieme a un altro sull'argomento), e da cui avevo estratto delle informazioni. Ma si vede che tu nemmeno l'hai letto: l'hai buttato lì in pompa magna solo perché è il sito ufficiale dell'applicazione, e a mo' di intimidazione, visto che secondo te dovrei scontrarmi con gli sviluppatori.

Invece mi basta riportare quello che c'è scritto:

Processore minimo: Intel Pentium 4, Athlon 64

Processori supportati: Intel Pentium 4, Intel Pentium 4 D, Intel XEON, Intel Core 2, Intel Core i7, Intel Core i5, Intel Core i3, Intel Celeron, Intel Celeron D, AMD Sempron, AMD Athlon 64, AMD Opteron, AMD Phenom, AMD FX, AMD Ontario, AMD Zacate, AMD Kabini, AMD Temash, AMD Beema, AMD Mullins, AMD Llano, AMD Trinity, AMD Richland, AMD Kaveri

Il benchmark OpenGL richiede una scheda grafica che supporti OpenGL 2.1 e abbia almeno 512 MB di memoria grafica.

CINEBENCH R15 è stato progettato per testare le funzionalità OpenGL 2.1 migliorate come la trasparenza.


Quindi basta un processore a 64 bit, che ha come requisito minimo le SSE2. Dunque le SSE3+ non sa nemmeno cosa siano.

Soprattutto è richiesta una scheda grafica OpenGL 2.1: standard rilasciato nel... 2006!

Dunque le AVX non erano nemmeno nella mente del signore, come si dice dalle mie parti.

E meno male che con Cinebench ci lavori...
Quote:
In ambito di ricerca... Proprio a quegli algoritmi ci si affida per dei test imparziali?
Sai com'è: lo si fa da parecchi da anni. Esce un processore nuovo -> lo si testa ANCHE con applicazioni scientifiche. Forse perché, solo per puro caso, anche gli scienziati hanno bisogno di CPU sulle quali far girare le loro applicazioni.
Quote:
Nel mondo accademico il primo degli obiettivi è l'ottimizzazione degli algoritmi per spremere il più possibile i registri, i thread e le istruzioni specifiche messe a disposizione dai processori.
Nel mondo accademico difficilmente succede quello che affermi, visto che gli scienziati NON sono programmatori, ma sono costretti a diventarlo (con tutti i limiti del caso) perché nella loro professione l'uso del computer è divenuto un requisito senza il quale non si può fare più nulla. Quindi anche se hanno studiato materie completamente diverse, devono improvvisarsi programmatori.

Fortunatamente a volte vengono affiancati da programmatori veri e propri, magari esperti di ottimizzazioni, che reingegnerizzano e/o ottimizzano quel "codice" che avevano scritto.
Quote:
Questo avviene dopo mesi ed anche anni di sviluppo e sarebbe dunque una cosa intelligente testare una architettura del tutto nuova fresca di pochi giorni e completamente non ottimizzata come lo è quella di Ryzen con questi algoritmi adattati e migliorati da anni per altre piattaforme?
Considerato che, come dicevo sopra, è prassi testare un nuovo processore col... software attualmente disponibile (in mancanza di macchine del tempo, purtroppo ci si deve arrangiare con quel che si ha), se ho capito bene stai chiedendo, con Ryzen, di fare un'eccezione a ciò che normalmente avviene.

Dunque il processore viene rilasciato, ma non dovrebbe essere testato. Rimandiamo i test a tempi migliori (quando, non si sa).

Ma a questo punto rimandiamo anche l'acquisto, oppure dalle tue parti si è abituati a comprare un processore a scatola vuota? Solo perché è nuovo, magari.

Allora non sarebbe meglio NON presentare alcun processore, e commercializzarlo soltanto quando finalmente il software ci giri bene?
Quote:
L'imparzialità dalle mie parti non deve essere mai opinabile ed occorrerebbe perder tempo con questi test non adesso ma più avanti a meno che non si voglia ottenere spicciola e facile gloria da fanboysmo nell'immediato.
E infatti si vede quanto sia imparziale nei tuoi ragionamenti: vorresti misurare l'IPC con UN solo test (cosa che nessuna stampa specializzata s'è mai sognata di fare. Ovviamente), peraltro sbilanciato sul solo versante MT, che è fermo a una decina d'anni fa quanto a supporto dei processori, e si dovrebbero pure bloccare gli altri test perché... non sarebbe ancora pronti per sfruttarlo.
Quote:
Mi sa che siamo in due a dovercela fare.
Preferisco una compagnia diversa, grazie.
Quote:
Non vale la pena informare una persona informata come te. Sicuramente lo sarai sempre più di me quando accadrà ed avrai già pronto un qualcosa che ti darà sempre e comunque ragione. Non è combattendo contro l'opinione di tanti che ci si dimostra validi nella vita perché per vincere la solitudine non è necessario il dimostrare di avere una risposta migliore degli altri, ma riuscire a farsi capire ed alle volte anche accettare con imparzialità ciò che è diverso da ciò che pensiamo per conquistarne la loro stima.
Fortunatamente sono in buona compagna: la solitudine non so cosa sia. Preoccupati, piuttosto, del tuo solipsismo cinebench-centrico.

Adesso se la smetti col tuo vittimismo spicciolo e cerchi di dare un qualche contributo alla discussione, faresti cosa gradita.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2017, 06:43   #673
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da AceGranger Guarda i messaggi
nel mio caso utilizzo Vray che supporta anche Embree di Intel;

ma non ho ancora capito se Embree funziona solo su CPU Intel o anche AMD; a quanto leggo dovrebbe fare largo uso di AVX
Embree funziona su entrambi, e immagino che sfrutti le AVX/-2:


Da notare che il processore Intel a 8 core testato è un Haswell-E.
Quote:
e, ammesso che anche AMD lo supporti non ho ben capito la questione AVX; Ryzen dovrebbe avere prestazioni inferiori in AVX ? purtroppo non ho ancora trovato test con Vray .
Sì, dovrebbe avere prestazioni inferiori perché ha 2+1 unità di load store (ma in realtà ci sono solo due porte: tutte le richieste devono passare dalle 2 AGU disponibili) che lavorano a 128 bit, e le 4 unità SIMD sono anch'esse a 128 bit ma non supportano le FMAC (le si simula solo combinando le unità con FMUL e FADD).

Intel, invece, ha 2 porte di load / AGU a 256 bit, 1 porta di store (non AGU) a 256 bit, un'AGU (per lo store) a parte, 2 unità SIMD simmetriche a 256 bit con FMAC, e un'unità SIMD a 256 bit per altre operazioni (non in virgola mobile; ma comunque molto usate nel codice: shuffling, permutazioni, move di vario tipo, ecc).

Nonostante ciò, in Embree, come vedi, i processori Intel non guadagnano molto rispetto a Zen. Il distacco c'è, ma non è marcato come in altri test (LINPACK, Himeno, ecc.).

D'altra parte anche Blender, se compilato per le AVX/-2, non raddoppia o triplica le prestazioni, ma ha un guadagno simile ad Embree. Si vede che con questo tipo di calcoli non si può sfruttare più di tanto queste unità SIMD.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2017, 06:57   #674
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da riuzasan Guarda i messaggi
Ho già quotato tue dichiarazioni e speranze sul fallimento di AMD o l'impossibilità della stessa di fare miracoli. Amen.
Riporta i link a questi tuoi messaggi, che poi riporto le mie repliche, così facciamo vedere ancora una volta le cose che t'inventi di sana pianta su di me, pur di cercare (inutilmente) di screditarmi.
Quote:
Del resto basta vedere come su "10 test" tagli (a seconda dell'utilità) i cinque che non portano acqua al tuo mulino,
Non ho mai tagliato niente: questa è un'altra delle tue menzogne.

Al contrario: ho sempre, sistematicamente, affermato che più test ci sono, e meglio è per fare delle valutazioni, perché si ha un quadro migliore.
Quote:
o come in questo thread quanto sei fanboy, su su: ormai non riesci a prendere per culo nemmeno tuoi ex sostenitori e sei dovuto scappare qui, in questo tread, dove quasi nessuno ti ha letto in quello "Aspettando Zen...".
Lo credo bene: in quel thread i troll o saltano i miei post perché tecnici, oppure ne approfittano solo per infangarmi. Come te, del resto, che sei il degno rappresentante della categoria, come si vede anche qui.

Per il resto in questo thread scrivono i tecnici migliori di quel thread, per cui non sento la mancanza degli altri fanatici integralisti.
Quote:
Del resto, ad oggi, chi ti ha letto di la, una idea chiara se l'è fatta.
Ed è che sei un fanboy di livello più alto perchè giustamente lo sei di chi ti ha dato lo stipendio: nulla questio.
Ma trova pace.
Quanto sei irritante col tuo falso buonismo & imparzialità. Per il resto è immancabile il tuo classico attacco ad hominem.

D'altra parte sui fatti e argomentazioni non sei in grado di rispondere, per cui è l'unica cosa che ti rimane a cui aggrapparsi: le fallace logiche e le menzogne, di cui da tempo hai dato prova di maestria.
Quote:
Intel è entrata in un mercato DOVE C'E' concorrenza e ha dimostrato cosa sa fare quando ha una concorrenza, nonostante una base aziendale "importante" da ogni punto di vista.
C'è concorrenza IN AMBITO ARM, che ha monopolizzato lo status. I binari, infatti, li trovi compilati per ARM. Di gran lunga meno per x86, che spesso deve ricorrere all'emulazione ARM.

Ecco perché non è riuscita a sfondare.
Quote:
E per favore, mettere in mezzo realtà che conosco benissimo come PPC o MIPS fa ridere, ma davvero, per la dimensione delle aziende coinvolte (vai Freescale, vai ...) e come si sono interessate davvero a quel mercato.
Hanno investito quel che hanno potuto, ma tanto se non è riuscita nemmeno Intel coi suoi capitali, è perché il mercato è chiuso per altre architetture.
Quote:
AH e per il PPC/MIPS, ho avuto macchine PPC fino al Pegasos 2 di Bplan con Morphos e Debian PPC e poi una Ci40. E no, non avranno mai l'IPC di Haswell ...
E chi se ne frega. In questo thread si parla di architetture x86, non di ferri vecchi a cui s'è aggrappata la comunità post-Amiga (perché nemmeno Amiga sono) che "mai Intel!". Salvo poi usare gli standard che quest'odiata azienda ha realizzato.

Persino il vecchissimo chipset degli 8086 è incorporato nei chipset per PowerPC, perché alcune caratteristiche sono divenute ormai standard industriale.

Ma guai a farglielo sapere a quei falliti che continuano a fantasticare tutt'oggi sulla rivalsa dei loro post-Amiga.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2017, 07:02   #675
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da bagnino89 Guarda i messaggi
Per quanto ne so io (poco, leggo qui i pareri tecnici di chi è esperto del settore), le AVX da 256 bit non vengono ancora sfruttate nei giochi (cdimauro disse che solo Grid 2, con opportuno compilatore, è in grado di farlo).
Vengono ancora sfruttate poco, da quel che ho letto in giro.

Grid 2 è sicuramente un gioco che supporta le AVX, ma c'è un eseguibile apposito (grid2_avx.exe, se non ricordo male), perché quello normale / di default è compilato per le SSE2+.
Quote:
Quindi penso che, lato gaming, sia la frequenza il parametro più importante da migliorare (e la latenza).
Non solo la frequenza. Per certi calcoli, come l'IA ad esempio, serve anche l'efficienza della micro-architettura.

Per il resto concordo con quanto avete detto tu e nickname88 riguardo ai giochi.
Quote:
Originariamente inviato da leoneazzurro Guarda i messaggi
Le AVX2 sono da migliorare in ottica HPC, non consumer.
Anche consumer, perché non vengono ancora usate abbastanza.

Adesso devo correre a lavoro. Buona giornata a tutti.

EDIT. Dimenticavo questo:
Quote:
Originariamente inviato da bjt2 Guarda i messaggi
@cdmauro

Potrebbero interessarti dei test su dolphin dove ryzen 4GHz risulta MOLTO più veloce di un ivy bridge 4.2GHz: https://forums.anandtech.com/threads...#post-38778815
Non ho tempo adesso, ma mi pare che computerbase.de avesse pubblicato un test di Dolphi anche con Kaby Lake e Broadwell. Dagli un'occhiata.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys

Ultima modifica di cdimauro : 07-03-2017 alle 07:05.
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2017, 08:47   #676
leoneazzurro
Senior Member
 
Iscritto dal: Jan 2003
Messaggi: 10395
Un post molto interessante sulla questione gaming

https://www.reddit.com/r/Amd/comment...n4&sh=73e0ad0d

(grossomodo avevo esposto una tesi simile prima che uscisse Zen, fa piacere avere conferme)
leoneazzurro è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2017, 09:05   #677
Piedone1113
Senior Member
 
Iscritto dal: Jul 2015
Messaggi: 5580
Quote:
Originariamente inviato da leoneazzurro Guarda i messaggi
Un post molto interessante sulla questione gaming

https://www.reddit.com/r/Amd/comment...n4&sh=73e0ad0d

(grossomodo avevo esposto una tesi simile prima che uscisse Zen, fa piacere avere conferme)
Mi sembra chiaro che nei giochi più recenti ci sono più th contemporanei che gestiscono gli oggetti a schermo (magari 1 per lo scenario, uno per gli oggetti, uno per i personaggi atti ecc) e che all'aumentare della complessità della scena i 4 core iniziano a mostrare limiti ben prima dei 6-8 core
Piedone1113 è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2017, 09:41   #678
fraquar
Bannato
 
Iscritto dal: Feb 2016
Città: Milano
Messaggi: 1265
3 giorni per leggere tutti i commenti, un po' di ricerche di benchmark in giro e il tempo perso a fare una media ma almeno un idea me la sono fatta.
Ad oggi non comprerei Ryzen.
Per i giochi si sapeva non fosse la scelta giusta e i benchmark lo confermano.
Un 1800x non sta dietro al 7700k e costa anche di più.
Come WS non lo prendo in considerazione in quanto non è una cpu certificata, e non lo sarà, in più c'è lo scoglio non indifferente del dual channel per cui si resta con gli Xeon.
Potrebbe essere la cpu perfetta per chi fa un po' di tutto e vuole rischiare l'adozione di una piattaforma nuova.
AMD ci ha abituato a rilasci di driver e bios con tempi dilatati per cui personalmente attenderò fine anno per capire se ryzen sarà supportato meglio e se le magagne saranno corrette.
Spero che per le cpu abbiano un team migliore di quello che sviluppa i driver delle GPU.

La strada intrapresa è corretta e finalmente con R3 e R5 ci sarà un po' di competizione sulla fascia bassa.
Però che non mandino tutto a meretrici con il loro storico supporto.
Forza e coraggio che gli utenti hanno bisogno di concorrenza e che Intel abbassi i prezzi.
fraquar è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2017, 09:59   #679
leddlazarus
Senior Member
 
L'Avatar di leddlazarus
 
Iscritto dal: Nov 1999
Città: Tortona (AL)
Messaggi: 3307
Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
Mi sembra chiaro che nei giochi più recenti ci sono più th contemporanei che gestiscono gli oggetti a schermo (magari 1 per lo scenario, uno per gli oggetti, uno per i personaggi atti ecc) e che all'aumentare della complessità della scena i 4 core iniziano a mostrare limiti ben prima dei 6-8 core

continuo a ribadire, che nei giochi è la GPU a farla da padrone.
ed è un trend iniziato tantissimi anni fa, quando le VGA erano solo adibite a visualizzare le immagini e quasi tutto il lavoro era svolto dalle CPU.
poi è iniziata la svolta cole le mitiche VOODOO. Da li è iniziato il processo dello spostamento dell'elaborazione della scena in 3d verso la GPU, processore dedicato a svolgere determinate elaborazioni e quindi ben piu' ottimizzato della CPU general purpose.

mi ricordo i primi articoli in cui si diceva che in questo modo la CPU veniva sgravata e quindi poteva essere impiegata piu' per la IA del gioco.

inoltre la programmazione con processi paralleli è tuttaltro che semplice.
la gente crede che basta aggiungere core e finita li. non è proprio cosi.

poi ci sono processi altamente parallelizzabili, altri no.

non per niente molti preferiscono un IPC alto sul singlecore (vedi APPLE sugli iphone) per certe applicazioni paga.

AMD ha sempre avuto un discreto successo su forniture di CPU per supercomputer. magari l'architettura ZEN è stata studiata soprattutto per quello, che poi sia una ottima CPU anche in ambito consumer è una buona cosa.


poi si complia ancora di piu' la questione core logici. Se non è ben implementata sia a livello di microcode sia a livello di SO, si ottngono risultati peggiori
__________________
PC ryzen 5 1600x 16GB DDR4 - gtx 970 4GB VRAM 256GB NVME + ssd 128GB + HDD 2x1TB raid 0 **

Ultima modifica di leddlazarus : 07-03-2017 alle 10:02.
leddlazarus è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2017, 10:04   #680
leddlazarus
Senior Member
 
L'Avatar di leddlazarus
 
Iscritto dal: Nov 1999
Città: Tortona (AL)
Messaggi: 3307
Quote:
Originariamente inviato da fraquar Guarda i messaggi
3 giorni per leggere tutti i commenti, un po' di ricerche di benchmark in giro e il tempo perso a fare una media ma almeno un idea me la sono fatta.
Ad oggi non comprerei Ryzen.
Per i giochi si sapeva non fosse la scelta giusta e i benchmark lo confermano.
Un 1800x non sta dietro al 7700k e costa anche di più.
Come WS non lo prendo in considerazione in quanto non è una cpu certificata, e non lo sarà, in più c'è lo scoglio non indifferente del dual channel per cui si resta con gli Xeon.
Potrebbe essere la cpu perfetta per chi fa un po' di tutto e vuole rischiare l'adozione di una piattaforma nuova.
AMD ci ha abituato a rilasci di driver e bios con tempi dilatati per cui personalmente attenderò fine anno per capire se ryzen sarà supportato meglio e se le magagne saranno corrette.
Spero che per le cpu abbiano un team migliore di quello che sviluppa i driver delle GPU.

La strada intrapresa è corretta e finalmente con R3 e R5 ci sarà un po' di competizione sulla fascia bassa.
Però che non mandino tutto a meretrici con il loro storico supporto.
Forza e coraggio che gli utenti hanno bisogno di concorrenza e che Intel abbassi i prezzi.
per i giochi secondo me anche un 7700k è esagerato (come prezzo) imho.

com CPU anche vecchie puoi avere prestazioni piu' che accettabili.
__________________
PC ryzen 5 1600x 16GB DDR4 - gtx 970 4GB VRAM 256GB NVME + ssd 128GB + HDD 2x1TB raid 0 **
leddlazarus è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


HONOR Magic 8 Pro: ecco il primo TOP del 2026! La recensione HONOR Magic 8 Pro: ecco il primo TOP del 2026! L...
Insta360 Link 2 Pro e 2C Pro: le webcam 4K che ti seguono, anche con gimbal integrata Insta360 Link 2 Pro e 2C Pro: le webcam 4K che t...
Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza Motorola edge 70: lo smartphone ultrasottile che...
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026 Display, mini PC, periferiche e networking: le n...
Le novità ASUS per il 2026 nel settore dei PC desktop Le novità ASUS per il 2026 nel settore de...
Samsung conferma l'arrivo di tre variant...
Sottile, veloce e con un'ottima autonomi...
Il top di gamma compatto di OnePlus &egr...
Modificare l'indirizzo Gmail è finalment...
Perché le GeForce RTX con pi&ugra...
Più tempo online non equivale a più disa...
Amazon Weekend: iPhone 17 Pro, robot asp...
TV OLED 65'' top di gamma al 50%: 144Hz,...
Londra si prepara al terremoto 'intellig...
Scope elettriche in offerta su Amazon: f...
iPhone 17 Pro a un nuovo minimo storico ...
DJI Mini 4 Pro Fly More Combo a 859€ su ...
Roborock in offerta su Amazon: QV 35A e ...
Crisi della RAM: Intel rassicura sul mer...
Dreame taglia i prezzi su Amazon: L40 Ul...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 19:41.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v
1