PDA

View Full Version : Gaming facendo altro, FX e' effettivamente meglio.


Pagine : [1] 2

Pat77
16-08-2013, 16:05
Buongiorno, era da un po' che girava la voce che i processori AMD Fx avessero particolare agilita' a gestire carichi multipli senza andare in crisi, ebbene ho trovato un test che potrebbe confermare la cosa.

http://www.pcgameshardware.de/CPU-Hardware-154106/Specials/CPU-Multitasking-Test-1075340/

Come si nota all'aumentare del carico, sia in Crysis 3 che in Skyrim, FX8350 tende a pareggiare poi sorpassare di misura un I7 3770K con HT abilitato, sia utilizzando 2 core per il videoediting nel primo caso, solo con 4 nel secondo.

E' ovviamente un contesto particolare, e risultati del genere erano prevedibili vista l'architettura che ha comunque 8 INT, ma credo sia la prima conferma in assoluto di tale tendenza concreta, al di fuori di sensazioni e oronzate :)

Strato1541
16-08-2013, 16:27
Condizione particolare, ma almeno non è una "sensazione".ovviamente l'utilità della cose trova il suo fondamento più in un contesto server che desktop.

Matcrix
16-08-2013, 16:58
quindi???
diciamo che amd ha intrapreso con FX la strada giusta per una risalita?

Phenomenale
16-08-2013, 17:10
Finalmente torneremo a vedere un pò di concorrenza sulle nuove CPU :D

carlottoIIx6
16-08-2013, 17:15
Finalmente torneremo a vedere un pò di concorrenza sulle nuove CPU :D

guarda che gli fx sono così da quando sono usciti, e se ne sono accorti tutti i possessori.

non ve ne eravati accorti solo voi, altro che sensazioni, ma per riconoscerlo ci vuole più dignita di quel che avete.

Pat77
16-08-2013, 17:19
quindi???
diciamo che amd ha intrapreso con FX la strada giusta per una risalita?

Quindi in quell'ambito, aumentando il carico, con una codifica video nel mentre si gioca, direi che pareggia 3770 (considerando che è un test senza patch 1.3 di Crysis 3 che ha il fix per l'HT e un 30% di performance in più , mentre in Skyrim c'è proprio lo stesso frame rate in condizioni critiche) mentre supera nettamente I5.
Sono condizioni particolari, se qualcuno vuole fare decodifiche video e si accontenta di giocare a frame rate minori, bhe meglio 6300 di I5 e for the money meglio FX8350 di 3770.
Almeno in questo test.

Qui ad esempio cambia tutto:

http://techreport.com/review/23750/amd-fx-8350-processor-reviewed/9

Ma a me non interessava postare tanto un confronto, ma quanto la prima testimonianza che conferma una voce che girava perchè finora c'era lo zero assoluto.

Ludus
16-08-2013, 18:58
Ma perché ve lo dovevano confermare che 8 core sono meglio di 4 se bisogna far girare due applicazioni pesanti in parallelo?

Il problema di amd attuale e degli anni successivi al socket 939 è l'efficienza computazionale ed energetica, dove invece al tempo del 939 era il contrario.
In ambito MT mi sembra normale che un processore che ha il doppio dei core di un altro vada meglio, anche se sul singolo core ha una minor efficienza. Il problema nell'uso reale è che le applicazioni per la maggior parte non sfruttano in modo massivo il MT. Gli scenari di utilizzo in cui una persona fa girare un'applicativo molto pesante mentre sfrutta un altro applicativo molto pesante sono ben lontani dal reale uso che se ne fa di questi processori dedicati all'utilizzo desktop.

Phenomenale
16-08-2013, 19:30
ma per riconoscerlo ci vuole più dignita di quel che avete.
Vuoi dire che chi non compra gli FX di AMD è privo di dignità? :mbe:
Ma a me non interessava postare tanto un confronto, ma quanto la prima testimonianza che conferma una voce che girava perchè finora c'era lo zero assoluto.
Ma infatti, bentornata concorrenza! :D

Pat77
16-08-2013, 20:12
Ma perché ve lo dovevano confermare che 8 core sono meglio di 4 se bisogna far girare due applicazioni pesanti in parallelo?

Il problema di amd attuale e degli anni successivi al socket 939 è l'efficienza computazionale ed energetica, dove invece al tempo del 939 era il contrario.
In ambito MT mi sembra normale che un processore che ha il doppio dei core di un altro vada meglio, anche se sul singolo core ha una minor efficienza. Il problema nell'uso reale è che le applicazioni per la maggior parte non sfruttano in modo massivo il MT. Gli scenari di utilizzo in cui una persona fa girare un'applicativo molto pesante mentre sfrutta un altro applicativo molto pesante sono ben lontani dal reale uso che se ne fa di questi processori dedicati all'utilizzo desktop.

Infatti ho specificato che limitatamente a quell'ambito di utilizzo, ed era peraltro un comportamento prevedibile avendo 8 INT native e 6 nel caso di 6300. Ma era giusto sottolinearlo, magari a qualcuno interessa utilizzarla cosi' prettamente la cpu, o e' un ambito che gli interessa particolarmente.

Strato1541
16-08-2013, 20:25
guarda che gli fx sono così da quando sono usciti, e se ne sono accorti tutti i possessori.

non ve ne eravati accorti solo voi, altro che sensazioni, ma per riconoscerlo ci vuole più dignita di quel che avete.

Ma vergognati a scrivere certe cose, neanche fossi un distributore della verità!o di quello che è giusto scegliere o fare!In quella particolare situazione hanno un vantaggio, BENE!E nelle altre 99999.... dove non hanno vantaggi?
La maturità e la capacità di sceglier ciò che serve in base al budget e l'ambito di utilizzo son cose importanti, dato che quella particolare condizione la verificheranno quanto l'1% degli utenti perchè l'hanno letto e vogliono mostrare che è così..Tutti gli altri lo ignoreranno...
Detto questo non cambia nulla...

marchigiano
16-08-2013, 21:15
considerando che è un test senza patch 1.3 di Crysis 3 che ha il fix per l'HT e un 30% di performance in più

ma allora servirebbe un test con la patch...

Dimonios
16-08-2013, 21:41
Ma a me non interessava postare tanto un confronto, ma quanto la prima testimonianza che conferma una voce che girava perchè finora c'era lo zero assoluto.

In realtà qualcosa già c'era, ma è stato snobbato. ;)

http://www.bitsandchips.it/9-hardware/1802-amd-bulldozer-l-overclock-e-le-memorie-ottimizzare-latenze-e-frequenze?start=5

Pat77
16-08-2013, 23:03
In realtà qualcosa già c'era, ma è stato snobbato. ;)

http://www.bitsandchips.it/9-hardware/1802-amd-bulldozer-l-overclock-e-le-memorie-ottimizzare-latenze-e-frequenze?start=5

Non mi sembra sia un riscontro lato gaming, comunque e' interessante e in parte conferma la cosa.

Pat77
16-08-2013, 23:04
ma allora servirebbe un test con la patch...

Purtroppo la patch essendo uscita dopo non l'hanno testata, probabilmente avrebbe prodotto un pareggio negli ambiti critici.

Phenomenale
16-08-2013, 23:50
Ma la patch non era per Intel?

-giorgio-87
17-08-2013, 00:18
E se intel sfornasse un 8 core, come potrebbe essere il confronto con gli fx?


Inviato dal mio iPad con Tapatalk HD

Nforce Ultra
17-08-2013, 00:34
E se intel sfornasse un 8 core, come potrebbe essere il confronto con gli fx?


Inviato dal mio iPad con Tapatalk HD

Lato prestazioni non ci sarebbe nessun confronto, non ce ne gia con gli esacore

naumakos
17-08-2013, 00:55
guarda che gli fx sono così da quando sono usciti, e se ne sono accorti tutti i possessori.

non ve ne eravati accorti solo voi, altro che sensazioni, ma per riconoscerlo ci vuole più dignita di quel che avete.

La mia tesi dell'altro giorno trova conferma .Gli FX in ambiente Multitasking sono delle belve .Lo dico da felice possessore di un FX 8320 :Prrr:

naumakos
17-08-2013, 00:59
[QUOTE=-giorgio-87;39841549]E se intel sfornasse un 8 core, come potrebbe essere il confronto con gli fx?


Inviato dal mio iPad con Tapatalk HD[/Q

E quanto consterebbe un octacore Intel se gia un esacore costa 1.000 ? Un FX8350 con 160 € te lo porti casa :D

naumakos
17-08-2013, 01:21
Inoltre dato che siamo in tema invito a tutti a dare un'occhiata alla seguente discussione iniziata dal nostro collega nardustyle :



http://www.hwupgrade.it/forum/showthread.php?t=2581169

Pat77
17-08-2013, 01:31
Ma la patch non era per Intel?

No e' una patch generale del gioco che risolve anche qualche problemino di resa.

FroZen
17-08-2013, 09:34
E' un paio d'anni che vado dicendolo: gli FX sono dei processori di classe server calati sul desktop winzoz, ovvero quanto di più mortificante poteva esserci come scenario di utilizzo per un processore troppo innovativo per il mercato software fortemente intel-oriented attuale........è per questo che avranno sempre il mio appoggio (finchè non diventeranno come Intel almeno :read: ).

FroZen
17-08-2013, 09:40
In crysis 3 il mio vetusto 1100 esa a 4ghz ha un utilizzo di tutti e sei i core e arriva pure al 100%...........questo per dire quanto un dual oggi giorno perde di significato nel gaming (sopprattutto).

Dextroy
17-08-2013, 10:23
Difatti non capisco come si possa preferire un i3 al posto di un 6300/8320
Per non andare ot, per me un fx è un mulo!

Inviato dal mio LG-P970 usando Tapatalk 4

Pat77
17-08-2013, 12:20
In crysis 3 il mio vetusto 1100 esa a 4ghz ha un utilizzo di tutti e sei i core e arriva pure al 100%...........questo per dire quanto un dual oggi giorno perde di significato nel gaming (sopprattutto).

In crysis 3 mancava una serie ottimizzazione per l'HT ed era un caso isolato (di fatto ora un i7 3770 e' il 30% piu' veloce di 8350), bisognerebbe prendere il quadro d'insieme e poi valutare, nel 95% dei titoli sul mercato conta maggiormente l'ipc che e' la benzina del gaming.

Questo test che ho postato non cambia le carte in tavola, conferma una voce, se vuoi fare altro mentre giochi l'architettura 4 fp 8 int va meglio, ma questo non implica che in condizioni normali sia cambiato qualcosa.

Difatti non capisco come si possa preferire un i3 al posto di un 6300/8320
Per non andare ot, per me un fx è un mulo!


Perche' il mondo e' vario e utenti possono anche avere esigenze specifiche :D sia da una parte sia dall'altra, ho amici che giocano solo a Skyrim, Starcraft 2 e Dota 2, in quei titoli, e in generale negli RTS, meglio un I3, consuma meno, piattaforma piu' aggiornata e performance migliori, e non te ne fai nulla di n mila core, li conta l'ipc.
Tutto dipende da cosa cerchi, da che gpu hai ecc.. in questo test abbiamo visto un'altra esigenza particolare, fare videoediting mentre si gioca, in questo caso meglio un 4300 di un I3, meglio un 6300 di un I5, mentre tra i7 e 8350 c'e' un sostanziale pareggio.
Io personalmente non ho mai fatto videoediting mentre gioco, ma a qualche utente potrebbe interessare e fare la differenza in una scelta, ed e' lo scopo del mio 3d.

Dextroy
17-08-2013, 12:44
Comunque in linea generale con il pc mica si gioca soltanto (altrimenti prendevo una console) e se devo giocare con qualcosa sotto che lavora e che mangia risorse (qualsiasi cosa sia). Che poi fare un rendering é la cosa più pesante, bisognerebbe provare con diverse cose!

Inviato dal mio LG-P970 usando Tapatalk 4

Pat77
17-08-2013, 12:57
Comunque in linea generale con il pc mica si gioca soltanto (altrimenti prendevo una console) e se devo giocare con qualcosa sotto che lavora e che mangia risorse (qualsiasi cosa sia). Che poi fare un rendering é la cosa più pesante, bisognerebbe provare con diverse cose!

Inviato dal mio LG-P970 usando Tapatalk 4

E' gia' testato nell'articolo, carichi leggeri scaricando da steam, una trasformazione di un'immagine, e poi c'e' la decodifica con 2 core e 4 core.
L'incidenza e' molto relativa, nell'uso office-internet qualsiasi processore va bene.

Dextroy
17-08-2013, 13:21
Concordo

Inviato dal mio LG-P970 usando Tapatalk 4

carlottoIIx6
17-08-2013, 13:32
In crysis 3 mancava una serie ottimizzazione per l'HT ed era un caso isolato (di fatto ora un i7 3770 e' il 30% piu' veloce di 8350), bisognerebbe prendere il quadro d'insieme e poi valutare, nel 95% dei titoli sul mercato conta maggiormente l'ipc che e' la benzina del gaming.

Questo test che ho postato non cambia le carte in tavola, conferma una voce, se vuoi fare altro mentre giochi l'architettura 4 fp 8 int va meglio, ma questo non implica che in condizioni normali sia cambiato qualcosa.

cut

i giochi sono ancora ottimizzati intel. questo gioco non è parallelizzato, sfrutta solo molti thread per distribuire quei processi che servono al gioco, ma essendo un gioco massiccio tende ad occupare tutti i canali.
mi aspetto risultati diversi per i giochi che vengono dalle console, che saranno costruiti attorno alla piattaforma amd, cpu + gpu.

Phenomenale
17-08-2013, 13:38
questo per dire quanto un dual oggi giorno perde di significato nel gaming (sopprattutto).
Crysis ha sempre fatto storia a sè stante, non prenderlo come esempio del "gaming di oggi". :nonsifa:

Phenomenale
17-08-2013, 13:39
i giochi sono ancora ottimizzati intel. questo gioco non è parallelizzato
Come al solito interpreti tutte le cose al contrario :doh:

carlottoIIx6
17-08-2013, 13:45
Come al solito interpreti tutte le cose al contrario :doh:

quale sarebbe per te l'interpretazione giusta allora?

Phenomenale
17-08-2013, 14:02
quale sarebbe per te l'interpretazione giusta allora?
Crysis 3 è parallelizzato, ed ottimizzato per tutti i processori multi-core.

marchigiano
17-08-2013, 14:03
oltre alla patch c'è anche un'altra discrepanza: quanto è veloce la codifica x264 con quei setting?

no perchè se bloccano la conversione a 4 core è vero che il fx ha tanta potenza da dedicare al gioco, ma poi converte alla velocità di un fx4300, non va certo veloce come un fx8350 totalmente impegnato nella codifica


http://www.xbitlabs.com/images/cpu/fx-8350-8320-6300-4300/x264-1.png

http://www.xbitlabs.com/images/cpu/fx-8350-8320-6300-4300/x264-2.png

vediamo che tra primo e secondo passaggio un fx4300 converte come un i3... quindi test totalmente inutile...

Strato1541
17-08-2013, 14:08
Crysis 3 è parallelizzato, ed ottimizzato per tutti i processori multi-core.

Esattamente.... Vorrei anch'io capire dove si vuole arrivare...

vincenzo2008
17-08-2013, 14:11
Crysis 3 è parallelizzato, ed ottimizzato per tutti i processori multi-core.

un fx-6300 non viene sfruttato al 100 % al massimo 70 % tu pensa quanto è sfruttato un fx8350 non penso più del 60 %

Pat77
17-08-2013, 14:26
i giochi sono ancora ottimizzati intel. questo gioco non è parallelizzato, sfrutta solo molti thread per distribuire quei processi che servono al gioco, ma essendo un gioco massiccio tende ad occupare tutti i canali.
mi aspetto risultati diversi per i giochi che vengono dalle console, che saranno costruiti attorno alla piattaforma amd, cpu + gpu.

Hai preso per mesi ad esempio Crysis 3 come avanguardia MT indice delle prestazioni nei giochi futuri senza accorgerti che era ottimizzato INTEL? :rolleyes:
Ti aspetti sempre qualcosa di diverso quando i risultati non sono favorevoli alla tua visione, in teoria non dovresti plasmare la realta' a misura delle tue aspettative, ma valutare eventuali aspettative dai risultati concreti.
Anche Crysis 3 ci dice, lato gaming, in ambiente fortemente MT che ce' un divario tra 3770 e 8350, un pareggio con I5 e una vittoria su I3, che pero' si confronta con altro, ma comunque 6300 in Crysis 3 va meglio della controparte Intel che costa uguale.
Questo e' quello che traspare relativamente a quel titolo con l'ultima patch disponibile, mi aspetto che visti i risultati d'ora in poi consiglierai I7 3770 in prospettiva futura, per una questione di coerenza verso quello che hai sempre sostenuto.

Pat77
17-08-2013, 14:29
un fx-6300 non viene sfruttato al 100 % al massimo 70 % tu pensa quanto è sfruttato un fx8350 non penso più del 60 %

http://cdn.overclock.net/d/d3/900x900px-LL-d3796154_proz20amd.jpeg

FX6300 86% medio.
Penso che sia sfruttato alla grande anche 8350 con il suo 75% medio, comunque si vede chiaramente come il carico venga ben distribuito sui core.

carlottoIIx6
17-08-2013, 14:39
Crysis 3 è parallelizzato, ed ottimizzato per tutti i processori multi-core.

io non la penso così per cui se hai una fonte mi piacerebbe leggerla per cambiare idea.
seno rimangono le tue idee e le mie idee.

Matcrix
17-08-2013, 14:41
Credo che in qst momento ci avviciniamo a un cambiamento del Games, è chiaro che se i nuovi giochi si svilupperanno intorno a console in amd qst ultima ne trae vantaggio, rimango alla finestra in attesa che i produttori di mobo sviluppino nuove schede am3+ xke x ora è solo ciò le, mi ferma nella acquisto di amd

carlottoIIx6
17-08-2013, 14:44
Hai preso per mesi ad esempio Crysis 3 come avanguardia MT indice delle prestazioni nei giochi futuri senza accorgerti che era ottimizzato INTEL? :rolleyes:
cut


ho sempre citato crysis 3 per fare vedere che un i3 non è più una cpu da prendere in considerazione, ma ho sempre pensato vedendo come scala sui core con gli fx che non sia parallelizzato ma solo pensate e distribuito su più canali.
per esempio nella giungla penso sia più parallelizzato, ciò quando si hanno oggetti indipendenti, ma il filo sia ancora single dipendente.
imo

poi cedo la parola agli esperti :) che hanno sempre ragione e l'accusa a portata di mano.
ps a te ancora rispondo perchè tutto sommato sei critico e meno offensivo, ma ti ricordo che mi hai fatto accuse, tipo che non avrei l'i3, che non hai mai rimanciato.

carlottoIIx6
17-08-2013, 14:49
Credo che in qst momento ci avviciniamo a un cambiamento del Games, è chiaro che se i nuovi giochi si svilupperanno intorno a console in amd qst ultima ne trae vantaggio, rimango alla finestra in attesa che i produttori di mobo sviluppino nuove schede am3+ xke x ora è solo ciò le, mi ferma nella acquisto di amd

credo acnh'io, anche se questo non è detto segni una inversione.
certo anche ora amd è competitiva nei giochi, certo dovresti vedere quanto una am3+ sia meno performante e non solo saperlo qualitivamente, perchè costano anche molto meno e c'è il rischio che stamroller ci vada sopra anche.

carlottoIIx6
17-08-2013, 14:53
cut

FX6300 86% medio.
Penso che sia sfruttato alla grande anche 8350 con il suo 75% medio, comunque si vede chiaramente come il carico venga ben distribuito sui core.

e il fx 8350 al 74%, questi dati sono compatibili con un uso massiccio dei core, che effetivamente è la caratteristica di questo gioco. ma non di una parallelizzazioni, a meno di informazioni dirette che ciò sia vero, le ovstre idee sono pari alle mie.

vorrei fare notare che che un thread al 98 % negli fx, xhe mostra che un filo lavora più degli altri.

Dextroy
17-08-2013, 15:07
L' errore grave di chi paragona le nuove console agli fx é che gli fx hanno architettura piledriver, mentre le console Jaguar! Non sono uguali, quindi potrebbe anche essere vero che avranno vantaggi, ma non é sicuro.

Inviato dal mio LG-P970 usando Tapatalk 4

carlottoIIx6
17-08-2013, 15:15
L' errore grave di chi paragona le nuove console agli fx é che gli fx hanno architettura piledriver, mentre le console Jaguar! Non sono uguali, quindi potrebbe anche essere vero che avranno vantaggi, ma non é sicuro.

Inviato dal mio LG-P970 usando Tapatalk 4

è tutto da vedere, ma è indubbio che amd gioca in casa.

marchigiano
17-08-2013, 15:20
ma le console avranno sistema operativo proprietario? perchè in questo caso le ottimizzazioni per loro non è detto che si potranno riversare su pc win+dx11

Dextroy
17-08-2013, 15:37
Ps4 dovrebbe basarsi su linux, mentre Xbox 1 userà le dx

Inviato dal mio LG-P970 usando Tapatalk 4

Strato1541
17-08-2013, 15:55
ho sempre citato crysis 3 per fare vedere che un i3 non è più una cpu da prendere in considerazione, ma ho sempre pensato vedendo come scala sui core con gli fx che non sia parallelizzato ma solo pensate e distribuito su più canali.
per esempio nella giungla penso sia più parallelizzato, ciò quando si hanno oggetti indipendenti, ma il filo sia ancora single dipendente.
imo

poi cedo la parola agli esperti :) che hanno sempre ragione e l'accusa a portata di mano.
ps a te ancora rispondo perchè tutto sommato sei critico e meno offensivo, ma ti ricordo che mi hai fatto accuse, tipo che non avrei l'i3, che non hai mai rimanciato.

Anche con i dati davanti non va bene e rigiri la minestra..Ad ogni modo l'i3 che avevi non era quello oggetto di discussione,quindi di fatto pat non ha sbagliato nulla neanche in quella occasione.Parlavi come se fossi in possesso di un i3 serie 2XXX o 3XXX invece era una cpu a basso voltaggio per portatili...è come dire ho una ferrari , parlarne come se si possedesse una macchina e dopo esce che è una maglietta!Questo è il tuo gioco di parole... Continua così....continua...Per fortuna ci sono molti utenti che postano dati e le persone possono confrontarsi per quello che poi è...Non per quello che si vorrebbe fosse... E dato che parli sempre lanciando frecciatine, a me non interessa se non rispondi, mi interessa che gli utenti vedano quante balle racconti.Così che possano capire quanto valgono i tuoi consigli... Sempre seguendo il ragionamento(fondato) di pat ora dovresti consigliare un i7....Come mai non succede?O come nell'altro 3d dove era palese che l'i5 era la soluzione più indicata, come mai ti è sfuggito il consiglio?Mah.....

Pat77
17-08-2013, 15:58
ho sempre citato crysis 3 per fare vedere che un i3 non è più una cpu da prendere in considerazione, ma ho sempre pensato vedendo come scala sui core con gli fx che non sia parallelizzato ma solo pensate e distribuito su più canali.
per esempio nella giungla penso sia più parallelizzato, ciò quando si hanno oggetti indipendenti, ma il filo sia ancora single dipendente.
imo

poi cedo la parola agli esperti :) che hanno sempre ragione e l'accusa a portata di mano.
ps a te ancora rispondo perchè tutto sommato sei critico e meno offensivo, ma ti ricordo che mi hai fatto accuse, tipo che non avrei l'i3, che non hai mai rimanciato.

Cosa vuol dire distribuito su più canali? Non capisco.
Io ho sempre letto tuoi interventi che citavano detto titolo come esempio massimo del MT, con la patch un I3 ora si colloca tra un 4300 e un 6300, una performance del tutto onorevole.

Ps: Lo penso ancora. Tu non hai un I3, hai una CPU UM vetusta che sostieni sia in difficoltà se ci metti l'antivirus (ma ancora non l'hai dimostrato) che spacciavi come un I3 Desktop per sostenere che al giorno d'oggi un dual core non reggeva nemmeno quello.

Strato1541
17-08-2013, 16:00
Cosa vuol dire distribuito su più canali? Non capisco.
Io ho sempre letto tuoi interventi che citavano detto titolo come esempio massimo del MT, con la patch un I3 ora si colloca tra un 4300 e un 6300, una performance del tutto onorevole.

Ps: Lo penso ancora. Tu non hai un I3, hai una CPU UM vetusta che sostieni si ferma se ci metti l'antivirus (ma ancora non l'hai dimostrato) che spacciavi come un I3 Desktop per sostenere che al giorno d'oggi un dual core non reggeva nemmeno quello.

Esattamente quanto detto QUOTO

Pat77
17-08-2013, 16:01
e il fx 8350 al 74%, questi dati sono compatibili con un uso massiccio dei core, che effetivamente è la caratteristica di questo gioco. ma non di una parallelizzazioni, a meno di informazioni dirette che ciò sia vero, le ovstre idee sono pari alle mie.

vorrei fare notare che che un thread al 98 % negli fx, xhe mostra che un filo lavora più degli altri.

Non capisco la differenza sinceramente, se hai 6-8 core che lavorano quasi al massimo nello stesso momento che cosa sarebbe se non parallelizzazione?

Pat77
17-08-2013, 16:17
ma le console avranno sistema operativo proprietario? perchè in questo caso le ottimizzazioni per loro non è detto che si potranno riversare su pc win+dx11

Le console hanno una CPU AMD ma con un classico schema 1+1, quindi non moduli, ma core classici.
Teoricamente possiamo fare già una stima, A4 5000 è la versione Desktop a 4 core di Jaguar, è a 1,5 ghz, all'incirca la frequenza della controparte console.

Se prendiamo Cinebench come metro di giudizio delle performance Single e MT abbiamo:

CB ST: 0,4
CB MT: 1,5

Se la versione PS4 e XBOX scalasse al 100% avremmo un potenziale MT di 3,0 punti, il mio I3 con 2 soli core e HT fa 3,3, un Haswell spacca gli 8 punti.
I 3 punti di Jaguar poi sono un valore ideale che si potrà raggiungere solo a fine vita della console, con software adeguato senza contare che 1 core pare sia destinato al SO e uno sicuramente ai servizi nativi come registrazione delle partite e condivisione al volo dei contenuti.

Il potenziale sfruttabile è quindi di 2-2,2 punti.
Considerando esso la base per fare 30 fps (nei titoli che andranno a 30) capirete che anche sfruttando tutte le risorse a disposizione, qualsiasi CPU che possa fare più di 4 punti avrà praticamente garantiti, se i Frame scalano proporzionali alla potenza, i 60 fps in regime non gpu limited.
Essendo HW Pc poi le potenze in gioco sono proporzionali e confrontabili.
Ovviamente questo è un discorso teorico ma che si basa su dati reali, poi entrano in gioco altri fattori, ma una cosa è certa, qualsiasi CPU attuale desktop è in grado di avere almeno lo stesso potenziale e ritengo immotivata l'esaltazione o la preoccupazione verso tali dinamiche.

carlottoIIx6
17-08-2013, 16:29
Non capisco la differenza sinceramente, se hai 6-8 core che lavorano quasi al massimo nello stesso momento che cosa sarebbe se non parallelizzazione?

perche se non è parallelizzato, uno di quei thread potrebbe rallentare tutti gli altri.

è così lineare che non capisco cosa c'è così straordinario.

secondo me i giochi funziano così, un core si fa carico del peso maggiore e gli altri dei programmi satelliti che accompagnano il gioco, come musica ecc

inoltre questo gioco, ha anche un sacco di movimenti scollegati dal giocatore, come nella giunga, erba, foglie ecc

ora tutte queste cose scollegate sono facili da mandare su vari core, sono naturalmente parallelizzati poichè indipndenti, diverso è un erba che si muove perche calpestata dal giocatore, o personaggi che lo fanno poichè hanno visto il giocatore ecc

è chiaro il gioco è in parte parallelizzato, ma per me, salvo smentite il filo che guida il giocatore va ancora su un solo core.

ps sarebbe utile al ragionamento postare anche le % dei core intel.

carlottoIIx6
17-08-2013, 16:33
Le console hanno una CPU AMD ma con un classico schema 1+1, quindi non moduli, ma core classici.
Teoricamente possiamo fare già una stima, A4 5000 è la versione Desktop a 4 core di Jaguar, è a 1,5 ghz, all'incirca la frequenza della controparte console.

Se prendiamo Cinebench come metro di giudizio delle performance Single e MT abbiamo:

CB ST: 0,4
CB MT: 1,5

Se la versione PS4 e XBOX scalasse al 100% avremmo un potenziale MT di 3,0 punti, il mio I3 con 2 soli core e HT fa 3,3, un Haswell spacca gli 8 punti.
I 3 punti di Jaguar poi sono un valore ideale che si potrà raggiungere solo a fine vita della console, con software adeguato senza contare che 1 core pare sia destinato al SO e uno sicuramente ai servizi nativi come registrazione delle partite e condivisione al volo dei contenuti.

Il potenziale sfruttabile è quindi di 2-2,2 punti.
Considerando esso la base per fare 30 fps (nei titoli che andranno a 30) capirete che anche sfruttando tutte le risorse a disposizione, qualsiasi CPU che possa fare più di 4 punti avrà praticamente garantiti, se i Frame scalano proporzionali alla potenza, i 60 fps in regime non gpu limited.
Essendo HW Pc poi le potenze in gioco sono proporzionali e confrontabili.
Ovviamente questo è un discorso teorico ma che si basa su dati reali, poi entrano in gioco altri fattori, ma una cosa è certa, qualsiasi CPU attuale desktop è in grado di avere almeno lo stesso potenziale e ritengo immotivata l'esaltazione o la preoccupazione verso tali dinamiche.
è chiaro che se fosse come dici tu i giochi andrebbero male o sarebbero delle ciofeche di giochi. il problema è che non puoi usare cinebench, solitamente intel ottimizzato, per fare il confronto. la verità è che i core amd saranno sfruttati al massimo quindi andranno benino anche singolarmente.

carlottoIIx6
17-08-2013, 16:40
Cut
Ps: Lo penso ancora. Tu non hai un I3, hai una CPU UM vetusta che sostieni sia in difficoltà se ci metti l'antivirus (ma ancora non l'hai dimostrato) che spacciavi come un I3 Desktop per sostenere che al giorno d'oggi un dual core non reggeva nemmeno quello.

ho sempre detto che havevo un portatile con un i3 e in più occasioni ho anche specifica che portatile era, prima che veniste voi a diffidare.
i tempi di accesso ai programmi con antivirus non me li sono inventati, ma se tu voui dubitarme fai pure, siete stati più voi a sottolinera la cosa, che io a cui davo solo un idea di "sentire" che il tempo degli x2 è finito, ma il punto fondamentale che ho sottolineato è che gli x2 sono finiti perché amd da x4 a prezzi inferiori e addirittura x6, che rende gli x2 ormai inutili e a lungo andare sfavoriti.

se uno non da fiducia non vedo perchè ne debba ricevere, quindi non risponderò anche a te.

Strato1541
17-08-2013, 16:42
perche se non è parallelizzato, uno di quei thread potrebbe rallentare tutti gli altri.

è così lineare che non capisco cosa c'è così straordinario.

secondo me i giochi funziano così, un core si fa carico del peso maggiore e gli altri dei programmi satelliti che accompagnano il gioco, come musica ecc

inoltre questo gioco, ha anche un sacco di movimenti scollegati dal giocatore, come nella giunga, erba, foglie ecc

ora tutte queste cose scollegate sono facili da mandare su vari core, sono naturalmente parallelizzati poichè indipndenti, diverso è un erba che si muove perche calpestata dal giocatore, o personaggi che lo fanno poichè hanno visto il giocatore ecc

è chiaro il gioco è in parte parallelizzato, ma per me, salvo smentite il filo che guida il giocatore va ancora su un solo core.

ps sarebbe utile al ragionamento postare anche le % dei core intel.

E già qui abbiamo detto tutto...In ogni caso si dovrà attendere ogni supposizione può essere veritiera o meno...

Strato1541
17-08-2013, 16:48
ho sempre detto che havevo un portatile con un i3 e in più occasioni ho anche specifica che portatile era, prima che veniste voi a diffidare.
i tempi di accesso ai programmi con antivirus non me li sono inventati, ma se tu voui dubitarme fai pure, siete stati più voi a sottolinera la cosa, che io a cui davo solo un idea di "sentire" che il tempo degli x2 è finito, ma il punto fondamentale che ho sottolineato è che gli x2 sono finiti perché amd da x4 a prezzi inferiori e addirittura x6, che rende gli x2 ormai inutili e a lungo andare sfavoriti.

se uno non da fiducia non vedo perchè ne debba ricevere, quindi non risponderò anche a te.

Il problema di base è che non puoi paragonare un dual core con ht per desktop con tdp e prestazioni N volte superiori ad un dual core per portatili con tdp e prestazioni N volte inferiori, solo per supportare la tua tesi...
Se ne sai come vuoi farci credere di pc capiresti che il paragone non è neanche lontanamente proponibile!!E questo è stato sottolineato proprio per dimostrare un'altra cosa , ovvero i ragionamenti contorti e le falsità che dici per supportare le tue tesi(solitamente che una cpu fx è sempre e in ogni caso migliore e quando non lo è lo sarà in futuro).
Detto questo fai aumentare pure il Numero di utenti a cui non rispondi, forse è l'unico modo possibile per ottenere che tu non risponda più a nessuno un giorno!!!!!:D

Pat77
17-08-2013, 17:04
perche se non è parallelizzato, uno di quei thread potrebbe rallentare tutti gli altri.

è così lineare che non capisco cosa c'è così straordinario.

secondo me i giochi funziano così, un core si fa carico del peso maggiore e gli altri dei programmi satelliti che accompagnano il gioco, come musica ecc

inoltre questo gioco, ha anche un sacco di movimenti scollegati dal giocatore, come nella giunga, erba, foglie ecc

ora tutte queste cose scollegate sono facili da mandare su vari core, sono naturalmente parallelizzati poichè indipndenti, diverso è un erba che si muove perche calpestata dal giocatore, o personaggi che lo fanno poichè hanno visto il giocatore ecc

è chiaro il gioco è in parte parallelizzato, ma per me, salvo smentite il filo che guida il giocatore va ancora su un solo core.

ps sarebbe utile al ragionamento postare anche le % dei core intel.

http://cdn.overclock.net/b/ba/900x900px-LL-ba153285_proz20intel.jpeg

E' un secondo me che mi sembra molto simile al secondo me inerente il cpu limited e ho detto tutto... LOL

è chiaro che se fosse come dici tu i giochi andrebbero male o sarebbero delle ciofeche di giochi. il problema è che non puoi usare cinebench, solitamente intel ottimizzato, per fare il confronto. la verità è che i core amd saranno sfruttati al massimo quindi andranno benino anche singolarmente.

Ho usato dati reali delle performance concrete di qualcosa che già si conosce, la potenza in gioco è quella.

ho sempre detto che havevo un portatile con un i3 e in più occasioni ho anche specifica che portatile era, prima che veniste voi a diffidare.
i tempi di accesso ai programmi con antivirus non me li sono inventati, ma se tu voui dubitarme fai pure, siete stati più voi a sottolinera la cosa, che io a cui davo solo un idea di "sentire" che il tempo degli x2 è finito, ma il punto fondamentale che ho sottolineato è che gli x2 sono finiti perché amd da x4 a prezzi inferiori e addirittura x6, che rende gli x2 ormai inutili e a lungo andare sfavoriti.

se uno non da fiducia non vedo perchè ne debba ricevere, quindi non risponderò anche a te.

Inizia da subito a non flammare nei miei 3d, non so se hai notato come la discussione fosse costruttiva prima del tuo intervento, a me non fai che un piacere, visto che di te ho veramente poca stima, a differenza di altri che la pensano magari differentemente da me, ma si riesce a instaurare un dialogo.

Dextroy
17-08-2013, 17:32
Però non iniziate ogni volta con le solite guerriglie! Comunque il ragionamento che fai col cinebench non ha senso! Quanto pensi farà la CPU della 360?
Non credo molto! Eppure per lo stesso titolo su pc (crysis 3) basta a fatica un i3 che a tuo dire basterà anche per la generazione futura!

Inviato dal mio LG-P970 usando Tapatalk 4

Strato1541
17-08-2013, 17:56
Però non iniziate ogni volta con le solite guerriglie! Comunque il ragionamento che fai col cinebench non ha senso! Quanto pensi farà la CPU della 360?
Non credo molto! Eppure per lo stesso titolo su pc (crysis 3) basta a fatica un i3 che a tuo dire basterà anche per la generazione futura!

Inviato dal mio LG-P970 usando Tapatalk 4

è solo un utente il problema qui dentro...Tutto il resto può essere discusso fino ad esaurimento degli argomenti in armonia come è sempre stato.

Matcrix
17-08-2013, 18:07
che ganzo ahahhaa

dai raga il problema che voi siete troppo avanti rispetto a molti di noi e andate molto sul sintetico, mentre io mi perdo facilmente a leggervi, io raga parlo per ignoranza venendo da un phenom 9600 bl e ora sono su il famoso I5 2500K, che vi posso dire??? a me sembra tutto uguale, perche ho sempre pensato che la vera differenza nel games la faceva la scheda video, sara ma sono convinto che se avessi potuto inserire la mia msi r7970 sul phenom 9600 avrei giocato lo stesso... non fucilatemi per favore, la cpu per me, fa differenza quando spacchetto un file o quando uso il pc su piu applicazioni tipo, gioco a F1 2012 e sento nello stesso tempo la musica, oppure sto masterizzando e guardando un film, credo ke a qst punto differenze c'è ne stanno poche, salvo il prezzo, intel secondo me è estremamente esagerata...

quindi guardando qst FX è chiaro che ci tornerei voletieri soprattutto dal fatto che la mobo am3+ sembra aver ancora vita per il futuro

Pat77
17-08-2013, 18:11
Però non iniziate ogni volta con le solite guerriglie! Comunque il ragionamento che fai col cinebench non ha senso! Quanto pensi farà la CPU della 360?
Non credo molto! Eppure per lo stesso titolo su pc (crysis 3) basta a fatica un i3 che a tuo dire basterà anche per la generazione futura!

Inviato dal mio LG-P970 usando Tapatalk 4

La generazione che chiami futura non è altro che un PC di basso livello attuale con una CPU che ha una potenza valutabile, essendo un hw che si trova nella sua versione a 4 core anche su PC.
Quelle sono le potenze in gioco, non è che se è dentro un case vale X e se invece è dentro una console vale Y.
Xbox 360 a suo tempo era tutt'altro HW, una generazione avanti lato GPU con memoria integrata e shaders unificati ai tempi di pixel e vertex.
Lato CPU ha un tricore a 3.2 ghz Xenon Power PC IBM di tutto rispetto rispetto all'epoca di uscita, ma è un Hw che non esiste su Pc, come Cell, e quindi era difficile valutare concretamente.
Direi che alla lunga quel tricore, imho, ha asfaltato Cell, ma è un'opinione personale.

Eppure per lo stesso titolo su pc (crysis 3) basta a fatica un i3 che a tuo dire basterà anche per la generazione futura!

Ora voglio capire quando avrei detto questo? Io di solito non mi sbilancio, ho fatto un calcolo delle potenze in campo, ho sbagliato qualcosa? Se ritieni che abbia fatto un errore correggimi sullo stesso, ma non mettermi in bocca cose che non ho detto.
Vedendo il bench post patch di Crysis 3, sfruttando l'HT, posso presumere che si possa collocare, lato gaming, in un territorio mediano tra 4300 e 6300, e posso anche dire che Jaguar ha potenze inferiori concretamente alle CPU desktop attuali.
Come questo influenzi poi il risultato concreto non lo so, certo che all'e3 leggendo questo:

"A dire la verità, non dovrebbe essere una sorpresa per nessuno, dato che tutte le demo E3 giravano su PC di fascia alta. È tutto fumo negli occhi, come il wrestling quando viene spacciato per sport vero", si legge su Cinemablend. "È una pratica comune a cui tutti dovremmo essere ormai abituati, visto che a questo stadio le specifiche non sono ancora finalizzate".

E poi questo...

La questione rimane aperta. Se possiamo aggiungere la nostra testimonianza, abbiamo notato come Dead Rising 3 risultasse fluidissimo durante la conferenza Microsoft, per poi presentare un frame rate fortemente instabile nel corso della presentazione a porte chiuse, superando con difficoltà i 10 o i 15 fps. Secondo il producer che provava il gioco, in quel momento Dead Rising 3 girava su Xbox One.

Confermerebbe un po' il mio pensiero...

Phenomenale
17-08-2013, 19:26
un fx-6300 non viene sfruttato al 100 % al massimo 70 % tu pensa quanto è sfruttato un fx8350 non penso più del 60 %
E' giusto che sia così, perchè se la CPU fosse al 100% saresti CPU-LIMITED.

Dextroy
17-08-2013, 19:57
Le console hanno una CPU AMD ma con un classico schema 1+1, quindi non moduli, ma core classici.
Teoricamente possiamo fare già una stima, A4 5000 è la versione Desktop a 4 core di Jaguar, è a 1,5 ghz, all'incirca la frequenza della controparte console.

Se prendiamo Cinebench come metro di giudizio delle performance Single e MT abbiamo:

CB ST: 0,4
CB MT: 1,5

Se la versione PS4 e XBOX scalasse al 100% avremmo un potenziale MT di 3,0 punti, il mio I3 con 2 soli core e HT fa 3,3, un Haswell spacca gli 8 punti.
I 3 punti di Jaguar poi sono un valore ideale che si potrà raggiungere solo a fine vita della console, con software adeguato senza contare che 1 core pare sia destinato al SO e uno sicuramente ai servizi nativi come registrazione delle partite e condivisione al volo dei contenuti.

Il potenziale sfruttabile è quindi di 2-2,2 punti.
Considerando esso la base per fare 30 fps (nei titoli che andranno a 30) capirete che anche sfruttando tutte le risorse a disposizione, qualsiasi CPU che possa fare più di 4 punti avrà praticamente garantiti, se i Frame scalano proporzionali alla potenza, i 60 fps in regime non gpu limited.
Essendo HW Pc poi le potenze in gioco sono proporzionali e confrontabili.
Ovviamente questo è un discorso teorico ma che si basa su dati reali, poi entrano in gioco altri fattori, ma una cosa è certa, qualsiasi CPU attuale desktop è in grado di avere almeno lo stesso potenziale e ritengo immotivata l'esaltazione o la preoccupazione verso tali dinamiche.
Scusa mi ero confuso sul fatto dell'i3 che fa 3,3 e non 4.
Comunque il succo è più o meno uguale.
Il mio phenom 965 a 4 GHz mi sembra(non sono sicuro) che faccia 4 e qualcosa possibile? forse mi sto confondendo.
Comunque secondo il tuo ragionamento basta per avere i 60 fissi (GPU limited permettendo).
Per me non è del tutto vero.
Comunque non volevo metterti parole che non hai detto,scusa se si intendeva quello.

Phenomenale
17-08-2013, 20:17
io non la penso così per cui se hai una fonte mi piacerebbe leggerla per cambiare idea.
seno rimangono le tue idee e le mie idee.
Le fonti sono le stesse :p sei tu che le interpreti al contrario.....

Phenomenale
17-08-2013, 20:22
Comunque tanto per gettare un pò di benzina sul fuoco (gli I3 inadatti ai giochi attuali), rammento alcuni titoli tripla-a del 2013 quali Remember Me e COJ Gunslinger che sono basati su vecchi motori grafici DX9 quali Unreal Engine e Chrome, i quali a causa di colli di bottiglia presenti nell' architettura DX9 (nata nel 2001 per XP) non sfruttano oltre 2 thread... si giocano non cpu-limited anche sugli I3...

Non esiste solo Crysis 3, IMHO quella è l'eccezione... :fagiano:

Dimonios
17-08-2013, 20:56
Comunque tanto per gettare un pò di benzina sul fuoco (gli I3 inadatti ai giochi attuali), rammento alcuni titoli tripla-a del 2013 quali Remember Me e COJ Gunslinger che sono basati su vecchi motori grafici DX9 quali Unreal Engine e Chrome, i quali a causa di colli di bottiglia presenti nell' architettura DX9 (nata nel 2001 per XP) non sfruttano oltre 2 thread... si giocano non cpu-limited anche sugli I3...

Non esiste solo Crysis 3, IMHO quella è l'eccezione... :fagiano:

Non è vero, ad esempio l'UE3 (DX9/10) scala benissimo all'aumentare dei core. ;)

http://www.bitsandchips.it/recensioni/8-gaming/2748-bottleneck-nei-videogame-quando-giunge-l-ora-di-cambiare-la-cpu?start=5

carlottoIIx6
17-08-2013, 21:48
Le fonti sono le stesse :p sei tu che le interpreti al contrario.....

da nessuna parte ho trovato quello che dici tu, per me le interpreti superficialmente.

Phenomenale
17-08-2013, 23:59
Non è vero, ad esempio l'UE3 (DX9/10) scala benissimo all'aumentare dei core
Non avevo letto quella recensione di UT3, mi ero basato sul mio 2500K che con i giochi Unreal Engine dorme... e comunque mai visto un gioco DX9 riempirmi il 2500K oltre il 50/55%. Poi se UT3 sfrutta i quad tanto meglio! :asd:

Phenomenale
18-08-2013, 00:03
da nessuna parte ho trovato quello che dici tu, per me le interpreti superficialmente.
Ma quali sarebbero le cose che dico io che non hai trovato da nessuna parte?
Secondo me stiamo parlando di aria fritta, e comunque dovresti cercare di crearti opinioni tue, non limitarti a pensare quello che leggi sul web.

Strato1541
18-08-2013, 02:07
Ma quali sarebbero le cose che dico io che non hai trovato da nessuna parte?
Secondo me stiamo parlando di aria fritta, e comunque dovresti cercare di crearti opinioni tue, non limitarti a pensare quello che leggi sul web.

Lui ha già tutta una sua opinione tranquillo!!!:D :D :D :muro:

vincenzo2008
18-08-2013, 11:45
http://cdn.overclock.net/d/d3/900x900px-LL-d3796154_proz20amd.jpeg

FX6300 86% medio.
Penso che sia sfruttato alla grande anche 8350 con il suo 75% medio, comunque si vede chiaramente come il carico venga ben distribuito sui core.

a me no , forse dipenderà dalla scheda video che limità

vincenzo2008
18-08-2013, 11:53
E' giusto che sia così, perchè se la CPU fosse al 100% saresti CPU-LIMITED.

perchè cpu limited ?, io sarei contento di vederla al 100 % tipo come succede con winrar o 7zip .

marchigiano
18-08-2013, 12:27
perchè cpu limited ?, io sarei contento di vederla al 100 % tipo come succede con winrar o 7zip .

perchè i giochi variano di continuo il carico sulla cpu, quindi se sta sempre al 100% vuol dire che anche durante i carichi minimi la cpu non riesce a mandare abbastanza dati alla vga, durante i carichi massimi poi la situazione peggiora notevolmente

ritornando IT ripeto: che senso ha far girare due programmi pesanti (crysis e x264) ma controllare solo il carico di crysis senza sapere quanto lavoro svolge x264? :mbe:

che senso ha limitare x264 a 4 threads, così che il 8350 al massimo può andare veloce come un 4300 e il 3770 come un 3570? :rolleyes:

Strato1541
18-08-2013, 12:28
perchè cpu limited ?, io sarei contento di vederla al 100 % tipo come succede con winrar o 7zip .

I casi son 2 se la cpu è al 100% e allo stesso tempo anche la gpu lo è allora non siamo in gpu limited o almeno siamo al limite, se abbiamo la cpu al 100% e la gpu che non raggiunge il 100% allora siamo in cpu limited , la cpu non riesce a tenere il passo e si perdono fsp..Per farla in breve...

Strato1541
18-08-2013, 12:29
perchè i giochi variano di continuo il carico sulla cpu, quindi se sta sempre al 100% vuol dire che anche durante i carichi minimi la cpu non riesce a mandare abbastanza dati alla vga, durante i carichi massimi poi la situazione peggiora notevolmente

ritornando IT ripeto: che senso ha far girare due programmi pesanti (crysis e x264) ma controllare solo il carico di crysis senza sapere quanto lavoro svolge x264? :mbe:

che senso ha limitare x264 a 4 threads, così che il 8350 al massimo può andare veloce come un 4300 e il 3770 come un 3570? :rolleyes:

Quoto...Senza contare che già la cosa di per se ha poco senso, se non presa come esercizio di stile...

carlottoIIx6
18-08-2013, 16:54
perchè cpu limited ?, io sarei contento di vederla al 100 % tipo come succede con winrar o 7zip .

praticamente se avessi una super mega gpu saresti cpu limited sempre, anche se hai 1000 fps, ma avrebbe senso porsi il problema di cambiare la cpu? :)

l'ideale è avere frame per la stessa frequenza del monitor, stop.

carlottoIIx6
18-08-2013, 16:59
cut

ritornando IT ripeto: che senso ha far girare due programmi pesanti (crysis e x264) ma controllare solo il carico di crysis senza sapere quanto lavoro svolge x264? :mbe:

perchè, secondo te cosa farebbe? niente? :D

che senso ha limitare x264 a 4 threads, così che il 8350 al massimo può andare veloce come un 4300 e il 3770 come un 3570? :rolleyes:
forse l'hanno fatto per lasciare core liberi per il gioco, non so i criteri di scelta, di certo non penso che il 3770 utilizzi 4 core fisici per x264 e 4 core virtuali per giocare ;) sarà più come se fossero due i3.

marchigiano
18-08-2013, 19:07
perchè, secondo te cosa farebbe? niente? :D

forse l'hanno fatto per lasciare core liberi per il gioco, non so i criteri di scelta, di certo non penso che il 3770 utilizzi 4 core fisici per x264 e 4 core virtuali per giocare ;) sarà più come se fossero due i3.

ok allora imposto x264 a un core e ci gioco fluido anche con un celeron... poi se x264 ci mette un anno a convertire non importa... :rolleyes:

ripeto: senza sapere ANCHE la velocità di conversione è inutile sapere che il gioco rimane fluido

inoltre si sa che priorità hanno dato a x264?

isomen
18-08-2013, 21:11
ok allora imposto x264 a un core e ci gioco fluido anche con un celeron... poi se x264 ci mette un anno a convertire non importa... :rolleyes:

ripeto: senza sapere ANCHE la velocità di conversione è inutile sapere che il gioco rimane fluido

inoltre si sa che priorità hanno dato a x264?

Se con un celeron impostando x264 su un core ci mette un anno a convertire... significa che ci metterebbe cmq 6 mesi :sbonk:
ma il test dovrebbe servire a capire le differenze sotto carichi pesanti e i celeron nn sono certo le cpu più adatte a sopportarli :cool:

;)

carlottoIIx6
18-08-2013, 21:20
ok allora imposto x264 a un core e ci gioco fluido anche con un celeron... poi se x264 ci mette un anno a convertire non importa... :rolleyes:

ripeto: senza sapere ANCHE la velocità di conversione è inutile sapere che il gioco rimane fluido

inoltre si sa che priorità hanno dato a x264?

anche a me piacerebbe sapere cosa hanno fatto, ma guarda che i processi sono veloci e non lenti come pensi tu.
ci sono testimonianze su thread qui su HU oltre che sul thread BD.

Pat77
18-08-2013, 23:04
ok allora imposto x264 a un core e ci gioco fluido anche con un celeron... poi se x264 ci mette un anno a convertire non importa... :rolleyes:

ripeto: senza sapere ANCHE la velocità di conversione è inutile sapere che il gioco rimane fluido

inoltre si sa che priorità hanno dato a x264?

E' una considerazione sensata, purtroppo non ci sono dati in merito.

marchigiano
18-08-2013, 23:27
Se con un celeron impostando x264 su un core ci mette un anno a convertire... significa che ci metterebbe cmq 6 mesi :sbonk:
ma il test dovrebbe servire a capire le differenze sotto carichi pesanti e i celeron nn sono certo le cpu più adatte a sopportarli :cool:

;)

di solito faccio esempi estremi per rendere più chiari i concetti ;)

inutile avere frames elevati se poi x264 dimezza o peggio, è questo che vorrei sapere dal test

carlottoIIx6
18-08-2013, 23:38
di solito faccio esempi estremi per rendere più chiari i concetti ;)

inutile avere frames elevati se poi x264 dimezza o peggio, è questo che vorrei sapere dal test

chiedi se qualcuno te li fa i test ;)

Strato1541
19-08-2013, 01:06
di solito faccio esempi estremi per rendere più chiari i concetti ;)

inutile avere frames elevati se poi x264 dimezza o peggio, è questo che vorrei sapere dal test

Ad ogni modo è un test che trova il tempo che trova, inoltre è soggetto ad analisi molto arbitrarie.
Continuo a pensare che rimanga un esercizio di stile.

marchigiano
19-08-2013, 11:49
noto ora che hanno usato il bench x264 5.0 che imposta la priorità su alta, quindi si capisce perchè il i5 soffre parecchio, in pratica tutte le risorse sono dedicate a x264

nessun accenno al fatto che con 4 threads pieni un i5 converte quasi al doppio di velocità di un fx4300... :rolleyes:

nardustyle
19-08-2013, 12:14
noto ora che hanno usato il bench x264 5.0 che imposta la priorità su alta, quindi si capisce perchè il i5 soffre parecchio, in pratica tutte le risorse sono dedicate a x264

nessun accenno al fatto che con 4 threads pieni un i5 converte quasi al doppio di velocità di un fx4300... :rolleyes:

si ma il computer si impalla con l'i5 e non si riesce a giocare decentemente cosa che non succede nell'fx, è questo il succo ;)

carlottoIIx6
19-08-2013, 12:15
noto ora che hanno usato il bench x264 5.0 che imposta la priorità su alta, quindi si capisce perchè il i5 soffre parecchio, in pratica tutte le risorse sono dedicate a x264

nessun accenno al fatto che con 4 threads pieni un i5 converte quasi al doppio di velocità di un fx4300... :rolleyes:

fx 4300 compete con gli i3.

carlottoIIx6
19-08-2013, 12:17
si ma il computer si impalla con l'i5 e non si riesce a giocare decentemente cosa che non succede nell'fx, è questo il succo ;)

:sofico: già.

isomen
19-08-2013, 13:08
noto ora che hanno usato il bench x264 5.0 che imposta la priorità su alta, quindi si capisce perchè il i5 soffre parecchio, in pratica tutte le risorse sono dedicate a x264

nessun accenno al fatto che con 4 threads pieni un i5 converte quasi al doppio di velocità di un fx4300... :rolleyes:

Marchigià va bene esempi estremi, ma che siano inerenti.... dopo il celeron i5 vs 4300 :confused:
un i5 costa come un FX 8 core ed é giusto confrontarli, un i3 costa quanto un 6300 e quasi sempre... le prende :D

;)

marchigiano
19-08-2013, 15:25
si ma il computer si impalla con l'i5 e non si riesce a giocare decentemente cosa che non succede nell'fx, è questo il succo ;)

si ma il i5 probabilmente converte al doppio della velocità del 8350 con quei setting... a pari velocità di conversione probabilmente il i5 non ha un calo così drastico di framerate

ma te che hai il processore perchè non fai il test?

marchigiano
19-08-2013, 15:38
Marchigià va bene esempi estremi, ma che siano inerenti.... dopo il celeron i5 vs 4300 :confused:
un i5 costa come un FX 8 core ed é giusto confrontarli, un i3 costa quanto un 6300 e quasi sempre... le prende :D

;)

se limiti a 4 threads x264, un 3770 andrà come un 3570, un 8350 andrà come un 4350

è questo il senso

ora andate a vedere la velocità di conversione x264 di 3570 e 4350

della fluidità me ne frega nulla se le conversione in background cala, tanto vale che la sospendo mentre gioco e poi la faccio riprendere a gioco finito

isomen
19-08-2013, 18:29
si ma il i5 probabilmente converte al doppio della velocità del 8350 con quei setting... a pari velocità di conversione probabilmente il i5 non ha un calo così drastico di framerate

ma te che hai il processore perchè non fai il test?

se limiti a 4 threads x264, un 3770 andrà come un 3570, un 8350 andrà come un 4350

è questo il senso

ora andate a vedere la velocità di conversione x264 di 3570 e 4350

della fluidità me ne frega nulla se le conversione in background cala, tanto vale che la sospendo mentre gioco e poi la faccio riprendere a gioco finito

Se, ma, probabilmente... c'é il test, che abbia un'utilità o sia fine a se stesso, da dei dati ben precisi, chi ha un FX e ha fatto qualche prova nn nè é certo sorpreso... se per te che vuoi sempre dire che intel é meglio sono duri da digerire... mi dispiace :sofico: :asd:

;)

naumakos
19-08-2013, 19:06
Se, ma, probabilmente... c'é il test, che abbia un'utilità o sia fine a se stesso, da dei dati ben precisi, chi ha un FX e ha fatto qualche prova nn nè é certo sorpreso... se per te che vuoi sempre dire che intel é meglio sono duri da digerire... mi dispiace :sofico: :asd:

;)

:Prrr: E piu forte di loro !!!

Strato1541
19-08-2013, 20:04
:Prrr: E piu forte di loro !!!

Da quello che mi son letto in giro , la cosa accade , ma sembra che la conversione rallenti rispetto alla norma..AD ogni modo come dissi in precedenza non vedo l'utilità della cosa, saranno pure meglio come si dice ma sarà meglio se una cpu si comporta bene in ambiti riproducibili nell'uso diffuso e più comune, piuttosto che in ambiti di nicchia..
Anche perchè se lo scopo è l'ambito professionale(argomento dal quale si era partiti) preferisco avere una cpu con tutte le risorse disponibili per completare il lavoro nel minor tempo possibile e con la massima efficienza..Di certo non gioco a crysis 3 in ufficio!

Pat77
19-08-2013, 20:44
Se, ma, probabilmente... c'é il test, che abbia un'utilità o sia fine a se stesso, da dei dati ben precisi, chi ha un FX e ha fatto qualche prova nn nè é certo sorpreso... se per te che vuoi sempre dire che intel é meglio sono duri da digerire... mi dispiace :sofico: :asd:

;)

E' la stessa identica obiezione che ho avuto postando questo:

http://techreport.com/review/23750/amd-fx-8350-processor-reviewed/9

Mi si e' chiesto il tempo di conversione, i core utilizzati, ecc..
Da questi test mi sembra di capire, considerando che era comunque post Patch Crysis 3, che FX8350 rende molto bene in questi casi, e se ha qualcuno interessa, indipendentemente dalla velocita' della conversione, puo' giocare e fare altro.

Pat77
19-08-2013, 20:46
:Prrr: E piu forte di loro !!!

Veramente questo 3d e' stato aperto da me che non sono certo un simpatizzante AMD. Trovo pero' piu' interessante capire ed essere aperti che restare per forza su opinioni magari basate su presupposti sbagliati.

isomen
19-08-2013, 21:02
Da quello che mi son letto in giro , la cosa accade , ma sembra che la conversione rallenti rispetto alla norma..AD ogni modo come dissi in precedenza non vedo l'utilità della cosa, saranno pure meglio come si dice ma sarà meglio se una cpu si comporta bene in ambiti riproducibili nell'uso diffuso e più comune, piuttosto che in ambiti di nicchia..
Anche perchè se lo scopo è l'ambito professionale(argomento dal quale si era partiti) preferisco avere una cpu con tutte le risorse disponibili per completare il lavoro nel minor tempo possibile e con la massima efficienza..Di certo non gioco a crysis 3 in ufficio!

Sinceramente nn mi é chiaro che sia ad esclusivo beneficio di ambiti professionali, anche se in quell'ambito può essere molto utile poter fare altro mentre il pc svolge un compito pesante... forse molto più che guadagnare 1/4 d'ora ma dover aspettare 2 ore guardando il monitor, senza poter fare altro....
ma nell'uso comune chi é che con il pc nn fa lavori (magari di tanto in tanto) che richiedono tempo (fossero anche i video delle vacanze) e nell'attesa vorrebbe fare altro? certo, credendo che nn sia possibile probabilmente va a farsi una passeggiata ai giardini... ma sapendo che é possibile, chissà... magari molti si farebbero una partita.

PS
se in ufficio fai lavori del genere e facendone 2 separatamente impieghi 4 + 4 ore e facendoli in contemporanea nè impieghi 6 hai guadagnato 2 ore.... e sul lavoro il tempo é denaro.

;)

Strato1541
19-08-2013, 21:15
Sinceramente nn mi é chiaro che sia ad esclusivo beneficio di ambiti professionali, anche se in quell'ambito può essere molto utile poter fare altro mentre il pc svolge un compito pesante... forse molto più che guadagnare 1/4 d'ora ma dover aspettare 2 ore guardando il monitor, senza poter fare altro....
ma nell'uso comune chi é che con il pc nn fa lavori (magari di tanto in tanto) che richiedono tempo (fossero anche i video delle vacanze) e nell'attesa vorrebbe fare altro? certo, credendo che nn sia possibile probabilmente va a farsi una passeggiata ai giardini... ma sapendo che é possibile, chissà... magari molti si farebbero una partita.

PS
se in ufficio fai lavori del genere e facendone 2 separatamente impieghi 4 + 4 ore e facendoli in contemporanea nè impieghi 6 hai guadagnato 2 ore.... e sul lavoro il tempo é denaro.

;)

Un utente parlava di benefici in ambito professionale, mi sembra naumakos..Detto questo direttamente non mi tocca nel senso che quando c'è necessità di calcolo pesante mi appoggio a diversi nodi di WS, quindi non mi cambia molto...
Però il vantaggio sarebbe nella conversione durante una partita...Non so con altri software come andrebbero le cose...Anche perchè non è vero che durante una conversione non posso fare altro con l'i7 che ho a casa, anzi!Anche il buon i7 940 lo fa tranquillamente...
Riguardo il lavoro, non ci sono bench che dimostrano il guadagno effettivo rispetto ad un intel di pari potenza,posso fare 2 conversioni contemporaneamente anche con una cpu intel ,mica è impossibile!Chiaro che le risorse vanno distribuite, allora in questo caso la differenza tra un fx e un i7 onestamente non so quale sia..i numeri 4+4 o 6 sei sono puramente illustrativi, immagino.

carlottoIIx6
19-08-2013, 21:36
Sinceramente nn mi é chiaro che sia ad esclusivo beneficio di ambiti professionali, anche se in quell'ambito può essere molto utile poter fare altro mentre il pc svolge un compito pesante... forse molto più che guadagnare 1/4 d'ora ma dover aspettare 2 ore guardando il monitor, senza poter fare altro....
ma nell'uso comune chi é che con il pc nn fa lavori (magari di tanto in tanto) che richiedono tempo (fossero anche i video delle vacanze) e nell'attesa vorrebbe fare altro? certo, credendo che nn sia possibile probabilmente va a farsi una passeggiata ai giardini... ma sapendo che é possibile, chissà... magari molti si farebbero una partita.

PS
se in ufficio fai lavori del genere e facendone 2 separatamente impieghi 4 + 4 ore e facendoli in contemporanea nè impieghi 6 hai guadagnato 2 ore.... e sul lavoro il tempo é denaro.

;)

quoto e mi cito
http://www.hwupgrade.it/forum/showpost.php?p=39850290&postcount=289
:)

isomen
19-08-2013, 22:03
Veramente questo 3d e' stato aperto da me che non sono certo un simpatizzante AMD. Trovo pero' piu' interessante capire ed essere aperti che restare per forza su opinioni magari basate su presupposti sbagliati.

Concordo

E' la stessa identica obiezione che ho avuto postando questo:

http://techreport.com/review/23750/amd-fx-8350-processor-reviewed/9

Mi si e' chiesto il tempo di conversione, i core utilizzati, ecc..
Da questi test mi sembra di capire, considerando che era comunque post Patch Crysis 3, che FX8350 rende molto bene in questi casi, e se ha qualcuno interessa, indipendentemente dalla velocita' della conversione, puo' giocare e fare altro.

in quel link i risultati sorprendenti li fa l'i5 760... nn nè ho uno e sicuramente nn vado a prenderlo adesso... ma nn é detto che prima o poi nn me ne capiti uno :D

;)

isomen
19-08-2013, 22:20
Un utente parlava di benefici in ambito professionale, mi sembra naumakos..Detto questo direttamente non mi tocca nel senso che quando c'è necessità di calcolo pesante mi appoggio a diversi nodi di WS, quindi non mi cambia molto...
Però il vantaggio sarebbe nella conversione durante una partita...Non so con altri software come andrebbero le cose...Anche perchè non è vero che durante una conversione non posso fare altro con l'i7 che ho a casa, anzi!Anche il buon i7 940 lo fa tranquillamente...
Riguardo il lavoro, non ci sono bench che dimostrano il guadagno effettivo rispetto ad un intel di pari potenza,posso fare 2 conversioni contemporaneamente anche con una cpu intel ,mica è impossibile!Chiaro che le risorse vanno distribuite, allora in questo caso la differenza tra un fx e un i7 onestamente non so quale sia..i numeri 4+4 o 6 sei sono puramente illustrativi, immagino.

Si, sono numeri usati per fare un esempio... io nn faccio un uso professionale del pc e se anche dovessi impiegare 1/2 ora in più nella conversione (anche questo é ipotetico) lo preferirei piuttosto che guardare il monitor aspettando che finisca (anche se aspettassi 30 min meno).
Nomini i7 940 e parli di cpu di pari potenza... ma questa é una contraddizione, se l'fx 8350 ha una potenza anche un po' inferiore al 940... amd lo vende a troppo poco, l'i7 citato alla sua uscita costava quasi 600$ :D

;)

marchigiano
19-08-2013, 22:57
se in ufficio fai lavori del genere e facendone 2 separatamente impieghi 4 + 4 ore e facendoli in contemporanea nè impieghi 6 hai guadagnato 2 ore.... e sul lavoro il tempo é denaro.

sono due giorni che ripeto la stessa cosa e solo adesso lo capisci? :rolleyes:

il problema è che non si sa quanto impieghi x264 in questo test, anche se forzando 4 threads, un idea ce l'avrei...

se nardustyle, che sa fare i test, avesse voglia di fare la prova, gliene saremmo tutti grati

test possibilmente così svolto:

1. cpu e ram tutto a default, turbo on, niente OC
2. test x264 5.0 da solo con "threads auto" e poi "threads 4"
3. test contemporaneo crysis 3 + x264 "threads auto"
4. come sopra crysis 3 + x264 "threads 4"
5. postare i risultati di ENTRAMBI i test

vista la vga forse meglio impostare crysis a 1280?

carlottoIIx6
19-08-2013, 23:00
c'è una specie di oscurantismo dell'evidenza tramite test, la cosa sembra funzionare così: se una cosa vera non ha un test su una rivista non esiste.

a me sembra più che se una cosa non fa comodo è meglio non ammetterla finché non fanno un test che la verifica, così si ha un alibi della serie: non potevamo saperlo prima.

è chiaro che otto core fisici siano megli di 4 reali e 4 virtuali, anzi l'idea di amd si basava proprio su questa considerazione ovvia: mi ricordo una slide amd dove dicevano che il core virtuale era solo un modo di fare lavorare il core fisico anche nei tempi morti, ma quando il core è occupato il thread deve aspettare. con i core fisici no.
certo BD è modulare, quindi parte hardware è condivisa, ma attenzione, i core fisici rimangono in vantaggio:
http://www.pcgameshardware.de/screenshots/original/2013/06/CPU-Multitasking-Test-01-pcgh.png
gli fx hanno un andamento piatto all'aumentare dei task che lasciano pensare che il punto di decadenza, tipo l'i5 in figura, sia spinto molto più in la di quello che la figura lascia intravedere.
non male visto che gli fx sono venduti molto meno degli i5.

altra cosa ovvia è che se carichi la macchina tenerà ad essere sfrutta al 100% quindi la sua efficenza migliorerà.
quindi questa ovvietà lascia intravedere benissimo l'esito della conversione, che sicuramente avrà una buona parte della cpu (non andando tutta la gioco) che sfrutterà a dovere.

il multi task non è per tutti? ma perchè chi non lancia qualcosa e poi fa altro?
a me capita sovente. ma no la gente ama fissare il computer mentre calcola immaginando cosa farà in un alone di mistero e non chattare, comunicare e andare nei siti, giocare ecc bhe, forse li considerano nerd e quindi... :)
saranno sfigatelli? :P certo a saperlo uno lancia molti task e poi fa altro.
tra l'altro avere tanti core serve anche ai programmi pesanti che solitamente sono parallelizati in un era dove anche le cpu degli smartphone sono arrivate ad essere x4 con frequenze notevoli http://www.mobileblog.it/post/45031/qualcomm-snapdragon-800-e-600-le-nuove-cpu-per-smartphone-e-tablet.

sembra che si voglia fissare il tempo, come fare una foto: immortalare un atleta che salta in un istante e non fare capire cosa gli succederà dopo, sarà un win o un fail.

marchigiano
19-08-2013, 23:07
E' la stessa identica obiezione che ho avuto postando questo:

http://techreport.com/review/23750/amd-fx-8350-processor-reviewed/9


qua hanno usato windows movie maker che sicuramente utilizza tutti cores disponibili, poi dovrebbe settare una priorità normale o bassa non so... la situazione si ribalta completamente, un vecchio 760 va più di un 8350 ma sicuramente la conversione è più veloce nel 8350, di quanto però? senza il dato è di nuovo un test inutile

Mi si e' chiesto il tempo di conversione, i core utilizzati, ecc..
Da questi test mi sembra di capire, considerando che era comunque post Patch Crysis 3, che FX8350 rende molto bene in questi casi, e se ha qualcuno interessa, indipendentemente dalla velocita' della conversione, puo' giocare e fare altro.

"indipendentemente dalla velocità di conversione" continuo a usare il pentium e metto in pausa la conversione mentre gioco...

Ludus
19-08-2013, 23:14
scusate ma realmente pensate che chi possiede un i5 sandy/ivy/haswell o un i7 delle medesime generazioni, se anche putacaso dovesse convertire un video, è obbligato a rimanere a guardare il desktop senza poter far nulla ?
anche se i core sono solo 4, o 8 di cui 4 virtuali, sia l'i5 che l'i7 possono gestire senza problemi anche l'utilizzo di altre applicazioni pesanti.
poi tornando al test specifico postato dove viene vagliata la possibilità di effettuare un encoding video mentre si gioca, ho due osservazioni da fare:

1. grazie al cavolo che vanno in crisi quando si utilizzano forzatamente tutti i core fisici del processore, andrebbe lasciato al sistema scegliere quanti core affidare alla conversione e quanti all'altra applicazione che si vuole usare, ihmo senza forzare il programma di encoding ad usare obbligatoriamente un tot numero di core, non si avrebbero problemi di nessun tipo e probabilmente si avrebbe a parità di fps encodati, prestazioni uguali o migliori nell'altra applicazione lanciata.

2. ci si scorda di una che ritengo fenomenale (almeno per me che "encodo" molti video) e che è stata introdotta fin da sandybridge: l'intel quick sync. si può letteralmente convertire un video 5-6 volte più velocemente tenendo al minimo la percentuale di utilizzo cpu, quando l'FX o altri processori che non hanno questa funzione, sono costretti a farlo tremendamente più lentamente e bruciando risorse della cpu.

questo è il test che stavo appunto svolgendo:

Quicksync ON

http://i.imgur.com/1rGCvEz.jpg

Quicksync OFF

http://i.imgur.com/CFtC5vW.jpg

Prestazioni ridotte ad 1/4 (nonostante la cpu a 4.6ghz) e 85% in più di carico gravante sulla cpu.

isomen
19-08-2013, 23:19
sono due giorni che ripeto la stessa cosa e solo adesso lo capisci? :rolleyes:

il problema è che non si sa quanto impieghi x264 in questo test, anche se forzando 4 threads, un idea ce l'avrei...

se nardustyle, che sa fare i test, avesse voglia di fare la prova, gliene saremmo tutti grati

test possibilmente così svolto:

1. cpu e ram tutto a default, turbo on, niente OC
2. test x264 5.0 da solo con "threads auto" e poi "threads 4"
3. test contemporaneo crysis 3 + x264 "threads auto"
4. come sopra crysis 3 + x264 "threads 4"
5. postare i risultati di ENTRAMBI i test

vista la vga forse meglio impostare crysis a 1280?

Se vuoi una cpu da tenere a default l'i3 (che tanto osanni) é quella giusta per te... ma forse te l'avevo già detto :doh:

come é stato già detto in ufficio (o cmq in ambito professionale) nn si gioca a crysis 3... credo che sarebbe più interessante fare la stessa conversione singolarmente con i5, i7 e 8350 prendendo i tempi e poi ripetere il test facendone 2 contemporaneamente per vedere le differenze.

PS
il fatto che nn approvi nn significa che nn capisco quello che dici

;)

isomen
19-08-2013, 23:31
scusate ma realmente pensate che chi possiede un i5 sandy/ivy/haswell o un i7 delle medesime generazioni, se anche putacaso dovesse convertire un video, è obbligato a rimanere a guardare il desktop senza poter far nulla ?
anche se i core sono solo 4, o 8 di cui 4 virtuali, sia l'i5 che l'i7 possono gestire senza problemi anche l'utilizzo di altre applicazioni pesanti.
poi tornando al test specifico postato dove viene vagliata la possibilità di effettuare un encoding video mentre si gioca, ho due osservazioni da fare:

1. grazie al cavolo che vanno in crisi quando si utilizzano forzatamente tutti i core fisici del processore, andrebbe lasciato al sistema scegliere quanti core affidare alla conversione e quanti all'altra applicazione che si vuole usare, ihmo senza forzare il programma di encoding ad usare obbligatoriamente un tot numero di core, non si avrebbero problemi di nessun tipo e probabilmente si avrebbe a parità di fps encodati, prestazioni uguali o migliori nell'altra applicazione lanciata.

2. ci si scorda di una che ritengo fenomenale (almeno per me che "encodo" molti video) e che è stata introdotta fin da sandybridge: l'intel quick sync. si può letteralmente convertire un video 5-6 volte più velocemente tenendo al minimo la percentuale di utilizzo cpu, quando l'FX o altri processori che non hanno questa funzione, sono costretti a farlo tremendamente più lentamente e bruciando risorse della cpu.

cut

Prestazioni ridotte ad 1/4 (nonostante la cpu a 4.6ghz) e 85% in più di carico gravante sulla cpu.


Mi sembra che hai solo dimostrato l'efficenza del Quicksync...
ma tornando al discorso dell'assegnazione dei core, io ho fatto un test fine a se stesso, ho lanciato il linpack di occt e mi sono messo a giocare (senza assegnare nessuna priorità ad alcun core) e nonostante il framerate più basso ci riuscivo senza scatti e impuntamenti... mi piacerebbe sapere con quali risultati riesci a farlo con il tuo i5.

;)

Pat77
19-08-2013, 23:32
Tutti interventi molto interessanti che aggiungono spessore al 3d, che ho letto con piacere. Tranne, ovviamente, quello di Carlotto che spara le solite banalita' senza aver capito una beneamata mazza.
Ma non aveva detto che non rispondeva piu'? Ne facciamo volentieri a meno.

marchigiano
19-08-2013, 23:35
c'è una specie di oscurantismo dell'evidenza tramite test, la cosa sembra funzionare così: se una cosa vera non ha un test su una rivista non esiste.

a me sembra che sia il test stesso ad essere oscuro se non dice quanto va veloce la conversione :D

a me sembra più che se una cosa non fa comodo è meglio non ammetterla finché non fanno un test che la verifica, così si ha un alibi della serie: non potevamo saperlo prima.

in effetti mi chiedo perchè nessuno con un fx mi fa il test che ho richiesto... :D

mi ricordo una slide amd dove dicevano che il core virtuale era solo un modo di fare lavorare il core fisico anche nei tempi morti, ma quando il core è occupato il thread deve aspettare. con i core fisici no.

può darsi, però ho testato x264 con l'hyperthreading ed è venuto fuori che forzando 8 threads su un dual core (!!!!!!!!!) con ht attivo ho comunque il 19,5% in più di first pass e 20,8% second pass... e si che col quadruplo dei core forzati si dovrebbe riempire anche senza HT no?

se invece forzo 2 threads, mi va più forte senza HT (di pochissimo, tipo 1% ma comunque è indicativo) forse perchè lo scheduler manda qualche istruzione al core virtuale invece di dividere bene tra i due fisici

carlottoIIx6
19-08-2013, 23:40
Mi sembra che hai solo dimostrato l'efficenza del Quicksync...
ma tornando al discorso dell'assegnazione dei core, io ho fatto un test fine a se stesso, ho lanciato il linpack di occt e mi sono messo a giocare (senza assegnare nessuna priorità ad alcun core) e nonostante il framerate più basso ci riuscivo senza scatti e impuntamenti... mi piacerebbe sapere con quali risultati riesci a farlo con il tuo i5.

;)
neanche, nel sendo che quiksync è un hardware dedicato che fa solo una cosa, ma la fa decisamente bene.
chiaramente nella cpu non si possono mettere tutti hardware dedicati, devono essere prgrammabili, seno ci vorrebbe un ahrdware per ogni programma e quindi si va ll'hardware programmabile a scapito di minore efficenza, per non avere una cpu infinita.
quiksync può lavorare indisturbato mentre la cpu fa altro perchè anche se facente aprte della cpu materialmente è a se per quel che concerne il software.
e come quei proci di una volta che aveva la codifica mpg4 - mpg2 per sgravare la cpu di questi calcoli pesanti.

quiksync intel ha fatot bene a emtterlo, a chi interessa usare il pc per fare questo, mentre fa altro va alla grande, ma veri core si adattano a tutti i programmi e non ad un sol scenario.

Ludus
19-08-2013, 23:43
Mi sembra che hai solo dimostrato l'efficenza del Quicksync...
ma tornando al discorso dell'assegnazione dei core, io ho fatto un test fine a se stesso, ho lanciato il linpack di occt e mi sono messo a giocare (senza assegnare nessuna priorità ad alcun core) e nonostante il framerate più basso ci riuscivo senza scatti e impuntamenti... mi piacerebbe sapere con quali risultati riesci a farlo con il tuo i5.

;)

Ho dimostrato solo l'efficienza di quicksync? No, ho dimostrato come una caratteristica che un FX non può replicare può dare un vantaggio sostanziale ad una cpu Intel i5/i7 se l'obiettivo è quello di convertire un video mentre si gioca come si sta da più pagine facendo.

Finisco di vedermi la puntata di un telefilm ed eseguo il test.

marchigiano
19-08-2013, 23:44
Se vuoi una cpu da tenere a default l'i3 (che tanto osanni) é quella giusta per te... ma forse te l'avevo già detto :doh:

che centra l'i3? ho chiesto di testare un 8350...

come é stato già detto in ufficio (o cmq in ambito professionale) nn si gioca a crysis 3... credo che sarebbe più interessante fare la stessa conversione singolarmente con i5, i7 e 8350 prendendo i tempi e poi ripetere il test facendone 2 contemporaneamente per vedere le differenze.

vabbè cambia poco, 2 conversioni x264 contemporanee o crysis+x264 l'importante è sapere il risultato di ENTRAMBE, è dall'inizio che lo dico

il fatto che nn approvi nn significa che nn capisco quello che dici


se mi capissi sono sicuro che approveresti (oddio che giro di congiuntivi... li ho presi spero?) :asd:

marchigiano
19-08-2013, 23:48
Ho dimostrato solo l'efficienza di quicksync? No, ho dimostrato come una caratteristica che un FX non può replicare può dare un vantaggio sostanziale ad una cpu Intel i5/i7 se l'obiettivo è quello di convertire un video mentre si gioca come si sta da più pagine facendo.

Finisco di vedermi la puntata di un telefilm ed eseguo il test.

quicksync lo utilizzo pure io per le conversioni alla buona ma per roba seria ci vuole per forza x264 a 3 passate e setting lenti...

se puoi farmi il test che ho chiesto sopra anche a nardustyle te ne sarei grato

mi raccomando la precisione punto per punto altrimenti il test va a pu**ane

isomen
20-08-2013, 00:35
che centra l'i3? ho chiesto di testare un 8350...

i3 per dire una cpu che nn si occa (o poco), ma potrebbe anche essere un 4430... insomma nn un K, a fare oc saremo anche in pochi... ma allora perchè prendersi la briga di bloccare molte cpu e far pagare di più quelle sbloccate :confused:

vabbè cambia poco, 2 conversioni x264 contemporanee o crysis+x264 l'importante è sapere il risultato di ENTRAMBE, è dall'inizio che lo dico

a me dell'ambito lavorativo interessa poco, ma come dice strato Strato farne 2 contemporaneamente potrebbe portare un vantaggio (se si guadagna tempo)... mentre a lavoro nn si gioca a crysis :sofico:

se mi capissi sono sicuro che approveresti (oddio che giro di congiuntivi... li ho presi spero?) :asd:

concedimi almeno la possibilità del dubbio :asd:

;)

Strato1541
20-08-2013, 00:42
Si, sono numeri usati per fare un esempio... io nn faccio un uso professionale del pc e se anche dovessi impiegare 1/2 ora in più nella conversione (anche questo é ipotetico) lo preferirei piuttosto che guardare il monitor aspettando che finisca (anche se aspettassi 30 min meno).
Nomini i7 940 e parli di cpu di pari potenza... ma questa é una contraddizione, se l'fx 8350 ha una potenza anche un po' inferiore al 940... amd lo vende a troppo poco, l'i7 citato alla sua uscita costava quasi 600$ :D

;)

L'ho nominata perchè la possiedo non per la questione di potenza...Dato che si parlava di rallentamenti con gli i7, volevo solo dire che anche un i7 di prima generazione non ha problemi a gestire più conversioni in contemporanea..Tutto qui...Facendo lavori pesanti non rimango comunque a guardare il monitor!Ma neanche con le vecchie cpu ai suoi tempi accedeva, da quando circolano cpu multicore...

Pat77
20-08-2013, 01:01
Ho dimostrato solo l'efficienza di quicksync? No, ho dimostrato come una caratteristica che un FX non può replicare può dare un vantaggio sostanziale ad una cpu Intel i5/i7 se l'obiettivo è quello di convertire un video mentre si gioca come si sta da più pagine facendo.

Finisco di vedermi la puntata di un telefilm ed eseguo il test.

Veramente interessante, questo in pratica, per chi vuole fare una cosa del genere ribalta tutto.
Il problema e' che si tratta, imho, di un ambito di utilizzo veramente particolare, che aggiunge poco o nulla all'attuale proposta cpu, pero' conferma anche le voci che circolavano, che con FX senza tecnologie particolari, di sola CPU, si possa giungere a un pareggio con I7 in casi di carichi molto elevati forcando 2-4 core per la conversione video.

Testicolo_Rotto
20-08-2013, 10:09
Ma vergognati a scrivere certe cose, neanche fossi un distributore della verità!o di quello che è giusto scegliere o fare!In quella particolare situazione hanno un vantaggio, BENE!E nelle altre 99999.... dove non hanno vantaggi?
La maturità e la capacità di sceglier ciò che serve in base al budget e l'ambito di utilizzo son cose importanti, dato che quella particolare condizione la verificheranno quanto l'1% degli utenti perchè l'hanno letto e vogliono mostrare che è così..Tutti gli altri lo ignoreranno...
Detto questo non cambia nulla...

Q U O T O!

Phenomenale
20-08-2013, 10:39
E' giusto ricordare che gli I7 non hanno 4 core reali ed altri 4 core virtuali, si presentano all' OS con 8 core virtuali identici. :cool:

Ma ricordiamo anche che è improprio definire gli AMD FX come 8 core reali perchè non lo sono: hanno solo 4 FPU condivise (tanto quanto gli I7) e gli 8 core integer hanno comunque il frontend, il decoder x86 e la cache condivisi per ogni modulo. :fagiano:

Strato1541
20-08-2013, 11:44
E' giusto ricordare che gli I7 non hanno 4 core reali ed altri 4 core virtuali, si presentano all' OS con 8 core virtuali identici. :cool:

Ma ricordiamo anche che è improprio definire gli AMD FX come 8 core reali perchè non lo sono: hanno solo 4 FPU condivise (tanto quanto gli I7) e gli 8 core integer hanno comunque il frontend, il decoder x86 e la cache condivisi per ogni modulo. :fagiano:

Quoto!!è una vita che lo vado dicendo e ogni volta mi linciano quando lo ricordo...

isomen
20-08-2013, 12:17
Quindi sarebbe errato in entrambi i casi definirli degli 8 core, anche se questo accade prevalentemente per le cpu amd (anche perchè é amd stessa che le definisce 8 core)... é solo il modo di presentare il prodotto, quello che credo interessi a noi sono le prestazioni e queste essendo 2 architetture diverse cambiano a secondo dell'ottimizzazione del software usato.

;)

carlottoIIx6
20-08-2013, 13:25
E' giusto ricordare che gli I7 non hanno 4 core reali ed altri 4 core virtuali, si presentano all' OS con 8 core virtuali identici. :cool:

Ma ricordiamo anche che è improprio definire gli AMD FX come 8 core reali perchè non lo sono: hanno solo 4 FPU condivise (tanto quanto gli I7) e gli 8 core integer hanno comunque il frontend, il decoder x86 e la cache condivisi per ogni modulo. :fagiano:

vero, ma sono core fisici con parti condivise.
il vantaggio l'approccio amd sta proprio nel fatto che ha un vantaggio sul core fisico più virtuale, anche se questo vantaggio emerge raramente per via del software.

Phenomenale
20-08-2013, 14:10
Quindi sarebbe errato in entrambi i casi definirli degli 8 core
Si... attualmente gli unici "8 core reali" si trovano fra gli Xeon per Intel, ed Opteron per AMD. :(

Pat77
20-08-2013, 14:18
Quoto!!è una vita che lo vado dicendo e ogni volta mi linciano quando lo ricordo...

Il problema è che AMD stessa per questione di marketing le presenta così, ed è anche il motivo per cui alcuni pensano che il software console possa essere motivo di revanscismo per tali CPU.
Il problema per chi si illude è che in ambito gaming conta l'FPU, per questo gli I5 hanno un ottimo potenziale, ottimo IPC e stesse FPU dei fratelli maggiori.
Senza contare che Jaguar ha un architettura completamente diversa rispetto a FX.

Pat77
20-08-2013, 14:18
Si... attualmente gli unici "8 core reali" si trovano fra gli Xeon per Intel, ed Opteron per AMD. :(

Manca Jaguar, ben 8 core da 0.4 punti ognuno in cinebench :D

Strato1541
20-08-2013, 14:26
Il problema è che AMD stessa per questione di marketing le presenta così, ed è anche il motivo per cui alcuni pensano che il software console possa essere motivo di revanscismo per tali CPU.
Il problema per chi si illude è che in ambito gaming conta l'FPU, per questo gli I5 hanno un ottimo potenziale, ottimo IPC e stesse FPU dei fratelli maggiori.
Senza contare che Jaguar ha un architettura completamente diversa rispetto a FX.

Sì sì verissimo, ricordo bene la questione all'uscita degli fx.. Si iniziò a disquisire sul concetto di core completo o meno o sulla definizione di core intel o core amd..
Per quello che sarà il futuro si vedrà e non si può sempre incolpare il software, in ogni caso i conti vanno fatti con il software volenti o nolenti..

Pat77
20-08-2013, 14:32
Sì sì verissimo, ricordo bene la questione all'uscita degli fx.. Si iniziò a disquisire sul concetto di core completo o meno o sulla definizione di core intel o core amd..
Per quello che sarà il futuro si vedrà e non si può sempre incolpare il software, in ogni caso i conti vanno fatti con il software volenti o nolenti..

Quoto, si è visto con la patch di Crysis 3 come il software se ben ottimizzato possa cambiare completamente la situazione, così come questo quicksync.

isomen
20-08-2013, 14:42
Sicuramente anche in futuro intel nn starà certo a guardare, ma soprattutto grazie al peso di microsoft e sony spero che lato software potremo vedere un confronto più... alla pari.

;)

carlottoIIx6
20-08-2013, 14:58
sono otto core fisici con risorse condivise.
ugnuno può lavorare da solo quando riceve i dati, quindi sono x8.
se qualche volta vengono rallentati dalle risorse condivise, questo non toglie che sono veri x8.
notare che sono proprio le risorse condivise a permettere che ci siano 8 core fisici senza die anti-economici.
inoltre su steamroller ci saranno meno risorse condivise e si avrà un aumento in multi (oltre che ipc migliore).
per i possessori di fx x8 questa scelta ha permesso loro di aver cpu molto potenti in multi a prezzi bassissimi, che è una grande cosa e probabilmente una delle maggiori genialate in ambito cpu.

Strato1541
20-08-2013, 15:06
sono otto core fisici con risorse condivise.
ugnuno può lavorare da solo quando riceve i dati, quindi sono x8.
se qualche volta vengono rallentati dalle risorse condivise, questo non toglie che sono veri x8.
notare che sono proprio le risorse condivise a permettere che ci siano 8 core fisici senza die anti-economici.
inoltre su steamroller ci saranno meno risorse condivise e si avrà un aumento in multi (oltre che ipc migliore).
per i possessori di fx x8 questa scelta ha permesso loro di aver cpu molto potenti in multi a prezzi bassissimi, che è una grande cosa e probabilmente una delle maggiori genialate in ambito cpu.

E la discussione potrebbe continuare all'infinito...Neanche mi inoltro...
Oddio "genialate", costano poco perchè le prestazioni sono competitive in certi ambiti in altre non sono..o lo sono meno della concorrenza, senza contare l'efficienza energetica...Avere mille core poco efficienti con software non adeguato serve a nulla, serve solo a dire "ce l'ho più lungo" ma alla prova dei fatti uno con meno core riesce ad andare meglio e consumare di meno..Quindi è un alternativa economica non totalmente completa... Non lanciarti in voli pindarici, perchè atterri sul cemento!!!

marchigiano
20-08-2013, 15:35
che è una grande cosa e probabilmente una delle maggiori genialate in ambito cpu.

vendere 315mm2 di 32nm soi lkmg a 100€ meno di 177mm2 22nm bulk non mi sembra sta gran genialata... e le trimestrali lo dimostrano da anni

ma perchè andate OT invece di rimanere sul pezzo?

carlottoIIx6
20-08-2013, 22:22
vendere 315mm2 di 32nm soi lkmg a 100€ meno di 177mm2 22nm bulk non mi sembra sta gran genialata... e le trimestrali lo dimostrano da anni

ma perchè andate OT invece di rimanere sul pezzo?

otot core phenom non sarebbero costati 160 euro mai!

Pat77
21-08-2013, 00:10
E la discussione potrebbe continuare all'infinito...Neanche mi inoltro...
Oddio "genialate", costano poco perchè le prestazioni sono competitive in certi ambiti in altre non sono..o lo sono meno della concorrenza, senza contare l'efficienza energetica...Avere mille core poco efficienti con software non adeguato serve a nulla, serve solo a dire "ce l'ho più lungo" ma alla prova dei fatti uno con meno core riesce ad andare meglio e consumare di meno..Quindi è un alternativa economica non totalmente completa... Non lanciarti in voli pindarici, perchè atterri sul cemento!!!

Intel mi farebbe pagare ora un 2500K di piu' di quanto pagai acquistandolo 2 anni e mezzo fa, il che la dice tutta sull'attuale concorrenza.
A volte chiedo dove prendo l'hw se vendono CPU Amd, la risposta e' sempre la stessa, poche in magazzino e spesso su ordinazione, il che vuol dire che il prezzo basso e' un arma imposta dal mercato piu' che un atto di generosita'.

Gigamez
21-08-2013, 10:23
Salve a tutti,

personalmente sono invece molto interessato all'ambito professionale ed alla scalabilità dei thread (anche molti thread) sui core in dipendenza dalla architettura.

Non tutti utilizzano il pc per giocare a Crysis3: che poi i giochi siano malamente ottimizzati (privilegiando magari una o l'altra piattaforma), in modo da far spendere più soldi, alimentare aspettative e passioni attorno a dei numeretti "sterili" ok (mi ci infilo anche io nel gruppo degli appassionati di Hw, ovviamente! ;) ).

Mi viene in mente ad esempio uno scenario di virtualizzazione: come scala AMD con molte macchine virtuali sotto carico? Rimangono tutte stabili/reattive? Come scala l'architettura Intel? Processori di quella potenza penso abbiano senso soprattutto in scenari del genere e credo sia ingiusto sintetizzarne le "prestazioni" ad un singolo bench di un giochino (per quanto complesso e di ultima generazione).

In ufficio ho una workstation/server (di test) da me assemblata e sulla quale lavoro. Il fatto di avere una macchina sempre reattiva anche sotto carichi pesanti penso sia una cosa da non sottovalutare in ambito professionale, fanboysmi a parte.

Se riuscissimo a pensare ad un test che prenda in considerazione i parametri citati sopra, penso sarebbe molto più utile che stare qui a scrivere post inutili. Se volete io posso mettere a disposizione la workstation che ho per virtualizzare, basata su intel (malgrado sia da sempre simpatizzante AMD).

:)

Ludus
21-08-2013, 10:30
Nell'ambito di scenario da te prospetatto, senza fare test, posso già dirti che probabilmente un i7 e un 8350 avranno prestazioni vicine mentre un i5 superato un tot nunero di macchine virtuali andrà in crisi.

Inviato dal mio GT-I9300 usando Tapatalk 4

Gigamez
21-08-2013, 10:45
Beh, è chiaro che oltre il "numero MAX (teorico) di VM supportate" ogni processore andrà in crisi. Quello che penso sarebbe interessante è capire qual'è la soglia massima per ogni processore (a parità di prezzo) e capire anche come l'architettura gestisce le risorse una volta che va "in crisi".

Mi spiego con un esempio: se ho un server con cpu full al 100%, le mie vm (a parità di hypervisor, non so.. ESXi) saranno comunque utilizzabili oppure tutte impallate e magari nemmeno capaci di erogare servizi?

O meglio ancora: erogando servizi da una macchina fisica, con cpu al 100% o vicina alla soglia massima, che continuità di servizio posso avere? Dipende anche dalla architettura del processore?

Questo penso sia un ambito interessante dove fare confronti seri, al di là dei numeretti e degli n-mila +1 fps inavvertibili ad occhio umano..

:)

isomen
21-08-2013, 10:50
Intel mi farebbe pagare ora un 2500K di piu' di quanto pagai acquistandolo 2 anni e mezzo fa, il che la dice tutta sull'attuale concorrenza.
A volte chiedo dove prendo l'hw se vendono CPU Amd, la risposta e' sempre la stessa, poche in magazzino e spesso su ordinazione, il che vuol dire che il prezzo basso e' un arma imposta dal mercato piu' che un atto di generosita'.

Su questo nn credo ci siano dubbi, se amd potesse vendere gli 8350 al prezzo degli i7 (invece che meno degli i5) lo farebbe... il punto é che spesso (la storia insegna) il mercato é strumentalizzato da cattive informazioni e "strategie" poco ortodosse.

;)

naumakos
21-08-2013, 11:02
Su questo nn credo ci siano dubbi, se amd potesse vendere gli 8350 al prezzo degli i7 (invece che meno degli i5) lo farebbe... il punto é che spesso (la storia insegna) il mercato é strumentalizzato da cattive informazioni e "strategie" poco ortodosse.

;)

Intel è stata pure condannata per atteggiamenti poco ortodossi , questa la dice lunga

xk180j
21-08-2013, 12:12
Ho dimostrato solo l'efficienza di quicksync? No, ho dimostrato come una caratteristica che un FX non può replicare può dare un vantaggio sostanziale ad una cpu Intel i5/i7 se l'obiettivo è quello di convertire un video mentre si gioca come si sta da più pagine facendo.

Finisco di vedermi la puntata di un telefilm ed eseguo il test.

una domanda ot... ma il Quick Sync quali codec supporta? grazie

Strato1541
21-08-2013, 12:47
Intel è stata pure condannata per atteggiamenti poco ortodossi , questa la dice lunga

La storia è molto più lunga e complessa...In ogni caso la condanna va rispettata ha pagato e punto...Vorrei vedere però se tu ditta che produci cpu , uno ti viene in casa ti prende il famoso 80486 lo "smonta" a livello radicale e poi lo riproduce con alcune varianti e ci mette sopra il proprio nome cosa diresti...Questo ha fatto amd agli inizi degli anni 90...

Phenomenale
21-08-2013, 13:20
Vorrei vedere però se tu ditta che produci cpu , uno ti viene in casa ti prende il famoso 80486 lo "smonta" a livello radicale e poi lo riproduce con alcune varianti e ci mette sopra il proprio nome cosa diresti...Questo ha fatto amd agli inizi degli anni 90...
Chiariamo meglio però... è vero che AMD ai primi tempi produceva dei 386 / 486 compatibili. Ma pagava le licenze ad Intel per farlo, era tutto legale. Poi con l'arrivo degli AMD K5 (compatibili Pentium) si sono bisticciati, ed Intel ha negato il rinnovo delle licenze ad AMD che è rimasta, per così dire, un pò in braghe di tela...
Per tirarsene fuori AMD acquisì Nexgen con i suoi brevetti... e dalla cooperazione naque il K6, la prima CPU AMD che non fosse una "compatibile Intel".

FAQ: Chi è NexGen?
R: http://it.wikipedia.org/wiki/NexGen

Dimonios
21-08-2013, 13:27
Nel mentre, non fidatevi troppo dei benchmark ... :sbonk:

http://www.bitsandchips.it/9-hardware/3244-l-rtc-bug-di-windows-8-affligge-solamente-le-cpu-intel

isomen
21-08-2013, 13:28
La storia è molto più lunga e complessa...In ogni caso la condanna va rispettata ha pagato e punto...Vorrei vedere però se tu ditta che produci cpu , uno ti viene in casa ti prende il famoso 80486 lo "smonta" a livello radicale e poi lo riproduce con alcune varianti e ci mette sopra il proprio nome cosa diresti...Questo ha fatto amd agli inizi degli anni 90...

Riguardo al fatto di cui accusi amd c'érano accordi fra l'azienda citata e intel, infatti amd nn é mai stata condannata... la condanna subita da intel sarebbe stata molto più pesante se amd nn fosse stata costretta ad accettare l'accordo con rimborso economico per via della propria situazione finanziaria.

Questi sono fatti, esporli diversamente significa... distorcere la realtà.

;)

Pat77
21-08-2013, 13:34
Su questo nn credo ci siano dubbi, se amd potesse vendere gli 8350 al prezzo degli i7 (invece che meno degli i5) lo farebbe... il punto é che spesso (la storia insegna) il mercato é strumentalizzato da cattive informazioni e "strategie" poco ortodosse.

;)

Io non penso che sia questo il caso, lo poteva essere ai tempi del P4, ma ora sinceramente vedo, almeno ambito CPU una situazione cristallina, adamantina.

isomen
21-08-2013, 13:49
Nel mentre, non fidatevi troppo dei benchmark ... :sbonk:

http://www.bitsandchips.it/9-hardware/3244-l-rtc-bug-di-windows-8-affligge-solamente-le-cpu-intel

Interessante... intel nn finisce mai di sorprendere :asd:

PS
@ Pat77
al contrario di te credo che negli armadi d'intel ci siano ancora molti scheletri :D

;)

naumakos
21-08-2013, 13:57
Nel mentre, non fidatevi troppo dei benchmark ... :sbonk:

http://www.bitsandchips.it/9-hardware/3244-l-rtc-bug-di-windows-8-affligge-solamente-le-cpu-intel

Oh mio Dio .Scommetto che i vertici di Intel non lo sapevano !!!

Strato1541
21-08-2013, 13:58
Riguardo al fatto di cui accusi amd c'érano accordi fra l'azienda citata e intel, infatti amd nn é mai stata condannata... la condanna subita da intel sarebbe stata molto più pesante se amd nn fosse stata costretta ad accettare l'accordo con rimborso economico per via della propria situazione finanziaria.

Questi sono fatti, esporli diversamente significa... distorcere la realtà.

;)

Io non accuso nessuno riporto quanto è avvenuto... In ogni caso quello che è stato è stato, no? Mi sembra inutile fare filosofia di diritto, qui si parla di cpu e prestazioni e trovo molto un "arrampicarsi sugli specchi" tirare in ballo la condanna da intel subita con il fine di mettere in dubbio le prestazioni pure... Se sei il fondatore dell'informatica in tempi moderni(vedi anche ibm) non ci trovo nulla di strano se i programmi sono scritti basandosi sul funzionamento di tali cpu... Anche perchè i produttori si software avranno i loro vantaggi economici per questa ragione. Se sei la concorrenza ti devi adattare!Ma non succede solo tra multinazionali succede in tutte le categorie, se avviene qualcosa di scorretto va segnalato e punito , punto!

Strato1541
21-08-2013, 14:01
Oh mio Dio .Scommetto che i vertici di Intel non lo sapevano !!!

Be si parla di overclock.. Non di default

isomen
21-08-2013, 14:14
Io non accuso nessuno riporto quanto è avvenuto... In ogni caso quello che è stato è stato, no? Mi sembra inutile fare filosofia di diritto, qui si parla di cpu e prestazioni e trovo molto un "arrampicarsi sugli specchi" tirare in ballo la condanna da intel subita con il fine di mettere in dubbio le prestazioni pure... Se sei il fondatore dell'informatica in tempi moderni(vedi anche ibm) non ci trovo nulla di strano se i programmi sono scritti basandosi sul funzionamento di tali cpu... Anche perchè i produttori si software avranno i loro vantaggi economici per questa ragione. Se sei la concorrenza ti devi adattare!Ma non succede solo tra multinazionali succede in tutte le categorie, se avviene qualcosa di scorretto va segnalato e punito , punto!

Hai introdotto te l'argomento come se amd avesse fatto chissà che... mentre ad essere stata accusata di concorrenza sleale é stata intel e proprio perchè é la più potente e amd nn può certo preoccuparla nn dovrebbe aver bisogno di ricorrere a queste bassezze... cosa che invece ha fatto e continua a fare (ma questa é un'opinione personale)

Be si parla di overclock.. Non di default

:mc:

;)

marchigiano
21-08-2013, 14:18
come scala AMD con molte macchine virtuali sotto carico? Rimangono tutte stabili/reattive? Come scala l'architettura Intel? Processori di quella potenza penso abbiano senso soprattutto in scenari del genere e credo sia ingiusto sintetizzarne le "prestazioni" ad un singolo bench di un giochino (per quanto complesso e di ultima generazione).

sarebbe interessante: si fa partire un benchmark x264 per VM e poi si aspetta il risultato...


Mi spiego con un esempio: se ho un server con cpu full al 100%, le mie vm (a parità di hypervisor, non so.. ESXi) saranno comunque utilizzabili oppure tutte impallate e magari nemmeno capaci di erogare servizi?

O meglio ancora: erogando servizi da una macchina fisica, con cpu al 100% o vicina alla soglia massima, che continuità di servizio posso avere? Dipende anche dalla architettura del processore?

per questo non basta limitare la % di risorse totali che una singola VM può utilizzare? almeno quando uso virtualbox c'è questa opzione...

Nel mentre, non fidatevi troppo dei benchmark ... :sbonk:

http://www.bitsandchips.it/9-hardware/3244-l-rtc-bug-di-windows-8-affligge-solamente-le-cpu-intel

se accelera l'orologio, il benchmark segnerà punteggi inferiori perchè penserà che sia passato più tempo del reale, quindi va a vantaggio amd

Pat77
21-08-2013, 14:19
Interessante... intel nn finisce mai di sorprendere :asd:

PS
@ Pat77
al contrario di te credo che negli armadi d'intel ci siano ancora molti scheletri :D

;)

Non ne avevo dubbi, :D
Ma la verità sta nel mezzo, AMD non è un ente caritatevole anche se molti utenti investendo su certi prodotti lo sono diventati loro LOL

Pat77
21-08-2013, 14:23
Nel mentre, non fidatevi troppo dei benchmark ... :sbonk:

http://www.bitsandchips.it/9-hardware/3244-l-rtc-bug-di-windows-8-affligge-solamente-le-cpu-intel

In pratica le CPU Intel sono penalizzate, interessante, quindi prporzionalmente all'overclock sono ancora più veloci di quanto dicono i bench, sarebbe interessante vedere come vanno con un Fix.

Strato1541
21-08-2013, 14:23
Hai introdotto te l'argomento come se amd avesse fatto chissà che... mentre ad essere stata accusata di concorrenza sleale é stata intel e proprio perchè é la più potente e amd nn può certo preoccuparla nn dovrebbe aver bisogno di ricorrere a queste bassezze... cosa che invece ha fatto e continua a fare (ma questa é un'opinione personale)



:mc:

;)

La cosa è stata introdotto dall'utente "naumakos" con questa frase "intel è stata pure condannata per atteggiamenti poco ortodossi , questa la dice lunga"
Non ho fatto altro che riportare altre questioni più datate che fanno parte della storia delle 2 case..Punto neanche mi inoltro in discussioni di diritto, anche perchè penso sia chiaro per tutti che una sentenza(in Italia poi) può voler dire tutto e nulla,ancora di più se poi non viene applicata o se è ingiusta.DI certo non mi metto a disquisire a riguardo , ne prendo atto al massimo ma non ho ne i dati ne le capacità oggettive per poter dire è intel dalla parte della ragione o viceversa. Per me chiusa qui.

Gigamez
21-08-2013, 14:46
per questo non basta limitare la % di risorse totali che una singola VM può utilizzare? almeno quando uso virtualbox c'è questa opzione...


Si, ma se le risorse totali richieste dalla somma delle VM superano quelle fisiche è lo scheduling dell'hypervisor a gestirle. Sono convinto che a parità di hypervisor con architetture differenti potrebbe cambiare qualcosa in termini di reattività e continuità dei servizi erogati sulle VM.

Con il mio Test-server non sono mai riuscito per ora ad andare oltre il 25-30% di utilizzo.. se vi venisse in mente un modo veloce per fare dei test e magari ci fosse qualcuno che ha una workstation AMD con il quale confrontare i risultati, io sono a disposizione.

isomen
21-08-2013, 14:47
In pratica le CPU Intel sono penalizzate, interessante, quindi prporzionalmente all'overclock sono ancora più veloci di quanto dicono i bench, sarebbe interessante vedere come vanno con un Fix.

Da quanto scrivono sono penalizzate in downclock... ma avvantaggiate in overclock :D

;)

Ludus
21-08-2013, 14:58
Da quanto scrivono sono penalizzate in downclock... ma avvantaggiate in overclock :D

;)

Non è così.
Prima di tutto non dipende falla frequenza effettiva della cpu ma dal suo bclk. Se si utilizza un bclk inferiore al default (100mhz), le prestazioni nei benchmark migliorano perche windows calcola male il tempo di sistema, ma questo vale solo per quei benchmark che si affidano all'orologio di windows tipo superpi, wprime.

Nell'encoding di un video o negli fps di un gioco non cambia nulla.

Sent from mobile

marchigiano
21-08-2013, 14:59
Da quanto scrivono sono penalizzate in downclock... ma avvantaggiate in overclock :D

;)

ma se c'è scritto overclockando le CPU, l'orologio di Windows diviene più veloce

Pat77
21-08-2013, 15:03
Da quanto scrivono sono penalizzate in downclock... ma avvantaggiate in overclock :D

;)

Eh no, "downlockando il BCLK delle CPU Intel l'orologio di Windows rallenta" quindi sono avvantaggiate se vai sotto specifica, ma sono sfavorite evidentemente se vai oltre specifica.
La domanda è: ma chi overclocca più il BCLK? Quasi nessuno.
Per imbrogliare devi andare di multi e downcloccare il BCLK sotto i 100, il problema è che io non ho mai visto Overclock estremi con questa modalità, si spingono entrambi i parametri, e se così fosse Intel ha più uno svantaggio che un beneficio da questo Bug.

marchigiano
21-08-2013, 15:06
ok capito :rolleyes:

tale "esperto di mercati e cpu" gian maria forni evidentemente non è esperto di inglese, infatti andando sulla pagina originale

http://hwbot.org/news/9824_breaking_windows_8_benchmark_results_no_longer_accepted_at_hwbot/

c'è la spiegazione:

l'orologio win8 si setta con il bclk di boot

se poi abbasso il bclk da windows l'orologio rallenta e viceversa

quindi se faccio il book a 130mhz x31, poi abbasso a 122, l'orologio va più piano, se aumento il moltiplicatore a 33 per recuperare la frequenza otterrò bench sfalsati se si basano sull'orologio di windows (ma non tutti lo fanno)

ma può succedere anche il contrario e ottenere risultati peggiori del reale, quindi nessun gombloddo è un semplice bug

Gigamez
21-08-2013, 15:08
OT

La cosa è stata introdotto dall'utente "naumakos" con questa frase "intel è stata pure condannata per atteggiamenti poco ortodossi , questa la dice lunga"
Non ho fatto altro che riportare altre questioni più datate che fanno parte della storia delle 2 case..Punto neanche mi inoltro in discussioni di diritto, anche perchè penso sia chiaro per tutti che una sentenza(in Italia poi) può voler dire tutto e nulla,ancora di più se poi non viene applicata o se è ingiusta.DI certo non mi metto a disquisire a riguardo , ne prendo atto al massimo ma non ho ne i dati ne le capacità oggettive per poter dire è intel dalla parte della ragione o viceversa. Per me chiusa qui.

Vabbè, premetto che non voglio far parte delle battaglie "di partito", ma quando leggo certe cose non posso non rispondere:

a) la sentenza non è stata Italiana, ma Europea - http://www.tomshw.it/cont/news/antitrust-ue-intel-multata-per-1-06-miliardi/18082/1.html
a questa sentenza se non sbaglio ne è seguita una in Giappone molto simile (ma probabilmente mi ricordo male)
b) 1,06 MLD di euro non è nulla per una ditta come Intel, una azienda che ai tempi del P4 vs Athlon64 (ovvero l'inizio del periodo incriminato) era in forte inferiorità tecnologica e che ha potuto beneficiare di circa 10 anni di ruberie e mafiosate certificate da sentenze legali, 10 anni che la hanno di fatto resa allo stato attuale monopolista ed "intoccabile" dalla concorrenza. E' passata dall'essere inferiore tecnologicamente, con vfendite in calo verticale ad essere monopolista, avere vagonate di soldi da investire e poter fare il prezzo che vuole sui sui componenti. La concorrenza da parte sua aveva investito moltissimo in ricerca, non potendo trarre i giusti vantaggi che si aspettava, ma dovendo svendere parti importanti ed avendo sempre meno risorse da investire. Da appassionato di tecnologia ed innovazione tuto ciò mi fa sinceramente SCHIFO. Vero che AMD ha toppato alla grande a cominciare dall'acquisto di ATI per poi andare a sviluppare il primo Phenom, ma probabilmente se avesse avuto gli incassi che legittimamente si aspettava di avere avrebbe ammortizzato meglio la fusione ed avrebbe magari sviluppato meglio il silicio del primo phenom.. CHISSA'.. :P
c) Non è vero che intel ha semplicemente sbagliato ed ormai ha pagato il giusto prezzo: una volta che sei al vertice e pieno di soldi (visti quegli anni direi soprattutto grazie a pratiche scorrette), tirare fuori una cifra del genere, una cifra nemmeno pagata a chi a subito il maggiore danno (ovvero AMD) ma pagata ai consumatori che comunque dopo tutto continuano a comprare prevalentemente Intel.. è NULLA, è solo un buffetto simpatico per dire "va bene, però non farlo più, eh!!" :P
d) Il fatto che Intel continui ad applicare pratiche scorrette è un sospetto più che legittimo, fondato soprattutto dai precedenti certi (compilatori partigiani, accordi sottobanco con la distribuzione, benchmark falsati e chi più ne ha più ne metta).
e) Riguardo a quello di cui parlavi prima durante l'era dei 486, dove AMD copiava e rimarchiava penso sia in parte vero, ma comunque la cosa era legale ed alla luce del sole, dando la possibilità a noi utenti dell'epoca di avere una scelta più ampia per quanto riguarda i prezzi di acquisto. Oggi purtroppo questa scelta si sta restringendo sempre di più: da appassionato di tecnologia e da persona attenta al portafogli tutto ciò mi rattrista e mi fa anche non poco arrabbiare (per usare un eufemismo).

fine OT

isomen
21-08-2013, 15:27
ok capito :rolleyes:

tale "esperto di mercati e cpu" gian maria forni evidentemente non è esperto di inglese, infatti andando sulla pagina originale

http://hwbot.org/news/9824_breaking_windows_8_benchmark_results_no_longer_accepted_at_hwbot/

c'è la spiegazione:

l'orologio win8 si setta con il bclk di boot

se poi abbasso il bclk da windows l'orologio rallenta e viceversa

quindi se faccio il book a 130mhz x31, poi abbasso a 122, l'orologio va più piano, se aumento il moltiplicatore a 33 per recuperare la frequenza otterrò bench sfalsati se si basano sull'orologio di windows (ma non tutti lo fanno)

ma può succedere anche il contrario e ottenere risultati peggiori del reale, quindi nessun gombloddo è un semplice bug

L'unica cosa chiara, per me, é che può essere usato per falsare il risultato di test... in favore delle cpu intel
ma ognuno può interpretarlo come vuole.

;)

isomen
21-08-2013, 15:29
OT



Vabbè, premetto che non voglio far parte delle battaglie "di partito", ma quando leggo certe cose non posso non rispondere:

a) la sentenza non è stata Italiana, ma Europea - http://www.tomshw.it/cont/news/antitrust-ue-intel-multata-per-1-06-miliardi/18082/1.html
a questa sentenza se non sbaglio ne è seguita una in Giappone molto simile (ma probabilmente mi ricordo male)
b) 1,06 MLD di euro non è nulla per una ditta come Intel, una azienda che ai tempi del P4 vs Athlon64 (ovvero l'inizio del periodo incriminato) era in forte inferiorità tecnologica e che ha potuto beneficiare di circa 10 anni di ruberie e mafiosate certificate da sentenze legali, 10 anni che la hanno di fatto resa allo stato attuale monopolista ed "intoccabile" dalla concorrenza. E' passata dall'essere inferiore tecnologicamente, con vfendite in calo verticale ad essere monopolista, avere vagonate di soldi da investire e poter fare il prezzo che vuole sui sui componenti. La concorrenza da parte sua aveva investito moltissimo in ricerca, non potendo trarre i giusti vantaggi che si aspettava, ma dovendo svendere parti importanti ed avendo sempre meno risorse da investire. Da appassionato di tecnologia ed innovazione tuto ciò mi fa sinceramente SCHIFO. Vero che AMD ha toppato alla grande a cominciare dall'acquisto di ATI per poi andare a sviluppare il primo Phenom, ma probabilmente se avesse avuto gli incassi che legittimamente si aspettava di avere avrebbe ammortizzato meglio la fusione ed avrebbe magari sviluppato meglio il silicio del primo phenom.. CHISSA'.. :P
c) Non è vero che intel ha semplicemente sbagliato ed ormai ha pagato il giusto prezzo: una volta che sei al vertice e pieno di soldi (visti quegli anni direi soprattutto grazie a pratiche scorrette), tirare fuori una cifra del genere, una cifra nemmeno pagata a chi a subito il maggiore danno (ovvero AMD) ma pagata ai consumatori che comunque dopo tutto continuano a comprare prevalentemente Intel.. è NULLA, è solo un buffetto simpatico per dire "va bene, però non farlo più, eh!!" :P
d) Il fatto che Intel continui ad applicare pratiche scorrette è un sospetto più che legittimo, fondato soprattutto dai precedenti certi (compilatori partigiani, accordi sottobanco con la distribuzione, benchmark falsati e chi più ne ha più ne metta).
e) Riguardo a quello di cui parlavi prima durante l'era dei 486, dove AMD copiava e rimarchiava penso sia in parte vero, ma comunque la cosa era legale ed alla luce del sole, dando la possibilità a noi utenti dell'epoca di avere una scelta più ampia per quanto riguarda i prezzi di acquisto. Oggi purtroppo questa scelta si sta restringendo sempre di più: da appassionato di tecnologia e da persona attenta al portafogli tutto ciò mi rattrista e mi fa anche non poco arrabbiare (per usare un eufemismo).

fine OT

Nn sarebbe stato possibile spiegarlo meglio... grazie.

;)

Pat77
21-08-2013, 15:56
Mi chiedo se in vaticano abbiano gia' iniziato le pratiche per la beatificazione :), come detto da Strato meglio non addentrarsi in pratiche cosi' strettamente legali, nessuno ha imposto ad AMD di firmare un compromesso per chiuderla li con "solo 1 miliardo di di dollari" e fino a prova contraria oggi non si possono fare accuse al vento perche' e' successo in passato, anche perche' oggi semmai viviamo in una situazione ribaltata dove FX somiglia moltissimo a P4 e l'architettura core I molto ad Athlon, per cui, non ce ne sarebbe nemmeno bisogno.

Solo una nota: questione compilatore.
Esiste un compilatore AMD, ma tutti usano quello INTEL, per quale motivo non avrebbe diritto di ottimizzarlo per i propri prodotti?

Ludus
21-08-2013, 15:59
L'unica cosa chiara, per me, é che può essere usato per falsare il risultato di test... in favore delle cpu intel
ma ognuno può interpretarlo come vuole.

;)

stai distorcendo la realtà.
fino ad ora dei test pubblicati in questo thread e delle innumerevoli diatribe negli altri sullo stesso argomento, nemmeno sono stati postati benchmark che possano beneficiare di questo glitch, tanto più che delle testate giornalistiche di sicuro non si mettono a falsificare i test delle cpu.

winebar
21-08-2013, 16:06
e) Riguardo a quello di cui parlavi prima durante l'era dei 486, dove AMD copiava e rimarchiava penso sia in parte vero, ma comunque la cosa era legale ed alla luce del sole, dando la possibilità a noi utenti dell'epoca di avere una scelta più ampia per quanto riguarda i prezzi di acquisto.

Esatto, non c'erano problemi legali perchè AMD (come Citrix e tanti altri) aveva la licenza da Intel, e (all'epoca, oggi sarebbe impossibile farlo legalmente) era possibile fare reverse engineering senza violare brevetti se avevi una licenza generica (in soldoni).
In pratica AMD prendeva il chip Intel, lo analizzava, lo ricreava (quasi) alla perfezione (AMD metteva alcune unità MMX in meno ad esempio), lo produceva nelle proprie fabbriche e lo rivendeva sugli stessi socket/slot di Intel.
E spesso AMD e altri dimostravano che le fabbriche Intel non erano sto granchè, perchè riuscivano a produrre (quasi) sempre chip quasi identici a queli Intel ma che supportavano frequenze maggiori (ovviamente anche ad un prezzo minore, che costrinse Intel a diminuire il suo listino).

Peccato solo che il periodo del socket 939 (per quanto buono per AMD) ci insegna che la massa vuole la concorrenza di AMD solo per un motivo: pagare meno i chip Intel.

winebar
21-08-2013, 16:11
stai distorcendo la realtà.

Così come la sta distorcendo l'ente più autorevole per i benchmark degli utenti che ha scoperto il problema (HwBot)? :mbe:

fino ad ora dei test pubblicati in questo thread e delle innumerevoli diatribe negli altri sullo stesso argomento, nemmeno sono stati postati benchmark che possano beneficiare di questo glitch

Ma infatti è proprio questo il problema. Non si sa quali sono i benchmark che beneficiano di questo "barbatrucco". Infatti HwBot, nel dubbio, ha deciso di invalidare in via temporanea TUTTI i risultati uppati sui loro server fatti con Windows 8 prima di capire quali sono i benchmark che hanno questi vantaggi.
L'unica azienda che si è espressa mi pare sia Futuremark.
Ma gli altri?

tanto più che delle testate giornalistiche di sicuro non si mettono a falsificare i test delle cpu.

Non apposa perlomeno. Ma involontariamente potrebbero anche farlo.

Ludus
21-08-2013, 16:26
Così come la sta distorcendo l'ente più autorevole per i benchmark degli utenti che ha scoperto il problema (HwBot)? :mbe:



Ma infatti è proprio questo il problema. Non si sa quali sono i benchmark che beneficiano di questo "barbatrucco". Infatti HwBot, nel dubbio, ha deciso di invalidare in via temporanea TUTTI i risultati uppati sui loro server fatti con Windows 8 prima di capire quali sono i benchmark che hanno questi vantaggi.
L'unica azienda che si è espressa mi pare sia Futuremark.
Ma gli altri?



Non apposa perlomeno. Ma involontariamente potrebbero anche farlo.

ma sei serio ? :doh: dalle mie parti si dice "o ci fai, o ci sei".

il mio "stai distorcendo la realtà" è riferito al fatto che Isomen considerando questo fatto come possibilità per distorcere i risultati dei bench per le cpu intel, stavo (nella mia lettura del suo post) implicitamente dicendo che non bisogna considerare più i benchmark effettuati su cpu intel perchè distorti e falsi.

i benchmark che danno un risultato invalido si sanno, sono quelli che fanno affidamento sull'orologio di sistema per determinare un punteggio.

inoltre il tutto succede con windows 8, con windows 7 non vi è tale problema dove vengono effettuata la maggioranza dei benchmark.

inoltre le testate giornalistiche di sicuro involontariamente non si mettono a fare il boot con un bclk e lo abbassano sotto windows per migliorare un benchmark :doh:

Phenomenale
21-08-2013, 16:59
Per caso il bug del clock di Windows Eight è diventato l'ennesima scorrettezza commerciale di Intel contro AMD? :sbonk:

isomen
21-08-2013, 17:04
ma sei serio ? :doh: dalle mie parti si dice "o ci fai, o ci sei".

il mio "stai distorcendo la realtà" è riferito al fatto che Isomen considerando questo fatto come possibilità per distorcere i risultati dei bench per le cpu intel, stavo (nella mia lettura del suo post) implicitamente dicendo che non bisogna considerare più i benchmark effettuati su cpu intel perchè distorti e falsi.

i benchmark che danno un risultato invalido si sanno, sono quelli che fanno affidamento sull'orologio di sistema per determinare un punteggio.

inoltre il tutto succede con windows 8, con windows 7 non vi è tale problema dove vengono effettuata la maggioranza dei benchmark.

inoltre le testate giornalistiche di sicuro involontariamente non si mettono a fare il boot con un bclk e lo abbassano sotto windows per migliorare un benchmark :doh:

Guarda, ti tolgo il dubbio sull'interpretazione di quanto ho scritto, nn guardo neanche più i benchmark di molte testate online (o almeno nn prendo per oro colato quello che scrivono), preferisco i test fatti dagli utenti dei forum... nn dico che falsificano i risultati, ma magari usano l'impostazioni o cose come quella in questione perchè una cpu dia risultati migliori o peggiori... ti faccio un esempio, al tempo dei phenom II giravano diversi test che prendevano in considerazione anche l'oc (mi sembra giusto vista la buona overclockabilità di dette cpu), écoo riesci a trovarne uno dove fosse overclockata anche la frequenza nb? Eppure per le prestazioni dei PII éra abbastanza importante... ma naturalmente questo é solo un esempio di uno convinto che anche queste cose sono strumentalizzate dagli interessi economici.

;)

Gigamez
21-08-2013, 17:11
Mi chiedo se in vaticano abbiano gia' iniziato le pratiche per la beatificazione :), come detto da Strato meglio non addentrarsi in pratiche cosi' strettamente legali, nessuno ha imposto ad AMD di firmare un compromesso per chiuderla li con "solo 1 miliardo di di dollari" e fino a prova contraria oggi non si possono fare accuse al vento perche' e' successo in passato, anche perche' oggi semmai viviamo in una situazione ribaltata dove FX somiglia moltissimo a P4 e l'architettura core I molto ad Athlon, per cui, non ce ne sarebbe nemmeno bisogno.

Solo una nota: questione compilatore.
Esiste un compilatore AMD, ma tutti usano quello INTEL, per quale motivo non avrebbe diritto di ottimizzarlo per i propri prodotti?

ti rispondo:
tralasciando la parte "provocatoria" della beatificazione (non voglio e non mi ritengo di parte, infatti ti sto scrivendo da una workstation dual Xeon assemblata e scelta pèersonalmente)..

- AMD non penso abbia "scelto" di chiuderla lì con Intel accontentandosi delle briciole: in realtà penso sia stata costretta!!! Intel con le sue pratiche illegali portate avanti indisturbatamente per almeno un decennio ha letteralmente ridotto sull'astrico la concorrenza! AMD si è trovata dal potersi permettere di comprare una azienda come ATI all'essere costretta a vendere anche le mutande per stare in piedi.. :(
Certo, avrebbe potuto portare avanti una causa ai danni di Intel dimostrando di aver subito un danno (la avrebbe vinta, ma magari avrebbe incassato tra anni e nel frattempo sarebbe fallita), oppure avrebbe potuto accontentarsi delle briciole, ingoiare il rospo e sperare nel futuro, cosa che ha fatto e sta facendo.

Ripeto, da appassionato questa storia fa schifo, e non posso fare altro che ammirare una azienda come AMD, una azienda molto più piccola che da sempre ha innovato molto più di Intel negli ultimi 10 anni, malgrado le mille difficoltà economiche. Da ricordare tutte le idee di AMD nell'area x86 sviluppate con palese low-budget, considerate da molti fallimentari sul nascere e poi riprese a suon di dollaroni da Intel e quindi successivamente considerate la rivoluzione (grazie alla ricerca finanziata adeguatamente ed al marketing aggressivo): Primo processore da 1ghz, primo quad-core nativo, primo processore con MC integrato, introduzione della L3, integrazione della GPU nella CPU sullo stesso die..

Ora, tanto per cambiare, AMD sta ancora innovando più di Intel .. persino ora che è praticamente sull'orlo del precipizio "grazie" ai magheggi marketto-ricattatori di Intel: la architettura APU usata nelle console promette qualcosa di rivoluzionario, ed il progetto di CPU modulare si affianca perfettametne con questa idea.

Scommettiamo che tra qualche tempo Intel uscirà con le stesse tecnologie, chiamate diversamente, meglio sviluppate, meglio prodotte sul suo silicio, ed ovviamente ottimizzate sottobanco per i compilatori "birichini", piazzandole su ogni pc da centro commerciale, per la gioia degli "amanti dell'hardware"? :)

Riguardo al compilatore: un conto è una ottimizzazione per la propria architettura, che sarebbe legittima, altro conto è il riconoscimento del vendor_id della cpu e la gestione diversa della esecuzione del programma basata unicamente su questa variabile. ripeto: SCHIFO.

Ogni amante ti tecnologia dovrebbe valutare tutto giò per quello che è: SCHIFO.

Phenomenale
21-08-2013, 17:13
Questo topic è da leggere con un sacchetto di popcorn in mano :sborone:

marchigiano
21-08-2013, 20:37
otot core phenom non sarebbero costati 160 euro mai!

infatti viste le prestazioni amd poteva venderlo a 300-400€ e risparmiare i soldi per la ricerca su bulldozer... :D

L'unica cosa chiara, per me, é che può essere usato per falsare il risultato di test... in favore delle cpu intel
ma ognuno può interpretarlo come vuole.

;)

si ma anche a sfavore, inoltre solo modificando il bclk da win8, già con win7 non succede... e infine solo con pochi bench, non tutti. poi se uno vuole fregare non ha certo bisogno del bug win8, si passa dalla semplice photoshoppata allo screen con i risultati al crack vero e proprio del software di benchmark...

inoltre le testate giornalistiche di sicuro involontariamente non si mettono a fare il boot con un bclk e lo abbassano sotto windows per migliorare un benchmark :doh:

per un fanboy amd tutte le testate sono comprate da intel, tutte le catene di distribuzione sono pagate da intel per vendere solo loro prodotti, tutte le software house sono pagate da intel per far andare più lentamente i software quando vedono cpu amd...

isomen
21-08-2013, 20:53
si ma anche a sfavore, inoltre solo modificando il bclk da win8, già con win7 non succede... e infine solo con pochi bench, non tutti. poi se uno vuole fregare non ha certo bisogno del bug win8, si passa dalla semplice photoshoppata allo screen con i risultati al crack vero e proprio del software di benchmark...

Marchigià potrei darti una risposta molto più lunga e argomentata, ma mi limiterò a dirti che... difendere la moralità d'intel é una battaglia persa :mc:
concentrati sulle prestazioni :D

A quest'ora mi farei volentieri una dirreta, accetti un brindisi... anche se virtuale :cincin:

;)

Gigamez
21-08-2013, 21:07
per un fanboy amd tutte le testate sono comprate da intel, tutte le catene di distribuzione sono pagate da intel per vendere solo loro prodotti, tutte le software house sono pagate da intel per far andare più lentamente i software quando vedono cpu amd...

..Secondo me molti di voi non hanno idea del controllo dell'informazione a cui il settore it è soggetto. Ovviamente non parlo x sentito dire , ma xché le cose le ho viste e vissute dall'interno di una delle più grandi aziende del settore.. Mi limito a dire questo, poi potete pensare che sia complottista o fanatico, sta a voi. Io spero sempre che su un forum come questo la gente parli spinta da passione oggettiva x la tecnologia e non come potrebbe parlare un PM di Intel o AMD.

Tornando in topic.. Ritorno a ribadire la disponibilità a testare carichi pesanti in scenari virtuali. Chi pensa ad un test semplice da preparare ed efficace? La mia ws attualmente usa hyper-v

Dimonios
21-08-2013, 21:09
stai distorcendo la realtà.
fino ad ora dei test pubblicati in questo thread e delle innumerevoli diatribe negli altri sullo stesso argomento, nemmeno sono stati postati benchmark che possano beneficiare di questo glitch, tanto più che delle testate giornalistiche di sicuro non si mettono a falsificare i test delle cpu.

I benchmark si conoscono ;)

Wprime32M
Prime95
Heaven DX11
SuperPI 32M
PiFast
Aquamark3
3DMark Ice Storm
3DMark Cloud Gate
3DMark Fire Strike

http://forum.hwbot.org/showthread.php?t=82925

winebar
21-08-2013, 22:06
ma sei serio ? :doh: dalle mie parti si dice "o ci fai, o ci sei".

Dalle mie invece si dice "segnalato per insulti". :rolleyes:

inoltre il tutto succede con windows 8, con windows 7 non vi è tale problema dove vengono effettuata la maggioranza dei benchmark.

Dove avrei detto il contrario scusa?
Anzi, ho specificato che HwBot ha deciso di non ritenere validi i risultati su Windows 8 finchè non si capisce bene di chi è la colpa, perchè, e se ci sarà qualche fix.

inoltre le testate giornalistiche di sicuro involontariamente non si mettono a fare il boot con un bclk e lo abbassano sotto windows per migliorare un benchmark :doh:

Giusto, non avevo pensato a come si verifica il bug.

Per caso il bug del clock di Windows Eight è diventato l'ennesima scorrettezza commerciale di Intel contro AMD? :sbonk:

Questo non è stato dimostrato. Bisogna capire se l'implementazione fatta da Intel nelle proprie CPU è bacata o se è proprio la MS ad aver fatto l'ennesima cavolata (e sia chiaro, non sto dicendo che sia fatto apposta).
In ogni caso IMHO nessuno dei due l'ha fatto apposta nel caso, proprio per l'atipicità del problema.

Esiste un compilatore AMD, ma tutti usano quello INTEL, per quale motivo non avrebbe diritto di ottimizzarlo per i propri prodotti?

Intel può ottimizzarlo per i propri prodotti, ma NON può, secondo le leggi di mercato, penalizzare il prodotto concorrente.
Esempio: FIAT e Subaru fanno una Joint Venture e sulla vettura che creano ci mettono un motore MultiJet, con Subaru autorizzata a fare delle modifiche.
Se la FIAT decide di immettere sul mercato un intercooler che permette di aumentare la potenza erogata di 20cv, ma decide che se la vettura su cui viene montato il pezzo aftermarket non viene rilevata come FIAT la potenza erogata non aumenta, fa un'azione scorretta.
Invece se dice "non garantiamo lo stesso aumento prestazionale su motori non 100% FIAT perchè il prodotto non è stato testato" (ed è realmente così) sta facendo una cosa corretta.

Comunque, rispondendo alla tua domanda, *molti* (e altrettanti usano quello Microsoft) usano quello Intel perchè il suo compilatore è gratuito, offre ottime performance generali, ed è ottimizzato per le CPU usate nella maggior parte di desktop e notebook.

In ogni caso, non lasciarti ingannare. Il compilatore AMD Open64 è una versione personalizzata da AMD di GCC 4.4, che non è disponibile per Windows.
E nelle distribuzioni Linux e altri OS open source si tende ad utilizzare la versione standard di GCC, sia perchè agnostica, che perchè più aggiornata (attualmente la versione stabile attuale è la 4.8). Laddove non si pò utilizzare GCC per motivi di licenza (ad esempio gran parte di BSD e Mac OS X) si usa il compilatore LLVM/Clang, sempre open source.
Per Windows mi sembra che AMD non sviluppi niente, perchè il compilatore Microsoft viene considerato decente anche per i chip AMD.
Su Linux, Mac OS X e BSD il compilatore Intel è usato di rado, un po' perchè Apple fornisce la propria versione di LLVM/Clang insieme ad Xcode, un po' perchè con BSD e Linux i sorgenti solitamente sono disponibili a tutti e gli sviluppatori usano GCC e/o LLVM/Clang.
E infatti su Linux e BSD il predominio prestazionale di Intel è notevolmente ridotto paragonando 1155/1150 e AM3+ rispetto alla stessa comparativa fatta su Windows.

infatti viste le prestazioni amd poteva venderlo a 300-400€ e risparmiare i soldi per la ricerca su bulldozer... :D

Vero, ma l'architettura K10 era alla frutta. Con Llano AMD IMHO ha tirato fuori tutto ciò che poteva da quell'architettura. Risucire ad aumentare le prestazioni clock to clock a parità di istruzioni usate era difficile.
Prima o poi anche Intel con Nehalem si troverà di fronte allo stesso problema, come ci si è trovata in passato. Solo che forse Intel il problema lo può rimandare di più visto che ad oggi nel mercato che conta di più si guarda quasi solo il consumo del sistema.

per un fanboy amd tutte le testate sono comprate da intel, tutte le catene di distribuzione sono pagate da intel per vendere solo loro prodotti, tutte le software house sono pagate da intel per far andare più lentamente i software quando vedono cpu amd...

Ma guarda, non dico che tutte le testate siano comprate da Intel (o da Nvidia), ma mi è bastato vedere delle testate che testavano Skyrim 1.3 quando la patch 1.4 era uscita da diversi mesi (quindi senza poter usare la scusa del "quando è arrivato in redazione non era ancora uscita la patch).
E per inciso, la patch 1.4 andava ad abilitare le SSE invece delle x87, che Intel stessa (che le ha create) rinnega da circa 2 lustri e che AMD in Bulldozer, proprio per la loro inutilità in un mondo in cui puoi usare le SSE e altre istruzioni SIMD, se non ricordo male ha deciso di farne una sorta di virtualizzazione per risparmiare transistor nel die.

Comunque, giusto per rispondere a tono, per i fanboy Intel non è molto diverso. Credono che 30/40/50W di TDP in più fanno una grandissima differenza in bolletta a fine mese, quando nardustyle ha dimostrato che un sistema da gioco non costa chissà quanto in termini energetici. E addirittura (per il suo sistema, ce ne saranno miglori come peggiori) CPU + Mobo + RAM rappresentano solo il 50% dell'energia usata, che equivale a circa 35€ annui. Meno di 3 € al mese. Oppure AMD che non solo è fallita, ma ha anche dichiarato bancarotta ed è in amministrazione controllata da parecchi anni e che questi chip servono solo a rientrare nei costi e pagare i debiti. :fagiano:

si ma anche a sfavore, inoltre solo modificando il bclk da win8, già con win7 non succede... e infine solo con pochi bench, non tutti. poi se uno vuole fregare non ha certo bisogno del bug win8, si passa dalla semplice photoshoppata allo screen con i risultati al crack vero e proprio del software di benchmark...

Ora, lasciando perdere che come ho detto sopra (in questo stesso post) dubito fortemente che qualcuno abbia sfruttato questo bug (perchè IMHO non ne erano a conoscenta ne Intel ne MS) la photoshoppata e il cracking del software di bench sono molto più facilmente sgamabili.

carlottoIIx6
21-08-2013, 22:37
infatti viste le prestazioni amd poteva venderlo a 300-400€ e risparmiare i soldi per la ricerca su bulldozer... :D


mi spiace che fai disinformazione.
da tom
http://www.tomshardware.com/reviews/piledriver-k10-cpu-overclocking,3584-21.html
Moving up the list, AMD's dual-module FX-4350 is typically able to outperform the company's older Phenom II X4.

con la stradeggia a moduli amd ha dato due core che invece di occupare il 200% hanno occupato il 112% o qualcosa simile.
da qui si evince che i quad moduli non sono la continuazione dei quad core, anche se haano 8 core, per questo possono essere venduti a prezzi bassi.


cut
per un fanboy amd tutte le testate sono comprate da intel, tutte le catene di distribuzione sono pagate da intel per vendere solo loro prodotti, tutte le software house sono pagate da intel per far andare più lentamente i software quando vedono cpu amd...
aspettiamo di vedere le evoluzioni ;)

Pat77
21-08-2013, 23:12
ti rispondo:
tralasciando la parte "provocatoria" della beatificazione (non voglio e non mi ritengo di parte, infatti ti sto scrivendo da una workstation dual Xeon assemblata e scelta pèersonalmente)..

- AMD non penso abbia "scelto" di chiuderla lì con Intel accontentandosi delle briciole: in realtà penso sia stata costretta!!! Intel con le sue pratiche illegali portate avanti indisturbatamente per almeno un decennio ha letteralmente ridotto sull'astrico la concorrenza! AMD si è trovata dal potersi permettere di comprare una azienda come ATI all'essere costretta a vendere anche le mutande per stare in piedi..
Certo, avrebbe potuto portare avanti una causa ai danni di Intel dimostrando di aver subito un danno (la avrebbe vinta, ma magari avrebbe incassato tra anni e nel frattempo sarebbe fallita), oppure avrebbe potuto accontentarsi delle briciole, ingoiare il rospo e sperare nel futuro, cosa che ha fatto e sta facendo.

Ripeto, da appassionato questa storia fa schifo, e non posso fare altro che ammirare una azienda come AMD, una azienda molto più piccola che da sempre ha innovato molto più di Intel negli ultimi 10 anni, malgrado le mille difficoltà economiche. Da ricordare tutte le idee di AMD nell'area x86 sviluppate con palese low-budget, considerate da molti fallimentari sul nascere e poi riprese a suon di dollaroni da Intel e quindi successivamente considerate la rivoluzione (grazie alla ricerca finanziata adeguatamente ed al marketing aggressivo): Primo processore da 1ghz, primo quad-core nativo, primo processore con MC integrato, introduzione della L3, integrazione della GPU nella CPU sullo stesso die..

Ora, tanto per cambiare, AMD sta ancora innovando più di Intel .. persino ora che è praticamente sull'orlo del precipizio "grazie" ai magheggi marketto-ricattatori di Intel: la architettura APU usata nelle console promette qualcosa di rivoluzionario, ed il progetto di CPU modulare si affianca perfettametne con questa idea.

Scommettiamo che tra qualche tempo Intel uscirà con le stesse tecnologie, chiamate diversamente, meglio sviluppate, meglio prodotte sul suo silicio, ed ovviamente ottimizzate sottobanco per i compilatori "birichini", piazzandole su ogni pc da centro commerciale, per la gioia degli "amanti dell'hardware"?

Riguardo al compilatore: un conto è una ottimizzazione per la propria architettura, che sarebbe legittima, altro conto è il riconoscimento del vendor_id della cpu e la gestione diversa della esecuzione del programma basata unicamente su questa variabile. ripeto: SCHIFO.

Ogni amante ti tecnologia dovrebbe valutare tutto giò per quello che è: SCHIFO.

Benissimo questa e' la tua opinione, la puoi anche esprimere senza scaldarti tanto.
Io la penso diversamente :D

per un fanboy amd tutte le testate sono comprate da intel, tutte le catene di distribuzione sono pagate da intel per vendere solo loro prodotti, tutte le software house sono pagate da intel per far andare più lentamente i software quando vedono cpu amd...

Come non quotarti.

Intel può ottimizzarlo per i propri prodotti, ma NON può, secondo le leggi di mercato, penalizzare il prodotto concorrente.
Esempio: FIAT e Subaru fanno una Joint Venture e sulla vettura che creano ci mettono un motore MultiJet, con Subaru autorizzata a fare delle modifiche.
Se la FIAT decide di immettere sul mercato un intercooler che permette di aumentare la potenza erogata di 20cv, ma decide che se la vettura su cui viene montato il pezzo aftermarket non viene rilevata come FIAT la potenza erogata non aumenta, fa un'azione scorretta.
Invece se dice "non garantiamo lo stesso aumento prestazionale su motori non 100% FIAT perchè il prodotto non è stato testato" (ed è realmente così) sta facendo una cosa corretta.

Comunque, rispondendo alla tua domanda, *molti* (e altrettanti usano quello Microsoft) usano quello Intel perchè il suo compilatore è gratuito, offre ottime performance generali, ed è ottimizzato per le CPU usate nella maggior parte di desktop e notebook.

In ogni caso, non lasciarti ingannare. Il compilatore AMD Open64 è una versione personalizzata da AMD di GCC 4.4, che non è disponibile per Windows.
E nelle distribuzioni Linux e altri OS open source si tende ad utilizzare la versione standard di GCC, sia perchè agnostica, che perchè più aggiornata (attualmente la versione stabile attuale è la 4.8). Laddove non si pò utilizzare GCC per motivi di licenza (ad esempio gran parte di BSD e Mac OS X) si usa il compilatore LLVM/Clang, sempre open source.
Per Windows mi sembra che AMD non sviluppi niente, perchè il compilatore Microsoft viene considerato decente anche per i chip AMD.
Su Linux, Mac OS X e BSD il compilatore Intel è usato di rado, un po' perchè Apple fornisce la propria versione di LLVM/Clang insieme ad Xcode, un po' perchè con BSD e Linux i sorgenti solitamente sono disponibili a tutti e gli sviluppatori usano GCC e/o LLVM/Clang.
E infatti su Linux e BSD il predominio prestazionale di Intel è notevolmente ridotto paragonando 1155/1150 e AM3+ rispetto alla stessa comparativa fatta su Windows.

Premesso che il mancato supporto di SSE su Cpu AMD credo che sia una ripicca per la causa persa :), certo sarebbe meglio che sviluppassero insieme un compilatore che metta sullo stesso livello entrambe le CPU. Ci guadagneremmo NOI. Ma non penso nemmeno che Intel col proprio software non possa fornire diciamo supporto premium per i suoi prodotti e basilare per gli altri. AMD col proprio software non farebbe lo stesso? Purtroppo chi pensa vi sia un'etica nella concorrenza si sbaglia di grosso.

carlottoIIx6
21-08-2013, 23:20
cut
Premesso che il mancato supporto di SSE su Cpu AMD credo che sia una ripicca per la causa persa :), certo sarebbe meglio che sviluppassero insieme un compilatore che metta sullo stesso livello entrambe le CPU. Ci guadagneremmo NOI. Ma non penso nemmeno che Intel col proprio software non possa fornire diciamo supporto premium per i suoi prodotti e basilare per gli altri. AMD col proprio software non farebbe lo stesso? Purtroppo chi pensa vi sia un'etica nella concorrenza si sbaglia di grosso.

ho sempre deplorato chi cerca di coprire i sopprusi dicendo in fondo siamo tutti gli stessi, altro non fa che essere complice dei sopprusi stessi.

marchigiano
21-08-2013, 23:23
Ritorno a ribadire la disponibilità a testare carichi pesanti in scenari virtuali. Chi pensa ad un test semplice da preparare ed efficace? La mia ws attualmente usa hyper-v

fai partire x264 benchmark 5.0, uno per macchina virtuale

Marchigià potrei darti una risposta molto più lunga e argomentata, ma mi limiterò a dirti che... difendere la moralità d'intel é una battaglia persa :mc:
concentrati sulle prestazioni :D

ma se il bug è di win8... i bench li fanno softhouse esterne, le recensioni testate indipendenti... perchè tiri sempre in ballo intel? :rolleyes:

A quest'ora mi farei volentieri una dirreta, accetti un brindisi... anche se virtuale :cincin: )

a magariiiiiii :) :)

I benchmark si conoscono ;)

Wprime32M
Prime95
Heaven DX11
SuperPI 32M
PiFast
Aquamark3
3DMark Ice Storm
3DMark Cloud Gate
3DMark Fire Strike

http://forum.hwbot.org/showthread.php?t=82925

tutta roba vecchia o poco utilizzata...

Dimonios
21-08-2013, 23:26
tutta roba vecchia o poco utilizzata...

Per gli overclocker sono al pari della Bibbia. Non puoi liquidarli così. :D

Pat77
21-08-2013, 23:29
ho sempre deplorato chi cerca di coprire i sopprusi dicendo in fondo siamo tutti gli stessi, altro non fa che essere complice dei sopprusi stessi.

Io di soprusi vedo solo quelli alla lingua italiana.
E comunque non hai capito il senso del mio intervento.
E per finire visto che e' da mesi che ce la meni con console e ottimizzazione AMD, se la pensi in quel modo, il software sara' ottimizzato per ogni architettura e cade quindi la tua grande favola divinatoria.

marchigiano
21-08-2013, 23:32
Vero, ma l'architettura K10 era alla frutta. Con Llano AMD IMHO ha tirato fuori tutto ciò che poteva da quell'architettura. Risucire ad aumentare le prestazioni clock to clock a parità di istruzioni usate era difficile.
Prima o poi anche Intel con Nehalem si troverà di fronte allo stesso problema, come ci si è trovata in passato. Solo che forse Intel il problema lo può rimandare di più visto che ad oggi nel mercato che conta di più si guarda quasi solo il consumo del sistema.

questa storia non regge, jaguar è molto più simile a k10 che a BD

intel per provare cose nuove aveva inventato netburst che fece la fine che farà BD... con core2 riprese parti di core1, P3 e Ppro... i miglioramenti sono sempre possibili e comunque ad amd non manca la potenza di calcolo ma la velocità della cache e dei prefetch, coi soldi spesi in BD poteva migliorare K10, un solo 10% in più di ipc su 32nm sarebbe andato molto meglio di BD, abbandonare am3 appena uscito fm1 avrebbe portato ulteriori benefici ma niente... :rolleyes: si vede che il ceo amd è corrotto da intel che ti devo dire :asd:

marchigiano
21-08-2013, 23:49
mi spiace che fai disinformazione.
da tom
http://www.tomshardware.com/reviews/piledriver-k10-cpu-overclocking,3584-21.html
Moving up the list, AMD's dual-module FX-4350 is typically able to outperform the company's older Phenom II X4.

ok ma il 965be è del 2009 :rolleyes: potevano almeno provare il 980 che ha 300mhz in più. conta che comunque il 965 batte il 4350 in alcuni rendering (per via della fpu condivisa), dopo 4 anni non mi sembra ci sia da vantarsene...

con la stradeggia a moduli amd ha dato due core che invece di occupare il 200% hanno occupato il 112% o qualcosa simile.
da qui si evince che i quad moduli non sono la continuazione dei quad core, anche se haano 8 core, per questo possono essere venduti a prezzi bassi.


aridai... il prezzo lo fa le prestazioni, il costo lo fa la dimensione del silicio!!!! appena uscito BD costava caro, poi hanno abbassato i prezzi perchè con quelle prestazioni non li comprava nessuno

Gigamez
21-08-2013, 23:56
Benissimo questa e' la tua opinione, la puoi anche esprimere senza scaldarti tanto.
Io la penso diversamente :D

Sono curioso conoscere un altro punto di vista argomentato da un altro amante di tecnologia quale suppongo tu sia. Se vuoi anche in privato! 😉

Ti assicuro che non mi sono scaldato x nulla. Semplicemente penso sia doveroso raccontare le cose x quello che sono state, tutto qui.

..personalmente a parte scenari lavorativi dove per forza di cose devo tenere conto anche della maturità e del supporto di una piattaforma, per uso casalingo difficilmente comprerò ancora Intel, proprio perché da appassionato penso che l'etica e gli sforzi di innovazione vadano premiati.

Recentemente ho acquistato il surface pro (basato su Intel) unicamente per il fatto di aver potuto usufruire di uno sconto tale da sentirmi pazzo se non lo avessi acquistato.. ma la mia futura piattaforma post scatolotti next gen rimarrá saldamente AMD - ATI, con la quale mi sono da sempre trovato benissimo, contrariamente alle solite leggende da bar.

Aspetto un tuo parere sulla vicenda in pvt 😊 , mosso da sincera curiosità.

Gigamez
21-08-2013, 23:59
.. il prezzo lo fa le prestazioni, il costo lo fa la dimensione del silicio!!!! appena uscito BD costava caro, poi hanno abbassato i prezzi perchè con quelle prestazioni non li comprava nessuno

Purtroppo x AMD sono totalmente d'accordo con te.. ��

Bulldozer era un progetto partito anni prima, giá posticipato troppe volte e sul quale AMD aveva giá speso troppi soldi x non provare a ricavare qualcosa.. hanno fatto una scommessa andata male invece di migliorare gli algoritmi di prefetch e le memorie del k10, che a mio parere avrebbero potuto ancora dire la loro se ulteriormente sviluppate su un silicio migliore.
Detto questo non penso l'idea di ragionare a moduli sia male, soprattutto pensando ad una vera gpu al posto della fpu condivisa, il tutto utilizzando la tecnologia hUMA che è giá realtà.

È ancora presto, ma spero che per AMD questo sia un momento di passaggio, un pó come per ATI fu il periodo delle prima schede serie HD, un preludio per una fase di vera maturità tecnologica, dove tutti i pezzi del puzzle andranno piano piano al loro posto.

Vedremo.. e speriamo x tutti! ��

marchigiano
22-08-2013, 00:49
..Secondo me molti di voi non hanno idea del controllo dell'informazione a cui il settore it è soggetto

possono controllare quello che vogliono, ma se sui forum escono risultati differenti da quelli della testata questa viene prontamente sputtanata e perde credibilità... e se guardi i test che facciamo più o meno coincidono tutti

Phenomenale
22-08-2013, 09:18
Premesso che il mancato supporto di SSE su Cpu AMD credo che sia una ripicca per la causa persa
Scusami PAT, ma non farti imbrogliare dai complottisti... :help:

La questione del compilatore Intel che non abilitava le SSE su CPU AMD è molto vecchia. E' stata scoperta nel 2010 e le nuove versioni del compilatore Intel non sono più discriminatorie. Abbiamo anche un topic ufficiale (http://www.hwupgrade.it/forum/showthread.php?t=2119003) qui su HWU che racconta questa storia del compilatore Intel, basta consultarlo! Contiene interventi anche di Capitan Crasy, quindi non è di parte "avversa". ;)

Le versioni successive al 2010 del compilatore Intel non discriminano più le CPU AMD sull' utilizzo delle SSE nelle librerie matematiche.

Testimonianza con bench segnalata da un nostro utente:
http://www.hwupgrade.it/forum/showpost.php?p=35008739&postcount=436

Però dopo 2/3 anni le lamentele di una parte dei fan's AMD continua... complotto forever... :read:

winebar
22-08-2013, 10:19
Premesso che il mancato supporto di SSE su Cpu AMD credo che sia una ripicca per la causa persa :), certo sarebbe meglio che sviluppassero insieme un compilatore che metta sullo stesso livello entrambe le CPU. Ci guadagneremmo NOI.

La cosa migliore sarebbe un ente no profit che sviluppa un compilatore a cui chiunque può partecipare.
Infatti GCC (che ricordo non è disponibile per Windows) funziona così. Un ente no profit si occupa dello sviluppo principale (la Free Software Foundation), chi vuole può partecipare senza problemi. E tra le aziende che partecipano (quelle che producono chip o progetti di chip) ci sono Intel, AMD, IBM, ARM, Qualcomm, Samsung e tanti altri.

Comunque le CPU AMD supportano le istruzioni SSE. Da Bulldozer in poi AMD ha solo deciso di rimuovere il supporto nativo a x87.

Ma non penso nemmeno che Intel col proprio software non possa fornire diciamo supporto premium per i suoi prodotti e basilare per gli altri. AMD col proprio software non farebbe lo stesso? Purtroppo chi pensa vi sia un'etica nella concorrenza si sbaglia di grosso.

Nessuno mette in dubbio che Intel possa favorire le sue CPU con un suo prodotto, ma NON può sfavorire quelle dei concorrenti.

isomen
22-08-2013, 10:38
possono controllare quello che vogliono, ma se sui forum escono risultati differenti da quelli della testata questa viene prontamente sputtanata e perde credibilità... e se guardi i test che facciamo più o meno coincidono tutti

Sei sicuro di questo :confused: :doh:

;)

Pat77
22-08-2013, 11:33
Scusami PAT, ma non farti imbrogliare dai complottisti... :help:

La questione del compilatore Intel che non abilitava le SSE su CPU AMD è molto vecchia. E' stata scoperta nel 2010 e le nuove versioni del compilatore Intel non sono più discriminatorie. Abbiamo anche un topic ufficiale (http://www.hwupgrade.it/forum/showthread.php?t=2119003) qui su HWU che racconta questa storia del compilatore Intel, basta consultarlo! Contiene interventi anche di Capitan Crasy, quindi non è di parte "avversa". ;)

Le versioni successive al 2010 del compilatore Intel non discriminano più le CPU AMD sull' utilizzo delle SSE nelle librerie matematiche.

Testimonianza con bench segnalata da un nostro utente:
http://www.hwupgrade.it/forum/showpost.php?p=35008739&postcount=436

Però dopo 2/3 anni le lamentele di una parte dei fan's AMD continua... complotto forever... :read:

Ciao Phenomenale

Ti segnalo ufficialmente perche' mi hai rovinato la risposta, hai gia' risposto tu, io mi ero preparato il terreno, con l'intervento di prima volevo dire che quando accadde la bega legale Intel per ripicca non cedette sul compilatore e che avrebbe dovuto fare come di fatto fa oggi, ma poi sei intervenuto tu, che ti devo dire, mi hai rovinato la festa :cry:

La cosa migliore sarebbe un ente no profit che sviluppa un compilatore a cui chiunque può partecipare.
Infatti GCC (che ricordo non è disponibile per Windows) funziona così. Un ente no profit si occupa dello sviluppo principale (la Free Software Foundation), chi vuole può partecipare senza problemi. E tra le aziende che partecipano (quelle che producono chip o progetti di chip) ci sono Intel, AMD, IBM, ARM, Qualcomm, Samsung e tanti altri.

Comunque le CPU AMD supportano le istruzioni SSE. Da Bulldozer in poi AMD ha solo deciso di rimuovere il supporto nativo a x87.


Intendevo dire che nel 2009 pur mettendo il flag di supporto delle SSE per processori diversi da Intel non funzionava.

Nessuno mette in dubbio che Intel possa favorire le sue CPU con un suo prodotto, ma NON può sfavorire quelle dei concorrenti.

Ha gia' risposto Phenomenale :mad: e' un problema superato, e credo sia pacifico dopo aver sborsato 2,2 MdD non avere quello stimolo a implementare in un tuo software supporto completo per prodotti concorrenti.

Gigamez
22-08-2013, 12:02
Scusami PAT, ma non farti imbrogliare dai complottisti... :help:

La questione del compilatore Intel che non abilitava le SSE su CPU AMD è molto vecchia. E' stata scoperta nel 2010 e le nuove versioni del compilatore Intel non sono più discriminatorie. Abbiamo anche un topic ufficiale (http://www.hwupgrade.it/forum/showthread.php?t=2119003) qui su HWU che racconta questa storia del compilatore Intel, basta consultarlo! Contiene interventi anche di Capitan Crasy, quindi non è di parte "avversa". ;)

Le versioni successive al 2010 del compilatore Intel non discriminano più le CPU AMD sull' utilizzo delle SSE nelle librerie matematiche.

Testimonianza con bench segnalata da un nostro utente:
http://www.hwupgrade.it/forum/showpost.php?p=35008739&postcount=436

Però dopo 2/3 anni le lamentele di una parte dei fan's AMD continua... complotto forever... :read:

Non si tratta di "complotto forever", di "beatificazione del papa per AMD" o roba simile detta provocatoriamente da te e da altri.. atteggiamenti come il tuo secondo me sono poco costruttivi per un confronto serio ed aperto, basato su cose realmente avvenute ed avendo sempre in mente come target l'evoluzione tecnologica al giusto prezzo, ovvero quello che dovrebbe interessarci più di tutte le altre cose.

Qui si parla di fatti storici certificati, il fatto che siano "VECCHI" di 3 anni fa (quando i Phenom2 dicevano eccome la loro, tanto per dirme una) c'entra poco con l'atteggiamento mafioso che Intel ha da sempre avuto con i competitor (ora che AMD è stata "debellata" Intel sta facendo la stessa cosa anche con ARM, tanto per dirne una - http://www.hwupgrade.it/forum/showpost.php?p=39730970&postcount=536 ).

.."vabbè, ma è roba vecchia": se non ci fosse stata quella "roba vecchia", forse oggi per noi appassionati e consumatori le cose sarebbero diverse, e di molto. Davvero non capisco cosa ci possa essere di così difficile da capire! :eek:

Ripeto ciò che già ho detto: lavoro ed ho lavorato nel settore: ho avuto modo di conoscere molto da vicino tra le altre aziende, anche la realtà Intel ed anche quella AMD.. non parlo per sentito dire. Nemmeno quando ho detto che non avete idea dell'influenza che certe aziende possono avere nei confronti delle testate giornalistiche.. davvero, con tutto rispetto non penso abbiate idea di come funzionino queste cose a certi livelli.. :cry:
Scrissi persino io delle cose da mandare direttamente a delle "testate giornalistiche" ed in seguito pure pubblicate integralmente, non prima di essere state rivedute e corrette dal PM di turno (no, non ho mai lavorato per AMD! :D ).. fate voi.. (ok, da qui in poi dirò di aver scritto tutto questo "per sbaglio", dirò che "non intendevo questo" e che sono stato "frainteso", inoltre sono cose vecchie di "anni fa".. :| )
Avrei sicuramente tanto da raccontare, poi potete pensare che sia solo un complottista.

Dubitate, sempre! ..per quanto mi riguarda da Intel c'è sempre da dubitare. Poi oggi come oggi fanno ottimi prodotti (ho tablet e Workstation Intel), ma il mondo di oggi è sempre diverso da come appare, sempre: tenetelo bene a mente.

Detto questo, torniamo a parlare di Hw, dai. :cool:

Pat77
22-08-2013, 13:35
Sì penso tu sia un complottista ;)
Poi puoi anche essere il cuggino di Hector Ruiz (pauraaaa!!!) ma come tu hai un ragionevole dubbio, altri possono pensare che Intel non abbia potere di influenzare tutto l'universo mondo, e che tolto il velo di complottismo e confrontando realmente le due proposte, Intel abbia un vantaggio più che altro tecnologico, e se siamo col freno a mano tirato, non è colpa degli infidi agenti Intel, non avrebbe investito sullo spostamento ai 14nm una marea di dollari, ma alla mancanza di concorrenza, che non ha a che fare con dinamiche successe 10 anni fa di cui abbiamo una sentenza e una compensazione tributaria.

carlottoIIx6
22-08-2013, 13:44
ok ma il 965be è del 2009 :rolleyes: potevano almeno provare il 980 che ha 300mhz in più. conta che comunque il 965 batte il 4350 in alcuni rendering (per via della fpu condivisa), dopo 4 anni non mi sembra ci sia da vantarsene...

hmmm ma hai visto che il 965 lo hanno portato a 4GHz?:mbe:

carlottoIIx6
22-08-2013, 13:50
Purtroppo x AMD sono totalmente d'accordo con te.. ��

Bulldozer era un progetto partito anni prima, giá posticipato troppe volte e sul quale AMD aveva giá speso troppi soldi x non provare a ricavare qualcosa.. hanno fatto una scommessa andata male invece di migliorare gli algoritmi di prefetch e le memorie del k10, che a mio parere avrebbero potuto ancora dire la loro se ulteriormente sviluppate su un silicio migliore.
Detto questo non penso l'idea di ragionare a moduli sia male, soprattutto pensando ad una vera gpu al posto della fpu condivisa, il tutto utilizzando la tecnologia hUMA che è giá realtà.

È ancora presto, ma spero che per AMD questo sia un momento di passaggio, un pó come per ATI fu il periodo delle prima schede serie HD, un preludio per una fase di vera maturità tecnologica, dove tutti i pezzi del puzzle andranno piano piano al loro posto.

Vedremo.. e speriamo x tutti! ��
BD ha permesso ad amd di dare 8 core al prezzo di quad core.
onestamente il fatto che potevano costare di più se andavano di più non è pertinete, in quando parliamo di prezzi minino raggiungibili e non di prezzi massimi. gli x8 amd come costi di produzione sono simili ai quad core e non di certo agli otto.
considerando chi pile a parità dic ore pareggia o va di più oramai con i phenom, si può dire che questo approccio ha consentito dia cere due core un più quasi gratis.

csteo
22-08-2013, 13:51
Parlando di cose vecchie e vedendo che i pro intel non imparano a guardarsi attorno mi viene male , speravo che con le CPU buone di amd questo periodo fosse finito ANNI FA(almeno qua nel forum, gli utonti è una causa persa):confused: :muro: :mc:

Sui bench per esperienza personale...guardatene almeno 4 di testate differenti prima di comprare una CPU (SI MARCHIGIANO I TEST CAMBIAVANO e l ho rilevato anche ora che guardo la cpu da prendere), idem per le schede video.:rolleyes:

Temo abbiate memoria corta , il compilatore non era l'unica denuncia ricevuta da Intel , si parlava anche di concorrenza sleale (non ricordo piu la casa di PC), ma era tipo tu HP fai solo PC con intel SE NO NON TI DO PIU LE CPU O NON TI FACCIO QUESTO SCONTO
Se ricordate bene nei PC precotti c'era solo dell e acer che aveva un po di soluzioni AMD decenti , proprio nel periodo in cui il P4 faceva "finta" di essere un processore dalle grandi prestazioni
Anche qua parlo di fatti , non voci .

Quindi sul fatto che i pro amd siano poco fiduciosi delle pratiche di intel , viene da rispondere "sai il lupo perde il pelo ma non il vizio".

Ma la cosa importante da dire è guardatevi attorno prima di comprare invece di guardare il logo (e guardate la mia firma prima di pensare che sia di parte)

Phenomenale
22-08-2013, 13:53
atteggiamenti come il tuo secondo me sono poco costruttivi per un confronto serio ed aperto
Grazie della precisazione, ho capito che postare link ed informazioni tecniche dove girano fanboy di AMD imbizzarriti è tempo sprecato. :O

A proposito, questi sono i tuoi atteggiamenti "seri ed aperti": :asd:
altro conto è il riconoscimento del vendor_id della cpu e la gestione diversa della esecuzione del programma basata unicamente su questa variabile. ripeto: SCHIFO.
Ogni amante ti tecnologia dovrebbe valutare tutto giò per quello che è: SCHIFO.

Strato1541
22-08-2013, 14:31
BD ha permesso ad amd di dare 8 core al prezzo di quad core.
onestamente il fatto che potevano costare di più se andavano di più non è pertinete, in quando parliamo di prezzi minino raggiungibili e non di prezzi massimi. gli x8 amd come costi di produzione sono simili ai quad core e non di certo agli otto.
considerando chi pile a parità dic ore pareggia o va di più oramai con i phenom, si può dire che questo approccio ha consentito dia cere due core un più quasi gratis.

Infatti ha le prestazioni più vicine ad un quad core nella maggior parte dei casi(vedi testa a testa con i5)...Poteva metterne anche 16 di core..
Sbagli anche nella tua seconda affermazione, è il mercato che fa il prezzo se è competitivo con altri prodotti sostituto è il mercato stesso che livella i prezzi in basso o in alto.
Core gratis....hahahahaha:D

isomen
22-08-2013, 15:41
Infatti ha le prestazioni più vicine ad un quad core nella maggior parte dei casi(vedi testa a testa con i5)...Poteva metterne anche 16 di core..
Sbagli anche nella tua seconda affermazione, è il mercato che fa il prezzo se è competitivo con altri prodotti sostituto è il mercato stesso che livella i prezzi in basso o in alto.
Core gratis....hahahahaha:D

E' vero che é il mercato a fare il prezzo, ma nn lo fa in base alle prestazioni reali bens' in base a quello che la gente compra... indubbiamente intel é molto brava a "vendere" le sue cpu, c'é chi riesce a fregarsene dei metodi che usa... e chi no.

;)

isomen
22-08-2013, 15:50
Grazie della precisazione, ho capito che postare link ed informazioni tecniche dove girano fanboy di AMD imbizzarriti è tempo sprecato. :O

A proposito, questi sono i tuoi atteggiamenti "seri ed aperti": :asd:

Se per te il comportamento d'intel descritto da Gigamez (sui cui esistono documentazioni che puoi facilmente reperire in rete) é normale... capisco perchè il mondo va così male, se invece intendi che nn éra il posto giusto per parlare di certe cose in parte posso darti ragione... ma nn é che in un forum d'informatica un minomo di moralità faccia male.

;)

Gigamez
22-08-2013, 15:54
Grazie della precisazione, ho capito che postare link ed informazioni tecniche dove girano fanboy di AMD imbizzarriti è tempo sprecato. :O

A proposito, questi sono i tuoi atteggiamenti "seri ed aperti": :asd:

ok, vogliamo portare la discussione alle solite cose inutili? :cry:

..non mi ritengo proprio un fanboy AMD sfegatato.. e proprio perchè spero e penso che il tuo modo arrogante e saccente non confermato dai fatti sia solamente il pessimo risultato di una brufolosa tempesta ormonale-pre-adolescenziale ti degno ancora una volta di un'ultima risposta:
vai a vedere il thread apposito qui sul forum, dove ti spiega esattamente cosa è successo con il compilatore e cosa ha fatto Intel al riguardo, poi ne parliamo: http://www.hwupgrade.it/forum/showthread.php?t=2119003 .

Aggiungo questo articolo (lo trovi nel thread sopra citato) targato 2008: http://arstechnica.com/gadgets/2008/07/atom-nano-review/6/ - per non dimenticare lo SCHIFO (e lo ribadisco) poi certificato da sentenze legali.

Una volta che per la prima volta avrai letto il thread e sarai giunto alla limpida conclusione che Intel modificava il flusso di esecuzione dei programmi compilati in base all' ID_Vendor (il che non è ottimizzazione, ma discriminazione: la cosa è illegale), allora capirai perchè io ho scritto cose vere (il punto di partenza da cui trarre ispirazione per un confronto aperto) e tu invece continui ad arroccarti su posizioni indifendibili, giustificate da una ignoranza cieca, esposta in maniera arrogante ed insinuatoria, come se tutti gli altri che contrariamente a te cercano di informarsi veramente mossi dalla passione per la tecnologia siano dei semplici citrulli.

ripeto: torniamo a parlare di Hw? :)

Gigamez
22-08-2013, 15:58
Infatti ha le prestazioni più vicine ad un quad core nella maggior parte dei casi(vedi testa a testa con i5)...Poteva metterne anche 16 di core..
Sbagli anche nella tua seconda affermazione, è il mercato che fa il prezzo se è competitivo con altri prodotti sostituto è il mercato stesso che livella i prezzi in basso o in alto.
Core gratis....hahahahaha:D

Purtroppo a mio parere AMD ha per ora fallito con il progetto Bulldozer: l'idea era proprio quella di poter offrire dei core reali a metà prezzo, ma l'area di silicio occupata è ancora troppo grande, ed anche se al pubblico vengono proposti ad un prezzo sicuramente interessante, per AMD questa cosa non è certo positiva: un conto è il prezzo al pubblico, un altro sono i costi di produzione (fortemente dipendenti appunto dall'area occupata) :(

speriamo nel futuro: per me l'idea è ottima (soprattutto in chiave hUMA), ma è ancora troppo acerba.

carlottoIIx6
22-08-2013, 16:59
Purtroppo a mio parere AMD ha per ora fallito con il progetto Bulldozer: l'idea era proprio quella di poter offrire dei core reali a metà prezzo, ma l'area di silicio occupata è ancora troppo grande, ed anche se al pubblico vengono proposti ad un prezzo sicuramente interessante, per AMD questa cosa non è certo positiva: un conto è il prezzo al pubblico, un altro sono i costi di produzione (fortemente dipendenti appunto dall'area occupata) :(

speriamo nel futuro: per me l'idea è ottima (soprattutto in chiave hUMA), ma è ancora troppo acerba.

siamo a 32 nm contro 22nm e piledrive ha un sacco di chache che magari nei desktop non è sfruttata, sono cpu sever dove tutto questo invece serve.
penso che amd stia competendo con intel solo grazie alla sua archtettura, poichè il processo produttivo, anche se migliore del 32 nm intel, è ancora indietro.

tra l'altro questo giudizio, sempre a mio avviso è su base software, le cpu amd sono ancora sottosfruttate.

se ti basi sulle opportunità di mettere sul emrcato cpu troppo avanti per essere capite posso anche darti ragione, ma se invece pensi che l'architettura non sia buona, sono felice, di darti torto ;)

ti dico solo questo, steam sarà molto più vicino ad un x8 di pile e si prevedono incrementi di ipc e frequenze.
inoltre escavator avrà incrementi di ipc notevoli.
tutto ciò unito ad huma e al fatto che BD converge nella spuer apu la dice lunga sul futuro di amd.
non per niente dentro le console c'è un apu, e addirittura in quella PS4 con huma.

Gigamez
22-08-2013, 17:33
Ciao Carlotto,
non sto dicendo che l'architettura a livello teorico sia fallimentare, tutt'altro: la modularità dei core è perfetta in ottica APU, dove la FPU sarà sostituita da una vera GPU con memoria unificata!
Purtroppo ora come ora però possiamo solo sperare in evoluzioni, perchè durante questa fase di passaggio (necessaria), non abbiamo ne hUMA nè di conseguenza una vera APU (Con GPU al posto delle FPUs).
I moduli di bulldozer sono sì più piccoli rispetto a due core "classici", ma devono necessariamente avere degli algoritmi di prefetch che tengano conto anche della condivisione delle risorse.
Onestamente non so quanti stadi di pipeline abbia Bulldozer (ma viste le frequenze che raggiunge in OC estremi direi tanti): è molto probabile che soffra moltissimo in caso di cache miss. Intel in questo caso ci "mette una pezza" con l'SMT (a mio parere una eccellente idea per massimizzare l'uso del silicio), ed AMD cosa fa in questo senso? Fino ad ora con un "bulldozer" castrato (non ancora APU) aumenta solo le probabilità che un flusso di microistruzioni venga interrotto, aumentando la probabilità di miss (per questo la cache ENORME, altro che server) e proprio perchè le risorse sono condivise e non sempre disponibili quando serve. A mio parere gli algoritmi di previsione che usa AMD devono assolutamente migliorare, e dovevano migliorare già dai tempi del k10, magari integrando un SMT, fondamentale in architetture con molte pipelines (per questo l'HT fu introdotto nel p4).

A livello di performance pure e semplici, se avessero investito le poche risorse economiche rimaste per sviluppare meglio ciò che già avevano su K10 ed avessero affinato meglio il silicio insieme a GF (invece di spendere moltissimo per sviluppare una nuova architettura, fino ad ora ancora molto acerba seppur con prospettive rivoluzionarie) a mio parere avrebbero sicuramente tirato fuori qualcosa di più competitivo sull'immediato. Purtroppo AMD non ha abbastanza soldi per pensare al momento ed al futuro: ha scelto di investire sul futuro e stringere i denti sull'immadiato: avrà fatto bene? Forse la scelta fatta da Sony e MS potrebbe dirci di si, ma vedremo..

Per come la vedo io, inoltre, l'abbandono di AM3+ è inevitabile: è chiaro come i benefici di una architettura modulare siano non solo quelli di condividere le unità in virgola mobile (e risparmiare uno spazio che fino ad ora non è nemmeno poi così tanto), ma soprattutto per unire cpu+gpu ed incrementare quindi la potenza di calcolo a parità di consumo/superficie (grazie alle nuove tecnologie di accesso alla memoria che sono già realtà).. Per questo vedo in un futuro qualcosa di più simile ad un FM3, piuttosto che un am4.. :)

Pat77
22-08-2013, 19:46
Torniamo IT please, se volete continuare con quei discorsi chiedete al MOD una sezione complotti apposita :)

carlottoIIx6
22-08-2013, 20:19
Ciao Carlotto,
non sto dicendo che l'architettura a livello teorico sia fallimentare, cut

ti rispindo in privato per non fare ot

isomen
22-08-2013, 22:00
Torniamo IT please, se volete continuare con quei discorsi chiedete al MOD una sezione complotti apposita :)

Siamo ot qui come in altri thread... e lo sai bene, per coerenza io avrei evitato di dirlo.

;)

Pat77
22-08-2013, 23:12
Siamo ot qui come in altri thread... e lo sai bene, per coerenza io avrei evitato di dirlo.

;)

Coerenza rispetto a cosa, siamo OT altrove ma si parla di HW, non di complotti e cause legali di 5 anni fa.

Mister D
22-08-2013, 23:18
Sì penso tu sia un complottista ;)
Poi puoi anche essere il cuggino di Hector Ruiz (pauraaaa!!!) ma come tu hai un ragionevole dubbio, altri possono pensare che Intel non abbia potere di influenzare tutto l'universo mondo, e che tolto il velo di complottismo e confrontando realmente le due proposte, Intel abbia un vantaggio più che altro tecnologico, e se siamo col freno a mano tirato, non è colpa degli infidi agenti Intel, non avrebbe investito sullo spostamento ai 14nm una marea di dollari, ma alla mancanza di concorrenza, che non ha a che fare con dinamiche successe 10 anni fa di cui abbiamo una sentenza e una compensazione tributaria.

Ciao Pat,
ma scusa scrivendo così cosa vuoi dire? Che tutti gli organi antitrust del mondo si sono sbagliati a punire intel per concorrenza sleale? Che intel ha pagato per beneficenza amd come risultato di un accordo extragiudiziale? Cioè a volte penso proprio che quando scrivi in privato dici una cosa e quando scrivi sul forum scrivi il contrario. Mah:(
Ps. non mi hai mai risposto alla mail che ti mandai con il pdf dell'accordo extragiudiziale tra amd e intel dove di vede benissimo (è scritto nero su bianco) che se intel scende di share il punto 2 dell'accordo decade e in soldini intel può iniziare nuovamente a "ungere" gli OEM per non produrre pc assemblati con cpu amd. Dai voglio proprio vedere se hai il coraggio di dire che non è vero:
6.2. Termination of Section 2.0 Limitations. Section 2.0 shall terminate in its entirety, without the need for any further action by Intel, and shall be of no further force or effect if:

a. Intel’s microprocessor unit share of the Worldwide PC Market Segment, which includes desktop, server and mobile platforms, drops below sixty-five percent (65%) for four consecutive quarters as reported by Mercury Research in its published report entitled “PC Processors and Chip Sets Updated Edition Market Strategy and Forecast Report.” In the event that Mercury Research ceases publishing such share data during the term of this Agreement, the parties will agree in good faith on another publication to reference for such share data.

b. AMD attempts or purports to assign or transfer to any Person any right or obligation in violation of Section 9.7.

Per tutti:
http://www.mediafire.com/view/p2iqfed71b53i92/accordo_amd-intel.pdf

naumakos
22-08-2013, 23:18
La sentenza di condanna è del 2011 e non di 5 anni fa . Grazie

isomen
22-08-2013, 23:22
Coerenza rispetto a cosa, siamo OT altrove ma si parla di HW, non di complotti e cause legali di 5 anni fa.

Mettere la testa sotto il cuscino per nn sentire per me nn é una soluzione... ma te, come chiunque altro, sei libero di fare scelte diverse.

;) ciauz

carlottoIIx6
22-08-2013, 23:24
non andiamo ot seno il thread perde significato.
rimaniamo ot che è un bel argomento, tanto tutti sanno le vicende ed ognuno ha la sua idea.

Pat77
22-08-2013, 23:28
La sentenza di condanna è del 2011 e non di 5 anni fa . Grazie

Veramente e' del 2009, informarsi prima giova. Prego

Ciao Pat,
ma scusa scrivendo così cosa vuoi dire? Che tutti gli organi antitrust del mondo si sono sbagliati a punire intel per concorrenza sleale? Che intel ha pagato per beneficenza amd come risultato di un accordo extragiudiziale? Cioè a volte penso proprio che quando scrivi in privato dici una cosa e quando scrivi sul forum scrivi il contrario. Mah

:confused: :confused: in privato ti ho detto le medesime cose, e abbiamo poi discusso altro, appunto di quello che hai citato. E ricorda bene cosa ti dissi: "come ha fatto a firmare un accordo del genere" questo e' stato il mio commento. lo penso tutt'ora, ma e' forse colpa di Intel?
Riguardo alla mia frase citata ho detto semplicemente la verita', non capisco cosa ci sia da capire, Intel ha pagato in totale 2.2 MdD 1.2 ad AMD e una multa di poco piu' di 1 e la questione si e' chiusa cosi', ha sbagliato, ha pagato.
Questo influenza il mercato odierno? Secondo me no.

Pat77
22-08-2013, 23:31
Mettere la testa sotto il cuscino per nn sentire per me nn é una soluzione... ma te, come chiunque altro, sei libero di fare scelte diverse.

;) ciauz

Ma io veramente penso che la visione romanzata non ce l'ho io, comunque chiunque e' libero di valutare e pensare come crede. ;)

isomen
22-08-2013, 23:36
Veramente e' del 2009, informarsi prima giova. Prego



:confused: :confused: in privato ti ho detto le medesime cose, e abbiamo poi discusso altro, appunto di quello che hai citato. E ricorda bene cosa ti dissi: "come ha fatto a firmare un accordo del genere" questo e' stato il mio commento. lo penso tutt'ora, ma e' forse colpa di Intel?
Riguardo alla mia frase citata ho detto semplicemente la verita', non capisco cosa ci sia da capire, Intel ha pagato in totale 2.2 MdD 1.2 ad AMD e una multa di poco piu' di 1 e la questione si e' chiusa cosi', ha sbagliato, ha pagato.
Questo influenza il mercato odierno? Secondo me no.

Si... e neanche poco,
se amd nn fosse stata spinta sull'orlo del fallimento dalle poco ortodosse strategie di mercato d'intel nn sarebbe stata costretta ad accettare l'accordo con rimborso economico e se avesse avuto i giusti introiti per le sue ottime cpu dell'epoca... adesso il mercato potrebbe essere molto diverso.

;) ciauz

carlottoIIx6
22-08-2013, 23:41
Si... e neanche poco
cut
;) ciauz

nessuno vuole scordarsi il passato, ma guardare avanti sì ;)

ps mi piace più col ciauz :D

Pat77
22-08-2013, 23:42
Si... e neanche poco,
se amd nn fosse stata spinta sull'orlo del fallimento dalle poco ortodosse strategie di mercato d'intel nn sarebbe stata costretta ad accettare l'accordo con rimborso economico e se avesse avuto i giusti introiti per le sue ottime cpu dell'epoca... adesso il mercato potrebbe essere molto diverso.

;) ciauz

O poteva non cambiare una mazza ;) O senza quell'introito sarebbe fallita prima, e se non avesse acquistato ATI magari sarebbe piu' forte sia lei che ATI stessa...
Con i se si puo' dire tutto e il contrario di tutto.

Mister D
22-08-2013, 23:43
Si... e neanche poco,
se amd nn fosse stata spinta sull'orlo del fallimento dalle poco ortodosse strategie di mercato d'intel nn sarebbe stata costretta ad accettare l'accordo con rimborso economico e se avesse avuto i giusti introiti per le sue ottime cpu dell'epoca... adesso il mercato potrebbe essere molto diverso.

;) ciauz

Quoto ma Pat sembra non volerlo capire. E dire che è semplice. E il fatto più allarmante che ancora non coglie è il punto che ho citato e cioè che se intel dovesse per 4 trimestri consecutivi scendere di quota di mercato allora parte dell'accorda decadrebbe e intel sarebbe libera di riprendere le pratiche commerciali "poco ortodosse" che hanno proprio portato alla sentenza. Se non è questo un comportamento altamente scorretto, senza nessun etica e quasi "mafioso" quale lo deve essere??

Mister D
22-08-2013, 23:50
Veramente e' del 2009, informarsi prima giova. Prego



:confused: :confused: in privato ti ho detto le medesime cose, e abbiamo poi discusso altro, appunto di quello che hai citato. E ricorda bene cosa ti dissi: "come ha fatto a firmare un accordo del genere" questo e' stato il mio commento. lo penso tutt'ora, ma e' forse colpa di Intel?
Riguardo alla mia frase citata ho detto semplicemente la verita', non capisco cosa ci sia da capire, Intel ha pagato in totale 2.2 MdD 1.2 ad AMD e una multa di poco piu' di 1 e la questione si e' chiusa cosi', ha sbagliato, ha pagato.
Questo influenza il mercato odierno? Secondo me no.

Proprio questa è l'incoerenza. Tu dici che non capisci come amd possa aver accettato un simile accordo perché avrebbe meritato ben migliore rimborso in tribunale (deduzione implicita alla tua frase) e poi vieni a dire che non ha influenza con il mercato odierno? Ma non riesci proprio a cogliere che in quello che stai dicendo c'è qualcosa che non torna?

Se amd avesse avuto la capacità finanziaria per andare avanti e non accettare l'accordo avrebbe sicuramente vinto le varie cause contro intel e i giudici (o le giurie) avrebbe sentenziato ben altri verdetti che avrebbero portato più soldi nelle casse di amd. Almeno quelli che non ha potuto guadagnare quando aveva il miglior processore proprio per via delle scorrettezze perpetrate da intel. E con quei soldi in più cosa avrebbe potuto fare? Non si sa ma penso che qualche investimento in più in ricerca e sviluppo lo avrebbe fatto e sicuramente qualcosa meglio del primo Phenom e del primo Buldozer forse avremmo potuto avere.
Sinceramente non mi sembra così difficile da capire:(

isomen
23-08-2013, 00:01
O poteva non cambiare una mazza ;) O senza quell'introito sarebbe fallita prima, e se non avesse acquistato ATI magari sarebbe piu' forte sia lei che ATI stessa...
Con i se si puo' dire tutto e il contrario di tutto.

Tutto può essere, ma ti faccio un esempio...
se io entro in casa tua, ti rubo tutto e ti riduco sul lastrico, sparisco e faccio fortuna con i tuoi soldi, dopo 10 anni ritorno e ti dico... prendi questo milione di euro e goditi la vita, tanto potevi fallire comunque... per te é tutto a posto :confused:
ti offro un risarcimento e nn ho più fatto una cosa sbagliata :confused: :confused:

Il mio concetto di giustizia sarebbe un po' diverso, ma hai ragione sono ot... e forse nn solo nel thread :doh:

;) ciauz

isomen
23-08-2013, 00:04
nessuno vuole scordarsi il passato, ma guardare avanti sì ;)

ps mi piace più col ciauz :D

adesso però é minuscolo... lo dico sottovoce :asd:

;) ciauz

Pat77
23-08-2013, 00:06
Tutto può essere, ma ti faccio un esempio...
se io entro in casa tua, ti rubo tutto e ti riduco sul lastrico, sparisco e faccio fortuna con i tuoi soldi, dopo 10 anni ritorno e ti dico... prendi questo milione di euro e goditi la vita, tanto potevi fallire comunque... per te é tutto a posto :confused:
ti offro un risarcimento e nn ho più fatto una cosa sbagliata :confused: :confused:

Il mio concetto di giustizia sarebbe un po' diverso, ma hai ragione sono ot... e forse nn solo nel thread :doh:

;) ciauz

Isomen

Ma e' tutto un discorso ipotetico fatto di troppi SE, quanto poteva cambiare non lo so ne io ne te, il danno economico e' stato valutato X, da una parte hanno accettato, bon.
Poteva essere maggiore o inferiore, in fondo la quota di mercato del pre e del dopo e' sempre la stessa, e l'imbroglio riguardava alcuni soggetti non tutti.
E' l'incidenza dello stesso la nostra variabile, per te senza di esso AMD avrebbe avuto un boost concorrenziale enorme, per me se tanto recuperava un 5%.

Mister D
23-08-2013, 00:07
Tutto può essere, ma ti faccio un esempio...
se io entro in casa tua, ti rubo tutto e ti riduco sul lastrico, sparisco e faccio fortuna con i tuoi soldi, dopo 10 anni ritorno e ti dico... prendi questo milione di euro e goditi la vita, tanto potevi fallire comunque... per te é tutto a posto :confused:
ti offro un risarcimento e nn ho più fatto una cosa sbagliata :confused: :confused:

Il mio concetto di giustizia sarebbe un po' diverso, ma hai ragione sono ot... e forse nn solo nel thread :doh:

;) ciauz

Mega Quote!;)

Mister D
23-08-2013, 00:09
Isomen

Ma e' tutto un discorso ipotetico fatto di troppi SE, quanto poteva cambiare non lo so ne io ne te, il danno economico e' stato valutato X, da una parte hanno accettato, bon.
Poteva essere maggiore o inferiore, in fondo la quota di mercato del pre e del dopo e' sempre la stessa, e l'imbroglio riguardava alcuni soggetti non tutti.
E' l'incidenza dello stesso la nostra variabile, per te senza di esso AMD avrebbe avuto un boost concorrenziale enorme, per me se tanto recuperava un 5%.

Ecco adesso i conti tornano. Prima dicevi nessuna incidenza ora dici una minima incidenza. CVD.:D

Pat77
23-08-2013, 00:18
Proprio questa è l'incoerenza. Tu dici che non capisci come amd possa aver accettato un simile accordo perché avrebbe meritato ben migliore rimborso in tribunale (deduzione implicita alla tua frase) e poi vieni a dire che non ha influenza con il mercato odierno? Ma non riesci proprio a cogliere che in quello che stai dicendo c'è qualcosa che non torna?

Se amd avesse avuto la capacità finanziaria per andare avanti e non accettare l'accordo avrebbe sicuramente vinto le varie cause contro intel e i giudici (o le giurie) avrebbe sentenziato ben altri verdetti che avrebbero portato più soldi nelle casse di amd. Almeno quelli che non ha potuto guadagnare quando aveva il miglior processore proprio per via delle scorrettezze perpetrate da intel. E con quei soldi in più cosa avrebbe potuto fare? Non si sa ma penso che qualche investimento in più in ricerca e sviluppo lo avrebbe fatto e sicuramente qualcosa meglio del primo Phenom e del primo Buldozer forse avremmo potuto avere.
Sinceramente non mi sembra così difficile da capire:(

OMG
Non dedurre piu' per favore.
Io ho detto come ha fatto a firmare un accordo dove si permette al concorrente di rifare concorrenza pesante nel caso superi la quota di mercato X, con scontistiche impossibili per AMD.
Questo ho detto. E noi abbiamo parlato di questo in privato.
A parte che la vedo dura che succeda per tanti motivi diversi, uno su tutti, Intel ha prodotti migliori ora e non ha bisogno di farlo.
No, non penso abbia influenza nel mercato odierno quello che e' successo e penso anche che se non l'avesse fatto, come ho detto a Isomen, avrebbe forse guadagnato un 5% di quota di mercato, tutto da dimostrare che sarebbe stata una storia diversa poi in futuro.
Questa e' sempre stata la mia opinione, non vedo dove sia diversa da quello che abbiamo discusso tempo fa.

Pat77
23-08-2013, 00:20
Ecco adesso i conti tornano. Prima dicevi nessuna incidenza ora dici una minima incidenza. CVD.:D

Oggi.

Mi quoto:

Questo influenza il mercato odierno? Secondo me no.

Mister D
23-08-2013, 00:56
OMG
Non dedurre piu' per favore.
Io ho detto come ha fatto a firmare un accordo dove si permette al concorrente di rifare concorrenza pesante nel caso superi la quota di mercato X, con scontistiche impossibili per AMD.
Questo ho detto. E noi abbiamo parlato di questo in privato.
A parte che la vedo dura che succeda per tanti motivi diversi, uno su tutti, Intel ha prodotti migliori ora e non ha bisogno di farlo.
No, non penso abbia influenza nel mercato odierno quello che e' successo e penso anche che se non l'avesse fatto, come ho detto a Isomen, avrebbe forse guadagnato un 5% di quota di mercato, tutto da dimostrare che sarebbe stata una storia diversa poi in futuro.
Questa e' sempre stata la mia opinione, non vedo dove sia diversa da quello che abbiamo discusso tempo fa.

E no, non è così! Tu hai scritto solo come ha fatto firmare quell'accordo senza specificare alcunché e chiedendomi per favore di inviarti l'accordo. Non mi prendere per rinco per favore e il fatto che dopo avermi chiesto di inviarti il pdf in e-mail e non avermi neanche risposto lo dimostra.
E poi se credi che avesse potuto guadagnare anche solo il 5% in assenza di concorrenza sleale oggi qualcosa di diverso sarebbe stato per forza ergo l'incidenza la ha eccome e siccome rimani della tua idea, liberissimo di farlo. Non insisterò più con te, in tanto sembri essere fatto di granito:D

P.s.: non ho tenuto i messaggi privati ma sono sicuro al 99% che tu mi abbia scritto così per cui o mi rimandi il tuo vecchio messaggio o altrimenti puoi dire quello che vuoi che non cambio idea.

Pat77
23-08-2013, 01:38
E no, non è così! Tu hai scritto solo come ha fatto firmare quell'accordo senza specificare alcunché e chiedendomi per favore di inviarti l'accordo. Non mi prendere per rinco per favore e il fatto che dopo avermi chiesto di inviarti il pdf in e-mail e non avermi neanche risposto lo dimostra.
E poi se credi che avesse potuto guadagnare anche solo il 5% in assenza di concorrenza sleale oggi qualcosa di diverso sarebbe stato per forza ergo l'incidenza la ha eccome e siccome rimani della tua idea, liberissimo di farlo. Non insisterò più con te, in tanto sembri essere fatto di granito:D

P.s.: non ho tenuto i messaggi privati ma sono sicuro al 99% che tu mi abbia scritto così per cui o mi rimandi il tuo vecchio messaggio o altrimenti puoi dire quello che vuoi che non cambio idea.

Bha... che ti devo dire, il messaggio a cui ho risposto cosi' e' stato questo:



Ciao Patrick,
in pratica al punto 6.2 a) pag 14 intel dice che se il suo share scendesse sotto il 65% per 4 trimestri consecutivi allora il punto 2 decade. Cioè il punto in cui si accordano di non mettere in pratica le pratiche commerciali che hanno portato a questo accordo extragiudiziale (aggiungo io o alle varie multe degli antitrust di tutto il mondo).
Mi ricordavo male io, non parla di quota di amd, ma essendo in 2 (togliendo via) è come se dicesse se AMD supera per un anno la quota del 35%... eh eh. Che vi vuoi fare, il lupo perde il pelo ma non il vizio! Eh eh

Ciao


Dario

E tu mi dici che non era inerente quel punto? Che ti devo dire mi scrivi una cosa e ne pensi un'altra.
Io ti ho risposto in privato: "Come ha fatto a firmare un accordo del genere"
Questi sono i fatti, tira le tue conclusioni.

isomen
23-08-2013, 01:48
Bha... che ti devo dire, il messaggio a cui ho risposto cosi' e' stato questo:



E tu mi dici che non era inerente quel punto? Che ti devo dire mi scrivi una cosa e ne pensi un'altra.
Io ti ho risposto in privato: "Come ha fatto a firmare un accordo del genere"
Questi sono i fatti, tira le tue conclusioni.

Il perchè te l'abbiamo detto, ma se leggi quello che vuoi... nn possiamo farci niente.

;) ciauz

Pat77
23-08-2013, 01:57
Il perchè te l'abbiamo detto, ma se leggi quello che vuoi... nn possiamo farci niente.

;) ciauz

:confused: :confused: :confused:

Quella e' la mail a cui ho risposto, parla solo di quello, cosa dovrei leggere di diverso?
Ho risposto a quello punto. Qui non c'e' tanto da disquisire e' cosi' e basta.

Hesediel
23-08-2013, 05:30
Comunque mi sembra si stia andando off topic

Inviato dal mio LG-P500 con Tapatalk 2

carlottoIIx6
23-08-2013, 12:04
Comunque mi sembra si stia andando off topic

Inviato dal mio LG-P500 con Tapatalk 2

quoto, il topic è interessante incece la discussione intel vs amd meno.

Ludus
23-08-2013, 13:12
ho appena provato a lanciare il benchmark di tomb raider prima con prime95 in background che girava (blend test, tutti i core in affinità) e poi senza prime95 in background.

risultato

con prime95 in background min fps 38, max fps 70, avg 54,5 fps
senza prime95 in background min fps 38, max fps 80, avg 55,4 fps

i5 4670k a 4700mhz
gtx680 a 1920x1200 e impostazioni gioco come impostate da geforce experience.

ora sto scaricando un software per registrare video per documentare il tutto, tanto per aggiungere ulteriore carico sulla cpu.. visto che gli i5 non reggono bene il carico e si impallano con una applicazione in background :sofico:

vincenzo2008
23-08-2013, 13:16
ho appena provato a lanciare il benchmark di tomb raider prima con prime95 in background che girava (blend test, tutti i core in affinità) e poi senza prime95 in background.

risultato

con prime95 in background min fps 38, max fps 70, avg 54,5 fps
senza prime95 in background min fps 38, max fps 80, avg 55,4 fps

i5 4670k a 4700mhz
gtx680 a 1920x1200 e impostazioni gioco come impostate da geforce experience.

ora sto scaricando un software per registrare video per documentare il tutto, tanto per aggiungere ulteriore carico sulla cpu.. visto che gli i5 non reggono bene il carico e si impallano con una applicazione in background :sofico:

prova con crysis 3 , tomb raider non sfrutta più di 2 core

Ludus
23-08-2013, 13:18
prova con crysis 3 , tomb raider non sfrutta più di 2 core

non ce l'ho crysis 3

ho bioshock infinite (che non mi sembra abbia un benchmark integrato), sc2, css go, lol, anche questi non mi sembra abbiano un benchmark integrato.

Pat77
23-08-2013, 13:32
non ce l'ho crysis 3

ho bioshock infinite (che non mi sembra abbia un benchmark integrato), sc2, css go, lol, anche questi non mi sembra abbiano un benchmark integrato.

Bioshock Infinite ha il bench integrato, complimenti per la scelta di giochi ;)
Molto interessante quello che stai facendo, su tomb quindi nessuna influenza.

Ludus
23-08-2013, 13:53
ho un problema con il programma di registrazione video, o registro il desktop, o registro l'applicazione 3d.
conoscete un programma che registra "quello che sto vedendo io" ? nel senso che se sono sul desktop registra il desktop, se sono in gioco registra il gioco.

carlottoIIx6
23-08-2013, 14:05
ho appena provato a lanciare il benchmark di tomb raider prima con prime95 in background che girava (blend test, tutti i core in affinità) e poi senza prime95 in background.

risultato

con prime95 in background min fps 38, max fps 70, avg 54,5 fps
senza prime95 in background min fps 38, max fps 80, avg 55,4 fps

i5 4670k a 4700mhz
gtx680 a 1920x1200 e impostazioni gioco come impostate da geforce experience.

ora sto scaricando un software per registrare video per documentare il tutto, tanto per aggiungere ulteriore carico sulla cpu.. visto che gli i5 non reggono bene il carico e si impallano con una applicazione in background :sofico:

dovresti stare attento se prime 95 non va a zero quando lanci il gioco per non avere risultati falsati.

ChioSa
23-08-2013, 14:21
ho appena provato a lanciare il benchmark di tomb raider prima con prime95 in background che girava (blend test, tutti i core in affinità) e poi senza prime95 in background.

risultato

con prime95 in background min fps 38, max fps 70, avg 54,5 fps
senza prime95 in background min fps 38, max fps 80, avg 55,4 fps

i5 4670k a 4700mhz
gtx680 a 1920x1200 e impostazioni gioco come impostate da geforce experience.

ora sto scaricando un software per registrare video per documentare il tutto, tanto per aggiungere ulteriore carico sulla cpu.. visto che gli i5 non reggono bene il carico e si impallano con una applicazione in background :sofico:

mi piacerebbe partecipare anche a me a questo test, ho un 4770k nuovo di pacca, ancora a default. Scheda video gtx570 (spero non sia un problema)
come giochi pesanti che posso portare battlefield 3, gta IV (anche se questo ottimizzato malissimo di suo) e altri anche se non so quanto sfruttano il multi thread
potrebbe essere interessante aprire un nuovo thread specifico? oppure continuiamo qua? :boh:

Ludus
23-08-2013, 14:33
mi piacerebbe partecipare anche a me a questo test, ho un 4770k nuovo di pacca, ancora a default. Scheda video gtx570 (spero non sia un problema)
come giochi pesanti che posso portare battlefield 3, gta IV (anche se questo ottimizzato malissimo di suo) e altri anche se non so quanto sfruttano il multi thread
potrebbe essere interessante aprire un nuovo thread specifico? oppure continuiamo qua? :boh:

si, apriamo un altro thread.

ho provato unigine heaven 4.0. ho perso 4 fps di avg (39 fps contro 43). prime95 mi rimaneva intorno l'80%, unigine intorno al 20%.

dovremmo provare però con qualcosa che ci dia un responso a livello di tempo, ad esempio una conversione di un video standard in modo che vediamo (oltre alle performance del gioco) anche a quale velocità sta convertendo il video, altrimenti è un pò fine a se stesso se il gioco mi mantiene gli fps però l'encoding del video va 20 volte più lento del normale.

stasera vedo di trovare un video sample, intanto scarica handbrake come programma di conversione :)

se riusciamo ad utilizzare gli stessi benchmark potremmo ottenere qualcosa di comparabile.

bf3 ce l'ho come gioco, ma non installato (20Gb :eek:)
per ovviare alla differenza di performance tra le nostre vga possiamo lavorare sugli scarti % tra solo gioco e gioco+applicazione in background.

ChioSa
23-08-2013, 14:38
si, apriamo un altro thread.

ho provato unigine heaven 4.0. ho perso 4 fps di avg (39 fps contro 43). prime95 mi rimaneva intorno l'80%, unigine intorno al 20%.

dovremmo provare però con qualcosa che ci dia un responso a livello di tempo, ad esempio una conversione di un video standard in modo che vediamo (oltre alle performance del gioco) anche a quale velocità sta convertendo il video, altrimenti è un pò fine a se stesso se il gioco mi mantiene gli fps però l'encoding del video va 20 volte più lento del normale.

stasera vedo di trovare un video sample, intanto scarica handbrake come programma di conversione :)

se riusciamo ad utilizzare gli stessi benchmark potremmo ottenere qualcosa di comparabile.

bf3 ce l'ho come gioco, ma non installato (20Gb :eek:)
per ovviare alla differenza di performance tra le nostre vga possiamo lavorare sugli scarti % tra solo gioco e gioco+applicazione in background.

ok perfetto :mano: procedi tu a creare il thread?

marchigiano
23-08-2013, 14:40
non andiamo ot seno il thread perde significato.
rimaniamo ot che è un bel argomento, tanto tutti sanno le vicende ed ognuno ha la sua idea.

quoto

si, apriamo un altro thread.

ho provato unigine heaven 4.0. ho perso 4 fps di avg (39 fps contro 43). prime95 mi rimaneva intorno l'80%, unigine intorno al 20%.

dovremmo provare però con qualcosa che ci dia un responso a livello di tempo, ad esempio una conversione di un video standard in modo che vediamo (oltre alle performance del gioco) anche a quale velocità sta convertendo il video, altrimenti è un pò fine a se stesso se il gioco mi mantiene gli fps però l'encoding del video va 20 volte più lento del normale.


ottima idea, però direi di restare su x264 e crysis 3, magari ce lo troviamo usato a poco

ChioSa
23-08-2013, 14:43
quoto



ottima idea, però direi di restare su x264 e crysis 3, magari ce lo troviamo usato a poco

viene 20€ su origin :) https://www.origin.com/it-it/store/buy/crysis-3/pc-download/base-game/standard-edition

Pat77
23-08-2013, 15:00
Per me va benissimo, si potrebbe anche chiudere questo che ha avuto la funzione di stimolatore sull'argomento e trasferirci altrove, anche perchè metà 3d è off topic e difficilmente leggibile.

isomen
23-08-2013, 15:00
ho appena provato a lanciare il benchmark di tomb raider prima con prime95 in background che girava (blend test, tutti i core in affinità) e poi senza prime95 in background.

risultato

con prime95 in background min fps 38, max fps 70, avg 54,5 fps
senza prime95 in background min fps 38, max fps 80, avg 55,4 fps

i5 4670k a 4700mhz
gtx680 a 1920x1200 e impostazioni gioco come impostate da geforce experience.

ora sto scaricando un software per registrare video per documentare il tutto, tanto per aggiungere ulteriore carico sulla cpu.. visto che gli i5 non reggono bene il carico e si impallano con una applicazione in background :sofico:

Visto che costa il doppio di un 6300 nn mi sembra un gran risultato, io sono limitato dal monitor a 1680x1050 ma...

benchmark tomb raider:
http://img541.imageshack.us/img541/2461/13ie.jpg (http://imageshack.us/photo/my-images/541/13ie.jpg/) Uploaded with ImageShack.us (http://imageshack.us)


benchmark tomb raider più prime95:
http://img823.imageshack.us/img823/7121/3qdf.jpg (http://imageshack.us/photo/my-images/823/3qdf.jpg/) Uploaded with ImageShack.us (http://imageshack.us)

;) ciauz

marchigiano
23-08-2013, 15:08
http://www.hwupgrade.it/forum/showthread.php?p=39865810#post39865810

si va?

Ludus
23-08-2013, 15:23
Visto che costa il doppio di un 6300 nn mi sembra un gran risultato, io sono limitato dal monitor a 1680x1050 ma...

benchmark tomb raider:
http://img541.imageshack.us/img541/2461/13ie.jpg (http://imageshack.us/photo/my-images/541/13ie.jpg/) Uploaded with ImageShack.us (http://imageshack.us)


benchmark tomb raider più prime95:
http://img823.imageshack.us/img823/7121/3qdf.jpg (http://imageshack.us/photo/my-images/823/3qdf.jpg/) Uploaded with ImageShack.us (http://imageshack.us)

;) ciauz

Ma se hai perso più fps di me, dove sarebbe il tuo gran risultato?



Inviato dal mio GT-I9300 usando Tapatalk 4

Ludus
23-08-2013, 15:24
http://www.hwupgrade.it/forum/showthread.php?p=39865810#post39865810

si va?

Come detto non ho crysis 3 e non mi metto a spendere 20 € su un gioco che non mi piace.

Trova un test standard gratuitamente scaricabile.

Inviato dal mio GT-I9300 usando Tapatalk 4

marchigiano
23-08-2013, 15:31
Come detto non ho crysis 3 e non mi metto a spendere 20 € su un gioco che non mi piace.

Trova un test standard gratuitamente scaricabile.

Inviato dal mio GT-I9300 usando Tapatalk 4

x264+cinebench?

Ludus
23-08-2013, 15:36
x264+cinebench?

Si può andare, testerei anche un unigine heaven+x264 e per concludere un x264+heaven+cinebench

Si fanno prima i benchmark singoli e poi in simultanea e si vede su ognuno quanto si è perso.

Inviato dal mio GT-I9300 usando Tapatalk 4