PDA

View Full Version : Processori e gaming, analisi.


Pagine : 1 [2] 3 4 5 6 7 8

okorop
11-10-2013, 00:17
Si ma gli fx non c'azzeccano nulla se parlate entrambi di mantle in riferimento alle cpu amd, casomai le prossime radeon ne beneficeranno.

Mantle sfrutterà otto core nei giochi quindi ne beneficeranno anche gli fx, guarda quello che ha detto Rajan alla presentazione :) ....

sgrinfia
11-10-2013, 09:28
Mantle sfrutterà otto core nei giochi quindi ne beneficeranno anche gli fx, guarda quello che ha detto Rajan alla presentazione :) ....

Si ahi ragione Rajan la detto!:cool:

animeserie
11-10-2013, 09:29
come fai ad arrivare a 4ghz col molti bloccato?

Si può.
Esempio il mio 3370 (liscio) arriva fino a 4.1Ghz. il moltiplicatore degli i7 non-K arriva infatti fino a 41.
Con un leggero blck (105mhz) becco 4.3Ghz senza problemi rock solid.
:)
Poi credo dipenda dai modelli. Ad esempio l'i3-3220 della mia ragazza non si schioda dal molti 33x

Lan_Di
11-10-2013, 10:05
Ho sotto mano un 2630qm, lato cpu ha poco da invidiare ad un i5 2300 ;)
L'unica pecca è la scheda video, ma come cpu è un piccolo mostro.

Guarda è la stessa cpu che ho nel mio portatile, ma quando sto eseguendo più task contemporaneamente, tipo aggiornamento di sistema, scansione antivirus e navigazione web , il notebook arranca un po' anche se settato ad alte prestazioni.

Nello stesso scenario il pc desktop è più responsivo, probabilmente perchè l' i7 quando lavora in multitasking abbassa sensibilmente le frequenze operative.

RedPrimula
11-10-2013, 12:01
Mantle sfrutterà otto core nei giochi quindi ne beneficeranno anche gli fx, guarda quello che ha detto Rajan alla presentazione :) ....
Allora pardon, ben venga comunque :D

Il nabbo di turno
11-10-2013, 15:35
Guarda è la stessa cpu che ho nel mio portatile, ma quando sto eseguendo più task contemporaneamente, tipo aggiornamento di sistema, scansione antivirus e navigazione web , il notebook arranca un po' anche se settato ad alte prestazioni.

Nello stesso scenario il pc desktop è più responsivo, probabilmente perchè l' i7 quando lavora in multitasking abbassa sensibilmente le frequenze operative.

Quello è un altro discorso, se non sbaglio il 2630qm consuma 45w contro i 95 della sua versione desktop.
Poi se si lavora di st ha un turbo che lo porta fino a 2.9 ghz :sofico:
Se lavora di multi concordo, però ha anche l'ht che lo aiuta.
Forse viene castrato dal resto della macchina(ram a bassa frequenza, hard disk mediamente più lento, scheda video molto meno performante ecc...).

animeserie
11-10-2013, 15:45
Che discorsi..
per quel genere di multitasking (leggerissimi) non c'entra una mazza la cpu.
Ci vuole l'SSD.
Quando lo capirete ?

RedPrimula
11-10-2013, 15:46
Che discorsi..
per quel genere di multitasking (leggerissimi) non c'entra una mazza la cpu.
Ci vuole l'SSD.
Quando lo capirete ?

:cincin:

ormai si può dire che l'unico pezzo "obsoleto" rimastoci dentro i case sia l'hdd.

animeserie
11-10-2013, 15:46
Guarda è la stessa cpu che ho nel mio portatile, ma quando sto eseguendo più task contemporaneamente, tipo aggiornamento di sistema, scansione antivirus e navigazione web , il notebook arranca un po' anche se settato ad alte prestazioni.

Nello stesso scenario il pc desktop è più responsivo, probabilmente perchè l' i7 quando lavora in multitasking abbassa sensibilmente le frequenze operative.

non scomodare l'i7.
basta e avanza un SSD per ovviare a quel genere di "arrancamento". ;)
un pentium con SSD, per quel genere di utilizzo desktop, va 10 volte un i7 con disco meccanico.
L'i7 serve per lavori professionali, non per i giocattoli nè tantomeno per l'uso desktop generico.

Il nabbo di turno
11-10-2013, 15:53
non scomodare l'i7.
basta e avanza un SSD per ovviare a quel genere di "arrancamento". ;)
un pentium con SSD, per quel genere di utilizzo desktop, va 10 volte un i7 con disco meccanico.
L'i7 serve per lavori professionali, non per i giocattoli nè tantomeno per l'uso desktop generico.

Ti stimo!:D

RedPrimula
11-10-2013, 15:54
non scomodare l'i7.
basta e avanza un SSD per ovviare a quel genere di "arrancamento". ;)
un pentium con SSD, per quel genere di utilizzo desktop, va 10 volte un i7 con disco meccanico.
L'i7 serve per lavori professionali, non per i giocattoli nè tantomeno per l'uso desktop generico.

Poi dipende dal tipo di ambito professionale. Già un dual core per la programmazione in java e l'emulazione di android basta e avanza, se poi ci piazzi un ssd vola.

Il nabbo di turno
11-10-2013, 15:55
Poi dipende dal tipo di ambito professionale. Già un dual core per la programmazione in java e l'emulazione di android basta e avanza, se poi ci piazzi un ssd vola.

i3 o a10 :ciapet:

animeserie
11-10-2013, 16:03
Ti stimo!:D

Anch'io :)


i3 o a10 :ciapet:

Esattamente. Minima spesa e massima resa.
In particolare con un A10 (che va computazionalmente quasi come un i3-3220) ma allo stesso prezzo con una IGP molto superiore.

Poi dipende dal tipo di ambito professionale. Già un dual core per la programmazione in java e l'emulazione di android basta e avanza, se poi ci piazzi un ssd vola.

Ma si, basta e avanza.
A me fa ridere chi va dicendo in giro che ci vogliono minimo 8 core (anche fiacchi) per usare decentemente un PC, gaming incluso... niente di più falso
Affanculo le nuove console, che col mercato desktop non c'entrano una fava :)

affiu
11-10-2013, 17:41
Che discorsi..
per quel genere di multitasking (leggerissimi) non c'entra una mazza la cpu.
Ci vuole l'SSD.
Quando lo capirete ?

Beh rispetto il tuo discorso, ma non facciamo mischiaggi vari; cioè l'ssd velocizza il sistema in generale ,ma esistono due processi distinti:
-elaborazione di un ''dato'',nel senso più generico;
-richiamo di un ''dato'' da una memoria fisica(o da qualche altra parte), in questo caso il disco.

Il primo processo lo fa la cpu non il disco,ed il multi-task dipende dalla cpu; poi è chiaro che se uno ha la memoria fisica o il sistema sbilanciato ,influirebbe, MA in maniera minima e minore.

Io vi posso dire che ho un portatile asus(A8-4500 + 8 giga di ram) ed il lavoro elencato esposto nei post precedenti, non gli fa niente(ho fatto la prova a saturare tutta la ram, con programmi e file) e non ''arranca''(almeno come lo inteso io)....poi magari sara meno veloce certamente,ok .:)

animeserie
11-10-2013, 17:59
Beh rispetto il tuo discorso, ma non facciamo mischiaggi vari; cioè l'ssd velocizza il sistema in generale ,ma esistono due processi distinti:
-elaborazione di un ''dato'',nel senso più generico;
-richiamo di un ''dato'' da una memoria fisica(o da qualche altra parte), in questo caso il disco.

Il primo processo lo fa la cpu non il disco,ed il multi-task dipende dalla cpu; poi è chiaro che se uno ha la memoria fisica o il sistema sbilanciato ,influirebbe, MA in maniera minima e minore.

Io vi posso dire che ho un portatile asus(A8-4500 + 8 giga di ram) ed il lavoro elencato esposto nei post precedenti, non gli fa niente(ho fatto la prova a saturare tutta la ram, con programmi e file) e non ''arranca''(almeno come lo inteso io)....poi magari sara meno veloce certamente,ok .:)

Il multitask non dipende solo dalla cpu.
Se il disco HDD è troppo lento e tu stai scompattando un rar di 20 giga, stai fresco ad aspettare di poter fare qualcos'altro nel frattempo, anceh se hai la cpu della NASA a 32 core da 20 ghz ciascuno.
E poi parliamo di informatica, quindi non dimentichiamoci lo scheduler.
Che poi a me il discorso interessa fino ad un certo punto... dato che a me, con 2 SSD , Linux incluso e un i7 su "ben di dio" Z77 e 16 GB di ram gli posso dare in pasto qualunque cosa che mi fa una pippa...:p

antonioslash
11-10-2013, 18:14
edit

Pat77
16-10-2013, 12:01
http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Simulator-F1_2013-test-f1proz.jpg

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Simulator-F1_2013-test-f1_intel.jpg

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Simulator-F1_2013-test-f1_amd.jpg

Nuovo test, a voi i commenti.

animeserie
16-10-2013, 12:10
Vedendo quei grafici mi tornano in mente le scuole elementari.
La maestra, spiegandoci l'addizione, ci ripeteva sempre e ci faceva ripetere tutti in coro:
"Cambiando l'ordine degli addendi il risultato non cambia"
:D

animeserie
16-10-2013, 12:36
la serie F1 201x è da quando è uscito nel 2010 che è cosi... in 4 anni va sempre uguale, in pieno stile skyrim...


Per chi è del mestiere (come me, anche se sviluppo tutt'altro tipo di software) c'è un proverbio:
"Se funziona quanto basta, non toccar sennò si sfascia" :) :)

animeserie
16-10-2013, 15:02
come si vede il 2600k è sfruttato bene sui 4 core (circa 80%) e non supporta HT, in pratica diventa un 2500k, mentre 8350 non viene sfruttato allo stesso modo, ma a parte sfruttare 2 core al 75%, gli altri si distribuiscono quasi quasi allo stesso modo, 25-35%...
magari per evitare questa poca efficienza

I videogames non son più sviluppati in ASM dai tempi dell'Amiga 600 :)
Io la risposta alla tua affermazione (peraltro correttissima) ce l'ho ma, naturalmente, non lo dico manco sotto tortura ;)

Pat77
16-10-2013, 17:07
la serie F1 201x è da quando è uscito nel 2010 che è cosi... in 4 anni va sempre uguale, in pieno stile skyrim...

ps. un 6300 supera ampiamente i 60 fps medi e raggiunge i 60 fps minimi e fa specie non vedere grosse differenze tra 8350 o il 4300...

Io non credo sia un problema di f1 2013, ormai sono diversi test che vediamo le medesime dinamiche, nello stesso sito c'è anche una review dell'ultimo overcloccato AMD, direi che anche così tirato c'è poco da stare allegri.

vincenzo2008
16-10-2013, 17:34
quello che mi rende perplesso è come mai i phenom 2 vanno così male , perfino il fx4100 va meglio :confused:

Il nabbo di turno
16-10-2013, 18:39
quello che mi rende perplesso è come mai i phenom 2 vanno così male , perfino il fx4100 va meglio :confused:

Guarda in una review il 4100 stava al pari dell'i3 2100, quindi male non va :cool:
Diciamo che all'inizio ha fatto molta fatica, ma salendo di più in overclock, e con programmi più indirizzati per il multi thread(dove la sua architettura rulla parecchio) riesce a stare davanti al phenom.

okorop
16-10-2013, 22:53
http://uk.hardware.info/reviews/3714/3/radeon-hd-7970-and-geforce-gtx-680-tested-with-10-cpus-dirt-showdown

Pat77
16-10-2013, 23:30
guarda in altri scenari si comportano bene, non competono con gli i7, ma con gli i5 alla grande, in altri tipo questo con gli i3, diciamo 50-50 per ora, dipende dal gioco...

vero che AMD si doveva aspettare questa difficoltà nel far andare bene giochi di concezione dual-core con la sua nuova architettura, ma ormai sono passati due anni e ci attingiamo al terzo con la next-gen alle porte...

sicuramente FX-9370 non fa una bella figura, ma se permetti sarebbe ora che i programmatori si diano una bella svegliata sulla gestione della CPU, perchè il 2014 è alle porte e il cambiamento ci DEVE essere...
la stessa EPIC GAMES ha affermato che la sua sfida NEXT-GEN sarà quella di rendere i motori di gioco paralleli per "infiniti core"...

Non dico che debba essere tutto parallelizzato e non sono un programmatore, ma non vedo cosa ci sia di difficile nel far gestire 24 auto su diversi core, quando oggi è uscita una notizia dove quelli di KILLZONE su PS4 dicono che fino a 24 IA in single-player sullo scenario il gioco non subisce cali di frame (e gira a 60fps) con un SoC come Jaugar [email protected]+GCN(7870)...

Quando e se si vedranno progressi in tal senso potremo parlare di qualcosa di concreto, ora come ora non vedo motivi evidenti che indicano un cambiamento di tendenza, alla fine sono sempre piu' o meno gli stessi numeri, un pareggio nei casi piu' favorevoli con I5 e un distacco sempre e comunque da i7, un divario consistente in tutti gli altri casi.

vincenzo2008
17-10-2013, 02:05
Guarda in una review il 4100 stava al pari dell'i3 2100, quindi male non va :cool:
Diciamo che all'inizio ha fatto molta fatica, ma salendo di più in overclock, e con programmi più indirizzati per il multi thread(dove la sua architettura rulla parecchio) riesce a stare davanti al phenom.

si ma un fx 4100 dovrebbe stare in ogni caso sotto il phenom 2 , forse utilizzano qualche nuova istruzione.

vincenzo2008
17-10-2013, 10:47
http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Simulator-Gas_Guzzlers_Extreme-test-gge_proz.jpg

http://gamegpu.ru/racing-simulators-/-gonki/gas-guzzlers-extreme-test-gpu.html

okorop
17-10-2013, 10:52
http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Simulator-Gas_Guzzlers_Extreme-test-gge_proz.jpg

http://gamegpu.ru/racing-simulators-/-gonki/gas-guzzlers-extreme-test-gpu.html

Molte avvisaglie fanno pensare che si andrà sempre piu' verso lo sfruttamento massiccio delle architetture a piu' core, è una cosa che a livello di programmazione non è semplice in quanto programmare per 1 solo core è molto piu' facile e quindi ci vuole tempo....La review che ho postato è interessante in tal merito e anche i bench che hai messo....

vincenzo2008
17-10-2013, 11:01
Molte avvisaglie fanno pensare che si andrà sempre piu' verso lo sfruttamento massiccio delle architetture a piu' core, è una cosa che a livello di programmazione non è semplice in quanto programmare per 1 solo core è molto piu' facile e quindi ci vuole tempo....La review che ho postato è interessante in tal merito e anche i bench che hai messo....

cmq questo gioco non è tanto conosciuto , ma sembra avere una grafica allucinante , e cmq è bello vedere il fx 6300 andare bene nonostante lavorano a malapena solo 2 core :)

okorop
17-10-2013, 11:08
gioco che aspetto moltissimo :D
http://gamegpu.ru/images/stories/Test_GPU/strategy/Command%20%20Conquer/test/CnC%20proz.jpg

E nella gioia per gli occhi Far Cry 3 sto i7 va proprio maluccio :asd: :doh:

http://gamegpu.ru/images/stories/Test_GPU/Action/Far%20Cry%203%20v.%201.0.2/far%20cry%20proz.png

Crysis 3 sto i7 2600k alias 3770k alias 4770k (cambia poco o nulla) non se la cava assai bene....

http://gamegpu.ru/images/stories/Test_GPU/Action/Crysis%203/test/proz.jpg

okorop
17-10-2013, 11:18
no ma rendiamoci conto di questi due giochi , Gas Guzzlers e Command & Conquer , ancora oggi giochi che sfruttano a mala pena 2 core :doh: quando ci sono cpu desktop da 6 core e 12 thread ormai da anni...

Ma come mai far cry 3 va cosi male negli Intel??? :stordita:

Perchè AMD si è messa a pagare le software house per avere giochi ottimizzati? :asd: :asd: guarda anche il Cryengine 3 come va....Per quanto riguarda command è ottimizzato anche quello AMD usa il motore Forsbite 3 ...guardate come scala all'aumentare della frequenza :O

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Battlefield_4_Beta-test-bf_4_proz_2.jpg

okorop
17-10-2013, 11:29
Era ora sganciasse sti cash :D
Command ottimizzato? :stordita: ma hai visto come lavora sulla cpu :asd:

è in Alfa, bisogna aspettare ancora un po, comunque ottimizzazione sia CPU sia GPU, AMD ha entrambe....

http://imageshack.us/a/img27/3249/5j0g.th.jpg (http://imageshack.us/photo/my-images/27/5j0g.jpg/)

Da qui sapremo di piu

http://link.global.amd.com/e/es.aspx?s=2330&e=924323&elq=8d0ccb627c564d06ae4f377d9349d519

FPS con Cryengine 3 in arrivo

http://www.gamemag.it/news/crytek-annuncia-la-data-di-rilascio-di-warface_49215.html

Pat77
17-10-2013, 12:56
http://www.pcgameshardware.de/screenshots/original/2013/09/Anno_2070-pcgh.png

http://www.pcgameshardware.de/screenshots/original/2013/09/Crysis_3-pcgh.png

http://www.pcgameshardware.de/screenshots/original/2013/09/SC2HotS-pcgh.png

Aggiungo gli ultimi bench di pcghw.
Direi solito come prima e mostruoso 4770 in crysis 3 già avevo potuto verificare come Haswell renda bene in quel titolo, non credevo così bene.

animeserie
17-10-2013, 12:58
non si vedono le immagini...

carlottoIIx6
17-10-2013, 13:30
si ma un fx 4100 dovrebbe stare in ogni caso sotto il phenom 2 , forse utilizzano qualche nuova istruzione.

come il softeare avanza no :D xchè le nuove istruzioni non sono un optional ;)

carlottoIIx6
17-10-2013, 13:34
no ma rendiamoci conto di questi due giochi , Gas Guzzlers e Command & Conquer , ancora oggi giochi che sfruttano a mala pena 2 core :doh: quando ci sono cpu desktop da 6 core e 12 thread ormai da anni...

Ma come mai far cry 3 va cosi poco negli Intel rispetto altri titoli??? :stordita:
comunque sarebbe ora che mettessero almeno gli ivy-bridge questi di "gamegpu.ru"

c'è ancora chi non crede nell'ottimizzazione software e invoca la superiorità hardware a rpescindere ;)

Il nabbo di turno
17-10-2013, 14:20
si ma un fx 4100 dovrebbe stare in ogni caso sotto il phenom 2 , forse utilizzano qualche nuova istruzione.

Ti sei risposto da solo :D

marchigiano
17-10-2013, 14:49
Crysis 3 sto i7 2600k alias 3770k alias 4770k (cambia poco o nulla) non se la cava assai bene....

alias de che? 3770 e 4770 vanno sicuramente di più del 2600, senza contare che quel test è stato fatto senza la patch HT che sfrutta i core logici... guardacaso quando avvii crysis3 viene fuori una pubblicità amd grossa così :sofico: :rolleyes:

Il nabbo di turno
17-10-2013, 14:51
alias de che? 3770 e 4770 vanno sicuramente di più del 2600, senza contare che quel test è stato fatto senza la patch HT che sfrutta i core logici... guardacaso quando avvii crysis3 viene fuori una pubblicità amd grossa così :sofico: :rolleyes:

Adesso...non è che ci sia tutta questa differenza tra quelle cpu.:sofico:

okorop
17-10-2013, 14:54
alias de che? 3770 e 4770 vanno sicuramente di più del 2600, senza contare che quel test è stato fatto senza la patch HT che sfrutta i core logici... guardacaso quando avvii crysis3 viene fuori una pubblicità amd grossa così :sofico: :rolleyes:

Quando avvii Crysis 3, Bioshock Infinite, Tomb Raider, Battlefield 4, Dirt 3, Dirt Showdown e la lista è lunga......molto lunga

Non capisco sto astio contro le ottimizzazioni, non avete ancora capito che tutto si basa sull'ottimizzazione e nient'altro?

Adesso...non è che ci sia tutta questa differenza tra quelle cpu.:sofico:


ed anzi avevan mostrato che in alcuni giochi vanno anche meno i 3770k e i 4770k del 2600k :asd: quindi....

animeserie
17-10-2013, 15:03
alias de che? 3770 e 4770 vanno sicuramente di più del 2600, senza contare che quel test è stato fatto senza la patch HT che sfrutta i core logici... guardacaso quando avvii crysis3 viene fuori una pubblicità amd grossa così :sofico: :rolleyes:

patch che dava ben 27 (ventisette) frames in più sul 2600k.
Game over, tanto per cambiare

marchigiano
17-10-2013, 15:18
Quando avvii Crysis 3, Bioshock Infinite, Tomb Raider, Battlefield 4, Dirt 3, Dirt Showdown e la lista è lunga......molto lunga

Non capisco sto astio contro le ottimizzazioni, non avete ancora capito che tutto si basa sull'ottimizzazione e nient'altro?


ottimizzare è un conto, disabilitare il HT delle cpu concorrenti un altro... detto poi da chi fino a ieri criticava le ottimizzazioni intel sui giochi...

ed anzi avevan mostrato che in alcuni giochi vanno anche meno i 3770k e i 4770k del 2600k :asd: quindi....

test credibili guarda... :asd:

okorop
17-10-2013, 15:23
ottimizzare è un conto, disabilitare il HT delle cpu concorrenti un altro... detto poi da chi fino a ieri criticava le ottimizzazioni intel sui giochi...
test credibili guarda... :asd:

I giochi non sono ottimizzati Intel, non sono ottimizzati affatto sfruttano 1 core la maggior parte perchè programmare su sibngolo core è piu' semplice che parallelizzare le istruzioni e quindi gli Intel nei giochi che sfruttano pochi core con poca parallelizzazione sono avvantaggiati, ma questo scenario sta cambiando

Per quanto riguarda Crysis 3 con la patch lo scenario è diverso, ma bisogna vedere gli FX rispetto agli i5 anche considerando che, come tutti sanno, un fx costa 130 euro (i3) e un i5 (200) i7 (260-270), cosa che fa la differenza!!!!!!

Lo scrivo perchè come il Forstbite anche il Cryengine 3 sarà usato in molti giochi della prossima genrazione di giochi, perchè, non come in passato, le software house ora sfruttano 2-3 motori grafici per sviluppare la maggior parte dei loro videogiochi....

Per quanto riguarda la credibilità dei test li avevo presi da computerbase.de se li trovo li posto....Poi come sempre dipende dal parco giochi usato ;) Su 5 giochi recensiti si puo' mostrare determinate cose o determinate altre.....

animeserie
17-10-2013, 15:26
Che poi, ottimizzare che significa ?
lanciare 8 thread ? assolutamente no..
Perchè io posso lanciare 8 thread, e su 7 di essi sbatto i calcolo del fattoriale di n, per n che tende all'infinito.
Oh che bello, sta usando tutti gli 8 i core, sto gioco fa paura...

animeserie
17-10-2013, 15:27
Per quanto riguarda Crysis 3 con la patch lo scenario è diverso, ma bisogna vedere gli FX rispetto agli i5 anche considerando che, come tutti sanno, un fx costa 130 euro (i3) e un i5 (200) i7 (260-270), cosa che fa la differenza!!!!!!


La differenza di prezzo è nella piattaforma oltre che nella cpu.
se per voi basta confrontare i calcoli sintetici è un conto, e allora ben venga l'FX.
Intel ha dalla sua una piattaforma migliore, più moderna, con consumi inferiori e con prestazioni sata3/usb3 e I/O ben maggiori.
Tutto questo non ha importanza ? o semplicemtne non c'entra nulla per voi ?

okorop
17-10-2013, 15:34
La differenza di prezzo è nella piattaforma oltre che nella cpu.
se per voi basta confrontare i calcoli sintetici è un conto, e allora ben venga l'FX.
Intel ha dalla sua una piattaforma migliore, più moderna, con consumi inferiori e con prestazioni sata3/usb3 e I/O ben maggiori.
Tutto questo non ha importanza ? o semplicemtne non c'entra nulla per voi ?

ti sei contraddetto, a voi basta confrontare i calcoli sitetici e poi: Intel ha prestazioni sata 3 usb 3 maggiori.... ste differenze le noti solo con i benchmark sintetici perchè nella realtà non cambia nulla.... ;)

Che poi, ottimizzare che significa ?
lanciare 8 thread ? assolutamente no..
Perchè io posso lanciare 8 thread, e su 7 di essi sbatto i calcolo del fattoriale di n, per n che tende all'infinito.
Oh che bello, sta usando tutti gli 8 i core, sto gioco fa paura...

avere processori da 4 core e 8 threads e vederne sfruttato mezzo non è ottimizzazione prendendo il caso di Intel.....

marchigiano
17-10-2013, 15:40
Che poi, ottimizzare che significa ?
lanciare 8 thread ? assolutamente no..
Perchè io posso lanciare 8 thread, e su 7 di essi sbatto i calcolo del fattoriale di n, per n che tende all'infinito.
Oh che bello, sta usando tutti gli 8 i core, sto gioco fa paura...

:asd:

I giochi non sono ottimizzati Intel, non sono ottimizzati affatto sfruttano 1 core la maggior parte perchè programmare su sibngolo core è piu' semplice che parallelizzare le istruzioni e quindi gli Intel nei giochi che sfruttano pochi core con poca parallelizzazione sono avvantaggiati, ma questo scenario sta cambiando


giochi che sfruttano 1 core non si vedono da un pezzo... oggi minimo 4 threads

il problema nasce quando si vedono le pubblicità (the way it's meant to be played ecc...) e allora se vedi che un processore 8 core viene sfruttato appieno e un 4+4 viene sfruttato a metà qualche dubbio ti viene...


Per quanto riguarda Crysis 3 con la patch lo scenario è diverso, ma bisogna vedere gli FX rispetto agli i5 anche considerando che, come tutti sanno, un fx costa 130 euro (i3) e un i5 (200) i7 (260-270), cosa che fa la differenza!!!!!!

se porterà a un calo dei prezzi meglio

animeserie
17-10-2013, 15:56
ti sei contraddetto, a voi basta confrontare i calcoli sitetici e poi: Intel ha prestazioni sata 3 usb 3 maggiori.... ste differenze le noti solo con i benchmark sintetici perchè nella realtà non cambia nulla.... ;)


Il mio OS che parte in 5 secondi anzichè 9 a me fa molto più piacere a dire il vero.
Idem le copie di file da chiavete usb3 e HD esterni usb3, finiscono prima.



avere processori da 4 core e 8 threads e vederne sfruttato mezzo non è ottimizzazione prendendo il caso di Intel.....

No, ottimizzazione del codice è un'altra cosa, che non sempre ha a che spartire con il numero di thread correntemente utilizzata.
Perdonami, ma è il mio lavoro da una vita, credo che ne capirò qualcosa o no ?

toskano79
21-10-2013, 10:53
nessun sa come performano nel gaming i nuovi i3 haswell?
un amico mi ha chiesto di fargli un pc mini itx polivalente con uso anche gaming (non esasperato gioca solo a diablo 3 e starcraft 2), come cpu vuole tassativamente intel ma ha budget basso quindi avevo pensato ad un i3 4330 + gtx 650 che per quei due titoli va meglio di 7750 e 7770

nardustyle
21-10-2013, 10:59
nessun sa come performano nel gaming i nuovi i3 haswell?
un amico mi ha chiesto di fargli un pc mini itx polivalente con uso anche gaming (non esasperato gioca solo a diablo 3 e starcraft 2), come cpu vuole tassativamente intel ma ha budget basso quindi avevo pensato ad un i3 4330 + gtx 650 che per quei due titoli va meglio di 7750 e 7770

con gli ultimi titoli l'i3 non è tanto consigliabile

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Battlefield_4_Beta-test-bf_4_proz_2.jpg

Strato1541
21-10-2013, 13:42
con gli ultimi titoli l'i3 non è tanto consigliabile

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Battlefield_4_Beta-test-bf_4_proz_2.jpg

Allora nessuna cpu sotto il phenom 1100t lo è....

vincenzo2008
21-10-2013, 13:45
con gli ultimi titoli l'i3 non è tanto consigliabile

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Battlefield_4_Beta-test-bf_4_proz_2.jpg

per un mini itx , penso sia l'unica scelta , per amd può solo vedere le apu , alla fine vedendo i giochi che vuole utilizzare basta un 6800k senza scheda video .

nardustyle
21-10-2013, 13:59
Allora nessuna cpu sotto il phenom 1100t lo è....

difatti, se vuole un mini io punterei su un'apu o salterei all'i5 direttamente ;)

okorop
21-10-2013, 14:04
nessun sa come performano nel gaming i nuovi i3 haswell?
un amico mi ha chiesto di fargli un pc mini itx polivalente con uso anche gaming (non esasperato gioca solo a diablo 3 e starcraft 2), come cpu vuole tassativamente intel ma ha budget basso quindi avevo pensato ad un i3 4330 + gtx 650 che per quei due titoli va meglio di 7750 e 7770


Io ti consiglio di prendere una cosa del genere
scheda madre: http://it.gigabyte.com/products/page/mb/ga-f2a88xn-wifirev_30/
CPU: a10 6800k
8 GB di ddr3
Che poi puo' montare Kaveri

oppure i5 con vga dedicata

toskano79
21-10-2013, 14:23
Io ti consiglio di prendere una cosa del genere
scheda madre: http://it.gigabyte.com/products/page/mb/ga-f2a88xn-wifirev_30/
CPU: a10 6800k
8 GB di ddr3
Che poi puo' montare Kaveri

oppure i5 con vga dedicata
ma la 8670D mi sembra veramente poca cosa per giocare a quei due titoli .... e poi come avevo già scritto lui di cpu vuole x forza intel quello che mi chiedevo erano le performance di questi i3 haswell, soprattutto in confronto ai relativi pentium dual core della stessa generazione che costano la metà

Pat77
21-10-2013, 14:46
ma la 8670D mi sembra veramente poca cosa per giocare a quei due titoli .... e poi come avevo già scritto lui di cpu vuole x forza intel quello che mi chiedevo erano le performance di questi i3 haswell, soprattutto in confronto ai relativi pentium dual core della stessa generazione che costano la metà

http://pclab.pl/zdjecia/artykuly/chaostheory/2013/10/bf4_beta/charts/bf4_cpu_geforce.png

Non vanno assolutamente male, in titoli quali crysis 3 e battlefield 4 l'architettura Haswell pare sia particolarmente a suo agio. Di conseguenza ne guadagnano anche gli I3.

Il nabbo di turno
21-10-2013, 14:55
Allora, l'i3 4130 è un passettino avanti rispetto ad un 3220, è buono ma non eccelso,contando che a quella cifra ci sono gli fx 6300(non indicato per le mini itx) e gli a10 6700/6800k, che come gpu integrata è infinitamente meglio.
Se usi l'integrata dico a10, ma se no l'i3 per le mini itx è un'ottima cpu, da accoppiare ad una 7750/650 come minimo.

carlottoIIx6
21-10-2013, 16:34
Allora nessuna cpu sotto il phenom 1100t lo è....

ma se lo hai gia' agli fx gli dai un gh di clock mentre l'i3 lo devi solo vendere :D

toskano79
21-10-2013, 17:55
Allora, l'i3 4130 è un passettino avanti rispetto ad un 3220, è buono ma non eccelso,contando che a quella cifra ci sono gli fx 6300(non indicato per le mini itx) e gli a10 6700/6800k, che come gpu integrata è infinitamente meglio.
Se usi l'integrata dico a10, ma se no l'i3 per le mini itx è un'ottima cpu, da accoppiare ad una 7750/650 come minimo.
infatti i3 + gtx 650/650 Ti è proprio la configurazione che mi stava convincendo di più
basso tdp, dimensioni scheda contenute ed ottime performance con i 2 titoli in questione quindi penso che sarà la scelta definitiva

carlottoIIx6
21-10-2013, 18:02
infatti i3 + gtx 650/650 Ti è proprio la configurazione che mi stava convincendo di più
basso tdp, dimensioni scheda contenute ed ottime performance con i 2 titoli in questione quindi penso che sarà la scelta definitiva

che te en fai del tpd basso quando ti servir' potenza?

toskano79
21-10-2013, 18:06
che te en fai del tpd basso quando ti servir' potenza?
non servirà alcuna potenza particolare, non hai letto il mio primo post?
è una configurazione polivalente per un amico che deve essere tassativamente mini itx (da qui il tdp basso come necessità visto il case compattissimo che useremo) e con cui vuole anche giocare discretamente a diablo 3 e starcraft 2

Strato1541
21-10-2013, 21:03
ma se lo hai gia' agli fx gli dai un gh di clock mentre l'i3 lo devi solo vendere :D

Lo deve ancora comprare, leggi tutta la discussione per favore.
Al max giri il cacciavite , dai valà!:doh:

Il nabbo di turno
21-10-2013, 21:14
infatti i3 + gtx 650/650 Ti è proprio la configurazione che mi stava convincendo di più
basso tdp, dimensioni scheda contenute ed ottime performance con i 2 titoli in questione quindi penso che sarà la scelta definitiva

Meglio se punti ad una 7790 :D, va un po' meglio e consuma poco ;).

Il nabbo di turno
21-10-2013, 21:16
che te en fai del tpd basso quando ti servir' potenza?

Guarda amd mi sta simpatica lo ammetto, ma un fx su una mini itx è come un t-rex in una smart...
Vai di i3 o a10 6700.

toskano79
21-10-2013, 22:22
Meglio se punti ad una 7790 :D, va un po' meglio e consuma poco ;).
con quei 2 giochi va molto meno della 650 Ti
questa è una rece della boost ma ci sono le performance relative anche della 7790 e della 650 Ti normale, soprattutto su starcraft 2 c'è molta differenza

http://tpucdn.com/reviews/Inno3D/iChill_GTX_650_Ti_Boost/images/diablo3_1920_1200.gif

http://tpucdn.com/reviews/Inno3D/iChill_GTX_650_Ti_Boost/images/sc2_1920_1200.gif

Pat77
22-10-2013, 09:33
Guarda amd mi sta simpatica lo ammetto, ma un fx su una mini itx è come un t-rex in una smart...
Vai di i3 o a10 6700.

Quoto, come un i3 su un Pc ninja.

carlottoIIx6
22-10-2013, 12:31
Guarda amd mi sta simpatica lo ammetto, ma un fx su una mini itx è come un t-rex in una smart...
Vai di i3 o a10 6700.
naturalmente parlo a livello pwersonale.
anch'io voglio farmi un mini itx.
saro' previdente, ma non sacrifico la potenza. una macchiana non sai come sara' utilizzata, avere una scorta di potenza da tirare fuori all-occorrenza serve.
se no poi mi compro un'altra macchiana?
mi riviene in emnte le vecchie 500 abarth :)
io sono indeciso tra un fx o aspettare kaveri, e probabilmente aspettero'.
probabilmente kaveri unisce le varie esigenze.
poi se non si vuole potenza :D allora un apu e' piu' equilibrata imo tra cpu e gpu
il 6700 va benissimo.
edit
test fatti in casa ma comunque indicano qualcosa
http://community.amd.com/community/amd-blogs/amd/blog/2013/10/18/amd-microsoft--collaborating-for-great-performance-and-user-experience-with-windows-8

toskano79
22-10-2013, 13:27
naturalmente parlo a livello pwersonale.
anch'io voglio farmi un mini itx.
saro' previdente, ma non sacrifico la potenza. una macchiana non sai come sara' utilizzata, avere una scorta di potenza da tirare fuori all-occorrenza serve.
se no poi mi compro un'altra macchiana?

lol con questo ragionamento chiunque voglia comprare una Smart dovrebbe prendere una A6 allroad Avant
... sempre meglio avere una riserva di potenza
... eh, ma poi sempre meglio avere 3 posti in più
... eh, ma poi sempre meglio avere più bagagliaio
... eh, ma poi sempre meglio avere trazione integrale x sicurezza
... eh, ma poi sempre meglio avere un'auto che se la cavi nell'offroad

e via dicendo ..

se uno sa già che utilizzo farà del pc se lo farà calibrato per quell'uso no? altrimenti si venderebbero solo configurazioni da 2K€ per guardare i bluray e andare su facebook :D :D :asd: :asd:

Pat77
22-10-2013, 13:37
lol con questo ragionamento chiunque voglia comprare una Smart dovrebbe prendere una A6 allroad Avant
... sempre meglio avere una riserva di potenza
... eh, ma poi sempre meglio avere 3 posti in più
... eh, ma poi sempre meglio avere più bagagliaio
... eh, ma poi sempre meglio avere trazione integrale x sicurezza
... eh, ma poi sempre meglio avere un'auto che se la cavi nell'offroad

e via dicendo ..

se uno sa già che utilizzo farà del pc se lo farà calibrato per quell'uso no? altrimenti si venderebbero solo configurazioni da 2K€ per guardare i bluray e andare su facebook :D :D :asd: :asd:

Quoto. A me viene in mente Rosberry Pi, non ne venderebbero una...

carlottoIIx6
22-10-2013, 14:06
lol con questo ragionamento chiunque voglia comprare una Smart dovrebbe prendere una A6 allroad Avant
... sempre meglio avere una riserva di potenza
... eh, ma poi sempre meglio avere 3 posti in più
... eh, ma poi sempre meglio avere più bagagliaio
... eh, ma poi sempre meglio avere trazione integrale x sicurezza
... eh, ma poi sempre meglio avere un'auto che se la cavi nell'offroad

e via dicendo ..

se uno sa già che utilizzo farà del pc se lo farà calibrato per quell'uso no? altrimenti si venderebbero solo configurazioni da 2K€ per guardare i bluray e andare su facebook :D :D :asd: :asd:

ahah ma si e' combattuti.
quando non posso puntare al top punto al minimo :) per risparmiare soldi per il nuovo acquisto ecc.
io un telefonino da 20 euro. per telefonare non ci vuole un smartphone.
se prendo un telefonino da 20 euro e un tablet molto buono, rispetto agli smat piu' grandi spendo la meta'.
se uno non ha bisogno di potenza tanto vale adnare ad un mini pc gia' assemblato da 200 eurozzi, meglio se con apu kabini se si trova.
se devo spendere quanto un i3 non prenderei mai un i3. anche la storia del cosnumo e' esagerata, indatti un fx 6300 per uso htpc ad esempio non consumera' mai come quando e' in full, ma stara' in idle o poco su quasi tutto il tempo dove consuma uguale agli i3.

toskano79
22-10-2013, 14:20
anche la storia del cosnumo e' esagerata, indatti un fx 6300 per uso htpc ad esempio non consumera' mai come quando e' in full, ma stara' in idle o poco su quasi tutto il tempo dove consuma uguale agli i3.
si, però c'è un "piccolo" problema, il pc deve essere itx per scelta dell'acquirente e non ci sono mobo itx per gli fx :D

Il nabbo di turno
22-10-2013, 14:25
con quei 2 giochi va molto meno della 650 Ti
questa è una rece della boost ma ci sono le performance relative anche della 7790 e della 650 Ti normale, soprattutto su starcraft 2 c'è molta differenza

http://tpucdn.com/reviews/Inno3D/iChill_GTX_650_Ti_Boost/images/diablo3_1920_1200.gif

http://tpucdn.com/reviews/Inno3D/iChill_GTX_650_Ti_Boost/images/sc2_1920_1200.gif

Tolti quei due titoli la 7790 è sempre sopra.:D
Comunque volendo potresti puntare anche a qualcosa di più spinto(7850 o gtx 660).
Fine ot.

okorop
22-10-2013, 14:27
si, però c'è un "piccolo" problema, il pc deve essere itx per scelta dell'acquirente e non ci sono mobo itx per gli fx :D

Io in sistemi itx prenderei una apu a10 6800k con scheda madre fm2+ con possibilità di metterci su kaveri in futuro...

Il nabbo di turno
22-10-2013, 14:32
Io in sistemi itx prenderei una apu a10 6800k con scheda madre fm2+ con possibilità di metterci su kaveri in futuro...

Non penso ci sia da smanettare molto su un mini itx, io direi i3 4130+r7 260x o 7850+mobo mini itx 1150.

Pat77
22-10-2013, 16:33
Io in sistemi itx prenderei una apu a10 6800k con scheda madre fm2+ con possibilità di metterci su kaveri in futuro...

Questa sarebbe una mossa intelligente e condivisibile, ma finiamo l'off topic che qui queste questioni centrano poco o nulla ;)

vincenzo2008
30-10-2013, 17:44
fx-6300 rulleggia e io godo :D :sofico: e non è sfruttato neanche al massimo :eek:

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Battlefield_4-test-bf4_proz_2.jpg

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Battlefield_4-test-bf4_amd.jpg

HEYDOL
30-10-2013, 23:48
su Pclab pl nn se la cavan cosi bene gli fx con Bf4 magari an sbaglaito qualcosa nei test boh.

okorop
30-10-2013, 23:51
su Pclab pl nn se la cavan cosi bene gli fx con Bf4 magari an sbaglaito qualcosa nei test boh.

bisogna andare su winzoz 8.1, sul 7 non vanno un granchè.....:cry: ma che schifo di so pero' :muro:

vincenzo2008
31-10-2013, 00:01
bisogna andare su winzoz 8.1, sul 7 non vanno un granchè.....:cry: ma che schifo di so pero' :muro:

veramente gamegpu ha utilizzato windows 7 64 sp1 .

cmq pclab da sempre dei risultavi negativi sulle cpu amd , io non lo prendo più in considerazione.

nel test di gamegpu si vede che cmq un i7 4770 resta il top , quindi non penso sia un sito fanboy .

ho visto che pc lab test il multiplayer , forse li il maggiore ipc si fa sentire .

http://pclab.pl/zdjecia/artykuly/chaostheory/2013/10/bf4/charts/bf4_cpu_geforce.png

okorop
31-10-2013, 00:06
veramente gamegpu ha utilizzato windows 7 64 sp1 .

cmq pclab da sempre dei risultavi negativi sulle cpu amd , io non lo prendo più in considerazione.

nel test di gamegpu si vede che cmq un i7 4770 resta il top , quindi non penso sia un sito fanboy .

ho visto che pc lab test il multiplayer , forse li il maggiore ipc si fa sentire .


vincenzo2008 adesso lo testa lurenz con un 8350 a 5.1 e una 290x....tra poco sapremo come sono le cose ;)

Fra9212
31-10-2013, 00:08
Leggendo le varie risposte qui mi è venuto un dubbio. Premetto che devo fare un upgrade di scheda video e cpu. Pensavo di prendere l'8320+OC solo che costa circa 135€, ma vedendo da alcuni grafici in game non cambia poi così molto dall'8320 no? tanto vale risparmiare i 30€ ? Il 6300 sarebbe buono anche per i giochi futuri?tipo 3/4 anni?

vincenzo2008
31-10-2013, 00:13
Leggendo le varie risposte qui mi è venuto un dubbio. Premetto che devo fare un upgrade di scheda video e cpu. Pensavo di prendere l'8320+OC solo che costa circa 135€, ma vedendo da alcuni grafici in game non cambia poi così molto dall'8320 no? tanto vale risparmiare i 30€ ? Il 6300 sarebbe buono anche per i giochi futuri?tipo 3/4 anni?

difficile dire cosa succedere fra 4 anni :D , io per adesso ne sono super soddisfatto.

Però il fx-8320 darebbe ulteriore longevità. dipende dalle tue tasche ;)

29Leonardo
31-10-2013, 09:06
Dai grafici rilevo che se uno non vuole sbattersi con l'oc la cpu da gaming rimane il 4570.

BMWZ8
31-10-2013, 09:20
mi domando sempre, davanti a questi grafici, dove si collocherebbe un i7 920 a 4 ghz!

per me tipo con un 2600k a default


che dite?

okorop
31-10-2013, 09:38
mi domando sempre, davanti a questi grafici, dove si collocherebbe un i7 920 a 4 ghz!

per me tipo con un 2600k a default


che dite?

un po meno, va come un 2500k piu' o meno....

Pat77
31-10-2013, 09:48
veramente gamegpu ha utilizzato windows 7 64 sp1 .

cmq pclab da sempre dei risultavi negativi sulle cpu amd , io non lo prendo più in considerazione.

nel test di gamegpu si vede che cmq un i7 4770 resta il top , quindi non penso sia un sito fanboy .

ho visto che pc lab test il multiplayer , forse li il maggiore ipc si fa sentire .

Per la serie, se non dice quello che voglio sentire, allora non lo seguo più, che senso ha? Bisogna analizzare tutti i test.

Gamegpu: ottimo comportamento di tutte le cpu direi, anche un i3 genera 60 fps di media, non si capisce se è il single player o il MP.
8350 sta ai livelli di un 2600K, l'architettura Haswell 4 core senza HT compensa con le migliorie architetturali proprio questa mancanza.

Pclab PL dice tutt'altra storia, 8350 pareggia una 2500K, sta sotto del 20% a 4670K, lo pareggia a 5 GHz.

Techspot ne dice un'altra ancora, tutte le cpu generano una 90ina di frames, tranne i dual core e tricore AMD serie Athlon.

In ogni caso il mio 2500K spacca, in qualsiasi test è sempre imho ottimo.

BMWZ8
31-10-2013, 09:54
un po meno, va come un 2500k piu' o meno....


Ne sei sicuro? Mi sono intristito, pensavo andasse un pò meglio il vecchietto!:doh:


edit: poco sopra su bf4 un 930 a def va meglio di un 2500k!

vincenzo2008
31-10-2013, 10:39
http://static.techspot.com/articles-info/734/bench/CPU_01.png

la differenza secondo me è che si utilizzano i dettagli high e non ultra :)

vincenzo2008
31-10-2013, 10:51
no, la differenza è che una 290x arriva al massimo a 97-98 fps con quei settaggi, non i processori ;) quindi gpu-limited se cosi si può definire a circa 100fps, ma dipende dall'utilizzo... in 3d inizia ad essere sufficiente, in 2d è fin che mai se hai pannelli da 60hz, sufficiente se ne hai uno da 120hz

pclab utilizza anche una 290 x che nel loro caso va peggio della 770 :mc: ( anche per questo ho molti dubbi su questo sito )

http://pclab.pl/zdjecia/artykuly/chaostheory/2013/10/bf4/charts/bf4_cpu_radeon.png

okorop
31-10-2013, 11:02
Ne sei sicuro? Mi sono intristito, pensavo andasse un pò meglio il vecchietto!:doh:


edit: poco sopra su bf4 un 930 a def va meglio di un 2500k!

è comunque un ottimo processore e vedrai che avrà ancora lunghissima vita :)

SSLazio83
31-10-2013, 11:38
che ne dite?meglio avere frequenze minori e minor consumo? entrambi arrivano a 3,3ghz massimo

Il nabbo di turno
31-10-2013, 14:26
che ne dite?meglio avere frequenze minori e minor consumo? entrambi arrivano a 3,3ghz massimo

4400 o 4570, è inutile prendere un s se non in un desktop mini itx.

SSLazio83
31-10-2013, 18:03
4400 o 4570, è inutile prendere un s se non in un desktop mini itx.

infatti ho intenzione di farmi un itx per il gaming

quindi che dici?

Il nabbo di turno
31-10-2013, 18:40
infatti ho intenzione di farmi un itx per il gaming

quindi che dici?
Quasi quasi punterei su quella normale.

cla749
31-10-2013, 18:40
infatti ho intenzione di farmi un itx per il gaming

quindi che dici?
Guarda, io ho appena assemblato un mini itx, e come processore ho scelto un i5 4570. Secondo me è la scelta migliore.

SSLazio83
31-10-2013, 18:52
Guarda, io ho appena assemblato un mini itx, e come processore ho scelto un i5 4570. Secondo me è la scelta migliore.

quello in firma?

cla749
31-10-2013, 19:00
quello in firma?

si!

Custode
02-11-2013, 16:07
Seguendo questa interessante discussione, mi son convinto ad acquistare un i5 4670: ero partito con ben altri presupposti, tipo di non scendere sotto gli 8 core, "reali", vedi AMD, o "virtualizzati" tramite HT, vedi Intel, ma la verità è che gli attuali FX AMD non mi piaciono in termini di consumi e IPC -aspettavo Steamroller, ma hai voglia ad aspettare-, mentre gli i7, secondo me, hanno uno scarsissimo rapporto prezzo/prestazioni rispetto gli i5 -i 70 Euro di media aggiuntivi di un, ad esempio, 3770, rispetto ad un 4670, proprio non riesco a giustificarli nonostante l'HT-.

Premetto anche che parlo da videogiocatore e che essenzialmente il nuovo PC sarà "solo" una macchina da gioco.
Vado un pò anche contro i miei credo, e cioè che con l'avvento delle nuove console molta gente dovrà imparare a programmare di nuovo, i nuovi engine dovranno per forza di cose trarre vantaggio da ogni possibile core aggiuntivo, ecco il perchè da questo punto di vista ho sempre aspettato l'evoluzione Steamroller degli octacore AMD.

Vedremo, per ora vado sul risparmio rischiando un pò, del resto vengo da un e8400 con 5 e passa anni sul groppone, la differenza dovrei sentirla a prescindere, o, in altri termini, peggio di come sto adesso non posso andare :).

dobermann77
02-11-2013, 16:13
Seguendo questa interessante discussione, mi son convinto ad acquistare un i5 4670

Ottima scelta secondo me.

Nones
02-11-2013, 16:58
Dai grafici rilevo che se uno non vuole sbattersi con l'oc la cpu da gaming rimane il 4570.

:read: mia firma! :D

Horizont
04-11-2013, 10:59
Ma se uno non vuole spendere 160€ per un procio se invece del, chessò, i5 4440 o 4560, prova con un i3 4330 o 4340 da circa 120€ ci va a perdere molto in prestazioni in ambito gaming?

nardustyle
04-11-2013, 11:02
Ma se uno non vuole spendere 160€ per un procio se invece del, chessò, i5 4440 o 4560, prova con un i3 4330 o 4340 da circa 120€ ci va a perdere molto in prestazioni in ambito gaming?

IN GAMING non tanto in tutto il resto si, inolre costa come un x8 ....

Horizont
04-11-2013, 12:00
IN GAMING non tanto in tutto il resto si, inolre costa come un x8 ....

il bello è che ho già una fiammante B85M-ITX da utilizzare, quindi sono vincolate a un haswell...
allora vorrà dire che andrò di 4440 :D

vincenzo2008
04-11-2013, 12:12
test multiplayer

http://cdn.hardwarepal.com/wp-content/uploads/2013/11/BF-4-1920-x-1080-Ultra-settings-GTX-770-vs-7970.jpg

HEYDOL
04-11-2013, 12:32
secondo quel test l'8350 va meno del fx 6300 in relase andiam bene :asd:

vincenzo2008
04-11-2013, 12:47
secondo quel test l'8350 va meno del fx 6300 in relase andiam bene :asd:

e i3 va di più dell' i7 :asd:

Custode
04-11-2013, 14:18
Ormai sono rapito da questo thread :):
sarebbe interessante avere dei bench con CoD Ghosts e Assassin's Creed 4.

Sono entrambi i primi titoli cross-gen, richiedono OS a 64 bit -se non erro- e, soprattutto Ghost, addirittura 6 Giga di ram tra i raccomandati: potrebbero dare una prima indicazione su che strada sta prendendo la programmazione multithreading, insomma sono curioso di vederli all'opera su CPU AMD e Intel e, tra queste ultime, tra HT on ed off.

Per AC4 credo ci sia ancora da aspettare, visto che esce il 21 di questo mese, ma Ghosts esce domani, ergo a breve potremmo avere i primi bench utili.

Pat77
04-11-2013, 15:03
Ormai sono rapito da questo thread :):
sarebbe interessante avere dei bench con CoD Ghosts e Assassin's Creed 4.

Sono entrambi i primi titoli cross-gen, richiedono OS a 64 bit -se non erro- e, soprattutto Ghost, addirittura 6 Giga di ram tra i raccomandati: potrebbero dare una prima indicazione su che strada sta prendendo la programmazione multithreading, insomma sono curioso di vederli all'opera su CPU AMD e Intel e, tra queste ultime, tra HT on ed off.

Per AC4 credo ci sia ancora da aspettare, visto che esce il 21 di questo mese, ma Ghosts esce domani, ergo a breve potremmo avere i primi bench utili.

E non mancheranno, appena disponibili vediamo.

Horizont
04-11-2013, 18:19
IN GAMING non tanto in tutto il resto si, inolre costa come un x8 ....

Anche se in effetti ora che ci penso il pc lo userei principalment eper il gaming...mi chiedo se a questo punto posso davvero optare per un i3 4330 e risparmiare sia dinero che in consumi/calore :oink:
Considerato che sto parlando di un futuro pc su Mini itx e con una 6950 schiaffata dentro :D

29Leonardo
04-11-2013, 18:43
meglio l'i5 come longevità per il gaming, i dual core non si possono vedè nel 2013.

Il nabbo di turno
04-11-2013, 18:47
meglio l'i5 come longevità per il gaming, i dual core non si possono vedè nel 2013.

Grazie, 1/3 del prezzo in più rispetto ad un i3 4130 e 2/3 in più rispetto al prezzo di un pentium g3220.
Senza contare gli amd.

Horizont
04-11-2013, 18:54
meglio l'i5 come longevità per il gaming, i dual core non si possono vedè nel 2013.

Mi domando se mando a fuoco tutto :D :D
Ma non credo, son già corso ai ripari prendendo uno Gelid Slimhero e mettendo una Scythe GlideStream al posto della fan di serie del CM Elite 120.
Dovrei essermi parato abbastanza il ciapett :ciapet:

okorop
04-11-2013, 19:03
Altri tre giochi che useranno Mantle :yeah:
http://www.techpowerup.com/mobile/193814/amds-revolutionary-mantle-graphics-api-adopted-by-various-developers.html

29Leonardo
04-11-2013, 20:26
Grazie, 1/3 del prezzo in più rispetto ad un i3 4130 e 2/3 in più rispetto al prezzo di un pentium g3220.
Senza contare gli amd.

E quindi? Non ho capito vorresti botte piena e moglie ubriaca?

Mi domando se mando a fuoco tutto :D :D
Ma non credo, son già corso ai ripari prendendo uno Gelid Slimhero e mettendo una Scythe GlideStream al posto della fan di serie del CM Elite 120.
Dovrei essermi parato abbastanza il ciapett :ciapet:

Ma no, l'i5 senza oc ha temperature nella norma.

Il nabbo di turno
04-11-2013, 20:31
E quindi? Non ho capito vorresti botte piena e moglie ubriaca?



Ma no, l'i5 senza oc ha temperature nella norma.

Esistono gli fx per fortuna, una via di mezzo ;).

29Leonardo
05-11-2013, 10:13
Esistono gli fx per fortuna, una via di mezzo ;).

Per un mini itx non metterei mai un fx.

okorop
05-11-2013, 10:26
Per un mini itx non metterei mai un fx.

io aspetterei kaveri :fagiano:

nardustyle
05-11-2013, 10:41
Per un mini itx non metterei mai un fx.

Anche perchè non esistono mobo :D

29Leonardo
05-11-2013, 11:35
Anche perchè non esistono mobo :D

già, me ne ero dimenticato :asd:

Pat77
05-11-2013, 11:57
Altri tre giochi che useranno Mantle :yeah:
http://www.techpowerup.com/mobile/193814/amds-revolutionary-mantle-graphics-api-adopted-by-various-developers.html

Sì ma cosa centra qui?

meglio l'i5 come longevità per il gaming, i dual core non si possono vedè nel 2013.

Indubbiamente, ma con Haswell i Dual core con HT diventano una soluzione gaming interessante.

Esistono gli fx per fortuna, una via di mezzo .

In un ITX ci friggi le uova con gli FX ;)


Ritornando IT: sto aspettando i test di Gamegpu su Ghost, potrebbero essere veramente interessanti essendo, diversamente da Battlefield 4 che ha come piattaforma di sviluppo il pc, il primo titolo che ci dirà come influenzeranno gli equilibri le nuove console.

Ovviamente posterò anche i dati di pcgmaeshardware.de e pclab.pl come ulteriore conferma.

I test su Bf4, ad esempio, che stanno facendo gli utenti del forum mi sembrano confermare più i dati di pclab che quelli di gamegpu, staremo a vedere.

Pat77
05-11-2013, 12:17
Sì ma Bf4 è un titolo che è un adattamento su console ma sviluppato su PC, tra tutti è proprio quello che ha meno rilevanza in tal senso.

vincenzo2008
05-11-2013, 12:20
Sì ma cosa centra qui?



Indubbiamente, ma con Haswell i Dual core con HT diventano una soluzione gaming interessante.



In un ITX ci friggi le uova con gli FX ;)


Ritornando IT: sto aspettando i test di Gamegpu su Ghost, potrebbero essere veramente interessanti essendo, diversamente da Battlefield 4 che ha come piattaforma di sviluppo il pc, il primo titolo che ci dirà come influenzeranno gli equilibri le nuove console.

Ovviamente posterò anche i dati di pcgmaeshardware.de e pclab.pl come ulteriore conferma.

I test su Bf4, ad esempio, che stanno facendo gli utenti del forum mi sembrano confermare più i dati di pclab che quelli di gamegpu, staremo a vedere.
insomma un i5 2500 k a 4.5 ghz fa 64 fps minimi , il miofx-6300 a 4.2 fa 58 minimi , praticamente a 4.5 ghz il mio fx-6300 pareggerebbe o quasi .

29Leonardo
05-11-2013, 12:22
Indubbiamente, ma con Haswell i Dual core con HT diventano una soluzione gaming interessante.

Il discorso è sempre il medesimo, scendere a compromessi o meno, con un i3 se ad esempio vuoi giocare in dual gpu o single over 1080p già saresti castrato.

Pat77
05-11-2013, 13:27
insomma un i5 2500 k a 4.5 ghz fa 64 fps minimi , il miofx-6300 a 4.2 fa 58 minimi , praticamente a 4.5 ghz il mio fx-6300 pareggerebbe o quasi .

Sì ma fa 30% meglio nei medi. Che poi è il dato di pclab.pl

Pat77
05-11-2013, 13:28
certo non sto dicendo questo, ma che tutti i titoli cross-multi-platform odierni(CoD-AC4-Fifa14-Pes14-F12013-Batman in uscita tra ottobre-novembre-dicembre) sono sviluppati sulle vecchie, quindi dal basso e portati in alto sulle nuove con adattamenti come risoluzione e anti-aliasing e stop... per non parlare della fisica, la stessa...
BF4 è l'unica eccezione ma comunque gira anche sulle vecchie...
il primo vero next-gen cross-multi-platform sarà Watch-Dogs (in stile BF4 come idea di scalabilità) che non utilizza AnvilEngine Next di AC3-4, ma uno nuovo che non ricordo il nome...
purtroppo ci sono un paio di esclusive XBone formidabili, come Ryse e Quantum Break che su PC sarebbero fenomenali :cry:

Arriverà tutto ;)

Custode
05-11-2013, 14:32
purtroppo ci sono un paio di esclusive XBone formidabili, come Ryse e Quantum Break che su PC sarebbero fenomenali :cry:

Quoto a sangue per Quantum Break, ma Ryse a me sembra il titolo "next gen" più insulso e sopravvalutato mostrato fino ad ora: su Neogaf lo stanno demolendo da mesi -nel senso che ad ogni successiva build mostrata si scoprono magagne e limiti tecnici evidenti, con Crytek ed il suo formidabile CEO che le sparano a manetta-.
Personalmente, non metterei mai Ryse allo stesso livello di un Forza 5, di un Quantum Break -di cui poi alla fine si è visto bene poco, lo ammetto- o di un Titanfall che pure è mosso dal banale Source.

Poi magari all'uscita mi devo rimangiare tutto, ci sta e sarò qui a porre le mie scuse a Crytek, ma certamente per ora rimango molto dubbioso, e sì che reputo Crysis 3 qualcosa di tecnicamente allucinante, su PC, ma non ho visto nulla di quel tecnicamente allucinante in Ryse, lasciamo proprio perdere dal punto di vista del gameplay -ma qui è un lato su cui secondo me Crytek non ha mai eccelso in nessun suo titolo-.

Finito l'OT, di cui mi scuso, e che comunque rimane un'opinione personale facilmente contestabile, tornando a Ghosts, sempre su Neogaf hanno scoperto che nonostante il gioco faccia un check e richieda 6 Giga di ram per partire, in realtà non ne carica più di 2 ed infatti hanno già aggirato il check: ora, non ci capisco una fava di programmazione, ma qualcuno ha ipotizzato che tale richiesta assurda possa esser dovuta al fatto che essendo un porting da console -PS4 o XBoxOne-, abbiano mappato l'utilizzo della ram sul quantitativo fisso di risorse di queste due nuove console, e che si siano limitati a riutilizzarlo su PC.
Ipotesi del tutto campata per aria, probabilmente tecnicamente valida quanto un asino che vola, ma se mai così fosse, potrebbe esser non l'unica cosa lasciata tale e quale per corrispondere all'hardware console, insomma, è sicuramente un titolo cross gen, ma forse potrebbe dare qualche indicazione utile comunque.

Vedremo.

vincenzo2008
05-11-2013, 14:37
Sì ma fa 30% meglio nei medi. Che poi è il dato di pclab.pl

forse sono gpu limited nei massimi anche con scala a 25 % , per questo sto tenendo conto solo dei minimi ;)

Il nabbo di turno
05-11-2013, 15:06
Beh se è un mini itx posso capire, ma tolto quello...
Intanto http://www.brightsideofnews.com/news/2013/11/4/what-to-expect-from-kaveri-a-detailed-predictive-analysis.aspx
Promette bene ;).

vincenzo2008
05-11-2013, 16:27
ecco cod ghost :D

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Call_of_Duty_Ghosts-test-ghost_proz.jpg

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Call_of_Duty_Ghosts-test-ghost_amd.jpg

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Call_of_Duty_Ghosts-test-ghost_intel.jpg

gioco che sfrutta a mala pena 2 core , cmq con un fx è cmq giocabile.

animeserie
05-11-2013, 17:02
mmm sto gioco è uscito oggi o sbaglio ?
Programmato male anche lui ? :D
Andiamo avanti col festival del pessimo coding.. :Prrr:

vincenzo2008
05-11-2013, 17:09
mmm sto gioco è uscito oggi o sbaglio ?
Programmato male anche lui ? :D
Andiamo avanti col festival del pessimo coding.. :Prrr:

usa un motore grafico molto vecchio , cmq si gioca con tutto , anche con i dual core :)

Nforce Ultra
05-11-2013, 17:17
Da come si vede dal grafico che hai pubblicato un dual core tipo Phenom II è troppo penalizzante arriva a dare un frame rate al limite del giocabile (i3 2100 si salva per via dell'IPC maggiore), un FX 4300 invece va bene viene usato mediamente su tutti e 4 i core per il 40%.
Sugli Intel invece il gioco non sfrutta per niente l'HT

animeserie
05-11-2013, 17:18
usa un motore grafico molto vecchio , cmq si gioca con tutto , anche con i dual core :)

ma ti sei chiesto, almeno per un attimo, perchè abbiano scelto quel motore ?

vincenzo2008
05-11-2013, 17:19
ma ti sei chiesto, almeno per un attimo, perchè abbiano scelto quel motore ?

perchè non hanno voglia di utilizzare uno nuovo , e spendere soldi.

animeserie
05-11-2013, 17:26
perchè non hanno voglia di utilizzare uno nuovo , e spendere soldi.

Esatto. Realizzare un nuovo motore richiede tempo (quindi tanti soldi) e oggettivamente preferiscono usarne uno più vecchio ma già collaudato ed uscire prima sul mercato col nuovo titolo.
Politica indiscutibile.
Io farei lo stesso, sia chiaro, e non credo di essere l'unico, visto anche il periodo ;)

Pat77
05-11-2013, 17:29
Direi che per ora, come prevedevo ma il tempo ci dirà chi aveva ragione, la variabile resta non l'influenza console, ma quanto i programmatori ottimizzano per Pc.
Il 3d era stato aperto proprio per vedere cosa sarebbe cambiato.
Comunque Ghost ha numeri molto strani, vediamo pclab.pl

animeserie
05-11-2013, 17:33
Direi che per ora, come prevedevo ma il tempo ci dirà chi aveva ragione, la variabile resta non l'influenza console, ma quanto i programmatori ottimizzano per Pc.


Non dipende dai programmatori, ma da chi gli dà le direttive.

Pat77
05-11-2013, 17:47
Non dipende dai programmatori, ma da chi gli dà le direttive.

Certo, ti senti preso in causa LOL? Ovviamente c'è chi dice cosa fare ai programmatori, in Bf4 hanno spinto perchè sfruttassero maggiormente i cores.
Comunque bisognerebbe anche valutare cosa voglia dire in un videogioco ottimizzare, perchè usare 2 core per fare il lavoro di 4 è forse un'ottimizzazione migliore di 4 core che fanno il lavoro di 1, e poi nessuno parla mai di resa, cosa comporta avere 4-6 core sfruttati in termini meramente visivi e di interazione, di frame rate, ecc... sono tutte variabili non banali.

RedPrimula
05-11-2013, 18:51
forse sono gpu limited nei massimi anche con scala a 25 % , per questo sto tenendo conto solo dei minimi ;)

Che son quelli che contano davvero alla fine. Gli fps medi posso farli anche guardando il cielo e sparando gli fps a 100+ per tot tempo. Almeno, quando valuto una gpu guardo i minimi principalmente quindi direi che la mia impressione avuta già con bf3 e crysis 3 è che i 6300 sono in linea con gli i5 a parità di gpu. Ergo, con frostbite 3 e cryengine le differenze saranno davvero minime penso.

Custode
05-11-2013, 19:12
Insomma, anche Ghosts rimane aggrappato al passato nello sfruttamento del numero dei core, peccato -o per fortuna, dipende dalla CPU che si possiede-.

Io ormai ho deciso da giorni di andare sul 4670 -non K, tanto non overclokko-, ma rimango dell'idea che le cose cambieranno nel corso del 2014, ma a questo punto, ci penserò a tempo debito.

A livello di pura potenza computazionale "tradizionale", devo dire che il 4670 fa spavento, e sì che se non avessi scoperto questa discussione non avrei dato una lira a tale CPU.

Fabryce
05-11-2013, 21:45
Insomma, anche Ghosts rimane aggrappato al passato nello sfruttamento del numero dei core, peccato -o per fortuna, dipende dalla CPU che si possiede-.

Io ormai ho deciso da giorni di andare sul 4670 -non K, tanto non overclokko-, ma rimango dell'idea che le cose cambieranno nel corso del 2014, ma a questo punto, ci penserò a tempo debito.

A livello di pura potenza computazionale "tradizionale", devo dire che il 4670 fa spavento, e sì che se non avessi scoperto questa discussione non avrei dato una lira a tale CPU.

a vedere le roadmap intel, le cpu broadwell a 14 nm verranno presentate nel 2015, l'anno prossimo ci sarà una piccola evoluzione di haswell (haswell refresh) quindi per me è il momento buono per haswell, infatti il 4670k è in arrivo nel mio case :D

nano_Sardo
06-11-2013, 10:43
Su internet ho trovato questo grafico:

http://www.dslreports.com/r0/download/2114697~94c0e1a85a9dc27123569e6e14bf16e4/3dmark.JPG

Sembra che in gaming il 2500k sia quasi alla parti del 4770k.

vincenzo2008
06-11-2013, 11:03
Su internet ho trovato questo grafico:

http://www.dslreports.com/r0/download/2114697~94c0e1a85a9dc27123569e6e14bf16e4/3dmark.JPG

Sembra che in gaming il 2500k sia quasi alla parti del 4770k.

non si vede ;)

plainsong
06-11-2013, 12:52
Comunque bisognerebbe anche valutare cosa voglia dire in un videogioco ottimizzare, perchè usare 2 core per fare il lavoro di 4 è forse un'ottimizzazione migliore di 4 core che fanno il lavoro di 1, e poi nessuno parla mai di resa, cosa comporta avere 4-6 core sfruttati in termini meramente visivi e di interazione, di frame rate, ecc... sono tutte variabili non banali.

IMHO parallelizzare costituisce un'ottimizzazione indiscutibile perchè un gioco in grado di sfruttare "4 core che fanno il lavoro di 1" virtualmente girerebbe bene tanto su un processore single core di sufficiente potenza quanto su un dual o quad-core, con la significativa differenza che in concreto negli ultimi due casi offrirà comunque prestazioni migliori entrando meno in conflitto con applicazioni in background quali ad es. os e antivirus. E' sempre meglio non saturare nessun core al 100% così da ovviare meglio alle attuali tecnologie di scheduling. C'è inoltre da tener conto che il motivo principale per cui i produttori hardware hanno puntato su processori multi-core è che questa scelta si è rivelata la migliore tanto per Intel quanto per Amd per incrementare significativamente la capacità delle loro cpu dopo che la legge di Moore intesa in senso stretto aveva incontrato insormontabili limiti architetturali. Pertanto un titolo scarsamente parallelizzato non è in grado di sfruttare a dovere gli hardware odierni per offrire il massimo delle prestazioni. Un titolo anche fortemente parallelizzato non ha problemi a girare su una cpu single core se questa ha prestazioni adeguate, ma per i titoli recenti non esistono cpu con questa proprietà. Un titolo relegato al single core pertanto è destinato ad offrire un'esperienza tecnologicamente meno avanzata. Lo stesso discorso vale chiaramente per software professionali e si traduce nel principio che, al di là della non banalità di altre variabili in gioco, lo sfruttamento di più cores costituisce un indubitabile beneficio per ogni applicazione sufficientemente pesante per gli hardware attuali (in caso di applicazioni particolarmente leggere la questione diventa irrilevante).

animeserie
06-11-2013, 12:58
E' sempre meglio non saturare nessun core al 100% così da ovviare meglio alle attuali tecnologie di scheduling.

Concordo con tutto il resto ma volevo prendere uno spunto di riflessione su questo passaggio che metto in quoting:
quindi alla luce di quella affermazione, saresti d'accordo con i risultati dell'8350 qui di seguito, giusto ? (i core vengono utilizzati sebbene non tutti al 100%)

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Call_of_Duty_Ghosts-test-ghost_amd.jpg

plainsong
06-11-2013, 13:11
Concordo con tutto il resto ma volevo prendere uno spunto di riflessione su questo passaggio che metto in quoting:
quindi alla luce di quella affermazione, saresti d'accordo con i risultati dell'8350 qui di seguito, giusto ? (i core vengono utilizzati sebbene non tutti al 100%)


Mi sembra uno scenario preferibile a quello che potrebbe offrire ad es. un ipotetico i5 (no-hyperthreading) Haswell 5 Ghz dual-core, ammettendo che eseguendo Battlefield 4 e il solo os in background offra gli stessi fps dell'8350 con uno sfruttamento dei due core prossimo al 100%. Nel caso lanciassimo ulteriori processi in background con l'i5 avremmo in via generale un più veloce decadimento delle prestazioni .

Capozz
06-11-2013, 13:53
Esatto. Realizzare un nuovo motore richiede tempo (quindi tanti soldi) e oggettivamente preferiscono usarne uno più vecchio ma già collaudato ed uscire prima sul mercato col nuovo titolo.
Politica indiscutibile.
Io farei lo stesso, sia chiaro, e non credo di essere l'unico, visto anche il periodo ;)

Si ma così è un'esagerazione. Usano lo stesso motore da 10 anni ed ogni anno vendono decine di milioni di copie.
Capisco che finchè giravano le vecchie scatolette non gli conveniva cambiare motore, ma con la next gen era doveroso.

Pat77
06-11-2013, 14:13
IMHO parallelizzare costituisce un'ottimizzazione indiscutibile perchè un gioco in grado di sfruttare "4 core che fanno il lavoro di 1" virtualmente girerebbe bene tanto su un processore single core di sufficiente potenza quanto su un dual o quad-core, con la significativa differenza che in concreto negli ultimi due casi offrirà comunque prestazioni migliori entrando meno in conflitto con applicazioni in background quali ad es. os e antivirus. E' sempre meglio non saturare nessun core al 100% così da ovviare meglio alle attuali tecnologie di scheduling. C'è inoltre da tener conto che il motivo principale per cui i produttori hardware hanno puntato su processori multi-core è che questa scelta si è rivelata la migliore tanto per Intel quanto per Amd per incrementare significativamente la capacità delle loro cpu dopo che la legge di Moore intesa in senso stretto aveva incontrato insormontabili limiti architetturali. Pertanto un titolo scarsamente parallelizzato non è in grado di sfruttare a dovere gli hardware odierni per offrire il massimo delle prestazioni. Un titolo anche fortemente parallelizzato non ha problemi a girare su una cpu single core se questa ha prestazioni adeguate, ma per i titoli recenti non esistono cpu con questa proprietà. Un titolo relegato al single core pertanto è destinato ad offrire un'esperienza tecnologicamente meno avanzata. Lo stesso discorso vale chiaramente per software professionali e si traduce nel principio che, al di là della non banalità di altre variabili in gioco, lo sfruttamento di più cores costituisce un indubitabile beneficio per ogni applicazione sufficientemente pesante per gli hardware attuali (in caso di applicazioni particolarmente leggere la questione diventa irrilevante).

Hai inteso male la mia frase, io intendevo dire che costituisce una maggiore ottimizzazione sfruttare il minor numero di core possibili per ottenere il risultato X.

Questo cosa vuol dire, vuol dire che se vediamo in crysis 3 4 core al 100% con una resa a video notevole e riusciamo ad emulare tale risultato utilizzando o un unico core al 100% o 4 core al 25% nel secondo caso abbiamo ottimizzato maggiormente rispetto al primo.

Spero che così sia più chiaro.

La mia idea è che una CPU non deve essere core dependent, ma deve rendere indipendentemente dal numero di core utilizzati, e all'aumentare degli stessi o avere benefici di frame rate o un corrispettivo upgrade grafico/fisico.

Dire "sfrutta 8 core" quindi è ottimizzato imho è una cazzata, anzi, paradossalmente potrebbe essere anche il contrario.

animeserie
06-11-2013, 15:07
Dire "sfrutta 8 core" quindi è ottimizzato imho è una cazzata, anzi, paradossalmente potrebbe essere anche il contrario.

Giusto.
E uno potrebbe anche fare il "FdP"...
ossia ti occupo 2 core con il gioco e ti lancio un certo numero di istanze di calcolo del fattoriale di n, per n che tende all'infinito.
Vedresti magari tutti i core al 100% e pensare "mitico lo staff di sviluppo" e invece sei contento e fregato :stordita: :muro:
Tra l'altro sta cosa non è neppure lontana dalla realtà in quanto già accaduta in passato.

plainsong
06-11-2013, 15:19
Hai inteso male la mia frase, io intendevo dire che costituisce una maggiore ottimizzazione sfruttare il minor numero di core possibili per ottenere il risultato X.
Non sono d'accordo, imho il vero successo di programmazione è, a parità di risultato, sfruttare la minor percentuale di utilizzo cpu spalmato sul maggior numero di core disponibile, e non il minor utilizzo cpu sul minore numero di core. Infatti con le attuali tecnologie di scheduling c'è il rischio elevato che applicazioni in background finiscano per gravare sul core già sfruttato al 100% portando ad un decadimento delle prestazioni.

Questo cosa vuol dire, vuol dire che se vediamo in crysis 3 4 core al 100% con una resa a video notevole e riusciamo ad emulare tale risultato utilizzando o un unico core al 100% o 4 core al 25% nel secondo caso abbiamo ottimizzato maggiormente rispetto al primo.

La mia tesi è che abbiamo ottimizzato maggiormente nel caso di 4 core al 25% che in quello di unico core al 100%, per il motivo suddetto.

La mia idea è che una CPU non deve essere core dependent, ma deve rendere indipendentemente dal numero di core utilizzati, e all'aumentare degli stessi o avere benefici di frame rate o un corrispettivo upgrade grafico/fisico.

Ciò che ha portato Intel, Amd, Ibm, Arm, ecc. a spingere sul multicore è stata proprio l'incapacità di continuare ad incrementare in modo esponenziale le prestazioni dei core singoli. Per quanto si possa ottimizzare a livello software un gioco come Battlefield 4, non girerebbe bene su nessuna configurazione single core attuale, semplicemente perchè non si riesce a realizzare a condizioni accettabili una cpu con core singoli così potenti. E' proprio il fatto che il rendimento di una cpu sia dipendente dal numero di core presenti (e sfruttati mediante ottimizzazione) che ha fatto intraprendere questa strada ai produttori hardware. Trovo in autocontraddizione sostenere che una cpu "deve rendere indipendentemente dal numero di core utilizzati" ma al contempo "all'aumentare degli stessi o avere benefici di frame rate o corrispettivo upgrade grafico/fisico". Magari è una frecciata ad Amd ma il punto è che con applicativi pesanti il discorso è valido anche per Intel come per qualsiasi produttore attuale di cpu.

Dire "sfrutta 8 core" quindi è ottimizzato imho è una cazzata, anzi, paradossalmente potrebbe essere anche il contrario.
Su questo concordo, è una proposizione troppo vaga. Si deve sempre entrare nel merito di quello che c'è su schermo, ad esempio Gta IV sfruttava più core ma era tecnologicamente atroce. Situazione ben diversa è data da titoli come Crysis 3 e Battlefield 4 confrontati con Call of Duty: Ghosts.

animeserie
06-11-2013, 15:40
Documento semplice ma carino:

http://msdn.microsoft.com/en-us/library/windows/desktop/ms684259%28v=vs.85%29.aspx

Nforce Ultra
06-11-2013, 15:42
@plainsong
forse Pat77 se ho capito bene voleva dire che non è ottimizzazione per forza sfruttare 8 core, ma per il caso AMD sfruttare i suoi 8 core è solo un palliativo per sopperire alla mancata potenza di calcolo dei suoi moduli.
Perché infatti un i5 che ha una notevole potenza di calcolo sul core, mediamente va bene sia nei casi dove vi è un notevole utilizzo MT e dove anche gli FX vanno bene, però anche nei casi dove c'è un uso ST dove gli FX però vengono molto penalizzati per via della mancanza di IPC.

Pat77
06-11-2013, 15:47
Non sono d'accordo, imho il vero successo di programmazione è, a parità di risultato, sfruttare la minor percentuale di utilizzo cpu spalmato sul maggior numero di core disponibile, e non il minor utilizzo cpu sul minore numero di core. Infatti con le attuali tecnologie di scheduling c'è il rischio elevato che applicazioni in background finiscano per gravare sul core già sfruttato al 100% portando ad un decadimento delle prestazioni.

Capisco il tuo ragionamento, quella può essere effettivamente una priorità, o ottimizzare uno scheduling che abbia semplici regole base per non gravare sul core occupato.
Ma utilizzare il minimo di core possibile ha senso in alcuni ambiti di sviluppo per velocizzare il tutto, e poi non è detto che tutto si possa parallelizzare.

Ciò che ha portato Intel, Amd, Ibm, Arm, ecc. a spingere sul multicore è stata proprio l'incapacità di continuare ad incrementare in modo esponenziale le prestazioni dei core singoli. Per quanto si possa ottimizzare a livello software un gioco come Battlefield 4, non girerebbe bene su nessuna configurazione single core attuale, semplicemente perchè non si riesce a realizzare a condizioni accettabili una cpu con core singoli così potenti. E' proprio il fatto che il rendimento di una cpu sia dipendente dal numero di core presenti (e sfruttati mediante ottimizzazione) che ha fatto intraprendere questa strada ai produttori hardware. Trovo in autocontraddizione sostenere che una cpu "deve rendere indipendentemente dal numero di core utilizzati" ma al contempo "all'aumentare degli stessi o avere benefici di frame rate o corrispettivo upgrade grafico/fisico". Magari è una frecciata ad Amd ma il punto è che con applicativi pesanti il discorso è valido anche per Intel come per qualsiasi produttore attuale di cpu.

Il discorso ottimizzazione sarebbe lungo, il fatto che il consumatore voglia ottime performance indipendentemente dal software è un evidente valore aggiunto, eh sì una cpu che ha la flessibilità di garantirti performance costanti in diversi ambiti è preferibile.
Mi sembra ovvio, non capisco dove vedi la contraddizione nel dire che se mi riempi 4-6-8 core devi farlo per un motivo, il motivo può essere uno di quelli elencati, se riempi i core tanto per riempirli ha ben poco senso.

Su questo concordo, è una proposizione troppo vaga. Si deve sempre entrare nel merito di quello che c'è su schermo, ad esempio Gta IV sfruttava più core ma era tecnologicamente atroce. Situazione ben diversa è data da titoli come Crysis 3 e Battlefield 4 confrontati con Call of Duty: Ghosts.

Esattamente, questo è il fulcro del mio discorso, l'ottimizzazione su più core deve portare a braccetto una maggiore complessità degli ambienti 3d, una migliore fisica, un miglior uso degli effetti fisici e particellari, anche se molto spesso ora pesano sulla GPU.

animeserie
06-11-2013, 15:55
@plainsong
forse Pat77 se ho capito bene voleva dire che non è ottimizzazione per forza sfruttare 8 core, ma per il caso AMD sfruttare i suoi 8 core è solo un palliativo per sopperire alla mancata potenza di calcolo dei suoi moduli.


+1
ma che poi le cpu desktop/consumer ad 8 core le fa solo Amd, in quanto quelle intel sono a 4.
(per me gli i7 son dei quad core)
AMD in tal senso è avanti, ma forse le software house si basano maggiormente su Intel. Forse perchè più venduta ? non so. Vedremo un pò cosa ci riserverà il futuro.

plainsong
06-11-2013, 16:21
Il discorso ottimizzazione sarebbe lungo, il fatto che il consumatore voglia ottime performance indipendentemente dal software è un evidente valore aggiunto, eh sì una cpu che ha la flessibilità di garantirti performance costanti in diversi ambiti è preferibile.
Mi sembra ovvio, non capisco dove vedi la contraddizione nel dire che se mi riempi 4-6-8 core devi farlo per un motivo, il motivo può essere uno di quelli elencati, se riempi i core tanto per riempirli ha ben poco senso.
Se una cpu rende "indipendentemente dal numero di core utilizzati" ma al contempo all'aumentare degli stessi ha benefici di frame rate o corrispettivo upgrade grafico/fisico, allora non rende indipendentemente dal numero di core utilizzati. Consideravo la tua frase al di fuori del caso limite di software che riempie i core in modo disfunzionale esclusivamente "tanto per", cioè software pareallelizzato solo in modo fittizio.
Risponendo anche ad Nforce Ultra quello che mi premeva evidenziare non è la superiorità tecnologica di Intel su Amd, che resta visibile in ogni caso, quanto il fatto che parallelizzare, nel senso di utilizzare per porzioni almeno parzialmente diverse di codice quanti più core a disposizione, sia sempre una forma di ottimizzazione, anche quando il software è programmato male. In questo caso potrebbe non essere l'ottimizzazione prioritaria, ma comunque sarà meglio di niente. Ad esempio se il tecnologicamente pessimo Gta IV, oltre ad essere programmato in modo da essere così ingiustificatamente pesante, non potesse nemmeno sfruttare 4 core, risulterebbe ingiocabile su molte più configurazioni. L'unico caso limite in cui parallelizzazione non è uguale ad ottimizzazione è quello in cui un software duplica il codice in modo pressappoco uguale su tutti i core a disposizione, aumentando quindi il consumo di corrente, impedendo ad eventuali turbo core di entrare in azione, saturando inutilmente la cpu per altri processi in background e offrendo benefici in termini di performance tendenti a 0. Questa però è una situazione piuttosto paradossale e credo, imho, non tanto frequente. Un software che si comporta così sarebbe più propriamente un virus.

Nforce Ultra
06-11-2013, 16:32
Sicuramente un utilizzo migliore delle risorse è quello che speriamo tutti (come fa già adesso Crysis 3), ma un conto è vedere un software scalare su vari core perché effettivamente ne trae un beneficio e un conto è scalare su molti core perché hai un architettura di base inefficiente.

plainsong
06-11-2013, 16:39
Sicuramente un utilizzo migliore delle risorse è quello che speriamo tutti (come fa già adesso Crysis 3), ma un conto è vedere un software scalare su vari core perché effettivamente ne trae un beneficio e un conto è scalare su molti core perché hai un architettura di base inefficiente.

Concordo pienamente, ma se un gioco è programmato in modo scadente il fatto che sia in grado di spalmare il suo codice inefficiente su quanti più core a disposizione lo vedo comunque come una forma di ottimizzazione. Questo imho è valido sempre escluso il caso paradossale in cui il codice parallelizzato giri pressocchè identico su tutti i core.

Nforce Ultra
06-11-2013, 16:45
Concordo pienamente, ma se un gioco è programmato in modo scadente il fatto che sia in grado di spalmare il suo codice inefficiente su quanti più core a disposizione lo vedo comunque come una forma di ottimizzazione. Questo imho è valido sempre escluso il caso paradossale in cui il codice parallelizzato giri pressocchè identico su tutti i core.

Dipende, perché tu guarda Ghosts, utilizza un motore vecchio è programmato male da come leggo dai post degli altri, però spalma il carico su tutti gli 8 core dell'FX 8350 anche se il modo leggero, ma quest'ultimo non brilla come prestazioni (anche se ovviamente raggiunge la soglia di giocabilità).

plainsong
06-11-2013, 16:52
Dipende, perché tu guarda Ghosts, utilizza un motore vecchio è programmato male da come leggo dai post degli altri, però spalma il carico su tutti gli 8 core dell'FX 8350 anche se il modo leggero, ma quest'ultimo non brilla come prestazioni (anche se ovviamente raggiunge la soglia di giocabilità).

Credo che Ghosts giri meglio su Intel per peculiarità architetturali a me ignote ma comunque diverse dalle semplici variabili numero di core a disposizione/parallelizzazione del codice. Il fatto che su Fx8350 sfrutti tutti i core senza caricarne nessuno al massimo mi sembra un indubitabile segno di ottimizzazione.

nano_Sardo
06-11-2013, 17:19
non si vede ;)

Eccola

http://img855.imageshack.us/img855/5233/w0du.jpg

In questo test sono enntrambe le cpu a 4.4 ghz

Pat77
06-11-2013, 18:34
Se una cpu rende "indipendentemente dal numero di core utilizzati" ma al contempo all'aumentare degli stessi ha benefici di frame rate o corrispettivo upgrade grafico/fisico, allora non rende indipendentemente dal numero di core utilizzati. Consideravo la tua frase al di fuori del caso limite di software che riempie i core in modo disfunzionale esclusivamente "tanto per", cioè software pareallelizzato solo in modo fittizio.

Come non rende indipendentemente dai core utilizzati?

Se hai un gioco X che nel ventaglio di sfruttamento core ti consente performance Y praticamente sempre su Intel, mentre dall'altra parte hai il processore Z che a seconda del numero di core utilizzati ha un ventaglio simile:

Z 1 core uguale Y -50%
Z 2 core uguale Y -50%
Z 3 core uguale Y -40%
Z 4 core uguale Y -30%
Z 5 core uguale Y -20%
Z 6 core uguale Y -10%
Z 7 core uguale Y
Z 8 core ugulae Y +10%

Questo è un esempio ma non credo sia nemmeno tanto lontano dal vero visto che un sostanziale pareggio si raggiunge con il carico indicato e sono stato pure blando con la differenza di ipc.

poi ci sarebbe da valutare come i moduli vengono sfruttati, se su 4 istanze ci sono a lavorare 4 flex fpu o solo 2, nel qual caso si recupera un 10-15%

Comunque quello che voglio dire è sostanzialmente questo: non essere legati al MT selvaggio è un gran vantaggio e i dati finora raccolti lo dimostrano, e almeno questa è un' ottimizzazione, tra virgolette, indiretta, di avere un buon ipc.
Certo poi AMD recupera in MT spinto, ma i giochi si programmano da sempre in un certo modo e la base resterà sempre 2-3 core, con tutti gli altri circostanziali, nel senso che nel dato punto e nel dato livello ci potranno essere momenti dove possono sicuramente servire più core e garantire più uniformità di frame per taluni effetti, e in questo Crysis 3 è grande anticipatore.

plainsong
06-11-2013, 18:37
guarda io mi affido alla matematica e ai numeri, e a me non sembra proprio:

sommando le % dei core/thread utilizzati tra il 8350 e 2600k abbiamo che:

FX8350: 245%/8c(t)= 30.6% utilizzo cpu
i7-2600k: 181%/5c(t)= 36.2% utilizzo cpu
normalizzando i core ai thread in quanto sfruttato male HT e supponendo che almeno 1 thread gestica S.O. togliamo da entrambi la percentuale più bassa che era del 12%,
abbiamo:
FX8350: 233%/7c(t)= 33.3% utilizzo cpu
i7-2600k: 169%/4c(t)= 42.3% utilizzo cpu

una differenza del 20-27% (ricavandola dai risultati medi , 36%/30% e 42%/33%) in più di sfruttamento che guarda caso è molto in linea agli fps corrispondenti che ritroviamo in tabella tra il 2600k (75min-94med) ed il 8350 (65min-82med) ...circa +15-20% di differenza tra 65vs75 e 82vs94...

questo senza contare la differenza di IPC e frequenza tra le cpu, dove in questo caso conta poco, anche perchè tra sandy e vishera c'è più del 15-20% di IPC, camuffata infatti in parte dai +20% di frequenza stock arriveremmo a circa +30-40% di IPC... mi piacerebbe vedere un 8320(3.5ghz) che numeri farebbe in questo test...

ps. nota bene: ho messo a confronto le cpu più simili per ovvi motivi di capacità ci calcolo totali che sono molto simili



Il mio discorso verteva sul considerare o meno la parallelizzazione di un codice, qualsiasi esso sia e benchè non sia esso stesso perfettamente ottimizzato (cosa chiaramente impossibile), già un'ottimizzazione in sè. La mia opinione è che sia così escluso il caso paradossale di un software il cui codice, fittiziamente parallelizzato, giri pressocchè identico su tutti i core portando quindi solo svantaggi. Non c'entra il paragone Intel vs Amd. Di sicuro nella differenza di distribuzione del carico sui core nonchè nelle prestazioni comunque inferiori di Fx8350 vs 2600k entrano in giochi fattori relativi al modo in cui il codice di Ghost sfrutta le peculiarità architetturali delle due cpu, incluso il maggiore ipc di Intel. Ribadisco la personale convinzione che quest'ultima ha generalmente una architettura tecnologicamente più performante. Scrivendo "il fatto che (Ghosts) su FX8350 sfrutti tutti i core senza caricarne nessuno al massimo, mi sembra un indubitabile segno di ottimizzazione" intendevo esclusivamente che, evitando di coinvolgere Intel, il codice di questo gioco è sufficientemente parallelizzato in modo da rendere meglio su FX8350 che su FX6300 e 4300, che questa parallelizzazione evita di caricare pochi core al 100% bensì li sfrutta tutti in percentuali non eccessive così presumibilmente da agevolare l'esecuzione di programmi in background senza decadimento verticale di prestazioni, e che tutto ciò lo considero definibile come "ottimizzazione". Migliorabile, imperfetta, Intel va meglio, Frostbite 3 e Cryengine sono un altro pianeta, ecc., ma pur sempre ottimizzazione.


quindi non è solo un discorso di quanti core/thread vengono utilizzati, ma come, fermo restando che anche il 2600k in fin dei conti si gira quasi i pollici...

Concordo perfattamente che non è un discorso solo di quanti core/thread vengono utilizzati, ma come. Sostengo però che anche il numero di core/thread utilizzati, escluso il caso paradossale (ci sono virus che fanno qualcosa di simile) di software che utilizzi inutilmente il maggior numero di thread a disposizione per eseguire su tutti codice pressochè identico, costituisca sempre, di per sè, già un vantaggio.

plainsong
06-11-2013, 18:47
Come non rende indipendentemente dai core utilizzati?

Se hai un gioco X che nel ventaglio di sfruttamento core ti consente performance Y praticamente sempre su Intel, mentre dall'altra parte hai il processore Z che a seconda del numero di core utilizzati ha un ventaglio simile:

Z 1 core uguale Y -50%
Z 2 core uguale Y -50%
Z 3 core uguale Y -40%
Z 4 core uguale Y -30%
Z 5 core uguale Y -20%
Z 6 core uguale Y -10%
Z 7 core uguale Y
Z 8 core ugulae Y +10%

Questo è un esempio ma non credo sia nemmeno tanto lontano dal vero visto che un sostanziale pareggio si raggiunge con il carico indicato e sono stato pure blando con la differenza di ipc.

poi ci sarebbe da valutare come i moduli vengono sfruttati, se su 4 istanze ci sono a lavorare 4 flex fpu o solo 2, nel qual caso si recupera un 10-15%

Pat77 quello che dici è chiaro e lo condivido, il fraintendimento è stato relativo al modo in cui ho interpretato questo punto
La mia idea è che una CPU non deve essere core dependent, ma deve rendere indipendentemente dal numero di core utilizzati, e all'aumentare degli stessi o avere benefici di frame rate o un corrispettivo upgrade grafico/fisico.

La tua posizione, del tutto condivisibile, è che indipentemente dal codice che gira l'ipc sia importante. Invece mi ero soffermato sull'anomalia di leggere che una cpu "deve rendere indipendentemente dal numero di core utilizzati" e subito dopo che all'aumentare degli stessi (cioè dipendentemente dal numero di core utilizzati) offrire benefici.

E volendo finire comunque a parlare delle differenze fra Intel e Amd non posso che concordare con:

Comunque quello che voglio dire è sostanzialmente questo: non essere legati al MT selvaggio è un gran vantaggio e i dati finora raccolti lo dimostrano, e almeno questa è un' ottimizzazione, tra virgolette, indiretta, di avere un buon ipc.

antonioslash
06-11-2013, 19:41
piccolo quesito:
per uso gaming meglio un 3770 (no k) o un 4670k?
al momento credo l'i5 sfruttando l'oc.. ma in ottica futura non mi avvantaggerebbe l'ht?

Pat77
06-11-2013, 23:05
ricordiamoci che hanno messo degli effetti artificiali di hdr/sunshafts dove si vedevano raggi di luce provenire da fonte dubbia, tipo il sole in alto a destra, e il raggio che passa tra gli alberi da tutt'altra inclinazione
http://www.dsogaming.com/wp-content/...s-Lighting.jpg

Premetto che vedendo i video a me la resa piace, interessante quello screen, ma e' preso da un video su youtube, sarebbe interessante constatare se realmente nel gioco capita.

Pat77
07-11-2013, 11:19
guarda la cosa non mi sorprenderebbe affatto, del tipo
http://multiplayer.it/notizie/125203-call-of-duty-modern-warfare-2-una-sequenza-filmata-di-call-of-duty-ghosts-e-stata-copiata-da-call-of-duty-modern-warfare-2.html
:doh:

Mamma mia che fail...

Custode
11-11-2013, 14:04
Aggiorno la discussione segnalando che verso fine mese è in arrivo anche Need for Speed Rivals, nuovo titolo cross gen su cui poter testare come e se vengono sfruttati i vari core e/o HT :).

-giorgio-87
11-11-2013, 16:56
quindi non si sa ancora se le cpu amd (nel mio caso x5 1055t) possono avere nuova vita in gaming?

Pat77
11-11-2013, 17:53
quindi non si sa ancora se le cpu amd (nel mio caso x5 1055t) possono avere nuova vita in gaming?

Cioè? Credo che la tua sarà una compagna più che dignitosa :D

-giorgio-87
11-11-2013, 18:00
Non ho capito...

Inviato dal mio GT-I9100 usando Tapatalk 4

six007
12-11-2013, 10:55
http://www.overclockers.ru/lab/56921_2/Battlefield_4_testirovanie_proizvoditelnosti.html

Custode
12-11-2013, 12:47
http://www.overclockers.ru/lab/56921_2/Battlefield_4_testirovanie_proizvoditelnosti.html

Non so cosa siano TB e TC, qualche anima pia mi illumina? ^__^

Impressionante l'uso dell' HT sugli i3, sugli i5/i7 non cambia una mazza a quanto sembra.

six007
12-11-2013, 14:08
turbo boost su intel, amd è turbo Core.

Custode
12-11-2013, 14:17
turbo boost su intel, amd è turbo Core.

Grazie :)

Pat77
12-11-2013, 22:36
Non ho capito...

Inviato dal mio GT-I9100 usando Tapatalk 4

Per ora non ci sono seri evidenti di qualcosa che sta cambiando, la tua 1055 imho e' una discreta cpu che non avra' molti problemi anche in ambiti MT.
Questo volevo dire.
Se speri, pero', in un cambio di equilibri imho resterai deluso.

-giorgio-87
12-11-2013, 23:31
Per ora non ci sono seri evidenti di qualcosa che sta cambiando, la tua 1055 imho e' una discreta cpu che non avra' molti problemi anche in ambiti MT.
Questo volevo dire.
Se speri, pero', in un cambio di equilibri imho resterai deluso.

spero solo di poter sfruttare decentemente una 770...ancora non so che fare...
non vorrei che succede il contrario..ovvero che con la nuova generazione di giochi la mia cpu diventa insufficiente (per la 770)e a questo punto cambio tutto...se devo ripiegare su una 760 prendo una ps4...

affiu
13-11-2013, 00:28
Aggiorno la discussione segnalando che verso fine mese è in arrivo anche Need for Speed Rivals, nuovo titolo cross gen su cui poter testare come e se vengono sfruttati i vari core e/o HT :).

...Il quale utilizza il FROSTBITE 3 ENGINE(come bf4):D

http://www.nfsrivals.com/tag/frostbite-3-engine/

Altri giochi...:
http://www.frostbite.com/games/future-games/

Ad ogni modo, per avere un idea di come già dall'anno prossimo siamo su un altra frequenza, vi invito a dare una lettura completa a questo piccolo riassunto che mi è capitato di fare: :read:

http://www.hwupgrade.it/forum/showpost.php?p=40251682&postcount=10

PS4=APU..............................AMD
XBOX ONE=APU....................AMD
PC GAME WITH=MANTLE.......AMD
.....amd:Prrr:

Pat77
13-11-2013, 09:14
...Il quale utilizza il FROSTBITE 3 ENGINE(come bf4):D

http://www.nfsrivals.com/tag/frostbite-3-engine/

Altri giochi...:
http://www.frostbite.com/games/future-games/

Ad ogni modo, per avere un idea di come già dall'anno prossimo siamo su un altra frequenza, vi invito a dare una lettura completa a questo piccolo riassunto che mi è capitato di fare: :read:

http://www.hwupgrade.it/forum/showpost.php?p=40251682&postcount=10

PS4=APU..............................AMD
XBOX ONE=APU....................AMD
PC GAME WITH=MANTLE.......AMD
.....amd:Prrr:

Questo è un 3d che si basa sui test concreti e ti prego vivamente di non flammare, anche perchè c'è chi ha profetizzato cambiamenti con la next gen, la next gen è arrivata e le cose non sono cambiate CVD.

http://pclab.pl/zdjecia/artykuly/chaostheory/2013/10/bf4/charts/bf4_cpu_geforce.png

Nforce Ultra
13-11-2013, 10:05
Nuovi bench interessanti,
allora anche BF4 quando non è preso in GPU limited con Intel c'è sempre un abisso di differenza, un 4670k a default va come un 8350 a 5 GHz alla faccia che l'ottimizzazione doveva far volare gli FX

animeserie
13-11-2013, 10:10
un 4670k a default va come un 8350 a 5 GHz alla faccia che l'ottimizzazione doveva far volare gli FX

Volare ? si, voleranno, dalle finestre...

Nforce Ultra
13-11-2013, 10:13
Volare ? si, voleranno, dalle finestre...

Il mio vecchio 8320 è già volato...

nardustyle
13-11-2013, 10:47
Il mio vecchio 8320 è già volato...

che cambiamenti hai riscontrato ??'

Nforce Ultra
13-11-2013, 11:16
che cambiamenti hai riscontrato ??'

In game la differenza è tangibile, esempio starcraft II con l'i5 è molto più fluido non ha cali quando la mappa diventa piena di unità. Anche lasciandolo a default l'i5 è più bilanciato ha un'ottima resa sia quando viene sfruttato in ST che in MT invece l'8320 ero tutto sblianciato verso l'MT. Che poi in test tipo cinebench tutti e due i proci a default i5 va di più. Poi i consumi, avendo il wattmetro ho potuto vedere che in game tutti e due i sistemi in game con la 5850 l'8320 a 4.5 GHz con vcore 1.4 circa mi consumava 330 watt l'i5 ne richiede circa 100 in meno a 4.2
E poi ho una migliore gestione e resa del disco SSD
Poi in overclock dopo i 4.5 GHz con l'8320 dato l'assorbimento alto di corrente ho avuto problemi di surriscaldamento dei VRM della 990-FXA-UD3 che andava in protezione termica e spegneva il sistema (quando con la stessa mobo cloccavo il Phenom II a 4.0 GHz anche con vcore di 1.5V non avevo nessun problema sui VRM), cosa che non accade con Intel dove i componenti della mobo sono tutti nella norma come temperature di esercizio.

Per il mio uso un processore come l'i5 mi da mediamente una resa migliore visto che non faccio uso di software fortemente MT. E soprattutto in game ho un processore che sia quando un gioco esce con un motore ottimizzato all'MT o usa un motore obsoleto mi garantisce sempre un ottima resa.

p.s. se farmi qualche domanda non inerente alla discussione puoi contattarmi in pvt

Pat77
13-11-2013, 12:35
In game la differenza è tangibile, esempio starcraft II con l'i5 è molto più fluido non ha cali quando la mappa diventa piena di unità. Anche lasciandolo a default l'i5 è più bilanciato ha un'ottima resa sia quando viene sfruttato in ST che in MT invece l'8320 ero tutto sblianciato verso l'MT. Che poi in test tipo cinebench tutti e due i proci a default i5 va di più. Poi i consumi, avendo il wattmetro ho potuto vedere che in game tutti e due i sistemi in game con la 5850 l'8320 a 4.5 GHz con vcore 1.4 circa mi consumava 330 watt l'i5 ne richiede circa 100 in meno a 4.2
E poi ho una migliore gestione e resa del disco SSD
Poi in overclock dopo i 4.5 GHz con l'8320 dato l'assorbimento alto di corrente ho avuto problemi di surriscaldamento dei VRM della 990-FXA-UD3 che andava in protezione termica e spegneva il sistema (quando con la stessa mobo cloccavo il Phenom II a 4.0 GHz anche con vcore di 1.5V non avevo nessun problema sui VRM), cosa che non accade con Intel dove i componenti della mobo sono tutti nella norma come temperature di esercizio.

Per il mio uso un processore come l'i5 mi da mediamente una resa migliore visto che non faccio uso di software fortemente MT. E soprattutto in game ho un processore che sia quando un gioco esce con un motore ottimizzato all'MT o usa un motore obsoleto mi garantisce sempre un ottima resa.

p.s. se farmi qualche domanda non inerente alla discussione puoi contattarmi in pvt

Quello che ho sperimentato io ormai 2 anni fa da 955 a 2500K.

marchigiano
13-11-2013, 14:00
http://gamegpu.ru/images/stories/Test_GPU/Action/Crysis%203/test/proz.jpg

fatto test personale, i5-750 con GTX670, in un punto con la cpu a 2.8ghz avevo 34 frames circa, clocco a 3.6ghz e rimango sempre a 34 frames :mbe:

forse in altri punti la cpu si sentirà di più ma non mi sembra di essere cpu-limited per ora...

BMWZ8
13-11-2013, 14:05
fatto test personale, i5-750 con GTX670, in un punto con la cpu a 2.8ghz avevo 34 frames circa, clocco a 3.6ghz e rimango sempre a 34 frames :mbe:

forse in altri punti la cpu si sentirà di più ma non mi sembra di essere cpu-limited per ora...



farò la stessa cosa io con il 920 e oltre crysis 3 anche battlefield 4 in full hd, a me questa storia del cpu limited mi puzza (o è solo rosicamento :asd: )

BMWZ8
13-11-2013, 14:39
ecco qua:

crysis 3 tutto a palla tranne aa 2x e ombreggiatura su high
bf4 tutto a palla tranne aa 2x
vga come da firma

cpu @2700 ht on

2013-11-13 14:14:56 - Crysis3
Frames: 960 - Time: 24929ms - Avg: 38.509 - Min: 32 - Max: 46

2013-11-13 14:19:01 - bf4
Frames: 1814 - Time: 31200ms - Avg: 58.141 - Min: 50 - Max: 62


cpu@3780 ht on

2013-11-13 14:24:29 - Crysis3
Frames: 1101 - Time: 28579ms - Avg: 38.525 - Min: 32 - Max: 47

2013-11-13 14:28:54 - bf4
Frames: 2086 - Time: 35615ms - Avg: 58.571 - Min: 52 - Max: 62



mi sa che downclocco la cpu, sto sprecando corrente :stordita:

Pat77
13-11-2013, 15:12
ecco qua:

crysis 3 tutto a palla tranne aa 2x e ombreggiatura su high
bf4 tutto a palla tranne aa 2x
vga come da firma

cpu @2700 ht on

2013-11-13 14:14:56 - Crysis3
Frames: 960 - Time: 24929ms - Avg: 38.509 - Min: 32 - Max: 46

2013-11-13 14:19:01 - bf4
Frames: 1814 - Time: 31200ms - Avg: 58.141 - Min: 50 - Max: 62


cpu@3780 ht on

2013-11-13 14:24:29 - Crysis3
Frames: 1101 - Time: 28579ms - Avg: 38.525 - Min: 32 - Max: 47

2013-11-13 14:28:54 - bf4
Frames: 2086 - Time: 35615ms - Avg: 58.571 - Min: 52 - Max: 62



mi sa che downclocco la cpu, sto sprecando corrente :stordita:

Ottimo test, ennesima dimostrazione che fare prove gpu limited conta 0.

Agena_The_Bulldozer
13-11-2013, 15:33
che cambiamenti hai riscontrato ??'

ma perchè son forse paragonabili un 8320 e un 4670 ? :confused:

29Leonardo
13-11-2013, 16:06
ma perchè son forse paragonabili un 8320 e un 4670 ? :confused:

Fare paragoni tra cpu di fascia di prezzo diverse ha un senso?

Agena_The_Bulldozer
13-11-2013, 16:20
Doh ! Chi se revede, leomardo29, il fenomeno che voleva scoperchià i Sandy, ma ROTFL, qual buon vento te porta ?
Io il paragone non l'ho fatto mica, pure perchè solo un cecato nun vede che miglioramenti ci potrebbero esser a passà da un 8320 a un 4670k.
:Prrr:

nardustyle
13-11-2013, 16:20
ma perchè son forse paragonabili un 8320 e un 4670 ? :confused:

Be sono li, la differenza è su un punto particolare di un gioco e solo su quelli vecchi , e nei bench , come detto da "nforce ultra" ;) ... che credo abbia cambiato più per i problemi con i vrm che per prestazioni in +

giusto?

Nforce Ultra
13-11-2013, 16:34
Be sono li, la differenza è su un punto particolare di un gioco e solo su quelli vecchi , e nei bench , come detto da "nforce ultra" ;) ... che credo abbia cambiato più per i problemi con i vrm che per prestazioni in +

giusto?

Si beh sono li non proprio, quando non c'è MT spinto il 4670K va molto di più dell'8320 pure occato a 5 GHz non c'è paragone tra i due processori. Va talmente tanto in più che riesce con 4 core in meno ad avere spesso più prestazioni anche in MT.
A me dell'FX non piace la dipendenza che hanno dal software perché quando non supportati in modo adeguato hanno prestazioni pessime (infatti si cerca di ovviare a questo difetto occandoli al più non posso invece un Intel anche a default ti da già prestazioni ottime come ti aspetti da una buona cpu).
Infatti da come sto vedendo AMD ha abbandonato steamroller FX, e sta percorrendo la strada APU, meno core con più IPC e la scheda video a supporto.

In game tra 8320 e 4670 a default c'è un abisso qui e non si parla di "gioco vecchio":
http://img819.imageshack.us/img819/5559/v6e2.png (http://imageshack.us/photo/my-images/819/v6e2.png/)

Uploaded with ImageShack.us (http://imageshack.us)

29Leonardo
13-11-2013, 16:34
Doh ! Chi se revede, leomardo29, il fenomeno che voleva scoperchià i Sandy, ma ROTFL, qual buon vento te porta ?
Io il paragone non l'ho fatto mica, pure perchè solo un cecato nun vede che miglioramenti ci potrebbero esser a passà da un 8320 a un 4670k.
:Prrr:

Meglio essere fenomeno sbagliando, non posso di certo ricordare ogni revision delle cpu intel scoperchiabili o meno, che fare il nazi estrapolando l'errore dove fa comodo per punzecchiare e sorvolare sul contenuto di un post.

Ma tanto chi voleva capire il discorso l'aveva capito, ma siccome il forum pullula di persone che conoscono due linguaggi in croce e si atteggiano da steve jobs o bill gates in erba ci si sofferma su ste cose. ;)

Agena_The_Bulldozer
13-11-2013, 16:40
messaggio per N-ForceUltra,
vorrei sapè na cosa.
i prezzi dei tuoi sistemi
microprocessore 8320 schedamadre dissipatore adeguato
microprocessore 4670k scheda madre dissipatore adeguato
Ho motivo de crede che nel totale non ci sia sta grossa differenza de prezzo.
attendo risposta grazie

Nforce Ultra
13-11-2013, 16:46
messaggio per N-ForceUltra,
vorrei sapè na cosa.
i prezzi dei tuoi sistemi
microprocessore 8320 schedamadre dissipatore adeguato
microprocessore 4670k scheda madre dissipatore adeguato
Ho motivo de crede che nel totale non ci sia sta grossa differenza de prezzo.
attendo risposta grazie

Ci sono a parità di dissipatore 44 euro di differenza tra il sistema di prima e quello di adesso coi prezzi attuali presi da trovaprezzi

nardustyle
13-11-2013, 16:59
Si beh sono li non proprio, quando non c'è MT spinto il 4670K va molto di più dell'8320 pure occato a 5 GHz non c'è paragone tra i due processori. Va talmente tanto in più che riesce con 4 core in meno ad avere spesso più prestazioni anche in MT.
A me dell'FX non piace la dipendenza che hanno dal software perché quando non supportati in modo adeguato hanno prestazioni pessime (infatti si cerca di ovviare a questo difetto occandoli al più non posso invece un Intel anche a default ti da già prestazioni ottime come ti aspetti da una buona cpu).
Infatti da come sto vedendo AMD ha abbandonato steamroller FX, e sta percorrendo la strada APU, meno core con più IPC e la scheda video a supporto.

In game tra 8320 e 4670 a default c'è un abisso qui:
http://img809.imageshack.us/img809/3460/h2y6.png (http://imageshack.us/photo/my-images/809/h2y6.png/)

Uploaded with ImageShack.us (http://imageshack.us)


mi fai l'esempio sui programmi perchè io ho l'8350 e il 3930k e a parte qualche filtro di illustrator non noto differenze sostanziali , :what:

uso quasi solo adobe cs6, autocad e poco altro

BMWZ8
13-11-2013, 17:01
Ottimo test, ennesima dimostrazione che fare prove gpu limited conta 0.

Vero, se mi individui una situazione di cpu limited a risoluzioni di mercato,usando schede ultrapotenti, ci sto, in tal modo capisco dove indirizzare i soldi nel fare un nuovo investimento, ma se mi vai a fare i test a risoluzione da game boy, a me sinceramente di quello che succede in uno scenario teorico non me ne importa nulla ;)

Agena_The_Bulldozer
13-11-2013, 17:03
mi fai l'esempio sui programmi perchè io ho l'8350 e il 3930k e a parte qualche filtro di illustrator non noto differenze sostanziali , :what:

uso quasi solo adobe cs6, autocad e poco altro

è il thread del gaming, che c'entrano mo Adobe, Autocad e co. ??? :confused:
Che poi pure su quelli...

Nforce Ultra
13-11-2013, 17:10
Ecco dei test su programmi: http://www.anandtech.com/bench/product/698?vs=837

Questa è la differenza tra i tuoi due processori invece: http://www.anandtech.com/bench/product/697?vs=552

comunque Nardustyle per rimanere inerenti alla discussione dove si parla di game mi sembra che la differenza tra 8320 e 4670 nel test postato sopra sia evidente

Pat77
13-11-2013, 17:18
Vero, se mi individui una situazione di cpu limited a risoluzioni di mercato,usando schede ultrapotenti, ci sto, in tal modo capisco dove indirizzare i soldi nel fare un nuovo investimento, ma se mi vai a fare i test a risoluzione da game boy, a me sinceramente di quello che succede in uno scenario teorico non me ne importa nulla ;)

Company of heroes 2, Starcraft 2, Total War Rome 2, Skyrim nei minimi, Arma 3, Battlefiled 4 nel MP 64 giocatori, ecc...

Gli scenari teorici servono a prevederne la longevità, se la cpu x ti garantisce 60 fps a 640 e la y 30 fps sempre alla medesima risoluzione capisci che una è al limite e l'altra no, anche se fanno tutte e due 30 fps a 1920 dopo 6 mesi qualsiasi cosa potrebbe essere ingiocabile sulla meno prestante.
Senza contare se aggiorni la GPU e che se una cpu può generarne 60 fps se la fai andare a 30 consumi la metà.

Ripeto, imho, testare una cpu in regime di GPU limited è come testare la velocità di un autovettura nel traffico di Milano, è magari uno scenario più palusibile, ma del tutto non indicativo.

BMWZ8
13-11-2013, 17:33
Company of heroes 2, Starcraft 2, Total War Rome 2, Skyrim nei minimi, Arma 3, Battlefiled 4 nel MP 64 giocatori, ecc...

Gli scenari teorici servono a prevederne la longevità, se la cpu x ti garantisce 60 fps a 640 e la y 30 fps sempre alla medesima risoluzione capisci che una è al limite e l'altra no, anche se fanno tutte e due 30 fps a 1920 dopo 6 mesi qualsiasi cosa potrebbe essere ingiocabile sulla meno prestante.
Senza contare se aggiorni la GPU e che se una cpu può generarne 60 fps se la fai andare a 30 consumi la metà.

Ripeto, imho, testare una cpu in regime di GPU limited è come testare la velocità di un autovettura nel traffico di Milano, è magari uno scenario più palusibile, ma del tutto non indicativo.

Guarda in sostanza stiamo dicendo la stessa cosa, solo che io diciamo che vorrei che la condizione di cpu limited, venisse trovata grazie ad altri stratagemmi piuttosto che il portare la risoluzione sotto al fullhd. (tutto l'elenco che hai fatto tu, ad esempio, è cpu limited anche in fullhd e forse anche oltre,) che siano appunto giochi in condizioni particolari come battlefield in mp, o un setup di schede top di gamma in multigpu, condizione quest'ultima che potrebbe essere cpu limited anche a 1600p, se prendi una bestia come la 780ti o che ne so, due 690 per esempio.


mica lo so se mi sono spiegato bene,vado di fretta :D

Pat77
13-11-2013, 17:38
Guarda in sostanza stiamo dicendo la stessa cosa, solo che io diciamo che vorrei che la condizione di cpu limited, venisse trovata grazie ad altri stratagemmi piuttosto che il portare la risoluzione sotto al fullhd. (tutto l'elenco che hai fatto tu, ad esempio, è cpu limited anche in fullhd e forse anche oltre,) che siano appunto giochi in condizioni particolari come battlefield in mp, o un setup di schede top di gamma in multigpu, condizione quest'ultima che potrebbe essere cpu limited anche a 1600p, se prendi una bestia come la 780ti o che ne so, due 690 per esempio.


mica lo so se mi sono spiegato bene,vado di fretta :D

Si ma la tua metodologia comporta o che ti prendi una scheda uber o SLI, o che ti limiti a taluni ambiti e titoli.

C'è dignità nell'abbassare la risoluzione ;) anche perchè i test si fanno sempre al massimo dettaglio, e se lo abbasso un po'? da una parte aumenta il frame dall'altra no, sai che bellezza ;)

affiu
13-11-2013, 22:20
Questo è un 3d che si basa sui test concreti e ti prego vivamente di non flammare, anche perchè c'è chi ha profetizzato cambiamenti con la next gen, la next gen è arrivata e le cose non sono cambiate CVD.

http://pclab.pl/zdjecia/artykuly/chaostheory/2013/10/bf4/charts/bf4_cpu_geforce.png

Ciao.

Aiutami a capirti, cioè cosa intendi per dati concreti; i test game?...se questo ok(mi trovo d'accordo),ma io non mi riferisco a nessun punto di vista che debba necessariamente decretare un vincitore o sovverchiare questo verdetto odierno;sia chiara la cosa.

Poi potrei capire cosa intendete pet nex generation..proprio in termini pratici: un periodo ,una moda, un'enfasi, o tutto quello che si voglia(non mi è chiaro cosa intendete di PRECISO,e se corrisponde a quello che potrei pensare io od altri).

Ad ogni modo,siccome questo thread parla di gaming-processore ANALISI, sono interventuo; anzi sono intervenuto all'utente: ''Custode '' che parlava dell'uscita a breve di need for speed rival e ho ritenuto opportuno specificare che adotta frostbite 3 engine, dato che aveva menzionato come si sarebbero comportati i processore(di entrambe le sponde), tutto qui.

Ora non voglio fare flame, ho solo associato il fatto che ci sono fatti concreti di collaborazioni sui giochi(una 15 cina che sicuramente daranno una mano agli fx ,anche senza vincere, ma cmq su tale base architetturale-FX ) su tale motore grafico(frostbite3) ed ALTRI MOTORI probabilmente NON si soffrirebbbe piu di problemi di CONTINUITA dei frame(salti improvvisi verso il basso/o non costante) COME SUCCEDE con bf4,come anche il 3 e POCHI ALTRI...senza tirare inballo superamenti o altro di carattere LUNARE.

Sono d'accordo che bisogna riflettere, ma anche te DEVI convenire anche sul fatto che esistono alcuni giochi oggi in cui differenza(nell'uso pratico)NON ESISTE IN FULL-HD;
Questi giochi chiaramente non sono la maggior parte ,ma per quanto(a libera interpretazione di quanto possano essere o quali siano precisamente OGGI/ADESSO) possano essere ,che non cambia la MEDIA dei giochi come scenario(ed non mi riferivo e neppure mi interessa), certamente aumenteranno.

Il mio è solo una Identificazione di una previsione che si basa su dati concretissimi(mantle-COLLABORAZIONE con DICE/EA/ e tutto quasi, e non si può venire a dire che queste collaborazione POSSANO essere passate per causali); che ripeto non associo nessuna riflessione a scenari di vittorie e trionfi.

Io la vedo cosi IN GIOCHI come bf3/bf4(come altri pochi che si sposano bene con l'architettura bulldozer che con la metà dell'ipc ti caccia fuori gli stessi frame o vicinissimi, che non fa parte DELLA MATURITA dell'evoluzione di bulldozer....e siamo messi più che bene, perchè appena trasportano steamroller in qualsiasi silicio DIO destinerà , e quelli che verranno, potrà NON ESSERCI PIU' la differenza che c'è oggi.):

-uso cpu x 8 core al 60% e IPC LA META'(CHIARAMENTE numero di threads maggiore di 4)==X FRAME
-uso cpu x 4 core al 90-100% e IPC il DOPPIO(CHIARAMENTE numero di threads maggiore di 4)==y frame

con x=y cioè gli stessi frame o tali da NON potersi definire differenza.

e non sappiamo(di preciso) nulla di MANTLE per quanto riguarda la parte cpu degli fx(perchè interesserà di conseguenza alla GCN anche a loro).... di non preciso troviamo '' Superb CPU performance''...chi lo può sapere se tale motore grafico con MANTLE prende il volo...lo vedremo fra un mese quando rilasceranno la patch ... se è tutto un illusione od altro.

Pat77 ,permettetemi con tutto rispetto, ma da appassionato non mi puoi commentare collaborazioni cosi come se fossero casuali,quando invece è PROPRIO l'architettura bulldozer che si presta meglio alla programmazione ai giochi(idea personale,ma secondo me è meglio) altrimenti mi spieghi come mai ci sono i big e lo stesso succede per i partner con HSA delle APU.

Poi uno resta dalla sua idea, ma non CREDERO' certo che collaborazioni si fanno senza che ci sia un guadagno considerando che ci sono UNA MONTAGNA DI SOLDI? Convieni con me o trovi del NON LOGICO in quel che ho scritto?...almeno il senso logico è a volte meglio di mille grafici, fidati!

Non stiamo parlando di piccoli, ma di collaborazione DI QUESTI che spostano DAI 30 AI 70 miliardi di dollari:eek: e forse l'anno prossimo(tra fine 2013 e il 2014) si superano pure IL NUMERO 100(miliardi di dollari)per il settore GAME...ed purtroppo esiste una parola adesso all'orizzonte,che d'altronde può fare paura(non certo a noi appassionati, che scegliamo i nostri processori in base a quello che sentiamo, ci garba, ci da il max, ci da il medio ecc ecc) e si chiama

....:eek: MANTLE :eek: ... nato per APU-GAME(come concezione) esclusivamente, anche se sono ancora in cantiere(le componenti fx-evoluzione + la gcn-evoluzione) oggi i pezzi per la FASCIA ALTA APU ed in continua evoluzione

Dall'altra parte io non vedo nulla? Tu cosa vedi, a parte l'ipotetico processore non-amd che sarebbe dovuto andare nella ps4 ed invece si è arenato, SOLO i grafici?...cmq andrà lo vedremo e commenteremo insieme.:)

Mantle,a mio modo di vedere , fa parte della trinità:

Fx(intesa come evuzione) + GCN(intesa come evoluzione) + MANTLE= preparazione DEL CORREDO software che dovrà essere pronto per girare nella GRANDE-APU(oggi ci sono le APU AMD delle console)...mantle è il linguaggio che li farà convergere nel processore ibrido, praticamente il futuro DEL GAME di DOMANI secondo me.;)

nardustyle
14-11-2013, 08:08
Si ma la tua metodologia comporta o che ti prendi una scheda uber o SLI, o che ti limiti a taluni ambiti e titoli.

C'è dignità nell'abbassare la risoluzione ;) anche perchè i test si fanno sempre al massimo dettaglio, e se lo abbasso un po'? da una parte aumenta il frame dall'altra no, sai che bellezza ;)

abbassare la risoluzione per fare i test è una delle più grandi castronerie informatiche degli ultimi anni a mio avviso:doh:

alzando le risoluzioni il comportamento è totalmente differente, pensando al futuro è ancora più sbagliato visto che basta cambiare il modo di programmare per cambiare tutto ,,,,,

FroZen
14-11-2013, 08:56
Allora? come gira BF4 a 800x600 su un 4K? :Prrr: Bene bene, vedo che in fullHD un 8320 da 120€ ti permette di giocare alla grandissima (pure gli i5), un po' di oc e si risparmiano un sacco di soldi per andare a mangiare la pizza con la fidanzata....

Agena_The_Bulldozer
14-11-2013, 09:17
mazza che bello sto thread aò !
Ci sta da divertisse peggio de un film de Bombolo dell' 82 :ciapet:
Mi passereste i contatti dei vostri pusher ?
http://www.youtube.com/watch?v=CRyIkdxKARY

BMWZ8
14-11-2013, 09:22
vedo con piacere che siamo tutti d'accordo su questo fatto della risoluzione :D



però dai, non sterilizziamo il thread, anche se abbiamo modi di vedere diversi.



Piuttosto, se qualcuno mi regala un trisli di 290 o di titan io faccio tanti test :D

nardustyle
14-11-2013, 09:23
mazza che bello sto thread aò !
Ci sta da divertisse peggio de un film de Bombolo dell' 82 :ciapet:
Mi passereste i contatti dei vostri pusher ?
http://www.youtube.com/watch?v=CRyIkdxKARY

io faccio il pusher :Prrr: :Prrr: :Prrr: :Prrr:

Pat77
14-11-2013, 10:25
Aiutami a capirti, cioè cosa intendi per dati concreti; i test game?...se questo ok(mi trovo d'accordo),ma io non mi riferisco a nessun punto di vista che debba necessariamente decretare un vincitore o sovverchiare questo verdetto odierno;sia chiara la cosa.

Poi potrei capire cosa intendete pet nex generation..proprio in termini pratici: un periodo ,una moda, un'enfasi, o tutto quello che si voglia(non mi è chiaro cosa intendete di PRECISO,e se corrisponde a quello che potrei pensare io od altri).

Intendo un confronto diretto tra le varie cpu non basati su supposizioni.
La next gen è quella che doveva arrivare con le nuove console e cambiare gli equilibri, cosa che per ora non è accaduta.

Ad ogni modo,siccome questo thread parla di gaming-processore ANALISI, sono interventuo; anzi sono intervenuto all'utente: ''Custode '' che parlava dell'uscita a breve di need for speed rival e ho ritenuto opportuno specificare che adotta frostbite 3 engine, dato che aveva menzionato come si sarebbero comportati i processore(di entrambe le sponde), tutto qui.

Ora non voglio fare flame, ho solo associato il fatto che ci sono fatti concreti di collaborazioni sui giochi(una 15 cina che sicuramente daranno una mano agli fx ,anche senza vincere, ma cmq su tale base architetturale-FX ) su tale motore grafico(frostbite3) ed ALTRI MOTORI probabilmente NON si soffrirebbbe piu di problemi di CONTINUITA dei frame(salti improvvisi verso il basso/o non costante) COME SUCCEDE con bf4,come anche il 3 e POCHI ALTRI...senza tirare inballo superamenti o altro di carattere LUNARE.

E' un 3d di analisi, sicuramente quando usciranno confronti commenteremo anche le performance con Mantle, ma da qui ad annunciarne il successo ce ne passa, ci sono veramente troppe incognite, la collaborazione con Ea comunque non esclude altre modalità di rendering, io di soluzioni proprietarie specifiche per un HW ne ho viste molte in passato tutte fallite, senza contare che Xbox One supporta solo Dx11.x, ovviamente e nemmeno Ps4 ha annunciato il supporto.

Sono d'accordo che bisogna riflettere, ma anche te DEVI convenire anche sul fatto che esistono alcuni giochi oggi in cui differenza(nell'uso pratico)NON ESISTE IN FULL-HD;
Questi giochi chiaramente non sono la maggior parte ,ma per quanto(a libera interpretazione di quanto possano essere o quali siano precisamente OGGI/ADESSO) possano essere ,che non cambia la MEDIA dei giochi come scenario(ed non mi riferivo e neppure mi interessa), certamente aumenteranno.

Il mio è solo una Identificazione di una previsione che si basa su dati concretissimi(mantle-COLLABORAZIONE con DICE/EA/ e tutto quasi, e non si può venire a dire che queste collaborazione POSSANO essere passate per causali); che ripeto non associo nessuna riflessione a scenari di vittorie e trionfi.

Credimi ci sono troppi scenari, non tutti hanno le risorse per investire 2 mesi per la conversione, e nessuno è così pazzo da abbandonare le DX11 per questioni di compatibilità con tutto l'hw esistente, comunque vedremo i benefici quali saranno.
Inoltre il mondo dei videogiochi non è solo Ea e Amd, c'è Nvidia, Ubisoft, Bhetesda, ci sono motori basati su DX come il Cryengine 3, l'Unreal 4, c'è Steam Box che per ora è solo Nvidia, come si fa a sminuire tutto in quello, forse è una tua speranza, ma di concreto, ora come ora, parlo in termini numerici, bench, confronti, non abbiamo nulla.

Io la vedo cosi IN GIOCHI come bf3/bf4(come altri pochi che si sposano bene con l'architettura bulldozer che con la metà dell'ipc ti caccia fuori gli stessi frame o vicinissimi, che non fa parte DELLA MATURITA dell'evoluzione di bulldozer....e siamo messi più che bene, perchè appena trasportano steamroller in qualsiasi silicio DIO destinerà , e quelli che verranno, potrà NON ESSERCI PIU' la differenza che c'è oggi.):

-uso cpu x 8 core al 60% e IPC LA META'(CHIARAMENTE numero di threads maggiore di 4)==X FRAME
-uso cpu x 4 core al 90-100% e IPC il DOPPIO(CHIARAMENTE numero di threads maggiore di 4)==y frame

con x=y cioè gli stessi frame o tali da NON potersi definire differenza.

e non sappiamo(di preciso) nulla di MANTLE per quanto riguarda la parte cpu degli fx(perchè interesserà di conseguenza alla GCN anche a loro).... di non preciso troviamo '' Superb CPU performance''...chi lo può sapere se tale motore grafico con MANTLE prende il volo...lo vedremo fra un mese quando rilasceranno la patch ... se è tutto un illusione od altro.

Ecco, parliamo di differenze. Oggi ci sono ancora, tendenzialmente nei titoli fortemente MT un 8350, quando va bene, pareggi un 4 core Intel non Haswell, il distacco è imbarazzante negli altri casi.
Se ci basiamo sul Superb Cpu Performance allora possiamo dire tutto e nulla, è evidentemente marketing.

Pat77 ,permettetemi con tutto rispetto, ma da appassionato non mi puoi commentare collaborazioni cosi come se fossero casuali,quando invece è PROPRIO l'architettura bulldozer che si presta meglio alla programmazione ai giochi(idea personale,ma secondo me è meglio) altrimenti mi spieghi come mai ci sono i big e lo stesso succede per i partner con HSA delle APU.

Poi uno resta dalla sua idea, ma non CREDERO' certo che collaborazioni si fanno senza che ci sia un guadagno considerando che ci sono UNA MONTAGNA DI SOLDI? Convieni con me o trovi del NON LOGICO in quel che ho scritto?...almeno il senso logico è a volte meglio di mille grafici, fidati!

Non stiamo parlando di piccoli, ma di collaborazione DI QUESTI che spostano DAI 30 AI 70 miliardi di dollari e forse l'anno prossimo(tra fine 2013 e il 2014) si superano pure IL NUMERO 100(miliardi di dollari)per il settore GAME...ed purtroppo esiste una parola adesso all'orizzonte,che d'altronde può fare paura(non certo a noi appassionati, che scegliamo i nostri processori in base a quello che sentiamo, ci garba, ci da il max, ci da il medio ecc ecc) e si chiama

.... MANTLE ... nato per APU-GAME(come concezione) esclusivamente, anche se sono ancora in cantiere(le componenti fx-evoluzione + la gcn-evoluzione) oggi i pezzi per la FASCIA ALTA APU ed in continua evoluzione

Dall'altra parte io non vedo nulla? Tu cosa vedi, a parte l'ipotetico processore non-amd che sarebbe dovuto andare nella ps4 ed invece si è arenato, SOLO i grafici?...cmq andrà lo vedremo e commenteremo insieme.

Mantle,a mio modo di vedere , fa parte della trinità:

Fx(intesa come evuzione) + GCN(intesa come evoluzione) + MANTLE= preparazione DEL CORREDO software che dovrà essere pronto per girare nella GRANDE-APU(oggi ci sono le APU AMD delle console)...mantle è il linguaggio che li farà convergere nel processore ibrido, praticamente il futuro DEL GAME di DOMANI secondo me.

Affiu2 permettimi ma io commento solo i risultati che vedo, belli o brutti che siano, vorrei ricordare, per chi mi taccia di antipatia vs Amd che sono stato io ad aprire il 3d dove si evidenziava che sotto molteplici carichi contemporanei un 8350 andava in crisi dopo, quello è stato molto interessante, per il resto è giusto essere critici perchè le critiche le meritano, dai chipset dell'anteguerra, alle performance altalenanti, ai consumi, mi sembra quasi che si tenda, non so per quale motivo, a minimizzare queste cose, a sperare nel futuro, e quando arriva il futuro e non è come si sperava a risperare in un altro futuro, mi sembra veramente il deserto dei Tartari questa vicenda, quando arriverà sto futuro stellare le cpu saranno talmente vecchie che bisognerà aggiornarle con qualcosa di più moderno... e nel frattempo, nella speranza, si è stati costretti a performance indecenti, a me sembra un modus a perdere, poi magari mi sbaglierò io, ma preferisco la consistenza.

Pat77
14-11-2013, 10:30
abbassare la risoluzione per fare i test è una delle più grandi castronerie informatiche degli ultimi anni a mio avviso:doh:

alzando le risoluzioni il comportamento è totalmente differente, pensando al futuro è ancora più sbagliato visto che basta cambiare il modo di programmare per cambiare tutto ,,,,,

;) testare invece tutto in regime di gpu limited ha senso, che restituisce questo verdetto:

http://static.techspot.com/articles-info/734/bench/CPU_01.png

Nel titolo più MT che esiste un 4100 va praticamente come un I7 4960X, questa è la verità...

Pat77
14-11-2013, 10:31
Allora? come gira BF4 a 800x600 su un 4K? :Prrr: Bene bene, vedo che in fullHD un 8320 da 120€ ti permette di giocare alla grandissima (pure gli i5), un po' di oc e si risparmiano un sacco di soldi per andare a mangiare la pizza con la fidanzata....

Con quello che ti costa in più di main, per overcloccarlo e di dissipatore è già tanto se ci risparmi il costo equivalente a un'oliva... :rolleyes:

Pat77
14-11-2013, 10:34
vedo con piacere che siamo tutti d'accordo su questo fatto della risoluzione :D



però dai, non sterilizziamo il thread, anche se abbiamo modi di vedere diversi.



Piuttosto, se qualcuno mi regala un trisli di 290 o di titan io faccio tanti test :D

Bhe è la soluzione migliore,... poi tutti d'accordo non direi, le recensioni serie se testano la gpu aumentano la risoluzione, se testano la cpu la abbassano, per escludere eventuali influenze, non capisco dove sia il problema.
E' irrealistico? La review mi deve dire le prestazioni massime, poi se la mia Gpu mi consente 15-50-2000 fps sarò io a valutare...

nardustyle
14-11-2013, 11:07
;) testare invece tutto in regime di gpu limited ha senso, che restituisce questo verdetto:

http://static.techspot.com/articles-info/734/bench/CPU_01.png

Nel titolo più MT che esiste un 4100 va praticamente come un I7 4960X, questa è la verità...

E che senso ha abbassare altri fattori ? al massimo puoi alzare la potenza delle gpu non diminuire le risoluzioni :doh: , abbassando le risoluzioni non si simula assolutamente nulla , basta vedere che abbassando la risoluzione e invece aumentare la potenza gpu da risultati veramente diversi

http://images.anandtech.com/graphs/graph7189/56751.png

http://images.anandtech.com/graphs/graph7189/56752.png

http://images.anandtech.com/graphs/graph7189/56753.png

http://media.bestofmicro.com/W/Y/369250/original/MetroHiCPUBottleneck2013.png

http://media.bestofmicro.com/W/Z/369251/original/MetroVeryHiCPUBottleneck2013.png

affiu
14-11-2013, 11:27
Intendo un confronto diretto tra le varie cpu non basati su supposizioni.
La next gen è quella che doveva arrivare con le nuove console e cambiare gli equilibri, cosa che per ora non è accaduta.



E' un 3d di analisi, sicuramente quando usciranno confronti commenteremo anche le performance con Mantle, ma da qui ad annunciarne il successo ce ne passa, ci sono veramente troppe incognite, la collaborazione con Ea comunque non esclude altre modalità di rendering, io di soluzioni proprietarie specifiche per un HW ne ho viste molte in passato tutte fallite, senza contare che Xbox One supporta solo Dx11.x, ovviamente e nemmeno Ps4 ha annunciato il supporto.



Credimi ci sono troppi scenari, non tutti hanno le risorse per investire 2 mesi per la conversione, e nessuno è così pazzo da abbandonare le DX11 per questioni di compatibilità con tutto l'hw esistente, comunque vedremo i benefici quali saranno.
Inoltre il mondo dei videogiochi non è solo Ea e Amd, c'è Nvidia, Ubisoft, Bhetesda, ci sono motori basati su DX come il Cryengine 3, l'Unreal 4, c'è Steam Box che per ora è solo Nvidia, come si fa a sminuire tutto in quello, forse è una tua speranza, ma di concreto, ora come ora, parlo in termini numerici, bench, confronti, non abbiamo nulla.



Ecco, parliamo di differenze. Oggi ci sono ancora, tendenzialmente nei titoli fortemente MT un 8350, quando va bene, pareggi un 4 core Intel non Haswell, il distacco è imbarazzante negli altri casi.
Se ci basiamo sul Superb Cpu Performance allora possiamo dire tutto e nulla, è evidentemente marketing.



Affiu2 permettimi ma io commento solo i risultati che vedo, belli o brutti che siano, vorrei ricordare, per chi mi taccia di antipatia vs Amd che sono stato io ad aprire il 3d dove si evidenziava che sotto molteplici carichi contemporanei un 8350 andava in crisi dopo, quello è stato molto interessante, per il resto è giusto essere critici perchè le critiche le meritano, dai chipset dell'anteguerra, alle performance altalenanti, ai consumi, mi sembra quasi che si tenda, non so per quale motivo, a minimizzare queste cose, a sperare nel futuro, e quando arriva il futuro e non è come si sperava a risperare in un altro futuro, mi sembra veramente il deserto dei Tartari questa vicenda, quando arriverà sto futuro stellare le cpu saranno talmente vecchie che bisognerà aggiornarle con qualcosa di più moderno... e nel frattempo, nella speranza, si è stati costretti a performance indecenti, a me sembra un modus a perdere, poi magari mi sbaglierò io, ma preferisco la consistenza.

D'accordo, però La next generation non è ancora uscita(intesa come console + giochi) e dobbiamo piangere che NON sarà cosi!Lasciamo uscire le console, ed cmq i giochi in cantiere ci sono per le console, basta andare su internet, nei vari siti riguardanti game/console.....Insomma non possiamo ''archiviare'' qualcosa che ancora deve uscire come qualcosa di già passato e fallito(dico bene?), ...anzi sta per arrivare....altrimenti mi viene il solito legittimo sospetto di...;)

Forse Pat77, non avete idea o forse non volete vederla(che come sempre può essere una cosa che funziona 50%/ come qualcosa che fallirà l'altro 50%,ma non possiamo andare oltre questo 50%/50% di probabilità) del fatto che ci sono molti soldi , un po' come HSA di kaveri; cioè non possiamo oggi,così di colpo, pensare di stravolgere la legge di come si muovono i soldi, perché necessariamente ci deve essere qualcosa di (chiamiamola cos') positiva...necessariamente.
Un po' come quello che successe sul processore che doveva andare sulla ps4 e che non c'è stato?perchè la sony se fatto 2 conti ed non ha mosso i suoi soldi...sono leggi del mondo.

Non centra nulla la mia speranza o forse la vostra che magari sperate che non sarà cosi?
Ad ogni modo Pat77, io NON sto scludendo nulla,MA IL MONDO CONSOLE non mi puoi venire a dire che non conta nulla, Perché DA SEMPRE tutto gira intorno a queste cose, DI CUI L'HARDWARE è AMD ...non c'è nulla da fare che accettare passivamente,aldilà di come andrà la storia.
Poi CMQ MANTLE non è qualcosa che interferisce con chissa cosa; cioè i motori come esempio frostbite3(in cui ci sono 15 giochi in sviluppo,+ altri che verranno dal futuro)girano su D.X ,ma possono girare anche su mantle.
Cioè è ''qualcosa'' che cerca di sorvolare ''l'ancoraggio'' del gioco al sistema operativo passando per il kernel(tra cpu è gpu)...qualcosa di diretto(in termini di elaborazione e renderizzazione) che esce direttamente dalla scheda video allo schermo, con tutto in vantaggio di effetti speciali che oggi MAGARI si possono SOLO SOGNARE, e non centrano nulla i frame/s.

A me dell'antipatia o simpatia o cose congeneri ,non sono mai riuscito ad intendere bene e non mi frega ,ognuno sceglie ciò che sente meglio ecc.
Io so per certo che fra non molto (permettimi, giusto per una battuta, senza punzecchiare o altro:) ),passerai ad AMD come molti altri:D

Per tutto il resto io ho GIA' tutto l'occorrente per divertermi con AMICI/AMICHE a BF4 con MANTLE:
8 core pompato al max+ GCN+ monitor 27'' 3D @120hz pollici e occhiali 3D + l'over 50'' tv...;)

..ed E' solo l'inizio con MANTLE PER BF4(FIRST GAME) il resto verrà ANCHE per gli altri giochi della nex-generation!

Pat77
14-11-2013, 11:43
D'accordo, però La next generation non è ancora uscita(intesa come console + giochi) e dobbiamo piangere che NON sarà cosi!Lasciamo uscire le console, ed cmq i giochi in cantiere ci sono per le console, basta andare su internet, nei vari siti riguardanti game/console.....Insomma non possiamo ''archiviare'' qualcosa che ancora deve uscire come qualcosa di già passato e fallito(dico bene?), ...anzi sta per arrivare....altrimenti mi viene il solito legittimo sospetto di...;)

Forse Pat77, non avete idea o forse non volete vederla(che come sempre può essere una cosa che funziona 50%/ come qualcosa che fallirà l'altro 50%,ma non possiamo andare oltre questo 50%/50% di probabilità) del fatto che ci sono molti soldi , un po' come HSA di kaveri; cioè non possiamo oggi,così di colpo, pensare di stravolgere la legge di come si muovono i soldi, perché necessariamente ci deve essere qualcosa di (chiamiamola cos') positiva...necessariamente.
Un po' come quello che successe sul processore che doveva andare sulla ps4 e che non c'è stato?perchè la sony se fatto 2 conti ed non ha mosso i suoi soldi...sono leggi del mondo.

Non centra nulla la mia speranza o forse la vostra che magari sperate che non sarà cosi?
Ad ogni modo Pat77, io NON sto scludendo nulla,MA IL MONDO CONSOLE non mi puoi venire a dire che non conta nulla, Perché DA SEMPRE tutto gira intorno a queste cose, DI CUI L'HARDWARE è AMD ...non c'è nulla da fare che accettare passivamente,aldilà di come andrà la storia.
Poi CMQ MANTLE non è qualcosa che interferisce con chissa cosa; cioè i motori come esempio frostbite3(in cui ci sono 15 giochi in sviluppo,+ altri che verranno dal futuro)girano su D.X ,ma possono girare anche su mantle.
Cioè è ''qualcosa'' che cerca di sorvolare ''l'ancoraggio'' del gioco al sistema operativo passando per il kernel(tra cpu è gpu)...qualcosa di diretto(in termini di elaborazione e renderizzazione) che esce direttamente dalla scheda video allo schermo, con tutto in vantaggio di effetti speciali che oggi MAGARI si possono SOLO SOGNARE, e non centrano nulla i frame/s.

A me dell'antipatia o simpatia o cose congeneri ,non sono mai riuscito ad intendere bene e non mi frega ,ognuno sceglie ciò che sente meglio ecc.
Io so per certo che fra non molto (permettimi, giusto per una battuta, senza punzecchiare o altro:) ),passerai ad AMD come molti altri:D

Per tutto il resto io ho GIA' tutto l'occorrente per divertermi con AMICI/AMICHE a BF4 con MANTLE:
8 core pompato al max+ GCN+ monitor 27'' 3D @120hz pollici e occhiali 3D + l'over 50'' tv...;)

..ed E' solo l'inizio con MANTLE PER BF4(FIRST GAME) il resto verrà ANCHE per gli altri giochi della nex-generation!

Io non credo vi sia nessuno che non spera oggi come oggi nella concorrenza, ci sperano tutti. Così puoi pagare meno ed avere prodotti migliori qualsiasi cosa tu scelga.
Quello che dipingi tu sono speranze, tu valuti secondo le tue aspettative alcuni movimenti di mercato e ne deduci un possibile futuro, pacifico, nessuno ti vieta di farlo, solo che qui si valutano i test e questi per ora non sono in quel segno.
Anche io ho una mia idea ma non la scrivo e soprattutto non la do per assodata.

Riguardo a chi passerà e a cosa vedremo... io ho appena preso una GTX 770 :D

Pat77
14-11-2013, 12:03
E che senso ha abbassare altri fattori ? al massimo puoi alzare la potenza delle gpu non diminuire le risoluzioni :doh: , abbassando le risoluzioni non si simula assolutamente nulla , basta vedere che abbassando la risoluzione e invece aumentare la potenza gpu da risultati veramente diversi

Qui ti sbagli clamorosamente, sono le uniche informazioni importanti sapere come le cpu vanno in regime non limitante.
Certo puoi anche mettere 2 gpu, è solo una metodologia più dispendiosa che restituisce gli stessi risultati, perchè se una cpu può dare al massimo che so, 50 fps, non è che se sei in full HD in sli questo dato aumenta o diminuisce, resterà sempre il medesimo.
Siccome si fanno confronti, i confronti devono evidenziare cosa? Le differenze e non essere influenzati da altri fattori.
In un 100 metri contro Usain Bolt probabilmente andrei come lui se entrambi ci dotassimo di 2 pinne ;)

nardustyle
14-11-2013, 12:29
.
Certo puoi anche mettere 2 gpu, è solo una metodologia più dispendiosa che restituisce gli stessi risultati,

è su questo punto preciso che ti sbagli .... NON restituiscono ASSOLUTAMENTE gli stessi risultati ;)

affiu
14-11-2013, 13:23
Io non credo vi sia nessuno che non spera oggi come oggi nella concorrenza, ci sperano tutti. Così puoi pagare meno ed avere prodotti migliori qualsiasi cosa tu scelga.
Quello che dipingi tu sono speranze, tu valuti secondo le tue aspettative alcuni movimenti di mercato e ne deduci un possibile futuro, pacifico, nessuno ti vieta di farlo, solo che qui si valutano i test e questi per ora non sono in quel segno.
Anche io ho una mia idea ma non la scrivo e soprattutto non la do per assodata.

Riguardo a chi passerà e a cosa vedremo... io ho appena preso una GTX 770 :D

Beh che siano speranze ci può stare, ma ci sono anche dichiarazione di Persone di un certo calibro,e bisogna(secondo me) documentarsi meglio:

http://www.tomshw.it/mobile/cont/news/amd-mantle-si-diffonde-15-videogiochi-da-electronic-arts/50800/1.html

....come la si vede o non si vuole vedere esce sempre la parola MANTLE!
Ad ogni modo il tempo avvenire(molto vicino) chiarirà tutto...è magari una semplice 280 sarà una TITAN!:Prrr:
La R290/290x non la considero neanche perché sarà un altro livello PROPRIO con MANTLE!

Pat77
14-11-2013, 13:29
è su questo punto preciso che ti sbagli .... NON restituiscono ASSOLUTAMENTE gli stessi risultati ;)

Hanno già provato a fare test con dual GPU e si sono confermate le evidenze, se a 800x600 vai il doppio da una parte, a 1920 con 2 gpu avrai lo stesso risultato identico, sempre se 2 gpu sono sufficienti. ;)

Pat77
14-11-2013, 13:37
Beh che siano speranze ci può stare, ma ci sono anche dichiarazione di Persone di un certo calibro,e bisogna(secondo me) documentarsi meglio:

http://www.tomshw.it/mobile/cont/news/amd-mantle-si-diffonde-15-videogiochi-da-electronic-arts/50800/1.html

....come la si vede o non si vuole vedere esce sempre la parola MANTLE!
Ad ogni modo il tempo avvenire(molto vicino) chiarirà tutto...è magari una semplice 280 sarà una TITAN!:Prrr:
La R290/290x non la considero neanche perché sarà un altro livello PROPRIO con MANTLE!

Sì bisogna avere un'informazione generale non da un'unica fonte, guarda potrei citarti le stesse cose per altri marchi ma direi di finirla qui, sai cosa mi sembri? Un po' troppo convinto.
Aspetta almeno i test di Mantle prima di fare ipotesi su Titan ecc... si rischiano poi brutte figure.

nardustyle
14-11-2013, 13:50
Hanno già provato a fare test con dual GPU e si sono confermate le evidenze, se a 800x600 vai il doppio da una parte, a 1920 con 2 gpu avrai lo stesso risultato identico, sempre se 2 gpu sono sufficienti. ;)

chi dove e come ??? link link link .... grazie :D :D :D :D :D

tecnicamente è improbabile , non impossibile ma altamente improbabile

Agena_The_Bulldozer
14-11-2013, 15:05
Beh che siano speranze ci può stare, ma ci sono anche dichiarazione di Persone di un certo calibro,e bisogna(secondo me) documentarsi meglio:

http://www.tomshw.it/mobile/cont/news/amd-mantle-si-diffonde-15-videogiochi-da-electronic-arts/50800/1.html

....come la si vede o non si vuole vedere esce sempre la parola MANTLE!
Ad ogni modo il tempo avvenire(molto vicino) chiarirà tutto...è magari una semplice 280 sarà una TITAN!:Prrr:
La R290/290x non la considero neanche perché sarà un altro livello PROPRIO con MANTLE!

opplà
l'unico messaggio inferiore alle 300 righe de testo che hai scritto, era ora.. damò che leggevo poemi da fanca**ista.
Comunque interessante come voi fanboy amd (tanto sei) parlate sempre del futuro. Eh già state così avanti che se voltate indietro vedete ancora er futuro!
eppure io mi sto a vedè tutti i grafici de sto thread e vedo le vostre cpu de punta dietro al sederino degli i3 a magnà la polvere. me sarò cecato pur'io ? :confused:

sgrinfia
14-11-2013, 15:36
opplà
l'unico messaggio inferiore alle 300 righe de testo che hai scritto, era ora.. damò che leggevo poemi da fanca**ista.
Comunque interessante come voi fanboy amd (tanto sei) parlate sempre del futuro. Eh già state così avanti che se voltate indietro vedete ancora er futuro!
eppure io mi sto a vedè tutti i grafici de sto thread e vedo le vostre cpu de punta dietro al sederino degli i3 a magnà la polvere. me sarò cecato pur'io ? :confused:

SENZA PAROLE:confused:

Pat77
14-11-2013, 15:46
chi dove e come ??? link link link .... grazie :D :D :D :D :D

tecnicamente è improbabile , non impossibile ma altamente improbabile

Lol ma come,

http://assets.vr-zone.net/17494/bf3.jpg

http://assets.vr-zone.net/17494/sniper.jpg

Che poi è lo stesso risultato che otteresti abbassando la risoluzione e diminuendo il carico GPU e aumentandolo sulla CPU, almeno per Intel.

Pat77
14-11-2013, 15:53
devono ancora uscire giochi next-gen e già avete dato verdetti... bravi... aspettiamo no, fine 2014 si può fare una sintesi ora no...

veramente qui i verdetti gli avete dati VOI, i dati odierni, obiettivamente, non dicono che c'è stato un cambiamento e in molti titoli un I3, che giustamente dici che per il gaming non è adatto, va comunque come il top di gamma della concorrenza. Il che è paradossale. Poi in futuro ripeto vedremo, potrebbe cambiare ma potrebbe anche non farlo.
Io penso che trapeli questo, le magnificenze di Mantle e gli spot stile marketing chi gli ha tirati in ballo?

Io cosa ho detto?
Aspettiamo mantle e valutiamo.

RedPrimula
14-11-2013, 16:11
Secondo me qui dentro vi fate tutti delle enormi pippe a quattro mani appresso a sti grafici. Non si riesce a non lanciarsi frecciatine o a non essere strafottenti, c'è poco da fare. Ognuno vuole avercelo più lungo dell'altro e dimostrare quanto sia saccente. Invece vi fate solo delle gran pippe :D

Vedere che un i3 si comporta come un 8350 ed entrambi garantiscono la fluidità ideale cosa sta a significare? Che il gioco è o non è ottimizzato? No perchè decidetevi: se l'fx va "male" allora non lo è e se invece va "bene" allora lo è? Idem per gli intel?
Tra parentesi: ho speso 127€ per un i3 l'anno scorso, mentre quest'estate 137€ per un 8320. Per 10€ in più non assisto finalmente a cali vistosi di frame e a brusche variazioni sulla percentuale d'utilizzo della gpu. Ma appunto non è che mi scandalizzo se nello stesso range di prezzo vedo, a volte, un i3 stare subito dietro un 8350. Anzi è da sottolineare come invece i 6300 e gli 8300 siano sempre più vicini agli i5 e a volte gli i7 con gli ultimi engine grafici (vedi sempre frostbite e cryengine).

Quindi per quanto mi riguarda un gioco è ottimizzato quando gira adeguatamente con la maggior parte delle cpu e l'esempio perfetto in questo caso è battlefield 4, sia la parte single che multiplayer. Chi ha un i3 o un fx 4100 può stare tranquillo senza la necessità di dover spender un patrimonio semplicemente per giocare.

E poi scusate, ma non siete contenti di mantle? Non pensate che l'ingresso di amd come protagonista nel settore videoludico non sia già da ora garante di porting pc finalmente all'altezza, che ci sia mantle di mezzo o meno? Se chi spera che questo avvenga viene visto come un "sognatore" allora secondo me si contraddice. Il discorso è proprio concreto invece, perchè amd ha "invaso" il settore ormai, e ha invaso il settore che conta dove può dire la sua e farsi ascoltare. Non si tratta di essere fanboy, è più un discorso globale che interessa tutti noi visto che tutti, nvidia ed intel compresa, potrebbero usufruirne o prenderne esempio se volessero.

Cioè, e concludo qui, per me finora è stato anomalo veder consigliare cpu da oltre 200€ per giocare perchè "sennò ti devi accontentare". Invece tutti i titoli dovrebbero essere OTTIMIZZATI proprio come battlefield 4, col benestare di chi ha speso una fortuna per avere 4-5 fps in più. Sembra ormai che per giocare serva una cpu e non una gpu.

29Leonardo
14-11-2013, 16:44
veramente qui i verdetti gli avete dati VOI, i dati odierni, obiettivamente, non dicono che c'è stato un cambiamento e in molti titoli un I3, che giustamente dici che per il gaming non è adatto, va comunque come il top di gamma della concorrenza. Il che è paradossale.

Se per questo lo stesso discorso vale per intel tra i3 e 4960x in bf4.

winters86
14-11-2013, 17:10
Secondo me qui dentro vi fate tutti delle enormi pippe a quattro mani appresso a sti grafici. Non si riesce a non lanciarsi frecciatine o a non essere strafottenti, c'è poco da fare. Ognuno vuole avercelo più lungo dell'altro e dimostrare quanto sia saccente. Invece vi fate solo delle gran pippe :D
..........

.
Come non quotare tutto quello che hai scritto :)
Posso dare anch'io il mio parere positivo alla mia CPU, mi trovo benissimo in qualunque titolo e trovo che AMD stia facendo di tutto per migliorarsi e cercare di raggiungere la concorrenza... un esempio degli ultimi engine
http://imageshack.us/a/img268/5341/4s0q.png

nardustyle
14-11-2013, 17:21
Lol ma come,



Che poi è lo stesso risultato che otteresti abbassando la risoluzione e diminuendo il carico GPU e aumentandolo sulla CPU, almeno per Intel.

no non hai capito , confronto 1024px con una scheda VS sli con 2 schede 4k o multimonitor... per vedere se tra 1024px e cf/sli si hanno gli stessi peggioramenti rispetto al 1080px

io dico che non possono essere in alcun modo correlabili , almeno per il pochissimo che so di informatica .. MA NON TROVO TEST :(

Pat77
14-11-2013, 17:39
no non hai capito , confronto 1024px con una scheda VS sli con 2 schede 4k o multimonitor... per vedere se tra 1024px e cf/sli si hanno gli stessi peggioramenti rispetto al 1080px

io dico che non possono essere in alcun modo correlabili , almeno per il pochissimo che so di informatica .. MA NON TROVO TEST :(

Ma si parlava di 1920 che è la risoluzione più usata attualmente, per il 4k dovranno uscire schede in grado di gestirlo prima che la cpu possa contare qualcosa in tali ambiti, ma il potenziale massimo dei frames resta invariato.

affiu
14-11-2013, 20:49
Sì bisogna avere un'informazione generale non da un'unica fonte, guarda potrei citarti le stesse cose per altri marchi ma direi di finirla qui, sai cosa mi sembri? Un po' troppo convinto.
Aspetta almeno i test di Mantle prima di fare ipotesi su Titan ecc... si rischiano poi brutte figure.

Guarda che lo scritto e ribadito bene N. VOLTE che non era, in nessunissimo caso, i miei post con scopi di sovverchiare o cambiare scenario ODIERNO, ho riportato notizie riguardanti ed eventuali possibili risvolti , senza CERTEZZA.

Per quanto riguarda quello che avete scritto, che io ti sembro troppo convinto,FORSE, lo sarei tanto quanto te al 50%/50%.
In ogni caso non sei tenuto ne chiamato a dare tali giudizi sulla persona, ma solo su hardware ed analisi; ad ogni modo dato che ti sembro convinto, anche te mi sembri convinto che ancora(spero di no) oggi un i5 o i7 possa competere AD UN CERTO LIVELLO con gli fx in multi-task.

Io riesco almeno ad ammettere le cose, cioè che mediamente nei giochi in full hd gli fx sono inferiori ,vediamo se te invece riesci AD AMMETTERE che sono inferiori rispetto agli fx in multi-task(TIPO GIOCARE E FARE ALTRO)...da questo capirei molte cose; ed è chiaro che finisce qui.

Vediamo se qualcuno riesce a fare questo video(ripeto che lo scopo di questo video non è focalizzare se sia normale fare un uso del genere ,ma per far vedere che il carico di 5 GIOCHI riescono a girare cmq accettabilmente segno che ha un multi-task di un certo livello ,quando dall'altra parte manco uno assieme ad un altra applicazione in contemporanea si può fare conservando decentemente gli stessi frame MEDI...alti o bassi che siano).

vediamo chi è più convinto ,dato che l'avete tirato fuori TU.;)

Qui la richiesta di un utente:

http://www.hwupgrade.it/forum/showpost.php?p=39335449&postcount=6298

Qui la discussione da leggere interamente queste due pagine ed in particolare i tuoi post :

http://www.hwupgrade.it/forum/showthread.php?t=2372264&page=316

Io ti posso dire che con il mio 8 core gioco a grid2(in full hd a 120hz) + crisys 3 in contemporanea+ compressione con winrar versione 4.2 + scansione completa antivirus comodo e seppur i core sono al 100% sfondati i frame o la giocabilità è accetabile(ci giochi;si parla di esperimenti)....e se necessita vi faccio pure il video.:)

winters86
14-11-2013, 21:11
Secondo anandtech gli i7 non vanno il doppio rispetto agli FX in configurazioni multi-gpu, anzi viene consigliato addirittura l'8350 per 2 gpu, non pensavo, ero convinto che andavano bene solo in single gpu...meglio :)
http://www.anandtech.com/show/6985/choosing-a-gaming-cpu-at-1440p-adding-in-haswell-/9
mi scuso se era stato già postato

sgrinfia
14-11-2013, 21:54
Scusate amici, voi parlate delle varie problematiche inerenti hai fx i5 i7 ecc..
e molte volte chi vi legge pensa che servano queste cpu per giocare.
Quando vi assicuro che con qualsiasi core 2 quad e atlon e phenon 2 quadcore si gioca alla grande, magari ci saranno meno fotogrammi al secondo ma si gioca e si gioca bene.
Io stesso gioco con q8200 che gira ha soli 2333 . e gli unici giochi che fanno notare i limiti di un procio come il mio sono i vari Arma e gta 4 pero riesco a giocarci più che dignitosamente , domani metto su battf.4 e sono sicuro di poter giocare alla grande come col 3.
Questo non toglie che mi piacerebbe avere una cpu molto più potente come un fx 8350 o un i7 so benissimo che avrei dei vantaggi tangibili, pero una cosa la posso dire di certo quando ho usato macchine con fx i7 i5 di altrui persone sono loro che mi hanno detto che cpu montavano perché era impossibile capire perché tutti i sistemi erano fluidi e reattivi.:)

Pat77
14-11-2013, 23:12
Guarda che lo scritto e ribadito bene N. VOLTE che non era, in nessunissimo caso, i miei post con scopi di sovverchiare o cambiare scenario ODIERNO, ho riportato notizie riguardanti ed eventuali possibili risvolti , senza CERTEZZA.

Per quanto riguarda quello che avete scritto, che io ti sembro troppo convinto,FORSE, lo sarei tanto quanto te al 50%/50%.
In ogni caso non sei tenuto ne chiamato a dare tali giudizi sulla persona, ma solo su hardware ed analisi; ad ogni modo dato che ti sembro convinto, anche te mi sembri convinto che ancora(spero di no) oggi un i5 o i7 possa competere AD UN CERTO LIVELLO con gli fx in multi-task.

Io riesco almeno ad ammettere le cose, cioè che mediamente nei giochi in full hd gli fx sono inferiori ,vediamo se te invece riesci AD AMMETTERE che sono inferiori rispetto agli fx in multi-task(TIPO GIOCARE E FARE ALTRO)...da questo capirei molte cose; ed è chiaro che finisce qui.

Vediamo se qualcuno riesce a fare questo video(ripeto che lo scopo di questo video non è focalizzare se sia normale fare un uso del genere ,ma per far vedere che il carico di 5 GIOCHI riescono a girare cmq accettabilmente segno che ha un multi-task di un certo livello ,quando dall'altra parte manco uno assieme ad un altra applicazione in contemporanea si può fare conservando decentemente gli stessi frame MEDI...alti o bassi che siano).

vediamo chi è più convinto ,dato che l'avete tirato fuori TU.;)

Qui la richiesta di un utente:

http://www.hwupgrade.it/forum/showpost.php?p=39335449&postcount=6298

Qui la discussione da leggere interamente queste due pagine ed in particolare i tuoi post :

http://www.hwupgrade.it/forum/showthread.php?t=2372264&page=316

Io ti posso dire che con il mio 8 core gioco a grid2(in full hd a 120hz) + crisys 3 in contemporanea+ compressione con winrar versione 4.2 + scansione completa antivirus comodo e seppur i core sono al 100% sfondati i frame o la giocabilità è accetabile(ci giochi;si parla di esperimenti)....e se necessita vi faccio pure il video.:)

Scusa ma chi ha aperto questo? http://www.hwupgrade.it/forum/showthread.php?t=2588848
Non riesco a capire cosa centri tutto questo con il Gaming, in alcuni titoli particolarmente MT aggiungendo una codifica contemporanea gli FX sono superiore agli I5.
In altri casi il divario aumenta ulterioremente, tipo codifica e skyrim.

Ma resta il fatto che giocando "normalmente" si assiste a un sostanziale vantaggio in quasi tutti i titoli e un pareggio di FX8350 con architettura sandy I5 nei titoli piu' MT (ma con 700 mhz di base in piu' e spesso si deve overcloccare per consentirgli di andare uguale).

anche te mi sembri convinto che ancora(spero di no) oggi un i5 o i7 possa competere AD UN CERTO LIVELLO con gli fx in multi-task.

Cioe' tu pensi veramente che non possono competere, che un I5 4670 o un I7 4770 abbiano a certi livelli delle difficolta' superiori a FX?
Strano perche' ci sono utenti che hanno avuto entrambi, che hanno pure postato dei bench dove era evidente tutto, che non confermano cio'.

Comunque veramente finiamola qui e smettila di flammare perche' prima del tuo arrivo era veramente un 3d pacifico e istruttivo.

animeserie
14-11-2013, 23:38
Io ti posso dire che con il mio 8 core gioco a grid2(in full hd a 120hz) + crisys 3 in contemporanea

Come riesci a giocare a due videogames come quelli (uno automobilistico e uno sparatutto) in contemporanea ? :eek:
Non sei umano anche te ? :D

Strato1541
14-11-2013, 23:43
Come riesci a giocare a due videogames come quelli (uno automobilistico e uno sparatutto) in contemporanea ? :eek:
Non sei umano anche te ? :D

Cosa molto utile e sensata direi.....Certo stimola il cervello al multitask:D

affiu
15-11-2013, 00:02
Scusa ma chi ha aperto questo? http://www.hwupgrade.it/forum/showthread.php?t=2588848
Non riesco a capire cosa centri tutto questo con il Gaming, in alcuni titoli particolarmente MT aggiungendo una codifica contemporanea gli FX sono superiore agli I5.
In altri casi il divario aumenta ulterioremente, tipo codifica e skyrim.

Ma resta il fatto che giocando "normalmente" si assiste a un sostanziale vantaggio in quasi tutti i titoli e un pareggio di FX8350 con architettura sandy I5 nei titoli piu' MT (ma con 700 mhz di base in piu' e spesso si deve overcloccare per consentirgli di andare uguale).



Cioe' tu pensi veramente che non possono competere, che un I5 4670 o un I7 4770 abbiano a certi livelli delle difficolta' superiori a FX?
Strano perche' ci sono utenti che hanno avuto entrambi, che hanno pure postato dei bench dove era evidente tutto, che non confermano cio'.

Comunque veramente finiamola qui e smettila di flammare perche' prima del tuo arrivo era veramente un 3d pacifico e istruttivo.

Io non penso niente, io credo solo ai video, quando ci sono utenti che li fanno.

Guarda che nei post precedenti ho specificato e ribadito che non è flammare con tanto di motivazioni..che poi era solo un riportare informazioni che possono(in termini di possibilità) riguardare la parte cpu degli fx ,considerando il supporto MANTLE.

Se te che tiri fuori quelle parole come ''troppo convinto''(che potrebbe anche starci,ma lo stesso potrebbe valere per te)senza neanche porti il problemi di rispetto verso le altre persone e di quello che postano(con tanto di non intenzionalità a qualsiasi flamme e soprattutto non attaccando nessuno)....secondo te NON avrei neppure il leggittimo diritto a replicare a quello che scrivete.

E' tanto per cambiare CONTINUI con questi imperativi ''smettila'' di flammare!...ma tu al posto mio cosa faresti?...addirittura scrivi che era un thread pacifico e costruttivo, e che sono arrivato io ...e chi sono io(come tutti gli utenti dell'intero thread)? uno che deve ricevere questi tuoi post?...insomma mi dispiace che si deve arrivare a questi termini, ma il rispetto per le persone e su ciò che scrivi dove sta?

Pat77
15-11-2013, 00:41
Io non penso niente, io credo solo ai video, quando ci sono utenti che li fanno.

E allora vai su youtube a vederti tutti i video che vuoi e ripeto smettila di flammare, l'hai fatto dal primo post, senza la minima motivazione parlando di mantle che poco centra con le cpu.

Inoltre questo e' un 3d analisi, non un aspettando, e' tanto semplice esce un bench su un gioco nuovo e si commenta. Nel bene o nel male.
E si' mi sembri troppo convinto su 2-3 aspetti che dai per certi senza considerare tutto il resto, questo e' una mancanza di rispetto? Ti ho solo suggerito di commentare delle dinamiche dopo che le stesse hanno dei dati concreti non prima, e se ora permetti torno ad aspettare l'imminente test su AC4 che lo ritengo piu' interessante piuttosto che parlare del nulla.

Pat77
15-11-2013, 00:43
Cosa molto utile e sensata direi.....Certo stimola il cervello al multitask:D

:cool: eh si' chissa' se ci sono utenti multigaming LOL

affiu
15-11-2013, 00:56
Come riesci a giocare a due videogames come quelli (uno automobilistico e uno sparatutto) in contemporanea ? :eek:
Non sei umano anche te ? :D

Bisogna leggere bene prima di scrivere, perchè ciò che ho scritto nel post che hai quotato era:

''Io ti posso dire che con il mio 8 core gioco a grid2(in full hd a 120hz) + crisys 3 in contemporanea+ compressione con winrar versione 4.2 + scansione completa antivirus comodo e seppur i core sono al 100% sfondati i frame o la giocabilità è accetabile(ci giochi;si parla di esperimenti)....e se necessita vi faccio pure il video''

e memomale che l'ho scritto, che era un esperimento per vedere l'aspetto multi-tak ed invece come sempre si focalizza l'attenzione se sia normale o meno giocare con 2 giochi contemporaneamente, come sempre d'altronde,non è una cosa nuova.:)

affiu
15-11-2013, 01:27
E allora vai su youtube a vederti tutti i video che vuoi e ripeto smettila di flammare, l'hai fatto dal primo post, senza la minima motivazione parlando di mantle che poco centra con le cpu.

Inoltre questo e' un 3d analisi, non un aspettando, e' tanto semplice esce un bench su un gioco nuovo e si commenta. Nel bene o nel male.
E si' mi sembri troppo convinto su 2-3 aspetti che dai per certi senza considerare tutto il resto, questo e' una mancanza di rispetto? Ti ho solo suggerito di commentare delle dinamiche dopo che le stesse hanno dei dati concreti non prima, e se ora permetti torno ad aspettare l'imminente test su AC4 che lo ritengo piu' interessante piuttosto che parlare del nulla.

In base a cosa possa non centrare la cpu?...l'ho escludi solo perchè ne sei sicuro tu?come fate a essere sicuri?

Be se invece l'ho dai per certo tu PRIMA:
http://www.hwupgrade.it/forum/showpost.php?p=40271233&postcount=484

LE tue parole:

''Questo è un 3d che si basa sui test concreti e ti prego vivamente di non flammare, anche perchè c'è chi ha profetizzato cambiamenti con la next gen, la next gen è arrivata e le cose non sono cambiate CVD''

Ma dove o quando è arrivata se ancora deve uscire tutto, cioè i giochi che girano sulle console e da lì poi anche quelli per pc?....ed addirittura NON sono cambiate, cioè è gia tutto passato?

Ed addirittura scrivi cosi:
http://www.hwupgrade.it/forum/showpost.php?p=40274896&postcount=507

Cioè che siamo stati NOI a dare verdetti quanto invece hai fatto tutto te, cioè dato per archiviato,scontato e GIA' PASSATO.:confused:

Credimi ma non capisco ed è l'ultimo post, perchè nonostante vi ho scritto di non tirare ancora sta storia di dover smetterla(per tuo comando) di flammare(ma dove e quando), quando non è mai stata mia intenzione, nonostante tutto continuate imperterriti.

E come se non bastasse reputi, sempre secondo te, che aver accennato solo per discutere un pò su cose che riguardano gaming e processori(mantle) , lo ritenete NULLA....ed il troppo convinto chiaramente dovrei essere sempre io, ok.;)

Pat77
15-11-2013, 02:12
Guarda non ho piu' voglia di entrare nel merito, non perche' non potrei risponderti a tono, ma perche' non ne ho sinceramente piu' interesse, se questo (http://www.hwupgrade.it/forum/showpost.php?p=40266192&postcount=457) per te non e' flammare, ok, valutera' il mod, non mi importa nemmeno, vorrei solo che ritornassimo a parlare di informatica senza fare spot ne ad Intel ne ad Amd, anche perche' prima del tuo intervento si stava parlando del valore dell'ottimizzazione e dell'interpretazione del peso sui core, che ritengo nettamente piu' interessante, cosi' come i test concreti su AC4 e Rivals quando usciranno.

Cioè che siamo stati NOI a dare verdetti quanto invece hai fatto tutto te, cioè dato per archiviato,scontato e GIA' PASSATO.

Ho parlato dei dati oggettivi trapelati dai test, che BF4 fosse il crocevia per la Next Gen non e' stato detto certo da me che alla Next Gen nemmeno ci credo ritenendo il modello console ormai obsoleto, ma da coloro che vedevano gli 8 core sostenevano che ci sarebbe stato un vantaggio per talune architetture, per ora non c'e', non ho archiviato nulla, anzi sono molto curioso di vedere titoli piu' maturi come the Division o Watch Dogs come andranno sui diversi modelli.

La mia speranza e' quella di vedere una concorrenza simile a quella gpu, cosa che oggi come oggi non accade, basta vedere il mio 2500K, ha 2 anni e vale di piu' di quando l'ho comprato LOL, tanto per dire quanta concorrenza c'e' attualmente.

Agena_The_Bulldozer
15-11-2013, 09:26
e memomale che l'ho scritto, che era un esperimento per vedere l'aspetto multi-tak

Multi tak ? E si, la tac... mai pensato di richiederne una ?

Nforce Ultra
15-11-2013, 09:26
News fresca: http://www.tomshw.it/cont/news/processori-amd-fx-nel-2014-nessun-cambio-di-architettura/50848/1.html#.UoXWW2eA2gc

Come diceva anche gridracedriver gli attuali FX saranno probabilmente gli ultimi, AMD sembra puntare sulle APU per cui basta 8 core ma meno core con IPC maggiore.

Agena_The_Bulldozer
15-11-2013, 09:28
News fresca: http://www.tomshw.it/cont/news/processori-amd-fx-nel-2014-nessun-cambio-di-architettura/50848/1.html#.UoXWW2eA2gc

Come diceva anche gridracedriver gli attuali FX saranno probabilmente gli ultimi, AMD sembra puntare sulle APU per cui basta 8 core ma meno core con IPC maggiore.


Nnamo bbene, mo ce mancava Amd a seguì la pista de Intel.
http://www.youtube.com/watch?v=CRyIkdxKARY

Pat77
15-11-2013, 10:17
News fresca: http://www.tomshw.it/cont/news/processori-amd-fx-nel-2014-nessun-cambio-di-architettura/50848/1.html#.UoXWW2eA2gc

Come diceva anche gridracedriver gli attuali FX saranno probabilmente gli ultimi, AMD sembra puntare sulle APU per cui basta 8 core ma meno core con IPC maggiore.

Ottima news, che non può che farmi piacere visto che la ritengo la strada giusta, vedremo Kaveri, meno core con un maggiore IPC e un die più piccolo is the way, inoltre su FM2 mi pare vi siano anche nuovi chipset, ma su questo non sono aggiornato.

Ottima mossa AMD.

animeserie
15-11-2013, 10:18
Bisogna leggere bene prima di scrivere, perchè ciò che ho scritto nel post che hai quotato era:

''Io ti posso dire che con il mio 8 core gioco a grid2(in full hd a 120hz) + crisys 3 in contemporanea+ compressione con winrar versione 4.2 + scansione completa antivirus comodo e seppur i core sono al 100% sfondati i frame o la giocabilità è accetabile(ci giochi;si parla di esperimenti)....e se necessita vi faccio pure il video''

e memomale che l'ho scritto, che era un esperimento per vedere l'aspetto multi-tak ed invece come sempre si focalizza l'attenzione se sia normale o meno giocare con 2 giochi contemporaneamente, come sempre d'altronde,non è una cosa nuova.:)

Credo che tu sia rimasto al round robin... no vabbé ma che te lo dico a fare, che non sai manco cos'é.

Nforce Ultra
15-11-2013, 10:53
@gridracedriver
ma kaveri andrà come un 6300 in MT? Perchè se in ST avrà come ho letto un 15% di IPC in più dovrebbe andare di più, perchè parte con una frequenza di 3.7 Ghz no? Vedremo comunque inoltre se sfrutteranno HSA come si comporterrano in game.
Potrebbero venire fuori delle ottime cpu secondo me.

Pat77
15-11-2013, 10:54
Già vero, però nella migliore delle ipotesi un A10-7850k (2m/4c_3.7ghz) nei giochi andrà come un FX-6300 consumando dal 20% al 50% in meno, a meno che non ci siano giochi in cui HSA sia sfruttato e la igpu acceleri la cpu (gpgpu) relegando alla scheda discreta il compito di renderizzare la scena (classico scenario cpu+gpu solo che qua avremo una accelerate-cpu o apu appunto)...
...per cui non ci sarà confronto dagli i5 haswell-K in su...

Dici poco? Se aumentano l'IPC del 10% e diminuiscono i consumi del 20-50% diventa un'ottima CPU imho anche per il gaming, per me è un'ottima mossa per tanti aspetti.