View Full Version : Il concetto di VGA "CPU Limited" !
Buongiorno, vorrei sottoporvi un mio dubbio.
Spesso si dice che determinate VGA, soprattutto le ultime, possono essere "CPU limited" se non affiancate da un procio sufficentemente potente.
Spesso ho anche letto, per esempio in commenti relativi a benchmark con giochi pesanti (qualcuno ha detto Crysis?) commenti (a mio avviso senza senso) del tipo "eh, ma quando provano una HD3870 X2 OC non possono farlo usando un Q6700 perchè è certamente CPU LIMITED" ! ! !
Ora io dico, ma stiamo scherzando? Cos'è, se la scheda ha 2 giorni di vita sul mercato e la cpu ha 6 mesi, o non è iper-overcloccata allora non vanno più bene insieme? :muro:
Vorrei far notare che molto spesso, nei bechmark SUI PROCESSORI, per far venire fuori delle differenze prestazionali devono usare RISOLUZIONI BASSISSIME e NIENTE FILTRI ! ! ! Forse nessuno se ne è mai reso conto, ma quando un benchmark è eseguito a risoluzioni a cui si gioca oggi, tipo 1440*900 o 1680*1050, con i filtri attivati, un E4400 e un QX6850 ipercloccato hanno una differenza prestazionale intorno al 2-3 % ! ! ! :sofico:
Per cui mi chiedo: come è possibile sostenere che le schede video attuali, quando sottoposte a un certo carico, siano "trattenute" a collo di bottiglia dalla cpu!!!
Una 8800GTX impegnata nel difficile compito di far girare SimCity Societies al massimo del dettaglio non smetterà di faticare solo perchè il procio gira a 800, anche 1000 mhz in più ! Le differenze sono INVISIVILI all'occhio umano (1-2 FPS di differenza su anche solo 30, tali sono!).
Perchè questo non è mai stato capito o osservato?
ne cosegue a mio avviso che il concetto CPU limited è attualmente stra-abusato, e spesso è totalmente insensato.
Un qualunque core2 può senza problemi essere affiancato anche a un g100 senza modificare le prestazioni globali, o mi sbaglio???
Cosa ne pensate???
ninja750
30-01-2008, 11:58
sostanzialmente d'accordo, capita però di parlarne spesso con le nuove VGA su AGP in cui il processore è architetturalmente "vecchio" e in quel caso si sarebbe veramente cpu limited
e concordo anche sul fatto che nei test dei processori per far vedere le differenze si usino risoluzioni IDIOTE e spesso non ci sono nemmeno sti gran salti tra 500mhz in più o meno
dipende tutto dalla cpu es la famiglia core2 va dal:
1,6giga con 1 mega di cache e bus 200 mhz ai 3 giga quad-core con 8 mega e bus 333.
Sono sempre core2 ma c'è un abisso anche di frames nei giochi con le vga recenti a risoluzioni medie.
dipende tutto dalla cpu es la famiglia core2 va dal:
1,6giga con 1 mega di cache e bus 200 mhz ai 3 giga quad-core con 8 mega e bus 333.
Sono sempre core2 ma c'è un abisso anche di frames nei giochi con le vga recenti a risoluzioni medie.
questo abisso non l'ho mai visto.
Postami degli esempi a risoluzioni che non siano 1024x768
e anche in quel caso, l'abisso che dici è fra che valori?
fra 130 e 160 fps? è ovvio che li la VGA sta fumandosi una sigaretta
mentre le massaggiano i piedi...
con una modesta 7900 GTX
http://www.hwupgrade.it/articoli/cpu/1826/hl2_episode_one_1.png
[QUOTE=viger;20834442]con una modesta 7900 GTX
Ecco appunto.
Hai dimostrato proprio quello che dicevo:
1) Linee blu: a una risoluzione in cui la VGA non fatica (e ormai molto poco usata) il processore incide, ma solo per incrementi del tutto inutili: a partire dai 60 fps in su, l'occhio umano non si rende conto di alcuna differenza. Processori + veloci alzano le prestazioni in un campo in cui le VGA non sono "intenzionate" a farlo, perchè non conta nulla.
2) Linee verdi: a risoluzioni più usate, che davvero fanno lavorare tutta la VGA, la differenza fatta dal processore sottostante è INESISTENTE.
come vedi dal grafico tu stesso, la differenza fra un E4300 e un QX6850 è nell'ordine di 8 fps su più di 120 ! ! ! Fai le dovute proporzioni...
Questo significa che in tutte le condizioni in cui la potenza elaborativa della VGA comincia a non essere più sufficiente (che poi è la condizione che davvero interessa, ogni volta che Crysis scatta ecc.), la presenza di uno o dell'altro processore non cambia quasi di nulla le prestazioni !
Ecco perchè dico che le GPU NON SONO CPU LIMITED, o almeno non lo sono fino a quando non scendi su un'unione del tipo Celeron o Sempron e 8800 Ultra!
In pratica, è proprio dal livello E4300 in giù che si può pensare al CPU limited (ma questo è ovvio, perchè il salto ARCHITETTURALE dai precedenti processori ai CORE2 è stato ingente), viso che solo da quel processore in poi che vi sono differenze di prestazioni fra le 2 risoluzioni: è il segnale che la GPU non può sfruttare tutto il suo potenziale.
Conta che tutto ciò che descrivo AUMENTA come fenomeno in casi di motori grafici + complessi di quelli di HL2 e di impiego di svariati filtri (sempre a pannaggio della VGA).
La mia conclusione insomma è: sempre più, conta SOLO la VGA, o almeno in gran parte....
Certo, se si decidessero a sfruttare i 4 cores dei Quad per smistare fisica e AI ecc. allora potrebbero ridurre il carico sulla GPU :cry: ... ma questo è un altro discorso...
non direi li è testata una scheda che ora si può ritenere di fascia media (se non medio-bassa).
Con l' avvento delle nuove soluzioni 2x come la HD3870x2 un dual core a 3 giga sarà pure poco.
gabi.2437
30-01-2008, 14:25
Ma dai, un dual core a 3 giga poco?
Ma non è affatto vero, stando a quella tabella fino all'E6300 si è ok, solo dopo si entra in regime di CPU Limited
Con 2 3870 toh, si arriverà all'E6600 o poco più
Contando anche che una soluzione con 2 3870 è parecchio inefficiente...
Ma dai, un dual core a 3 giga poco?
Ma non è affatto vero, stando a quella tabella fino all'E6300 si è ok, solo dopo si entra in regime di CPU Limited
Con 2 3870 toh, si arriverà all'E6600 o poco più
Contando anche che una soluzione con 2 3870 è parecchio inefficiente...
li non testano mica una 8800GT usano una 7900, ora come ora i giocatori hanno schede più potenti di una vecchia serie 7xxx.
Con una serie 8xxx probabilmente hai lo stesso andamento che si vede a 1024x768 ma a risoluzioni piu alte.
Dal 6300 al 6850 ci sono 77 frames al secondo di media!!!che vuol dire che ci saranno picchi anche piu alti gia solo con una VGA che ormai non è più in commercio.
Beh basta giocare in 1280x1024 con AA4X e AF 8X che il concetto di cpu limited va quasi a farsi benedire. Certo se si gioca a risoluzioni basse e senza filtri il procio fa la differenza, però più si alzano risoluzione e filtri, meno conta il processore. Come si vede dal grafico di prima in 1600x1200 (con HL2 che è un gioco vecchio) tra un E6320 e un QX6850 non c'è praticamente differenza.
Ovviamente se si gioca meglio investire più sulla scheda video che sul processore, tanto neanche i dual core in pratica vengono sfruttati, figuriamoci i quad.
Ti porto il mio esempio:
con una x1950pro agp su Celeron 2,6 ghz.
passato a x1950pro agp su E4300.
:muro: ero CPU limited alla grande.....
Ho avuto un boost nei giochi di almeno 15-20frame (non quelli odierni ovviamente).
Ora dovrei passare alla HD3850 sperando che la CPU non freni più di tanto, anche se so gia che un E8200 mi darebbe un'ulteriore boost.
non direi li è testata una scheda che ora si può ritenere di fascia media (se non medio-bassa).
Con l' avvento delle nuove soluzioni 2x come la HD3870x2 un dual core a 3 giga sarà pure poco.
Non credo proprio.
Come dice anche GABI,
al salire delle potenzialità della VGA ci sarà di certo un innalzamento del livello cpu limited, ma di moooolto meno di quanto si creda. La verità è che a parità di GPU, chi spende un decimo rispetto a chi compra un QX6850 ha praticamente le stesse prestazioni. :stordita:
guarda anche:
http://www.hwupgrade.it/i.php?img=prest_rel_giochi.png
Beh basta giocare in 1280x1024 con AA4X e AF 8X che il concetto di cpu limited va quasi a farsi benedire. Certo se si gioca a risoluzioni basse e senza filtri il procio fa la differenza, però più si alzano risoluzione e filtri, meno conta il processore. Come si vede dal grafico di prima in 1600x1200 (con HL2 che è un gioco vecchio) tra un E6320 e un QX6850 non c'è praticamente differenza.
Ovviamente se si gioca meglio investire più sulla scheda video che sul processore, tanto neanche i dual core in pratica vengono sfruttati, figuriamoci i quad.
appunto, ormai i filtri abbondano sempre più, e li gestisce SOLO la VGA...
mi chiedo se tutti questi benchmark senza filtri, fatti evidentemente per far venir fuori differense infinitesimali fra i processori (totalmente senza collegamento col mondo reale) non siano effettivamente fatti esclusivamente
per far comprare i modelli enthusiast da oltre 800 euro a procio agli hardcore gamers che non si rendono conto di come vengono raggirati dal MODO in cui gli sottopongono i dati...
e in questo, purtroppo, ogni tanto i vari hardware upgrade e thg gli danno una mano...
verrò bannato per questo? :banned:
no dai siamo in un paese libero con libertà di parola... :mc:
usa9999999999
30-01-2008, 17:36
Ormai si può dire che il CPU Limited parta dai Dual-Core in giù, nè più nè meno...
juza1971
30-01-2008, 18:34
Ormai si può dire che il CPU Limited parta dai Dual-Core in giù, nè più nè meno...
straquoto..per esperienza personale...da un 3800x2 a 2,7 ghz ad un e6850 a 3,6 ghz a parita' di risoluzione (1680x1050) e di vga ( gts 640):
la differenza pratica e' nell'ordine di una manciata di frame ne piu' ne meno.
ergo....non ha senso spendere euri in procio e mobo..meglio investire in una vga di livello anche perche' i dual core non sono sfruttati appieno figuriamoci i quad.
la mia intenzione era quella di passare ad un e8400 e nuova mobo..beh...aspetto la serie 9-g100..:D
straquoto..per esperienza personale...da un 3800x2 a 2,7 ghz ad un e6850 a 3,6 ghz a parita' di risoluzione (1680x1050) e di vga ( gts 640):
la differenza pratica e' nell'ordine di una manciata di frame ne piu' ne meno.
ergo....non ha senso spendere euri in procio e mobo..meglio investire in una vga di livello anche perche' i dual core non sono sfruttati appieno figuriamoci i quad.
la mia intenzione era quella di passare ad un e8400 e nuova mobo..beh...aspetto la serie 9-g100..:D
Bravo
Il tuo procio non darà problemi alle nuove VGA per almeno 3 anni...
invece, immagino che la GTS ti sta già stretta adesso... sopratutto nei dx10 e a quelle risoluzioni...
juza1971
30-01-2008, 21:30
Bravo
Il tuo procio non darà problemi alle nuove VGA per almeno 3 anni...
invece, immagino che la GTS ti sta già stretta adesso... sopratutto nei dx10 e a quelle risoluzioni...
infatti sto aspettando questi nuovi mostri anche se so per certo che quando uscira' crysis 2 saremo ancora qui a parlare di upgrading :D ...viva il circolo vizioso dell' informatica...d'altronde e' pur sempre una tossicodipendenza anche questa no? ;)
savethebest
30-01-2008, 22:22
io posso garantirvi che da un a64 3500+ a un core 2 duo qualsiasi la differenza è abissale.
con una 7900gs non riuscivo a giocare a giochi come nfs pro street, sega rally e anche bioshock in certi momenti mi scendeva sotto i 15.
Quando ho messo su un q6600 tutti i giochi citati hanno raddoppiato i loro fps.
Io avevo un 4400 x2, e Crysis andava a 26 FPS di media con risoluzione 1280*960 tutto al massimo.
Con il 6400 x2 attuale ho ben 37 FPS: non male come incremento. °_°
Anche gli altri giochi volano.
da X2 4800+ a Core2 6750@3400mhz stessa vga (X1900XT) il demo di Unreal 3 è passato da:
1280x1024 40fps->60fps
1600x1200 nd->40fps
Vabbè ragazzi ma gli esempi che avete fatto sono tutti con schede video "vecchie" con cui non potete salire molto di risoluzione e attivare i filtri, allora è normale che il processore si faccia sentire.. specialmente nel passaggio A64 single core a 6400+ Dual core e con 1 ghz in più. Inoltre ci sono altri fattori in gioco, come il passaggio dalle DDRII 400 a DDRII 800. In una situazione più "equilibrata", per esempio E4500 contro E6850 o 5200 vs 6400 la differenza è poca.
Vabbè ragazzi ma gli esempi che avete fatto sono tutti con schede video "vecchie" con cui non potete salire molto di risoluzione e attivare i filtri, allora è normale che il processore si faccia sentire.. specialmente nel passaggio A64 single core a 6400+ Dual core e con 1 ghz in più. Inoltre ci sono altri fattori in gioco, come il passaggio dalle DDRII 400 a DDRII 800. In una situazione più "equilibrata", per esempio E4500 contro E6850 o 5200 vs 6400 la differenza è poca.
Esatto
poi ovvio che dall AMD 3500 ai core 2 c'è differenza, perchè li cambia proprio l'architettura...
Qui più che altro si parlava delle differenze fra i core2
o tuttalpiù di chi riesce a sostenere che una VGA enthusiast se non ha sotto un QX9xxx ad almeno 4 giga allora è cpu limited...
filluminati
31-01-2008, 13:14
Sono perfettamente daccordo con chi ha aperto questa discussione, l'unica sensibile differenza si ha dai single core ai dual core (soprattutto nei giochi che li sfruttano), ed aggiungo se un gioco mi fa 45 o 70 frame secondo me io manco me ne accorgo, o forse potrei dire : non vale la spesa!!
La differnza la vedi dai 15 ai 40 fps , ma li è solo la vga, superare quella soglia (40-50 fps) a mio avviso non serve a nulla...
L'importante è cercare un ecquilibrio, è evidente che il mio discorso si applica di meno con 2-3 schede video ma rimane sempre il fatto che a mio avviso superare i 50 frame serve a poco, e sarei pronto a scommettere che anche con un procio come il mio cloccato a 2500-2600 mhz e due schede video in cross o sli andrei comunque benissimo.
Dipende sempre dal gioco , alcuni sfruttano di più la CPU , altri la scheda video .
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2747&p=4
usa9999999999
31-01-2008, 14:08
chi riesce a sostenere che una VGA enthusiast se non ha sotto un QX9xxx ad almeno 4 giga allora è cpu limited...
Non so chi abbia mai detto questo, ma dovrebbe imparare un pò di più prima di parlare... :O
Se si rimane in ambito Core 2 le differenze sono certamente basse, poichè l'architettura è la stessa e bene o male le frequenze non cambiano di molto le prestazioni...
Tidus.hw
31-01-2008, 14:16
dipende dal gioco, io giocando alla 1280x1024 con una 2900xt passando da un x2@2,8ghz a un quad 3,6ghz in ut3 ho notato un boost prestazionale notevole che si vedeva anche senza aprire fraps o simili, potevo tranquillamente anche attivare il vsync che tanto sotto 60 fps non andava mai, mentre prima avevo minimi di 35-40 fps abbastanza frequentemente.
In crysis invece situazione completamente opposta, Gpu limited e framerate identico...
Bisognerebbe provare un pò di giochi prima di esprimere un giudizio IMHO...
ma leggete i post?
io sono passato da 40 a 60 frames con tutti gli i dettagli al massimo nella demo di Unreal3 a 1280x1024 semplicemente cambiando un X2 4800+ (che non è un 3500+ che ho avuto anche) ad un E6750@3400mhz.
quindi la cpu è utilissima. Ovvio che se E6750 lo tenevo a default mi faceva meno frames di distacco , ma quello che dimostra questa cosa è che la Cpu, anche oltre i 3 giga, con vga anche vecchie (X1900XT) viene sfruttata.
Se invece si fa l' esempio di Crysis, li è sicuramente la VGA che non ce la fà, basta vedere i punteggi ridicoli a dettagli e risoluzioni ridicole (secondo me per i soldi che costano) anche delle schede da 300 euro.
ok che un po' dipende dal gioco, ma in generale i bench sono
sempre fatti a risoluzioni abbastanza basse e mai coi filtri attivati.
Li la differenza è sempre più relativa alla VGA.
Poi, ripeto, è ovvio che da un vecchio x2 a un quad attuale c'è
differenza, ma il mio discorso si focalizzava maggiormente
sul criticare il concetto che non sono 800 - 1000 mhz a fare la
differenza, ne pochi anni di differenza, ma se mai l'architettura...
Altrimenti la VGA non si accorge della differenza
filluminati
31-01-2008, 15:33
Dipende sempre dal gioco , alcuni sfruttano di più la CPU , altri la scheda video .
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2747&p=4
Sbaglio o questi grafici sono fatti su un athlon single core?
Questo non farebbe altro che confermare la mia teoria , ovvero che un dula core qualsiasi con almeno 1 mb cache (e21xx) cloccati a 2500-2600 permettono di giocare più che decentemente a qualunque gioco!
Poi non voglio dire che mettendo un procio più potente non si sale di frame ma ripeto, a mio avviso per la giocabilità non è indispensabile!
Superpelo
31-01-2008, 19:29
Ma dai, un dual core a 3 giga poco?
Ma non è affatto vero, stando a quella tabella fino all'E6300 si è ok, solo dopo si entra in regime di CPU Limited
Con 2 3870 toh, si arriverà all'E6600 o poco più
Contando anche che una soluzione con 2 3870 è parecchio inefficiente...
Io ho uno dei core2duo piu' economici che ci siano, sono convinto che prima di essere cpu limited dovroò cambiare almeno un altra vga.
Imho se uno deve prenderesi un pc per giocare e ha 200 euro per il procio al posto di prendere un quad gli consiglio caldamente di spendere 100 euro in meno, prende un e6xxx, occarlo a dovere e spendere i soldi risparmiati in mobo cazzuta e un altro disco da mettere in raid. Vedrai che fra q6600@3ghz e E6300@3ghz + raid (stessi soldi) al 90% cento delle volte la seconda config darà piu' soddisfazioni, tra la'ltro asflatando l'altra nei caricamente, anche se magari farà 1 frame in meno in 800*600
Fai conto che a casa ho un altro pc con su q6600@ 3ghz, raid 0 di wd caviar e 8800gt. Ho messo la 8800gt su questo pc, a parte il 3d mark (solo lo 06) nessuna differenza nei giochi ( a parte ovvimente installazione e caricamenti, ma appunto grazie al raid 0)
Gli 8 mb di cache sui q6600 e i 12mb sui futuri quad penryn, sono in assoluto la cosa piu' inutile che si sia mai vista nella storia di videogiochi (di questo stiamo parlando, quiandi evitate di dirmi che chi fa editing o altro puo' beneficiare di questa cache)...
ninja750
02-02-2008, 10:31
ecco qui la risposta a tutte le domande:
http://www.neoseeker.com/Articles/Hardware/Guides/cpu_bottlenecks/
in qualche gioco non cambia una mazza, in altri come crysis anche a differenze di 1gb di clock sul processore le differenze massime sono 15fps su 60
aiacos75
02-02-2008, 13:05
ma leggete i post?
io sono passato da 40 a 60 frames con tutti gli i dettagli al massimo nella demo di Unreal3 a 1280x1024 semplicemente cambiando un X2 4800+ (che non è un 3500+ che ho avuto anche) ad un E6750@3400mhz.
quindi la cpu è utilissima. Ovvio che se E6750 lo tenevo a default mi faceva meno frames di distacco , ma quello che dimostra questa cosa è che la Cpu, anche oltre i 3 giga, con vga anche vecchie (X1900XT) viene sfruttata.
Se invece si fa l' esempio di Crysis, li è sicuramente la VGA che non ce la fà, basta vedere i punteggi ridicoli a dettagli e risoluzioni ridicole (secondo me per i soldi che costano) anche delle schede da 300 euro.
Quoto per quello che riguarda la cpu da un x2 4800+ ad un e6750 se ben overcloccati ci passan comunque quasi 1000mhz di differenza e si fanno sentire. Per Crysis invece è un discorso a parte visto che è programmato da cani: nemmeno i dual core sfrutta. Se volete vedere un gioco in cui la CPU incide quanto la GPU provate Supreme Commander :)
mircocatta
02-02-2008, 13:56
discussioni del genere mi fan passar la voglia di calmbiare il processore :D
aiacos75
02-02-2008, 15:03
discussioni del genere mi fan passar la voglia di calmbiare il processore :D
Azz hai un quad core che volevi prendere? :D
mircocatta
02-02-2008, 15:08
da quello che dite praticamente un quad non dovrà mai esser cambiato, io invece volevo fare un salto al neamel quando uscirà:sofico:
Locemarx
02-02-2008, 16:37
Il tipo di gioco conta molto: negli RTS, ad esempio Medieval II total War, il processore conta moltissimo, anche più della GPU...un processore molto potente fa la differenza di un bel po' di frame, soprattutto in presenza di grosse armate...in altri giochi conta di meno....
io rimango sempre dell'idea che ci sono giochi dove conta molto la cpu e altri dove non conta proprio nulla come ho già detto altre volte...
provate a giocare a gtr2 facendo prove con 2 schede...una 1950pro e una 8800gt...io ho provato e la differenza di fps tra le 2 schede non vale i 250 euro della gt...
provate invece a giocarci con un amd x2 a 2.2 e poi portatelo a 2.9-3.0 accompagnato da una buona main e ddr....vi assicuro che la differenza c'è eccome..io su 100fps ne ho guadagnati dai 20 ai 30 e fanno sempre comodo specialmente in situazioni molto caotiche...
questo indipendentemente dalla risoluzione e dai filtri...
un altro esempio dove la cpu è vitale è flight simulator X
il cambio di vga e totalmente inutile se non si ha una cpu potente....provato io stesso....aumentando risoluzione e filtri non cambia una mazza, sempre inchiodat dai 20 ai 30 fps:fagiano:
davide brigante
02-02-2008, 18:30
ecco qui la risposta a tutte le domande:
http://www.neoseeker.com/Articles/Hardware/Guides/cpu_bottlenecks/
in qualche gioco non cambia una mazza, in altri come crysis anche a differenze di 1gb di clock sul processore le differenze massime sono 15fps su 60
Si ma crysis è impostato su qualità media:rolleyes:
ninja750
03-02-2008, 10:02
Si ma crysis è impostato su qualità media:rolleyes:
e secondo te su qualità alta carichi di più la cpu o la gpu?
Si ma crysis è impostato su qualità media:rolleyes:
apposta, più è bassa la qualità più si carica la cpu...se lo avesero messo su high o very high la differenza prestazionale sarebbe stata ancora minore :D
ecco qui la risposta a tutte le domande:
http://www.neoseeker.com/Articles/Hardware/Guides/cpu_bottlenecks/
Si, direi che questo chiude definitivamente la discussione:
tutti quei test dimostrano appieno che dai 2 giga in poi non cambia più
una mazza, il che, per altro, rende la pratica dell'overclock praticamente
inutile, almeno per il gaming:
io stesso, dopo un recente passato a tentare di far stare stabile il mio
q6600 a 3.2 giga (per altro facendolo consumare un sacco in più, per via della disabilitazione dello speedstep, e accorciandogli la vita, per via del surriscaldamento), ho capito quanto sbagliavo: i miei test con crysis (tutto su high a 1680*1050) e world in conflict (tutto al max ma senza AA) mi restituivano un aumento medio di 2 fps ! ! ! ! :sofico: come differenza prestazionale fra la velocità stock 2.4ghz e quella di 3.2 ! Il che magari anche con rischi di instabilità... Ridicolo è la parola giusta.
Al che ho aperto gli occhi. Mi sono reso conto delle ORE della mia vita :muro: sprecate a capire l'astrusa pratica dell'OC fin nei più reconditi voltaggi, e dello spreco dei 40 euro del dissipatore fighetto... (ma quello magari serve a star freschi per tutta la vita del procio anche in estate....:rolleyes: )
Come dice l'articolo, in questo periodo della storia dei PC abbiamo bisogno di attendere nuove schede video, mentre la potenza delle CPU è più che sufficente. E tutto questo grazie ai Core 2 ragazzi...
mircocatta
03-02-2008, 11:16
Si, direi che questo chiude definitivamente la discussione:
tutti quei test dimostrano appieno che dai 2 giga in poi non cambia più
una mazza, il che, per altro, rende la pratica dell'overclock praticamente
inutile, almeno per il gaming:
io stesso, dopo un recente passato a tentare di far stare stabile il mio
q6600 a 3.2 giga (per altro facendolo consumare un sacco in più, per via della disabilitazione dello speedstep, e accorciandogli la vita, per via del surriscaldamento), ho capito quanto sbagliavo: i miei test con crysis (tutto su high a 1680*1050) e world in conflict (tutto al max ma senza AA) mi restituivano un aumento medio di 2 fps ! ! ! ! :sofico: come differenza prestazionale fra la velocità stock 2.4ghz e quella di 3.2 ! Il che magari anche con rischi di instabilità... Ridicolo è la parola giusta.
Al che ho aperto gli occhi. Mi sono reso conto delle ORE della mia vita :muro: sprecate a capire l'astrusa pratica dell'OC fin nei più reconditi voltaggi, e dello spreco dei 40 euro del dissipatore fighetto... (ma quello magari serve a star freschi per tutta la vita del procio anche in estate....:rolleyes: )
Come dice l'articolo, in questo periodo della storia dei PC abbiamo bisogno di attendere nuove schede video, mentre la potenza delle CPU è più che sufficente. E tutto questo grazie ai Core 2 ragazzi...
quindi in sintesi con l'avvento dei core 2 duo il livello cpu limited si è spostato moooolto in avanti e serviranno ben più di 2 generazioni di vga per esser di nuovo cpu limited? o ho capito male?
cmq aspettiamo i giochi della futuremark, quella che fa i 3dmark altamente cpu dipendenti, vediamo :D
usa9999999999
03-02-2008, 11:21
quindi in sintesi con l'avvento dei core 2 duo il livello cpu limited si è spostato moooolto in avanti e serviranno ben più di 2 generazioni di vga per esser di nuovo cpu limited? o ho capito male?
cmq aspettiamo i giochi della futuremark, quella che fa i 3dmark altamente cpu dipendenti, vediamo :D
L'architettura Core 2 ha dato una buona spinta in avanti al settore CPU, e le VGA non sono state al passo, una generazione ci vuole ancora tutta, sia di videogame che di VGA... ;)
Davvero strano: bah, sarò l'unico pirla che è passato in Crysis, con tutto su alto, da 27 a 37FPS di media.
Più che con i C2D la vera svolta c'è stata tempo prima con gli Athlon X2, rispetto ai processori precedenti il boost prestazionale era impressionante, poi con i C2D la situazione è ulteriormente migliorata.
Secondo me, però, più che le vga sono i software ad essere rimasti indietro, cisto che, tranne in qualche ambito, non riescono a sfruttare a dovere le potenzialità dei processori dual e quad core.....nei videogiochi, ad esempio, non venendo sfruttate a pieno le potenzialità del processore, la scheda video risente poco della cpu che c'è dietro; tanto per dirne una, ho provato a far girare crysis in modalità finestra in 800x600, quindi in una situazione molto cpu limited, ed il processore lavorava al 50% circa, pur con altri programmi di background aperti, e vale la stessa condizione anche per molti altri giochi.
Davvero strano: bah, sarò l'unico pirla che è passato in Crysis, con tutto su alto, da 27 a 37FPS di media.
Come t'ho già detto te non solo hai cambiato processore, e passare da un 4400 a 2 ghz con 1 mega di cache ad un altro a 3.2 ghz con 2 mega è tanto, ma soprattutto hai cambiato le ram ,sei passato dalle ddrII 400 alle 800 (quanti gb avevi prima ?), il che aumenta un bel pò le prestazioni, specialmente con gli athlon...poi 10 fps non sono tanti in assoluto
No.
L'uniche cose che ho cambiato in tre mesi sono scheda grafica (avevo una 1950XTX che mi andava quanto la 3870 come framerate) e il processore.
Le ram le ho da quasi un annetto ormai, e ho sempre avuto 2 GB.
10 FPS su 37 sono abbastanza per rendere un gioco giocabile.
mircocatta
03-02-2008, 12:04
la 3870 va un bel po in più di una 1950xtx... e un processore milgiore che sta dietro a una vga milgiore portano a un boost prestazionale del genere
E se ti dicessi che prima di cambiare il processore andavo anche peggio? X°D
Con la XTX avevo 27 FPS, con 3870 25. X°D
ninja750
03-02-2008, 12:37
cmq aspettiamo i giochi della futuremark, quella che fa i 3dmark altamente cpu dipendenti, vediamo :D
ma infatti il 3dmark06 potrebbe essere ribattezzato in cpumark06 :D
ragazzi ma con un celeron 420 @default ed una 3850 risulterei cpu limited? da quel che ho capito abbastanza o mi sbaglio? con un e2160, invece?
davide brigante
06-02-2008, 00:00
ragazzi ma con un celeron 420 @default ed una 3850 risulterei cpu limited? da quel che ho capito abbastanza o mi sbaglio? con un e2160, invece?
molto meglio,ma devi oc.
filluminati
06-02-2008, 07:34
ragazzi ma con un celeron 420 @default ed una 3850 risulterei cpu limited? da quel che ho capito abbastanza o mi sbaglio? con un e2160, invece?
E vabbè, mo tu vuoi esagerare!!!!
Prendi almeno un 2140 cloccato a 2200, la 3850 spinge quiondi almeno un dual core minimo 2200 mhz, sennò rischi, e sinceramente io per 20 euro non rischierei.... :D
Il mio parere per il problema iniziale :D
Dipende tutto da come è scritto il motore grafico del gioco/applicazione grafica, dal numero e dalla complessità degli shader e dallo stress a cui sono sottoposte la RAM video/RAM di sistema.
E vabbè, mo tu vuoi esagerare!!!!
Prendi almeno un 2140 cloccato a 2200, la 3850 spinge quiondi almeno un dual core minimo 2200 mhz, sennò rischi, e sinceramente io per 20 euro non rischierei.... :D
a 1280x1024 gli serve almeno un 2800mhz per fruttare adeguatamente una HD3850
usa9999999999
06-02-2008, 13:22
ragazzi ma con un celeron 420 @default ed una 3850 risulterei cpu limited? da quel che ho capito abbastanza o mi sbaglio? con un e2160, invece?
Sicuramente E2160 overcloccato, così non sei CPU Limited (il Celeron lo è)... ;)
Per quanto riguarda il "limited" occhio che non è tanto la frequenza, ma la quantità di cache a farla da padrone :D
davide brigante
06-02-2008, 23:35
Per quanto riguarda il "limited" occhio che non è tanto la frequenza, ma la quantità di cache a farla da padrone :D
Esagerato:p
la cache influisce si e no per un 5%.Guardare gli articoli sul 3d dei 21xx per credere.
Superpelo
07-02-2008, 00:18
ragazzi ma con un celeron 420 @default ed una 3850 risulterei cpu limited? da quel che ho capito abbastanza o mi sbaglio? con un e2160, invece?
molto meglio il 2160, cmq che firma da pro...
Superpelo
07-02-2008, 00:19
Esagerato:p
la cache influisce si e no per un 5%.Guardare gli articoli sul 3d dei 21xx per credere.
quoto, ho la config in sign, piu' un altro pc on q6600@3ghz e 8800gt, ho provvato a monatre qui la 8800gt, nessun differenza a parte 1 secondo al supi 1mb e 3d merd06, allo 05 stessi punti...
Superpelo
07-02-2008, 00:20
a 1280x1024 gli serve almeno un 2800mhz per fruttare adeguatamente una HD3850
ho provato a mettere il mo a def, 2 ghz, bastava e avanzava per la 3850, ma ne avanzava molto...
Esagerato:p
la cache influisce si e no per un 5%.Guardare gli articoli sul 3d dei 21xx per credere.
Negli applicativi non ludici infatti conta pochetto, in quelli ludici (prendendo per vere alcune recensioni in rete) sono rimasto dal peso che ha, nei motori grafici destinati al MULTIPLAYER (e che quindi devono essere progettati per andare anche su sistemi con CPU potente e schede video pessime, vedi "PC del centro commerciale" :D)
Ovviamente sto parlando di BASSE risoluzioni.
Ecco qua alcuni dati freschi freschi, comprensivi dei nuovi Penryn Dual Core (la serie E8xx) con i suoi bei 6 MB di cache :D
http://www.xbitlabs.com/articles/cpu/print/dualcore-shootout.html
* Mainboards
ASUS P5E (LGA775, Intel X38, DDR2 SDRAM);
DFI LANParty UT 790FX-M2R (Socket AM2+, AMD 790FX).
* Memory: 2GB DDR2 SDRAM (Corsair Dominator TWIN2X2048-10000C5DF).
* Graphics card: OCZ GeForce 8800GTX (PCI-E x16).
* HDD: Western Digital WD1500AHFD (SATA150).
* OS: Microsoft Windows Vista x86
http://www.xbitlabs.com/images/cpu/dualcore-shootout/q4.png
http://www.xbitlabs.com/images/cpu/dualcore-shootout/hl2.png
http://www.xbitlabs.com/images/cpu/dualcore-shootout/crysys.png
http://www.xbitlabs.com/images/cpu/dualcore-shootout/ut3.png
http://www.xbitlabs.com/images/cpu/dualcore-shootout/wic.png
Proviamo a vedere se gli E8xx danno origine ad una crescita lineare delle performance al crescere della frequenza: basta calcolare il coefficiente della retta che che passa nei punti da loro identificati in un piano dove le ascisse sono le frequenze e le ordinate i valori degli FPS :p
m (E8400-E8200)Q4 -> (155.23-142.57)/(3-2.66)=33.23
m (E8500-E8400)Q4 -> (159.66-155.23)/(3.16-3)=27,68
Significa che al crescere della frequenza le performance NON scalano linearmente ma sublinearmente (poi bisogna vedere come), però la crescita nulla non è :D
Abbastanza anomalo il comportamento di UT3, probabilmente conferma che prendere come indice gli FPS massimi è inutile :D
filluminati
07-02-2008, 10:41
Negli applicativi non ludici infatti conta pochetto, in quelli ludici (prendendo per vere alcune recensioni in rete) sono rimasto dal peso che ha, nei motori grafici destinati al MULTIPLAYER (e che quindi devono essere progettati per andare anche su sistemi con CPU potente e schede video pessime, vedi "PC del centro commerciale" :D)
Ovviamente sto parlando di BASSE risoluzioni.
Ecco qua alcuni dati freschi freschi, comprensivi dei nuovi Penryn Dual Core (la serie E8xx) con i suoi bei 6 MB di cache :D
http://www.xbitlabs.com/articles/cpu/print/dualcore-shootout.html
* Mainboards
ASUS P5E (LGA775, Intel X38, DDR2 SDRAM);
DFI LANParty UT 790FX-M2R (Socket AM2+, AMD 790FX).
* Memory: 2GB DDR2 SDRAM (Corsair Dominator TWIN2X2048-10000C5DF).
* Graphics card: OCZ GeForce 8800GTX (PCI-E x16).
* HDD: Western Digital WD1500AHFD (SATA150).
* OS: Microsoft Windows Vista x86
http://www.xbitlabs.com/images/cpu/dualcore-shootout/q4.png
http://www.xbitlabs.com/images/cpu/dualcore-shootout/hl2.png
http://www.xbitlabs.com/images/cpu/dualcore-shootout/crysys.png
http://www.xbitlabs.com/images/cpu/dualcore-shootout/ut3.png
http://www.xbitlabs.com/images/cpu/dualcore-shootout/wic.png
Conferme su conferme, il procio serve a poco e niente, vorrei proprio vedere chi gioca ad half-life con un e8500 ed una 8800 gtx a 1024x768!!!!
:sofico: :ciapet:
Conferme su conferme, il procio serve a poco e niente, vorrei proprio vedere chi gioca ad half-life con un e8500 ed una 8800 gtx a 1024x768!!!!
:sofico: :ciapet:
Certo, ma i test di questo tipo sono fatti per mettere in evidenza eventuali dipendenze, non vanno usati per guidare gli acquisti.
Conferme su conferme, il procio serve a poco e niente, vorrei proprio vedere chi gioca ad half-life con un e8500 ed una 8800 gtx a 1024x768!!!!
:sofico: :ciapet:
dimostra che servono al salire di potenza della VGA , tra 1 anno con schede grafiche piu potenti quel distacco si ripresenterà.
In ogni caso penso che con una GTX a 1600x1200 in Half-Life 2 ci sia lo stesso distacco che a 1024x768 dato che la scheda non verrà saturata.
filluminati
07-02-2008, 11:38
Certo, ma i test di questo tipo sono fatti per mettere in evidenza eventuali dipendenze, non vanno usati per guidare gli acquisti.
ma ci mancherebbe, non intendevo quello, intendevo dire che se a 1024x768 le differenze sono quelle mi immagino da risoluzioni oltre i 1400 x XXXX cosa può cambiare! ...visto che con quella scheda video nessuno giocherà mai a 1024.
filluminati
07-02-2008, 11:57
dimostra che servono al salire di potenza della VGA , tra 1 anno con schede grafiche piu potenti quel distacco si ripresenterà.
In ogni caso penso che con una GTX a 1600x1200 in Half-Life 2 ci sia lo stesso distacco che a 1024x768 dato che la scheda non verrà saturata.
Ma ragazzi forse sono io che non mi faccio capire!
Quel grafico ti dice che con un e2200 (1mb di cache - 2200 mhz!!!!!) giochi al gioco più pesante del mondo a 40 fps!!!!!!!!!!!!!!
Quindi, per me tradotto, vuol dire che spendere 300 euro per un processore, adesso è una grande ca@@ata!!!
Ne spendo 70, mi prendo un 2180(o addirittura un 2140=50 euro) e lo clocco a 2500 mhz........Naturalmente questa è una valutazione per un pc dove il gioco è il 90% dell'utilizzo.
Questo è quello che penso io, poi nessuno mette in dubbio che con processori più performanti si sale di fps.........
40 di media vuol dire che ti scatta in alcuni frangenti , non è mica 40 di minimo.
Inoltre mettici qualche programma in background a quei pc da test dove gli disabilitano persino il tema di windows e non ci installano nemmeno un antivirus e scoprirai che quei 40 sono 35 reali.
Poi mettici qualche programma per scaricare shareware :rolleyes: e siamo a 30 fps.
Un paio di gadget di vista carini e siamo a 28 ... ecc ecc
Soulbringer
07-02-2008, 12:33
40 di media vuol dire che ti scatta in alcuni frangenti , non è mica 40 di minimo.
Inoltre mettici qualche programma in background a quei pc da test dove gli disabilitano persino il tema di windows e non ci installano nemmeno un antivirus e scoprirai che quei 40 sono 35 reali.
Poi mettici qualche programma per scaricare shareware :rolleyes: e siamo a 30 fps.
Un paio di gadget di vista carini e siamo a 28 ... ecc ecc
Ok che c'è un degrado delle prestazioni, ma così mi pare proprio esagerato...
filluminati
07-02-2008, 13:05
40 di media vuol dire che ti scatta in alcuni frangenti , non è mica 40 di minimo.
Poi mettici qualche programma per scaricare shareware :rolleyes: e siamo a 30 fps.
Per quello c'è il muletto..... :D :cool:
Ok che c'è un degrado delle prestazioni, ma così mi pare proprio esagerato...
e che ne sappiamo , qualsiasi testata ci mette XP o Vista con un disco fisso vuoto con magari il 2% dello spazio occupato (quindi completamente deframmentato) ci mette i driver video e testa i giochi, noi non possiamo sapere quanto un particolare programma occupa quando è in funzione perke non li testano come un pc domestico.
Su un pc normale la situazione è ben diversa e il processore è molto più impegnato (pieno di vecchie intallazioni), antivirus, programmini delle fotocamere e delle stampanti sempre residenti e che monitorano chissachè.
Sono come i test fatti da Quattroroute su piste ovali , con asfalto perfetto dove ti misurano anche la temperatura dell aria e la macchina invece di aver 20 litri di carburante (20 kili in +) ha 1 litro per il test... li ti riescono a far saltar fuori che una berlina fa i 30 km al litro quando si sà che nella realtà li fà con il motore al minimo in discesa forse.
Ps: quando accede da disco il mio E6750@3400mhz sale in occupazione cpu a 5-15% che su un Celeron diventerebbero il 15-30%.
Soulbringer
07-02-2008, 14:21
e che ne sappiamo , qualsiasi testata ci mette XP o Vista con un disco fisso vuoto con magari il 2% dello spazio occupato (quindi completamente deframmentato) ci mette i driver video e testa i giochi, noi non possiamo sapere quanto un particolare programma occupa quando è in funzione perke non li testano come un pc domestico.
Su un pc normale la situazione è ben diversa e il processore è molto più impegnato (pieno di vecchie intallazioni), antivirus, programmini delle fotocamere e delle stampanti sempre residenti e che monitorano chissachè.
Sono come i test fatti da Quattroroute su piste ovali , con asfalto perfetto dove ti misurano anche la temperatura dell aria e la macchina invece di aver 20 litri di carburante (20 kili in +) ha 1 litro per il test... li ti riescono a far saltar fuori che una berlina fa i 30 km al litro quando si sà che nella realtà li fà con il motore al minimo in discesa forse.
Ps: quando accede da disco il mio E6750@3400mhz sale in occupazione cpu a 5-15% che su un Celeron diventerebbero il 15-30%.
Ok però puoi sempre fare 1 prova: a pc appena formattato metti su driver e gioco e provi a benchare.
Ti ripeto secondo me un degrado delle prestazioni c'è sicuramente ma non è così marcato..credo che nel peggiore dei casi si possa parlare di un 10-15% in meno per chi proprio tiene il pc "sporchissimo".;)
Ok però puoi sempre fare 1 prova: a pc appena formattato metti su driver e gioco e provi a benchare.
Ti ripeto secondo me un degrado delle prestazioni c'è sicuramente ma non è così marcato..credo che nel peggiore dei casi si possa parlare di un 10-15% in meno per chi proprio tiene il pc "sporchissimo".;)
il 10-15% di un celeron o di un quad?
c'è una bella differenza e non è la stessa percentuale per entrambi ;)
secondo me la cpu serve eccome e ne ho avuto la conferma passando da amd x2 a core2
davide brigante
07-02-2008, 18:16
il 10-15% di un celeron o di un quad?
c'è una bella differenza e non è la stessa percentuale per entrambi ;)
secondo me la cpu serve eccome e ne ho avuto la conferma passando da amd x2 a core2
quanto ti è migliorato il sistema nei giochi?
PS che scheda video usi?
http://www.tomshw.it/cpu.php?guide=20080219&page=overclock_wolfdale-12
http://www.tomshw.it/guides/hardware/cpu/20080219/images/warhammer.png
Il doppio tra l'ultimo e il primo a parità di mostro grafico a 1280 :D
E a 1280 ci sono tutti i 19 pollici 5:4 :O
Non mi pare così inutile poi la CPU :asd:
prophet9000
26-03-2008, 17:38
Buongiorno, vorrei sottoporvi un mio dubbio.
Spesso si dice che determinate VGA, soprattutto le ultime, possono essere "CPU limited" se non affiancate da un procio sufficentemente potente.
Spesso ho anche letto, per esempio in commenti relativi a benchmark con giochi pesanti (qualcuno ha detto Crysis?) commenti (a mio avviso senza senso) del tipo "eh, ma quando provano una HD3870 X2 OC non possono farlo usando un Q6700 perchè è certamente CPU LIMITED" ! ! !
Ora io dico, ma stiamo scherzando? Cos'è, se la scheda ha 2 giorni di vita sul mercato e la cpu ha 6 mesi, o non è iper-overcloccata allora non vanno più bene insieme? :muro:
Vorrei far notare che molto spesso, nei bechmark SUI PROCESSORI, per far venire fuori delle differenze prestazionali devono usare RISOLUZIONI BASSISSIME e NIENTE FILTRI ! ! ! Forse nessuno se ne è mai reso conto, ma quando un benchmark è eseguito a risoluzioni a cui si gioca oggi, tipo 1440*900 o 1680*1050, con i filtri attivati, un E4400 e un QX6850 ipercloccato hanno una differenza prestazionale intorno al 2-3 % ! ! ! :sofico:
Per cui mi chiedo: come è possibile sostenere che le schede video attuali, quando sottoposte a un certo carico, siano "trattenute" a collo di bottiglia dalla cpu!!!
Una 8800GTX impegnata nel difficile compito di far girare SimCity Societies al massimo del dettaglio non smetterà di faticare solo perchè il procio gira a 800, anche 1000 mhz in più ! Le differenze sono INVISIVILI all'occhio umano (1-2 FPS di differenza su anche solo 30, tali sono!).
Perchè questo non è mai stato capito o osservato?
ne cosegue a mio avviso che il concetto CPU limited è attualmente stra-abusato, e spesso è totalmente insensato.
Un qualunque core2 può senza problemi essere affiancato anche a un g100 senza modificare le prestazioni globali, o mi sbaglio???
Cosa ne pensate???
ti quoto alla grande...;)
P.s. x lowenz : molti bench sono pompati per creare business...poi mi dici un core2 overcloccato a 4,2Ghz di chi potenza a bisogno e raffreddamento? mi sembra che se lo possono permettere veramente in pochi un computer così spinto...
ti quoto alla grande...;)
P.s. x lowenz : molti bench sono pompati per creare business...poi mi dici un core2 overcloccato a 4,2Ghz di chi potenza a bisogno e raffreddamento? mi sembra che se lo possono permettere veramente in pochi un computer così spinto...
Che siano pompati può essere vero, ma a 1280 la CPU si fa ancora sentire.
Un C2D della nuova serie (E8xxx) arriva a 4 Ghz senza manco troppi accorgimenti.
Un E8200 con una scheda madre P35 economica (Asrock) ci arriva (500x8), e se si vuole essere sicuri di non abbassare le performance causa latenze più alte a 500 di FSB (il P35 alza le latenze interne a quelle frequenze) basta restare a 450 per un totale di 3,6 Ghz.
quanto ti è migliorato il sistema nei giochi?
PS che scheda video usi?
con la stessa scheda video (X1900XT512@XTX) passando da AMD X2 4400+ a E6750@3400mhz (test con fraps nello stesso stage/save).
AMD X2 4400+ Unreal 3 T 1280x1024 tutti i settaggi al massimo 40 fps
E6750@3400mhz Unreal 3 T 1280x1024 tutti i settaggi al massimo, 60 fps. 1600x1200, 40 fps
Gothic 3 nelle città: da 25fps con l' X2 a 40fps con il core2 stessa vga.
Tidus.hw
28-03-2008, 17:38
con un p4 630 e 2gb di ram ddr2-533 che scheda video posso mettere? (in questo caso penso che mettendo una 9600gt sono già cpu limited)
io metterei al massimo una HD3850... e ti starebbe già larga...
credo che nei prossimi mesi , bisognerà ripetere questi test.
Poichè , credo , che con le vga dx 10 sempre + potenti ed evolute come architetture ed i giochi che sfrutteranno nativamente le dx 10.1 , con il vantaggio appunto, che queste gpu con questi giochi , sgraveranno quasi completamente il processore , credo che il concetto cpu limited , non esisterà più.
insomma avere un procio + potente non ifluirà sui frame al secondo.
Le attuali gpu, sempre + GPGPU , sono diventate tali, sprattutto x quello in ambito game, proprio x sgravare il procio da qualunque calcolo , in ambito game.
poi non ne parliamo, se consideriamo che, giocheremo a risoluzioni sempre + alte.
Raga io devo prendere una 8800gt per il sistema in sign da mettere al posto della 1900xt...alcuni mi dicono che sarei cpu limited, altri invece di no, altri ancora mi dicono che per il 3dmark lo sono...nei giochi andrei cmq una bomba...
Vorrei avere una risposta certa e definitiva, che mi dite?
Tidus.hw
17-04-2008, 22:07
Raga io devo prendere una 8800gt per il sistema in sign da mettere al posto della 1900xt...alcuni mi dicono che sarei cpu limited, altri invece di no, altri ancora mi dicono che per il 3dmark lo sono...nei giochi andrei cmq una bomba...
Vorrei avere una risposta certa e definitiva, che mi dite?
dipende da gioco a gioco, dalla risoluzione a cui giochi etc.
In linea di massima sei cpu limited comunque, a meno che non giochi alla 1080P con l'AA8x XD
Uff...io ho ordinato giusto ieri una 8800 gt da abbinare ad un 4400+ toledo @2.6ghz con mushkin xp-4000 (2x1024mb) 3-4-4-8 a 280mhz e tutti in questo forum mi hanno detto che non sarei stato cpu-limited, che avrei perso pochissimi fps giocando a 1280x1024 con filtri attivati...ora non ci capisco più nulla :mc: Chi dice che conta la cache (e io ce l'ho da 2x1mb) chi che contano le ram ( alla fine le mie sono da quasi 600 però i timings sono bassi)...datemi una risp definitiva, per il 3d06 lo so, ma per i giochi?
Gli AMD in genere sono più prestanti dei P4 soprattutto gli X2 Toledo.
http://www.tomshw.it/cpu.php?guide=20070718&page=processori_roundup_intel_amd-13
come si vede i P4 sono sempre a fondo scala tranne le varianti recentissime e con alti mhz che comunque riescono a malapena ad arrivare alle prestazioni delle cpu più economiche vendute oggi.
dipende da gioco a gioco, dalla risoluzione a cui giochi etc.
In linea di massima sei cpu limited comunque, a meno che non giochi alla 1080P con l'AA8x XD
Giocherò a 1680x1050...
davide brigante
17-04-2008, 22:57
Un esempio su tutti.
Sono passato da x2 3800@2500mhz a 2160@3200mhz
In crysis 1280*1024 tutto su high->da 34fps a 39 con la 8800gt a default.
Con la 8800gt in oc(730/1825/2000)invece,con il procio amd ero fermo a 34 mentre con
il 2160 sono arrivato a 45,5fps.A voi le conclusioni;)
Un esempio su tutti.
Sono passato da x2 3800@2500mhz a 2160@3200mhz
In crysis 1280*1024 tutto su high->da 34fps a 39 con la 8800gt a default.
Con la 8800gt in oc(730/1825/2000)invece,con il procio amd ero fermo a 34 mentre con
il 2160 sono arrivato a 45,5fps.A voi le conclusioni;)
Bè il 3800 ha la cache di 512kb...e conta che nel passaggio hai di sicuro montato delle ram migliori...in definitiva credo che il processore ti abbia dato quei 2-3 fps in più
robertino75
17-04-2008, 23:01
Un esempio su tutti.
Sono passato da x2 3800@2500mhz a 2160@3200mhz
In crysis 1280*1024 tutto su high->da 34fps a 39 con la 8800gt a default.
Con la 8800gt in oc(730/1825/2000)invece,con il procio amd ero fermo a 34 mentre con
il 2160 sono arrivato a 45,5fps.A voi le conclusioni;)
hai cambiato architettura e hai migliorato le prestazioni...visto che gli Intel dual core rendono meglio degli AMD dual core...ho indovinato?:D
Tidus.hw
18-04-2008, 05:57
Giocherò a 1680x1050...
allora secondo me ti conviene occare la cpu che hai almeno a 2,5-2,6ghz e tenertela ancora un pò.
Tieni conto che però in alcuni giochi tipo Unreal tournament 3 ancora un pò cpu limited ugualmente :)
CoolBits
18-04-2008, 12:26
Uff...io ho ordinato giusto ieri una 8800 gt da abbinare ad un 4400+ toledo @2.6ghz con mushkin xp-4000 (2x1024mb) 3-4-4-8 a 280mhz e tutti in questo forum mi hanno detto che non sarei stato cpu-limited, che avrei perso pochissimi fps giocando a 1280x1024 con filtri attivati...ora non ci capisco più nulla :mc: Chi dice che conta la cache (e io ce l'ho da 2x1mb) chi che contano le ram ( alla fine le mie sono da quasi 600 però i timings sono bassi)...datemi una risp definitiva, per il 3d06 lo so, ma per i giochi?
a quella risoluzione e con i filtri sei poco limitato quindi non farti problemi, dove non ce ne sono.
REPERGOGIAN
20-04-2008, 13:44
Buongiorno, vorrei sottoporvi un mio dubbio.
Spesso si dice che determinate VGA, soprattutto le ultime, possono essere "CPU limited" se non affiancate da un procio sufficentemente potente.
Spesso ho anche letto, per esempio in commenti relativi a benchmark con giochi pesanti (qualcuno ha detto Crysis?) commenti (a mio avviso senza senso) del tipo "eh, ma quando provano una HD3870 X2 OC non possono farlo usando un Q6700 perchè è certamente CPU LIMITED" ! ! !
Ora io dico, ma stiamo scherzando? Cos'è, se la scheda ha 2 giorni di vita sul mercato e la cpu ha 6 mesi, o non è iper-overcloccata allora non vanno più bene insieme? :muro:
Vorrei far notare che molto spesso, nei bechmark SUI PROCESSORI, per far venire fuori delle differenze prestazionali devono usare RISOLUZIONI BASSISSIME e NIENTE FILTRI ! ! ! Forse nessuno se ne è mai reso conto, ma quando un benchmark è eseguito a risoluzioni a cui si gioca oggi, tipo 1440*900 o 1680*1050, con i filtri attivati, un E4400 e un QX6850 ipercloccato hanno una differenza prestazionale intorno al 2-3 % ! ! ! :sofico:
Per cui mi chiedo: come è possibile sostenere che le schede video attuali, quando sottoposte a un certo carico, siano "trattenute" a collo di bottiglia dalla cpu!!!
Una 8800GTX impegnata nel difficile compito di far girare SimCity Societies al massimo del dettaglio non smetterà di faticare solo perchè il procio gira a 800, anche 1000 mhz in più ! Le differenze sono INVISIVILI all'occhio umano (1-2 FPS di differenza su anche solo 30, tali sono!).
Perchè questo non è mai stato capito o osservato?
ne cosegue a mio avviso che il concetto CPU limited è attualmente stra-abusato, e spesso è totalmente insensato.
Un qualunque core2 può senza problemi essere affiancato anche a un g100 senza modificare le prestazioni globali, o mi sbaglio???
Cosa ne pensate???
il discorso cpu limited è old come concetto (si evince ad ogni cambio generazione) cmq non fa male riprenderlo.
con una modesta 7900 GTX
http://www.hwupgrade.it/articoli/cpu/1826/hl2_episode_one_1.png
esco sempre dai gangheri quando vedo grafici del genere e non si dice se sono minimi fps media o max fps.:muro:
Esatto
poi ovvio che dall AMD 3500 ai core 2 c'è differenza, perchè li cambia proprio l'architettura...
Qui più che altro si parlava delle differenze fra i core2
o tuttalpiù di chi riesce a sostenere che una VGA enthusiast se non ha sotto un QX9xxx ad almeno 4 giga allora è cpu limited...
esatto.giusto confrontare i mhz a pari architettura
Dipende sempre dal gioco , alcuni sfruttano di più la CPU , altri la scheda video .
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2747&p=4
concordo.
ecco qui la risposta a tutte le domande:
http://www.neoseeker.com/Articles/Hardware/Guides/cpu_bottlenecks/
in qualche gioco non cambia una mazza, in altri come crysis anche a differenze di 1gb di clock sul processore le differenze massime sono 15fps su 60
come sopra
Il tipo di gioco conta molto: negli RTS, ad esempio Medieval II total War, il processore conta moltissimo, anche più della GPU...un processore molto potente fa la differenza di un bel po' di frame, soprattutto in presenza di grosse armate...in altri giochi conta di meno....
sopra
Come t'ho già detto te non solo hai cambiato processore, e passare da un 4400 a 2 ghz con 1 mega di cache ad un altro a 3.2 ghz con 2 mega è tanto, ma soprattutto hai cambiato le ram ,sei passato dalle ddrII 400 alle 800 (quanti gb avevi prima ?), il che aumenta un bel pò le prestazioni, specialmente con gli athlon...poi 10 fps non sono tanti in assoluto
si ma 10 fps su su 30 sono parecchi in assoluto.
Ma ragazzi forse sono io che non mi faccio capire!
Quel grafico ti dice che con un e2200 (1mb di cache - 2200 mhz!!!!!) giochi al gioco più pesante del mondo a 40 fps!!!!!!!!!!!!!!
Quindi, per me tradotto, vuol dire che spendere 300 euro per un processore, adesso è una grande ca@@ata!!!
Ne spendo 70, mi prendo un 2180(o addirittura un 2140=50 euro) e lo clocco a 2500 mhz........Naturalmente questa è una valutazione per un pc dove il gioco è il 90% dell'utilizzo.
Questo è quello che penso io, poi nessuno mette in dubbio che con processori più performanti si sale di fps.........
hai ragione.risparmi sulla cpu.ma.....
tanto so gia che prenderai le ram + veloci sul mercato,
dissipazione?dissi + costoso di quello box
scheda madre?be quella che ti dia molto margine sull'fsb
chi ti dice che non pigli un 2140 sfigato?
morale?risparmio minimo, probabilità di guasto vista l'esasperazione dei componenti alta.
zanardi84
21-04-2008, 08:54
Vorrei fare una domanda secondo me fondamentale: negli ultimi tempi abbiamo assistito ad uno spostamento della risoluzione standard per ogni fascia di mercato.
Alla luce di questo cambiamento, quali sono le risoluzioni tipiche del cpu limited?
Che poi cpu limited a mio avviso vale solo nei casi in cui si varca la soglia della scattosità/fluidià. Se confrontiamo per esempio 130 fps contro 160 fps ha poco senso pratico parlare di cpu limited. Sarebbe solo una questione numerica per gli amanti delle statistiche, ma che poco importa ai fini dell'esperienza videoludica. Giocate o fate solo benchmarking?
matrix866
09-05-2008, 23:20
Su un Athlon Xp 2500+ qual'è la miglior scheda che si può mettere che non sia sprecata? E magari che abbia un buon rapporto qualità/prezzo/consumi?
Su motherboard A7N8X e 2GB DDR, WinVista.
THX!
REPERGOGIAN
10-05-2008, 06:59
Su un Athlon Xp 2500+ qual'è la miglior scheda che si può mettere che non sia sprecata? E magari che abbia un buon rapporto qualità/prezzo/consumi?
Su motherboard A7N8X e 2GB DDR, WinVista.
THX!
vista 32 o 64?
cmq una X800 penso possa essere quasi sfruttata tutta.
matrix866
10-05-2008, 10:21
vista 32 o 64?
cmq una X800 penso possa essere quasi sfruttata tutta.
32 ovviamente. mi puoi dare più alternative di pari potenza perchè chiaramente andrei a vedere nei mercatini quello che trovo. Grazie.
con la configurazione in firma sarei cpu limited con un crossfire di 3870 senza overcloccare la cpu?
REPERGOGIAN
10-05-2008, 11:13
32 ovviamente. mi puoi dare più alternative di pari potenza perchè chiaramente andrei a vedere nei mercatini quello che trovo. Grazie.
non so dirti altro.
albeganasa
10-05-2008, 16:20
E se ti dicessi che prima di cambiare il processore andavo anche peggio? X°D
Con la XTX avevo 27 FPS, con 3870 25. X°D
Forse xke il tuo Tagan non ce la faceva a rifornire al 100% di energia la 3870, non te lo sei chiesto (visto che consuma un botto)?
Forse il gioco poco otimizzato, oppure i driver non corretti e/o incasinati!
Non è possibile che una scheda uscita 3 anni dopo la tua faccia meno FPS, pensaci :D
----------------------
Kmq ho letto tutta la discussione e mi sto facendo delle domande!
Questo è il mio PC:
Enermax Liberty 500W
Asus P5B DLX
Intel Q6600 B3 @ Def
Team Group Xtreem Dark 2gb @ Def
Asus EN8800GTX @ Def
Secondo quello che dite voi, io che ho un QUAD, pagato oro tra l'altro xke uno dei primi) a 2,4 Ghz con la 8800GTX sarei CPU LIMITED!
A me sembra una grandissima Cag....
Visto che il bench di Crysis mi da questi risultati:
Dettagli HIGH DX9 1680x1050 @ 60 Hz
Frames MIN 18,70 (al maledetto frames 142)
Frames MED 32,35
Frames MAX 46
Secondo voi ho dei problemi a giocarci?
Io non credo :D
REPERGOGIAN
10-05-2008, 16:49
in quale passaggio della discussione hai letto che tu saresti cpu limited?
Crysis è l ultimo gioco che può dimostrarti se sei cpu limited o meno dato che non esiste al momento una vga capace di reggere il carico grafico di quel gioco a dettagli massimi.
Giochi con una GTX in Dx9 a dettagli high... se metti very-high con dx10 non ci giochi no, decentemente :D
In ogni caso penso che solo SLI/Cross in crysis a dettaglio High (il very high e per la prossima generazione) possano creare situazioni di CPU-Limited, non certo con una sola vga (non gli la fanno le vga odierne :P )
albeganasa
10-05-2008, 18:05
Ok però puoi sempre fare 1 prova: a pc appena formattato metti su driver e gioco e provi a benchare.
Ti ripeto secondo me un degrado delle prestazioni c'è sicuramente ma non è così marcato..credo che nel peggiore dei casi si possa parlare di un 10-15% in meno per chi proprio tiene il pc "sporchissimo".;)
Ti devo contraddire!
Io con il pc SPORCHISSIMO e con l'harddisk quasi pieno perdo anche 15 frames/sec e soffro di orribili problemi di stuttering anche con 60 fps...
Fai tu :D
in quale passaggio della discussione hai letto che tu saresti cpu limited?
Esattamente in questi due passaggi:
E vabbè, mo tu vuoi esagerare!!!!
Prendi almeno un 2140 cloccato a 2200, la 3850 spinge quiondi almeno un dual core minimo 2200 mhz, sennò rischi, e sinceramente io per 20 euro non rischierei.... :D
a 1280x1024 gli serve almeno un 2800mhz per fruttare adeguatamente una HD3850
Dove si parla della 3850 che è qualche metro dietro la 8800gtx...
albeganasa
10-05-2008, 18:09
Crysis è l ultimo gioco che può dimostrarti se sei cpu limited o meno dato che non esiste al momento una vga capace di reggere il carico grafico di quel gioco a dettagli massimi.
Giochi con una GTX in Dx9 a dettagli high... se metti very-high con dx10 non ci giochi no, decentemente :D
In ogni caso penso che solo SLI/Cross in crysis a dettaglio High (il very high e per la prossima generazione) possano creare situazioni di CPU-Limited, non certo con una sola vga (non gli la fanno le vga odierne :P )
Ho fatto anche test con NFS pro street!
Con AAX9 e AFX16 a 1680x1050 dettagli al massimo faccio sempre 40-50 fps con il sistema sporco!
A UT3 dettagli tutto max a 1680x1050 sono fermo a 60 (causa vsync!)
Cosi come Gears Of War sempre sopra gli 80 Fps!
In assassins Creed a 1280x1024 (vecchio monitor) facevo con i dettagli tutti 3/3 40-45 fps
Servono altri test?
REPERGOGIAN
10-05-2008, 18:23
sbagli a prendere il metro di paragone.
come ti hanno detto su per crysis adesso non c'è vga potente abbastanza da farlo girare fluido (40 fps minimo) con tutto al max.
quindi parlare di cpu limited nel tuo caso, un Q6600, non ha senso.
ovvio non puoi pretendere di giocarci con un P4 e direi ovvio se tu avessi l'ultimo potentissimo dual core faresti magari 4-5 fps in +
ma non sono 4-5 fps che possano far parlare di cpu limited.
Originariamente inviato da viger Guarda i messaggi
a 1280x1024 gli serve almeno un 2800mhz per fruttare adeguatamente una HD3850
Dove si parla della 3850 che è qualche metro dietro la 8800gtx...
la serie E2xxx non è comparabile alla serie Q6xxx , il punto è questo se vai nel thread ufficiale degli E2xxx vedrai che dai test 3dmark2006 una HD3850 non è mai saturato da un E2xxx fino a 3200mhz (il punteggio del 3dmark sale costantemente).
Non puoi prendere le mie frasi riferite ad una determinata serie di cpu (E2140) e metterle in un contesto diverso (Q6600) da quello in cui erano. Gli E2xxx sono frenati parecchio dalla rpesenza di 1 mega di cache. In un contesto dove uno chiede del E2140 e della HD3850 lo avverto che se non spinge la cpu la vga sarà certamente strozzata.
Sempre sul thrend ufficiale di queste cpu si è notato che un aumento del 80% di frequenza porta ad un aumento solo del 50% di frames nei giochi e più si sale di mhz, più la cache diventa vitale.
http://www.xbitlabs.com/images/cpu/dualcore-shootout/wic.png
Inoltre se tu fossi cpulimited con 32 fps di media ad high in crysis dx9 saresti davvero messo male eheh
Ghizzo22
06-06-2008, 14:06
Ciao a tutti!!
Da quello che ho capito nei giochi per i filtri anastropico,AA,hdr ecc...serve solo la vga giusto??
quindi le prestazioni in un gioco per il processore variano a seconda di cosa?? cè nei giochi cosa serve il processore?? per la risoluzione??
Grazie a tutti.
ho letto un pò questa discussione emi sento di dire la mia...
prendete tutto imho..
ho avuto per 1 anno il pc in firma sollo che dalla parte video c'era associato uan 1950 pro....(procio E6400 2133)
bene il 3dmark06 faceva 4800 punti o giu di li...
presa poi una 8800 gts 320 3dmark 8500 punti ..a default
con overclock del procio da 2133->2800 ho toccato i 10000 pti...
ho preso da poco una 8800 gts 512 oc ...
bhe a default faccio SOLO 9600 pti con shader model poco sopra i 4000...
se cloccko il procio a 2800 tocco i 12200 :eek: con punteggi negli shader di 5600 punti...
di fatti potrei dire che con la scheda che mi ritrovo ora l'accoppiata ideale è un procio da 3,00 ghz netto tipo E8400.....anche se nei gioci anche overclockando il mio a 2800 prendo nell'ordine 4 o 5 frame...e in alcuni nessuno ...(assasin creed per esempio)....rispetto al default...
l'unico titolo che necessiterebbe a stopunto del procio a 3,00 ghz sarebbe crysisi che passa dai 42 frame a default 1280*1024 high ...
a 45/6 con il procio settato a 2800..penso cmq che il passaggio si a del tutto ingiusitifcato e per questo ho deciso di tenermi ...il mio vecchio E6400 ...potrei dargli un occata visto che sale molto tranquillamente ma mi cago sottto non volgio ritrovarmi fra un mese a dover ricomprare l'hw....ciao
ho letto un pò questa discussione emi sento di dire la mia...
prendete tutto imho..
ho avuto per 1 anno il pc in firma sollo che dalla parte video c'era associato uan 1950 pro....(procio E6400 2133)
bene il 3dmark06 faceva 4800 punti o giu di li...
presa poi una 8800 gts 320 3dmark 8500 punti ..a default
con overclock del procio da 2133->2800 ho toccato i 10000 pti...
ho preso da poco una 8800 gts 512 oc ...
bhe a default faccio SOLO 9600 pti con shader model poco sopra i 4000...
se cloccko il procio a 2800 tocco i 12200 :eek: con punteggi negli shader di 5600 punti...
di fatti potrei dire che con la scheda che mi ritrovo ora l'accoppiata ideale è un procio da 3,00 ghz netto tipo E8400.....anche se nei gioci anche overclockando il mio a 2800 prendo nell'ordine 4 o 5 frame...e in alcuni nessuno ...(assasin creed per esempio)....rispetto al default...
l'unico titolo che necessiterebbe a stopunto del procio a 3,00 ghz sarebbe crysisi che passa dai 42 frame a default 1280*1024 high ...
a 45/6 con il procio settato a 2800..penso cmq che il passaggio si a del tutto ingiusitifcato e per questo ho deciso di tenermi ...il mio vecchio E6400 ...potrei dargli un occata visto che sale molto tranquillamente ma mi cago sottto non volgio ritrovarmi fra un mese a dover ricomprare l'hw....ciao
se eseguito in modo regolare....nn ti succede nulla a parte elettromigrazione alla lontana;)
Io ho un Athlon 64 3000+ (quindi non X2) che da 1800 lo porto a 2700MHz (poi ho 2Gb di ram DDR400, due Raptor 74GB in Raid0, alimentatore OCZ ModStream 520W). Ho appena comprato una HD3870 e... solo ora leggo questa discussione... Dite che rimarrò molto limitato dalla mia cpu?
E se per una ventina di euro riesco a procurarmi un Athlon 64 X2 3800? (non AM2, ma socket 939... non cambio ora la scheda madre..)
I giochi che vorrei far girare (su schermo 17" a 1280x1024) sono:
Race Driver GRID
Colin McRae Dirt
Driver Parallel Lines
GTR2
Assassins Creed
Civilization IV
Rome Total War
Dite che riuscirò a giocarci?
Io passai da un Amd 3500+ (venice) ad un X2 4400+ (toledo) e le prestazioni salirono di parecchio e nei giochi si vedeva un netto miglioramento.
Se hai la fortuna di trovarli (ma sono ormai rari) ti consiglio un X2 4400+ o un X2 4800+ toledo, quelli con 1 mega di cache.
Con un 3000+ e una hd3870 sei sensibilmente cpu limited.
magnusll
10-06-2008, 08:18
Io vi posso dire questo: facendo il 3dmark06 con una 3870 (secondo me i test sintetici sono piu' utili per indagini architetturali, dato che i giochi dipendono dalla programmazione specifica), andando ad overcloccare la frequenza della GPU si nota un guadagno secco.
Con due 3870 in Crossfire, passando le GPU da 796 a 877 non cambia una virgola. E questo con un E6750 overloccato a 3.6ghz.
Morale: le mie due 3870 sono CPU-limited con un processore a 3 giga e 6.
Io passai da un Amd 3500+ (venice) ad un X2 4400+ (toledo) e le prestazioni salirono di parecchio e nei giochi si vedeva un netto miglioramento.
Se hai la fortuna di trovarli (ma sono ormai rari) ti consiglio un X2 4400+ o un X2 4800+ toledo, quelli con 1 mega di cache.
Con un 3000+ e una hd3870 sei sensibilmente cpu limited.
Ma anche se il mio 3000+ Venice lo porto da 1800MHz a 2700Mhz? A tale frequenza equivalrebbe a un 5000+.
Però se il discorso della limitazione è dovuto proprio al tipo di architettura, allora mi conviene passare a un X2 (ma solo se riesco a trovarlo usato per pochi euro), altrimenti verso settembre cambio sistema e mi prendo un Core 2 Duo, così so di sfruttare a pieno la mia hd3870!! E magari consumo anche qualche Watt in meno col C2D....
Io vi posso dire questo: facendo il 3dmark06 con una 3870 (secondo me i test sintetici sono piu' utili per indagini architetturali, dato che i giochi dipendono dalla programmazione specifica), andando ad overcloccare la frequenza della GPU si nota un guadagno secco.
Con due 3870 in Crossfire, passando le GPU da 796 a 877 non cambia una virgola. E questo con un E6750 overloccato a 3.6ghz.
Morale: le mie due 3870 sono CPU-limited con un processore a 3 giga e 6.
e uno dice a cosa servono i quad core: a nulla per giocare e invece........:)
albeganasa
10-06-2008, 20:09
Adesso glielo spiego io il CPU limited a chi diceva il contrario.
Q6600 @ 2,4 ghz
EN8800GTX @ 575/1350/900 (default)
2gb TG Xtreem
3Dmark06
http://img505.imageshack.us/img505/9977/3dmark06nj8.th.jpg (http://img505.imageshack.us/my.php?image=3dmark06nj8.jpg)
Q6600 @ 3,2 ghz
EN8800GTX @ 575/1350/900 (default)
2gb TG Xtreem
3Dmark06
http://img252.imageshack.us/img252/9456/hwup2nk4.th.jpg (http://img252.imageshack.us/my.php?image=hwup2nk4.jpg)
Adesso spiegatemi come ho fatto a fare piu punteggio sulla scheda video senza averla overcloccata??
Me li ha regalati la futuremark 2000 punti??
Q6600 @ 3,2 ghz
EN8800GTX @ 614/1503/950
2gb TG Xtreem
3Dmark06
http://img252.imageshack.us/img252/3259/hwupoo0.th.jpg (http://img252.imageshack.us/my.php?image=hwupoo0.jpg)
http://service.futuremark.com/home.action;jsessionid=51D6B55FD1CBB0A33FEDD59F4ADFEE7B
Ovviamente da un Overclock modesto è uscito un punteggio modesto, "solo" 600 punti in piu.
Le immagini si spiegano da sole, meditate gente, meditate :)
luX0r.reload
10-06-2008, 21:43
Adesso glielo spiego io il CPU limited a chi diceva il contrario.
Q6600 @ 2,4 ghz
EN8800GTX @ 575/1350/900 (default)
2gb TG Xtreem
3Dmark06
http://img505.imageshack.us/img505/9977/3dmark06nj8.th.jpg (http://img505.imageshack.us/my.php?image=3dmark06nj8.jpg)
Q6600 @ 3,2 ghz
EN8800GTX @ 575/1350/900 (default)
2gb TG Xtreem
3Dmark06
http://img252.imageshack.us/img252/9456/hwup2nk4.th.jpg (http://img252.imageshack.us/my.php?image=hwup2nk4.jpg)
Adesso spiegatemi come ho fatto a fare piu punteggio sulla scheda video senza averla overcloccata??
Me li ha regalati la futuremark 2000 punti??
Q6600 @ 3,2 ghz
EN8800GTX @ 614/1503/950
2gb TG Xtreem
3Dmark06
http://img252.imageshack.us/img252/3259/hwupoo0.th.jpg (http://img252.imageshack.us/my.php?image=hwupoo0.jpg)
http://service.futuremark.com/home.action;jsessionid=51D6B55FD1CBB0A33FEDD59F4ADFEE7B
Ovviamente da un Overclock modesto è uscito un punteggio modesto, "solo" 600 punti in piu.
Le immagini si spiegano da sole, meditate gente, meditate :)
Embè???:mbe:
Scusa ma non ho capito. Ti chiedi perchè hai fatto 2000 punti in più con il procio overcloccato? Li hai fatti perchè in 3dMark06 ci sono due test che sfruttano solo il processore!!! Se togli quei test, vedrai che il guadagno tra procio a default e procio oc è minimo.
magnusll
11-06-2008, 07:43
e uno dice a cosa servono i quad core: a nulla per giocare e invece........:)
Secondo me per il Crossfire la cosa non dipende tanto dalla totale potenza elaborativa del processore quanto dalla sua frequenza. Vale a dire: un dual a 4Ghz sfrutta il Crossfire meglio di un quad a 3Ghz.
Io ho un Athlon 64 3000+ (quindi non X2) che da 1800 lo porto a 2700MHz (poi ho 2Gb di ram DDR400, due Raptor 74GB in Raid0, alimentatore OCZ ModStream 520W). Ho appena comprato una HD3870 e... solo ora leggo questa discussione... Dite che rimarrò molto limitato dalla mia cpu?
E se per una ventina di euro riesco a procurarmi un Athlon 64 X2 3800? (non AM2, ma socket 939... non cambio ora la scheda madre..)
I giochi che vorrei far girare (su schermo 17" a 1280x1024) sono:
Race Driver GRID
Colin McRae Dirt
Driver Parallel Lines
GTR2
Assassins Creed
Civilization IV
Rome Total War
Dite che riuscirò a giocarci?
Avresti un notevole beneficio passando ad un Athlon 64 X2...io l'ho fatto l'anno scorso quando ancora si diceva che i giochi non sfruttavano i dual core...risultato, alcuni giochi come Dirt prima ingiocabili ora girano senza problemi (a parità di frequenza) ;)
REPERGOGIAN
11-06-2008, 10:23
Embè???:mbe:
Scusa ma non ho capito. Ti chiedi perchè hai fatto 2000 punti in più con il procio overcloccato? Li hai fatti perchè in 3dMark06 ci sono due test che sfruttano solo il processore!!! Se togli quei test, vedrai che il guadagno tra procio a default e procio oc è minimo.
si ma se vedi il punteggio di sm2 e sm3 sono saliti parecchio e quelli non fanno riferimento al solo processore.almeno credo.
cmq, per me, il test da fare è a diverse risoluzioni.
albenganasa
con il procio e gpu a default fai 3d mark06 a 1024 a 1280 e a 1600
albeganasa
13-06-2008, 10:49
Embè???:mbe:
Scusa ma non ho capito. Ti chiedi perchè hai fatto 2000 punti in più con il procio overcloccato? Li hai fatti perchè in 3dMark06 ci sono due test che sfruttano solo il processore!!! Se togli quei test, vedrai che il guadagno tra procio a default e procio oc è minimo.
Non diciamo cavolate, lo score della scheda video è aumentato considerevolmente dopo l'overclock del processore!!
Questo come lo spieghi??
sertopica
13-06-2008, 11:28
Ciao ragazzi, una domanda, forse banale: sono appena passato al q9450 (sistema in firma), possiedo un monitor lcd da 15" e una 8800gts 320... mi chiedevo se tale configurazione castrasse le prestazioni del quad core e, quindi, se sarei vga-limited...
Grazie in anticipo ;)
albeganasa
13-06-2008, 17:30
Ciao ragazzi, una domanda, forse banale: sono appena passato al q9450 (sistema in firma), possiedo un monitor lcd da 15" e una 8800gts 320... mi chiedevo se tale configurazione castrasse le prestazioni del quad core e, quindi, se sarei vga-limited...
Grazie in anticipo ;)
Bhe scusa...come si fa ad essere VGA limited?
Semmai la tua VGA è Monitor-Limited!!
sertopica
13-06-2008, 18:26
infatti era una domanda un po' da iniorante :D ! quindi è sempre e comunque il processore a fare eventualmente da collo di bottiglia alle schede video, ho capito bene? Per quanto riguarda il monitor, il pensionamento è quasi d'obbligo... vabè che lo tengo bene, ma sta diventando un pezzo d'antiquariato :stordita: ... e poi, con i suoi invidiabili 25ms di response time :cool: !
albeganasa
13-06-2008, 19:46
infatti era una domanda un po' da iniorante :D ! quindi è sempre e comunque il processore a fare eventualmente da collo di bottiglia alle schede video, ho capito bene? Per quanto riguarda il monitor, il pensionamento è quasi d'obbligo... vabè che lo tengo bene, ma sta diventando un pezzo d'antiquariato :stordita: ... e poi, con i suoi invidiabili 25ms di response time :cool: !
Bhe qualche anno fa quando erano appena usciti qualcuno avrebbe ucciso per avere un 15" 25ms :)
Il mio collega sfoggia sulla scrivania un 17" che su tutta la parte superiore del bordo pavoneggia il suo contrasto (300:1) e i 12ms di tempo di accesso (che poi non è vero :stordita: xke non è G to G).
sertopica
13-06-2008, 19:50
Bhe qualche anno fa quando erano appena usciti qualcuno avrebbe ucciso per avere un 15" 25ms :)
Il mio collega sfoggia sulla scrivania un 17" che su tutta la parte superiore del bordo pavoneggia il suo contrasto (300:1) e i 12ms di tempo di accesso (che poi non è vero :stordita: xke non è G to G).
eheh... a suo tempo lo pagai fior di quattrini... tipo 350 euri... Acer AL532 :cool: Quindi per il discorso del collo di bottiglia ho compreso bene :D ?
con singola vga e procio sopra i 3000 non si è mai cpu limited, neanche con la gtx280 vero?
secondo voi con la mia configurazione sono cpu limited se montassi uno sli fatto da 8800? se si di quanto 10% 20%? + la risoluzione è alta più il procio soffre?:eek:
la risoluzione + alta + il procio riposa...:D
Eugenio_30
10-07-2008, 19:23
Ciao a tutti, un mio amico mi ha chiesto un consiglio per upgradare la sua VGA.
Lui ha un
-Athlon 64 3000+ (sk754)
-Sk madre AGP
-1GB ram
Che scheda AGP posso consigliare?
Una 3850 resterebbe non sfruttata?!?!?
zanardi84
11-07-2008, 12:57
Ciao a tutti, un mio amico mi ha chiesto un consiglio per upgradare la sua VGA.
Lui ha un
-Athlon 64 3000+ (sk754)
-Sk madre AGP
-1GB ram
Che scheda AGP posso consigliare?
Una 3850 resterebbe non sfruttata?!?!?
Beh, io sono con la stessa configurazione, ma mobo pci express e X1900GT. Il balzo in avanti è stato evidente dalla 9800Pro / 6600GT che avevo. Oltre però non vado, ormai la cpu ha fatto il suo tempo e con molti giochi sono proprio ai requisiti minimi per la cpu. E anche la ram inizia a scarseggiare. Pur rimanendo con XP.
Al tuo amico conviene metter via i dindi per una nuova macchina. Ormai le vga hanno prezzi accesibili, le ram pure, le cpu per giocare idem, e una scheda madre onesta la si recupera.
Eugenio_30
12-07-2008, 09:48
Quindi vale la pena saltare con la configurazione sopra descritta a una 3850 o meglio stare su una 3650 ?
angelogenovese2
05-03-2009, 11:50
Riapro la discussione per chiedervi una cosa:
Con la configurazione in firma ho giacato senza problemi a tutti i + attuali giochi e anche a gta4 a 1440x900 ecco lo screen http://img135.imageshack.us/my.php?image=immaginex.jpg
e posso giocarci anche a 1680x1050 ma abbassando la distanza visuale a 1 tutto il resto rimane com'è, il gioco mi va sui 25 frame quindi giocabile e crysis idem stessa risoluzione e dettagli medio alti tutti gli altri giochi vanno benissimo!!
Ora ho deciso di cambiare vga per tirare un altro annetto prima di cambiare configurazione ed ho preso una ATI 4830 da 512 mb che dovrebbe arrivarre domani!!!
Dite che la sfrutterei a dovere o sono limitato dal processore?
Grazie mille
Locemarx
05-03-2009, 12:07
No, grosso modo non sei limitato, in modo particolare se non giochi a rts come i total war o simili
angelogenovese2
05-03-2009, 12:29
Ah ok grazie della risposta allora le mie intuizione erano azzeccate :D
ah visto che ci sono ti chiedo n'altra cosa.
In previsione del cambio di vga e nell'idecisione (anche per il fatto che non ero sicuro di essere o no cpu limited) ero indeciso tra la 4830 da 512 e la 4670 da 1 giga questo perchè sicuramente la seconda poteva essere sfruttata meglio dal procio e a fronte del giga di memoria in giochi come gta4 si possono caricare + dati che in 512 mb (parlo della possibilità di caricare + dati quindi + distanza visuale,texture dettagli ed altro) anche se poi la 4830 è superiore!!!
Mi sbaglio sulla questione dello sfruttamento della memoria o effettivamente cosi?
robertino75
05-03-2009, 13:19
Ah ok grazie della risposta allora le mie intuizione erano azzeccate :D
ah visto che ci sono ti chiedo n'altra cosa.
In previsione del cambio di vga e nell'idecisione (anche per il fatto che non ero sicuro di essere o no cpu limited) ero indeciso tra la 4830 da 512 e la 4670 da 1 giga questo perchè sicuramente la seconda poteva essere sfruttata meglio dal procio e a fronte del giga di memoria in giochi come gta4 si possono caricare + dati che in 512 mb (parlo della possibilità di caricare + dati quindi + distanza visuale,texture dettagli ed altro) anche se poi la 4830 è superiore!!!
Mi sbaglio sulla questione dello sfruttamento della memoria o effettivamente cosi?
ti sbagli...perchè avere 1gb di memoria è initile se poi la scheda non dispone della potenza per gestire quel quantitativo di memoria...è meglio la 4830 con 512mb di memoria che la 4670 con 1gb...e cmq con gta4 avrai problemi con entrambe le schede...1gb su una 4670 è totalmente inutile.
Locemarx
05-03-2009, 17:01
ti sbagli...perchè avere 1gb di memoria è initile se poi la scheda non dispone della potenza per gestire quel quantitativo di memoria...è meglio la 4830 con 512mb di memoria che la 4670 con 1gb...e cmq con gta4 avrai problemi con entrambe le schede...1gb su una 4670 è totalmente inutile.
Si è così...considera che gta4 è un caso particolare, in quel gioco è necessaria una enorme quantità di VRAM, ma comunemente è meglio avere una gpu più veloce con 512 Mb che una più lenta con 1 Gb, soprattutto se non si pretondono risoluzioni elevatissime e antialiasing iperpompato
lontra1986
22-03-2009, 12:54
io ho una questione da sollevare...perchè dite che a 1024x768 il processore è limited e a 1920x1080 no?cioè la mole di dati che deve passare alla gpu dovrebbe aumentare e non diminuire,o sbaglio?
es: a 1024 mettiamo che riesca a trasferire dati per 50 e la gpu riesca a gestire un flusso di 100 è ovvio che la gpu va a 50 e non a 100->cpu limited
a 1920 la cpu riesce a trasferire 40(aumentano i punti geometrici,giusto?) e la gpu riesca a gestire un flusso a 35 è ovvio che la cpu va a 35->non si è cpu limited
Sbaglio qls?cioè non è che a 1920 il processore vada più veloce o sia sgravato da calcoli ma il divario con la gpu si assottiglia,è così?
zero1dgl
28-04-2009, 15:47
...Ciao a tuti vi volevo chiedere se con il computer in firma mi converrebbe passare all' HD 3850 agp...
e se si a quanto in percentuale riuscirei a sfruttarla..
Grazie delle risposte..:)
Ovvio che mi ci vorrebbe un X2 6000+ ma non voglio sentirmelo dire per ora:muro: :muro:
Etchelon
28-04-2009, 16:51
con una modesta 7900 GTX
http://www.hwupgrade.it/articoli/cpu/1826/hl2_episode_one_1.png
Allora questo grafico mostra chiaramente che nella zona bassa si è sempre cpu limited, mentre nella zona alta solo a 1024 si è cpu limited.
E son d'accordo.
Mi viene da ridere invece quando mi vengono a dire "eh ma col tuo procio a Crysis sei CPU limited (col sistema in firma)". Premessa: il fatto che l'architettura INTEL sia più performante della AMD in questo gioco è un altro discorso.
Qui sì che "CPU-limited" è un concetto abusato: infatti facendo tutti i test da 1280x1024 Very High in giù fino a 800x600 Low, il framerate è SEMPRE aumentato.
Se fossi CPU-limited a 800x600 o 1024x768 dovrei avere gli stessi fps (come succede in questo grafico nella zona in basso: la VGA può lavorare di più ma il procio non le sta dietro) ma non è così. Quindi, sì, secondo me il concetto di CPU-limited è abusato da molti. Il massimo è stato quando qualcuno (non ricordo chi) m'è venuto a dire che cmq con la 4850 a 1680x1050 si è ancora CPU-limited...ma non ha senso dirlo neanche a 1280x1024 quando il frame rate non passa mai i 40!!!
Prezioso
28-04-2009, 17:15
in tutti i forum come questo c'è un abuso del termine cpu limited :) perchè in questi il 90% degli utenti è comunque un utente 'avanzato'....cioè spesso è gente che fa overclock ecc ecc....sempre in cerca di qualche fps in più :)
ma TROPPO SPESSO si dimenticano che il mondo dei pc non è solo pc overcloccati :).....spessissimo si legge.....sei cpu limited con quel quad a default, occalo almeno a 3.6......
ma stiamo scherzando?:D è comunque un quad core! overcloccando si migliora ma senza oc non è che i giochi girano male!
poi comunque la gente dimentica spesso che senza overclock per come ragionano si sarebbe quasi sempre cpu limited.......scommetto che uno sli di gtx295 per certi utenti è cpu limited con un i7 3.2, il top del momento....ovviamente con il processore portato a 4.0ghz si farebbero più fps ma è SBAGLIATISSIMO dire cpu limited se attualmente è questo il top sul mercato!
poi comunque bisogna sempre considerare come già detto in queste pagine che conta tanto la risoluzione e i filtri....giocando a risoluzione alta è la gpu che fa il lavoro grosso quindi non è mai sprecata una vga più potente!
io con la mia 260 ho dai 10 ai 20fps in meno di media rispetto ad altri processori più nuovi ma grazie alla 260 posso giocare comunque a tutti i giochi a 1680x1050 aa4x....ma proprio tutti!
se avessi comprato invece una 9800gt 9800gtx che per molti è il giusto per un obsoleto x2 bhe non ci sarei riuscito! basta vedere i benchmark
guardando questi poi noto anche che con gli stessi giochi un i7 ha qualche fps in meno a volte in più di me con una vecchia 8800ultra!.....quindi la gtx260 ha 'tanto' da dare ancora e quindi una cpu nuova non farebbe male ma comunque sia la sua potenza mi permette di attivare tutti gli effetti ecc ecc e non scendere mai sotto i 35fps in tutti i giochi
Etchelon
28-04-2009, 22:55
se avessi comprato invece una 9800gt 9800gtx che per molti è il giusto per un obsoleto x2 bhe non ci sarei riuscito! basta vedere i benchmark
Sì sì, è pieno di sta gente nella sezione sulle Configurazioni Complete PC :asd:
Dicono "ah ma tu hai un Dual Core? Allora non prendere la (ad esempio) 4830, prendi la 4670 che è molto meglio sennò la 4830 è sprecata!!!" così anzichè spendere 90€ per la miglior scheda con rapporto prezzo/prestazioni, fanno spendere 70€ di mezza ciofeca...ma dico io :rolleyes:
halnovemila
17-05-2009, 18:54
Voglio capire bene sta storia del cpu limited ho letto che se alzi la risoluzione carichi meno la cpu ma non ho capito xchè
Provo a spiegare il concetto con parole mie.
Ogni fotogramma viene visualizzato dopo che è stato elaborato in parte dalla CPU e in parte dalla GPU della scheda grafica.
La CPU ha bisogno del "suo" tempo, che dipende da quanto è già impegnata nel calcolo dell'AI del gioco, della posizione degli oggetti nella scena, delle collisioni e della fisica, DEI SUONI, ed, infine, nel calcolo della geometria degli oggetti, che è tanto più laborioso quanto più sono dettagliati.
Una volta disponibile, la geometria viene passata alla GPU, la quale, in modo proporzionale alla risoluzione selezionata, ha bisogno del "suo" tempo per cacolare i colori delle superfici, applicare le texture, applicare gli effetti di luce, elaborare gli oggetti particellari (come le scintille) e volumetrici (come il fumo), calcolare le ombre ed, infine, applicare l'AntiAliasing e il filtraggio anisotropico.
Ciò detto:
Quello dei due tra CPU e GPU che richiede più tempo di elaborazione determina il frame rate, gli FSP effettivi.
Questo perchè la GPU non può fare la sua elaborazione fino a quando la CPU non ha i dati pronti.
Ma i dati della CPU, anche se già pronti, non vengono elaborati dalla GPU se questa non ha ancora finito di calcolare il fotogramma precedente.
Insomma, il più lento dei due fa aspettare l'altro.
Questo mi ricorda un cartellone di propaganda elettorale del PD di alcuni anni fa dove campeggiava lo slogan: "Noi lavoriamo perchè nessuno rimanga indietro".
Difatti l'unico modo per far sì che nessuno rimanga indietro è di obbligare tutti quelli che andrebbero più veloci, a star fermi ad aspettare: esattamente quello che succede tra CPU e GPU.
Definizioni:
La condizione di "CPU Limited" si verifica quando la GPU ha già finito l'elaborazione del fotogramma precedente ma non può procedere con quello successivo perchè la CPU non è ancora pronta.
In questo caso aumentare la potenza della CPU o ridurre il carico di lavoro che grava su di essa comporta un aumento di FPS.
La condizione di "GPU Limited" si verifica quando la CPU ha già pronti i dati per il fotogramma successivo ma la GPU non li elabora perchè ancora impegnata nel calcolo del fotogramma precedente.
In questo caso aumentare la potenza della GPU o ridurre il carico di lavoro che grava su di essa comporta un aumento di FPS.
Considerazioni:
E' stato detto, anche in alcune discussioni di questo forum, che aumentando il carico di lavoro sulla GPU (risoluzione, filtri, qualità texture, effetti luce ed ombre, etc...) una preesistente condizione di "CPU Limited" può venire meno (vedi il post #2635 (http://www.hwupgrade.it/forum/showpost.php?p=24361948&postcount=2635)).
Attenzione però... viene meno perchè la GPU viene rallentata fino al punto di eguagliare i tempi della CPU, non certo perchè la CPU abbia un carico di lavoro minore e pertanto diventi più veloce nell'eseguire la propria parte di elaborazione.
Insomma, in caso di "CPU Limited", l'aumento del carico sulla GPU tramite aumento di risoluzione e dettagli, non comporta un aumento degli FPS(!) (che sono dettati sempre dalla CPU, essendo la più lenta), ma quantomeno, consente di godere di una qualità maggiore dell'immagine a parità di FPS.
Altra considerazione:
aumentando troppo il carico di lavoro sul processore grafico, si rischia poi di passare alla condizione inversa: da CPU Limited a GPU Limited.
In quel caso la GPU è talmente "impegnata" che la CPU, che prima era quella che "faceva aspettare", ora diventa quella che finisce per prima la propria parte di lavoro.
In questo caso avremo una diminuzione degli FPS(!).
Conclusioni:
In caso di CPU limited, intervenire sulla risoluzione e sui filtri, non comporta MAI un aumento degli FPS.
Saluti.
Alessio
.
Mauro B.
17-05-2009, 19:05
... seguito... :D puoi continuare hal... curiosità: "quante bacchettate prendi da Esticbo generalmente!? :D"
halnovemila
17-05-2009, 19:40
hahaha... tante :p
Comunque Mauro,
convengo con te quando dici che puntare l'attenzione solo sulla CPU è restrittivo.
In verità le prestazioni della RAM, del bus AGP/PCI-E e del sistema operativo insieme ai programmi installati hanno o possono avere incidenza sulle prestazioni grafiche, sugli FPS.
Potrei dirti che addirittura il tipo di antivirus che hai installato sul tuo PC (ce l'hai vero? ;)) può determinare un calo di FPS.
E' vero pure che all'interno dello stesso gioco ci possono essere scene CPU limited, seguite da altre GPU limited, perchè i carichi di elaborazione a su CPU e GPU variano a seconda della scena, degli elementi in scena.
Comunque il problema di sapere se si è CPU o GPU limited si pone solo allorquando gli FPS prodotti dal proprio sistema con il programma, gioco, che si vuole utilizzare, non sono sufficienti a soddisfare le proprie aspettative.
Difatti ci si potrebbe benissimo trovare IN UN DETERMINATO GIOCO in una condizione di CPU limited, ma se gli FPS sono comunque soddisfacenti, ciò non costituisce un problema.
Saluti.
Alessio
.
Mauro B.
17-05-2009, 19:53
:D sì interessante...
Io utilizzo un programmino che si chiama gamebooster per disattivare le istanze inutili durante il gioco... come antivirus ho antivir che lascio attivato...
ho fatto la verifica con 3dmark06 con antivir disattivato ottenevo 2fps in meno.... il resto viene disattivato dal programmino di cui ho fatto menzione, ma quello che non capisco è il motivo per cui in alcune fasi del gioco gli FPS si abbassano di colpo.... se il personaggio ripete lo stesso percorso si determina sistematicamente l'abbassamento di fps... come se fosse programmato qualcosa che incide... bhò! a volte durante il gioco appariva la scritta "caricamento", quando avanzanvo velocemente il personaggio durante il percorso.... sarò che il gioco deve caricare gli ambienti successivi ed in quei punti è previsto il caricamento.... o i programmatori hanno commesso degli errori... ci sono dei punti in cui la grafica è piena di dettagli e di soggeti in movimento ed è regolare senza intoppi per questo penso non si tratti di limiti da componente ma di qualcos'altro,... non so cosa però.
ps: mi sono assentato per la cena, pane e fave.
Etchelon
17-05-2009, 19:53
Ma la geometria non viene calcolata dalla GPU? "Geometry Instancing", nuova feature delle ultime generazioni di schede video...
halnovemila
17-05-2009, 20:00
Può essere; dipende dal modello di scheda grafica, dalle API di sistema (directX) e dal driver.
Ci sono pure degli "esperimenti" per spostare il calcolo della fisica e delle collisioni dalla CPU a schede di elaborazione/accelerazione dedicate o addirittura alla GPU stessa.
Ma in ogni caso gli estremi della questione non cambiano.
CPU e GPU lavorano, devono lavorare assieme.
Quella delle due che è più lenta nel fare la propria parte determina la velocità anche dell'altra.
Saluti
Alessio
.
halnovemila
17-05-2009, 20:04
a volte durante il gioco appariva la scritta "caricamento", quando avanzanvo velocemente il personaggio durante il percorso.... sarò che il gioco deve caricare gli ambienti successivi ed in quei punti è previsto il caricamento
Sì, Mauro, è senz'altro così.
Mauro B.
17-05-2009, 20:08
come faccio a capire che capacità ha la mia cpu rispetto alla mia scheda video agp? come le confronto?
Le informaizioni transitano attraverso le RAM, la dimensione di queste influiscono? e la RAM interna alla scheda video come interagisce con le RAM di sistema?
Grazie, Mauro.
ps: altro elemento interessante sono i settaggi bios... e quelli sul controller video...
halnovemila
17-05-2009, 20:31
Mauro,
partiamo dal presupposto che tu sia insoddisfatto degli FPS che ottieni in un determinato punto di un gioco.
Prendiamo ad esempio il 35° secondo della missione Charlie don't Surf giocata in modalità "arcade" e livello di difficoltà "Hardened" di Call Of Duty 4.
http://immagini.p2pforum.it/out.php/t361346_CoD42c1c1cHALcmp.jpg (http://immagini.p2pforum.it/out.php/i361346_CoD42c1c1cHALcmp.jpg)
(per maggiori dettagli sull'esempio vedi qui (http://www.hwupgrade.it/forum/showpost.php?p=23925709&postcount=2363))
Diciamo che a te 29FPS non bastano e vuoi capire se puoi aumentare gli FPS in qualche modo...
bene... la strada da seguire è una:
Provare! :)
Prima provi a lavorare sul versante GPU: diminuisci la risoluzione o togli l'AA o altri effetti collegati all'elaborazione in carico alla GPU.
Se ciò non sortisce alcun effetto significa che a "tirare indietro" è la parte "non GPU", ovvero CPU+RAM di sistema.
A questo punto puoi cercare di "liberare" la CPU dall'onere di "seguire" anche altre elaborazioni, disattivanto i processi non necessari (cosa che tu fai giustamente)
Poi, puoi cercare di overcloccare, la CPU.
Poi, puoi cercare di ottimizzare i timings delle RAM per avere più larghezza di banda.
E, infine, puoi agire sulle impostazioni del gioco per ridurre la qualità audio, o il dettaglio geometrico degli oggetti in scena, o il numero degli oggetti (tipo i corpi dei nemici colpiti e rimasti a terra).
Se tutto ciò non è ancora sufficiente... non ti rimane che rassegnarti...
o cambiare hardware.
Capito mi hai?
;)
.
Mauro B.
17-05-2009, 20:37
Mauro...
Capito mi hai?
;)
.
Sì.
in tutti i forum come questo c'è un abuso del termine cpu limited :) perchè in questi il 90% degli utenti è comunque un utente 'avanzato'....cioè spesso è gente che fa overclock ecc ecc....sempre in cerca di qualche fps in più :)
ma TROPPO SPESSO si dimenticano che il mondo dei pc non è solo pc overcloccati :).....spessissimo si legge.....sei cpu limited con quel quad a default, occalo almeno a 3.6......
ma stiamo scherzando?:D è comunque un quad core! overcloccando si migliora ma senza oc non è che i giochi girano male!
Non c'entra niente il numero di core. Se stai facendo girare un gioco che sfrutta uno o due core poi avere anche un octacore, ma se la frequenza del processore è bassa o l'architettura poco efficiente vai comunque più piano rispetto ad un dual con stessa architettura e frequenza più alta.
Prezioso
17-05-2009, 21:17
Non c'entra niente il numero di core. Se stai facendo girare un gioco che sfrutta uno o due core poi avere anche un octacore, ma se la frequenza del processore è bassa o l'architettura poco efficiente vai comunque più piano rispetto ad un dual con stessa architettura e frequenza più alta.
evidentemente non hai capito il senso della risposta.....
Blob2000
17-05-2009, 21:46
Grazie x la precisissima spiegazione halnovemila
Blob2000
17-05-2009, 22:54
Non c'entra niente il numero di core. Se stai facendo girare un gioco che sfrutta uno o due core poi avere anche un octacore, ma se la frequenza del processore è bassa o l'architettura poco efficiente vai comunque più piano rispetto ad un dual con stessa architettura e frequenza più alta.
X architettura cosa intendi piu precisamente? Le istruzioni ? Io penso che se parliamo con cpu multicore + ne hanno + saranno evolute penso anche in termini di architettura, intendo siano + performanti ( parlando sempre di cpu x desktop sò anche io che quelle x workstation etc non vanno bene lavorano diversamente ). Di frequenze in effetti ho visto anche io che alcuni dual core hanno frequenze a momenti + basse del mio vecchio atlhon xp solo che lavorano con fsb molto maggiori non dovrebbero essere cmq più performanti?
evidentemente non hai capito il senso della risposta.....
Nono ho capito benissimo. Io parlo sempre a parità di scheda video però, non come l'esempio che hai fatto te di un athlon X2 + gtx260 contro Core 2 Duo + 9800GTX.
Ovviamente ci giochi bene lo stesso, però io per esempio con farcry 2 passando dal tuo stesso procio all'E5200 occato a 3.5ghz (sarebbe stato lo stesso con un E8500 a default) con la stessa scheda video ho guadagnato quei 10 fps di picco minimo che hanno fatto la differenza. Il tutto con una 4850, se avessi avuto una GTX 260 l'aumento sarebbe stato ancor più elevato.
Insomma, per come la vedo io cpu e gpu devono andare di pari passo. Sicuramente una cpu "moscia" con una gpu potente è un'accoppiata migliore di cpu potente e gpu moscia, ma avere entrambi potenti spesso fa la differenza.
X architettura cosa intendi piu precisamente? Le istruzioni ? Io penso che se parliamo con cpu multicore + ne hanno + saranno evolute penso anche in termini di architettura, intendo siano + performanti ( parlando sempre di cpu x desktop sò anche io che quelle x workstation etc non vanno bene lavorano diversamente ). Di frequenze in effetti ho visto anche io che alcuni dual core hanno frequenze a momenti + basse del mio vecchio atlhon xp solo che lavorano con fsb molto maggiori non dovrebbero essere cmq più performanti?
Intendo che se per esempio prendi un E8500 che va a 3.16ghz ed è dual core in quasi tutti i giochi avrai prestazioni maggiori rispetto ad un Q9300 che è quad core ma va a 2.6ghz (entrambi wolfdale) questo perchè due core restano non sfruttati, e quindi è come avere un dual a 2.6ghz, non so se sono stato chiaro.
Blob2000
18-05-2009, 00:14
Intendo che se per esempio prendi un E8500 che va a 3.16ghz ed è dual core in quasi tutti i giochi avrai prestazioni maggiori rispetto ad un Q9300 che è quad core ma va a 2.6ghz (entrambi wolfdale) questo perchè due core restano non sfruttati, e quindi è come avere un dual a 2.6ghz, non so se sono stato chiaro.
Ok ora è chiaro ^^
MorrisADsl
18-05-2009, 10:41
Sì sì, è pieno di sta gente nella sezione sulle Configurazioni Complete PC :asd:
Dicono "ah ma tu hai un Dual Core? Allora non prendere la (ad esempio) 4830, prendi la 4670 che è molto meglio sennò la 4830 è sprecata!!!" così anzichè spendere 90€ per la miglior scheda con rapporto prezzo/prestazioni, fanno spendere 70€ di mezza ciofeca...ma dico io :rolleyes:
si quoto in pieno sembra quasi che se non hai una cpu di rango elevato non sei degno di avere una scheda potente, devi essere "aristocratico":D . io lo fatto con la mia 260 gtx e devo dire che oltre che un sufficiente boost prestazionale ho guadagnato molta più qualità di prima nei giochi (avevo una 8600gt), poi nei prox mesi aggiorno il resto.:read:
sniperspa
18-05-2009, 12:56
si quoto in pieno sembra quasi che se non hai una cpu di rango elevato non sei degno di avere una scheda potente, devi essere "aristocratico":D . io lo fatto con la mia 260 gtx e devo dire che oltre che un sufficiente boost prestazionale ho guadagnato molta più qualità di prima nei giochi (avevo una 8600gt), poi nei prox mesi aggiorno il resto.:read:
Eh grazie avevi una 8600gt :D
Quando cambi ank il resto del pc vedrai come schizzeranno i fps!:sofico:
Ankio devo cambiare il resto del pc a settimane/mesi perchè fin'ora sono stato con un 3500+ e una HD3850 molto sottosfruttata da un'anno a sta parte :(
si quoto in pieno sembra quasi che se non hai una cpu di rango elevato non sei degno di avere una scheda potente, devi essere "aristocratico":D . io lo fatto con la mia 260 gtx e devo dire che oltre che un sufficiente boost prestazionale ho guadagnato molta più qualità di prima nei giochi (avevo una 8600gt), poi nei prox mesi aggiorno il resto.:read:
Vabbè grazie avevi una 8600Gt...poi se ci metti un E8400 vedrai che differenza :D
Il discorso non è che devi essere "aristocratico", è che con un Athlon 3800 X2 una scheda come la GTX260 la sfrutti a metà
MorrisADsl
18-05-2009, 19:46
Vabbè grazie avevi una 8600Gt...poi se ci metti un E8400 vedrai che differenza :D
Il discorso non è che devi essere "aristocratico", è che con un Athlon 3800 X2 una scheda come la GTX260 la sfrutti a metà
bhe lo so, ma non vedo perche mi devo senitre dire "no e meglio che prendi una 9800 invece che una 260" oppure "per il tuo pc va meglio la 8600 che hai". Se devo fare un investimento per il futuro vorrei delle risposte adeguate.:lamer:
Vaillant
27-08-2009, 11:45
.....
mirkonorroz
16-09-2009, 19:26
Anche (nonostante) dopo il (per me) ottimo post di halnovemila #143 (http://www.hwupgrade.it/forum/showpost.php?p=27499139&postcount=143) trovo ancora affermazioni tipo:
Sei cpu limited a quella risoluzione, normale che scatti perchè stai dando troppo carico alla cpu, mentre la vga non la stai sfruttando.
Se provi nel tv full hd vedrai grossi miglioramenti, come grafica che fluidità (fps maggiori).
ha anche applicato l'AA a 4x, scaricando ulteriormente il procio.
Qualcuno puo' riportare una serie di link di test dove esse risultino vere e dove venga spiegato per bene il perche' ?
Mauro B.
16-09-2009, 19:46
volevo sapere se esiste il modo per ottimizzare l'interazione tra cpu e vga...
e se sia possibile visualizzare il bios della vga come accade per la scheda madre.
grazie.
a mirko: io utilizzo software che durante il gioco disabiliterebbero delle funzioni esecutive dal SO come diversi servizi... in modo da disimpegnare la CPU.
halnovemila
16-09-2009, 19:58
Qualcuno puo' riportare una serie di link di test dove esse risultino vere e dove venga spiegato per bene il perche' ?
Affermazioni di quel tipo sono possibili perchè chi le fa non sa come funziona la cosidetta "catena di rendering" e non si rende conto di dire cose inverosimili.
Non troverai mai test che possano confermare tali affermazioni, semmai ne troverai che le smentiscono.
http://www.hwupgrade.it/forum/showpost.php?p=24361948&postcount=2635
Comunque è vero che se si creano e aumentano le condizioni "GPU limited" alzando eccessivamente la risoluzione o attivando troppi filtri ("eccessivamente" e "troppo" è riferito alla potenza della scheda grafica) la CPU di conseguenza si troverà ad avere sempre maggiori tempi di inattività mentre attende che la GPU compia la sua parte di elaborazione.
Ciao :)
mirkonorroz
16-09-2009, 20:46
Grazie hal, diciamo che il mio post era un po' al limite tra la curiosita' (il non si sa mai, chissa'... forse...) e il soft-provocatorio :)
Si potrebbe provare a fare una raccolta di questi post rendendoli anonimi (come ho fatto io), in un thread, e poi vedere se qualcuno arriva a spiegare, ma non e' da me...
@Mauro: purtroppo a livello smanettamento-utente non saprei... penso che in generale sia difficile trovare un criterio. Per me, anche trovato, sempre se possibile, un modo di ottimizzare l'interazione CPU/GPU indipendentemente da una applicazione sw (cioe' non tenendone conto, nel senso di trovare un metodo solo HW), tale criterio potrebbe vanificarsi nel momento si utilizzi (obbligatoriamente, altrimenti il pc non serve ad un tubo) una varieta' di applicazioni (giochi o altro) che differiscano significativamente nella loro richiesta di risorse.
Qualcosa di piu' tecnico, per lo sviluppo e il profiling, invece e' illustrato ad esempio qui (http://www.slideshare.net/psteinb/optimizing-direct-x-on-multi-core-architectures) (non so se ti puo' interessare e se non l'avevi ancora visto).
Kharonte85
16-09-2009, 22:07
Comunque il problema di sapere se si è CPU o GPU limited si pone solo allorquando gli FPS prodotti dal proprio sistema con il programma, gioco, che si vuole utilizzare, non sono sufficienti a soddisfare le proprie aspettative.
Difatti ci si potrebbe benissimo trovare IN UN DETERMINATO GIOCO in una condizione di CPU limited, ma se gli FPS sono comunque soddisfacenti, ciò non costituisce un problema.
Saluti.
Alessio
.
Parte in grassetto da scolpire a fuoco ;)
sniperspa
17-09-2009, 00:59
Parte in grassetto da scolpire a fuoco ;)
GIà...molta gente ha un concetto un pò diverso di cpu limited :D
Zappa1981
30-09-2009, 10:16
Scusate l intrusione dico sempre la mia e la dirò anche stà volta, il thread è molto interessante e veritiero.. Io ho un pentiumD 915 tirato come una corda di violino a 4.000Mhz, che tiene egregiamente senza nessun problema. Ho notato differenze dai 2.8 di default ai 4Ghz, avrò recuperato una manciata di frame nei giochi però mi accorgo che chi come voi ha un processore più potente non riesce in ogni caso a superare il mio nell esecuzione di giochi molto pesanti, pensate poi nell uso domestico come riprodurre film o divx. E' vero, l ho cloccato, ma l ho fatto appunto per non spendere soldi inutilmente. Ora con il cambio del monitor comprerò una 4890 probabilmente e questo mi darà un boost prestazionale notevole con i giochi e nessuno di questi sarà un problema nonostante la mia ormai vecchia configurazione... Ho sempre consigliato un processore modesto e una buona scheda grafica e per modesto non intendo un celeron o duron che sia, ma anche un core 2 duo e4300 se abbinato ad una buona scheda madre e con l aggiunta di una bella scheda grafica è in grado di gestire tutti i giochi esistenti.. Io personalmente come il creatore del thread consiglio di investire i soldi in una buona scheda grafica senza perdere la testa per le cpu di ultima generazione..completamente inutili almeno in campo videoludico :)
Provo a spiegare il concetto con parole mie.
Ogni fotogramma viene visualizzato dopo che è stato elaborato in parte dalla CPU e in parte dalla GPU della scheda grafica.
La CPU ha bisogno del "suo" tempo, che dipende da quanto è già impegnata nel calcolo dell'AI del gioco, della posizione degli oggetti nella scena, delle collisioni e della fisica, DEI SUONI, ed, infine, nel calcolo della geometria degli oggetti, che è tanto più laborioso quanto più sono dettagliati.
Una volta disponibile, la geometria viene passata alla GPU, la quale, in modo proporzionale alla risoluzione selezionata, ha bisogno del "suo" tempo per cacolare i colori delle superfici, applicare le texture, applicare gli effetti di luce, elaborare gli oggetti particellari (come le scintille) e volumetrici (come il fumo), calcolare le ombre ed, infine, applicare l'AntiAliasing e il filtraggio anisotropico.
Ciò detto:
Quello dei due tra CPU e GPU che richiede più tempo di elaborazione determina il frame rate, gli FSP effettivi.
Questo perchè la GPU non può fare la sua elaborazione fino a quando la CPU non ha i dati pronti.
Ma i dati della CPU, anche se già pronti, non vengono elaborati dalla GPU se questa non ha ancora finito di calcolare il fotogramma precedente.
Insomma, il più lento dei due fa aspettare l'altro.
Questo mi ricorda un cartellone di propaganda elettorale del PD di alcuni anni fa dove campeggiava lo slogan: "Noi lavoriamo perchè nessuno rimanga indietro".
Difatti l'unico modo per far sì che nessuno rimanga indietro è di obbligare tutti quelli che andrebbero più veloci, a star fermi ad aspettare: esattamente quello che succede tra CPU e GPU.
Definizioni:
La condizione di "CPU Limited" si verifica quando la GPU ha già finito l'elaborazione del fotogramma precedente ma non può procedere con quello successivo perchè la CPU non è ancora pronta.
In questo caso aumentare la potenza della CPU o ridurre il carico di lavoro che grava su di essa comporta un aumento di FPS.
La condizione di "GPU Limited" si verifica quando la CPU ha già pronti i dati per il fotogramma successivo ma la GPU non li elabora perchè ancora impegnata nel calcolo del fotogramma precedente.
In questo caso aumentare la potenza della GPU o ridurre il carico di lavoro che grava su di essa comporta un aumento di FPS.
Considerazioni:
E' stato detto, anche in alcune discussioni di questo forum, che aumentando il carico di lavoro sulla GPU (risoluzione, filtri, qualità texture, effetti luce ed ombre, etc...) una preesistente condizione di "CPU Limited" può venire meno (vedi il post #2635 (http://www.hwupgrade.it/forum/showpost.php?p=24361948&postcount=2635)).
Attenzione però... viene meno perchè la GPU viene rallentata fino al punto di eguagliare i tempi della CPU, non certo perchè la CPU abbia un carico di lavoro minore e pertanto diventi più veloce nell'eseguire la propria parte di elaborazione.
Insomma, in caso di "CPU Limited", l'aumento del carico sulla GPU tramite aumento di risoluzione e dettagli, non comporta un aumento degli FPS(!) (che sono dettati sempre dalla CPU, essendo la più lenta), ma quantomeno, consente di godere di una qualità maggiore dell'immagine a parità di FPS.
Altra considerazione:
aumentando troppo il carico di lavoro sul processore grafico, si rischia poi di passare alla condizione inversa: da CPU Limited a GPU Limited.
In quel caso la GPU è talmente "impegnata" che la CPU, che prima era quella che "faceva aspettare", ora diventa quella che finisce per prima la propria parte di lavoro.
In questo caso avremo una diminuzione degli FPS(!).
Conclusioni:
In caso di CPU limited, intervenire sulla risoluzione e sui filtri, non comporta MAI un aumento degli FPS.
Saluti.
Alessio
.
Ottima spiegazione Hal.. Ho evidenziato in rosso la parte che più mi interessa. Ero portato anche io erroneamente a pensare che aumentando risoluzione,effetti grafici e dettagli in un gioco si va a sgravare la cpu dal carico di lavoro migliorando gli fps ma riflettendo meglio si capisce che non è così.
Questa mia convinzione è però sorta un giorno quando stavo provando nfs carbon con la configurazione in firma (con una 4870 poi defunta) e giocando a 1280*768 con tutti i dettagli attivati facevo pochissimi fps.. Forzata la risoluzione 1920*1200 gli fps sono schizzati in alto. Che era successo? Sta cosa non convince nemmeno me e appena avrò un pò di tempo rifaccio la prova.sicuramente gli fps si erano impallati per un altro motivo..però riverificherò..
Sul pc della mia raga invece si conferma quanto dici. (P4 3.0ghz RAM 1,5gb ddr2 x1300Hm)sul quale tempo fa ho montato una 7600gt ddr3. Ebene lei prima a the sims2 con la x1300 giocava a 1024*768 con tutti i dettagli bassi e con pochi fps..dopo con la 7600gt ddr3 non è cambiato praticamente nulla! sia a 800*600 che a 1280*1024 con dettagli massimi gli fps sono sempre bassi..
Questo quindi conferma quanto da te detto dato che il problema è decisamente la cpu e non la vga.. Il cpu-limited si verifica però solo con questo strano gioco dato che altri tipo Quake4 hanno giovato di un boost prestazionale notevole. Evidentemente The sims2 si appoggia molto sulla cpu quindi anche montando una 4670 non cambierebbe nulla.
halnovemila
30-09-2009, 13:29
Ottima spiegazione Hal..
:)
Il cpu-limited si verifica però solo con questo strano gioco dato che altri tipo Quake4 hanno giovato di un boost prestazionale notevole. Evidentemente The sims2 si appoggia molto sulla cpu quindi anche montando una 4670 non cambierebbe nulla.
La condizione "CPU-limited" si verifica sempre IN RAPPORTO al carico di elaborazione (che è determinato dall'applicazione/gioco) ed alla potenza elaborativa di CPU e GPU.
Va da sè che un'applicazione/gioco può creare un carico di elaborazione particolarmente pesante sulla CPU (pensiamo ai giochi strategici... Supreme Commander, per esempio, può arrivare ad impegnare al 100% i 4 core di una E6600 nel momento in cui le unità in campo raggiungono le migliaia) e relativamente "leggero" sul versante grafico; viceversa ce ne possono essere altri per cui è vero il contrario.
Dirò di più... pure all'interno della stessa applicazione/gioco, i rispettivi carichi di elaborazione su CPU e GPU possono variare moltissimo (una scena panoramica con molti oggetti in movimento e modelli dettagliati richiede molta CPU, ma se successivamente la scena continua all'interno di una stanza il carico geometrico e di AI calerà in modo rilevante) al punto da poter avere condizioni CPU-limited in alcune scene a GPU-limited in altre.
Con l'occasione voglio ricordare che l'audio AC'97 (quindi in assenza di scheda audio dedicata) assorbe molta più potenza CPU di quanto si sia solitamente portati a credere.
In condizioni prevalentemente CPU-limited, quindi, se il gioco fa uso intenso dell'audio, l'installazione nel sistema di una scheda audio dedicata può comportare un aumento degli FPS.
Saluti.
Alessio
.
sniperspa
30-09-2009, 13:30
Scusate l intrusione dico sempre la mia e la dirò anche stà volta, il thread è molto interessante e veritiero.. Io ho un pentiumD 915 tirato come una corda di violino a 4.000Mhz, che tiene egregiamente senza nessun problema. Ho notato differenze dai 2.8 di default ai 4Ghz, avrò recuperato una manciata di frame nei giochi però mi accorgo che chi come voi ha un processore più potente non riesce in ogni caso a superare il mio nell esecuzione di giochi molto pesanti, pensate poi nell uso domestico come riprodurre film o divx. E' vero, l ho cloccato, ma l ho fatto appunto per non spendere soldi inutilmente. Ora con il cambio del monitor comprerò una 4890 probabilmente e questo mi darà un boost prestazionale notevole con i giochi e nessuno di questi sarà un problema nonostante la mia ormai vecchia configurazione... Ho sempre consigliato un processore modesto e una buona scheda grafica e per modesto non intendo un celeron o duron che sia, ma anche un core 2 duo e4300 se abbinato ad una buona scheda madre e con l aggiunta di una bella scheda grafica è in grado di gestire tutti i giochi esistenti.. Io personalmente come il creatore del thread consiglio di investire i soldi in una buona scheda grafica senza perdere la testa per le cpu di ultima generazione..completamente inutili almeno in campo videoludico :)
Non ho capito cosa intendi qui.. :wtf:
:)
La condizione "CPU-limited" si verifica sempre IN RAPPORTO al carico di elaborazione (che è determinato dall'applicazione/gioco) ed alla potenza elaborativa di CPU e GPU.
Va da sè che un'applicazione/gioco può creare un carico di elaborazione particolarmente pesante sulla CPU (pensiamo ai giochi strategici... Supreme Commander, per esempio, può arrivare ad impegnare al 100% i 4 core di una E6600 nel momento in cui le unità in campo raggiungono le migliaia) e relativamente "leggero" sul versante grafico; viceversa ce ne possono essere altri per cui è vero il contrario.
Dirò di più... pure all'interno della stessa applicazione/gioco, i rispettivi carichi di elaborazione su CPU e GPU possono variare moltissimo (una scena panoramica con molti oggetti in movimento e modelli dettagliati richiede molta CPU, ma se successivamente la scena continua all'interno di una stanza il carico geometrico e di AI calerà in modo rilevante) al punto da poter avere condizioni CPU-limited in alcune scene a GPU-limited in altre.
Con l'occasione voglio ricordare che l'audio AC'97 (quindi in assenza di scheda audio dedicata) assorbe molta più potenza CPU di quanto si sia solitamente portati a credere.
In condizioni prevalentemente CPU-limited, quindi, se il gioco fa uso intenso dell'audio, l'installazione nel sistema di una scheda audio dedicata può comportare un aumento degli FPS.
Saluti.
Alessio
.
infatti aumentando il numero dei sims e i mobili nella casa le prestazioni peggiorano perchè la cpu non riesce più a gestire il tutto.
Si l'audio incide molto..sul mio vecchio p4 per giocare a cod1 ho dovuto disattivare gli effetti Eax per avere più fps
Interessantissimo questo thread. Non avevo mai letto una discussione a riguardo sebbene è un problema TIPICO in fase decisionale di upgrade di macchine leggermente vecchie.
Ad esempio io starei andando in un negozio a prendere una scheda AGP per un sistema socket A.
E' un muletto con Via KT880, AthlonXP-M@2xxx Mhz e 2GB DDR500 in dual channel. E' usato solo da mia madre per eMule (si, mia madre scarica più di me! XD) e per guardare DVD e DivX su un LCD da 42 HD ready.
Ebbene, dopo aver letto in lungo e in largo, mi sa che oltre una HD3650 AGP non andrò assolutamente. (Sebbene c'è una 4670 AGP che mi fa golissima.. ma sarebbe totalmente inutilizzata)
Qualche consiglio?
Questa HD3650 me la da per 50€ tondi... (la HD4670 costerrebbe 120€)
MorrisADsl
04-10-2009, 10:41
Nella mia nuova configurazione che ho in firma spero ora di non essere più cpu limited...:D :mc: :hic:
nevets89
04-10-2009, 10:48
Nella mia nuova configurazione che ho in firma spero ora di non essere più cpu limited...:D :mc: :hic:
no adesso sei "gpu limited" XD...ti si è ribalta la situazione...ora devi cambiare VGA XD
halnovemila
04-10-2009, 12:29
Qualche consiglio?
Questa HD3650 me la da per 50€ tondi... (la HD4670 costerrebbe 120€)
Vai con la HD3650, 120€ di HD4670 sarebbero spesi malamente data l'altissima probabilità di incorrere comunque in situazioni con bassi Fps a causa dei limiti della CPU.
Se trovi qualche buona occasione potresti puntare sulla HD38XX AGP, ma vedi di disporre di un buon alimentatore con circa 25A sui +12V o dotato di tecnologia dual-rail.
http://www.hwupgrade.it/forum/showpost.php?p=23925709&postcount=2363
http://www.hwupgrade.it/forum/showpost.php?p=24361948&postcount=2635
Saluti.
Alessio
.
MorrisADsl
04-10-2009, 13:17
no adesso sei "gpu limited" XD...ti si è ribalta la situazione...ora devi cambiare VGA XD
Ma lol, secondo te la sfrutto finalmente al massimo la 260? oho ancora margine???
Se no sto discorso gpu-cpu continua all' infinto... aiuto e un vortice senza fine lol:mc: :help: :D
Interessantissimo questo thread. Non avevo mai letto una discussione a riguardo sebbene è un problema TIPICO in fase decisionale di upgrade di macchine leggermente vecchie.
Ad esempio io starei andando in un negozio a prendere una scheda AGP per un sistema socket A.
E' un muletto con Via KT880, AthlonXP-M@2xxx Mhz e 2GB DDR500 in dual channel. E' usato solo da mia madre per eMule (si, mia madre scarica più di me! XD) e per guardare DVD e DivX su un LCD da 42 HD ready.
Ebbene, dopo aver letto in lungo e in largo, mi sa che oltre una HD3650 AGP non andrò assolutamente. (Sebbene c'è una 4670 AGP che mi fa golissima.. ma sarebbe totalmente inutilizzata)
Qualche consiglio?
Questa HD3650 me la da per 50€ tondi... (la HD4670 costerrebbe 120€)
non andare oltre la 3650 soprattutto se non giochi
Ma lol, secondo te la sfrutto finalmente al massimo la 260? oho ancora margine???
Se no sto discorso gpu-cpu continua all' infinto... aiuto e un vortice senza fine lol:mc: :help: :D
Era una battuta,,sei a postissimo e su quella cpu potrai montarci diverse vga future per la potenza che ha
Vai con la HD3650, 120€ di HD4670 sarebbero spesi malamente data l'altissima probabilità di incorrere comunque in situazioni con bassi Fps a causa dei limiti della CPU.
Se trovi qualche buona occasione potresti puntare sulla HD38XX AGP, ma vedi di disporre di un buon alimentatore con circa 25A sui +12V o dotato di tecnologia dual-rail.
http://www.hwupgrade.it/forum/showpost.php?p=23925709&postcount=2363
http://www.hwupgrade.it/forum/showpost.php?p=24361948&postcount=2635
Saluti.
Alessio
.
Infatti si.
non andare oltre la 3650 soprattutto se non giochi
Si. La pensate esattamente come me. :) Perfetto..
Insomma resta un Muletto alla fine e potrebbe ancora svolgere il suo compitino. Almeno nella visione di DVD e DivX (non fullHD) e di streaming web (anche questo non fullHD).
Poi a me personalmente a giorni arriva una nuova macchina da lavoro i7 920 / DDR3 1600 / SSD / HD5870 (=> faccio un grosso upgrade da piattaforma AMD X2 3800+ 939 / DDR500 / HD sata1 / HD2600XT)
Grazie delle risposte! ;) :)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.