PDA

View Full Version : [Thread Ufficiale] ASRock 4CoreDual Sata2 rev. 2.0 - VIA PT880 pro/ultra


Pagine : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17

roccia1234
12-06-2009, 10:30
Ti ripropongo la domanda..... ma non sarebbe il caso di cercare la versione 0.4 e scaricare questa???
Io in questo momento non posso fare Test come al solito non sono a casa, potrò fare i test tra un paio di settimane almeno, tra l' altro ho iniziato con l' Upgrade del Pc, ho già sloggiato il Pentium 4ht e mi sto accingendo a montare il Q6700 con le nuove Ram....per adesso la GPU rimane comunque la 7900GS, sono curioso di capire quanto fosse limitata dal Pentium 4 ht....
Anzi se vi fosse qualcuno interessato sto vendendo i vari pezzi.....nella mia firma cliccate su Qui vendo Hardware. Se vi capita qualcuno interessato nel Forum magari passate parola.....
Thanks.

a trovarla la 0.4 :(. Io ho cercato su google e tutti i link rimandano al sito ufficiale unigine, dove c'è solo la 2.2. Nel torrente non ho trovato nulla, sulla bestia da soma c'è, ma ha una sola fonte (sperando che non sia fake).

halnovemila
12-06-2009, 10:33
edit @ halnovemila. Se avessi trovato unigine 0.4 avrei fatto i test con quello... ma purtroppo non ho la più pallida idea di dove raccattarlo :(

Già, lo immaginavo :)
Il link per scaricarlo lo trovi nel post #2, sezione "Programmi utilizzati per i nostri test:", della discussione [Thread ufficiale] ATi Radeon HD 3850 AGP (http://www.hwupgrade.it/forum/showthread.php?t=1649431).

Rimane la "regola generale" che i confronti vanno fatti il più possibile "alla pari", cercando di avere una sola variabile che cambia di volta in volta.

Io suggerisco di usare la versione 0.4 di Unigine, per il semplice fatto che i risultati possono essere messi a confronto con un ampio numero di altri già raccolti nella discussione da te già individuata.

Ciao :)

Six1
12-06-2009, 10:36
x roccia1234
Beh lo fai tu o lo faccio io?
Magari possiamo chiedere ai ragazzi che frequentano quel Thread di passarci la versione 0.4.....Tu che ne dici?
Anche io quando PCTREIBER era fuori dalle scene perchè attaccato da un Virus, ho passato dei Bios Moddati a vari utenti....

roccia1234
12-06-2009, 10:37
Già, lo immaginavo :)
Il link per scaricarlo lo trovi nel post #2, sezione "Programmi utilizzati per i nostri test:", della discussione [Thread ufficiale] ATi Radeon HD 3850 AGP (http://www.hwupgrade.it/forum/showthread.php?t=1649431).

Rimane la "regola generale" che i confronti vanno fatti il più possibile "alla pari", cercando di avere una sola variabile che cambia di volta in volta.

Io suggerisco di usare la versione 0.4 di Unigine, per il semplice fatto che i risultati possono essere messi a confronto con un ampio numero di altri già raccolti nella discussione da te già individuata.

Ciao :)

:eek: ottimo!!!
grazie davvero!!!
stavo impazzendo con un sito fracese che non mi faceva scaricare il file :mad:

allora... cambio di programma... via con unigine 0.4.

ah a proposito... posso postare il link diretto di megaupload anche su questo thread? almeno è disponibile per tutti senza andarlo a cercare...

edit per six1: beh è un link di megaupload... magari mettiamo link + credits... vediamo che dice halnovemila in proposito

Six1
12-06-2009, 10:39
Già, lo immaginavo :)
Il link per scaricarlo lo trovi nel post #2, sezione "Programmi utilizzati per i nostri test:", della discussione [Thread ufficiale] ATi Radeon HD 3850 AGP (http://www.hwupgrade.it/forum/showthread.php?t=1649431).
Ciao :)

Ok. Ottimo, come prima stavamo scrivendo in contemporanea.....;)

halnovemila
12-06-2009, 10:42
edit per six1: beh è un link di megaupload... magari mettiamo link + credits... vediamo che dice halnovemila in proposito

hahaha :asd:
Il link va benone... più ce n'è meglio è :)
Per quanto riguarda i credits... sono sempre un'accortezza segno di rispetto del lavoro svolto dagli altri... anche qui, più ce n'è meglio è :)

roccia1234
12-06-2009, 10:43
hahaha :asd:

ehm... tradotto??? :D

Six1
12-06-2009, 10:44
ah a proposito... posso postare il link diretto di megaupload anche su questo thread? almeno è disponibile per tutti senza andarlo a cercare...

Devi. ;)

Certo che si.

Poi tanto comunque quando avrò un attimo di tempo metterò il link diretto anche io in prima pagina, ma intanto inizia pure.

roccia1234
12-06-2009, 10:55
allora
il link è questo: http://www.megaupload.com/?d=KTD6EFDL

e il mio risultato con il 0.4:
http://img34.imageshack.us/img34/7192/unigine.jpg (40 kb)

103,3 fps
2189 punti

beh... vedendo questo risultato
Core 2 Quad Q6600 @ QX6850 - 4GB Ram - HD4870 - XP SP2
Direct 3D FPS: 105.1 Score: 2229
e tenuto conto che i bench non sono mai sempre precisi e uguali al 100%, in questo caso il pci-ex 4x non limita le prestazioni (forse leggermente.. ma è impercettibile).

spero che stavolta vada tutto bene... se ho fatto cappellate ditemelo :fagiano:

Six1
12-06-2009, 11:05
allora
il link è questo: http://www.megaupload.com/?d=KTD6EFDL

e il mio risultato:
http://img34.imageshack.us/img34/7192/unigine.jpg (40 kb)

103,3 fps
2189 punti

beh... vedendo questo risultato
Core 2 Quad Q6600 @ QX6850 - 4GB Ram - HD4870 - XP SP2
Direct 3D FPS: 105.1 Score: 2229
e tenuto conto che i bench non sono mai sempre precisi e uguali al 100%, in questo caso il pci-ex 4x non limita le prestazioni.

Ok, calma e sangue freddo.....
Io lo reputo un ottimo risultato, come immaginavo i tuoi risultati andavano verso il basso proprio perchè utilizzavi una versione diversa e più nuova del Tool.
Quindi tu si sei avvicinato(praticamente sei lì) a quei risultati pur avendo 2G di ram in meno un dualcore e non un Quad.
Tu dici: "forse leggermente ma è impercettibile", io dico che siete tanto convinti di questo tanto da non voler credere in quello che leggete.
probabilmente quei puntarelli mancanti dipendono proprio da queste differenze di Hardware qui sopra mensionate....
Sentiamo ora gli altri cosa hanno da dire in merito.....

roccia1234
12-06-2009, 11:17
Ok, calma e sangue freddo.....
Io lo reputo un ottimo risultato, come immaginavo i tuoi risultati andavano verso il basso proprio perchè utilizzavi una versione diversa e più nuova del Tool.
Quindi tu si sei avvicinato(praticamente sei lì) a quei risultati pur avendo 2G di ram in meno un dualcore e non un Quad.
Forse quei puntarelli mancanti dipendono proprio da queste tue mancanze(differenze di Hardware meglio dire così)....
Sentiamo ora gli altri cosa hanno da dire in merito.....

si, anche secondo me è un ottimo risultato... però non sono d'accordo sul giudicare le differenze di punteggioe fps come dovute a ram e cpu. Se guardi i test sulla prima pagina di unigine, in particolare con x1950 pro (li posto almeno evitiamo fraintendimenti)

Murphy: E4300@2400 Mhz - 2GB Ram - X1950pro 256mb - cat 7.5 fix WIN XP
Direct 3D FPS: 26.1 Score: 553
OpenGl FPS: 31.8 Score 674

smemo: Athlon 64 3200+@ 2.5 - 2GB Ram - X1950Pro 256MB - XP SP2
Direct 3d FPS: 26 Score: 551
OpenGL FPS: 31.7 Score: 673

identica scheda video, identica quantità di ram, ma cpu molto diverse, di cui una estremamente più lenta dell'altra e oltretutto sigle core. I risultati sono pressochè identici, variano al massimo di 2 punti su 550, trascurabile.
Detto questo l'unica cosa che conta in questo test è la gpu (come avevo già detto prima) ram e cpu sono ininfluenti. Secondo me il fatto che sono leggermente sotto è dovuto al pci-ex 4x al posto che 16x.

Intanto ho fatto un altro test in overclock della vga (da 770/920 a 830/1000)

http://img44.imageshack.us/img44/5991/unigineoc.jpg

dopo provo a downcloccare la cpu e vedo che succede :)

Six1
12-06-2009, 11:21
si, anche secondo me è un ottimo risultato... però non sono d'accordo sul giudicare le differenze di punteggioe fps come dovute a ram e cpu.

Infatti(mentre tu scrivevi stavo rieditando il mio Post precedente a questo... per essere più preciso nella mia esposizione) io non parlo degli FPS dove praticamente hai solo 2 FPS in meno rispetto al primo risultato che hai proposto e dove si capisce che la GPU non è affatto limitata, ma al risultato complessivo e credo che in quello in qualche modo influisca tutto il sistema....infatti è lì che hai perso maggiormente(anche se poco comunque)terreno.
Inoltre tu parli di CPU....ma non è su questo che vorrei spingere di più poichè nei giochi influisce molto la Ram che non si inserisce nel lavoro di scambio tra GPU e CPU ma che fà in modo che le prestazioni in generale migliorino in ogni contesto sopratutto nei giochi.......
Inoltre in quei due casi che tu hai appena proposto la Ram è identica invece nel paragone fatto prima tu hai 2G in meno.
Comunque queste sono sottigliezze(ma mica tanto;) ) l' importante è l' ottimo risultato ottenuto.

Poi come puoi definire un limite sul 4x con uno scarto di 2 FPS......sono talmente tante le cose che potrebbero influire specialmente su una differenza così trascurabile.(Poi come hai detto giustamente anche tu i Benchmark non potranno mai essere uguali....il gioco nel complesso lo fà tutto l' insieme del sistema).
Lo ripeto è un ottimissimo risultato, e io non vedo la HD4870 affatto limitata sul 4x (quando si parla di 2 FPS in meno e un 50-60(scarsi) punti in meno di score nel complesso, nel caso avessi avuto risulati nettamente inferiore si sarebbe potuto parlare di limite.....) attenendomi ovviamente ai tuoi test e quelli fatti con Crysis/Benchmark.
Comunque lascio spazio anche al contradditorio, anche se sinceramente risulati come questi lasciano poco spazio a dubbi almeno per me......
---------------------------------------------------
roccia1234: Asrock 4coreDualSata2 PCIEx@4x
103,3 fps
2189 punti

VS

beh... vedendo questo risultato
PCIEx@16x
Core 2 Quad Q6600 @ QX6850 - 4GB Ram - HD4870 - XP SP2
Direct 3D FPS: 105.1 Score: 2229
e tenuto conto che i bench non sono mai sempre precisi e uguali al 100%, in questo caso il pci-ex 4x non limita le prestazioni
-------------------------------------------------
Mi sorge un dubbio.....ma non è che hai beccato l' unico caso in rete che ha postato i risultati utlizzando la nostra stessa Mobo.......sai non si sa mai verifica bene tutto, non vorrei di dover cadere dall' ultimo piano in cui mi hai fatto salire. :asd: ;)

roccia1234
12-06-2009, 11:56
ok... ultimo test, con cpu in downclock @ 266*7 (1,86 ghz)

http://img5.imageshack.us/img5/1451/uniginecpulow.jpg (40 kb)

101.6 fps
2153punti

cambia poco o nulla nonostante il pesante downclock (da 2,66ghz a 1,86 ghz) e la cpu già non eccelsa di suo

Six1
12-06-2009, 12:09
ok... ultimo test, con cpu in downclock @ 266*7 (1,86 ghz)

http://img5.imageshack.us/img5/1451/uniginecpulow.jpg (40 kb)

101.6 fps
2153punti

cambia poco o nulla nonostante il pesante downclock (da 2,66ghz a 1,86 ghz) e la cpu già non eccelsa di suo

No non sono daccordo... cambia di quel tanto che basta a giustificare quella poca differenza che esiste tra te e il primo esempio che hai postato.
Anche lì vi togliete un paio di FPS e un 50 punti nello score in generale. ;)
Quindi la differenza nel vostro caso può essere relativa ad Hardware diversi e nel tuo caso anche a carenza di Ram.
Ovviamente parlo dello score....mentre sugli FPS non vi è dubbio che sia il punteggio pulito della GPU.
Rileggi il Post sopra il tuo ho rieditato un bel pò di cose.....

halnovemila
12-06-2009, 12:55
Secondo me il fatto che sono leggermente sotto è dovuto al pci-ex 4x al posto che 16x.

Perfettamente d'accordo.
La differenza c'è ma non arriva al 2% ed è quasi trascurabile se si tiene conto che anche i risultati del test Unigine, se ripetuti, possono anche subire variazioni al rialzo/ribasso (io, in particolare, ho notato che eseguendo il test appena avviato il sistema operativo, WindowsXP, ottenevo un punteggio, ma, ripetendo il test per una seconda volta consecutiva, il punteggio era solitamente più basso).
Come ho dimostrato sulla discussione dell'HD3 850 AGP (http://www.hwupgrade.it/forum/showpost.php?p=27502654&postcount=4482), la demo di Unigine è sensibile alla larghezza di banda del bus di comunicazione ed anche, in misura minore, alla larghezza di banda della RAM; ma, visto lo scarto minimo, si può affermare che in questo caso il PCI-E@4x non rappresenta una limitazione rilevante.

Ciò non significa che il PCI-E@4x non rappresenti una limitazione "in assoluto", significa solo che quel tipo di test non ne è particolarmente influenzato.

La cosa torna quindi utile per confrontare il rapporto di prestazioni "pure" tra schede grafiche AGP e PCI-E montate sulla 4CoreDual-Sata2.

Ribadisco che la CPU non conta nulla in quel tipo di test.
Unigine v0.4 WindowsXP SP2 Hotfix con Sapphire HD 3850 con clock di default (670/830):
AthlonXP Barton @2.3GHz (CPU Score 807 al 3DMark06 (http://immagini.p2pforum.it/out.php/i415878_3DM063856AthXPM2.3GHzDDR2.5337HD3850670.830.JPG)) su Asus A7V8X con chipset KT400 e larghezza di banda RAM ~2.4GByte/s con DDR CL2.5 @177MHz + Catalyst 8.12
42.2 Fps/895 Punti (screenshot qui (http://immagini.p2pforum.it/out.php/i417668_UnigineV0.40895AXP2.3GHzDDR177Cat.8.12HD3850670.830AGPWROn.gif))
Core2 Duo E4600@3.4GHz (CPU Score 2.983 al 3DMark06) su 4CoreDual-Sata2 e larghezza di banda RAM ~6.6GByte/s con DDR2 CL3 @309MHz Dual-channel + Catalyst 8.6
43 Fps/911 Punti (screenshot qui (http://www.hwupgrade.it/forum/showpost.php?p=24218031&postcount=2526))

Vantaggio Core2 vs. AthlonXP
http://immagini.p2pforum.it/out.php/i419159_UnigineAthXPvsC2DGraph.gif

Più chiaro di così...

:)

Six1
12-06-2009, 13:10
Perfettamente d'accordo.
La differenza c'è ma non arriva al 2% ed è quasi trascurabile se si tiene conto che anche i risultati del test Unigine, se ripetuti, possono anche subire variazioni al rialzo/ribasso (io, in particolare, ho notato che eseguendo il test appena avviato il sistema operativo, WindowsXP, ottenevo un punteggio, ma, ripetendo il test per una seconda volta consecutiva, il punteggio era solitamente più basso).
Come ho dimostrato sulla discussione dell'HD3 850 AGP (http://www.hwupgrade.it/forum/showpost.php?p=27502654&postcount=4482), la demo di Unigine è sensibile alla larghezza di banda del bus di comunicazione ed anche, in misura minore, alla larghezza di banda della RAM; ma, visto lo scarto minimo, si può affermare che in questo caso il PCI-E@4x non rappresenta una limitazione rilevante.

Ciò non significa che il PCI-E@4x non rappresenti una limitazione "in assoluto", significa solo che quel tipo di test non ne è particolarmente influenzato.

La cosa torna quindi utile per confrontare il rapporto di prestazioni "pure" tra schede grafiche AGP e PCI-E montate sulla 4CoreDual-Sata2.

Ribadisco che la CPU non conta nulla in quel tipo di test.
Unigine v0.4 WindowsXP SP2 Hotfix con Sapphire HD 3850 con clock di default (670/830):
AthlonXP Barton @2.3GHz (CPU Score 807 al 3DMark06 (http://immagini.p2pforum.it/out.php/i415878_3DM063856AthXPM2.3GHzDDR2.5337HD3850670.830.JPG)) su Asus A7V8X con chipset KT400 e larghezza di banda RAM ~2.4GByte/s con DDR CL2.5 @177MHz + Catalyst 8.12
42.2 Fps/895 Punti (screenshot qui (http://immagini.p2pforum.it/out.php/i417668_UnigineV0.40895AXP2.3GHzDDR177Cat.8.12HD3850670.830AGPWROn.gif))
Core2 Duo E4600@3.3GHz (CPU Score 2.983 al 3DMark06) su 4CoreDual-Sata2 e larghezza di banda RAM ~6.6GByte/s con DDR2 CL3 @309MHz Dual-channel + Catalyst 8.6
43 Fps/911 Punti (screenshot qui (http://www.hwupgrade.it/forum/showpost.php?p=24218031&postcount=2526))

Vantaggio Core2 vs. AthlonXP:
CPU score 3DMark06: +270%
Larghezza di banda: +175%
Punteggio Unigine: +1,8%

Più chiaro di così...

:)
Era ovvio che quotassi l' unica frase in cui roccia1234 aveva manifestato un dubbio relativo al limite che tanto decanti.
Mi ci sarei giocato i pantaloni per non dire altro.......:)

Ok, su un Test che stressa e interessa solo completamente la GPU il 4x non influenza..... quindi l' influenza esiste solo nei casi per cui tu decida che questo avvenga......e fino a qui nulla di nuovo.
Mi spieghi allora dove influenza il 4X se non nel lavoro a pieno carico della GPU???
Questo limite di cui tanti parlano (senza conoscere però... solo perchè leggono 4x e non 16x.....sai un numero più grosso fà sembrare sempre tutto più grande capiente importante ecc. ecc.)
Io traggo un ottimo risultato dal test di roccia1234, il PCIEx4x con il test Unigine che dovrebbe simulare il lavoro da svolgere dalla GPU in qualsiasi gioco non da limite di sorta alla GPU in ogetto. Questi sono i fatti.
Ho ribadito più volte che non è completamente la CPU se non raramente a influenzare il test e quindi dare un risultato leggermente differente negli score finali ma la Ram dimezzata....parlo di score non di FPS "attenzione" nella configurazione di roccia1234. Prova a rifare il test con 256MB di memoria o 512MB di memoria poi ne riparliamo. Sempre se ovviamente il Test Parte.....o viene completato.

roccia1234
12-06-2009, 13:23
però scusate ma non mi è chiara una cosa, non è una critica :)
allora questo test praticamente abbiamo visto che se ne frega della cpu. Quello che mi domando... ma allora che cavolo di dati passano attraverso il pci-ex??? Se la cpu elabora poco passeranno relativametne pochi dati attraverso il pci-ex (o meglio, non così tanti da saturare il pci-ex 4x), poi toccherà alla vga elaborarli, dopo che li avrà caricati nella sua ram, ma questo punto pci-ex 16x-4x-1x-piccioneviaggiatorex non ce ne frega più nulla. Quindi o sbaglio qualcosa io in questo ragionamento (probabile al 99,9% :fagiano: ) oppure c'è qualcosa che non torna. Chi mi illumina?

Six1
12-06-2009, 13:34
(o meglio, non così tanti da saturare il pci-ex 4x)
E bravo è qui ti sei risposto da solo, poi basta che guardi quello che ho scritto sopra per completare la mia risposta alla tua domanda.
Ad oggi sospetto....ma non ne sono sicuro completamente(quindi prendete con molti dubbi le mie parole, perchè è solo un mio sentore per ora) non esiste ancora GPU in grado di saturare a pieno un 4x tanto che un 8x 16x per certi versi possono risultare sprecati, per porre un temporaneo rimedio a questo sono stati adottati gli SLI e Crossfirex, che permettono con due GPU di raggiungere quello che una GPU singola non riesce a raggiungere in un solo Slot PCIEx.
Poi hanno provato con il PCIEx 2.0 ma niente è come il 1.0 se non con un 1-2% di differenza, tra un pò uscirà il 3.0 e anche su questo si dice quanto detto per il 1.0 con il 2.0.....comunque staremo a vedere.
Forse con la prossima generazione di GPU qualcosa cambierà.......
Ovviamente poi il commercio tira l' acqua al suo mulino, secondo te ci sarà mai qualcuno che ti verrà a dire che il 4x è uguale al 16x???
Ti ricordi quando siamo passati dal 4x AGP al 8x....Tutti dicevano 8x è più veloce si è più veloce!!!( ovviamente dovevano vendere di più i produttori di schede madri e di schede video agp) Poi passati al 4x PCIEx e poi a seguire, qualcuno ha cominciato ad ammettere che il 4x AGP era come 8x AGP, ma tanto ormai poco importava perchè era appena nato il PCIEx e quindi tutti con il PCIEx e via a salire. Questa è l' anima del commercio non tutto quello che viene passato deve essere preso per vero.

In definitiva non è che lo slot non è limitato ha sicuramente il limite e nel caso nostro è al 4x ma il vero limite ad oggi sono le GPU che non possono ancora sfruttare come si dovrebbe un singolo slot.

Questa è la mia teoria che a volte si conferma un pochino di più quando vedo raggiunti risultati come quelli ottenuti oggi, poi ovviamente posso anche sbagliarmi, non ho la presunzione di dire che la mia sia la verità assoluta, ci mancherebbe.
Ognuno di voi avrà la sua opinione io mi sono fatta la mia, poi sono comunque sempre disposto a ricredermi se le mie esperienze future mi dicano il contrario.
Ci tenevo a precisare questo prima di chiudere.

halnovemila
12-06-2009, 14:15
Ok, su un Test che stressa e interessa solo completamente la GPU il 4x non influenza..... quindi l' influenza esiste solo nei casi per cui tu decida che questo avvenga......e fino a qui nulla di nuovo.
Mi spieghi allora dove influenza il 4X se non nel lavoro a pieno carico della GPU???

Scusa Six1, ma ho l'impressione che tu non legga tutto quello che scrivo o che ti "dimentichi" di ciò che non porta meriti o elogi alla 4CoreDual-Sata2.

Ho già detto che
la HD4 870 PCI-E GDDR5 (Clocks 750/900), installata sulla 4CoreDual-Sata2, alla prova pratica con CoD4, ha sviluppato fino al 30% IN MENO(!) di fotogrammi al secondo della HD3 850 AGP DDR3 (Clocks 670/830); per la precisione si tratta di 47Fps per la HD3 e 33Fps per la HD4.

Dato che la HD4870 ha ottenuto al test Unigine ver.0.4 un punteggio più che doppio rispetto alla HD3 (siamo a oltre 2000 per la HD4 e poco più di 900 per la HD3) le assai deludenti prestazioni "sul campo" sono segno evidente della presenza di una limitazione... che certamente, in questo caso, non è rappresentata dalla CPU, nè dalla Frequenza/Timing RAM, dato che sono gli stessi identici utilizzati per i test con la HD3 850 AGP.

Che al test Unigine il BUS PCI-E non costituisca una limitazione rilevante è dovuta allo stesso motivo per cui non è rilevante la CPU, nè la larghezza di banda della RAM di sistema.
Ciò dipende, come ho già detto (e poi non lo ripeterò più perchè non c'è peggior sordo di chi non vuol sentire) dal fatto che
Unigine Sanctuary è la demo di un motore grafico in cui l'assenza di AI, di audio, di oggetti in movimento, di fisica, etc... fa sì che il carico su CPU e RAM sia talmente ridotto che in pratica, a parità di scheda grafica, non fa differenza eseguire il test con una CPU Core2 Duo@3.3GHz, piuttosto che con un P4@3.8, piuttosto che con un AthlonXP@2.3.

Allora, molto semplicemente,
SE LA CPU NON LAVORA, C'E' POCO DA TRASMETTERE ALLA GPU!
CHIARO?

La GPU può anche lavorare al 100% producendo 2.000fps per un cubo rotante, nel mentre la CPU "dorme", dato che per elaborare il cubo rotante è sufficiente la potenza di calcolo di un Intel 386 a 20MHz.

Il Bus AGP, come quello PCI-E, serve per trasmettere alla GPU informazioni relative alle coordinate dei poligoni presenti nella scena (più poligoni, più dati vengono trasmessi), per trasmettere i dati delle texture (che non è un trasferimento "costante" ma "alla bisogna"), per trasmettere le "istruzioni" di rendering.

Quando dico che la HD4870 PCI-E rende molto meno della HD3 850 AGP, non lo dico per fare un dispetto a te, ti riporto semplicemente il risultato della mia sperimentazione diretta.
E' inutile che io posti qui lo screenshot, poichè non prova nulla di più di quanto io abbia detto; se non mi credi (se qualcuno non crede a quello che dico) fai/fate la prova... si accettano scommesse ;)
Le modalità (non semplici) di esecuzione del test con CoD4 le ho spiegate qui:
http://www.hwupgrade.it/forum/showpost.php?p=23925709&postcount=2363
(in fondo al post, test CoD4_Arc).

http://immagini.p2pforum.it/out.php/t359535_CoD4CdS52fps750.1000.JPG (http://immagini.p2pforum.it/out.php/i359535_CoD4CdS52fps750.1000.JPG)

Saluti.
Alessio

roccia1234
12-06-2009, 14:40
molto semplicemente,
SE LA CPU NON LAVORA, C'E' POCO DA TRASMETTERE ALLA GPU!
CHIARO?


ah ecco, ecco... quindi quello che ho scritto nel post precedente è più o meno corretto... ma se questo è corretto il test con unigine non ha aggiunto praticamente nulla a quello che già sapevamo/non sapevamo :muro:. Non dubito dei tuoi test, anzi, hai fatto dei test con i controfiocchi. Il mio obiettivo era verificare le prestazioni della hd4870 con pci-ex 4x e pci-ex 16x, per avere un'idea di quanto influiscano le prestazioni di un pci-ex castrato su una scheda video di fascia medio-alta.
Aspetta... qui mi viene un altro dubbio. In situazioni di cpu-limited, il processore dovrebbe stare per tutto il tempo (o nelle situazioni di cpu limited) al 100% giusto?? Se invece stesse tipo al 85-90% vuol dire che non c'è cpu-limited, ma che il fattore limitante è da cercare da qualche altra parte, giusto? Nel caso il fattore "limitante" potrebbe essere o la vga oppure il bus di collegamento. Se il bus di collegamento non è limitante la cpu oppure la vga dovrebbero essere al 100%, mentre se il bus di collegamento limita in qualche modo, entrambe non lavoreranno al 100%. Ho sparato castronerie?

Six1
12-06-2009, 14:43
Chiaro, chiarissimo.....
quindi secondo te anche questo test è infine risultato inutile al nostro scopo......

Comunque sono tre i test fatti:

Crysis/Benchmark: e in questo non ci sono forti cali da prestazione per ipotizzare un ipotetico blocco sul PCIEx
In questo caso la HD4870PCiEx e nettamente avanti alla HD3850AGP, nonostante in questo caso vi sia influenza della CPU che va a riversare la famosa mole di dati nello slot PCIEx o AGP che sia......

Uningine: e in questo non ci sono cali da prestazione per ipotizzare un ipotetico blocco sul PCIEx4x, nonostante la mole di lavoro in generale sia attribuita alla VGA, e la CPU faccia sonni tranquilli.


CoD4: in questo caso hai riscontrato un ipotetico calo delle prestazioni dove si suppone che esista un calo di prestazioni, confrontando la HD3850AGP con la HD4870 PCIex dove questa risulterebbe penalizzata.

Quindi siamo a tre verifiche due hanno dato nessun limite sul PCIEx4 per la GPU in ogetto, mentre una sembrerebbe di si.

Vediamo se adesso possiamo andare avanti apportando altri studi....

Edit.
Magari non li ho trovati io, ho visto solo i risultati della HD3850 potresti postare anche i risultati ottenuti con la hd4870??? in modo tale da avere un metodo di paragone???
Sarebbe il top se riuscissi a postare in maniera illustrata il punto in cui hai riscontrato il calo attribuibile ipoteticamente allo slot PCIEx4x
Per cortesia.

halnovemila
12-06-2009, 14:53
In situazioni di cpu-limited, il processore dovrebbe stare per tutto il tempo (o nelle situazioni di cpu limited) al 100% giusto?? Se invece stesse tipo al 85-90% vuol dire che non c'è cpu-limited, ma che il fattore limitante è da cercare da qualche altra parte, giusto? Nel caso il fattore "limitante" potrebbe essere o la vga oppure il bus di collegamento. Se il bus di collegamento non è limitante la cpu oppure la vga dovrebbero essere al 100%, mentre se il bus di collegamento limita in qualche modo, entrambe non lavoreranno al 100%. Ho sparato castronerie?

No, niente affatto;
anzi, quoto tutto quanto da te detto senza aggiungere nulla.
;)

Vediamo se adesso possiamo andare avanti apportando altri studi....
Vediamo :)

Six1
12-06-2009, 15:06
ah ecco, ecco... quindi quello che ho scritto nel post precedente è più o meno corretto... ma se questo è corretto il test con unigine non ha aggiunto praticamente nulla a quello che già sapevamo/non sapevamo :muro:. Non dubito dei tuoi test, anzi, hai fatto dei test con i controfiocchi. Il mio obiettivo era verificare le prestazioni della hd4870 con pci-ex 4x e pci-ex 16x, per avere un'idea di quanto influiscano le prestazioni di un pci-ex castrato su una scheda video di fascia medio-alta.
Aspetta... qui mi viene un altro dubbio. In situazioni di cpu-limited, il processore dovrebbe stare per tutto il tempo (o nelle situazioni di cpu limited) al 100% giusto?? Se invece stesse tipo al 85-90% vuol dire che non c'è cpu-limited, ma che il fattore limitante è da cercare da qualche altra parte, giusto? Nel caso il fattore "limitante" potrebbe essere o la vga oppure il bus di collegamento. Se il bus di collegamento non è limitante la cpu oppure la vga dovrebbero essere al 100%, mentre se il bus di collegamento limita in qualche modo, entrambe non lavoreranno al 100%. Ho sparato castronerie?

Scusa ma noi abbiamo fatto dei test e abbiamo postato dei risultati, io però finchè non vedo i suoi come faccio a dare per buono il risultato? Come faccio ad esprimermi in tal senso?
che poi lui faccia un miriade di calcoci e grafici questo è fuori di dubbio, però mi piacerebbe vedere anche il risultato finale (completo di dati) e per ora non l' ho ancora visto.
Nel precedente test abbiamo eseguito il Benchmark hai postato i risultati, e poi l' abbiamo confrontati insieme....ecco questo ancora manca da parte sua.
Poi posso dire si mi fido dei calcoli, ma almeno prima vorrei vedere qualcosa di tangibile sul quale riflettere e poi discuterne assieme.
Quindi qui non si tratta di fiducia, altrimenti anche io potrei dire 1000 cose, appellandomi alla vostra fiducia.....

Six1
12-06-2009, 15:18
No, niente affatto;
anzi, quoto tutto quanto da te detto senza aggiungere nulla.
;)

Ipotesi non certezza. Altro.... può essere tutto.

Vediamo :)

Vale quanto detto a roccia1234, ho bisogno di conoscere, leggere per esprimere un parere. Ti chiedo quindi gentilmente di postare i tuoi risultati. Allora si che posso ritetenere valido il tuo studio.
E' inutile che io posti qui lo screenshot, poichè non prova nulla di più di quanto io abbia detto; se non mi credi (se qualcuno non crede a quello che dico)
Scusami, ma per pronunciarmi ho bisogno di risultati scritti sui quali fare un confronto con quelli realizzati da tutti noi.
anche nella maniera semplice con cui roccia1234 ha portato il suo contributo con i suoi Test.(non mi interessa l' importante è che vi sia uno studio consultabile da tutti)

roccia1234
12-06-2009, 16:19
allora... per quanto riguarda i bench è vero che non ci sono i risultati della hd4870, però io mi fido di quanto ha detto halnovemila, e non vedo perchè non farlo. Detto questo anche a me piacerebbe vedere i grafici di confronto tra la hd3850@agp8x e la hd4870@pci-ex 4x :) . Anche perchè, oltre che interesse del thread, è anche mio interesse personale in quanto, non so se vi ricordate, devo decidere se cambiare mobo o cpu. Se vedo che il pci-ex 4x limita in maniera notevole le prestazioni, allora il cambio cpu avrebbe poco senso (praticamente non eliminerei il collo di bottiglia), quindi opterei per il cambio mobo + generosa cloccatina alla cpu. Sono entrate in gioco delle variabili che prima non avevo considerato, che possono far pendere definitivamente l'ago della bilancia da una parte o dall'altra.
Alla luce di quanto detto fin'ora, posso anche dire (è una mia ipotesi eh... puro brainstorming, non mi fucilate :D ) che è probabile che io non sia cpu limited come credevo, ma che i "problemi" di microscatti siano dovuti al fatto che la vga deve "aspettare" l'arrivo dei dati attraverso un pci-ex non sufficientemente veloce. Ripeto... è un'idea che mi è venuta, magari è una cavolata, però secondo me è plausibile.

edit: ho fatto un paio di test, usando il monitoraggio hardware di ati tray tools, in particolare tenendo d'occhio l'occupazione cpu e gpu.

con crysis, bench gpu e impostazioni uguali a quelle degli altri bench di questo thread
http://img150.imageshack.us/img150/6819/usagecrysis.jpg (58kb)

con far cry 2, ingame. Tutto al max aa2x 1280x1024
http://img150.imageshack.us/img150/167/usagefarcry2.jpg (66kb)

In entrambi si nota che ne la cpu ne la gpu sono al 100% di utilizzo, quindi il fattore che limita la salita degli fps è un'altro. Secondo me il maggiore indiziato è, purtroppo, il pci-ex 4x. Le ram non credo, perchè da task manager non sono mai arrivate al 100% di utilizzo e, nonostante la bassa frequenza, (266) hanno dei buoni timings (3-3-3-9 1t). Che ne pensate?

Six1
12-06-2009, 17:09
Sul discorso della fiducia.... quando cerco di capire qualcosa ho bisogno di vedere con i miei occhi e poi analizzare un dato problema.
Che tu ti fidi buon per te ma questo non ci aiuta a risolvere il dubbio per cui stiamo postando da tutta la giornata.
Comunque.....
L' esempio che hai postato è interessante sopratutto perchè dimostarto con dei grafici e dei commenti a seguire.... e vale la pena di essere approfondito, e di questo come vedi ho piacere di discutere senza aver paura nel dire che:
Effettivamente non salgono, e quindi in questo caso qualcosa limita il loro lavoro. Se fosse il PCIex come tu giustamente sospetti, allora potresti non essere CPU limitato, anche perchè non avrebbe senso visto che la CPU non va mai al 100%.
Ottimo spunto da approfondire......

Edit.
Però potrebbe anche darsi che Crysis non sfrutti completamente il DualCore, e la GPU in questione....... Tu il test suppongo che lo abbia fatto al massimo di tutto, Giusto???
Per capire se hai veramente un blocco devi a mio avviso:
Impostare tutto al massimo impostabile e ovviamente gestibile dalla tua GPU( inquesto caso parlo della risoluzione massima gestibile dalla tua VGA).
In questo particolare caso se tu utilizzi le impostazioni utlizzate nel generico non ci illuminerà. Devi impostare tutto al massimo per vedere se riesci a portarli al 100%.In caso tu ci riesca non vi è nessun blocco.
Spero di essere stato chiaro.

halnovemila
12-06-2009, 17:37
allora... per quanto riguarda i bench è vero che non ci sono i risultati della hd4870, però io mi fido di quanto ha detto halnovemila, e non vedo perchè non farlo.
Grazie per la fiducia ;)

Detto questo anche a me piacerebbe vedere i grafici di confronto tra la hd3850@agp8x e la hd4870@pci-ex 4x :) . Anche perchè, oltre che interesse del thread, è anche mio interesse personale in quanto, non so se vi ricordate, devo decidere se cambiare mobo o cpu.
Per l'appunto.
Se devo essere sincero non sono affatto contento di aver riscontrato una perdita di prestazioni sulla HD4 870 tale da renderla molto meno performante della HD3 850.
Uno dei motivo per cui a suo tempo ho acquistato la 4CoreDual-Sata2 era appunto quello della possibilità di fare un upgrade al PCI-E senza dover cambiare scheda madre.
A febbraio 2008 ho acquistato la HD3 850 AGP appositamente con l'intenzione di poter "finalmente" godermi il realismo di CoD4 al massimo della qualità.
Purtroppo ho dovuto fare i conti con i limiti del mio sistema CPU+RAM di allora che non mi permettevano di sfruttare appieno la HD3 850...
per cui ho fatto un "upgrade" costruendo un nuovo PC attorno alla HD3 850 AGP (quindi un PC "aggiuntivo", in più rispetto a quello che già avevo).
La scelta della scheda madre è caduta sulla 4CoreDual-Sata2, della quale, a dire il vero, ignoravo la limitazione a 4x del bus PCI-E (ma l'avrei comprata comunque).
Ma, nonostante abbia sostituito il dissipatore originale con un Thermaltake TMG ND1 appositamente modificato, la HD3 850 continua a "molestare" il mio udito e, comunque, già oggi mostra i suoi limiti (con Frontlines Fuel of War, Crysis, TomClancy HAWX, etc...).
Stavo quindi pensando ad un upgrade verso la HD4 870 Vapor-X, visto il suo dissipatore particolarmente silenzioso e il prezzo ormai abbordabile.
Il dubbio sul collo di bottiglia rappresentato dal PCI-E@4x è sempre stato presente nei miei pensieri ma, paragonandolo con l'AGP 4x (che, nel "mondo" AGP, non ha dimostrato poi così tanto svantaggio rispetto all'AGP 8x) ero abbastanza ottimista... certo un minimo di perdita me l'aspettavo ma non così rilevante da mettere in discussione la "bontà" dell'upgrade.
Fortunatamente un mio amico ha deciso di comprarla prima di me... e così ho potuto provarla direttamente.
Devo dire che lo stupore e la delusione sono stati grandi quando ho riscontrato che la HD3 850 AGP rendeva di più della HD4 870 PCI-E al mio gioco preferito in assoluto: CoD4.
In questa condizione il passaggio alla HD4 870 risulta quantomeno inopportuno visto che andrei addirittura a peggiorare le prestazioni grafiche del mio PC anzichè migliorarle.

In realtà per capire che mi conviene tenermi la HD3 850 fino a quando non cambierò anche scheda madre, non ho avuto bisogno di tantissimi test... me ne è bastato uno, fatto con la CPU e le RAM alle frequenze che uso abitualmente e il mio gioco di riferimento.
Come ho detto: -30% a sfavore della HD4 PCI-E
Gli altri circa 80 test che ho fatto sono serviti solo per verificare il comportamento della HD4 850 in altre condizioni e per confermare l'esistenza del collo di bottiglia (la HD4 smette di scalare già a 2.5GHz di CPU quando la HD3 continua fino ai 2.9GHz).
Ovviamente, laddove 1GByte/s di TR è sufficiente, la HD4 supera ampiamente le prestazioni della HD3; purtroppo laddove il bus PCI-E rappresenta un collo di bottiglia, la HD3 850, con la sua connessione AGP 8x e i suoi 2.2GByte/s di banda passante, batte clamorosamente la HD4.

A memoria direi che in tutti i test che ho fatto (Unigine, 3DMark06, CoD4 statico, FFoW statico, CoD4 dinamico), l'unico in cui la HD4 si è trovata in netto svantaggio è quello relativo a CoD4 "dinamico"; in tutti gli altri la HD4 ha superato la HD3 un una misura che va da "abbastanza" a "moltissimo". (a titolo di esempio, al test HDR2 "Deep freeze", del 3DMark06, la HD4 ha prodotto 68.24Fps mentre la HD3 46.28Fps; sempre con CPU C2D@3.3GHz e DTR RAM@~5.9GByte/s)
Ma, rimane il fatto che, almeno per me, non è accettabile l'idea di passare all'HD4 PCI-E per poi trovarmi ad avere, con CoD4, prestazioni grafiche peggiori di prima, anzichè migliori.

I grafici arriveranno... è che devo ancora fare dei test che mi mancano con la HD3 850; fino a ieri sono stato impegnato a risolvere il problema di compatibilità con la Asus AX800T e oggi, poi, sono stato impegnato, oltre a scrivere qui, a completare la prova comparativa di rumorosità di quattro dissipatori: Stock cooler della HD4 870 Vapor-X, stock cooler della HD3 850 AGP Sapphire, Thermaltake TMG ND1 e AC Silencer 5.

Adesso li devo pubblicare sulla discussione della HD3 850 AGP, come avevo promesso circa un anno e tre mesi fa :mbe:

credevo, ma che i "problemi" di microscatti siano dovuti al fatto che la vga deve "aspettare" l'arrivo dei dati attraverso un pci-ex non sufficientemente veloce
Può essere... ma se hai 2GB di RAM e usi Windows Vista il problema potrebbe dipendere anche dal paging della RAM su disco.

Saluti.
Alessio
.

roccia1234
12-06-2009, 17:45
Sul discorso della fiducia.... quando cerco di capire qualcosa ho bisogno di vedere con i miei occhi e poi analizzare un dato problema.
Che tu ti fidi buon per te ma questo non ci aiuta a risolvere il dubbio per cui stiamo postando da tutta la giornata.
Comunque.....
L' esempio che hai postato è interessante sopratutto perchè dimostarto con dei grafici e dei commenti a seguire.... e vale la pena di essere approfondito, e di questo come vedi ho piacere di discutere senza aver paura nel dire che:
Effettivamente non salgono, e quindi in questo caso qualcosa limita il loro lavoro. Se fosse il PCIex come tu giustamente sospetti, allora potresti non essere CPU limitato, anche perchè non avrebbe senso visto che la CPU non va mai al 100%.
Ottimo spunto da approfondire......

bene, bene... abbiamo trovato un'altra pista.
Allora posto un'altro grafico... non sarà la soluzione a tutti i problemi ma secondo me è significativo, soprattutto per verificare le ipotesi.
Allora in questo bench ho lasciato andare la cpu, mentre ho downcloccato pesantemente la vga, praticamente ho disattivato l'overclock automatico di ATT e ho lasciato le frequenze 2D, che sono 202/250, mentre le frequenze 3d sono (come già detto) 770/920.
Il risultato è questo:
http://img151.imageshack.us/img151/9972/crysisdownclockvga.jpg

Ora riavvio e faccio la stessa cosa con vga normale e cpu molto donwcloccata.

Faccio questi test per verificare cosa succede nel caso di cpu limited e vga limited, per escludere o confermare le ipotesi

Six1
12-06-2009, 17:55
Grazie per la fiducia ;)
Può essere... ma se hai 2GB di RAM e usi Windows Vista il problema potrebbe dipendere anche dal paging della RAM su disco.


Se non erro è passato a XP, dopo che con Vista otteneva dei risultati pessimi, non so se mi sono perso un passaggio......:confused:
Credo che i test li stia eseguendo con Window Xp.

Comunque puoi anche accontentarti della fiducia di chi ritiene che quello che tu dica sia corretto ma ciò non toglie che tu non lo sia con me, quando sono giorni che ti ripeto che per convenire con la tua tesi ho bisogno di vedere i tuoi studi con i miei occhi. Come vedi gli studi postati da roccia1234 li ho condivisi senza problema alcuno.
Quando vedrò i tuoi risultati avrò il piacere di discuterne con te per ora non ho gli elementi utili per farlo.

halnovemila
12-06-2009, 18:14
Comunque puoi anche accontentarti della fiducia di chi ritiene che quello che tu dica sia corretto ma ciò non toglie che tu non lo sia con me, quando sono giorni che ti ripeto che per convenire con la tua tesi ho bisogno di vedere i tuoi studi con i miei occhi.

Se quello che vuoi vedere con i tuoi occhi sono gli screenshot ebbene eccoli:
http://immagini.p2pforum.it/out.php/t359535_CoD4CdS52fps750.1000.JPG (http://immagini.p2pforum.it/out.php/i359535_CoD4CdS52fps750.1000.JPG)

Quello è lo screen della HD3 850 overcloccata che fa 52Fps,
Quelli che ho fatto con la HD4 870 sono tutti completamente uguali tranne per il numerino in alto a destra.
Quando avrò tempo ti ritaglio tutti i numerini, li metto in un unica immagine e poi faccio l'upload.
Va bene così? :)
O devo fare l'upload di tutti gli oltre 40 screenshot per un totale di oltre 7megabyte di dati da trasmettere alla stratosferica velocità di 3Kbyte al secondo...
ci metterò solo 40 minuti...

:)

Saluti
.

roccia1234
12-06-2009, 18:36
ma non ho capito una cosa... in cod 4 c'è un bench integrato per caso? o haui fatto lo screenshot in game?

halnovemila
12-06-2009, 19:08
Le modalità (non semplici) di esecuzione del test con CoD4 le ho spiegate qui:
http://www.hwupgrade.it/forum/showpost.php?p=23925709&postcount=2363
(in fondo al post, test CoD4_Arc).
Ho fatto lo screenshot in game
:)

roccia1234
12-06-2009, 19:55
ah ok... non mi era del tutto chiaro :)
ah cmq per la cronaca... sono con windows xp 32 bit... vista 64 l'ho cassato del tutto.

Six1
12-06-2009, 23:59
bene, bene... abbiamo trovato un'altra pista.
Allora posto un'altro grafico... non sarà la soluzione a tutti i problemi ma secondo me è significativo, soprattutto per verificare le ipotesi.
Allora in questo bench ho lasciato andare la cpu, mentre ho downcloccato pesantemente la vga, praticamente ho disattivato l'overclock automatico di ATT e ho lasciato le frequenze 2D, che sono 202/250, mentre le frequenze 3d sono (come già detto) 770/920.
Il risultato è questo:
http://img151.imageshack.us/img151/9972/crysisdownclockvga.jpg

Ora riavvio e faccio la stessa cosa con vga normale e cpu molto donwcloccata.

Faccio questi test per verificare cosa succede nel caso di cpu limited e vga limited, per escludere o confermare le ipotesi

E qui che è successo ti sei perso? :mbe:......;)

Comunque in rete ho trovato un paio di grafici che potrebbero essere utili....
E mi chiedo:
se una GPU riesce al massimo a fare un certo numero di FPS(perchè a un limite comunque dovrà arrivare e non perchè è limitata da altro ma semplicemente perchè è arrivato il suo limite) e noi riscontriamo che a tali circostanze la GPU sulla nostra Mobo si comporta allo stesso modo di un altra montata su una Mobo con PCIex 16x macinando gli stessi FPS cosa altro andiamo a cercarci??? Non è già questa la risposta di un suo sfruttamento completo senza intoppi di varia natura attribulili a chi o che cosa???
Allora partiamo con i grafici:

http://img34.imageshack.us/img34/7148/crysis2.th.png (http://img34.imageshack.us/i/crysis2.png/)

http://img38.imageshack.us/img38/5040/crysis1.th.png (http://img38.imageshack.us/i/crysis1.png/)

Se volete la fonte da dove ho preso i grafici qui continua e spiega con quale Hardware e a quali impostazioni è stato effettuato il Benchmark: http://www.hwupgrade.it/articoli/skvideo/1999/comparativa-schede-video-luglio-2008_5.html

Voglio dire: Nei risultati raggiunti dai nostri Benchmark noi abbiamo risultati perfettamente in linea con gli FPS riportati nei grafici (che sono di media quello che le GPU prese in esame riescono a dare con qualsiasi configurazione che non le limiti in nessun modo) poi ovviamente le configurazioni cambiano, ma in linea generale da quello che ho visto in giro se la GPU non è CPU limitata o altro gli FPS che macina sono grosso modo quelli riportati nei grafici presi ad esempio.

Riporto i risultati ottenuti da roccia1234 con la HD4870 e jamby93 con la HD4850 per ora a risoluzione 1024x768 senza AA comunque in High e directx 9.0c:

Roccia1234 HD4870:

Min FPS: 20.81 at frame 159, Max FPS: 69.35 at frame 95
Average Tri/Sec: 49921628, Tri/Frame: 998438
Recorded/Played Tris ratio: 0.92

jamby93 HD4850:

Min FPS: 16.73 at frame 142, Max FPS: 62.13 at frame 899
Average Tri/Sec: 47833716, Tri/Frame: 997691
Recorded/Played Tris ratio: 0.92

- Adesso bisognerebbe che roccia1234 o jamby93 provino a fare il Benchmark con le stesse risoluzioni e impostazioni varie utilizzate per la realizzazione dei grafici postati.( ne basta anche una sola a scelta tra queste 1280x1024, 1680x1050, 1920x1200 e 2560x1600 pixel. , tanto vista una già può rendere l' idea) E verificare se in linea di massimo siamo vicini agli FPS dei grafici. Misembra che loro non abbiano usato AA, comunque date un occhiata per sicurezza nel caso mi sia sfuggito.
Io credo che questo possa essere utile, a capire per lo meno se queste due GPU risentono in qualche modo dell' ormai famoso, rompiballe 4x (non vedo l 'ora di chiudere questo discorso :mc: :muro: ). ;)

- Oppure in alternativa potreste provare anche questo Test di halvonovemila, più lungo, più complesso ma probabilmente più preciso:
http://www.hwupgrade.it/forum/showpost.php?p=23925709&postcount=2363

A voi la scelta.


Poi una volta per tutte vorrei chiarire una cosa a carattere generale:
A scanso di equivoci.....
Il limite su SLOT PCIEx esiste altrimenti non staremo qui a chiederci fino a che perchè ecc. ecc. La stessa Asrock ha venduto questa Scheda Madre dichiarando per iscritto sulla scheda tecnica che il PCIEx è bloccato al 4x non garantendo il funzionamento a 8x - 16X.
Quindi chiarito questo voglio solo capire da qui in avanti da quale GPU di fascia Medio Alta o Alta oppure quale di queste perchè non è detto che tutte siano poi limitate, la GPU inizia ad essere limitata da tale SLOT. Questo desidero saperlo per poter in futuro informare i vari utenti ospiti di questo Thread della reale situazione che incontrerebbero nell' acquistare uno specifico modello di GPU PCIEx da utilizzare su questa Scheda Madre.
Quindi per fare questo ho bisogno di individuare un Test che evidenzi tale limite e che sia in grado di calcolarne nel complesso le performance ridotte nel caso esistono e quindi evidenziarle.
Per questo ho bisogno dell' aiuto di tutti, come già sta avvenendo con roccia1234, halnovemila, Nomak87.

Spero di essere stato chiaro.

x halnovemila:
Gli screenshot non mi interessano......
Tu dici di aver riscontrato che la HD4870 è stata limitata dallo slot 4x con il Gioco CD4, Ok.
Chi vuole provare per verificare questo può provare il tuo Test, io adesso non posso per varie ragioni: tempo, GPU non PCIEx, Pc mezzo smontato ma in futuro proverò.....
Comunque passo questo Benchmark in alternativa al primo sopra proposto e vediamo se qualcuno se la sente di buttarsi in tale test:

http://www.hwupgrade.it/forum/showpost.php?p=23925709&postcount=2363

Nomak87
13-06-2009, 01:45
Anche se non sono molto attivo e non sto scrivendo, sto leggendo tutto con molto interesse ed attenzione; anche perché sono intenzionato a comprare la HD4870 da 1Giga quindi vorrei capire effettivamente quanto questo Slot sia un impedimento o meno (anche se penso comunque di cambiare scheda madre in favore della ASUS P5Q-EM)...

Ora non ho testa, domani vedo di fare il test ungine 0.4, sperando che possa essere utile...

Comunque per il momento credo che Six1 stia dando le motivazioni e le prove più convincenti (soprattutto sul discorso di marketing economico concordo pienamente ;))

Buona notte a tutti quanti!

Nomak87
13-06-2009, 09:32
Ecco eseguito il test!

Spero di postare l'immagine nel modo corretto :D (certo che senza ADSL nel 2009... :mbe: )

http://img34.imageshack.us/img34/2867/ungine04.th.jpg (http://img34.imageshack.us/i/ungine04.jpg/)

FPS: 42.3
Scores: 898

Six1
13-06-2009, 10:05
Comunque per il momento credo che Six1 stia dando le motivazioni e le prove più convincenti (soprattutto sul discorso di marketing economico concordo pienamente ;))


Grazie Nomak87 ;)

Mi spiace che cambierari Mobo, non tanto per la scelta perchè legittima (anche se non vedo una così sostanziale perdita della HD4870 su questa Mobo) e non mi sento di discuterla minimamente ma solo perchè il tuo contributo su questo Thread ci mancherà.

Detto questo:

vediamo i due test Ungine a confronto:

Nomak87
Slot AGP HD3850
http://img30.imageshack.us/img30/1484/ungine1.th.jpg (http://img30.imageshack.us/i/ungine1.jpg/)
FPS: 42.3
Score: 898.

roccia1234
Slot PCIEx HD4870
http://img197.imageshack.us/img197/7192/unigine.th.jpg (http://img197.imageshack.us/i/unigine.jpg/)
FPS: 103,3
Score: 2189.

Se questo bastasse a dare un giudizio sul limite imposto dallo Slot PCIex 4x alla HD4870 direi che tale limite con la GPU PCIEx presa in esame è inesistente. Comunque approfondirò ulteriormente.....

selu
13-06-2009, 10:25
chiedo urgentemente aiuto.............

ho montato questa scheda madre con un E5400 e due ram kingstom ddr2 ( kvr667d2n5) 667 da 1g ciascuno, scheda video agp geforce 440 mx.

il pc non parte........:muro:

nel primo post per il processore dice.
775 Pentium Dual Core E5400(R0) 2.70GHz 800MHz 2MB Wolfdale P2.10


ma se la scheda madre non ha il bios 2.10 che succede?


aiutatemi prego:mc:

Six1
13-06-2009, 10:27
chiedo urgentemente aiuto.............

ho montato questa scheda madre con un E5400 e due ram kingstom ddr2 ( kvr667d2n5) 667 da 1g ciascuno, scheda video agp geforce 440 mx.

il pc non parte........:muro:

nel primo post per il processore dice.
775 Pentium Dual Core E5400(R0) 2.70GHz 800MHz 2MB Wolfdale P2.10


ma se la scheda madre non ha il bios 2.10 che succede?


aiutatemi prego:mc:

Ciao e Benvenuto!
Vediamo di risolvere assieme il tuo problema.....

Dipende che Bios hai, se hai un Bios precedente potrebbe non riconoscerti correttamente la CPU......
Che Bios Hai???

selu
13-06-2009, 10:38
come faccio a saperlo mi è arrivata oggi dal negozio....


ma comunque si dovrebbe accendere il pc. giusto

roccia1234
13-06-2009, 10:41
Grazie Nomak87 ;)

Mi spiace che cambierari Mobo, non tanto per la scelta perchè legittima (anche se non vedo una così sostanziale perdita della HD4870 su questa Mobo) e non mi sento di discuterla minimamente ma solo perchè il tuo contributo su questo Thread ci mancherà.

Detto questo:

vediamo i due test Ungine a confronto:

Nomak87
Slot AGP HD3850
http://img30.imageshack.us/img30/1484/ungine1.th.jpg (http://img30.imageshack.us/i/ungine1.jpg/)
FPS: 42.3
Score: 898.

roccia1234
Slot PCIEx HD4870
http://img197.imageshack.us/img197/7192/unigine.th.jpg (http://img197.imageshack.us/i/unigine.jpg/)
FPS: 103,3
Score: 2189.

Se questo bastasse a dare un giudizio sul limite imposto dallo Slot PCIex 4x alla HD4870 direi che tale limite con la GPU PCIEx presa in esame è inesistente. Comunque approfondirò ulteriormente.....

bene, bene, nuovi test... ottimo!! Il problema è che non so quanto unigine sia adatto al nostro scopo (missà che ho fatto una vaccata nel proporlo) :muro: . Nel senso, se stressa solo la gpu e lascia praticametne in idle la cpu, ci saranno pochi dato che passano attraverso il pci-ex, quindi può darsi che, nel caso del test unigine, questo sia sufficiente. Per provarlo basterebbe abbassare la larghezza di banda pci-ex da 4x a 2x o a 1x... il problema è che nel bios non c'è tale opzione, ma c'è solo per schede agp :( . COn questo non vorrei che sembrasse che voglia a tutti i costi dire che il pci-ex 4x è limitante al costo di arrampicarmi su specchi insaponati. Sto solo vagliando tutte le possibilità, le implicazioni e gli eventuali problemi che mi vengono in mente, condividendolui con voi :) .
Detto questo ho trovato in internet dei bench un po vecchiotti, in inglese:
http://www.rage3d.com/board/archive/index.php?t-33899194.html
condotti (a quanto ho capito) sulla sorella minore della nostra, una 4core dual vsta con vga hd2900xt.

EDIT: cavolata... non possono averli condotti sulla nostra mobo perchè hanno usato pci-ex 16x. Avranno usato un'altra mobo e variato il pci-ex da bios a parità di configurazione.

Ecco, se vedete i test già con una scheda come questa il pci-ex 4x un pochetto limita, e la cosa è evidente soprattutto in coh, dove si ha un calo di 5 fps su 23 (da 23 a 18 al passaggio 16x -> 4x), mentre il call of juarez si nota già di meno, solo 1 fps su 20 (da 20 a 19 al passaggio 16x -> 4x).
Ora, visto che abbiamo tirato in ballo unigine, sfruttiamolo... dai risultati dei bench nel thread ufficiale, si vede che la hd2900 va poco meno della metà della hd4870 (e questo credo sia fuori da ogni discussione), quindi secondo me, dato che già un scheda come la hd2900 è un poco limitata, la hd4870 lo sarà molto di più, dato che, raddoppiando le prestazioni, avrà bisogno senza dubbio di più dati che passano attraverso il pci-ex, rispetto alla hd2900, per dare il massimo delle prestazioni, e se già la hd2900 risente del limite... Commenti? cosa ne dite?

roccia1234
13-06-2009, 10:43
chiedo urgentemente aiuto.............

ho montato questa scheda madre con un E5400 e due ram kingstom ddr2 ( kvr667d2n5) 667 da 1g ciascuno, scheda video agp geforce 440 mx.

il pc non parte........:muro:

nel primo post per il processore dice.
775 Pentium Dual Core E5400(R0) 2.70GHz 800MHz 2MB Wolfdale P2.10


ma se la scheda madre non ha il bios 2.10 che succede?


aiutatemi prego:mc:

allora... non parte.. cioé? Tu schiacci il tasto e cosa succede? Si accende la lucina sul case? partono le ventole? fa qualche bip strano? Descrivi nel dettaglio, così possiamo aiutarti meglio :). Più è particolareggiata la descrizione e meglio è.

Nomak87
13-06-2009, 10:54
La mia CPU nel fare il test ungine lavora al 60%, quindi un buon flusso di dati c'è e penso che il tuo E2180 sarà anche intorno al 90%. Ora non posso postare l'immagine perché sono dal portatile di mio padre e non ho le immagini salvate, appena torno a casa magari posto :D

In merito al cambio di MOBO:
Io voglio prendere la ASUS P5Q-EM perché è una microATX così da rendere il PC di dimensioni più contenute e poi perché ho già in mente di comprare il Q9550, non lo faccio assolutamente per il discorso del PCI-Ex che in effetti dai test che stiamo eseguendo, non risulta così determinante; infatti consiglio nuovamente a roccia1234 di cambiare prima la CPU e poi la mobo o se vuole passare direttamente a un processore con FSB1333 o superiore (come il sottoscritto) di aspettare un pò e cambiare mobo e procio in una volta sola, ma in ogni caso cambiare mobo per tenersi un E2180 mi sembra poco conveniente :D

Comunque passerà ancora un bel pò di tempo al cambio, anche perché prima voglio comprare una bella tv da 32 pollici FULL-HD da mettere in camera e collegarla ovviamente al PC (penso a settembre) e poi passare all'upgrade del PC.

Ergo non vi libererete di me tanto presto :Prrr:

Six1
13-06-2009, 10:55
Con questo non vorrei che sembrasse che voglia a tutti i costi dire che il pci-ex 4x è limitante al costo di arrampicarmi su specchi insaponati. Sto solo vagliando tutte le possibilità, le implicazioni e gli eventuali problemi che mi vengono in mente, condividendolui con voi.

Sul discorso del condividere non ci sono problemi, soltanto che prendere ad esempio test innanzitutto di una Mobo diversa e sopratutto non effettuati da noi, quindi senza conoscere pienamente con che attenzione e precisione sono stati effettuati quei test mi sembra un pò poco utile al Nostro scopo.
Io vorrei come postato precedentemente trovare un nostro metodo e non scopiazzare da altri..... per capire Noi effettivamente come stanno le cose. l' idea di effettuare il Benchmark di Crysis con le risoluzioni di cui ho parlato, e poi fare il confronto con i grafici postati perchè non li hai presi in considerazione? cerchiamo di fare le cose passo passo altrimenti non ne veniamo fuori.

Six1
13-06-2009, 10:58
Ergo non vi libererete di me tanto presto :Prrr:
Ottimo, e poi comunque nulla vieta che se nel caso tu un domani decida di fare questo passo tu non possa (se vorrai) continuare a dare il tuo contributo qui da noi. Ormai conosci la SuperMobo abbastanza bene da poter essere di ottimo aiuto. ;)

La mia CPU nel fare il test ungine lavora al 60%, quindi un buon flusso di dati c'è e penso che il tuo E2180 sarà anche intorno al 90%. Ora non posso postare l'immagine perché sono dal portatile di mio padre e non ho le immagini salvate, appena torno a casa magari posto :D
Ottimo! aspetto i Post, a questo punto sono importanti quanto determinanti....;)

in ogni caso cambiare mobo per tenersi un E2180 mi sembra poco conveniente :D
Quoto.

selu
13-06-2009, 11:02
la ventola della cpu parte.
la luce verde del case si accende.
il monitor non si accende (scheda video mx 440 agp).

Nomak87
13-06-2009, 11:04
Io avevo montato il mio E7400 e avevo il BIOS 2.0 e dal sito dice che il BIOS per l'E7400 dev'essere il 2.10 che infatti ho subito aggiornato, però il PC si accendeva e funzionava...

roccia1234
13-06-2009, 11:09
Sul discorso del condividere non ci sono problemi, soltanto che prendere ad esempio test innanzitutto di una Mobo diversa e sopratutto non effettuati da noi, quindi senza conoscere pienamente con che attenzione e precisione sono stati effettuati quei test mi sembra un pò poco utile al Nostro scopo.
Io vorrei come postato precedentemente trovare un nostro metodo e non scopiazzare da altri..... per capire Noi effettivamente come stanno le cose. l' idea di effettuare il Benchmark di Crysis con le risoluzioni di cui ho parlato, e poi fare il confronto con i grafici postati perchè non li hai presi in considerazione? cerchiamo di fare le cose passo passo altrimenti non ne veniamo fuori.

mhh... in effetti hai ragione... c'è troppa carne al fuoco :fagiano: . Ho preso quei test per il semplice fatto che, (e spero concorderete tutti) per verificare una volta per tutte le limitazioni di un pci-ex 4x rispetto ad un 16x la cosa ideal da fare sarebbe quella di avere una mobo pci-ex 16, fare i test con 16x e poi rifarli riducendo il bus a 4x e confrontare le prestazioni. In questo modo abbiamo una sola variabile, che è quella che ci interessa, e si potrebbe verificare la cosa senza ombra di dubbio. La mobo diversa influenza poco o nulla, dato che il pci-ex 4x di una mobo è uguale al pci-ex 4x di un'altra, altrimenti si chiamerebbero in modo diverso.
Dai test con unigine, effettivamente, non sembrerebbe che ci sia differenza tra pci-ex 16x e 4x, però, ripeto, ho ancora dubbi sull'affidabilità del test per il nostro scopo, per i motivi illustrati prima.

EDIT: alla fine non ho fatto il test cpu-limited per il fatto che non riuscivo a downcloccare la cpu a meno di 266x6, nonostante di fabbrica arrivasse anceh a 200x6... misteri della bsel mod. E in ogni caso acneh a questa frequenza la cpu non arrivava la 100% di utilizzo

Six1
13-06-2009, 11:15
mhh... in effetti hai ragione... c'è troppa carne al fuoco :fagiano: . Ho preso quei test per il semplice fatto che, (e spero concorderete tutti) per verificare una volta per tutte le limitazioni di un pci-ex 4x rispetto ad un 16x la cosa ideal da fare sarebbe quella di avere una mobo pci-ex 16, fare i test con 16x e poi rifarli riducendo il bus a 4x e confrontare le prestazioni. In questo modo abbiamo una sola variabile, che è quella che ci interessa, e si potrebbe verificare la cosa senza ombra di dubbio. La mobo diversa influenza poco o nulla, dato che il pci-ex 4x di una mobo è uguale al pci-ex 4x di un'altra, altrimenti si chiamerebbero in modo diverso.
Dai test con unigine, effettivamente, non sembrerebbe che ci sia differenza tra pci-ex 16x e 4x, però, ripeto, ho ancora dubbi sull'affidabilità del test per il nostro scopo, per i motivi illustrati prima.

Se hai dubbi allora non hai letto quello che ha postato un paio di Post prima Nomak87 riguardo l'utilizzo della CPU con il test Ungine. O se lo hai letto parliamo di quali sono i tuoi dubbi.... non mi hai ancora risposto perchè non hai preso in considerazione la mia ultima prova proposta per te e jamy93. Se non la trovi utilie puoi sempre dirmelo motivandomene le ragioni, va bene che come Avatar ho una pantera nera, ma mica mordo nessuno. ;)

roccia1234
13-06-2009, 11:28
Se hai dubbi allora non hai letto quello che ha postato un paio di Post prima Nomak87 riguardo l'utilizzo della CPU con il test Ungine. O se lo hai letto parliamo di quali sono i tuoi dubbi.... non mi hai ancora risposto perchè non hai preso in considerazione la mia ultima prova proposta per te e jamy93. Se non la trovi utilie puoi sempre dirmelo motivandomene le ragioni, va bene che come Avatar ho una pantera nera, ma mica mordo nessuno. ;)

oddio... i test che hai proposto me li sono proprio persi, scusami... in che post sono? :fagiano:

Ho letto quello che avete detto in base all'uso della cpu e in base ai test, però allora non mi spiego il fatto che la potenza della cpu non influisca sul punteggio finale di unigine, ne sugli fps, nonstante venga sfruttata la cpu in maniera non propio leggera (60% su un e7400 non sono mica noccioline). Ripropongo due bench di hwupgrade che secondo me sono a dir poco esemplari di questo fatto.

Murphy: E4300@2400 Mhz - 2GB Ram - X1950pro 256mb - cat 7.5 fix WIN XP
Direct 3D FPS: 26.1 Score: 553
OpenGl FPS: 31.8 Score 674

smemo: Athlon 64 3200+@ 2.5 - 2GB Ram - X1950Pro 256MB - XP SP2
Direct 3d FPS: 26 Score: 551
OpenGL FPS: 31.7 Score: 673

Sinceramente, mi sto andando a cacciare in un ginepraio di ragionamenti :confused: .

Six1
13-06-2009, 11:30
la ventola della cpu parte.
la luce verde del case si accende.
il monitor non si accende (scheda video mx 440 agp).

Purtroppo non sappiamo se quella GPU è perfettamente compatibile con la nostra Mobo.
Se vedi tutto scuro ma il Pc parte potrebbe dipendere anche da questo....
Ti faccio una domanda idiota.....ma sai non si sa mai, i cavi dietro hai ben controllato che siano ben attaccati nei loro rispettivi ingressi???
VGA con Monitor in particolare....
Alimentazione Monitor.....

roccia1234
13-06-2009, 11:30
la ventola della cpu parte.
la luce verde del case si accende.
il monitor non si accende (scheda video mx 440 agp).

mhhh... puoi provare con un'altra scheda video? ad un'altro utente (halnovemila) ha dato problemi la revisione del bios della vga, ha aggiornato ed è andato tuto aposto... potrebbe essere una roba del genere.

edit: Six1, missà che si è verificato un fenomeno telepatico :D

selu
13-06-2009, 11:30
il pc e partito................:ciapet:

ma lo schermo si vede viola, come mai???????

roccia1234
13-06-2009, 11:35
il pc e partito................:ciapet:

ma lo schermo si vede viola, come mai???????

:eek:
ci hai messo sopra dell'acqua santa?!?!?

no scherzi a parte... come hai fatto? e... in che senso si vede viola? cioè è sfumato sul violetto ma le immagini si vedono o è un'unica chiazza di colore viola?

Nomak87
13-06-2009, 11:37
il pc e partito................:ciapet:

ma lo schermo si vede viola, come mai???????

A me era successo che il monitor a tubo fosse diventato viola quando era stato a contatto per un bel pò con un magnete di un woofer da 26 quando stavo costruendo le mie casse acustiche...
Hai qualcosa di magnetico vicino al monitor?

Six1
13-06-2009, 11:38
oddio... i test che hai proposto me li sono proprio persi, scusami... in che post sono? :fagiano:

Ho letto quello che avete detto in base all'uso della cpu e in base ai test, però allora non mi spiego il fatto che la potenza della cpu non influisca sul punteggio finale di unigine, ne sugli fps, nonstante venga sfruttata la cpu in maniera non propio leggera (60% su un e7400 non sono mica noccioline). Ripropongo due bench di hwupgrade che secondo me sono a dir poco esemplari di questo fatto.

Murphy: E4300@2400 Mhz - 2GB Ram - X1950pro 256mb - cat 7.5 fix WIN XP
Direct 3D FPS: 26.1 Score: 553
OpenGl FPS: 31.8 Score 674

smemo: Athlon 64 3200+@ 2.5 - 2GB Ram - X1950Pro 256MB - XP SP2
Direct 3d FPS: 26 Score: 551
OpenGL FPS: 31.7 Score: 673

Sinceramente, mi sto andando a cacciare in un ginepraio di ragionamenti :confused: .

Il post relativo a quello che ti ho proposto lo trovi nella pagina precedente basta che dai una letta a quello successivo all' ultimo da te ieri postato e lo trovi.
Si esatto tu vuoi dimostrare a tutti i costi che la tua GPU è limitata sul 4x tanto da non voler vedere tutto il resto. Allora prima il problema era che la CPU non occupava adesso occupa e non va bene lo stesso. Il risultato è questo, tu nel Benchmark Ungine simuli, quello che succederebbe in un gioco nelle massime situazioni di stress della GPU ovviamente da quello che Nomak afferma con il suo studio in contemporanea con la CPU. A confronto di altri con slot PCIEx 16X tu sei allo stesso livello, questo non capisco perchè non ti basta.
Lo ripeto noi non stiamo cercando di capire se il nostro SLOT ha un limite fisso di 4x, questo già lo sappiamo ma stiamo cercando di capire se la tua GPU risulta essere limitata su tale SLOT e allo stato attuale sono tante le prove che dicono il contrario.

selu
13-06-2009, 11:41
ho provato un altra scheda video agp.
ho provato le ddr normali.
poi ho rimesso i pezzi originari ed è partito ( mistero della fede).
la schermata del bios e di colore viola......

quando carica l'hd, metto avvia normalmente e all'improvvisto compare una shcrmata veloccissima che non riesco a vedere e si riavvia..........

scomunque devo formattare...........ma questo in un secondo momento.

proma risolviamo il viola alla schermate..

non è che la scheda non la riconosce bene?bo

Nomak87
13-06-2009, 11:52
Lo ripeto noi non stiamo cercando di capire se il nostro SLOT ha un limite fisso di 4x, questo già lo sappiamo ma stiamo cercando di capire se la tua GPU risulta essere limitata su tale SLOT e allo stato attuale sono tante le prove che dicono il contrario.

Six1 il tuo discorso non fa una piega! ;)

Ecco l'immagine del valore di stress CPU rilevato con il task manager:

http://img30.imageshack.us/img30/2923/cpuvalue.th.jpg (http://img30.imageshack.us/i/cpuvalue.jpg/)

Inoltre confermo che la GPU è stressata al 99%; cioè il MAX che il Catalyst Control Center rivela.

Per maggiore precisione e correttezza di informazione ecco l'immagine con tutti i valori :D

http://img198.imageshack.us/img198/3016/cpugpuvalueunige04.th.jpg (http://img198.imageshack.us/i/cpugpuvalueunige04.jpg/)


non è che la scheda non la riconosce bene?bo

Potrebe essere, non hai modo di provare con un'altra scheda video, magari che sappiamo sia supportata sicuramente?
Io ti consiglio di provare con un'altra scheda video, formattare e subito dopo aver formattato mettere il BIOS moddato (spiegato in pagina 1 ma se hai problemi basta chiedere)
Una volta eseguite queste operazioni riprovare con la scheda video che vuoi usare...

Six1
13-06-2009, 12:02
Ecco l'immagine del valore di stress CPU rilevato con il task manager:

http://img30.imageshack.us/img30/2923/cpuvalue.th.jpg (http://img30.imageshack.us/i/cpuvalue.jpg/)

Inoltre confermo che la GPU è stressata al 99%; cioè il MAX che il Catalyst Control Center rivela, non ho fatto immagini se volete rifaccio il test e anche l'immagine...

Per maggiore precisione e correttezza di informazione ecco l'immagine con tutti i valori :D

http://img198.imageshack.us/img198/3016/cpugpuvalueunige04.th.jpg (http://img198.imageshack.us/i/cpugpuvalueunige04.jpg/)


Veramente ottimo esempio/studio. Grazie. ;)
Ci sarà molto utile.

roccia1234
13-06-2009, 12:25
Il post relativo a quello che ti ho proposto lo trovi nella pagina precedente basta che dai una letta a quello successivo all' ultimo da te ieri postato e lo trovi.
Si esatto tu vuoi dimostrare a tutti i costi che la tua GPU è limitata sul 4x tanto da non voler vedere tutto il resto. Allora prima il problema era che la CPU non occupava adesso occupa e non va bene lo stesso. Il risultato è questo, tu nel Benchmark Ungine simuli, quello che succederebbe in un gioco nelle massime situazioni di stress della GPU ovviamente da quello che Nomak afferma con il suo studio in contemporanea con la CPU. A confronto di altri con slot PCIEx 16X tu sei allo stesso livello, questo non capisco perchè non ti basta.
Lo ripeto noi non stiamo cercando di capire se il nostro SLOT ha un limite fisso di 4x, questo già lo sappiamo ma stiamo cercando di capire se la tua GPU risulta essere limitata su tale SLOT e allo stato attuale sono tante le prove che dicono il contrario.

No no, non ci siamo capiti... io non voglio dimostrare proprio nulla. Voglio solo vederci chiaro, e per vederci chiaro ho bisogno di test che mi diano dei risultati che siano al di sopra di qualsiasi dubbio/errore/magagna. Per questo motivo sto tirando fuori tutte le magagne/dubbi/errori che potrebbero esserci, per poi tentare di confutarli e, una volta eliminati tutti i dubbi/errori/magagne che ci possono essere su un test, allora si che potremmo trarre conclusioni. Qualsiasi conclusione tratta da un test che lascia anche un minimo dubbio potrebbe essere erronea, di poco o di tanto, ma comunque non corretta.
Ora il mio problema è questo. Dai test che ha fatto nomak87 si vede che unigine sfrutta la cpu e non poco, e questo è fuori discussione (e sarebbe da stupidi negarlo). Ora , il mio problema è questo.... una qualsiasi applicazione che sfrutta la cpu in quel modo (a me arriva al 90% circa) dovrebbe in qualche modo essere influenzata nelle prestazioni/risultati dalla velocità della cpu stessa, per il semplice fatto che la sfrutta ad un livello non trascurabile. Il problema è che con unigine questo non si verifica per nulla, anche con configurazioni con cpu molto diverse, quando invece i vari test di nomak87 farebbero pensare il contrario. Ora... come è possibile questa cosa??? E' da questo che scaturiscono i miei dubbi sull'affidabilità di unigine come piattaforma di test per il nostro scopo. E, a mio modo di vedere le cose, sono dubbi più che legittimi.
Per i test con crysis non c'è problema, li posso fare... però non riesco ad andare oltre 1280x1024 causa monitor e non riesco a trovare un riepilogo nel dettaglio dei settaggi usati dalla redazione, come il tipo di test (anche se credo sia il bench gpu) e se i fotogrammi segnati sono i medi, giusto?
Per le prove, beh, ti ricordo il bench che ho postato prima. OK, non sarà il massimo dell'affidabilità, non sappiamo come è stato condotto, però secondo me, e lo ripeto, è il test ideale da fare e i risultati mi hanno messo più di una pulce nell'orecchio.
Poi per crysis ho scoperto un'altra magagna sullo sfruttamento del multicore (non mi ammazzate), leggete qua
http://ixbtlabs.com/articles3/video/quadcore-p1.html
magari non conta nulla ai fini del test, ma è meglio tenerlo in conto.

selu
13-06-2009, 12:26
ma per aggiornare il bios con quello moddato?
nel programma da usare nella sezione a tendina setup, quali devo spuntare?
devo attivare destroy cmos?

http://www.pctunerup.com/up/results/_200906/th_20090613132603_3.jpg (http://www.pctunerup.com/up/image.php?src=_200906/20090613132603_3.jpg)

dai ci siamo quasi....

Six1
13-06-2009, 12:46
Lascia come da guida e per sicurezza metti il flag su Program all Blocks.
le motivazione per cui fleggare Program all Blocks(blocca tutti i programmi) la trovi leggendo la sezione Bios e il suo aggiornamento.;)
In bocca al lupo e a dopo con Bios aggiornato.

Six1
13-06-2009, 13:16
Dai test che ha fatto nomak87 si vede che unigine sfrutta la cpu e non poco, e questo è fuori discussione (e sarebbe da stupidi negarlo).
Beh fino aprova contraria ieri qualcuno asseriva fortemente il contario...... ;)
e non certamente io perchè non avevo i dati alla mano per poter pronunciarmi.
Come ripeto la fiducia nel risolvere i Nostri problemi/dubbi non paga, ci vogliono i fatti esattamente come postati da te e Nomak87.[/QUOTE]

Comunque andiamo avanti.....
Per i test con crysis non c'è problema, li posso fare... però non riesco ad andare oltre 1280x1024 causa monitor e non riesco a trovare un riepilogo nel dettaglio dei settaggi usati dalla redazione, come il tipo di test (anche se credo sia il bench gpu) e se i fotogrammi segnati sono i medi, giusto?
Come ho specificato non serve farli tutti basta farne uno con la risoluzione che si ha a disposizione(1280x1024 va benone) essendo stata usata nella recensione può essere confrontata.
Certo che è per GPU, essendo quella recensione sulle schede video suppongo proprio di Si.
Si penso che siano FPS medi, altrimenti sarebbe specificato.
Buon Benchmark. ;)

roccia1234
13-06-2009, 13:33
Beh fino aprova contraria ieri qualcuno asseriva fortemente il contario...... ;)
e non certamente io perchè non avevo i dati alla mano per poter pronunciarmi.
Come ripeto la fiducia nel risolvere i Nostri problemi/dubbi non paga, ci vogliono i fatti esattamente come postati da te e Nomak87.

dicevo il contrario perchè non c'erano i dati di nomak87, e comunque le cose continuano a non tornare... prova a pensarci un attimo anche te considerando esclusivamente i fatti che ho elencato nel mio post.

halnovemila
13-06-2009, 14:39
Non ti preoccupare roccia, Six1 si riferiva sicuramente a me.

Comunque, ti consiglio di lasciar perdere Unigine.
Io, per semplicità, ho detto che la "CPU non lavora" e quindi vengono trasferiti pochi dati sul bus AGP/PCI-E.

Si trattava ovviamente di una semplificazione che non può trovare riscontro in un grafico che misura un uso della CPU pari all'1% o al 10% o al 30%.

E' chiaro che la CPU lavora (ma mi tocca dirlo?), solo che non al punto di determinare un limite per la GPU perchè le richieste di elaborazione geometrica da parte di Unigine Sanctuary Demo non sono particolarmente pesanti.
Ed è chiaro che il bus AGP/PCI-E viene sollecitato, ma, EVIDENDEMENTE, visto i risultati Unigine che IO HO POSTATO PER PRIMO IN QUESTA DISCUSSIONE, non a sufficienza da costituire un collo di bottiglia per l'esecuzione del test.

Ecco il quote al post #987 e sfido chiunque a dimostrare che quel riferimento al test Unigine, con quei risultati, sono stati postati da qualcun altro prima di me.
Dato che la HD4870 ha ottenuto al test Unigine ver.0.4 un punteggio più che doppio rispetto alla HD3 (siamo a oltre 2000 per la HD4 e poco più di 900 per la HD3)

Ho anche detto che io pure in TUTTI GLI ALTRI test che ho eseguito ho riscontrato prestazioni maggiori della HD4 870 rispetto alla HD3 850 AGP,
ma tutti gli altri test NON SONO ADATTI A MISURARE L'EVENTUALE LIMITAZIONE delle prestazioni dovuta ad una scarsa larghezza di banda del bus AGP/PCI-E.

Il motivo lo spiego in un'altro post più avanti perchè noto che quando spiego troppe cose in un unico post poi c'è gente che non legge e dopo ripete sempre le stesse domande a cui ho già risposto.

Ciao :)

Six1
13-06-2009, 15:37
Io, per semplicità, ho detto che la "CPU non lavora" e quindi vengono trasferiti pochi dati sul bus AGP/PCI-E.

Per semplicità hai detto che non lavorava, invece io ti dico che sto affrontando questo argomento Non con semplicità ma con dedizione.
Chiedo da parte vostra la massima collaborazione.
Omettere qualcosa solo per rafforzare una propria tesi proprio non và.
Una CPU che lavora al 60%(il caso di Nomak97), o al 90% il caso di (roccia1234) non credo che siano percentuali di lavoro attribuibili a due CPU che trasmettono pochi dati se mai il contrario.
Adesso tu dici:
E' chiaro che la CPU lavora (ma mi tocca dirlo?)
Si perchè è stato asserito che la CPU non lavorava e più di una volta, mentre da come abbiamo costato adesso e con test che lo dimostrano perchè postati la CPU lavora nel Benchmark Ungine e anche in maniera piuttosto intensiva. Poi è ovvio che la GPU lavori di più altrimenti non sarebbe neppure un Benchmark per GPU.

Il motivo lo spiego in un'altro post più avanti perchè noto che quando spiego troppe cose in un unico post poi c'è gente che non legge e dopo ripete sempre le stesse domande a cui ho già risposto.
Nessuno ti ha posto domande.... poi che la gente non legga è un tuo parere. Probabilmente tutto quello che scrivi per varie ragioni non sempre può essere o viene preso in considerazione.

Ho anche detto che io pure in TUTTI GLI ALTRI test che ho eseguito ho riscontrato prestazioni maggiori della HD4 870 rispetto alla HD3 850 AGP,
ma tutti gli altri test NON SONO ADATTI A MISURARE L'EVENTUALE LIMITAZIONE delle prestazioni dovuta ad una scarsa larghezza di banda del bus AGP/PCI-E.
Tra un pò in prima pagina aggiugerò i risultati da cui trarrò le conclusioni riguardo questo argomento:
Questa tua affermazione "qui su" non appoggiata da prove oggettive sarà presa in considerazione(rispetto il lavoro degli altri), come saranno prese in considerazione ovviamente le nostre prove però nel nostro caso appoggiate da prove oggettive postate sul Nostro Thread.
Quindi ad oggi sono più i Test (proposti sul mio Thread) che confermano che GPU fino alla serie HD4870 di ATI non sono limitate su SLOT PCIEx4x che il contrario.
Saluti
Six1.

Nomak87
13-06-2009, 16:09
Mi associo pienamente con Six1!

halnovemila
13-06-2009, 16:21
Questa tua affermazione "qui su" non appoggiata da prove ogettive

Le prove "oggettive" sono gli Fps che ho misurato sul campo, con le modalità che ho già dettagliatamente descritto e indicato in post precedenti (se poi qualcuno non legge...)

Poi, per carità, visto che sono l'unico ad aver fatto quel tipo di test si può sempre dubitare delle mie capacità e conoscenze tecniche e affermare che i dati che ho riportato sono falsi o falsati.
Certo sarebbe bello se qualcun altro con la HD4 870 potesse fare lo stesso test che ho fatto io con CoD4...
Fino ad allora rimarrò l'unico... l'unica eccezione che insiste nell'"infangare" l'immagine splendente della meravigliosa 4CoreDual-Sata2 ;)

Comunque... si accettano scommesse: Non più di 33Fps con bus PCI-E su 100Mhz.
:)

roccia1234
13-06-2009, 16:22
visto che in precedenza i test che ho postato sono stati considerati "non attendibili" perchè, giustamente, non si conoscevano ne le modalità, ne la config hardware completa, ne chi l'ha fatto, propongo i seguenti test:

http://www.tomshw.it/graphic.php?guide=200801231&page=crossfire_pci_express2-02

credo che la fonte non abbia bisogno di presentazioni e che sia considerata affidabile.
Considerate che questo test è di più di un anno fa, e da allora le schede video si sono evolute non poco (all'epoca c'erano hd2900 e 8800gtx al top).
Invito a guardare i grafici dei benchmark dei giochi, soprattuto crysis, dato che è un gioco che abbiamo preso in esame e dato che nei test sono state usate le stesse modalità. In particolare, tenete d'occhio la hd2900xt (ricordo che ha metà potenza rispetto alla hd4870) al passaggio 4x -> 8x -> 16x.
Ho preso dei test esterni per il semplice fatto, ripeto, che noi non abbiamo la possibilità di provare il pci-ex 16x e pci-ex 4x, proprio per le limitazioni della mobo. Non possiamo testare quanto andrebbe la mia config con pci-ex 16x e fare i confronto con il 4x.

Six1
13-06-2009, 16:30
Adesso vado di fretta poi lo guardo con calma, comunque come ho già ribadito più volte vorrei che fossimo Noi a definire una certa cosa e non che siano altri a farlo o averlo fatto per Noi. Sopratutto (alla luce del Link che hai appena postato) dove la legge del commercio la fà da padrona. ;)

roccia1234
13-06-2009, 16:41
Adesso vado di fretta poi lo guardo con calma, comunque come ho già ribadito più volte vorrei che fossimo Noi a definire una certa cosa e non che siano altri a farlo o averlo fatto per Noi. Sopratutto (alla luce del Link che hai appena postato) dove la legge del commercio la fà da padrona. ;)

ma anche a me piacerebbe che fossimo noi a fare i test, il problema è che a noi manca un aprte fondamentale: il pci-ex 16x. :muro: . ma fammi capire una cosa... ora non ti fidi manco di tom's hw?!?!

Six1
13-06-2009, 21:17
ma anche a me piacerebbe che fossimo noi a fare i test, il problema è che a noi manca un aprte fondamentale: il pci-ex 16x. :muro: . ma fammi capire una cosa... ora non ti fidi manco di tom's hw?!?!

Ho detto che mi piacerebbe che fossimo noi con i mezzi che abbiamo o che magari troveremo insieme, ad andare ancora più a fondo di quanto siamo andati in merito a questo argomento.
La fiducia in questo contesto (come già detto) non va tirata in ballo. Mi sembra comunque che di te, di Nomak87, e di halnovemila ove possibile, mi sono fidato.
La prima pagina è completa di vostri consigli come di altri utenti partecipanti a questo Thread.....più fiducia di così. ;)

Comunque, è da tanto che mi interesso al limite dello SLOT del 4x su questa Mobo, conosco tom's hw.....per carità un ottimo sito ed ho letto e straletto quella recensione tempo fà, comunque avevo trovato molte cose in quei Test che non erano in linea con il mio modo di analizzare e affrontare il discorso nell' insieme.
Poi ovviamente ognuno è libero di pensarla differentemente da me e di considerare quei test la risposta ai propri dubbi.
Ognuno è infine libero di considerarli attendibili.

Ad ogni modo...... cerchiamo di cambiare un pochino argomento, se ci verranno altre idee le tireremo fuori e ne discuteremo.
Piuttosto ma selu che fine ha fatto? L' ho lasciato che stava aggiornando il Bios nel primo pomeriggio....
Speriamo bene....:D e che abbia risolto i suoi problemi.
selu se c6 facci un fischio!!! E facci sapere se tutto è andato a buon fine.....

halnovemila
13-06-2009, 23:49
Domanda:
Perchè il test Unigine Sanctuary Demo si può definire CPU indipendente?

Risposta "empirica":
perchè, a parità di scheda video, si ottengono gli stessi risultati sia con CPU molto potenti che con CPU ormai datate.
Questo è un esempio lampante (con tanto di screenshot... per gli amanti del genere)
Unigine Sanctuary demo v0.4 WindowsXP SP2 Hotfix con Sapphire HD 3850 con clock di default (670/830):
AthlonXP Barton @2.3GHz (CPU Score 807 al 3DMark06 (http://immagini.p2pforum.it/out.php/i415878_3DM063856AthXPM2.3GHzDDR2.5337HD3850670.830.JPG)) su Asus A7V8X con chipset KT400 e larghezza di banda RAM ~2.4GByte/s con DDR CL2.5 @177MHz + Catalyst 8.12
42.2 Fps/895 Punti (screenshot qui (http://immagini.p2pforum.it/out.php/i417668_UnigineV0.40895AXP2.3GHzDDR177Cat.8.12HD3850670.830AGPWROn.gif))
Core2 Duo E4600@3.4GHz (CPU Score 2.983 al 3DMark06) su 4CoreDual-Sata2 e larghezza di banda RAM ~6.6GByte/s con DDR2 CL3 @309MHz Dual-channel + Catalyst 8.6
43 Fps/911 Punti (screenshot qui (http://www.hwupgrade.it/forum/showpost.php?p=24218031&postcount=2526))
Vantaggio Core2 vs. AthlonXP
http://immagini.p2pforum.it/out.php/i419159_UnigineAthXPvsC2DGraph.gif

Risposta "logica":
Perchè il carico di elaborazione posto dal quel tipo di test sulla CPU è "relativamente" basso.
Quel relativamente significa che una CPU anche "relativamente" poco potente (come il caso dell'AthlonXP) è in grado di elaborare i dati relativi a ciascun fotogramma del test in un tempo sufficientemente piccolo da consentire una frequenza di riproduzione del calcolo talmente alto da poter "alimentare" la GPU fino al punto in cui questa raggiunge il proprio limite.

Si ricorda (è già stato detto) che in assenza di limitazioni dovute ad insufficienza di larghezza di banda del canale di comunicazione CPU-RAM o CPU-GPU, la CPU e la GPU tenderanno entrambe a raggiungere il 100% di carico di elaborazione e quella delle due che raggiungerà il 100% per prima determinerà il livello di occupazione a cui si assesterà l'altra.

Dato che al test Unigine il carico sulla CPU è "relativamente" basso, ciò significa che la CPU sarà in grado di elaborare un numero massimo di FPS, talmente alto che con tutta probabilità la GPU raggiungerà la soglia del 100% di carico (quindi il massimo degli FPS da lei producibili) prima che la CPU abbia raggiunto il suo limite.

Facciamo degli esempi:
Caso 1: GPU 100%, CPU 50%
Supponiamo che l'elaborazione di un fotogramma della scena geometrica del benchmark Unigine richieda l'esecuzione di 100.000 di istruzioni CPU.
Supponiamo che la CPU sia in grado di elaborare 10.000.000 di istruzioni al secondo.
Ne risulta che la CPU impiegherà 0,01 secondi per elaborare il fotogramma;
ovvero la CPU potrà elaborare un massimo di 100 fotogrammi in un secondo.

Supponiamo ora che la GPU XX3 impieghi invece 0,02 secondi per elaborare un singolo fotogramma,ne consegue che il massimo di fotogrammi che può produrre in un secondo è 50.

Durante il test, gli FPS arriveranno a quota 50 e non potranno aumentare a causa della GPU, contemporaneamente l'occupazione della CPU sarà pari al 50% giacchè per ogni 0,02 secondi di tempo che passa da tra un fotogramma e l'altro, la CPU sarà impegnata per solo 0.01 secondi e per il rimanente tempo rimarrà inoperativa.

Caso 2: GPU 100%, CPU 66.6%
Supponiamo ora di sostituire la XX3 con la XX4 la quale impiega 0,015 secondi per elaborare un singolo fotogramma del test Unigine; ne consegue che il massimo di fotogrammi che può produrre in un secondo è 66,66. (la stessa cosa si potrebbe ottenere overcloccando XX3)

Durante il test, gli FPS arriveranno a quota 66.66 e non potranno aumentare a causa della GPU, contemporaneamente l'occupazione della CPU sarà pari al 66.66% giacchè per ogni 0,015 secondi di tempo che passa da tra un fotogramma e l'altro, la CPU sarà impegnata per solo 0.01 secondi e per i rimanenti 0.005 secondi rimmarrà in attesa che la GPU sia pronta per il fotogramma successivo.

Così si spiega perchè la percentuale di utilizzo di CPU al test Unigine aumenta con l'aumentare della potenza della GPU; viceversa la percentuale di utilizzo della CPU diminuisce con l'aumentare della potenza CPU.

Caso 3: GPU 75%, CPU 50%
Prendiamo ora in considerazione il canale di comunicazione CPU->GPU.
Mettiamo il caso che per ogni fotogramma la CPU debba trasmettere alla GPU 100KByte di dati.
Supponiamo che il bus di comunicazione abbia una larghezza di banda pari a 5000KByte/s; in tal caso in un secondo potranno essere trasmessi una massimo di 50 "pacchetti" da 100KByte.

Cosa succede durante il test nel caso con la GPU XX3?
La GPU sarà al 100% con 50Fps e la CPU, sarà al 50%. (come nel Caso 1)

Sostituendo la GPU XX3 del nostro esempio con la XX4 otterremo che la GPU non potrà raggiungere i suoi 66.66Fps massimi perchè dal bus gli arriveranno solo 50 pacchetti di dati al secondo; per cui la GPU si assesterà al 75% di occupazione perchè eseguirà l'elaborazione in 0,015 secondi ma dovrà attendere 0,005 secondi prima dell'arrivo del pacchetto dati successivo.
Nel mentre la CPU sarà occupata al 50% perchè eseguirà l'elaborazione in 0,01 secondi ma dovrà attendere 0,01 secondi prima che il bus si liberi e permetta di inviare il nuovo pacchetto dati.

halnovemila
14-06-2009, 00:18
Terzo Grafico. BenchMark CPU di Crysis a 800 • 600 e impostazioni "Low"
Questa prova l'ho fatta per testare quanto influenzasse a questa risoluzione la GPU. Come è possibile notare qui la percentuale di utilizzo della GPU cala di molto assestandosi attorno al 60%.
http://g.imagehost.org/0685/graph2_800-600.png (http://g.imagehost.org/view/0685/graph2_800-600)

Ottimo esempio di condizione "bus limited".
La GPU lavora a meno del 100% e la CPU pure.

Nomak87
14-06-2009, 08:15
Ottimo esempio di condizione "bus limited".
La GPU lavora a meno del 100% e la CPU pure.

Scusa, io sicuramente non sarò competente, però il fatto che CPU e GPU lavorino a meno del 100% non è da attribuire al fatto che le impostazioni sono a una risoluzione bassa (800x600) e con dettaglio grafico infimo (LOW)?!
Forse non è da attribuire allo SLOT ma al fatto che ai due processori non serve tutta la loro potenza per raggiungere il massimo di elaborazione?
Se ho detto delle scemenze mi scuso anticipatamente!
Però non è che se i componenti non lavorano al 100% allora vuol dire che siamo in una situazione di limite di comunicazione fra le varie componenti hardware...

Six1
14-06-2009, 09:41
Il fatto che CPU e GPU lavorino a meno del 100% non è da attribuire al fatto che le impostazioni sono a una risoluzione bassa (800x600) e con dettaglio grafico infimo (LOW)?!
Forse non è da attribuire allo SLOT ma al fatto che ai due processori non serve tutta la loro potenza per raggiungere il massimo di elaborazione?
Però non è che se i componenti non lavorano al 100% allora vuol dire che siamo in una situazione di limite di comunicazione fra le varie componenti hardware...
Quoto quanto detto.

Domanda:
Perchè il test Unigine Sanctuary Demo si può definire CPU indipendente?

Risposta "empirica":
perchè, a parità di scheda video, si ottengono gli stessi risultati sia con CPU molto potenti che con CPU ormai datate.

Inoltre ripeto:
Che se si ottengano gli stessi risultati non significa che la CPU non lavori, qualsiasi essa sia.
Poi è ovvio che la GPU faccia il massimo del lavoro altrimenti Ungine non potrebbe essere definito/utile BenchmarK per GPU.

Six1
14-06-2009, 14:46
Bene ragazzi!!!
Se siete daccordo io direi per ora di mettere da una parte questo argomento (SLOT4x) e di andare avanti con altro. Ci torneremo, nel frattempo comunque sentitevi sempre liberi in qualsiasi momento di ripostare eventuali vostre nuove idee e studi in merito, in caso questo avvenga riprenderemo l' argomento in quel mentre, ma non voglio che questo diventi l' argomento unico del Thread.
Come promesso a più di qualcuno di voi vorrei adesso riproporre i Benchmark di Futuremark.
Quindi Crysis/Benchmark rimarrà aperto a chi volesse riproporre nuovi Benchmark magari perchè ha appena acquistato un nuovo Hardware o semplicemente migliorato con varie limature le Performance del proprio sistema. Giochi/Benchmark verranno riproposti in futuro, forse il prossimo sarà UT3 Benchmark( poichè in questo gioco le schede nVidia in parte sostituiscono il lavoro della CPU utilizzando la nuova tecnologia Phisx che permette a una GPU parte della gestione della Fisica nei video Giochi e non solo) Questo studio potrà tornarci utile anche per riprendere il discorso dello SLOT4x dove da come più volte abbiamo detto vi è un buon flusso di dati in parte provenienti dalla CPU stessa. Quindi si presuppone che poi quello che la GPU gestirà in autonomo non verrà più richiesto alla CPU e quindi molti di questi dati non andranno ad occupare parte dello SLOT PCIEx qualsiasi esso sia 4x, 16x.
Questo potrebbe migliorare le prestazioni ulteriormente su Slot PCIEx4x.
La mia scelta di acquistare una GPU GTS250 che appunto supporta la Tecnologia Phisx di nVidia non è proprio dovuta al caso.

Detto questo:
Io direi di iniziare con 3DMark2006:



http://img197.imageshack.us/img197/2752/180pxfuturemarklogo.jpg (http://img197.imageshack.us/i/180pxfuturemarklogo.jpg/)3DMark 2006__________Go!

http://img82.imageshack.us/img82/2486/3dmark06montagna.jpg (http://img82.imageshack.us/i/3dmark06montagna.jpg/)-

In prima pagina riproporrò questo che vi sto per scrivere con poi il completamento di tutte le regole in generale per partecipare a questa nuova iniziativa/sfida tra i nostri Hardware.
Qualcuno di voi ha già postato i suoi risulatati in precedenza, non potrò prenderli in considerazione quindi chiedo gentilmente che ognuno di Voi riposti i propri risultati seguendo le regole che vi sto per presentare:



Link Download 3Dmark 2006:
http://www.futuremark.com/benchmarks/3dmark06/introduction/ -http://img193.imageshack.us/img193/5259/dragov.jpg (http://img193.imageshack.us/i/dragov.jpg/)

Io ad ogni vostro Benchmark effettuato riporterò in prima pagina... nello spazio che sto per allestire quanto segue:
Il Benchmark effettuato, l' Hardware utilizzato, il Sistema Operativo usato, e i parametri impostati per testare L' hardware con il Benchmark in ogetto e ovviamente specificherò il nome dell' Autore del Benchmark tutti i risultati formeranno di conseguenza una classifica.
Sono ammessi alla Partita ovviamente tutti quei partecipanti che soddisferanno questi requisiti:
- Possessori di:
Asrock 4CoredualSata2
Asrock 4CoredualSata2 Rev 2.0

- Le regole:

1. E' ammesso Overclock, ovviamente solo per completezza di informazione comunque va specificato nel momento che si postano i risultati, specificando cosa avete Overclocckato e quanto.

2. Quando Postate il risultato specificate tutto l' Hardware utilizzato(sottolineando che il Benchmark è stato effettuato sulla 4CoreDualSata2 e/o Rev 2.0 in aggiunta postate l' immagine di CPUZ parte Mainboard dove si specifica il nome della Mobo, chipset ecc...), GPUZ, il Sistema Operativo usato e....
I parametri che avete impostato, quindi nel caso di 3DMark 2006 la Risoluzione utilizzata Anti-Aliasing, Filtering, HLSL VS Target.

3.I risultati potete postarli alla risoluzione che ritenete migliore per essere consultati, tenendo conto di postarli in miniatura i quali comunque consultabili alla risoluzione originale "cliccandoci sopra" (questo è un obbligo per il rispetto di tutti gli utenti che non dispongono di una linea Internet Veloce) quindi in definitiva seguendo le istruzioni adesso mensionate aggiungete lo screenshoot dell' immaggine del Benchmark 3DMark06 a test completato con ovviamente rispettivi risultati.

Un esempio tipico da seguire è quello qui di seguito sia per il discorso della miniatura che per l'ordine e la completezza con cui è stato postato il Risultato del Benchmark (Il Post è di jamby93 ;) ):
http://img189.imageshack.us/img189/1627/jamby93.th.png (http://img189.imageshack.us/i/jamby93.png/)
Unica mancanza su tale Post è l' assenza in chiaro di questi parametri che voi dovrete per l' appunto aggiungere:
Risoluzione utilizzata, Anti-Aliasing, Filtering, HLSL VS Target. (come da regola sopra riportate)

Se ho dimenticato qualcosa integrerò.






Buon Benchmark a tutti e che la SFIDA abbia inizio!!! :boxe:


-

TaiKaliso
14-06-2009, 16:05
Rieccomi! La scuola è quasi finita :mc: e mi sono liberato di gran parte dei problemi....
Positivamente per fortuna.
Ho letto con calma e attenzione quanto scritto sul 4x, concordo con Six1 che per ora con i dati che abbiamo sottomano, alla 4850/70 non è imposto nessun limite. I dati postati da halnovemila sono una quantità innumerevole di numeri ma in sostanza poco porta a chiarire quanto il PCIexpress sia limitato e se limita.
Comunque non voglio riprendere un argomento sul quale Six1 ha messo giustamente un freno visto che ormai l' oggetto del thread sembrava il PCIex4x :doh:

Bella invece quest' altra iniziativa del bench 3DM06!
Non appena posso posto i miei risultati( forse se ci riesco anche con nuovo Hardware ma non vi svelo di più :Perfido: )

Ciao a tutti e a presto!

:sofico:

Diego72
14-06-2009, 16:42
Qualcuno di voi utilizza una scheda TV magari dvb-s2 con questa scheda madre?
Magari una Twinhan 1041 Mantis?

halnovemila
14-06-2009, 16:47
Scusa, io sicuramente non sarò competente, però il fatto che CPU e GPU lavorino a meno del 100% non è da attribuire al fatto che le impostazioni sono a una risoluzione bassa (800x600) e con dettaglio grafico infimo (LOW)?!
No.
La bassa risoluzione consente alla GPU di raggiungere livelli "altissimi" di FPS e, come dicevo sopra, di "tirarsi dietro" la CPU...
ad un certo punto una delle due tra CPU e GPU dovrebbe arrivare al 100% e determinare il livello di occupazione dell'altra...
ma in questo caso vediamo che non succede.
Nel grafico nessun core della CPU è al 100% (se ce ne fosse anche uno solo, allora si potrebbero fare altre ipotesi), ma nemmeno la GPU è al 100%... c'è qualcos'altro che frena, qualcosa in mezzo tra CPU e GPU che è al "suo" 100% e frena gli atri due.


Però non è che se i componenti non lavorano al 100% allora vuol dire che siamo in una situazione di limite di comunicazione fra le varie componenti hardware...
Sì, senz'altro siamo in una situazione "di limite di comunicazione fra le varie componenti hardware".
Il problema potrebbe essere anche la larghezza di banda della RAM, ma nel sistema di Jamby questa supera sicuramente i 5GByte/s, mentre lo slot PCI-E@4x raggiunge "appena" 1GByte/s.

@tutti
Vorrei aggiungere una considerazione che forse troverà d'accordo anche Six1.
Quando si parla di "limited" ci si può riferire a CPU, GPU, RAM e altre componenti, come il bus di comunicazione CPU->GPU.
Ovviamente in "ogni condizione" e in ogni sistema c'è sempre qualcosa che raggiunge il suo 100% prima degli altri e crea la condizione di "limited".
Ma il concetto di "limited" deve essere messo in relazione al concetto di "giocabilità", di fruibilità.
Poco importa infatti essere "CPU limited" se comunque, durante un gioco gli FPS non scendono mai sotto i 60Fps.
Giusto?
Lo stesso può dirsi nel caso del "bus limited"...
se, supponiamo, il bus PCI-E@4x si saturasse e creasse la limitazione alla GPU che però continua a produrre 80Fps... chi se ne importa?

Riguardo al caso da me sollevato con CoD4, il fatto che "IN UN PUNTO SPECIFICO", di un GIOCO specifico, io abbia misurato una prestazione della HD4 870 inferiore a quella della HD3 850 AGP (che attualmente rappresenta il top sull'AGP, eccezion fatta per la HD4670 AGP), pone un interrogativo importante da non sottovalutare poichè, come nel mio caso, c'è il rischio che l'acquisto di tale scheda, fintanto che rimane installata sulla 4CoreDual-Sata2, abbia dei rendimenti talmente "limitati" da pregiudicare la "giocabilità", "fruibilità"... almeno in CoD4.

Certo è che "in media" la HD4870, installata sulla 4CoreDual-Sata2, è in grado di produrre più FPS della migliore scheda AGP attualmente diffusa sul mercato (sempre eccezion fatta per la HD4670 di cui non ho dati sperimentali a disposizione).

Putroppo le medie sono fatte di "valli e di monti"... mentre per giocare "bene" c'è bisogno soprattutto di "pianure"... tipo 60Fps... preferibilmente costanti
:)

Saluti
Alessio
.

jamby93
14-06-2009, 17:55
Bene ragazzi!!!
Se siete daccordo io direi per ora di mettere da una parte questo argomento (SLOT4x) e di andare avanti con altro. Ci torneremo, nel frattempo comunque sentitevi sempre liberi in qualsiasi momento di ripostare eventuali vostre nuove idee e studi in merito, in caso questo avvenga riprenderemo l' argomento in quel mentre, ma non voglio che questo diventi l' argomento unico del Thread.


Innanzi tutto mi scuso (come in ogni mio nuovo post :D ) della scarsa presenza attiva sul forum, ma tra impegni personali e scarsità di tempo a disposizione su Internet mi risulta difficile commentare su tutti gli argomenti proposti, ma sappiate che li leggo sempre con piacere per arricchire le mie conoscenze. :D
Ad ogni modo, sul pc su cui è installata la nostra mobo posso passare molto tempo, dunque posso fare diversi test:D
Dunque...



Detto questo:
Io direi di iniziare con 3DMark2006:


Ed eccomi qui come richiesto..
Ho eseguito quindi 3D Mark 06 e fatto lo screen. Potete vederlo qui di seguito. Sono riuscito a farci stare 3 CPU-Z + GPU-Z + ATT.
http://f.imagehost.org/t/0541/Screen_completo.jpg (http://f.imagehost.org/view/0541/Screen_completo)

Ho raggiunto 11735 punti totali, poco superiore all'ultimo test che avevo eseguito (11719), con 4583 punti SM2.0, 5324 HDR e 3621 CPU. Un punteggio comunque di tutto rispetto per questa mobo e in generale:D
Per chi volesse approfondire i miei risultati, può scaricare il file Test.xls (58 KB) (http://f.imagehost.org/download/0722/Test)

Per scrupolo, ho fatto girare ATT durante tutta la durata del BenchMark e questo ne è il grafico che posto intero date le piccole dimensioni (meno di 80k)
http://f.imagehost.org/0932/Graph.png (http://f.imagehost.org/view/0932/Graph)

É facilmente visibile come la CPU abbia percentuali di utilizzo sempre molto basse se non, ovviamente, durante i due test CPU e i primi 3 Feature Tests. Fa eccezione il core 0 in quanto probabilmente almeno il suo utilizzo è necessario al render 3D.

Data la comoda funzione di 3D Mark 06, ho voluto anche eseguire due render di un preciso fotogramma per vedere realmente la differenza tra la presenza o meno di AA e FA.

Notare che sono tutti screen abbastanza grandi (1-2MB) in quanto in Gif non si sarebbe mai vista nessuna differenza..

Frame 1 1280•1024 NO AA NO AT
http://f.imagehost.org/t/0524/gt1_2095_2.jpg (http://f.imagehost.org/view/0524/gt1_2095_2)

Frame 1 1280•1024 AA 8X AT 16X
http://f.imagehost.org/t/0378/gt1_2095.jpg (http://f.imagehost.org/view/0378/gt1_2095)

Frame 2 1280•1024 NO AA NO AT
http://f.imagehost.org/t/0636/hdr2_1428.jpg (http://f.imagehost.org/view/0636/hdr2_1428)

Frame 2 1280•1024 AA 8X AT 16X
http://f.imagehost.org/t/0752/hdr2_1428.jpg (http://f.imagehost.org/view/0752/hdr2_1428)

Se nel primo caso, soprattutto la presenza di AA fa notare notevoli differenze tra i due render, già nel secondo caso non si nota quasi nessuna differenza se non una migliore texture del tetto (in basso a destra) dovuta all'AT.
Non ho provato ad eseguire il test completo con le impostazioni massime ma credo che il framerate sarebbe caduto a picco, per delle migliorie relativamente basse. Per questo motivo secondo me, l'impostazioni di AA e AT andrebbe attivata nei giochi solamente se si ha davvero un framerate standard già molto alto.

Aspetto gli altri test per un confronto! :cool:

Dimenticavo le specifiche (anche se Six1 dovrebbe saperle già le mie.. :P )
Mobo: 4CoreDual-SATA2 (Bios 2.12)
Procio: Q6600 @2,52 Ghz (280*9)
GPU: ASUS EAH4850 1 GB @625/1000 con O.V di 0,038V
RAM: 2*2GB Kingston @280 Mhz @ 3-3-3-8
OS: Vista x64

roccia1234
14-06-2009, 19:28
oook ragazzi... altro giro di test!! ecco il 3dmark 2006:

http://img31.imageshack.us/img31/9430/3dmark06u.jpg (194 kb)

riassumo qua i punteggi:

sm2.0: 4811
hdr/sm3.0: 6135
cpu: 2305 :cry:

totale 11344

punteggio non male però la cpu castra parecchio, soprattutto in sm3.0 (anche se mi sarei aspettato che castrasse soprattutto in sm2.0. Per provare questo ho registrato l'uso della cpu/gpu durante il 3dmark tramite ati tray tools:

http://img150.imageshack.us/img150/8894/cpugpuusage3dmark.jpg

Nei due test sm3.0 si vede questo fatto, soprattutto in base artica, mentre in canyon è molto meno evidente.

HO notato che jamby93 ha fatto anceh altri test, quindi li ho fatti anche io, in seconda battuta perchè mi ero scordato di aggiungerli prima :fagiano: .

http://img522.imageshack.us/img522/8231/pixeltexel.jpg

Secondo me è molto interessante confrontare il valore calcolato di gpu-z (non so se l'avete notato, ma varia in base al clock di gpu e ram se chiudete e riavviate gpuz dopo il cambio) con quello rilevato dal bench 3dmark06.
Nel mio caso il valore pixel fillrate è praticamente in linea con quello calcolato (12,3 calcolato 12,02 rilevato) mentre il texture fillrate è non poco sotto (30,8 calcolato, 24,2 teorico).
jamby93 invece è abbastanza sotto in entrambe: calcolato 10-25, rilevato 7,2 -19 (pixel fillrate - texture fillrate).
Guardando i miei risultati ho pensato subito al cpu-limited, però per quelli di jamby93 è da escludere a priori. Potrebbe essere vista che castra le prestazioni?

Edit: le frequenze dei vari compneti usate durante il test sono:
cpu: 2,66 ghz (266x10)
ram 266 mhz 3-3-3-9 1t
vga: 770/920 (overclock di fabbrica... è il default della mia vga)

halnovemila
14-06-2009, 19:36
Post impeccabile jamby93 :)

E veramente interessante il grafico postato da Roccia1234 (da navigatore "digital-diviso" hai il mio OK per postarlo direttamente come ha fatto Jamby93) :)
Soprattutto nella parte relativa al test FireFly Forest...
Nè CPU, nè GPU al 100% in buona parte del test...:mbe:
caso da approffondire :rolleyes:

Six1
14-06-2009, 19:44
Post impeccabile jamby93 :)

Condivido! ;)

Comunque aspetto anche un tuo Post di 3Dmark06 per vedere in azione il tuo sistema.....
Arriverà?
Se si, sarà sicuramente molto interessante.

Ne approfitto per fare i complimenti anche a roccia1234 che nostante il CPU limitato ha raggiunto un punteggio considerevole.
Si forse jamby93 potrebbe essere un pochino più limitato da Vista.....
Vista purtroppo ovunque, prima o poi ci mette lo zampino, tu ne sai qualcosa no? :asd:

jamby93
14-06-2009, 20:46
Post impeccabile jamby93 :)

Condivido! ;)

Grazie a entrambi per i complimenti! :) Quando faccio una cosa la faccio per bene :sofico:


Si forse jamby93 potrebbe essere un pochino più limitato da Vista.....
Vista purtroppo ovunque, prima o poi ci mette lo zampino, tu ne sai qualcosa no? :asd:

(Chi non vuole non legge.. :) )
Mah, guarda, tutti questi aspetti negativi che noti, forse li hai notati se hai provato Vista per pochi giorni se non ore.. o versioni base.. Io ti so dire che con Vista Ultimate x64 mi trovo veramente benissimo, mooooooooolto più reattivo di XP soprattutto all'avvio (XP rimaneva 20 anni a caricare l'inesistente, con Vista e Sospensione, ho il pc acceso in 3 secondi di numero) ma anche molto in generale nell'uso "comune".. Forse nel giochi qualche frame lo prende Vista.. Su questo non posso metterci la mano sul fuoco, perchè dovrei fare dei test approfonditi, ma di certo non sono perdite assolutamente notabili "ad occhio".
Ho notato un boost di performance notevole anche passando dai 32bit ai 64bit.
In più considera che Vista è 10 volte più sicuro di XP.
Almeno dai primi test, posso anche confermare che risulta più performante di Seven RC1:D

Six1
14-06-2009, 21:33
X jamby93

Non ho capito.....:confused: :mbe:

Comunque io ho risposto a questo interrogativo:
Guardando i miei risultati ho pensato subito al cpu-limited, però per quelli di jamby93 è da escludere a priori. Potrebbe essere vista che castra le prestazioni?
Dopo aver visto il forte calo(veramente consistente) di prestazioni che aveva riscontrato roccia1234 con W. Vista64(magari ti sei perso questo passaggio qualche pagina fà)..... tanto da spingerlo a tornare a W. Xp ho ipotizzato che con W. Xp tu potessi fare molto di più di quanto fai puntualmente con W. Vista con il Benchmark 3DMark2006.
Tutto qui, non ci sono dietrologie di nessun tipo.
Magari non ho capito....potresti spiegarmi a cosa alludevi? :confused: :mbe:

jamby93
14-06-2009, 21:47
X jamby93

Non ho capito.....:confused: :mbe:

Comunque io ho risposto a questo interrogativo:

Dopo aver visto il forte calo(veramente consistente) di prestazioni che aveva riscontrato roccia1234 con W. Vista64(magari ti sei perso questo passaggio qualche pagina fà)..... tanto da spingerlo a tornare a W. Xp ho ipotizzato che con W. Xp tu potessi fare molto di più di quanto fai puntualmente con W. Vista con il Benchmark 3DMark2006.
Tutto qui, non ci sono dietrologie di nessun tipo.
Magari non ho capito....potresti spiegarmi a cosa alludevi? :confused: :mbe:
Certamente che ricordo i suoi problemi su Vista che lo spinsero a tornare a XP, ma credo fossero dovuti al caso; Invece avevo capito male la tua affermazione :doh: Credevo ti riferissi in generale e che il "tu ne sai qualcosa no?" fosse riferito a me :stordita:
Chiedo scusa.. :)
In ogni caso quello è pur sempre quello il mio pensiero su Vista... e non ritengo che con XP potrei avere dei risultati molto migliori.. ma sarebbe da provare prima di esserne certi..

Six1
14-06-2009, 21:55
Ok, piccolo malinteso risolto. ;)
Si.... sarebbe interessante che tu possa provare con W.Xp.
Comunque vedi tu..... già è ottimo il lavoro che hai fatto, che non mi sento di chiederti altro.
Complimenti ancora per l' accortezza e completezza dei tuoi Post, sono da esempio per tutti. ;)

jamby93
14-06-2009, 22:01
Ok, piccolo malinteso risolto. ;)
Si.... sarebbe interessante che tu possa provare con W.Xp.
Comunque vedi tu..... già è ottimo il lavoro che hai fatto, che non mi sento di chiederti altro.
Complimenti ancora per l' accortezza e completezza dei tuoi Post, sono da esempio per tutti. ;)
Grazie, ma mi sembrano complimenti fin troppo esagerati per dei semplici post.. Mi lusingano..:rolleyes:
In ogni caso non mi spiacerebbe affatto provare con XP, ma purtruppo l'Hard Disk su cui è installato l'ho tolto tempo fa dal pc e dovrei ricollegarlo.. Forse in questi giorni che ho più tempo riuscirò a farlo, ma non contateci troppo! :D Mi saprò dire..

Six1
14-06-2009, 22:10
Grazie, ma mi sembrano complimenti fin troppo esagerati per dei semplici post.. Mi lusingano..:rolleyes:
:fiufiu: facciamo i modesti.....:p
In ogni caso non mi spiacerebbe affatto provare con XP, ma purtruppo l'Hard Disk su cui è installato l'ho tolto tempo fa dal pc e dovrei ricollegarlo.. Forse in questi giorni che ho più tempo riuscirò a farlo, ma non contateci troppo! :D Mi saprò dire..
Ok, come detto vedi tu.

halnovemila
14-06-2009, 22:25
aspetto anche un tuo Post di 3Dmark06 per vedere in azione il tuo sistema.....
Arriverà?

Ho fatto una ricerca nella cartella documenti del mio PC con la 4CoreDual-Sata2.
Al momento di benchmark 3DMark06 con la 4CoreDual-Sata2, di cui dispongo dello screenshot sono 200.
http://immagini.p2pforum.it/out.php/i419435_Cerca3DM06.gif

Di questi 200, 176 sono relativi alla HD3850 AGP, i rimanenti 24 si riferiscono alla HD4 870 Vapor-X PCI-E
http://immagini.p2pforum.it/out.php/i419437_Cerca3DM064870.gif

Per la cronaca ci sono anche:
13 test Unigine Sanctuary demo ver. 0.4,...
http://immagini.p2pforum.it/out.php/i419480_CercaUnigine4870.gif

... gli screenshot relativi ai test di misurazione della larghezza di banda RAM che eseguo ogni volta che cambio timings, frequenza, o altre impostazione relative,...
http://immagini.p2pforum.it/out.php/i419440_CercaRAM.gif

... i risultati del test "statico" con Frontlines Fuew of War,...
http://immagini.p2pforum.it/out.php/i419453_CercaFF0W.gif

e gli screenshot relativi ai test "statici" e "dinamici" effettuati con CoD4, la HD3 850 AGP e la HD4 870 PCI-E...
http://immagini.p2pforum.it/out.php/i419442_CercaCoD4.gif

Ma questi ultimi, in realtà non li ho mai fatti, me li sono "inventati" per darti fastidio e per insinuare l'insopportabile dubbio che il bus PCI-E@4x possa costituire un collo di bottiglia in grado di limitare la HD4 870 oltre ogni aspettativa ;)

Comunque, tornando ai test 3DMark06, se mi dici quale dei 200 presenti nel mio archivio può interessare di più lo posto volentieri...
:)

Si forse jamby93 potrebbe essere un pochino più limitato da Vista.....
Vista purtroppo ovunque, prima o poi ci mette lo zampino, tu ne sai qualcosa no? :asd:

Già, vedo che ti ricordi :)
Io pure, con Vista (32bit), ho registrato un calo di prestazioni, sul 3DMark06, rispetto a XP.
Per esempio il test HDR2 è passato da 46.281 a 43.395 FPS (-7%) e il punteggio complessivo da 9697 a 9321 (-4%)...
pertanto credo anch'io che i risultati di Jamby93 siano condizionati negativamente dal sistema operativo;
curiosamente, però, al test FireFly Forest, laddove Roccia1234 ha sia CPU e GPU con utilizzo inferiore al 100%, Jamby sembrerebbe CPU limited (almeno in una parte del test) dato che il Core0 è al 100% (3DMark usa sempre un solo core nei test 3D), mentre l'utilizzo della GPU è a poco meno del 70%.
Il risulato del test è però praticamente identico:
40,996Fps per Jamby e 40,916 per Roccia

Saluti.
Alessio
.

Six1
14-06-2009, 22:52
e gli screenshot relativi ai test "statici" e "dinamici" effettuati con CoD4, la HD3 850 AGP e la HD4 870 PCI-E...
Ma questi ultimi, in realtà non li ho mai fatti, me li sono "inventati" per darti fastidio e per insinuare l'insopportabile dubbio che il bus PCI-E@4x possa costituire un collo di bottiglia in grado di limitare la HD4 870 oltre ogni aspettativa

:eek:
Ma è sarcasmo vero?

Comunque tornando al 3Dmark2006, se puoi, cerca di postarmi il Post dove a tuo parere il tuo sistema ha dato il meglio possibile. Vorrei che foste Voi a scegliere le impostazioni con le migliori combinazioni disponibili di cui sieti maggiormente soddisfatti.

halnovemila
14-06-2009, 23:20
:eek:
Ma è sarcasmo vero?
Non so... tu che dici?
uno che spende centinaia di ore della propria vita per fare centinaia e centinaia di test... lo fa per dare fastidio agli altri?
o per cercare risposte che non trova altrove?

Comunque tornando al 3Dmark2006, se puoi, cerca di postarmi il Post dove a tuo parere il tuo sistema ha dato il meglio possibile
Ottimo, così mi evito di fare l'upload dello screen e riciclo uno dei post pubblicati nella discussione sulla HD3 850 AGP.

http://immagini.p2pforum.it/out.php/t370970_3DM0611713C2D3.5GHzRAM292Cat.8.6HD3850837.1089.jpg (http://immagini.p2pforum.it/out.php/i370970_3DM0611713C2D3.5GHzRAM292Cat.8.6HD3850837.1089.jpg)
Scheda overcloccata a 837/1089
3DMark06 default settings
Total score: 11713
SM 2.0 score: 4982
SM3.0 score: 5366
CPU score: 3052

Six1
14-06-2009, 23:43
Non so... tu che dici?
uno che spende centinaia di ore della propria vita per fare centinaia e centinaia di test... lo fa per dare fastidio agli altri?

Beh, sai non si sa mai......mi sono capitate delle cose in rete e non solo al quanto originali. Il mondo è bello perchè è vario, ma a volte è fin troppo vario per non dire avariato.
Comunque nel caso tuo non avevo dubbi, ma te lo chiesto per sicurezza a capir male a volte basta poco quindi è meglio chiarire tutto subito.;)
Comunque hai detto una cosa che condivido molto..... questa:
o per cercare risposte che non trova altrove?
Esatto questo Thread è incentrato proprio su questo scopo. Anche io per quello che posso cerco sempre di trovarmi le risposte da solo che non trovo altrove, o di cui non sono convinto.
Centinaia di ore.......
Che tu faccia le cose con dedizione e scrupolo non vi è dubbio.
Ci tenevo a dirti questo, adesso guardo con calma i tuoi Benchmark e poi ti dico.

Six1
15-06-2009, 00:13
Ottimo, così mi evito di fare l'upload dello screen e riciclo uno dei post pubblicati nella discussione sulla HD3 850 AGP.


Però niente male davvero.... riuscivi a rimanere stabile con quelle impostazioni?
Le Temperature come le gestivi?
Con quell' overclock in generale di quanto ti salivano le temperature CPU/GPU/Mobo?
non credo che si possa mantenere nel tempo una sistema così tanto tirato......
Adesso come stai messo? Sei tutto standard o vai sempre di overclock???
Se avessi avuto una situazione standard di quanto saresti stato sotto? (grosso modo)
Penso che quando le vede Nomak87 che ha grosso modo una configurazione simile alla tua non crederà ai suoi occhi......
Quando Giochi (se giochi) come lo imposti il sistema? Conoscendoti, secondo me lo imposti a seconda del gioco.

halnovemila
15-06-2009, 00:53
Preso da una sana dose di curiosità e dall'entusiasmo di mikepedo nella sua rincorsa verso il massimo punteggio, ho voluto anch'io sperimentare e ricercare il limite di overcloccabilità della mia HD3 850 compatibile con l'esecuzione del test 3DMark06 senza artefatti evidenti.
http://immagini.p2pforum.it/out.php/t370970_3DM0611713C2D3.5GHzRAM292Cat.8.6HD3850837.1089.jpg (http://immagini.p2pforum.it/out.php/i370970_3DM0611713C2D3.5GHzRAM292Cat.8.6HD3850837.1089.jpg)
Scheda overcloccata a 837/1089
3DMark06 default settings
Total score: 11713
SM 2.0 score: 4982
SM3.0 score: 5366
CPU score: 3052

Da notare che:
1) Il livello di overclock raggiunto è solo un "esercizio" agonistico perchè, in tale configurazione, la scheda non è assolutamente affidabile sui lunghi periodi di attività.



Adesso come stai messo? Sei tutto standard o vai sempre di overclock???

Tengo la CPU@3.3GHz (12x275) e la HD3 850 a default.
Con tali impostazioni il punteggio 3DMark06 è pari a 9697

Quando Giochi (se giochi) come lo imposti il sistema? Conoscendoti, secondo me lo imposti a seconda del gioco.
Il gioco più recente a cui mi sono appassionato è CoD4.
Con CoD4 la HD3 850 AGP va bene anche senza OC.
Per il resto tutti gli altri giochi a cui sono interessato sono meno esigenti di CoD4 (parlo di BF2, Supreme Commander, Counter Strike).
Ho provato Frontlines Fuel of War, ma non ha entusiasmato; in compenso ho potuto osservare che alla risoluzione di 1024x768, con AA4x, e qualità massima, la HD3 850 a default segnava il passo; in quel caso l'overclock sarebbe stato molto indicato.
Ho provato anche la demo di Crysis... e devo dire che il gioco mi ha incuriosito... anche se io prediligo gli scenari contemporanei (alla CoD4/BF2) e il gioco cooperativo (alla BF2)... confido in Operation Flashpoint 2: Dragon Raising.
Anche per Crysis, Overall Quality su High res. 1024x768 e AA4x, i clock di default della HD3 850 non mi consentono di ottenere la fluidità e gli Fps a cui sono abituato.

halnovemila
15-06-2009, 01:07
@Jamby93 & Roccia1234
Potreste rifare il test impostando l'affinità del task 3DMark06 solo sul Core0 (tramite task manager)?

Facendo alcuni confronti e considerando quanto ho detto in precedenza, mi è venuto alla mente che, in effetti, Jamby93 potrebbe trovarsi in svantaggio rispetto a Roccia1234, non solo per il sistema operativo ma anche, forse soprattutto, per i 200MHz di meno della sua CPU QuadCore.

Saluti.
Alessio
.

Six1
15-06-2009, 13:01
confido in Operation Flashpoint 2: Dragon Raising.
beh a vederlo sembra un buon titolo.
http://www.youtube.com/watch?v=vnaNejQ7Qlo
E si staremo a vedere.....

A proposito di....

o per cercare risposte che non trova altrove?
Tu che risposte ti sei dato in merito al limite dei 3,3 G di memoria Ram massima gestita da questo Chipset?
Abbiamo costatato(ma tanto lo sai) che anche con sistemi operativi a 64bit il discorso non cambia.
Secondo te è un limite dato solo dal chipset o anche dal Bios disponibile?
Io come ti dicevo ho avuto uno scambio con AsrockUser, ma in questo argomento non mi ha saputo dire più di quanto già sapevamo.....
Tu mi sai dire qualcosa di più in merito? Che idea ti sei fatto?

halnovemila
15-06-2009, 18:04
Nel caso della 4CoreDual-Sata2 credo la limitazione sia di tipo hardware; ovvero non rimediabile via BIOS.
Ma ad essere sincero la cosa non mi ha interessato più di tanto;
Per l'uso che faccio io del PC (quasi esclusivamente in ambiente WindowsXP) sono già sufficienti 2GB; oltre 3GB di RAM sono quindi ampiamente abbondanti.
Tutti i test che ho fatto a suo tempo servivano a rispondere a questa domanda:
La CPU che possiedo/ho_acquistato è in grado di "saturare" la HD3 850 anche con i giochi più "pesanti"?
La risposta è stata: sì con il Core2Duo@3GHz o più;
no, con l'Athlon64 x2 4200+

La domanda, ancora senza risposta certa, che mi pongo oggi è invece questa:
Nel caso non si intendesse sostituire la 4CoreDual-Sata2 nel breve termine (entro 1 mese) ha senso comprare una HD4870 Vapor-X (che mi interessa soprattutto per la combinazione di potenza e silenziosità) in sostituzione della HD3 850 AGP?

Putroppo i risultati dei vari test disponibili utilizzano tutti vari tipi di "medie", pertanto eventuali cali di Fps della HD4, che fossero addirittura al di sotto di quelli prodotti dalla HD3 850 nello stesso punto del test/gioco, verrebbero bilanciati dai picchi di maggiori Fps prodotti dalla HD4 in molti altri punti.

Per avere un dato "certo" dovrei avere la possibilità di registrare gli FPS prodotti dalla HD3 e dalla HD4 lungo tutta una identica sessione di gioco con CoD4;
Poi dovrei scremare i risultati dai picchi di Fps che non mi interessano (tipo 70Fps o più, dato che la giocabilità e fluidità è abbastanza buona già a 60Fps) e dopo calcolare la media e vedere quale delle due schede garantisce meglio il frame rate di riferimento (60fps).

Per motivi di "fattibilità" io mi sono limitato a misurare gli Fps prodotti dalla HD4 870 su di un singolo fotogramma del gioco CoD4 (fotogramma da me scelto 13 mesi fa; quindi senza nessuna premeditazione in merito ad un futuro confronto con la HD4); lo stesso su cui ho misurato la HD3.

Quella misurazione "spot" di per sé non è sufficiente ad esprimere un giudizio definitivo sull'eventuale vantaggio/svantaggio di abbandonare la HD3 850 AGP per la HD4 870 ma, dato che la HD4 casualmente/sfortunatamente, proprio in quel punto del gioco preso come riferimento per il test, ha prodotto 14Fps in meno della HD3 (33 o 37 per la HD4 e 47 per la HD3) rimanendo, oltretutto, ben lontana dai 60Fps, la domanda di partenza si pone ancora con più forza.

Conclusione: nel dubbio credo che non affronterò l'acquisto della HD4 870 fino a quando non deciderò di cambiare anche scheda madre.

Saluti.
Alessio

Six1
15-06-2009, 19:13
sono già sufficienti 2GB; oltre 3GB di RAM sono quindi ampiamente abbondanti.
Certo hai ragione con Windows Xp sono più che abbondanti, lo saranno addirittura forse anche con Windows Seven se mantengono la linea di pensiero adottata con Windows Xp. Da quello che sembra Windows Seven dovrà essere molto più leggero, tenendo conto anche che questo Nuovo Sistema Operativo dovrà andare a sostituire Xp anche sui Notebook....Windows Vista era improponibile su quei prodotti (troppo pesante)

La domanda, ancora senza risposta certa, che mi pongo oggi è invece questa:
Nel caso non si intendesse sostituire la 4CoreDual-Sata2 nel breve termine (entro 1 mese) ha senso comprare una HD4870 Vapor-X (che mi interessa soprattutto per la combinazione di potenza e silenziosità) in sostituzione della HD3 850 AGP?
Avendo Tu avuto quel calo in quel punto del gioco di CoD4, non è detto che questo si ripeta in altri giochi e almeno nel breve tempo......
Io vedrei l' acquisto come un investimento, poi tanto qualsiasi scheda madre tu in futuro deciderai di acquistare questa ti rimarrà e comunque potrai montarla al 100% sulla nuova Mobo. Inoltre se la HD3850 è così rumorosa da qui a quando cambierai scheda madre vivrai nel silenzio. Poi sicuramente al 99% ti girerà tutto al massimo della sua potenza, quell' 1% che ti preoccupa è molto probabile che nemmeno lo incontrerai più. (almeno da qui a quando cambierai Mobo, e da quello che lasci intendere non sarà troppo in là con i tempi)
La HD3850 ciò non toglie che possa dare ancora parecchio, poi comunque dipende dalle tue aspettative di gioco, e dal tuo limite di sopportazione al rumore che produce, nonchè al tuo Budget attuale. ;)


XTutti..... Ok. Detto questo , ho aggiornato la prima pagina con i risultati dei Vostri Benchmark 3DMark2006 li trovate nella sezione Benchmark effettuati da noi Post3 (B)
In caso riscontriate qualche inesattezza nei valori riportati non in linea con quanto avete postato, o nei vostri profili, ditemelo che correggo. :)

Xhalnovemila...... mi occorrono tre cose da aggiungere sul profilo dei risultati Benchmark:
Bios ?
Mobo Rev 2.0 o No ?
Mi confermi che hai il Chipset Ultra? Mi ricordo le tue foto e il post in cui ci avvisavi che era inutile usare i tool CPUZ ecc. ecc.
Comunque se non si smonta la parte Chipset a questo punto nessuno di noi può capire quale chipset ha.....
Cercherò qualche Tool diverso dai soliti blasonati.... chissà che non riesca a differenziarli.......

halnovemila
15-06-2009, 22:54
Windows Vista era improponibile su quei prodotti (troppo pesante)
Secondo me alla Microsoft, quando hanno deciso i criteri di valutazione degli sviluppatori che lavoravano su Vista, se ne sono usciti con una regola tipo "chi fa più righe di codice e più velocemente viene pagato di più".
Siccome è molto più facile e veloce fare un sacco di codice non ottimizzato che fare il codice "grezzo" e poi ripassare e rielaborare il flusso del programma e le routine per evitare ridondanze e spreco di risorse, alla fine quello che viene fuori non può essere altro che un "mattone" come Vista...
Probabilmente, visto il flop e il malcontento generale, alla MS hanno fatto marcia indietro e hanno deciso di premiare chi spende un po' di tempo anche nell'ottimizzazione del codice.

Allora se pur vi fosse quel calo in quel punto in quel gioco, non è detto che questo si ripeta in altri giochi e almeno nel breve tempo......

Six1, scusa, non capisco proprio il senso di quel "condizionale" "se pur vi fosse".
I risultato della prova sperimentale che ho fatto non è "accidentale"; è perfettamente riproducibile... il test (che molto semplicemente consiste nel leggere gli FPS istantanei in un punto preciso della missione Charlie don't Surf di CoD4... di cui ho anche postato lo screenshot) l'ho ripetuto più volte e anche con diverse frequenze CPU e FSB e i risultati sono quelli che ho detto...
Che ragione avrei di inventarmeli?
O credi che premere F12 e leggere il numerino in alto a destra nello screenshot sia un attività troppo complicata per il sottoscritto per essere fatta senza errori?:mbe:

Per il resto sono d'accordo con te che dal caso particolare non si può trarre una regola generale.
Anche se... chi cerca trova...

Io vedrei l' acquisto come un investimento, poi tanto qualsiasi scheda madre tu in futuro deciderai di acquistare questa ti rimarrà e comunque potrai montarla al 100% sulla nuova Mobo.
Vero.
Però più aspetto, meno spendo, per cui è economicamente sconveniente, acquistare subito un componente HW con la prospettiva di fruire delle sue potenzialità solo in un secondo tempo quando il costo di quello stesso componente si sarà nel frattempo abbassato.

Inoltre se la HD3850 è così rumorosa da qui a quando cambierai scheda madre vivrai nel silenzio.
Verissimo :)
Comunque, al momento, il problema della rumorosità l'ho risolto così:
continuo ad usare il mio PC con l'Athlon64 x2 4200+, 2GB DDR, e Radeon X800Pro per l'uso quotidiano; mentre il PC "potente" con la 4CoreDual-Sata2, il C2D@3.3GHz, 4GB di DDR2 e la HD3850 lo accendo solo quando devo fare qualche test :rolleyes:
o giocare con gli amici... solo che sono così ospitale che poi alla fine sul quel PC ci gioca sempre qualcun altro :D

Poi sicuramente al 99% ti girerà tutto al massimo della sua potenza, quell' 1% che ti preoccupa è molto probabile che nemmeno lo incontrerai più. (almeno da qui a quando cambierai Mobo, e da quello che lasci intendere non sarà troppo in là con i tempi)
Forse ho lasciato intendere cose che non volevo.
Con tutto il tempo che ho passato sulla 4CoreDual-Sata2, tra modifiche al BIOS (penso di essere l'unico caso su Internet ad aver iniettato il microcodice dell'E8400 nel Bios della 4CoreDual), sperimentazioni con CPU ufficialmente non supportate (l'E8400 appunto), mod vari su e giù per tutta la mobo, servizi fotografici ad alta definizione, e pagina Web dedicata...
mi dispiacerebbe "abbandonarla".

La HD3850 ciò non toglie che possa dare ancora parecchio, poi comunque dipende dalle tue aspettative di gioco, e dal tuo limite di sopportazione al rumore che produce, nonchè al tuo Budget attuale. ;)
Già, appunto... la HD3850 è una scheda che ancora si difende bene per cui il margine di miglioramento con il passaggio ad una HD4 si assottiglia.
Se partissi da una X800, penso che potrei tranquillamente passare ad una HD4 anche con il bus PCI-E strozzato sull'1x sicuro di avere comunque un evidente miglioramento... ma ho una HD3850.

mi occorrono tre cose da aggiungere sul profilo dei risultati Benchmark:
Bios ?
Mobo Rev 2.0 o No ?
Mi confermi che hai il Chipset Ultra? Mi ricordo le tue foto e il post in cui ci avvisavi che era inutile usare i tool CPUZ ecc. ecc.
Comunque se non si smonta la parte Chipset a questo punto nessuno di noi può capire quale chipset ha.....
Cercherò qualche Tool diverso dai soliti blasonati.... chissà che non riesca a differenziarli.......
Bios: ora monto il 2.14a, ma al tempo del test probabilmente avevo il 2.10
rev. G/A 1.02
Il chipset è Ultra, così c'è scritto sulla superficie del die del chipset; mentre CPU-z (anche la versione 1.51) riporta PT880Pro.
Putroppo ho constatato che il chipset non è correttamente supportato da molti programmi diagnostici e vengono spesso riportati dati non esatti.
Per esempio 3DMark06 e Unigine non leggono correttamente il moltiplicatore CPU in uso con il risultato che riportano una frequenza di clock sempre pari all'FSB corrente moltiplicato il massimo moltiplicatore della CPU.
Così quando ho fatto i test con la CPU@2.2GHz e l'FSB@314, 3DMark riportava una frequenza CPU di 3,7GHz!
Eh... magari! :D
Sandra invece mi riporta valori sballati anche relativamente alle frequenze del bus AGP/PCI

Saluti.
Alessio
.

Six1
15-06-2009, 23:49
Secondo me alla Microsoft, quando hanno deciso i criteri di valutazione degli sviluppatori che lavoravano su Vista, se ne sono usciti con una regola tipo "chi fa più righe di codice e più velocemente viene pagato di più".
Siccome è molto più facile e veloce fare un sacco di codice non ottimizzato che fare il codice "grezzo" e poi ripassare e rielaborare il flusso del programma e le routine per evitare ridondanze e spreco di risorse, alla fine quello che viene fuori non può essere altro che un "mattone" come Vista...
Probabilmente, visto il flop e il malcontento generale, alla MS hanno fatto marcia indietro e hanno deciso di premiare chi spende un po' di tempo anche nell'ottimizzazione del codice.
E si.....lesivo pressapochismo x smania di un veloce guadagno.
Six1, scusa, non capisco proprio il senso di quel "condizionale" "se pur vi fosse".
I risultato della prova sperimentale che ho fatto non è "accidentale"; è perfettamente riproducibile... il test (che molto semplicemente consiste nel leggere gli FPS istantanei in un punto preciso della missione Charlie don't Surf di CoD4... di cui ho anche postato lo screenshot) l'ho ripetuto più volte e anche con diverse frequenze CPU e FSB e i risultati sono quelli che ho detto...
Che ragione avrei di inventarmeli?
O credi che premere F12 e leggere il numerino in alto a destra nello screenshot sia un attività troppo complicata per il sottoscritto per essere fatta senza errori?:mbe:
Tolgo il "Se pur" e lo sostituisco con "Avendo Tu avuto quel calo in quel punto del gioco di CoD4" ecc. ecc. ;)
Per il resto sono d'accordo con te che dal caso particolare non si può trarre una regola generale.
Anche se... chi cerca trova...
Indubbiamente.
Però più aspetto, meno spendo, per cui è economicamente sconveniente, acquistare subito un componente HW con la prospettiva di fruire delle sue potenzialità solo in un secondo tempo quando il costo di quello stesso componente si sarà nel frattempo abbassato.
Condivisibile.
Verissimo :)
Comunque, al momento, il problema della rumorosità l'ho risolto così:
continuo ad usare il mio PC con l'Athlon64 x2 4200+, 2GB DDR, e Radeon X800Pro per l'uso quotidiano; mentre il PC "potente" con la 4CoreDual-Sata2, il C2D@3.3GHz, 4GB di DDR2 e la HD3850 lo accendo solo quando devo fare qualche test :rolleyes:
o giocare con gli amici... solo che sono così ospitale che poi alla fine sul quel PC ci gioca sempre qualcun altro :D
Anche per me vale lo stesso, sono sempre lì a fare settaggi vari, cambi, controlli, Benchmark, ma al Computer ci Gioca quasi sempre qualcun altro......:doh: (Mio fratello in Primis, una sorta di collaudatore del pc):D
Forse ho lasciato intendere cose che non volevo.
Forse un pò si......
Con tutto il tempo che ho passato sulla 4CoreDual-Sata2, tra modifiche al BIOS (penso di essere l'unico caso su Internet ad aver iniettato il microcodice dell'E8400 nel Bios della 4CoreDual), sperimentazioni con CPU ufficialmente non supportate (l'E8400 appunto), mod vari su e giù per tutta la mobo, servizi fotografici ad alta definizione, e pagina Web dedicata... E' molto probabile che tu sia stato l' unico in assoluto.
mi dispiacerebbe "abbandonarla".
Allora non farlo......:D
Già, appunto... la HD3850 è una scheda che ancora si difende bene per cui il margine di miglioramento con il passaggio ad una HD4 si assottiglia.
Appunto, poi se l' accendi solo per Giocare il discorso del rumore passa in secondo piano, con l' audio attivo nei giochi(se hai un buon impianto audio) la ventola è l' ultima cosa che senti......Non sentivo io il Pentium 4ht con dissipatore originale e 3 ventole nel Case che durante i Giochi giravano a Palla....senza contare anche la ventola della GPU.:D
Se la ventola della GPU della HD3850 fà più rumore di quello che faceva il mio Case quando giocavo(Uno scalo di un aereoporto per renderti l' idea....fortunamente in Idle era abbastanza silenzioso :cool: ), prendila e frullala dalla finestra :asd:
Se partissi da una X800, penso che potrei tranquillamente passare ad una HD4 anche con il bus PCI-E strozzato sull'1x sicuro di avere comunque un evidente miglioramento... ma ho una HD3850. Beh....guardando al divario direi di si.
Bios: ora monto il 2.14a, ma al tempo del test probabilmente avevo il 2.10
rev. G/A 1.02
Il chipset è Ultra, così c'è scritto sulla superficie del die del chipset; mentre CPU-z (anche la versione 1.51) riporta PT880Pro.
Putroppo ho constatato che il chipset non è correttamente supportato da molti programmi diagnostici e vengono spesso riportati dati non esatti.
Per esempio 3DMark06 e Unigine non leggono correttamente il moltiplicatore CPU in uso con il risultato che riportano una frequenza di clock sempre pari all'FSB corrente moltiplicato il massimo moltiplicatore della CPU.
Così quando ho fatto i test con la CPU@2.2GHz e l'FSB@314, 3DMark riportava una frequenza CPU di 3,7GHz!
Eh... magari! :D
Sandra invece mi riporta valori sballati anche relativamente alle frequenze del bus AGP/PCI Mah....chissà che non riesca a trovare qualche tool in grado di differenziarli. Vedremo.....

Edit.
XTutti:
Ho trovato questo link.
pag.1 http://www.filefuel.net/sezioni/software_diagnostica_hardware_benchmark.htm
pag.2 http://www.filefuel.net/sezioni/software_diagnostica_hardware_benchmark_pag2.htm
con più di qualche utile tool per il riconoscimento anche molto dettagliato dei dati Mobo, Chipset ecc. ecc.
Per ora io non posso provarli(Pc in upgrade/lavoro) se qualcuno avesse voglia di farlo per togliersi la curiosità di che tipo di chipset monta in particolare, magari potrebbe iniziare ad utilizzarli e dirci se uno di queste è risultatato efficiente al nostro scopo......
Se trovo altro ve lo posto. ;)

halnovemila
16-06-2009, 09:56
Toh!:)
sono andato a riguardarmi le foto che ho fatto alla mobo (in particolare quella del chipset in cui la dicitura 0718CD, credo proprio si riferisca all'anno/settimana del lotto di produzione: 18^ del 2007) e ho notato che in una si legge perfettamente il numero di revisione; esattamente sotto la scritta "SATA2"
http://www.controsensi.it/Mods/4CoreDual-SATA2/images/miniDissipatore_aggiunto_su_Mosfet_vAGP.JPG (http://www.controsensi.it/Mods/4CoreDual-SATA2/Contents.htm)
Sapendo dove guardare magari scopriamo che ci sono anche altre revisioni in giro...
no? :)

halnovemila
16-06-2009, 10:23
se qualcuno avesse voglia di farlo per togliersi la curiosità di che tipo di chipset monta in particolare, magari potrebbe iniziare ad utilizzarli e dirci se uno di queste è risultatato efficiente al nostro scopo...
Sì, ma per sapere se il tool funziona bisogna avere la certezza che riporti il dato corretto... e come si fa se non si smonta il dissipatore del chipset?
Comunque visto le ridotte dimensione (241KB) e il recente stato di aggiornamento (Feb/09) ho provato "System Analyser 5.3r"...
non fa il caso nostro... non riporta nemmeno il nome del chipset (giusto o sbagliato che fosse).

Saluti.
Alessio
.

Six1
16-06-2009, 11:31
Sì, ma per sapere se il tool funziona bisogna avere la certezza che riporti il dato corretto... e come si fa se non si smonta il dissipatore del chipset?
Comunque visto le ridotte dimensione (241KB) e il recente stato di aggiornamento (Feb/09) ho provato "System Analyser 5.3r"...
non fa il caso nostro... non riporta nemmeno il nome del chipset (giusto o sbagliato che fosse).

Saluti.
Alessio
.

Io penso che........ poichè tutti Noi (a parte te che hai smontato il dissipatore del Chipset) tramite CPUZ/Everest abbiamo sempre trovato scritto PT880Pro, nel caso in cui qualcuno con un nuovo tool riscontrasse nello specifico PT880Ultra questo potrebbe già essere di aiuto, altrimenti rimarrebbe solo l' opzione di smontaggio del dissipatore/chipset, ma non tutti hanno l' abilità o il tempo per eseguire tali operazioni. Quindi ho bisogno di trovare qualcosa che sia utile per tutti indistintamente dalle capacità/tempo di ognuno.

(System Analyser 5.3r"...) Escluso ok. Grazie. ;)


A proposito oggi mi sono soffermato un pò sul tuo sito, ho aggiunto un commento al tuo lavoro ;)
Inoltre penso di aggiungere il Link del tuo sito in prima pagina sarà molto utile a chi magari volesse imparare e conoscere qualcosa in più.
Di volta in volta ti farò delle domande in merito.....

Questa foto mostra un trimmer da 10K Ohm, che è stato saldato in sostituzione della equivalente resistenza SMD, indicata sul PCB con la scritta R2471.
Il trimmer (Resistenza Variabile, VR), è posto tra il pin 2 dell'IC LM324 e massa e agendo su di esso si può variare la tensione Vagp, dalla quale dipende in parte l'alimentazione del chipset (North Bridge).
Vicino al trimmer sono stati posti uno stuzzicadenti e la punta del saldatore a stagno utilizzato, al fine di dare un'idea delle dimensioni dei componenti inquadrati.Nel BIOS della 4CoreDual-Sata2 c'è l'opzione "AGP Voltage" che accetta tre valori: Auto, Normal, High.
In pratica al valore Normal corrisponde un Vagp di 1,60V mentre ad High e Auto 1,61.
Mediante il trimmer è stato agevolmente possibile aumentare Vagp fino a 1,75V fermando il cursore a circa metà corsa.
Link di riferimento: 775dual-vsta VDDR mod (by Mallet)

Che vantaggi apporta tale modifica? Quali vantaggi tangibili hai riscontrato?

Una alla volta ti farò tutte le domande del caso credo che saranno tante.....:D
Intanto inizio con questa.

Edit.
Complimenti anche per questo programma: DUTraffic_Reset&Run.vbs.
adesso ho la ADSL Flat, ma quando mi connetevo con cellulare con limiti di orario e limite di un mese..... mi sarebbe potuto tornare utile, lo terrò presente nel caso mi si ripresenti l' esigenza (sopratutto per lavoro) di utiizzare un collegamento UMTS con limiti orari e/o di periodo, nonchè di traffico consentito.
Aggiungerò sul tuo sito un commento anche su questo non appena avrò avuto il modo di provarlo.

halnovemila
16-06-2009, 12:05
nel caso in cui qualcuno con un nuovo tool riscontrasse nello specifico PT880Ultra questo potrebbe già essere di aiuto
Vero

A proposito oggi mi sono soffermato un pò sul tuo sito, ho aggiunto un commento al tuo lavoro ;)
Bel commento... apprezzato, grazie :)

Inoltre penso di aggiungere il Link del tuo sito in prima pagina sarà molto utile a chi magari volesse imparare e conoscere qualcosa in più.
Approvato :)


Che vantaggi apporta tale modifica?
Il vantaggio è quello di permettere una maggiore overcloccabilità dell'FSB.
Il cosidetto Vagp è la tensione di una linea di alimentazione che fornisce corrente sia al bus AGP che al chipset PT880.
Aumentando la tensione si rende più "resistente" il chipset quando lo si fa lavorare oltre le specifiche.
Ovviamente non bisogna esagerare; la scheda AGP potrebbe non gradire un eccesso di tensione sui pins Vddq (che secondo specifiche dovrebbe essere 1,5V) e neppure il chipset che finirebbe per scaldare troppo, soprattutto se il suo dissipatore è privo di ventola dedicata.
Io ho applicato un overvolt di +0.04V; in questo modo posso agevolmente impostare l'FSB anche a 300MHz senza alcuna "apparente" instabilità.
In realtà, ho verificato che al di sopra dei 276MHz, anche con l'overvolt, il blend test di Prime95/Orthos prima o poi rivela la presenza di un errore di elaborazione.
A 275 e 276MHz non ho avuto alcun errore anche dopo venti ore consecutive di test.
http://immagini.p2pforum.it/out.php/i417336_275x12OrthosOK20oreDRAMVoltageLow19V.PNG

Ho notato, tra l'altro che la tensione Vagp erogata dalla 4CoreDual-Sata2 sullo slot AGP è normalmente 1,61V (salvo overvolt. Tensione misurata con multimetro digitale direttamente sullo slot AGP pin #52 e/o #64 lato A)

Six1
16-06-2009, 12:28
Approvato :)
Ok, ottimo, allora quanto prima ti dedico un spazio in prima pagina, con tutte le indicazioni, Link, risposte che darai su questo Thread e immaggini del caso.
Ovviamente non mancheranno i diritti di autore a caratteri cubitali.;)
Il vantaggio è quello di permettere una maggiore overcloccabilità dell'FSB.
Il cosidetto Vagp è la tensione di una linea di alimentazione che fornisce corrente sia al bus AGP che al chipset PT880.
Aumentando la tensione si rende più "resistente" il chipset quando lo si fa lavorare oltre le specifiche.
Ovviamente non bisogna esagerare; la scheda AGP potrebbe non gradire un eccesso di tensione sui pins Vddq (che secondo specifiche dovrebbe essere 1,5V) e neppure il chipset che finirebbe per scaldare troppo, soprattutto se il suo dissipatore è privo di ventola dedicata.
Io ho applicato un overvolt di +0.04V; in questo modo posso agevolmente impostare l'FSB anche a 300MHz senza alcuna "apparente" instabilità.
In realtà, ho verificato che al di sopra dei 276MHz, anche con l'overvolt, il blend test di Prime95/Orthos prima o poi rivela la presenza di un errore di elaborazione.
A 275 e 276MHz non ho avuto alcun errore anche dopo venti ore consecutive di test.
Capito, Grazie..... ottima spiegazione.
Ho notato, tra l'altro che la tensione Vagp erogata dalla 4CoreDual-Sata2 sullo slot AGP è normalmente 1,61V
Ci sarà molto utile. Lo scriverò da qualche parte in prima pagina, devo ben capire dove inserirlo .... (penso comunque di inserirlo nelle specifiche tecniche dello slot AGP, mi sembra il punto più indicato)

halnovemila
16-06-2009, 13:15
Ci sarà molto utile. Lo scriverò da qualche parte in prima pagina
In realtà è solo un dettaglio dato che che quel +0,11V (che si riduce a +0.10 sell'opzione BIOS "AGP Voltage" viene imposta su "Normal") sulla tensione prevista dalle specifiche AGP non fa nulla di male, anzi.
In alcuni casi, tipicamente su chipset Via (tipo il KT400) è addirittura necessario agire sulla tensione AGP e aumentarla di qualche decimo di Volt per poter far funzionare correttamente alcune schede video (tipo le Radeon 9700).

jamby93
16-06-2009, 17:57
Il vantaggio è quello di permettere una maggiore overcloccabilità dell'FSB.
Il cosidetto Vagp è la tensione di una linea di alimentazione che fornisce corrente sia al bus AGP che al chipset PT880.

Nonostante sia in notevole "crisi", in quanto non riesco più a far bootare il disco con Vista x64 dopo aver tentato invano di reinstallare XP per fare i test con 3DMark, ora non parte più nemmeno vista :asd: , vi seguo lo stesso da altri computer.
XP mai più a vita, ma lasciamo perdere per non andare troppo OT:D

Se i vantaggi sono quelli che descrivi, mi interesserebbe parecchio riuscire ad eseguire una mod simile, per di più non sembra nemmeno complicata, anzi.. Mi basterebbe mettere quel trimmer o mi consigli di effettuare altre mod (vTT,vCore)? Perchè non avevo proprio pensato alla possibilità che aumentando la VAgp potesse aumentare anche quella erogata al chipset :D
Non sarebbe per niente male se in questo modo potessi schiodarmi dai 280...

roccia1234
16-06-2009, 18:11
ho letto ora tutto il po po di roba che avete scritto... questa cosa del vagp che agisce anche sul northbridge è moooooolto interessante!!! Quasi quasi vado anche io di modding pesante :D . Effettivamente sarebbe un toccasana... andare almeno a 280 di fsb, un po di vcore in più... nella mia situazione sarebbe un guadagno non da poco.

Un paio di domande... i trimmer li trovi nei negozi di parti elettroniche? basta tipo gbc o serve il negozio più specializzato? Seconda cosa. Per saldare io ho un saldatore da pochi soldi con la punta enorme (per il modding), però si può cambiare... te che punta hai usato? dimensioni? e le dimensioni del filo di stagno?

scusa per la raffica di domande... ho un po di dubbi :stordita:

Marx01
16-06-2009, 19:54
io vorrei acquistare questa scheda madre abbinandola a un processore che abbia il miglior rapporto qualita'/prezzo per sfruttare al massimo una ati 3850 agp e anche qualcos'altro in ottica futura,voglio un processore potente che me lo porto avanti per un po...quale mi consigliate''?:mc:
Poi attualmente ho 3 gb ddr kingstone(che non voglio cambiare) e volevo sapere se il sistema viene penalizzato non avendo delle ddr2...

Six1
16-06-2009, 20:16
io vorrei acquistare questa scheda madre abbinandola a un processore che abbia il miglior rapporto qualita'/prezzo per sfruttare al massimo una ati 3850 agp e anche oltre(tipo 4850 se mai uscira' agp)...quale mi consigliate''?:mc:
Poi attualmente ho 3 gb ddr kingstone(che non voglio cambiare) e volevo sapere se il sistema viene penalizzato non avendo delle ddr2...

Ciao e Benvenuto!
beh.... i migliori in assuluto che questa Scheda Madre supporta sono il Q6600 e il Q6700, il primo ha sicuramente il miglior prezzo rapporto prestazioni.....
Sale molto bene in Overclock, basta OvercloccKarlo un pochino e raggiunge senza problema la frequenza del Q6700.
Ciò non toglie che comunque supporta anche ottimi Core2duo in prima pagina di questo Thread trovi la lista dei Proci supportati.
Dove trovi, inoltre, qualche dimostrazione di efficienza dei due Quad consigliati.
Per consultare in maniera pratica e veloce la prima pagina del Thread consulta l' indice.

Ad ogni modo io ho preso da poco il Q6700 nuovo(Tray) l' ho pagato 150 euro....quindi ormai visto che i prezzi si sono abbassati potresti pensare anche di prendere il Q6700.
Se ho trovato il Q6700 a quel prezzo, secondo me la versione Tray del Q6600 o addirittura boxata la trovi a molto meno......
Quindi fatti due calcoli e poi decidi.....
Inoltre non so se sei a conoscenza del fatto che è uscita la HD4670 AGP, in prima pagina in ultime news trovi qualcosa su questo, altrimenti vai qui:
http://www.hwupgrade.it/forum/showthread.php?t=1994489

Comunque secondo me è molto più probabile che facciano prima la 4770 AGP(molto valida), che la 4850 AGP......

Per il discorso delle DDR-2 che non hai.....
Dipende sopratutto dal Procio che sceglierai. I Proci dal Core2duo in poi se appoggiati da Ram DDR-2 è meglio, per i Quad io direi che sono indispensabili per creare un buon equilibrio del sistema.

Marx01
16-06-2009, 20:24
ok ti ringrazio per la risposta,quindi non cambiando la ram cosa mi consigli di poter metter al massimo come processore?

Six1
16-06-2009, 20:33
ok ti ringrazio per la risposta,quindi non cambiando la ram cosa mi consigli di poter metter al massimo come processore?

Io partirei sicuramente almeno da un DualCore, per questi aspetta comunque che ti suggerisca qualcun altro su questo Thread. In tutti quelli elencati non saprei con sicurezza quale consigliarti. Mi verrebbe da dirti quello con maggior frequenza e migliore cache, ma poi tra quelli potrebbe esserci quello che sale di più in Overclock ecc. ecc.

Edit.
P.S.
Lo sai che per usare i 3G di ram devi utilizzare i Bios Moddati/stabili e completi vero?
Se mantieni il Bios ufficiale puoi usare al massimo fino a 2G in dual-channel......

Marx01
16-06-2009, 20:38
si sicuro dual core voglio mettere e quello piu' potente che non viene "tarpato" dalla mia ram attuale possibilmente... :stordita:


p.s. per il bios non e' un problema lo aggiorno successivamente

Six1
16-06-2009, 20:40
si sicuro dual core voglio mettere e quello piu' potente che non viene "tarpato" dalla mia ram attuale possibilmente... :stordita:


p.s. per il bios non e' un problema lo aggiorno successivamente

hai DDR-400 almeno ?

Marx01
16-06-2009, 20:42
si ddr 400 :fagiano:

Six1
16-06-2009, 20:43
si ddr 400 :fagiano:

Ok, allora con un Pentium DualCore dovresti andar bene. ;)

Marx01
16-06-2009, 20:49
Ok, allora con un Pentium DualCore dovresti andar bene. ;)

buono a sapersi,il mio problema piu' grosso prima di fare questo upgrade era questo...ma che sia un dual core che sfrutta al massimo la mia scheda video e magari oltre pero' :sperem:

roccia1234
16-06-2009, 21:27
ciao!
secondo me con un pentium dual core e una hd3850 agp vai bene, a patto che fai un po di oc al processore... secondo me almeno 2,4 ghz sono necessari per sfruttare al meglio quella vga... tieni presente che ha solo 1 mb di cache e nei giochi castra molto. Se vai oltre come vga devi overcloccare più che puoi o accontentarti di quello che può fare, come sto facendo io in attesa dei soldi per il cambio. Per darti un'idea... a the witcher, impostazioni grafiche tutte al max, compreso AA4x e af 16x, la cpu è sempre tra il 98% e il 100%, mentre la vga tocca a malapena il 50-60%. In altri giochi si fa sentire meno, in altri di più, ma non pregiudica mai la giocabilità di un qualsiasi titolo... pure cryostasis non scende mai sotto i 30 fps, 1280x1024 tutto al max.

Dimenticavo... se prendi un pentium dual core prendilo con il motli più alto possibile (credo sia e2220 con molti 12x) perchè questa mobo sale pochissimo di fsb (max 270-280 senza mod e a seconda dei casi) e non permette overvolt al vcore. Se riesci a prendere in e4xxx oppure e5xxx con più cache, è tutta manna dal cielo per i giochi

Se hai altre domande chiedi pure

Marx01
16-06-2009, 21:39
ciao,non sono sicuro...ma l'altro giorno ho visto in un negozio un pentium coreduo mi sembra E4xxx ma non ricordo di preciso a 2,5 ghz,comunque era indicata la cache sul cartellino di fianco a 6mb :mbe: ...io in prima pagina non ne ho visti con questa cache e il prezzo era 70 euro...possibile?

p.s. questo sarebbe perfetto per me

edit: googlando ho trovato che forse era coreduo E5200,con 2mb cache L2,fsb a 800mhz...

Six1
16-06-2009, 21:59
ciao,non sono sicuro...ma l'altro giorno ho visto in un negozio un pentium coreduo mi sembra E4xxx ma non ricordo di preciso a 2,5 ghz,comunque era indicata la cache sul cartellino di fianco a 6mb :mbe: ...io in prima pagina non ne ho visti con questa cache e il prezzo era 70 euro...possibile?

p.s. questo sarebbe perfetto per me

edit: googlando ho trovato che forse e' coreduo E5200,con 2mb cache L2 fsb a 800mhz...

Io ti consiglio di attenerti a quelli riportati nella prima pagina seguendo i consigli di roccia1234.

Marx01
16-06-2009, 22:19
Io ti consiglio di attenerti a quelli riportati nella prima pagina seguendo i consigli di roccia1234.

ok,comunque al 90% e' il core duo E5200 con la cache L2 da 2 mb,fsb 800.
seguendo i consigli di roccia1234 dovrebbe andare bene per me,se e' questo lo prendo a 70 euro?

Six1
16-06-2009, 22:38
ok,comunque al 90% e' il core duo E5200 con la cache L2 da 2 mb,fsb 800.
seguendo i consigli di roccia1234 dovrebbe andare bene per me,se e' questo lo prendo a 70 euro?

Essendo uno dei migliori supportati in ambito Pentium DualCore da questa Mobo direi di si.
Per il prezzo Non credo che nuovo tu lo possa trovare a meno specialmente se Boxato.
Hai provato a dare un occhiata sui shop Internet per fare un confronto dei prezzi?

perchè questi(che almeno sulla carta sembrano i migliori) li avete esclusi?
775 Pentium Dual Core E5400(R0) 2.70GHz 800MHz 2MB Wolfdale P2.10
775 Pentium Dual Core E5300(R0) 2.60GHz 800MHz 2MB Wolfdale P2.10

Marx01
16-06-2009, 22:54
Essendo uno dei migliori supportati in ambito Pentium DualCore da questa Mobo direi di si.
Per il prezzo Non credo che nuovo tu lo possa trovare a meno specialmente se Boxato.
Hai provato a dare un occhiata sui shop Internet per fare un confronto dei prezzi?

perchè questi(che almeno sulla carta sembrano i migliori) li avete esclusi?
775 Pentium Dual Core E5400(R0) 2.70GHz 800MHz 2MB Wolfdale P2.10
775 Pentium Dual Core E5300(R0) 2.60GHz 800MHz 2MB Wolfdale P2.10

si e' boxato,domani vado ad accertarmi se e' il modello in questione e se e' questo lo prendo ;)

p.s. ho guardato in internet e bene o male siamo li come prezzo.

Nomak87
16-06-2009, 22:56
Scusate se in questi giorni non sono tanto attivo ma lo studio mi tiene in sua balia :D
L'overclock di Halnovemila è incredibile :eek:

Cmq. Marx01, non so quali siano le tue finanze, però per cambiare processore io aspetterei di mettere da parte qualcosina di più e prenderei direttamente almeno un Core2Duo e un kit 4Giga Dual-Channel DDR-2, almeno usi a pieno le potenzialità che offre questa Mobo ;)

Six1
16-06-2009, 23:06
L'overclock di Hallnovemila è incredibile :eek:
Hai visto che roba!!!......

Cmq. Marx01, non so quali siano le tue finanze, però per cambiare processore io aspetterei di mettere da parte qualcosina di più e prenderei direttamente almeno un Core2Duo e un kit 4Giga Dual-Channel DDR-2, almeno usi a pieno le potenzialità che offre questa Mobo ;)
Il discorso è che lui voleva riutilizzare le Ram DDR-400....... (3GB)
Tra l' altro non ha ancora nemmeno la Mobo, quindi in sostanza ha:
GPU HD3850, 3G di Ram da riutilizzare sulla 4CoredualSata2 Rev 2.0 che sta per comprare.
Secondo me..... In futuro poi il tuo consiglio sicuramente sarà il percorso naturale da seguire.

Marx01
16-06-2009, 23:07
lo so hai ragione Nomak87,ma ho 3 gb ddr di buona marca che dovrei buttare,per adesso mi accontento di questa soluzione per avere un sistema ben bilanciato,perche' con il processore che ho ora oramai non vado da nessuna parte :muro:

Marx01
16-06-2009, 23:08
Hai visto che roba!!!......


Il discorso è che lui voleva riutilizzare le Ram DDR-400....... (3GB)
Tra l' altro non ha ancora nemmeno la Mobo, quindi in sostanza ha:
GPU HD3850, 3G di Ram da riutilizzare sulla 4CoredualSata2 Rev 2.0 che sta per comprare.
Secondo me..... In futuro poi il tuo consiglio sicuramente sarà il percorso naturale da seguire.

quoto al 100% ;)

Six1
16-06-2009, 23:14
quoto al 100% ;)

Una volta che hai montato tutto ti aspettiamo per partecipare ai nostri Benchmark, così vediamo come si comporta la tua nuova SuperMobo Asrock 4CoredualSata2 Rev 2.0 con l' attuale Hardware e il nuovo che andrai a montare.
Qualsiasi dubbio o problema tu abbia durante il lavoro di upgrade adesso sai dove trovarci. ;)

Marx01
16-06-2009, 23:19
ok :) ,grazie a tutti dei preziosi consigli.

roccia1234
17-06-2009, 07:26
concordo con i consigli dati su e5200... ha un molti bello alto e cache a sufficienza... la hd3850 agp la sfrutta benissimo anche rimanendo @default. Per il discorso ddr-ddr2 non doverbbero esserci grossi problemi di compatibilità.. almeno io il e2180 all'inizio lo usavo con delle ddr400 (2x512mb), una di marca farlocca e l'altra corsair e non ho mai avuto un problema. Sono passato a ddr2 per avere almeno 2 gb di ram. Per e5300 ed e5400, se tiene tutto a default potrebbero essere la scelta migliore, però il problema è se (e quando) gli interesserà/servirà overcloccare con questa mobo. Avendo un molti alto, la frequenza cpu letteralmente volerà per leggeri cambiamenti di fsb (parliamo di molti 13 e 13,5 rispettivamente... mica noccioline ) e questo fatto, unito all'impossibilità di aumentare il vcore potrebbe limitare la salita dell'fsb, visto che la cpu potrebbe richiedere overvolt anche per frequenze non troppo elevate (dipende dal vid), e dato che questo è sincrono con le ram (con divisori diversi da 1:1 abbiamo visto che si perde un po in prestazioni), avremo le ram ad una frequenza più bassa, quindi sottosfruttate. Si potrebbe abbassare il molti da bios e risolvere il problema, ma si perdono le opzioni di risparmio energetico e... se si tiene un molti più basso allora a sto punto conveniva prendere l'e5200 (economicamente parlando).

Icenine
17-06-2009, 08:54
Ho effettuato il test 3d mark 2006 e con mio rammarico credevo di ottenere un punteggio maggiore

10960

Ottenuto con questa config
Intel core 2 E6600-Sapphire 4870 512mb-2gb corsair xms2-hard disk samsung sata2-windows xp sp3
....Il test è stato effettuato senza nessun tipo di overclock con frequenze standard sia per il procio (2400mhz) che x la scheda video (750/900).
..questo perchè non riesco ad overcloccare il procio senza che si riavvii il sistema.
aiutatemi a capire xchè....
prima dell'aquisto della 4870 avevo la x1950 pro agp e riuscivo a salire stabilmente a 290 di fsb....ora se metto anche solo a 267 dopo pochi secondi da quando il sistema è operativo si riavvia anche se non effettuo operazioni.

Scusate ma non riesco ad allegare immagini dei test....:(

Six1
17-06-2009, 10:31
prima dell'aquisto della 4870 avevo la x1950 pro agp e riuscivo a salire stabilmente a 290 di fsb....ora se metto anche solo a 267 dopo pochi secondi da quando il sistema è operativo si riavvia anche se non effettuo operazioni.
Probabilmente con il cambio hardware appena effettuato (GPU) non puoi salire più di tanto, comunque aspettiamo che qualcuno più esperto di me in termini Overclock ti dia qualche suggerimento di sostanza..... ;)

Scusate ma non riesco ad allegare immagini dei test....:(
Come mai non riesci a postare le immagini dei Test?
Sai fare screenshoot e postare le immagini? Se No, chiedi pure, che in due parole ti dico come e cosa fare.

Edit.
Ho effettuato il test 3d mark 2006 e con mio rammarico credevo di ottenere un punteggio maggiore di
10960

Beh....con tuo rammarico?!.... non esageriamo essendo a default è un punteggio di tutto rispetto.
Io con la mia vecchia configurazione era troppo se raggiungevo i 3500 punti sul 3DM06. :mc:
Con il punteggio attuale che hai totalizzato giochi attualmente a qualsiasi gioco in circolazioni senza problemi. Io preferisco guardare i punti ottenuti al 3DM06 non come meri numeri, ma come risposta (nel tuo caso più che positiva) alla domanda: Il mio Hardware è in grado di far girare i Giochi in maniera soddisfacente?
La risposta nel tuo caso, come già detto è sicuramente Si. ;)

roccia1234
17-06-2009, 12:46
@ icenine, per il 3dmark sei in linea con sistemi simili al tuo

http://service.futuremark.com/resultComparison.action?compareResultId=9523838&compareResultType=14
http://service.futuremark.com/resultComparison.action?compareResultId=7593307&compareResultType=14

per salire devi overcloccare la cpu

Per il mancato overclock non saprei proprio a cosa pensare sinceramente. A me al cambio di vga (ho fatto esattamente lo stesso cambio che hai fatto te) non ha dato problemi di overclock in alcun modo (non saliva prima e non sale tutt'ora :D ). Non saprei che pensare. Prova a fare un clear cmos, metti le ram in 1:1 imposti tutti i timing da spd (usa everest per leggerli) e riprova... magari è qualcosa di scazzato nel bios. ah e tieni disattivata la flexibility option delle ram. Purtroppo questa mobo non è votata all'overclock, ma alla compatibilità con vari standard (ddr, ddr2, pci-ex, agp) e il fatto di salire (o no) più o meno stabilemtne è più che altro un terno al lotto :D

halnovemila
17-06-2009, 13:12
@Six1
Proposta:
Visto che ti sei fatto carico di elencare i risultati dei test 3DMark06 nel post in prima pagina, credo faresti cosa utile a chi la consulterà aggiungere per ciascun risultato il link allo screenshot o, meglio ancora, al post nel quale il risultato del test è stato pubblicato.
Questo perchè, sebbene tu non ti sia limitato a riportare solo il punteggio globale, gli screenshot, e soprattutto il dettaglio dei risultati del test, contengono informazioni utili a fare ulteriori valutazioni in merito, per esempio, all'incidenza della CPU o del tipo/frequenza/timing delle RAM sul risultato finale.

Io poi opterei per una graduatoria diversa dalla "solita" basata sul punteggio totale; questo è infatti fortemente condizionato dal punteggio CPU e può far apparire più "performante" un sistema in cui le prestazioni grafiche (in termini di Fps) nei 4 test sono state inferiori ma la potenza di calcolo combinato CPU+RAM è maggiore.
Suggerisco quindi di adottare una graduatoria basata sulla somma dei punteggi dei test SM2 e SM3 e, a parità di punteggio, dare vantaggio a chi ha il risultato migliore al test CPU.
Con questo metodo il sistema di Roccia1234, al pari del test con Crysis, risulterebbe primo (dato che pur avendo il minore punteggio CPU, ha però totalizzato le maggiori prestazioni ai test 3D), il mio sistema secondo, e quello di Jamby93 terzo (causa minore potenza su singolo core, e penalizzazione dovuta al sistema operativo).

Saluti.
Alessio
.

Six1
17-06-2009, 13:36
@Six1
Proposta:
Visto che ti sei fatto carico di elencare i risultati dei test 3DMark06 nel post in prima pagina, credo faresti cosa utile a chi la consulterà aggiungere per ciascun risultato il link allo screenshot o, meglio ancora, al post nel quale il risultato del test è stato pubblicato.
Condivido, aggiungerò il numero della pagina in cui poter andare a consultare il benchmark, con rispettivo Link. ;)
Questo perchè, sebbene tu non ti sia limitato a riportare solo il punteggio globale, gli screenshot, e soprattutto il dettaglio dei risultati del test, contengono informazioni utili a fare ulteriori valutazioni in merito, per esempio, all'incidenza della CPU o del tipo/frequenza/timing delle RAM sul risultato finale.
Giusto.
Io poi opterei per una graduatoria diversa dalla "solita" basata sul punteggio totale; questo è infatti fortemente condizionato dal punteggio CPU e può far apparire più "performante" un sistema in cui le prestazioni grafiche (in termini di Fps) nei 4 test sono state inferiori ma la potenza di calcolo combinato CPU+RAM è maggiore.
Suggerisco quindi di adottare una graduatoria basata sulla somma dei punteggi dei test SM2 e SM3 e, a parità di punteggio, dare vantaggio a chi ha il risultato migliore al test CPU.
Con questo metodo il sistema di Roccia1234, al pari del test con Crysis, risulterebbe primo (dato che pur avendo il minore punteggio CPU, ha però totalizzato le maggiori prestazioni ai test 3D), il mio sistema secondo, e quello di Jamby93 terzo (causa minore potenza su singolo core, e penalizzazione dovuta al sistema operativo).
Ok, se siete daccordo per accontentare tutti e per completezza stilerò due classifiche:
CPU+GPU (è importante anche questo che dà l' idea di quanto sia importante la CPU associata con la GPU nei Giochi)
GPU ( Così si nota la differenza di FPS della GPU e si classificano le GPU in base al loro punteggio effettivo in 3D escludendo la CPU)


Edit. X Tutti
Ho aggiornato le classifiche 3DM06 in questo momento.

halnovemila
17-06-2009, 14:31
Ottimo ;)

jamby93
17-06-2009, 14:48
Ok, se siete daccordo per accontentare tutti e per completezza stilerò due classifiche:
CPU+GPU (è importante anche questo che dà l' idea di quanto sia importante la CPU associata con la GPU nei Giochi)
GPU ( Così si nota la differenza di FPS della GPU e si classificano le GPU in base al loro punteggio effettivo in 3D escludendo la CPU)
Per me va benissimo! :)


@Six1
Con questo metodo il sistema di Roccia1234, al pari del test con Crysis, risulterebbe primo (dato che pur avendo il minore punteggio CPU, ha però totalizzato le maggiori prestazioni ai test 3D), il mio sistema secondo, e quello di Jamby93 terzo (causa minore potenza su singolo core, e penalizzazione dovuta al sistema operativo).
.
Mi aggangio a questo post per mostrarvi i miei risultati sotto XP (Nonostante tutto sono riuscito ad installarlo, ma non lo farò mai più :asd:)
Mi sono stupito tantissimo dai risultati ottenuti, e ora capirete il perchè.
Questo è lo screen completo (335k) :
http://g.imagehost.org/t/0358/screen_3.jpg (http://g.imagehost.org/view/0358/screen_3)
Come si può vedere, il punteggio globale è rimasto pressochè invariato (11759 contro 11735, 0,20% in più) mentre i valori singoli GPU e CPU sono cambiati abbastanza, così distribuiti:

___________XP____Vista____Quadagno percentuale
SM2.0_____4501__ 4583_____-1,821817374
SM3.0_____5229__ 5324_____-1,816790973
CPU_______3959__ 3621_____+8,537509472

Come si nota subito, cè stato un salto notevole nel valore CPU, probabilmente dovuto al minor carico cambiando S.O. C'è comunque anche da considerare che il test sotto XP l'ho effettuato su un installazione di XP SP3 "liscia", senza null'altro installato se non 3DMark e ATT, mentre la partizione di Vista x64 (del precedente test) è la partizione che uso quotidianamente quindi con tutti i programmi installati, quindi c'erano più processi in background durante il test sotto Vista nonostante abbia avuto cura di toglierli quasi tutti (primo fra tutti è rimasto attivo l'antivirus).
Ho anche fatto un grafico considerando il vantaggio % di XP in ogni scena del BenchMark:
http://f.imagehost.org/0717/graph_2_xotto_xp.png (http://f.imagehost.org/view/0717/graph_2_xotto_xp)

Un altra cosa carina da notare è il solito grafico dell'impiego CPU/GPU:
http://f.imagehost.org/0856/graph.png (http://f.imagehost.org/view/0856/graph)
In confronto a Vista infatti, si nota chiaramente un grosso fenomeno CPU limited, in quanto (come detto da halnovemila) nei test GPU 3D Mark utilizza soltanto uno dei 4 core messi a disposizione dal processore e questo causa l'utilizzo di questo core quasi sempre al 100%, generando un limite per la GPU che si ritrova a funzionare a percentuali di occupazione molto più basse..
A voi i commenti ora!! :D


PS: @halnovenila
Ti ricordi della richiesta posta da me e roccia1234 riguardo al mod della mobo?
Aspettiamo notizie:)

PPS: a breve farò anche i test sotto Vista con un solo core abilitato

halnovemila
17-06-2009, 15:14
Come si può vedere, il punteggio globale è rimasto pressochè invariato (11759 contro 11735, 0,20% in più) mentre i valori singoli GPU e CPU sono cambiati abbastanza
Beh, vista la mia esperienza avrei ipotizzato che le differenze sui test GT e HDR fossero a vantaggio di XP e non di Vista.
Ma c'è da dire che la versione di XP che ho usato per i test è ancora la SP2 (e non è detto che l'installazione dell'SP3 non abbia qualche influenza sull'efficienza di qualche servizio/driver) mentre la versione di Vista è la 32bit SP1.
Forse Vista x64 "rende" meglio di Vista 32bit; del resto kernel e drivers sono necessariamente diversi ed è ben possibile che gli sviluppatori che si sono occupati della versione a 32bit non siano gli stessi che hanno realizzato la versione a 64bit.

PS: @halnovenila
Ti ricordi della richiesta posta da me e roccia1234 riguardo al mod della mobo?
Aspettiamo notizie:)

Credo che foto, commenti e links pubblicati nella pagina web che ho dedicato ai mod, dicano tutto quello che è necessario sapere per realizzarli.
La domanda sul tipo di puntale di saldatore che ho utilizzato, per esempio, trova risposta già nella prima immagine e relativo commento della pagina.
:)

Edit:
Ovviamente, si può fare le stesse cose con attrezzi migliori e anche componenti migliori (quelli che ho usato io sono tutti recuperati; i trimmer azzuri dalla scheda guasta di controllo di una caldaia, il resto dei trimmer e resistenze da un vecchio radioregistratore stereo guasto e, mi pare, dalla base di un telefono cordless)

Six1
17-06-2009, 15:26
Forse Vista x64 "rende" meglio di Vista 32bit; del resto kernel e drivers sono necessariamente diversi ed è ben possibile che gli sviluppatori che si sono occupati della versione a 32bit non siano gli stessi che hanno realizzato la versione a 64bit.
Questo l' ho sempre ipotizzato anche io, sul Laptop ho avuto un sacco di problemi con Vista a 32bit in particolare con i giochi, tanto che sono stato costretto a passare a Xp.... per permettermi quanto meno di giocare in maniera decente.
Questa mia considerazione è nata dal fatto che quando avevo problemi con Vista a 32bit cercando in rete possibili soluzioni, ho notato che chi possiede Vista a 64bit non si lamenta(anzi l' idea di tornare Xp li spaventa) mentre questo non si può sicuramente dire per chi possiede la versione a 32bit, che spera o decide di tornare a Xp.

X jamby93
poichè i risultati non sono cambiati notevolmente, a parte qualcosa per la CPU.....
Vuoi in classifica:
Vista
XP
Vista/Xp.

jamby93
17-06-2009, 18:14
X jamby93
poichè i risultati non sono cambiati notevolmente, a parte qualcosa per la CPU.....
Vuoi in classifica:
Vista
XP
Vista/Xp.
Puoi lasciare tranquillamente Vista;)

Marx01
17-06-2009, 20:46
Alla fine oggi ho preso il pentium dual core E5200 boxato e' si era proprio lui :),tra l'altro avevano una scheda madre asrock che monta i dual core(solo quelli amd pero') con ingresso agp e poteva montare solo max 3,5 gb ddr e non ddr2...
Ero quasi tentato di prenderla abbinandola a un amd dual core 6400+ che avevano a 149 euro.
Ma il tipo del negozio mi ha sconsigliato di prendere L'amd dual core 6400+,perche' mi ha detto che il pentium E5200 costa la meta' ed e' piu' performante nei giochi :confused: e' vero o mi ha detto una castroneria? :mbe:
Adesso domani o dopodomani ordino la asrock 4coredual sata2 rev.2 e quando mi arriva si incominciano i lavori di upgrade :cool:

Vagnard
17-06-2009, 21:25
Ciao a tutti
sono nuovo di questo forum ed e' un po di tempo che seguo con grande interesse questo utilissimo thread che mi ha fatto scoprire le potenzialità nascoste di questa meravigliosa scheda madre. :D

Volevo condividere con voi un po di test fatti in questi giorni: avevo una 3850 agp e ho deciso di cambiarla. Avendo la possibilita di provare un po di schede ho fatto un po di esperimenti con la 4890 di asus (EAH4890 1gb). I bios che ho utilizzato sono 2.13a e 2.14a (che ho tutt'ora). I risulitati sono stati purtroppo negativi. La scheda da grossi problemi con qualsiasi applicazione 3d (crysis, crysis warhead, devil may cry 4, 3dmark2006 sia xp che vista 64 che windows 7 rc). Facendo un bel po di troubleshooting sono riuscito ad ottenere una stabilita appena accettabile abbassando il clock della gpu sotto i suoi valori di default. Credo che per l'880pro fosse davvero troppo :D
Ora ho installato una Sapphire 4870 1gb e funziona molto bene. Sul benchmark di Crysis usando le indicazioni di questo thread ho raggiunto questi risultati:

17/06/2009 22.06.58 - XP
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX9 1024x768, AA=No AA, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
==========================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 46.10s, Average FPS: 43.38
Min FPS: 14.70 at frame 152, Max FPS: 69.91 at frame 1614
Average Tri/Sec: 42991848, Tri/Frame: 990966
Recorded/Played Tris ratio: 0.93
!TimeDemo Run 1 Finished.
Play Time: 36.99s, Average FPS: 54.07
Min FPS: 14.70 at frame 152, Max FPS: 73.94 at frame 86
Average Tri/Sec: 54219848, Tri/Frame: 1002855
Recorded/Played Tris ratio: 0.91
!TimeDemo Run 2 Finished.
Play Time: 36.77s, Average FPS: 54.39
Min FPS: 14.70 at frame 152, Max FPS: 75.32 at frame 1619
Average Tri/Sec: 54608304, Tri/Frame: 1004072
Recorded/Played Tris ratio: 0.91
TimeDemo Play Ended, (3 Runs Performed)

Se si puo' ancora partecipare alla competizione faccio un post come da regolamento con tutte le caratteristiche del mio pc.
Su 3dmark2006 giro intorno ai 13k (con la 3850 ero arrivato a 11k)

Nomak87
17-06-2009, 21:48
Eccomi alla chiamata per il 3DMark06 :D

Partiamo con la configurazione che si può leggere dall'immagine sottostante

http://img32.imageshack.us/img32/33/configurazione.th.jpg (http://img32.imageshack.us/i/configurazione.jpg/)

Ed ecco i parametri impostati per il test (che sono quelli di default che non posso cambiare) e il risultato:

http://img32.imageshack.us/img32/4221/3dmark06hqc.th.jpg (http://img32.imageshack.us/i/3dmark06hqc.jpg/)

E qui un'immagine presa dal Benchmark:
http://img32.imageshack.us/img32/3733/inaction.th.jpg (http://img32.imageshack.us/i/inaction.jpg/)

Six1 fammi sapere se ho postato tutto il necessario o se devo aggiungere qualcos'altro

Six1
17-06-2009, 22:13
Ciao a tutti
sono nuovo di questo forum ed e' un po di tempo che seguo con grande interesse questo utilissimo thread che mi ha fatto scoprire le potenzialità nascoste di questa meravigliosa scheda madre. :D
Ciao e Benvenuto!
Mi fà piacere, è proprio questo lo scopo finale di questo Thread. ;)
Volevo condividere con voi un po di test fatti in questi giorni: avevo una 3850 agp e ho deciso di cambiarla. Avendo la possibilita di provare un po di schede ho fatto un po di esperimenti con la 4890 di asus (EAH4890 1gb). I bios che ho utilizzato sono 2.13a e 2.14a (che ho tutt'ora). I risulitati sono stati purtroppo negativi. La scheda da grossi problemi con qualsiasi applicazione 3d (crysis, crysis warhead, devil may cry 4, 3dmark2006 sia xp che vista 64 che windows 7 rc). Facendo un bel po di troubleshooting sono riuscito ad ottenere una stabilita appena accettabile abbassando il clock della gpu sotto i suoi valori di default. Credo che per l'880pro fosse davvero troppo :D
Ora ho installato una Sapphire 4870 1gb e funziona molto bene.
Se si puo' ancora partecipare alla competizione faccio un post come da regolamento con tutte le caratteristiche del mio pc.

Innanzitutto ci fà sicuramente piacere di poter condividere i tuoi risultati del Benchmark di Crysis che hai postato in questo tuo primo Post.
Certo che puoi partecipare, e se vuoi.... puoi partecipare sia a Crysis/Benchmark, che al Benchmark 3DMark2006 in modo tale da entrare in tutte e due le classifiche.... l' importante che ti attieni alle regole.
Per il dicorso della HD4890, potrebbe dipendere dal Bios non ancora ottimizzato per quest' ultima di ATI, tanto è vero che sullla release del Bios 2.14a la 4890 la danno in forse. Magari in futuro ottimizzando il Bios migliorerà.....
Aspettiamo il 2.15a e vediamo....;)
Aspettiamo i tuoi Benchmark :boxe:

Six1
17-06-2009, 22:45
Eccomi alla chiamata per il 3DMark06 :D
Six1 fammi sapere se ho postato tutto il necessario o se devo aggiungere qualcos'altro
Ok, mi sembra tutto in ordine.....
Il risultato è molto buono. Cavoli....sta HD3850 AGP tira un casino!!!
Ti aggiungo alla classifica. ;)

Alla fine oggi ho preso il pentium dual core E5200 boxato e' si era proprio lui :),tra l'altro avevano una scheda madre asrock che monta i dual core(solo quelli amd pero') con ingresso agp e poteva montare solo max 3,5 gb ddr e non ddr2...
Ero quasi tentato di prenderla abbinandola a un amd dual core 6400+ che avevano a 149 euro.
Ma il tipo del negozio mi ha sconsigliato di prendere L'amd dual core 6400+,perche' mi ha detto che il pentium E5200 costa la meta' ed e' piu' performante nei giochi :confused: e' vero o mi ha detto una castroneria? :mbe:
Adesso domani o dopodomani ordino la asrock 4coredual sata2 rev.2 e quando mi arriva si incominciano i lavori di upgrade :cool:

Scelta corretta, sopratutto per la Scheda Madre che comprerai....:D Se prendevi la CPU AMD addio 4CoredualSata2.
Vedrai che con il procio Intel che hai scelto e questa Mobo ti troverai molto bene. Hai visto quanto ha totalizzato Nomak87 con la tua HD3850?
Questa GPU AGP come detto anche a lui è proprio una Bomba!!!
Vedrai che adesso appoggiata da un DualCore ti darà un sacco di soddisfazioni.;)

Nomak87
17-06-2009, 22:48
Ok, mi sembra tutto in ordine.....
Il risultato è molto buono. Cavoli....sta HD3850 AGP tira un casino!!!
Ti aggiungo alla classifica. ;)

Forse questo risultato ti può servire, si vedono tutti i valori...

http://img194.imageshack.us/img194/9294/3dmark.th.jpg (http://img194.imageshack.us/i/3dmark.jpg/)

Cmq. si sono contento di questo VGA mi sta dando soddisfazioni :D

Non oso immaginare la HD4870 associata al Q9550 sulla P5Q-EM; però aspetterò ancora un pò ;)

Per maggior chiarezza riedito il risultato:

La configurazione:

http://img32.imageshack.us/img32/33/configurazione.th.jpg (http://img32.imageshack.us/i/configurazione.jpg/)

Parametri e risultato:

http://img194.imageshack.us/img194/9294/3dmark.th.jpg (http://img194.imageshack.us/i/3dmark.jpg/)

Immagine del Benchmark:
http://img32.imageshack.us/img32/3733/inaction.th.jpg (http://img32.imageshack.us/i/inaction.jpg/)


Ecco così è tutto più in ordine ;)

Marx01
17-06-2009, 23:05
Scelta corretta, sopratutto per la Scheda Madre che comprerai....:D Se prendevi la CPU AMD addio 4CoredualSata2.
Vedrai che con il procio Intel che hai scelto e questa Mobo ti troverai molto bene. Hai visto quanto ha totalizzato Nomak87 con la tua HD3850?
Questa GPU AGP come detto anche a lui è proprio una Bomba!!!
Vedrai che adesso appoggiata da un DualCore ti darà un sacco di soddisfazioni.;)

si ho visto :cool: ,ma lui ha un E7400 con 4 gb ddr2 in dual channel...io penso faro' molto meno poi con 3gb addio dual channel :stordita:
Poi dici che riesco a fare overclock al pentium con le ddr o crea problemi?

Six1
17-06-2009, 23:07
Forse questo risultato ti può servire, si vedono tutti i valori...
Ok.
Cmq. si sono contento di questo VGA mi sta dando soddisfazioni :D
Lo vedo.
però aspetterò ancora un pò ;)
Dipende dall' uso che fai del Pc, io con il Q6700 e la GTS250 su questa Mobo.... comunque faccio un grande salto di qualità, penso di essere a posto almeno per tre o quattro anni. Nei giochi non sono un fanatico l' importante per me è che girino discretamente, niente di più. ;)
In parallelo mi sono costruito un Case in legno che ospiterà una Gigabyte con Chipset X58(già acquistata) farà compagnia alla SuperMobo. Prima che riesca a portare a compimento l' assemblaggio dei componenti hardware del Pc in legno passerà qualche annetto, ogni componente costa un sacco di soldi.
Poi più avanti vi posterò le foto del case in legno.....;)

Six1
17-06-2009, 23:17
si ho visto :cool: ,ma lui ha un E7400 con 4 gb ddr2 in dual channel...io penso faro' molto meno poi con 3gb addio dual channel :stordita:
Poi dici che riesco a fare overclock al pentium con le ddr o crea problemi?

Beh farai ovviamente meno, ma comunque rispetto a come stavi prima fai un grosso salto di qualità.... questa Mobo tra l' altro sfrutta a pieno tutte le sue risorse hardware nuove o meno nuove che siano. ;)

roccia1234 ha usato DDR con il suo Dual, ed ha detto che non aveva problemi. Potresti chiedere a lui come saliva in Overclock.......


X Nomak87, aggiunto in classifica. ;)

Icenine
18-06-2009, 07:29
...ho risolto....finalmente sono riuscito ad overclokkare sto maledetto processore!!!
....c'era un'impostazione del bios che dava fastidio e precisamente Intel sppedstep tech che era abilitata.
Ora va tutto liscio stabile fino a 285 per ora....faro dei test e se riesco li posto:) :) :) :)

Nomak87
18-06-2009, 07:33
In parallelo mi sono costruito un Case in legno che ospiterà una Gigabyte con Chipset X58(già acquistata) farà compagnia alla SuperMobo. Prima che riesca a portare a compimento l' assemblaggio dei componenti hardware del Pc in legno passerà qualche annetto, ogni componente costa un sacco di soldi.
Poi più avanti vi posterò le foto del case in legno.....;)

Anch'io volevo costruirne uno, dato che già mi sono costruito le casse acustiche in camera mia (300Watt di picco a 3 vie con woofer da 26 :D)... Per non andare OT c'è una discussione sull'argomento nel Forum?

Ora volevo fare un piccolo Overclock e rifare il 3DMark06 e vedere di quanto sale il punteggio...

Icenine
18-06-2009, 07:37
...ecco il mio bench
http://img26.imageshack.us/img26/7029/test3dmark2006.jpg
http://img5.imageshack.us/img5/7029/test3dmark2006.jpg

Nomak87
18-06-2009, 07:55
Eseguito il Test con un pochino di Overclock...

http://img14.imageshack.us/img14/5539/configover.th.jpg (http://img14.imageshack.us/i/configover.jpg/)

Ecco i risultati e le impostazioni

http://img14.imageshack.us/img14/4305/resultover.th.jpg (http://img14.imageshack.us/i/resultover.jpg/)

Speravo di arrivare ai 10000 :( Forse dovrei stressare un poco di più le RAM... Vabhè tanto per giocare a PES2009 già così va che è una meraviglia!

halnovemila
18-06-2009, 08:02
Ora volevo fare un piccolo Overclock e rifare il 3DMark06 e vedere di quanto sale il punteggio...

Se ti interessa sapere quanto sia "scalabile" la HD3 850 AGP puoi dare un'occhiata ai risultati dei test che ho fatto e pubblicato sulla discussione relativa al quella scheda video.
http://www.hwupgrade.it/forum/showpost.php?p=23925709&postcount=2363
Nota sui grafici:
In tutti i grafici una o più sequenze di dati sono state "scalate" (mediante moltiplicazione o divisione) o "traslate" (mediante somma) per permetterne l'inserimento nello stesso grafico con altre serie di dati di diversa "scala".

Punteggi 3DMark06
http://immagini.p2pforum.it/out.php/i359494_Confrontopunteggi3DMark06.gif
Analisi del grafico
Il grafico soprastante mette a confronto i punteggi 3DMark06 misurati con la HD3 850 con clock GPU e RAM a default (3DM, GPU 670, RAM 830) e con overclock (3DM_OC, GPU 750, RAM 1000, 1,214v)
Dal grafico si possono notare almeno tre cose:
- L'altalenarsi della larghezza di banda della RAM pare essere ininfluente sugli esiti del test 3DMark; in altre parole anche la banda minima di 5,5GB/s è sufficiente ad evitare rallentamenti nei test.
- Entrambe le curve dei punteggi 3DMark tendono a diventare parallele alla retta del CPU Score (dual core); ciò dipende comprensibilmente dal fatto che esaurita la "spinta" data dai miglioramenti nei test GT e HDR, l'unico fattore di aumento del punteggio 3DMark rimane quello legato ai risultati del CPU test.
- I benefici effetti dell'overclock aumentano con l'aumentare della potenza della CPU
In pratica con la HD3 850 AGP, con clock GPU/RAM a default (670/830), gli Fps misurati nei Test 3DMark06 smettono di aumentare quando il punteggio CPU è attorno a 2750 (1400 per singolo core) che corrisponde all'incirca ad una CPU Core2 Duo@3.1GHz.
Come è lecito aspettarsi le cose cambiano in modo consistente quando si attiva l'Anti-Aliasing anche solo 4x
http://www.hwupgrade.it/forum/showpost.php?p=24361948&postcount=2635
In questo caso la HD3850 raggiunge il 100% di carico (e quindi smette di scalare) già in corrispondenza di un punteggio CPU pari a circa 1900 (950 per singolo core), ovvero ad un Core2 Duo@2.1GHz.

Speravo di arrivare ai 10000 :( Forse dovrei stressare un poco di più le RAM...
I 10.000 punti non li raggiungeresti nemmeno con la CPU@3.5GHz.
Devi overcloccare la HD3850; con il punteggio CPU che hai, se porti GPU e RAM video rispettivamente a 750/1000 dovresti ottenere circa 10.300 punti.


Saluti.
Alessio
.

Nomak87
18-06-2009, 09:23
I 10.000 punti non li raggiungeresti nemmeno con la CPU@3.5GHz.
Devi overcloccare la HD3850; con il punteggio CPU che hai, se porti GPU e RAM video rispettivamente a 750/1000 dovresti ottenere circa 10.300 punti.


Saluti.
Alessio
.

Grazie per i consigli!
Una cosa però...
Se porto la HD3850 a GPU e RAM 750/1000, oltre a stare attento alle temperature (ma dovrei essere tranquillo perché ho appena smontato completamente il dissipatore, tolto la polvere e cambiato la pasta termoconduttiva) e avendo il mio E7400 @ 3GHz con Bus Speed impostato a 286 e Command RAM 1T il sistema sarebbe stabile, rischio di rovinare la VGA o altra componentistica hardware?

halnovemila
18-06-2009, 09:42
In generale qualsiasi forma di overclock comporta un'"usura" elettrica maggiore (si accentua il fenomeno dell'elettromigrazione) che riduce la vita dei componenti interessati.
Ma questo accade sui lunghi periodi (anni); sull'immediato un overclock eccessivo non porta ad altro che al malfunzionamento del sistema (crash, riavvi, artefatti nelle immagini 2D/3D, etc...)
I danni immediati e permanenti possono provenire invece da un eccesso di overvolt, di aumento della tensioni di alimentazione dei componenti oltre le specifiche per le quali sono stati progettati.
Se un sistema è stabile o meno ad un dato overclock non è dato saperlo se non facendo test adeguati.

Nomak87
18-06-2009, 10:16
Ok allora poi provo quando torno a casa ;)

Vagnard
18-06-2009, 10:26
Con il q6600quad overcloccato a 2.5ghz e la 3850 overcloccata ai valori massimi permessi dall'overdrive di catalyst senza modifiche hw di nessun genere (dissipatore di default) ho raggiunto i 10984 a 3dmark06. Ora sono al lavoro e non posso postare i risultati. Purtroppo non ne posso neanche fare di nuovi perche' ora ho la 4870. Avevo notato che comunque alzando ancora anche di poco la velocita' della CPU le prestazioni miglioravano, segno che la 3850 aveva ancora qualcosa da dare. Con modifiche hw secondo me gli 11k si superano eccome.

halnovemila
18-06-2009, 10:40
Con il q6600quad overcloccato a 2.5ghz e la 3850 overcloccata ai valori massimi permessi dall'overdrive di catalyst senza modifiche hw di nessun genere (dissipatore di default) ho raggiunto i 10984 a 3dmark06. Ora sono al lavoro e non posso postare i risultati. Purtroppo non ne posso neanche fare di nuovi perche' ora ho la 4870. Avevo notato che comunque alzando ancora anche di poco la velocita' della CPU le prestazioni miglioravano, segno che la 3850 aveva ancora qualcosa da dare. Con modifiche hw secondo me gli 11k si superano eccome.
I 10984 punti li hai raggiunti perchè il punteggio finale del 3DMark06 è una combinazione dei punteggi dei test SM2 SM3 e CPU.
Sicuramente alla frequenza di 2.5GHz la HD3850 avrà prodotto meno Fps che sul PC di Nomak87; pertanto i suoi punteggi ai test GT/SM2 e HDR/SM3 saranno maggiori.
Nella pratica, in tutte le applicazioni/giochi in cui venga utilizzato uno o due core, il PC di Nomak87 risulterà avere maggiori prestazioni.

Sarà un'anno e mezzo (da quando ho cominciato ad interessarmi all'argomento) che vado dicendo che confrontare direttamente il punteggio 3DMark06 di due sistemi con CPU aventi diverso numero di Core non fa altro che creare confusione sulle aspettative reali delle prestazioni grafiche del sistema.
Questo perchè le CPU Quad, al test 3DMark06, ottegono punteggi CPU più alti delle versioni Dual, ma nella pratica sono ancora molto diffusi i giochi/applicazioni che usano al massimo uno o due core; quindi il vantaggio che il punteggio totale del 3DMark06 riconosce ai sistemi Quad Core è, ad oggi, più "sulla carta" che "di fatto".

Nomak87
18-06-2009, 10:46
Questo perchè le CPU Quad, al test 3DMark06, ottegono punteggi CPU più alti delle versioni Dual, ma nella pratica sono ancora molto diffusi i giochi/applicazioni che usano al massimo uno o due core; quindi il vantaggio che il punteggio totale del 3DMark06 riconosce ai sistemi Quad Core è, ad oggi, più "sulla carta" che "di fatto".

Giustissimo!

Six1
18-06-2009, 10:48
...ecco il mio bench
http://img26.imageshack.us/img26/7029/test3dmark2006.jpg
http://img5.imageshack.us/img5/7029/test3dmark2006.jpg
Ti ho aggiunto in classifica ma per mantenerti in classifica ho bisogno di:
-Il post di CPUZ parte mainboard
-Bios Utilizzato
-Specificarmi l' esecuzione del Test se default o altro.
-Tipo di Ram utilizzate 667,800.....
-Overclock spiegato nel dettaglio.
Tutto questo aggiungilo nel Post in cui hai postato i risultati del Benchmark in modo tale che tutto rimanga ordinato e più facilmente consultabile.


Eseguito il Test con un pochino di Overclock...
Ecco i risultati e le impostazioni
Speravo di arrivare ai 10000 :( Forse dovrei stressare un poco di più le RAM... Vabhè tanto per giocare a PES2009 già così va che è una meraviglia!
Premettendo che già senza Overclok tu puoi giocare a tutto discretamente.
Se proprio vuoi Overclocckare...... l' importante è poter giocare ad alti livelli con qualsiasi gioco, il resto a mio avviso diventa un pò una esagerazione..... ;)
Edit.
Ti devo aggiornare in classifica con i tuoi nuovi risultati sotto Overclock? Oppure aspetto altro?
Con il q6600quad overcloccato a 2.5ghz e la 3850 overcloccata ai valori massimi permessi dall'overdrive di catalyst senza modifiche hw di nessun genere (dissipatore di default) ho raggiunto i 10984 a 3dmark06. Ora sono al lavoro e non posso postare i risultati. Purtroppo non ne posso neanche fare di nuovi perche' ora ho la 4870. Avevo notato che comunque alzando ancora anche di poco la velocita' della CPU le prestazioni miglioravano, segno che la 3850 aveva ancora qualcosa da dare. Con modifiche hw secondo me gli 11k si superano eccome.
Ho risposto alle tue domande al tuo primo Post. ;)
Volevo inoltre farti una domanda.....hai detto che hai la possibilità di fare dei test con più GPU, non è che per caso hai a dispo anche GPU della nVidia 9800GTX, GTS250, GTS260, ecc. ecc.
Fino alla MSI GTS250 Questa Mobo è sicuro che la riconosca e che funzioni correttamente ma non si sa niente sulle GPU da quest' ultima a salire purtroppo.
Te lo chiedo perchè io sono più interessato alle GPU nVidia per varie ragioni, e poi sarebbe utile poter allargare la lista di GPU compatibili anche della parte nVidia, qualche utente oltre me :D potrebbe esserne interessato......

halnovemila
18-06-2009, 11:03
Premettendo che già senza Overclok tu puoi giocare a tutto discretamente.
Se proprio vuoi Overclocckare...... l' importante è poter giocare ad alti livelli con qualsiasi gioco, il resto a mio avviso diventa un pò una esagerazione..... ;)
Giusto :)
E si potrebbe aggiungere anche un vecchio detto che forse i più giovani non conoscono...
Il detto fa così: "Chi s'accontenta gode e... chi non s'accontenta... rode!"
:asd:

jamby93
18-06-2009, 11:32
Ogni tanto controllo la pagina dei nuovi BIOS e proprio oggi ho notato la presenza del nuovo BIOS, 2.16a.
http://www.pctreiber.net/filebase.php?fileid=3141&lim=20
L'unica differenza che posso notare nel changelog è la seguente:
Add support for E-0/R-0 Wolfdale CPU (Pentium DualCore E6300 supported!)
Magari sarà utile a qualcuno! :)

Questo quanto si legge:

ASRock 4CoreDual-SATA2 Bios 2.16a

Datiert auf den 29.04.2009
4CoreDual-SATA2 BIOS L2.16 REV:a

Changelog:

Changelog:

- Add support für HD 4350, HD 4550, HD 46x0 and HD 48X0
- Add support for E-0/R-0 Wolfdale CPU (Pentium DualCore E6300 supported!)
- Support 4 GB DDR2 (~ 3,3 GB useable)
- Enhanced Speedfancontrol for PWM-Fans
- Support Enahnced Halt State, SpeedStep and Thermal Throttling
- Instant Boot Support

unknown: (Please test an post your findings! Thanks!)
- HD 4890 Support

Avevo sperato in un aggiornamento che riuscisse a farci vedere questi "benedetti" 4Gb di RAM che il chipset supporta. Dovremo aspettare ^_^

Vagnard
18-06-2009, 11:45
I 10984 punti li hai raggiunti perchè il punteggio finale del 3DMark06 è una combinazione dei punteggi dei test SM2 SM3 e CPU.
Sicuramente alla frequenza di 2.5GHz la HD3850 avrà prodotto meno Fps che sul PC di Nomak87; pertanto i suoi punteggi ai test GT/SM2 e HDR/SM3 saranno maggiori.
Nella pratica, in tutte le applicazioni/giochi in cui venga utilizzato uno o due core, il PC di Nomak87 risulterà avere maggiori prestazioni.

Sarà un'anno e mezzo (da quando ho cominciato ad interessarmi all'argomento) che vado dicendo che confrontare direttamente il punteggio 3DMark06 di due sistemi con CPU aventi diverso numero di Core non fa altro che creare confusione sulle aspettative reali delle prestazioni grafiche del sistema.
Questo perchè le CPU Quad, al test 3DMark06, ottegono punteggi CPU più alti delle versioni Dual, ma nella pratica sono ancora molto diffusi i giochi/applicazioni che usano al massimo uno o due core; quindi il vantaggio che il punteggio totale del 3DMark06 riconosce ai sistemi Quad Core è, ad oggi, più "sulla carta" che "di fatto".

Siamo perfettamente d'accordo, ma qui si parlava di benchmark puri non di applicabilita' nella realta dei videogiochi moderni no? Io infatti gioco con xbox360 e ps3. Se uno fa una "classifica" di punteggi e' permesso usare qualsiasi espediente per gonfiare il punteggio a patto di stare alle regole e documentare correttamente il tutto. Sbaglio? Se 3dmark trae giovamento nel cpu test dal numero di core poco importa se poi la maggior parte dei giochi usciti su pc sono programmati coi piedi e non usano piu' di un core alla volta.

Six1
18-06-2009, 11:46
Ogni tanto controllo la pagina dei nuovi BIOS e proprio oggi ho notato la presenza del nuovo BIOS, 2.16a.
Changelog:

- Add support für HD 4350, HD 4550, HD 46x0 and HD 48X0
- Add support for E-0/R-0 Wolfdale CPU (Pentium DualCore E6300 supported!)
- Support 4 GB DDR2 (~ 3,3 GB useable)
- Enhanced Speedfancontrol for PWM-Fans
- Support Enahnced Halt State, SpeedStep and Thermal Throttling
- Instant Boot Support

unknown: (Please test an post your findings! Thanks!)
- HD 4890 Support

Sarebbe da analizzare se i "mancati" cambiamenti siano una semplice svista di chi ha postato il bios che non ha cambiato il changelog, o se realmente non ci siano questi cambiamenti.:)
Appena possibile proverò in ogni caso per vedere se cambia qualcosa.
Grazie ;) l' aggiungo in prima pagina quanto prima.
Qualcosa è cambiato è stato aggiunto il supporto a questo Procio:
- Add support for E-0/R-0 Wolfdale CPU (Pentium DualCore E6300 supported!)
Chissà che poi non sia migliorato qualcosa anche per la compatibilità con la 4890....
Staremo a vedere....

Jo77
18-06-2009, 11:51
Ogni tanto controllo la pagina dei nuovi BIOS e proprio oggi ho notato la presenza del nuovo BIOS, 2.16a.
http://www.pctreiber.net/filebase.php?fileid=3141&lim=20
L'unica differenza che posso notare nel changelog è la seguente:
Add support for E-0/R-0 Wolfdale CPU (Pentium DualCore E6300 supported!)
Magari sarà utile a qualcuno! :)

Questo quanto si legge:

ASRock 4CoreDual-SATA2 Bios 2.16a

Datiert auf den 29.04.2009
4CoreDual-SATA2 BIOS L2.16 REV:a

Changelog:

Changelog:

- Add support für HD 4350, HD 4550, HD 46x0 and HD 48X0
- Add support for E-0/R-0 Wolfdale CPU (Pentium DualCore E6300 supported!)
- Support 4 GB DDR2 (~ 3,3 GB useable)
- Enhanced Speedfancontrol for PWM-Fans
- Support Enahnced Halt State, SpeedStep and Thermal Throttling
- Instant Boot Support

unknown: (Please test an post your findings! Thanks!)
- HD 4890 Support

Avevo sperato in un aggiornamento che riuscisse a farci vedere questi "benedetti" 4Gb di RAM che il chipset supporta. Dovremo aspettare ^_^

Grazie per la segnalazione.

halnovemila
18-06-2009, 11:56
Siamo perfettamente d'accordo, ma qui si parlava di benchmark puri non di applicabilita' nella realta dei videogiochi moderni no?
Io stavo parlando, invece, della possibilità per Nomak87 di raggiungere la soglia dei 10.000.
Dato che il risultato da te postato sembrava voler confutare quanto da me precedentemente affermato in merito alla necessità, per Nomak87, di dover overcloccare la sua HD3850, ho ritenuto di dover replicare sottolineando che l'esempio da te portato non è applicabile a caso di Nomak87, dato che il punteggio da te raggiunto al test 3DMark06 è "maggiorato" a causa della CPU Quad core, la quale, pur se alla frequenza di 2.5GHz, ottiene (giustamente) un punteggio CPU maggiore del Core2 Duo@2.8GHz di Nomak87.
Per il resto, come tu dici... siamo perfettamente d'accordo. :)

Six1
18-06-2009, 12:21
Beh!!! questo Nuovo Bios ha sicuramente apportato qualcosa di molto utile....
Chissà che a roccia1234 non interessi......
comunque:

Adesso con il Bios 2.16a possiamo montare sulla nostra Mobo questo ottimo DualCore:
(l' ho aggiunto tra i processori supportati in prima pagina)

Pentium Dual-Core E6300/SpecNumberSLGU9 (R0)/2800MHz/Cache:2048 KB/ FSB1066 MT/s - Mult:10.5x / Voltaggio:0.8625V – 1.2625V / TDP:65 W / Release:May 09, 2009 Part numbers: AT80571PH0722ML .

Non è da sottovalutare....... ;)

Come detto per la HD4890 bisognerà vedere......

X Tutti: Aggiornata la prima pagina sezione Bios, se qualche nuovo utente chiede Info potete spedirlo nella Sezione che conoscete.;)

roccia1234
18-06-2009, 13:36
ciao a tutti!!
ultimamente ho partecipato poco perchè oggi ho dovuto dare un esame. Allora devo fare dei test, soprattutto il 3dmark 06 con un solo core che mi aveva chiesto halnovemila: eccolo

http://img31.imageshack.us/img31/7752/3dmark1core.jpg (75 kb)

Il, punteggio (ovviamente) è sceso, però solo quello della cpu... il punteggio vga è rimasto praticamente costante, come gli fps generati nei vari test 3d (anzi... se li confrontate direttamente con quelli vecchi, alcuni sono pure aumentati :eek: )
Posto anche il grafico di utilizzo cpu/gpu, dove si vede perfettamente un core al lavoro e l'altro in vacanza :D

http://img268.imageshack.us/img268/4594/3dmark1coreusage.jpg

beh... se vi manca qualche test da parte mia, ditemelo che provvedo.

per l'overclock di un core 2 duo (e derivati) con ddr non c'erano problemi, saliva esattamente come con le ddr2. L'unica cosa è che non ho provato la bsel mod con le ddr, quindi non so se da problemi o no, anche se credo che vada tutto liscio in ogni caso.
Sinceramente questo bios 2.16a un po mi tenta... però non vedo novità per cui valga la pena di aggiornare, alla fine per ora il pc va come un orologio svizzero con il 2.13... devo ponderare un po la cosa (anche se so che alla fine farò l'aggiornamento :D )


Edit: ok, la mia voglia di sperimentare ha avuto la meglio... da ora sono con il bios 2.16a. Per ora non ho notato alcun cambiamento

Six1
18-06-2009, 16:16
Sinceramente questo bios 2.16a un po mi tenta... però non vedo novità per cui valga la pena di aggiornare, alla fine per ora il pc va come un orologio svizzero con il 2.13... devo ponderare un po la cosa (anche se so che alla fine farò l'aggiornamento :D )
Edit: ok, la mia voglia di sperimentare ha avuto la meglio... da ora sono con il bios 2.16a. Per ora non ho notato alcun cambiamento
Lo sapevo che non avresti resistito :asd: , ma io intendevo dire....
Poichè so che vuoi cambiare Procio magari il nuovo Dual Pentium 6300 supportato dal bios 2.16a ti poteva interessare. ;)

roccia1234
18-06-2009, 16:41
Lo sapevo che non avresti resistito :asd: , ma io intendevo dire....
Poichè so che vuoi cambiare Procio magari il nuovo Dual Pentium 6300 supportato dal bios 2.16a ti poteva interessare. ;)

:D
Comunque il e6300 è una bella bestiola... e non costa neanche tanto... lo si trova a poco più di 70 euro. Devo solo decidere cosa fare. Sono quasi tentato di prendere il e5200, fare la volt mod + mod vdrop + bsel mod e farlo girare a 266*12,5=3,3 ghz, dato che ho visto sul thread ufficiale che ci arrivano con 1,3 volt o poco più.

halnovemila
18-06-2009, 18:27
@Six1
Per leggere il dettaglio dei precedenti risultati 3DMark06 di Roccia1234 mi sono affidato all'utilissimo link presente nella classifica da te redatta in prima pagina :)
...
mi sono accorto che nella classifica "GPU" Icenine ha superato Roccia1234 pur avendo la CPU "sotto" di 100MHz.
Dato che i conti non mi tornavano ho indagato e "scoperto" che Icenine ha ottenuto il suo punteggio migliore applicando un certo overclock alla HD4870.
Dai 750 GPU/900 RAM è passato agli 800/1000.
Credo sarebbe il caso di indicarlo nei dettagli della configurazione di test (se non sbaglio tu stesso ti sei espresso in questo senso)

Saluti.
Alessio

Edit: Nemmeno le frequenze CPU corrispondono a quelle utilizzate nei test.
Roccia @2,66, Icegine @2,56

roccia1234
18-06-2009, 18:30
@Six1
Per leggere il dettaglio dei precedenti risultati 3DMark06 di Roccia1234 mi sono affidato all'utilissimo link presente nella classifica da te redatta in prima pagina :)
...
mi sono accorto che nella classifica "GPU" Icenine ha superato Roccia1234 pur avendo la CPU "sotto" di 100MHz.
Dato che i conti non mi tornavano ho indagato e "scoperto" che Icenine ha ottenuto il suo punteggio migliore applicando un certo overclock alla HD4870.
Dai 750 GPU/900 RAM è passato agli 800/1000.
Credo sarebbe il caso di indicarlo nei dettagli della configurazione di test (se non sbaglio tu stesso ti sei espresso in questo senso)

Saluti.
Alessio
.

ah giusto giusto... mi sono dimenticato di dire... la mia vga non ha frequenze standard ma è oc di fabbrica a 770/920... all'atto pratico non cambia una ceppa, ma mi ero dimenticato di specificarlo

Six1
18-06-2009, 19:50
mi sono accorto che nella classifica "GPU" Icenine ha superato Roccia1234 pur avendo la CPU "sotto" di 100MHz.
Dato che i conti non mi tornavano ho indagato e "scoperto" che Icenine ha ottenuto il suo punteggio migliore applicando un certo overclock alla HD4870.
Dai 750 GPU/900 RAM è passato agli 800/1000.
Credo sarebbe il caso di indicarlo nei dettagli della configurazione di test (se non sbaglio tu stesso ti sei espresso in questo senso)
Edit: Nemmeno le frequenze CPU corrispondono a quelle utilizzate nei test.
Roccia @2,66, Icegine @2,56

Ok, grazie, per quanto riguarda l' overclock di roccia1234 sapevo della CPU, deve essermi sfuggito nella compilazione della classifica, per quanto riguarda Icenine se guardi qualche post prima del tuo gli ho chiesto di specificarmi il tipo di overclok effettuato e altro, altrimenti sarò costretto a toglierlo dalla classifica.
Lo stesso vale per roccia1234.....
X roccia1234:
Gentilmente nel Post del tuo benchmark dovresti specificarmi l' overclok effettuato. Come da regolamento.

Nomak87
18-06-2009, 20:04
Buona sera! Ho rieseguito il 3DMark06 con la HD3850 al massimo...

Configurazione:

http://img36.imageshack.us/img36/1705/configovertot.th.jpg (http://img36.imageshack.us/i/configovertot.jpg/)

Settaggi e risultato:

http://img36.imageshack.us/img36/5540/resultovertot.th.jpg (http://img36.imageshack.us/i/resultovertot.jpg/)

La differenza si vede... e si i 10000 li ho superati :sofico:

roccia1234
18-06-2009, 20:25
Ok, grazie, per quanto riguarda l' overclock di roccia1234 sapevo della CPU, deve essermi sfuggito nella compilazione della classifica, per quanto riguarda Icenine se guardi qualche post prima del tuo gli ho chiesto di specificarmi il tipo di overclok effettuato e altro, altrimenti sarò costretto a toglierlo dalla classifica.
Lo stesso vale per roccia1234.....
X roccia1234:
Gentilmente nel Post del tuo benchmark dovresti specificarmi l' overclok effettuato. Come da regolamento.

fatto... nel post ora ci sono i clock dei vari componenti del sistema. E comunque si possono leggere anche dalle schermate di cpuz e gpuz :) .
Se ti riferisci al post dei test single core, i clock sono identici a quelli del test con due core.

halnovemila
18-06-2009, 20:31
quanto riguarda Icenine se guardi qualche post prima del tuo gli ho chiesto di specificarmi il tipo di overclok effettuato e altro, altrimenti sarò costretto a toglierlo dalla classifica.
I dati sull'overclock sono deducibili dagli screenshot che, come da tue disposizioni, sono molto completi.
La mia osservazione puntava più a chiedere un aggiornamento/correzione dei dettagli riportati in prima pagina.
I test servono per "darsi delle risposte" :)
... ma le risposte "giuste" poggiano su dati "giusti"...
giusto?
;)

Six1
18-06-2009, 21:00
I dati sull'overclock sono deducibili dagli screenshot che, come da tue disposizioni, sono molto completi.
La mia osservazione puntava più a chiedere un aggiornamento/correzione dei dettagli riportati in prima pagina.
I test servono per "darsi delle risposte" :)
... ma le risposte "giuste" poggiano su dati "giusti"...
giusto?
;)

roccia1234 ha sistemato il suo Post integrando i dati dell' Overclock.
Aspetto che faccia la stessa cosa anche Icenine.....
Intanto comunque sistemo i dati in prima pagina sia dell' uno che dell' altro. ;)

halnovemila
18-06-2009, 21:45
Perfetto :)

Icenine
18-06-2009, 21:54
Raga ho rifatto il bench 3d mark2006
V posto 3 screen...
1 in modalità default procio a @2400mhz(289fsb) e scheda video a 750/900

1 con overclok del solo processore @2600mhz(289 fsb) e scheda video a 750/900

1 con overclok di tutti e 2 i componenti procio a @2600(289fsb) e scheda video a 800/1000

Configurazione:
Scheda madre 4 core dual sata 2 bios 2.13
Ram Corsair pc 6400 xms2 2x1gb
scheda video Sapphire 4870 512mb
Sistema operativo windows xp sp3

http://img7.imageshack.us/img7/9179/test3dmark2006del186200.jpg

http://img7.imageshack.us/img7/906/test3dmark2006del186200s.jpg

http://img38.imageshack.us/img38/9179/test3dmark2006del186200.jpg

roccia1234
19-06-2009, 10:33
Raga ho rifatto il bench 3d mark2006
V posto 3 screen...
1 in modalità default procio a @2400mhz(289fsb) e scheda video a 750/900

1 con overclok del solo processore @2600mhz(289 fsb) e scheda video a 750/900

1 con overclok di tutti e 2 i componenti procio a @2600(289fsb) e scheda video a 800/1000

Configurazione:
Scheda madre 4 core dual sata 2 bios 2.13
Ram Corsair pc 6400 xms2 2x1gb
scheda video Sapphire 4870 512mb
Sistema operativo windows xp sp3

http://img7.imageshack.us/img7/9179/test3dmark2006del186200.jpg

http://img7.imageshack.us/img7/906/test3dmark2006del186200s.jpg

http://img38.imageshack.us/img38/9179/test3dmark2006del186200.jpg

interessanti questi test... soprattutto il fatto che nonostante la differenza abissale di cache tra la mia cpu e la tua, a parità di frequenza le differenze nel punteggio cpu siano praticamente inesistenti, mentre le differenze si fanno più sentire se si guardano i fps dei vari test. A parte in canyon (e non ho capito perchè) la tua vga ha macinato anche 5-6 fps in più della mia, nonstante io sia a 770/920 e te a 750/900.
Anzi rettifica... io sono a 2,66 ghz, te a 2,6... sono 60 mhz in meno sulla cpu, quindi il vantaggio della cache, nelle situazioni che contano, è ancora maggiore.

Per curiosità, e se ne hai voglia/tempo, potresti fare i test con crysis? il gpu e, se riesci, il cpu. trovi tutte le istruzioni quasi passo passo in prima pagina, nel post prima di quello del 3dmark

Six1
19-06-2009, 12:48
Buona sera! Ho rieseguito il 3DMark06 con la HD3850 al massimo...
La differenza si vede... e si i 10000 li ho superati :sofico:
Aggiornata la classifica. ;)
E si hai raggiunto un risultato considerevole....la HD3850 AGP è una GPU veramente valida.
Secondo me il nostro Slot AGP, visto che è sostenuto da Ottimi Proci può ancora dare parecchio. Sono curioso di vedere cosa fà la HD4670 AGP....
Vedremo in futuro......

Adesso il sistema è stabile così tirato? l' hai lasciato così?
Oppure l' hai riportato indietro.....E a quanto sei discretamente stabile per lasciarlo fisso anche se Overclocckato?


Raga ho rifatto il bench 3d mark2006
V posto 3 screen...

Aggiornata la classifica.
Adesso il sistema è stabile così tirato? l' hai lasciato così?
Oppure l' hai riportato indietro.....E a quanto sei discretamente stabile per lasciarlo fisso anche se Overclocckato?

Se potessi fare anche il Crysis/Benchmark sarebbe molto utile come metodo di paragone.
Come detto da roccia1234 trovi tutte le regole da seguire in prima pagina.....
Comunque complimenti sei primo in tutte e due le classifiche 3DM06. ;)

halnovemila
19-06-2009, 14:10
A parte in canyon (e non ho capito perchè) la tua vga ha macinato anche 5-6 fps in più della mia, nonstante io sia a 770/920 e te a 750/900.
Anzi rettifica... io sono a 2,66 ghz, te a 2,6... sono 60 mhz in meno sulla cpu, quindi il vantaggio della cache, nelle situazioni che contano, è ancora maggiore.
Più che la cache credo che a fare la differenza sia la maggiore frequenza dell'FSB (289 contro 266; +8,6%).
Se poi Icenine ha l'impostazione BIOS della frequenza PCI-E impostata su "Auto" anzichè su 100, credo questo gli dia un leggero aumento delle prestazioni del bus PCI-E dato che, overcloccando l'FSB viene overcloccato anche il bus.
Per avere la controprova bisognerebbe che tu usassi lo stesso FSB e moltiplicatore di Icenine e rifacessi il test.

Saluti.
Alessio
.

Nomak87
19-06-2009, 14:14
Aggiornata la classifica. ;)
E si hai raggiunto un risultato considerevole....la HD3850 AGP è una GPU veramente valida.
Secondo me il nostro Slot AGP, visto che è sostenuto da Ottimi Proci può ancora dare parecchio. Sono curioso di vedere cosa fà la HD4670 AGP....
Vedremo in futuro......

Adesso il sistema è stabile così tirato? l' hai lasciato così?
Oppure l' hai riportato indietro.....E a quanto sei discretamente stabile per lasciarlo fisso anche se Overclocckato?

Ora sono tornato indietro perché comunque per giocare a PES2009, andare su internet e scrivere mi basta e avanza la configurazione default; però mi sembrava stabile, certo bisognerebbe provarlo per un periodo prolungato...

roccia1234
19-06-2009, 14:37
Più che la cache credo che a fare la differenza sia la maggiore frequenza dell'FSB (289 contro 266; +8,6%).
Se poi Icenine ha l'impostazione BIOS della frequenza PCI-E impostata su "Auto" anzichè su 100, credo questo gli dia un leggero aumento delle prestazioni del bus PCI-E dato che, overcloccando l'FSB viene overcloccato anche il bus.
Per avere la controprova bisognerebbe che tu usassi lo stesso FSB e moltiplicatore di Icenine e rifacessi il test.

Saluti.
Alessio
.

guarda... pagherei oro per riuscire a fare il boot a più di 280 :muro: non arriva neanche alla schermata del bios

Icenine
19-06-2009, 15:43
Si a 289 sono stabile....non ho riscontrato problemi anche giocandoci per ore....ma considerando il caldo di questi giorni preferisco abbassarlo un po.
Quando avevo la x1950pro agp avevo fatto diversi test e il limite è 292 di più non sale.
Per i test in crysis...provvedo a farli quanto prima e a postare i risultati

PS. LA frequenza pci-ex l'ho impostata a 100....ho paura di friggere la scheda video

Six1
19-06-2009, 16:26
Una notiziola fresca fresca a carattere generale su cui discutere......

Allora come sappiamo il nostro chipset supporta fino ad ora GPU ATI fino alla HD4870/90(Quest' ultima forse, potrebbe dipendere dal Bios, la risposta l' avremo dai Bios Futuri, già il 2.16a potrebbe dirci qualcosina di più.)
Invece per quanto riguarda le GPU nVidia questo supporta GPU fino alla GTS250(molto importante acquistare però la Video Cards GTS250 di MSI poichè si è riscontrato che funzioni sulla nostro Mobo sicuramente..... probabilmente perchè identica alla 9800GTX+ a parte ovviamente qualche miglioramento fatto tanto da poterla ribattezzare GTS250.
Miglioramenti comunque nel complesso di questa GPU rispetto alle ultime 9000 ci sono.
(già detto in precedenza).

Questo Post è per cercare di indirizzare all' acquisto di GPU i possessori della Asrock4CoredualSata2, senza dover correre il rischio di trovarsi una GPU inutilizzabile.
Ho chiesto sul Forum di Pc.TREIBER se la serie GTX di nVidia fosse compatibile con il nostro chipset......
Questa la loro risposta:

Hello Six1,

take a look here: http://www.pctreiber.net/thread.php?threadid=10442

"GTX 200 Serie

- aufgrund von mechanischen Problemen inkompatibel"

This means the GTX2xxer -Cards can´t be placed in this board due to mechanical incompatibility.

greetz
--------------------------------------------------------------------------

Questo è quello che ha riportato AsrocKUser amministratore di PCT.REIBER a ulteriore conferma di quanto mi è stato risposto:

AsrockUser:
"A questo punto vorrei ancora una volta, fare una breve panoramica delle attuali Schede Grafiche compatibili con il Chipset PT880 (775Dual-VSTA, 4CoreDual-VSTA e 4CoreDual-SATA2). Nota: produttori diversi da quelli dichiarati da Asrock(anche se la GPU è supportata), potrebbero non funzionare bene o per nulla.

GPU AMD(ATI):

Radeon HD 4000 Serie:
-HD 4830, HD 4850, HD 4870 --> - HD 4830, HD 4850 HD 4870 - -> Con una nuova versione del Bios

- HD 4650 - HD 4670 --> - HD 4650 HD 4670 - -> Con l'ultima versione beta, Scarica qui :http://www.pctreiber.net/download_kategorie_2.html

- HD 4350 - HD 4550 --> - HD 4350 HD 4550 - -> Nessuna informazione


Radeon HD 3000 Serie:
Con la nuova versione di Bios ci sono buone possibilità di eseguire tutte le Video Cards.


GPU nVidia:

GTX 200 Serie:
-No, A causa di problemi meccanici di incompatibilità

GTS 250 Serie:
- Si, Viene eseguita (Sicuramete quella di MSI, per le altre marche esiste il dubbio)

GeForce 9000 Serie:
Con le GPU NVIDIA G9x è molto difficile la compatibilità. Il motivo: Il bios deve avere un PCIe 1.x "di ripiego" modalità di compatibilità.

Il G94 Video Cards (9600 GT), sembra che nella maggior parte dei casi abbia questo bios. Per quanto riguarda le G96 Video cards (9500 GT, 9400 GT), non ho informazioni. Il G92 Video Card è confuso, con poche informazioni sui nuovi modelli. Ecco i migliori compatibili produttori della scheda grafica per sapere se è disponibile un BIOS:
ASUS GeForce 9800 GT - ASUS GeForce 9800 GTX+ Bios 2.10.
Secondo la AsRock ASUS GeForce 9800 GT e GeForce 9800 GTX ASUS + da Bios 2.10 sono compatibili lo sostenendolo con fermezza, questo non si può dire con 9800 di altri produttori.

GeForce 8000 Serie:
Le Video Cards G8x sono eseguite (con driver più recenti) ma vale lo stesso discorso per la serie G9x attenersi alle marche riportate da Asrock."

Versione tradotta dal sottoscritto....quindi abbiate pietà :D

Questa è la versione in tedesco......
http://www.pctreiber.net/thread.php?threadid=10442
so che non vi interessa perchè in tedesco, ma per lo meno così sapete la fonte, cioè AsrockUser amministratore di Pc.TREIBER.

La versione in inglese del Sito da quando hanno ricevuto il famoso attacco dal virus che gli ha fatto perdere mesi e mesi di lavoro non è stata ancora ripristinata.
Quindi adesso se qualche utente è interessato a una nuova GPU PCIEx sappiamo con maggiore certezza cosa rispondergli.
Vedremo in Futuro se le versioni successive alla serie GTX saranno compatibili con il nostro Chipset, ma viene da chiedersi se però a quel punto ne varrà più veramente la pena, sopratutto ipotizzando che avranno prestazioni talmente elevate da non poter pensare per ovvie ragioni di montarle sul Nostro Slot PCIEx 4x.
Se avete dubbi in merito chiedete pure......

Quindi consiglio fortemente.....
Per gli acquisti di Video Cards di attenersi alla lista di GPU/marca supportate come riportato in prima pagina.(Post 2 Sezione VGA PCIEx supportate)

In prima pagina riporterò in maniera più dettagliata il tutto.

Marx01
19-06-2009, 23:22
per l'overclock di un core 2 duo (e derivati) con ddr non c'erano problemi, saliva esattamente come con le ddr2. L'unica cosa è che non ho provato la bsel mod con le ddr, quindi non so se da problemi o no, anche se credo che vada tutto liscio in ogni caso.


mi e' venuto un dubbio...allora con e5200 e ddr400 se lo tengo a default,ho una situazione ottimale perche' le ram lavorano in sincrono con FSB della cpu(200x12,5) giusto?
Se invece faccio overclock...le ddr 400 riescono a stare dietro ad un aumento di FSB della cpu rimanendo in sincrono(non so mettiamo 250x12,5 ad esempio),oppure bisogna intervenire sul moltiplicatore? :stordita:

p.s. cos'e' la bsel mod? :fagiano:

roccia1234
20-06-2009, 06:14
mi e' venuto un dubbio...allora con e5200 e ddr400 se lo tengo a default,ho una situazione ottimale perche' le ram lavorano in sincrono con FSB della cpu(200x12,5) giusto?
Se invece faccio overclock...le ddr 400 riescono a stare dietro ad un aumento di FSB della cpu rimanendo in sincrono(non so mettiamo 250x12,5 ad esempio),oppure bisogna intervenire sul moltiplicatore? :stordita:

p.s. cos'e' la bsel mod? :fagiano:

si, bisogna intervenire sul moltiplicatore ram. Sali in sincrono finchè puoi, poi abbassi il molti e torni a salire.

la bsel mod, è una mod che consiste nell'unire due pin del processore con della pasta termica, per fare in modo che la mobo lo riconosca con un fsb di default differente. Ad esempio il mio e2180 ha fsb 800 (200 quad pumped) di fabbrica. Ho fatto la bsel mod e l'ho portato a fsb 1066 (266 quad pumped) di default. Ora su qualcuque mobo venga montato è riconosciuto come 266*10 anziche 200*10. La mod si fa con della pasta conduttiva all'argento (o al rame) ed è totalmente reversibile in caso di problemi/instabilità. basta infatti passare il dito sull pasta termica e questa si toglie.

Ecco un link di esempio di bsle mod fatta proprio con e5200 su 4coredual sata2 rev 2

http://forums.guru3d.com/showthread.php?p=2933913

La bsel mod è solo quella in basso a destra. La piccola mod in alto a sinistra è per il vcore (l'ho scoperta solo ora... e mi sembra mooolto interessante).

se hai altre domande chiedi pure

ciao!

Marx01
20-06-2009, 13:58
grazie dell'esauriente risposta roccia1234 ;)

halnovemila
20-06-2009, 15:57
Sono passate "solo" ;) un paio di settimane da quando avevo annunciato i grafici relativi ai test che ho effettuato sulla HD4 870 Vapor-X e adesso, dopo aver raccolto, inserito e ordinato tutti i dati, sono finalmente in grado di pubblicarli. :)

Considerazioni generali sulla scheda video
http://s19.postimg.org/4alqeytz7/HD4870_Vapor_X.jpg
Le schede Radeon della serie HD4000 non sono certo note per per aver un limitato assorbimento di energia e produzione di calore.
La Sapphire HD4 870 Vapor-X non fa eccezione ma si distingue per l'utilizzo di un dissipatore che, data la sua particolare costruzione ed efficienza, riesce a mantenere la scheda entro le temperature di esercizio pur con una ventilazione attiva ridotta al minimo.
Questo modello di HD4870 è quindi indicato a chi cerca una buona combinazione tra potenza e silenziosità.
Al proposito ho effettuato una prova comparativa, basata su alcune registrazioni audio, che può essere consultata qui:
http://www.hwupgrade.it/forum/showpost.php?p=27827247&postcount=4754

I test: come sono state condotte le prove
I risultati pubblicati qui di seguito sono stati ottenuti eseguendo una batteria di test per ciascuna delle cinque combinazioni di frequenza CPU e frequenza FSB:1.86GHz(266x7),2.52GHz(280x9),2.70GHz(300x7),3.30GHz(275x12),3.30GHz(300x11)
Per ciascuna combinazione, i test sono stati ripetuti almeno due volte: una prima volta con l'impostazione BIOS "PCIE Clock" impostata su "100 MHz", e una seconda volta con la stessa impostazione settata su "Sync with CPU".
Alcuni test sono stati eseguiti pure una terza volta dopo aver impostato l'opzione "PCIE Clock" su "Auto".

La batteria di test ha compreso:
Unigine Sanctuary Demo ver. 04
3DMark06 (impostazioni di default)
3DMark06 (con AA 4x attivo)
Test "statico" CoD4 - Multi (no AI, scena fissa)
Test "dinamico" CoD4 - Arcade (missione)
Test "statico" Frontlines Fuel of War

Per ciascuna combinazione FSB/CPU è stata misurata la larghezza di banda della RAM di sistema mediante Sandra 2007
http://s21.postimg.org/dkodbertf/RAM_6634.jpg (http://postimg.org/image/dkodbertf/)

Qui la tabella con tutti i risultati raccolti per la realizzazione dei grafici:
http://www.controsensi.it/Forum/Tabella_risultati_HD4870.pdf

Configurazione del PC
Intel Core2 Duo E4600 (2,4GHz)
Asrock 4CoreDual-Sata2
2x 1GB RAM DDR2 PC2 9200 OCZ FlexXLC 3-3-3-8 1T - Dual Channel
Sapphire HD4 870 Vapor-X 1GB GDDR5
Windows XP SP2 - Drivers 9.3

Primo grafico: "Unigine Sanctuary Demo ver.04" e 3DMark06
http://s10.postimg.org/3x007x4bp/Unigine_2152_HD4870_PCIE_Auto.jpg (http://postimg.org/image/3x007x4bp/) http://s18.postimg.org/qotzc11lh/3_DM06_12904_C2_D_3_3_GHz_RAM300_Cat9_3_HD4870_750.jpg (http://postimg.org/image/qotzc11lh/)
http://www.controsensi.it/Forum/images/HD4870_Unigine_3DMark06_Graph.gif

Analisi del grafico
In questo grafico la barra rossa indica il punteggio CPU calcolato da 3DMark06, mentre qualla gialla rappresenta la larghezza di banda RAM.
Come si può notare i risultati del test Unigine sono più o meno tutti allineati sullo stesso livello nonostante sensibili variazioni di potenza CPU e DTR della RAM.
I punteggi relativi ai test 3DMark06, invece, come è lecito aspettarsi, aumentano con l'aumentare del punteggio CPU (infatti, come sappiamo, il punteggio CPU concorre direttamente al calcolo del punteggio finale).
E' però interessante notare che in corrispondenza delle combinazioni con gli FSB più alti e potenza CPU sufficiente (2.70GHz@300x7,3.30GHz@300x11), i risultati 3DMark sono stati marginalmente migliori laddove la relativa impostazione BIOS ha consentito al bus PCI-E una frequenza diversa (superiore) dai canonici 100MHz ("PCIE Clock" su "Sync with CPU" o "Auto").
A conferma della relazione tra frequenza FSB, frequenza PCI-E, e rapporto tra potenza CPU e potenza "GPU", c'è il miglioramento registrato al test 3DM_AA4_Sync in corrispondenza della combinazione 2.52GHz@280x9, dove l'attivazione dell'AA4x, aumentando il tempo di calcolo necessario alla scheda video per renderizzare i fotogrammi, ha consentito alla CPU di essere meno (o affatto) limitante.
Il marginale miglioramento al test al test 3DM_AA4_Sync non è invece riscontrabile con la CPU@3,3GHz e l'FSB@275; evidentemente perchè, nonostante la CPU non sia limitante, la frequenza FSB non è abbastanza alta da far "scattare" un aumento del clock PCI-E sufficiente a produrre apprezzabili differenze di prestazioni.

Secondo grafico:CoD4, Frontlines Fuel of War e comparazione con HD3 850 AGP
http://s3.postimg.org/nyd9zg07j/Co_D4_91fps_750_900_PCIE_Auto.jpg (http://postimg.org/image/nyd9zg07j/) http://s10.postimg.org/hrbbtoftx/Co_D4_Cd_S_37fps_750_900_PCIE_Auto.jpg (http://postimg.org/image/hrbbtoftx/)http://s27.postimg.org/yyp8t3vj3/FFo_W_reference_Screeshot.jpg (http://postimg.org/image/yyp8t3vj3/)
http://s7.postimg.org/7dk3twl8r/HD4870_Co_D4_FFo_W_Graph.gif (http://postimage.org/)
[/url]
Come sono state condotte le prove: test "statico" CoD4 - Multi
La scheda è stata sottoposta ad un test "sul campo" con il gioco Call of Duty 4: Modern warfare.
I risultati etichettati come CoD_Multi sono relativi ad un test "statico" effettuato su di una particolare inquadratura di una mappa multiplayer, senza giocatori, senza AI, senza oggetti in movimento.
Le impostazioni grafiche utilizzate sono:
Risoluzione=1024x768, Anti-Aliasing=4x, Depth of Field=No; Sync Every Frame=No, Dual Video
Cards=No;
tutte le altre impostazioni su Yes o al valore massimo consentito.
Texture in automatico e Anisotropic Filtering al valore predefinito (seconda tacca).

I risultati del test CoD_Multi sono stati sempre precisi e facilmente riproducibili.

Come sono state condotte le prove: test "dinamico" CoD4 – Arcade
I risultati di questo test sono identificati nel grafico dalla dicitura CoD4_Arc.
Le impostazioni grafiche utilizzate sono le medesime del test CoD_Multi ma la scena di riferimento per la misurazione degli fps è stata tratta dalla missione Charlie don't Surf giocata in modalità "arcade" e livello di difficoltà "Hardened".
E' stato scelto un momento particolarmente "pesante" (dal punto di vista delle prestazioni grafiche) a 35 secondi dall'inizio della missione.
Per la presenza di elementi casuali in ciascuna missione, i test sono stati ripetuti tre o quattro volte (in alcuni casi, per maggiore sicurezza, sono arrivato a ripetere il test anche oltre dieci volte) per venire a capo di una certa "variabilità" dei risultati che poteva superare anche i due fotogrammi al secondo.
I risultati "scelti" per l'inserimento nel grafico sono quindi quelli che sono stati riprodotti più volte degli altri pur non essendo unici (se ad esempio, i risultati di quattro prove alla stessa frequenza CPU erano 47, 45, 44, 45, la "scelta" cadeva su 45).

Come sono state condotte le prove: test "statico" Frontlines Fuel of War
Anche questo test, presente nel grafico con l'etichetta FFOW, al pari del test CoD_Multi è basato sulla misurazione degli FPS in una determinata inquadratura "statica" (scelta nella mappa della missione "Capture rail depot", Capitolo 2 "Captains of industry"), in assenza di oggetti in movimento e con l'A.I. "a riposo" (il programma è in attesa che il giocatore proceda nella missione).
Le impostazioni grafiche utilizzate sono:
Risoluzione=1280x1024, Overall quality="Very high", Anti-Aliasing=4x (forzato tramite Ati Tray Tools)

Analisi del grafico
Per quanto riguarda il test CoD_Multi si possono fare tre considerazioni:
1 – La potenza CPU non influisce
2 – I risultati maggiori si hanno in corrispondenza degli FSB maggiori e laddove la relativa impostazione BIOS ha consentito al bus PCI-E una frequenza diversa (superiore) dai canonici 100MHz ("PCIE Clock" su "Sync with CPU" o "Auto").
3 – Il vantaggio della HD4 870 sulla HD3 850 AGP (barre rosso bordeaux) è ampio e costante (+36%)

Il test FFOW riproduce una situazione tipicamente "GPU limited" che si deduce dall'assenza di miglioramenti del framerate con l'aumentare della potenza CPU; non a caso in questo test ho usato una risoluzione maggiore degli altri due.
Il vantaggio sulle prestazioni dell'HD3850 AGP (non presente nel grafico in questo test) è impietoso: 23fps per la HD3850 (con clock di default) contro i 52 della HD4870 (+126% :eek:).

Di tutt'altro tono invece i risultati relativi al test "dinamico" CoD4 – Arcade.
In questo test la CPU è fortemente sollecitata a causa della presenza di A.I. in azione, dell'elevato numero di oggetti in movimento (elicotteri, soldati, proiettili, etc...), dell'elaborazione collegata alla riproduzione dei suoni ambientali, del parlato, e della musica di commento all'introduzione della missione.
Sarebbe quindi lecito aspettarsi un aumento degli FPS prodotti man mano che la potenza CPU (e il relativo punteggio CPU 3DMark) aumenta.
Contrariamente alle aspettative, invece, i dati ci mostrano uno scenario tipicamente "GPU limited" a partire dalla combinazione con CPU@2.52GHz e FSB@280MHz; infatti gli FPS non salgono più sebbene il punteggio CPU passi da 1666 della prima combinazione ai 2893 dell'ultima (+74%).
Che il "limite" sia veramente dovuto alla GPU è però difficilmente credibile dato che la HD3 850 AGP, che sappiamo essere molto meno potente della HD4870, raggiunge risultati nettamente migliori.
Il sospetto che la limitazione dipenda invece dal bus PCI-E@4x è invece suffragato dagli evidenti aumenti di FPS registrati in corrispondenza degli FSB più alti in combinazione con l'opzione BIOS "PCIE Clock" impostata su "Sync with CPU" o "Auto", ovvero con una frequenza del bus PCI-E maggiore di 100MHz.
Ovviamente, in assenza del "lock" del bus PCI-E sulla frequenza di 100MHz, maggiore è l'overclock sull'FSB, maggiore sarà l'aumento l'overclock che verrà applicato anche al bus PCI-E, e maggiore la larghezza di banda che il bus sarà in grado di fornire.
Che in questo tipo di test il bus di comunicazione tra chipset e scheda video sia particolarmente sollecitato, e possa quindi rappresentare un fattore critico, è comprensibilmente dovuto al fatto che l'inquadratura è in continuo movimento e pertanto tutta la geometria coinvolta deve essere ricalcolata e reinviata alla scheda per ogni singolo fotogramma renderizzato.

Nel grafico sono presenti anche i risultati ottenuti in questo test dalla HD3 850 AGP in configurazione overcloccata con le frequenze GPU e RAM rispettivamente a 750 e 1000MHz al posto delle frequenze predefinite 670 e 830.
Il confronto con la HD4870 non overcloccata è plausibile dato che, essendo questa evidentemente limitata, qualsiasi eventuale overclock venisse applicato non comporterebbe alcun aumento degli FPS.

Saluti.
Alessio

Credits: l'elaborazione dei dati e i grafici sono stati realizzati mediante [URL="http://www.openoffice.org/"]"OpenOffice.Org Calc" (http://postimage.org/); l'adattamento, conversione e il salvataggio delle immagini sono stati eseguiti mediante GIMP (http://www.gimp.org/).
.

Marx01
20-06-2009, 17:10
un consiglio...la scheda audio integrata in questa mobo e' valida?
Io attualmente ho una sound blaster audigyLS 24 bit e' meglio o peggio di quella integrata? :stordita:

Six1
20-06-2009, 17:40
Sono passate "solo" ;) un paio di settimane da quando avevo annunciato i grafici relativi ai test che ho effettuato sulla HD4 870 Vapor-X e adesso, dopo aver raccolto, inserito e ordinato tutti i dati, sono finalmente in grado di pubblicarli. :)



Interessante, però.......:

Tra AGP8x e PCIE4x la banda passante è pressochè la stessa, le prestazioni dovrebbero essere pressochè identiche, ma analizzando poi invece il fatto che hanno diversi tipi di connessione (parallela per AGP, e bidirezionale/seriale per PCIEx) questo non è poi completamente vero poichè qualche vantaggio in teoria dovrebbe averlo la connessione bidirezionale/seriale, cioè PCIEx.
Quindi questo calo di prestazioni a cosa potrebbe essere imputabile?
Non al PCIEx4x.

Il PCI Express è una connessione bi-direzionale punto-a-punto/seriale, e ciò significa che offre lo stesso bandwidth in entrambe le direzioni.
PCIEx 4x: 1 GB/ps x2 = 2 GB/ps(Velocità di trasferimento totale costante) ha un interfaccia dati seriale e la velocità opposta non cambia (1GBps)

l' AGP è una connessione parallela ciò significa che offre lo stesso bandwidth in un unica direzione.
AGP: 2 GB/ps(Velocità di trasferimento non costante) ha un interfaccia dati parallela nella direzione opposta la velocità raggiunta è di soli 266MBps :eek:

Detto questo mi chiedo come sia possibile che la HD3850 non abbia saturato la banda passante dello SLOT AGP, quando questo è praticamente identica alla banda passante dello SLOT PCIEx 4x, (poi aggiungendo e ribadendo che una connessione bidirezionale/seriale è sicuramente più efficiente di una connessione parallela).
Questo calo si sarebbe dovuto presentare alla stessa maniera per entrambe visto che il bandwidth è lo stesso, anzi lo Slot AGP per le motivazioni dette prima dovrebbe presentare maggiori cali di prestazione.
Io continuo ad ipotizzare questo calo a qualcosa d' altro.
Se tu mi avessi fatto notare questo calo su slot PCIex 4x(2GB/ps) bidirezionale a confronto già di un un PCIEx8x (4GB/ps) bidirezionale dove si sa che il bandwitch è diverso però la connessione è la stessa avrei avuto ovviamente meno dubbi sulla tua tesi.
Il paragone AGP, PCIex non regge. Sono due tecnolologie diverse, e la seconda nonchè l' ultima in ordine di tempo ed innovazione è superiore nelle prestazioni (e non solo), qualsiasi esso sia 4x, 8x, 16x, 32x.

roccia1234
20-06-2009, 18:02
un consiglio...la scheda audio integrata in questa mobo e' valida?
Io attualmente ho una sound blaster audigyLS 24 bit e' meglio o peggio di quella integrata? :stordita:

ciao!
Non so dirti se è meglio o peggio... però sappi che entrambe hanno codifica software dell'audio... cioè l'elaborazione audio rimane sempre a carico della cpu, anche se la creative fa pesare di meno questo fatto. Per la qualità audio, ripeto, non conosco le differenze... e tin proposito la mia opinione è questa:
Se usi schede audio di basso livello come queste due, molto probabilmente avrai un'impianto audio non professionale o comunque non di altissima qualità, quindi le differenze, in termini di qualità, che ci sono tra queste due schede audio saranno risibili. Magari potresti mettere su la creative, in virtù delle eventuali opzioni/settaggi in più che ti consente questa scheda. Poi dipende sempre da quello che ci attacchi.
Personalmente ho una creative sound blaster audigy 2 se 24 bit (credo molto simile alla tua) e uno un paio di cuffie per l'audio. Di differenze in termini di qualità audio non ne ho proprio sentite.

ciao!

halnovemila
20-06-2009, 20:06
AGP: 2 GB/ps(Velocità di trasferimento non costante) ha un interfaccia dati parallela nella direzione opposta la velocità raggiunta è di soli 266MBps :eek:

Quello che dici è vero, l'AGP è un bus di tipo asimmetrico come, per esempio, l'ADSL; molta più banda in un verso, molto meno nell'altro.
Ci sono casi in cui una connessione assimetrica non è un problema.
Preferiresti avere una connessione Internet ADSL che fosse 2Mbit down+ 2Mbit up o una asimmetrica 3Mbit down e 1 up?
Parlando di connessioni Internet di solito si preferisce l'asimmetrica perchè è molto più quello che passa in un senso che nell'altro... ma chi lavora molto in upload potrebbe preferire una connessione più bilanciata in entrambe le direzioni di comunicazione.
Il bus di comunicazione tra chipset e scheda video (AGP o PCI-E), al giorno d'oggi, viene utilizzato soprattutto in un senso: dalla CPU alla scheda video.
La scheda video ha ben poco da comunicare alla CPU e le schede AGP dotate di sufficiente memoria video on-board, in pratica non fanno uso dello spazio esse riservato nella RAM di sistema.

Comunque, i dati sono quelli, e la "coincidenza" tra aumento del clock PCI-E e aumento degli FPS è ben visibile.
Poi, se qualcuno sa dare una spiegazione ai risultati sopra esposti escludendo il coinvolgimento del PCI-E come causa "limitante"... sono tutto orecchi (e occhi per leggere ;))

Aggiungo che le nuove tecnologie di comunicazione seriale hanno sostituito alcune parallele per il solo fatto che le interferenze reciproche tra le linee della comunicazione parallela impedivano, o rendevano particolarmente difficile, l'utilizzo di maggiori frequenze di clock (infatti, già l'AGP 8x utilizza una particolare tecnica di riduzione delle interferenze chiamata DBI, Dynamic Bus Inversion) e non per un "vantaggio" prestazionale intrinseco nella tecnologia seriale.
Ad oggi, per alcune applicazioni/utilizzi, è risultato più conveniente avere una sola linea di comunicazione ad altissima frequenza, piuttosto che molte ad una frequenza più bassa.
In realtà il bus PCI-E è un esempio di uso "parallelo" di canali di comunicazione "seriali".

Six1
20-06-2009, 23:12
Forse facciamo finta di non capire.......
Ho detto:
Mi chiedo come sia possibile che la HD3850 AGP non abbia saturato la banda passante dello SLOT AGP, quando questa è praticamente identica alla banda passante dello SLOT PCIEx 4x, (poi aggiungendo e ribadendo che una connessione bidirezionale/seriale è sicuramente più efficiente di una connessione parallela).
--------------------------------------------------------------------------
Il PCI Express è una connessione bi-direzionale punto-a-punto/seriale, e ciò significa che offre lo stesso bandwidth in entrambe le direzioni.
PCIEx 4x: 1 GB/ps x2 = 2 GB/ps(Velocità di trasferimento totale costante) ha un interfaccia dati seriale e la velocità opposta non cambia (1GBps)

l' AGP è una connessione parallela ciò significa che offre lo stesso bandwidth in un unica direzione.
AGP: 2 GB/ps(Velocità di trasferimento non costante) ha un interfaccia dati parallela nella direzione opposta la velocità raggiunta è di soli 266MBps ;)
--------------------------------------------------------------------------
La risposta sta che nell' una e nell' altra GPU (AGP/PCIEx) hanno saturato la banda passante a disposizione sullo Slot AGP8x e/o su Slot PCIEx4x. Come già detto l' eccezione del calo di FPS della HD4870 in quel determinato punto del gioco nel tuo sistema è un eccezione che non può confermare la regola e come tale andrebbe considerata. Il tuo interrogativo non può trovar risposta fin quando non vengono effettati test variegati e specifici a vagliare tutte le ipotesi che non sono solo riconducibili al PCIEx 4X.
Io credo che un Test che possa analizzare un ipotetica saturazione della banda passante del PCIEx4x da parte delle ultime GPU messe in commercio sarebbe quello di mettere a paragone PCIEx 4x con tutte le restanti 8x 16x 32x (ma categoricamente stessa tecnologia, quindi PCIEx e con la stessa GPU e sullo stesso Sistema e tutto sotto gli stessi Benchmark.)
Dai test finora effettuati, con Benchmark validi quali 3DMark2006, Crysis/Benchmark, Ungine, non stiano che confermando che fino alla serie HD4870 PCIEx 2.0 il PCIEx4x 1.0 non crea nessun limite semplicemente perchè questa GPU non è ancora in grado di saturare tutta la bandwidth messa a disposizione dal PCIEx4x.
Questo può essere affermato paragonando i test effettuati da tanti altri siti e utenti sulla rete su Slot PCIEx 16x e con le stesse GPU, con i risultati ottenuti da Noi.....i risultati sono nella maggior parte dei casi identici e se variano, variano di quel poco da poter definire tale variazioni trascurabili.

Infine....
La risposta indiretta che ci conferma che il PCIEx4X non ha limitato la HD4870 su slot PCIEx4x è dato proprio dal fatto che in quel punto del Gioco, lo stesso punto, la HD3850 AGP su slot AGP non è stata limitata, per le ragioni sopra mensionate.
Il bandwidth su SLOT PCIEx 4x è identico a quello su SLOT AGP con la considerevole differenza che il PCIEx4x è superiore perchè permette in più una connessione bi-direzionale punto-a-punto/seriale, e ciò significa che offre lo stesso bandwidth in entrambe le direzioni, cosa che invece come ampiamente spiegato e scritto non permette assolutamente la Tecnologia AGP.
Questi sono i fatti. ;)

halnovemila
21-06-2009, 00:04
Il bandwidth su SLOT PCIEx 4x è identico a quello su SLOT AGP con la considerevole differenza che il PCIEx4x è superiore perchè permette in più una connessione bi-direzionale

Credo tu stia facendo un po' di confusione.
La larghezza di banda del bus PCI-E@4x in direzione CPU->GPU è 1GByte/s; quella dell'AGP 8x, nella stessa direzione è 2GByte/s.
Non mi pare proprio che si possa dire che sono uguali.
Dato che il 99% dei dati transitano nella direzione CPU->GPU, poco importa che nella direzione opposta, cioè GPU->RAM, il PCI-E@4x consenta un DTR di 1GB/s, mentre l'AGP 8x di 0,2GB/s.

Poi c'è un dato "lampante" e "sperimentale" (che continui a ignorare) che conferma in modo evidente il legame che c'è tra il "limite" agli FPS e la larghezza di banda del bus PCI-E: l'aumento della frequenza del bus PCI-E ha comportato un innalzamento del limite.

Questa cosa te l'ho già detta tre volte (due in questa discussione e una nella discussione sulla HD3 850 AGP).
Non la ripeterò più perchè, se per te questa "coincidenza ripetuta" non significa nulla, credo che ogni altra parola da parte mia sia solo tempo perso.

Poi, siamo d'accordo (l'ho già detto anche questo... ma forse non mi hai letto) che il mio test è un caso "particolare" che non può essere considerato "regola".

Può darsi che io sia andato a pescare l'unico fotogramma dell'unico gioco in cui la HD4 870 è limitata da fattori esterni (che, guarda caso, non limitano la HD3 850 AGP)... ma può anche darsi che io non sia così "sfigato" e che di fotogrammi come quello che ho "pescato" ce ne siano molti altri.

Comunque non è la scheda video che di per sè satura o meno il bus; la saturazione dipende in primo luogo dalla complessità della scena che viene renderizzata (quindi dal gioco e dal livello di qualità/dettaglio), dalla dinamicità della scena e dagli Fps prodotti.
Per questo motivo l'eventuale limitazione dovuta a saturazione del Bus può benissimo presentarsi in determinate scene di determinati giochi e non essere affatto presente in altre scene dello stesso o di altri giochi.

Notte.
:)

Six1
21-06-2009, 00:59
Dai una letta a questi:
Qui parlano di un ipotetico problema di banda con GPU HD4XXX fino proprio alla 4870, (forse causato da driver).
La 4890 forse è fuori da tale discorso.
Mi è sembrato facesse proprio al caso nostro o meglio al tuo.:)

http://www.hwupgrade.it/forum/showthread.php?t=1994178

http://forum.beyond3d.com/showthread.php?t=54321

http://www.xtremesystems.org/forums/showthread.php?t=225823

Versioni tradotte:
http://translate.google.com/translate?hl=it&u=http%3A%2F%2Fforum.beyond3d.com%2Fshowthread.php%3Ft%3D54321

http://translate.google.com/translate?hl=it&u=http%3A%2F%2Fwww.xtremesystems.org%2Fforums%2Fshowthread.php%3Ft%3D225823

Gli ho dato una letta veloce quindi non so fino a quanto sia utile al nostro caso, quando torno approfondisco.
Se non trovi nulla di interessante sorry. ;)
Hai tutto il tempo per leggerteli con calma, io sarò disponibile sul Forum tra qualche giorno.....
Un salutone a tutti.

halnovemila
21-06-2009, 12:28
Dai una letta a questi:
Qui parlano di un ipotetico problema di banda con GPU HD4XXX fino proprio alla 4870, (forse causato da driver).
La 4890 forse è fuori da tale discorso.
Mi è sembrato facesse proprio al caso nostro o meglio al tuo.:)

http://www.hwupgrade.it/forum/showthread.php?t=1994178

Il link che hai riportato è molto interessante... purtroppo non fa al caso nostro dato che il "problema di banda" (che poi,in assenza di cross-fire,non è un vero problema) riguarda solo la direzione GPU->CPU che, in alcuni casi, risulta essere 4 o 5 volte inferiore alla larghezza di banda CPU->GPU.
CPU->GPU RAM(CPU)<-GPU
HD4870 PCI-E ~4GB/s ~1GB/s
HD3850 AGP ~2GB/s ~0,2GB/s

Link ad un esempio di risultati relativi al PCI-E http://forum.beyond3d.com/showpost.php?p=1299712&postcount=1
Link ad un esempio di risultati relativi all'AGP http://www.xtremesystems.org/forums/showpost.php?p=3818178&postcount=2

Il PCI-E@4x della 4CoreDual-Sata2 è in grado di fornire 1GB/s nella direzione CPU->GPU, ovvero un quarto di quanto misurato dalla maggior parte di coloro che hanno partecipato a quella discussione.

In ogni caso la tua equazione (da me confutata sul piano teorico) tra le prestazioni del PCI-E@4x e quelle dell'AGP 8x, mi hanno ricordato che l'AGP 4x ha all'incirca la stessa banda CPU->GPU del PCI-E@4x (~1GB/s) e che pertanto se la HD4870 è stata limitata dal bus PCI-E@4x, altrettando dovrebbe accadere per la HD3 850 AGP se il bus AGP venisse impostato a 4x.
Ho fatto la prova e... ecco i risultati.
http://s19.postimg.org/ud1jk7ygz/PCIE4x_AGP4x_AGP8x_comparison.gif
Risultati del test "dinamico" CoD4 - Arcade (missione) eseguito come indicato nel post #1195 (http://www.hwupgrade.it/forum/showpost.php?p=27924222&postcount=1195). CPU@3.3GHz, FSB@300MHz. OC=Overclock su GPU/RAM_video pari rispettivamente a 750/1000 contro i 670/830 di fabbrica.

CVD :)
L'AGP@4x, al gioco CoD4, nel punto dove ho fatto la misurazione degli FPS, comporta una perdita di FPS tale da avvicinare molto i risultati della HD3850 AGP a quelli della HD4870 PCI-E.

Dato che i risultati dei test Unigine Sanctuary Demo e 3DMark06 da me riportati sono in linea con quelli postati da altri con equivalenti configurazioni di CPU e RAM, non credo si possa affermare che i risultati degli altri test da me eseguiti sulla HD4870 siano inficiati da una "particolare" inefficienza che affliggerebbe specificatamente solo il mio sistema e non quello di altri.

Saluti.
Alessio
.

Marx01
21-06-2009, 19:33
ciao!
Non so dirti se è meglio o peggio... però sappi che entrambe hanno codifica software dell'audio... cioè l'elaborazione audio rimane sempre a carico della cpu, anche se la creative fa pesare di meno questo fatto. Per la qualità audio, ripeto, non conosco le differenze... e tin proposito la mia opinione è questa:
Se usi schede audio di basso livello come queste due, molto probabilmente avrai un'impianto audio non professionale o comunque non di altissima qualità, quindi le differenze, in termini di qualità, che ci sono tra queste due schede audio saranno risibili. Magari potresti mettere su la creative, in virtù delle eventuali opzioni/settaggi in più che ti consente questa scheda. Poi dipende sempre da quello che ci attacchi.
Personalmente ho una creative sound blaster audigy 2 se 24 bit (credo molto simile alla tua) e uno un paio di cuffie per l'audio. Di differenze in termini di qualità audio non ne ho proprio sentite.

ciao!

Bene allora se mi dici cosi' metto su ancora la creative.
Adesso mi e' venuto un altro dubbio...ho visto la foto in prima pagina della scheda madre e ho visto che i quattro slot per le ram si differiscono in colori diversi 2DDR+2DDR2,ma se vengono riconosciuti in slot differenti io ho 3 banchi da 1gb ciascuno dove lo metto il terzo?:confused: :mbe:

Nomak87
21-06-2009, 19:46
Bene allora se mi dici cosi' metto su ancora la creative.
Adesso mi e' venuto un altro dubbio...ho visto la foto in prima pagina della scheda madre e ho visto che i quattro slot per le ram si differiscono in colori diversi 2DDR+2DDR2,ma se vengono riconosciuti in slot differenti io ho 3 banchi da 1gb ciascuno dove lo metto il terzo?:confused: :mbe:

Scusa la brutalità... ma non lo metti! :D

Marx01
21-06-2009, 20:50
e se lo caccio dentro allo slot delle ddr2 succede qualcosa?:asd:
Cavolo a me 1GB in piu' faceva comodo :( ,pero' almeno cosi' con solo due riesco a metterli in dual channel...

Nomak87
21-06-2009, 21:06
e se lo caccio dentro allo slot delle ddr2 succede qualcosa?:asd:
Cavolo a me 1GB in piu' faceva comodo :( ,pero' almeno cosi' con solo due riesco a metterli in dual channel...

Riesci a metterli in dual channel se sono identici i banchi, nel senso che li hai comprati in un apposito kit per il Dual-Channel se no potresti avere svariati problemi di stabilità; parlo per esperienza personale! :D

roccia1234
22-06-2009, 07:42
bhe... se usi xp 2 gb bastano e avanzano attualmente per la maggior parte delle applicazioni. Poi se metti solo due stecche, hai il dual channel, quindi una banda passante raddoppiata.
Per quanto riguarda la stabilità del dual channel con ram differenti... beh ... direi che va a fortuna. Io non ho avuto problemi di instabilità, anzi. Su una vecchia p4p800 (socket 478 con p4 3,06 ghz) ho quattro stecche di ram da 512 mb l'una, una kingston 400, una adata sempre 400, una di marca ignota sempre 400 e una kingston 266. Nonostante tutto questo mischiotto, il pc è stabilissimo (dual channel attivo), anzi sono riuscito pure a overcloccare il p4 fino a 3,33 ghz stabile da daily use (fsb 145).
Prova, magari ti va bene. Più che altro cerca di mettere ram più possibile identiche, controlla frequenza nominale e timings (non prendere esempio dal mio mischiotto :D ).

Ciao!

P.S. se metti una ddr nelle ddr2 (oltre a non essere compatibili meccanicamente e elettricemente) secondo me ti trovi un condensatore nel naso :D :sofico: :Prrr:

dexter78
22-06-2009, 16:50
Ciao a tutti, sono nuovo del forum però è da tempo che leggo le ultime news su questa scheda madre.
Vorrei upgradare la mia scheda video (Sapphire 3650 AGP ddr3) con una Sapphire 4850 Pci-Ex 512Mb (questa (http://www.eprice.it/Schede-Video-SAPPHIRE/s-1865122)): questo modello/marca è compatibile? :help:
Ho letto la lista iniziale, ma di 4850 ho visto solo la Asus (40euro più costosa).
Che ne pensate di questo upgrade? Credo ne valga la pena, almeno potrei attivare tutti i filtri per migliorare la qualità video (al momento il mio monitor ha ris. max. 1280*1024)
Ho il bios aggiornato alla 2.13 con 4Gb di RAM Kingston DDR 800 in Dual Channel e Intel Core2Quad Q6600.
Sarei tentato anche di passare ad Nvidia, visto i numerosi problemi di driver avuti con i Catalyst. Ora sembra migliorata la situazione, ma la possibilità di accelerare Photoshop non mi sembra cosa da poco, purtroppo le 9800GT/GTX costano sopra i 100euro. :muro:

Nomak87
22-06-2009, 16:56
Ciao a tutti, sono nuovo del forum però è da tempo che leggo le ultime news su questa scheda madre.
Vorrei upgradare la mia scheda video (Sapphire 3650 AGP ddr3) con una Sapphire 4850 Pci-Ex 512Mb (questa (http://www.eprice.it/Schede-Video-SAPPHIRE/s-1865122)): questo modello/marca è compatibile? :help:
Ho letto la lista iniziale, ma di 4850 ho visto solo la Asus (40euro più costosa).
Che ne pensate di questo upgrade? Credo ne valga la pena, almeno potrei attivare tutti i filtri per migliorare la qualità video (al momento il mio monitor ha ris. max. 1280*1024)
Ho il bios aggiornato alla 2.13 con 4Gb di RAM Kingston DDR 800 in Dual Channel e Intel Core2Quad Q6600.
Sarei tentato anche di passare ad Nvidia, visto i numerosi problemi di driver avuti con i Catalyst. Ora sembra migliorata la situazione, ma la possibilità di accelerare Photoshop non mi sembra cosa da poco, purtroppo le 9800GT/GTX costano sopra i 100euro. :muro:

Benvenuto! Io passerei (come farò) direttamente alla HD4870 1Giga DDR5 ;) però bisogna valutare il tuo buget...

roccia1234
22-06-2009, 19:11
Ciao a tutti, sono nuovo del forum però è da tempo che leggo le ultime news su questa scheda madre.
Vorrei upgradare la mia scheda video (Sapphire 3650 AGP ddr3) con una Sapphire 4850 Pci-Ex 512Mb (questa (http://www.eprice.it/Schede-Video-SAPPHIRE/s-1865122)): questo modello/marca è compatibile? :help:
Ho letto la lista iniziale, ma di 4850 ho visto solo la Asus (40euro più costosa).
Che ne pensate di questo upgrade? Credo ne valga la pena, almeno potrei attivare tutti i filtri per migliorare la qualità video (al momento il mio monitor ha ris. max. 1280*1024)
Ho il bios aggiornato alla 2.13 con 4Gb di RAM Kingston DDR 800 in Dual Channel e Intel Core2Quad Q6600.
Sarei tentato anche di passare ad Nvidia, visto i numerosi problemi di driver avuti con i Catalyst. Ora sembra migliorata la situazione, ma la possibilità di accelerare Photoshop non mi sembra cosa da poco, purtroppo le 9800GT/GTX costano sopra i 100euro. :muro:

ciao!
è un ottimo upgrade... la hd4850 a quella risoluzione ci sguazza senza problemi. Hai fatto bene a stare sui 512mb, dato che il gb di ram non lo useresti (a quella risoluzione), se non in un futuro abbastanza lontano... ma a quel punto anche la gpu sarà vecchiotta. Se hai intenzione di tenere la scheda a lungo, prova a valutare la hd4870... dovrebbe garantire una longevità maggiore al sistema, soprattuto in virtù della "bassa" risoluzione. Io ho preso la vga che vedi in sign prorpio facendo questo ragionamento... e per ora, ovviamente, non batte ciglio (e ci mancherebbe altro) con qualsiasi gioco al max dei dettagli + AA.

Marx01
22-06-2009, 20:02
bhe... se usi xp 2 gb bastano e avanzano attualmente per la maggior parte delle applicazioni. Poi se metti solo due stecche, hai il dual channel, quindi una banda passante raddoppiata.
Per quanto riguarda la stabilità del dual channel con ram differenti... beh ... direi che va a fortuna. Io non ho avuto problemi di instabilità, anzi. Su una vecchia p4p800 (socket 478 con p4 3,06 ghz) ho quattro stecche di ram da 512 mb l'una, una kingston 400, una adata sempre 400, una di marca ignota sempre 400 e una kingston 266. Nonostante tutto questo mischiotto, il pc è stabilissimo (dual channel attivo), anzi sono riuscito pure a overcloccare il p4 fino a 3,33 ghz stabile da daily use (fsb 145).
Prova, magari ti va bene. Più che altro cerca di mettere ram più possibile identiche, controlla frequenza nominale e timings (non prendere esempio dal mio mischiotto :D ).

Ciao!

P.S. se metti una ddr nelle ddr2 (oltre a non essere compatibili meccanicamente e elettricemente) secondo me ti trovi un condensatore nel naso :D :sofico: :Prrr:

Oggi mi e' arrivata la 4core dual rev.2 e tra poco inizio a fare l'upgrade.
sisi ho windows xp 32bit quindi vada per i 2 gb :p ,per il dual channel credo vada bene le stecche sono identiche(marca e modello),pero' non erano nel kit dual e comunque le ho comprate assieme.

p.s. allora mi sa che evito di mettere la terza stecca nello slot ddr2 :sofico:

dexter78
22-06-2009, 20:31
Benvenuto! Io passerei (come farò) direttamente alla HD4870 1Giga DDR5 ;) però bisogna valutare il tuo buget...

Il budget sarebbe di spendere il meno possibile...

ciao!
è un ottimo upgrade... la hd4850 a quella risoluzione ci sguazza senza problemi. Hai fatto bene a stare sui 512mb, dato che il gb di ram non lo useresti (a quella risoluzione), se non in un futuro abbastanza lontano... ma a quel punto anche la gpu sarà vecchiotta. Se hai intenzione di tenere la scheda a lungo, prova a valutare la hd4870... dovrebbe garantire una longevità maggiore al sistema, soprattuto in virtù della "bassa" risoluzione. Io ho preso la vga che vedi in sign prorpio facendo questo ragionamento... e per ora, ovviamente, non batte ciglio (e ci mancherebbe altro) con qualsiasi gioco al max dei dettagli + AA.

...controllando un po' di prezzi la 4850 512Mb sta a 89,90euro ;) , mentre la 4870 512Mb più economica sta sui 145euro :cry: . Mi sa che il rapporto prezzo/prestazioni migliore rimane quello della 4850.
Se mi confermate che il modello della Sapphire può funzionare senza problemi :wtf: andrei per quello altrimenti dovrei cercare qualche altra scheda di brand più costosi però.
Ora vado che la Florida aspetta il suo don. :cool:

Nomak87
22-06-2009, 20:44
Il budget sarebbe di spendere il meno possibile...



...controllando un po' di prezzi la 4850 512Mb sta a 89,90euro ;) , mentre la 4870 512Mb più economica sta sui 145euro :cry: . Mi sa che il rapporto prezzo/prestazioni migliore rimane quello della 4850.
Se mi confermate che il modello della Sapphire può funzionare senza problemi :wtf: andrei per quello altrimenti dovrei cercare qualche altra scheda di brand più costosi però.
Ora vado che la Florida aspetta il suo don. :cool:

Bellissimo il padrino 2! :D
Però io un pensierino alla HD4870 lo farei...

jamby93
22-06-2009, 23:07
Dopo un weekend devastante in cui ho fatto "su e giù" per l'italia nel giro di 2 giorni (per la finale nazionale di atletica), torno alla ribalta con un sistema ben occato ma sempre senza spingersi troppo.
Dato che il procio non sale più nemmeno a spingerlo (proverò a breve con la mod di halnovemila per il Vagp se riesco ad alzare il FSB oltre i 280 :D ), mi sono dedicato alla GPU riuscendo a portarla @ 665/1062,5 MHz mantenendo un O.V. di "soli" 0,076 V. Il sistema è stabile a queste frequenze anche se vorrebbe qualche volt in più ma non spingo per le temperature che raggiunge (in full raggiunge gli 85° C :eek: ) e questa GPU a queste frequenze serve quasi solo epr fare gli sboroni nei benchmark :asd: :sofico:

Detto questo, ecco a voi il nuovo punteggio di tutto rispetto :)
http://g.imagehost.org/t/0497/over_12k_point.jpg (http://g.imagehost.org/view/0497/over_12k_point)


11719 punti con 3dMark.. mi sembra buono.. :) ora l'obbiettivo è abbattere i 12k di punti Hihih

Le promesse le mantengo ;)

PS: Un consiglio per Six1, nella prima pagina, dove riassumi i nostri risultati 3D Mark e rimandi alle pagine di questo thread, ti consiglierei di mettere il link direttamente del post fatto dall'utente, in modo che sia più diretto e non chi vuole vedere lo screenshot non debba trovare il post dentro la pagina ;) Il link al post lo ottieni cliccando sul numero del post in alto a destra :)

PPS: Attendiamo anche noi i tuoi bench!! :D

halnovemila
23-06-2009, 01:10
Giusto per completare il discorso intorno alla eventuale limitazione delle prestazioni grafiche dovute alla larghezza di banda del bus PCI-E@4x, a confutazione della "tesi" di qualcuno secondo la quale le mie rilevazioni sono del tutto eccezionali, legate ad un singolo spefico caso e fotogramma, e non applicabili ad una più vasta casistica, mi sono preso la briga di fare un confronto tra AGP 8x e AGP 4x nello spazio di alcune migliaia di fotogrammi.
Come al solito, per effettuare la sperimentazione ho utilizzato un gioco "vero"; i primi 50 secondi della missione "Charlie don't Surf" di Call of Duty 4.
Qui di seguito riporto gli Fps rilevati mediante Ati Tray Tools, salvati su file di Log, trasformati per essere importati in una tabella e poi convertiti nel grafico sottostante
http://s19.postimg.org/gxeiurpz7/Co_D4_Arc_AGP4x_AGP8x_Fps_Graph.gif
Le due linee del grafico, quella rossa e quella blu scuro, rappresentano rispettivamente gli Fps misurati con l'AGP impostato a 8x e a 4x.
L'area tratteggiata rappresenta la perdita di "fotogrammi utili", ovvero quelli al di sotto dei 60fps.
E' evidente che la limitazione ad 1GB/s (AGP 4x) della larghezza di banda disponibile per la comunicazione CPU->GPU, ha comportato una perdita di fotogrammi utili continua e rilevante.
Si ricorda che il bus PCI-E@4x consente una banda passante teorica di massimo 1GB/s e quindi può comportare le stesse limitazioni dell'AGP 4x (anzi, i dati sperimentali evidenziano una limitazione più accentuata sul PCI-E@4x).
Dato che tutti i miei test basati sulla missione "Charlie don't Surf" hanno sempre fatto riferimento agli Fps misurati sul 35° secondo dall'inizio della missione, ho voluto verificare allo stesso modo (facendo uno screenshot e leggendovi gli Fps) il 41° secondo, momento in cui, secondo il grafico soprastante la differenza di Fps tra AGP8x e AGP4x raggiunge uno dei suoi massimi.
http://s19.postimg.org/goljil2kf/Co_D4_Cd_S_33fps_750_900_PCIE_100.jpg (http://postimg.org/image/goljil2kf/) http://s19.postimg.org/59kh080u7/Co_D4_Cd_S2_50fps_AGP4x_750_1000.jpg (http://postimg.org/image/59kh080u7/) http://s19.postimg.org/9wqj1zo73/Co_D4_Cd_S2_65fps_750_1000.jpg (http://postimg.org/image/9wqj1zo73/)

http://s19.postimg.org/fatwna3b7/Co_D4_Arc_AGP4x_AGP8x_comparison.gif
Risultati del test "dinamico" CoD4 - Arcade (missione) eseguito come indicato nel post #1195 (http://www.hwupgrade.it/forum/showpost.php?p=27924222&postcount=1195). CPU@3.3GHz, FSB@300MHz. OC=Overclock su GPU/RAM_video pari rispettivamente a 750/1000 contro i 670/830 di fabbrica.

Con l'occasione aggiungo che ho fatto molte rilevazioni anche sul benchmark di Crysis e anche lì ho potuto constatare che una quota non irrilevante di fotogrammi del test è soggetta a limitazione.
(Nota: nel benchmark di Crysis non è costante la durata totale della sequenza registrata ma il numero di fotogrammi, 2000 per il GPU benchmark e 1500 per il CPU benchmark, quindi eventuali misurazioni e comparazioni si possono basare solo sulla durata di ciascun fotogramma. Allo scopo ho utilizzato la funzione offerta da Fraps di registare i frametimes, ovvero l'ora esatta al milionesimo di secondo, di ciascun fotogramma soggetto a misurazione)

Alla luce dei dati sperimentali credo si possa serenamente affermare che, al giorno d'oggi, stante l'elevata potenza di calcolo delle GPU e l'elevato dettaglio raggiunto nelle scene 3D dei video giochi, una larghezza di banda di 1GB/s a disposizione della CPU per trasmettere dati alla GPU, non è più in grado di garantire il massimo degli Fps che la combinazione CPU/GPU/RAM sarebbe in grado di produrre.

Sebbene ciò non significhi che il PCI-E@4x della 4CoreDual-Sata2 sia necessariamente di impedimento alla giocabilità di determinati titoli (anche di quelli più "impegnativi"), certamente si pongono seri interrogativi sull'opportunità di passare ad una scheda video PCI-E per coloro che già possedessero una HD3 850 AGP (o altra scheda video AGP superiore) e non intendessero, nel breve termine, procedere con la sostituzione della scheda madre.

Saluti.
Alessio
.

roccia1234
23-06-2009, 08:27
Il budget sarebbe di spendere il meno possibile...



...controllando un po' di prezzi la 4850 512Mb sta a 89,90euro ;) , mentre la 4870 512Mb più economica sta sui 145euro . Mi sa che il rapporto prezzo/prestazioni migliore rimane quello della 4850.
Se mi confermate che il modello della Sapphire può funzionare senza problemi :wtf: andrei per quello altrimenti dovrei cercare qualche altra scheda di brand più costosi però.
Ora vado che la Florida aspetta il suo don.

ciao! se cerchi meglio (trovaprezzi), la hd4870 la trovi anche a 135 euro, e secondo me il gioco vale la candela... c'è una differenza abbastanza sensibile tra le due vga in fatto di prestazioni. Poi se proprio non te la puoi permettere è un'altro discorso ;) .

P.S. lassa sta il padrino... aspetta mafia 2 che dovrebbe essere un giocone (si spera) al pari del primo :read:

Dopo un weekend devastante in cui ho fatto "su e giù" per l'italia nel giro di 2 giorni (per la finale nazionale di atletica), torno alla ribalta con un sistema ben occato ma sempre senza spingersi troppo.
Dato che il procio non sale più nemmeno a spingerlo (proverò a breve con la mod di halnovemila per il Vagp se riesco ad alzare il FSB oltre i 280 :D ), mi sono dedicato alla GPU riuscendo a portarla @ 665/1062,5 MHz mantenendo un O.V. di "soli" 0,076 V. Il sistema è stabile a queste frequenze anche se vorrebbe qualche volt in più ma non spingo per le temperature che raggiunge (in full raggiunge gli 85° C ) e questa GPU a queste frequenze serve quasi solo epr fare gli sboroni nei benchmark

Detto questo, ecco a voi il nuovo punteggio di tutto rispetto :)
http://g.imagehost.org/t/0497/over_12k_point.jpg (http://g.imagehost.org/view/0497/over_12k_point)



Le promesse le mantengo ;)

PS: Un consiglio per Six1, nella prima pagina, dove riassumi i nostri risultati 3D Mark e rimandi alle pagine di questo thread, ti consiglierei di mettere il link direttamente del post fatto dall'utente, in modo che sia più diretto e non chi vuole vedere lo screenshot non debba trovare il post dentro la pagina ;) Il link al post lo ottieni cliccando sul numero del post in alto a destra :)

PPS: Attendiamo anche noi i tuoi bench!! :D

apperò... hai proprio tirato il collo a quella vga :D . E i risultati si vedono... non male davvero... complimenti!!!

Giusto per completare il discorso intorno alla eventuale limitazione delle prestazioni grafiche dovute alla larghezza di banda del bus PCI-E@4x, a confutazione della "tesi" di qualcuno secondo la quale le mie rilevazioni sono del tutto eccezionali, legate ad un singolo spefico caso e fotogramma, e non applicabili ad una più vasta casistica, mi sono preso la briga di fare un confronto tra AGP 8x e AGP 4x nello spazio di alcune migliaia di fotogrammi.
Come al solito, per effettuare la sperimentazione ho utilizzato un gioco "vero"; i primi 50 secondi della missione "Charlie don't Surf" di Call of Duty 4.
Qui di seguito riporto gli Fps rilevati mediante Ati Tray Tools, salvati su file di Log, trasformati per essere importati in una tabella e poi convertiti nel grafico sottostante
http://immagini.p2pforum.it/out.php/i420414_CoD4ArcAGP4xAGP8xFpsGraph.gif
Le due linee del grafico, quella rossa e quella blu scuro, rappresentano rispettivamente gli Fps misurati con l'AGP impostato a 8x e a 4x.
L'area tratteggiata rappresenta la perdita di "fotogrammi utili", ovvero quelli al di sotto dei 60fps.
E' evidente che la limitazione ad 1GB/s (AGP 4x) della larghezza di banda disponibile per la comunicazione CPU->GPU, ha comportato una perdita di fotogrammi utili continua e rilevante.
Si ricorda che il bus PCI-E@4x consente una banda passante teorica di massimo 1GB/s e quindi può comportare le stesse limitazioni dell'AGP 4x (anzi, i dati sperimentali evidenziano una limitazione più accentuata sul PCI-E@4x).
Dato che tutti i miei test basati sulla missione "Charlie don't Surf" hanno sempre fatto riferimento agli Fps misurati sul 35° secondo dall'inizio della missione, ho voluto verificare allo stesso modo (facendo uno screenshot e leggendovi gli Fps) il 41° secondo, momento in cui, secondo il grafico soprastante la differenza di Fps tra AGP8x e AGP4x raggiunge uno dei suoi massimi.
http://immagini.p2pforum.it/out.php/t420432_CoD4CdS33fps750.900PCIE100.JPG (http://immagini.p2pforum.it/out.php/i420432_CoD4CdS33fps750.900PCIE100.JPG) http://immagini.p2pforum.it/out.php/t420431_CoD4CdS265fps750.1000.JPG (http://immagini.p2pforum.it/out.php/i420431_CoD4CdS265fps750.1000.JPG) http://immagini.p2pforum.it/out.php/t420430_CoD4CdS250fpsAGP4x750.1000.JPG (http://immagini.p2pforum.it/out.php/i420430_CoD4CdS250fpsAGP4x750.1000.JPG)

http://immagini.p2pforum.it/out.php/i420416_CoD4ArcAGP4xAGP8xcomparison.gif
Risultati del test "dinamico" CoD4 - Arcade (missione) eseguito come indicato nel post #1195 (http://www.hwupgrade.it/forum/showpost.php?p=27924222&postcount=1195). CPU@3.3GHz, FSB@300MHz. OC=Overclock su GPU/RAM_video pari rispettivamente a 750/1000 contro i 670/830 di fabbrica.

Con l'occasione aggiungo che ho fatto molte rilevazioni anche sul benchmark di Crysis e anche lì ho potuto constatare che una quota non irrilevante di fotogrammi del test è soggetta a limitazione.

Alla luce dei dati sperimentali credo si possa serenamente affermare che, al giorno d'oggi, stante l'elevata potenza di calcolo delle GPU e l'elevato dettaglio raggiunto nelle scene 3D dei video giochi, una larghezza di banda di 1GB/s a disposizione della CPU per trasmettere dati alla GPU, non è più in grado di garantire il massimo degli Fps che la combinazione CPU/GPU/RAM sarebbe in grado di produrre.

Sebbene ciò non significhi che il PCI-E@4x della 4CoreDual-Sata2 sia necessariamente di impedimento alla giocabilità di determinati titoli (anche di quelli più "impegnativi"), certamente si pongono seri interrogativi sull'opportunità di passare ad una scheda video PCI-E per coloro che già possedessero una HD3 850 AGP e non intendessero, nel breve termine, procedere con la sostituzione della scheda madre.

Saluti.
Alessio
.

ottimi test, ma soprattuto complimenti per la pazienza e la precisione con cui li fai ;) ... effettivamente l'agp4x castra non poco, si parla di 10-15 fps nella fascia "sotto i 60", e in percentuale è un dato piuttosto rilevante. E' interessante anche vedere come la hd4870, che in teoria dovrebbe mangiarsela a colazione la hd3850, faccia addirittura meno fps di quest'ultima, se messa su pci-ex 4x. Anzi, la hd3850 anche su agp4x riesce a macinare più fps della hd4870 su pci-ex 4x. In parole povere la limitazione pci-ex 4x non è una cosa da prendere alla leggera, anzi riesce ad abbattere le prestazioni di una vga in maniera molto evidente.
A questo punto il dubbio mi ritorna... anche se cambio cpu con una più prestante, poi avrò sempre la bestia in gabbia :read: , quindi è probabile che le prestazioni non migliorino più di tanto, dato che tolgo solo uno dei colli di bottiglia. A sto punto mi converrebbe spendere gli stessi soldi in una mobo nuova, con pci-ex 16x e migliori possibilità di oc, almeno elimino un collo di bottiglia definitivamente (il pci-ex 4x) e posso far diventare l'altro meno evidente overcloccando la cpu. Se prendo una p5ql-pro (oppure -e), spendo circa 80 euro, ma prendo due piccioni con un fava (un piccione grasso e l'altro più magrolino), mentre cambiando cpu (e5200) spendo 60 euro, ma prenderei un solo piccione (e neanche tanto grasso). Direi che la bilancia si sta spostando verso la mobo.

halnovemila
23-06-2009, 09:10
A mio avviso la tua valutazione è assolutamente condivisibile.
Oltretutto frequenze maggiori di Fsb potranno consentirti anche una maggiore larghezza di banda RAM.

Va detto comunque che la limitazione del bus PCI-E@4x o AGP@4x si fa sentire soprattutto quando c'è una continua e veloce variazione della scena renderizzata (con la camera fissata su di un veicolo in veloce movimento o quando la camera ruota), il dettaglio geometrico è elevato, e la scena ha molta profondità (cioè vengono contemporaneamente renderizzati oggetti vicini e distanti).
Nel grafico degli Fps riportato nel mio precedente post si può notare come ad un certo punto la differenza di prestazioni tenda ad annullarsi.
Ciò avviene, infatti, alla fine del "viaggio" in elicottero (durante il quale la scena inquadrata è in continuo movimento) e in particolar modo quando l'elicottero è stazionario, fermo, prima della discesa a terra dalla fune (48° secondo); la rotazione veloce della camera durante la discesa comporta un'ulteriore sollecitazione del bus CPU->GPU che termina una volta a terra (inquadratura fissa, nessun movimento di camera/oggetti e profondità della visuale limitata dagli oggetti "vicini" presenti di fronte alla camera) all'incirca al 60° secondo.

Adesso bisognerebbe che roccia1234 o jamby93 provino a fare il Benchmark con le stesse risoluzioni e impostazioni varie utilizzate per la realizzazione dei grafici postati.( ne basta anche una sola a scelta tra queste 1280x1024, 1680x1050, 1920x1200 e 2560x1600 pixel. , tanto vista una già può rendere l' idea) E verificare se in linea di massimo siamo vicini agli FPS dei grafici. Misembra che loro non abbiano usato AA, comunque date un occhiata per sicurezza nel caso mi sia sfuggito.
Io credo che questo possa essere utile, a capire per lo meno se queste due GPU risentono in qualche modo dell' ormai famoso, rompiballe 4x (non vedo l 'ora di chiudere questo discorso :mc: :muro: ). ;)

Con l'occasione riprendo l'appello fatto da Six1 alcuni giorni fa.

roccia1234
23-06-2009, 09:44
A mio avviso la tua valutazione è assolutamente condivisibile.
Oltretutto frequenze maggiori di Fsb potranno consentirti anche una maggiore larghezza di banda RAM.

Va detto comunque che la limitazione del bus PCI-E@4x o AGP@4x si fa sentire soprattutto quando c'è una continua e veloce variazione della scena renderizzata (con la camera fissata su di un veicolo in veloce movimento o quando la camera ruota), il dettaglio geometrico è elevato, e la scena ha molta profondità (cioè vengono contemporaneamente renderizzati oggetti vicini e distanti).
Nel grafico degli Fps riportato nel mio precedente post si può notare come ad un certo punto la differenza di prestazioni tenda ad annullarsi.
Ciò avviene, infatti, alla fine del "viaggio" in elicottero (durante il quale la scena inquadrata è in continuo movimento) e in particolar modo quando l'elicottero è stazionario, fermo, prima della discesa a terra dalla fune (48° secondo); la rotazione veloce della camera durante la discesa comporta un'ulteriore sollecitazione del bus CPU->GPU che termina una volta a terra (inquadratura fissa, nessun movimento di camera/oggetti e profondità della visuale limitata dagli oggetti "vicini" presenti di fronte alla camera) all'incirca al 60° secondo.

grazie per le delucidazioni! :) . Ho visto che la differenza tende ad annullarsi, però si nota sempre, anche nel resto del grafico, che in qualche modo il 4x limita sempre... e se la cosa si fa così evidente su una hd3850, figuriamoci su una hd4870. Ovviamente, come è già stato specificato, questo non limita la giocabilità con i titoli attuali, però in futuro è probabile che la cosa si faccia molto più evidente. Altra cosa... è molto probabile che aumentando la potenza della cpu e quindi allontanandosi dal cpu-limited, il divario tra le prestazioni con il 4x e l'8x si faccia sempre più evidente, dato che c'è sempre quel collo di bottiglia.

halnovemila
23-06-2009, 09:51
Altra cosa... è molto probabile che aumentando la potenza della cpu e quindi allontanandosi dal cpu-limited, il divario tra le prestazioni con il 4x e l'8x si faccia sempre più evidente, dato che c'è sempre quel collo di bottiglia.

Sì giusto... è per quello che i test con CoD4 li ho eseguiti con la CPU@3.3GHz e l'FSB@300... per essere sicuro di escludere la condizione di CPU-limited (in combinazione con la HD3 850 AGP) ed evidenziare il differenziale massimo tra AGP@8x e AGP@4x (a 1024x768 e AA@4x)

jamby93
23-06-2009, 12:39
Vorrei proporre a voi utenti un altro studio.
Dopo aver provato ed essermi appassionato a Prototype mi è venuta l'idea di creare il "solito" grafico di utilizzo CPU/GPU. Questo è il risultato:
http://f.imagehost.org/0033/graph_prototype.png (http://f.imagehost.org/view/0033/graph_prototype)
La prima cosa che si nota è come questo gioco sia apparentemente ben programmato per sfruttare molto i Quad Core, infatti tutte le percentuali di utilizzo dei core sono sempre molto simili.
Altra cosa da notare è il fatto che nessuno dei due hardware raggiunge mai il 100%, dovuto con probabilità (come si diceva prima) al collo di bottiglia del PCI-E 4X. Da notare che il grafico è stato fatto in una scena parecchio movimentata.
Questo non compromette assolutamente la giocabilità in quanto nell'uso normale non scende mai sotto i 40 FPS a 1280•1024 con AA 4X ogni impostazione al massimo e Vsync attivato. Soltanto in scene molto complesse, con esplosioni continue e altro si scende fino ai 35 FPS.

halnovemila
24-06-2009, 08:01
Accidenti se è ottimizzato per il multithreading! :)
Si vede proprio che tutti i core lavorano all'unisono.
Certo che con un tale assorbimento di potenza di elaborazione CPU, ripartito su 4 core, anche il bus di accesso alla RAM deve essere fortemente sollecitato.
E' possibile che il collo di bottoglia che impedisce alla GPU di raggiungere il massimo di occupazione non sia dovuto o non sia dovuto "solo" al bus PCI-E, ma anche dal bus Chipset->RAM.
Attualmente i sistemi basati su CPU Intel (ad esclusione delle ultime "i7" con controller RAM integrato alla Athlon64) dispongono di una larghezza di banda RAM sensibilmente inferiore rispetto alle CPU AMD di equivalente potenza e con equivalente configurazione di modello, frequenza e timings dei moduli RAM.
In più, mi pare, confrontando le mie misurazioni con altre trovate in rete, che il Via PT880, non sia particolarmente performante su questo versante.
Tutto ciò detto, quando ad accedere alla RAM ci sono 4 core contemporaneamente, è verosimile che qualche forma di intasamento si possa verificare a livello di comunicazione CPU->RAM.

Per verificare se nel caso da te riportato il collo di bottiglia è rappresentato maggiormente dal bus PCI-E o dalla RAM dovresti fare delle controverifiche con CPU alla stessa potenza e FSB a frequenze diverse: nel tuo caso potresti provare 2.4GHz@266*9 e 2.4GHz@300*8
Poi dovresti attivare e disattivare nel BIOS il lock della frequenza PCI-E sui 100MHz, lasciando quindi che nella configurazione 2.4@300*8 possa verificarsi un overclock del bus PCI-E tale da poter eventualmente influire sui risultati.

Siamo ancora in attesa del tuo test CPU al 3DMark06 con l'affinità impostata su un singolo core :)
Giusto per fare il confronto con quello postato da Roccia1234.

Saluti.
Alessio
.

roccia1234
24-06-2009, 08:35
ci sto giocando anche io a prototype!!! troppo ignorante sto giochino :D .
e già che c'ero... ho fatto acnhe io il grafico di utilizzo cpu/gpu.

http://img32.imageshack.us/img32/4149/prototypek.jpg (135 kb)

Anche da me entrambi i core sono occupati alla stessa maniera... e quasi al 100%. Ora non so se dire che in questa situazione sono cpu-limited, perchè mi ricordo che con il vecchio pc (p4 3,06 ghz e x1950 pro) quando si sentiva il cpu-limited, l'utilizzo cpu era costante e fisso al 100%... proprio una linea piatta. Quindi non saprei se dire che la cpu basta "al pelo" e c'è qualcos'altro che limita, oppure sono cpu limited nonostante l'utilizzo cpu sia intorno al 90-95%. Io sarei per la seconda ipotesi, visto anche che ci sono dei punti in cui entrambi i core sono al 100% e si vede proprio la linea piatta da cpu-limited di cui parlavo prima (uno è circa a 1/3, l'altro circa a metà). Se fossi sempre cpu-limited, il grafico dovrebbe essere tutto uguale a questi punti qua.

Edit:
per dare un'idea migliore di quella che posso dare le parole:
http://img146.imageshack.us/img146/5507/crysiscpultd2.jpg (30 kb)
ho fatto il bench di crysis sul p4 di cui parlavo prima, a 800x600 e dettagli al minimo (per scaricare la vga ed evidenziare il cpu-limited)
la config in dettaglio è questa:

p4 northwood 3,06 ghz (133x23) @ 3,33 ghz (145*23)
2 gb ddr (4*512) @ 145 mhz
mobo asus p4p800-x
vga x1950 pro agp 512mb @ default

Dall'immagine si vede benissimo la linea piatta di cui parlavo prima. Questo da più credito all'ipotesi che la cpu basti "al pelo" e che ci sia qualcosa d'altro che limita.

jamby93
24-06-2009, 15:28
Per verificare se nel caso da te riportato il collo di bottiglia è rappresentato maggiormente dal bus PCI-E o dalla RAM dovresti fare delle controverifiche con CPU alla stessa potenza e FSB a frequenze diverse: nel tuo caso potresti provare 2.4GHz@266*9 e 2.4GHz@300*8
Poi dovresti attivare e disattivare nel BIOS il lock della frequenza PCI-E sui 100MHz, lasciando quindi che nella configurazione 2.4@300*8 possa verificarsi un overclock del bus PCI-E tale da poter eventualmente influire sui risultati.

Sarebbe veramente molto utile poter inalzare ancora il FSB (anche abbassando il molti) peccato che appena provo anche solo a metterlo a 281 non boota più. Qualsiasi moltiplicatore io metta. Sarebbe comodo raggiungere i 333 Mhz (magari 333*8 = 2664 Mhz) in modo da poter impostare le RAM a 667 MT/s dato che ora sono abbassate notevolmente rispetto alle normali frequenze (800 MT/s).
Proverò a breve con la mod se riesco a risolvere qualcosa! :)



Siamo ancora in attesa del tuo test CPU al 3DMark06 con l'affinità impostata su un singolo core :)
Giusto per fare il confronto con quello postato da Roccia1234.

Ed eccomi pronto dopo una mattinata di test.

Screen completo di 3D Mark 06 con un solo core abilitato. (230KB)
http://g.imagehost.org/t/0579/only_1_core.jpg (http://g.imagehost.org/view/0579/only_1_core)
Ho raggiunto 8036 punti, ma del resto in processore è a un quarto delle sue potenzialità ;)
Infatti ho "perso" più di 2500 punti nella CPU, 500 nel SM2.0 e 400 nel SM3.0
Avendo però notato un incremento del framerate solamente in alcune scene, ho voluto fare dei grafici raffiguranti tutti gli FPS di ogni scena, confrontando la soluzione con un solo core abilitato e quella con tutti e quattro.


Grafico utilizzo CPU/GPU
http://f.imagehost.org/0532/graph_1_core.png (http://f.imagehost.org/view/0532/graph_1_core)
Si nota immediatamente come sia abilitato solo il Core1 (con il Core0 crashava :asd:).
Tuttavia è visibile anche, che in non tutte le scene è il processore a dettare il limite, soprattutto nella scena "Canyon Flight" si nota subito come la GPU sia pressochè sempre al 100% dell'utilizzo, generando la situazione "limited".


Grafico "Return to Proxycon"
http://f.imagehost.org/0547/Return_to_Proxycon.png (http://f.imagehost.org/view/0547/Return_to_Proxycon)
Questo grafico (come tutti quelli che seguono) è stato effettuato importando gli FPS di ogni secondo, calcolati da ATT, in Excel e generando il grafico.
Le differenze di FPS non sono così notevoli da generare un tempo totale molto maggiore in grado di "sballare" il grafico, dunque ho optato per questa opzione.
In questo grafico, si nota che l'incidenza di 3 core in più non comporta grandi cambiamenti nel framerate infatti queste sono le percentuali di miglioramento riscontrate:
Media: 5,81%
Massimo: 32,65%
Minimo: -15,00%
É da considerare però, che alcuni aumenti o diminuzioni di FPS possono essere dovuti semplicemente al caso o alla non esatta coincidenza dei framerate a causa dei tempi globali inferiori e non per forza alla limitazione del processore.


Grafico "Firefly Forest"
http://f.imagehost.org/0147/Firefly_Forest.png (http://f.imagehost.org/view/0147/Firefly_Forest)
Situazione completamente diversa in questo caso, nel quale il processore si fa sentire, e anche molto. Questa situazione era già visibile dal grafico di utilizzo CPU/GPU nel quale si notava come la GPU non raggiungesse percentuali molto elevate di utilizzo.
Queste le percentuali di miglioramento:
Media: 15,66%
Massimo: 30,55%
Minimo: -3,278%


Grafico "Canyon Flight"
http://f.imagehost.org/0848/Canyon_Flight.png (http://f.imagehost.org/view/0848/Canyon_Flight)
Questa situazione ricorda molto la prima scena. Qui si nota in modo ancora più accentuato come il processore abbia un influenza minima, e la GPU abbia il maggiore carico di influenza.
Queste le percentuali di miglioramento:
Media: 0,84%
Massimo: 16,00%
Minimo: -9,25%


Grafico "Deep Freeze"
http://f.imagehost.org/0747/Deep_Freeze.png (http://f.imagehost.org/view/0747/Deep_Freeze)
In questa scena invece ritroviamo la situazione di processore-dipendente riscontrata anche nella scena "Firefly Forest".
In questo caso il miglioramento è netto e non scende mai sotto lo 0.
Media: 15,44%
Massimo: 20,83%
Minimo: 3,846%


Non ho creato i grafici anche delle due scene CPU in quanto avrebbero avuto poco significato per tre motivi:
1)L'influenza del processore è ovvia e indiscutibile, infatti in qualsiasi caso la percentuale di impiego della GPU rimane sempre a 0%. É quindi logico che con un solo core abilitato le prestazioni calino a picco.
2)I dati esportati da ATT (stranamente) non riportano le cifre decimali che invece riconosce tranquillamente. Mi sono dunque trovato in una situazione nella quale, essendo i FPS delle due scene CPU generalmente molto bassi, nel caso di un solo core abilitato, i FPS erano sempre 1 (arrotondato all'unità da ATT) mentre con il processore completo variavano, giustamente, da 1 a 3-4. Si sarebbe dunque visto un grafico con una linea retta della soluzione con un core solo, quindi priva di senso.
3)I tempi globali in questo caso sono aumentati terribilmente, rendendo quasi impossibile allineare le piccolissime variazioni di framerate mentre si utilizzava un core solo.

Per chi vuole approfondire qui (http://f.imagehost.org/download/0261/Dati) trova un file riassuntivo (58 KB)
Saluti.

halnovemila
24-06-2009, 16:45
Ma siete miticiiiii :D
Tra te e Roccia c'è l'imbarazzo della scelta tra chi aggiudicare la coppa del premio "ricercatore pazzo" ;)

Comunque quella differenza di Fps in due dei quattro test deve essere collegata non tanto alla "capacità" del 3DMark06 di utilizzare più core, ma al kernel a 64bit ,al driver 64 bit della scheda video o alle API DirectX che su Vista 64bit evidentemente riescono a sfruttare la presenza di più core anche se l'applicazione 3D non progettata a tale fine.

Infatti sotto XP la differenza di risultati tra test normale e test eseguito con affinità ad un solo core è molto meno evidente, direi marginale (parlo sulla base dei risultati dei miei test eseguiti con 1 core e 2 core su 19 combinazioni diverse di FSB e frequenza CPU)

Sono andato a guardarmi i grafici da te postati precedentemente
qui con XP: http://www.hwupgrade.it/forum/showpost.php?p=27882742&postcount=1141
e qui con Vista: http://www.hwupgrade.it/forum/showpost.php?p=27846129&postcount=1083

entrambi i test sono effettuati senza affinità ma si nota come in XP, durante i test GT e HDR, la percentuale di occupazione del core "principale" (core 0) sia maggiore, mentre è minore quella residuale degli altri core.

Insomma, si potrebbe dire che Vista 64 è un sistema operativo (kernel, drivers, API) che rende al meglio con le CPU multi core.

Se non l'hai già "cestinato" potresti fare la controprova (con affinità e senza) sotto XP.

:)

Le differenze di FPS non sono così notevoli da generare un tempo totale molto maggiore in grado di "sballare" il grafico
Cosa intendi dire?
Mi pare sia normale che i test abbiano sempre la stessa durata complessiva.
A differenza del test con Crysis, nel quale è fisso il numero di fotogrammi (2000 per il GPU benchmark e 1500 per il CPU benchmark) e varia la durata complessiva in base alla velocità con cui vengono renderizzati i singoli fotogrammi, nei test 3DMark06 la durata della scena è sempre quella, mentre il numero dei fotogrammi renderizzati varia a seconda degli Fps che il sistema è in grado di produrre.

jamby93
24-06-2009, 18:16
Se non l'hai già "cestinato" potresti fare la controprova (con affinità e senza) sotto XP.

:)

Non l'ho cestinato, certamente, solo che non è collegato l'hard disk.. Quindi se riesco farò qualche prova domani. Per oggi è già tanto.. :D
Magari sta sera provo a fare un grafico di utilizzo con 3D Mark Advance (Specifico per Vista) per vedere l'utilizzo di diversi core quanto influenza.


Cosa intendi dire?
Mi pare sia normale che i test abbiano sempre la stessa durata complessiva.
A differenza del test con Crysis, nel quale è fisso il numero di fotogrammi (2000 per il GPU benchmark e 1500 per il CPU benchmark) e varia la durata complessiva in base alla velocità con cui vengono renderizzati i singoli fotogrammi, nei test 3DMark06 la durata della scena è sempre quella, mentre il numero dei fotogrammi renderizzati varia a seconda degli Fps che il sistema è in grado di produrre.
Non credo sia come dica tu.. Non ho controllato ogni volta il tempo delle scene ma credo che cambi, ma il numero di frame sia lo stesso. Non avrebbe senso se no che tutte le scene inizino e finiscano nello stesso modo, vorrebbe dire che qualche frame "centrale" verrebbe saltato, il che non ha molto senso in quanto qualche frame potrebbe essere più complesso da renderizzare di altri.
Per questo credo che sia il numero totale di frame a rimanere invariato, piuttosto che il tempo totale. A riprova, ho contato che nel test CPU 1, con tutti e 4 i core il tempo è di 43 "825 millesimi" (lo step che avevo impostato in ATT) quindi circa 35 secondi e mezzo. Con un core solo invece, impiega 131 "825 millesimi" quindi circa un minuto e 48 secondi.
Provare per credere :)

halnovemila
24-06-2009, 18:32
Non credo sia come dica tu.. Non ho controllato ogni volta il tempo delle scene ma credo che cambi, ma il numero di frame sia lo stesso. Non avrebbe senso se no che tutte le scene inizino e finiscano nello stesso modo, vorrebbe dire che qualche frame "centrale" verrebbe saltato, il che non ha molto senso in quanto qualche frame potrebbe essere più complesso da renderizzare di altri.

Si, infatti, in generale, durante i giochi vengono prodotti più o meno frames.
Comunque la mia era un'impressione (cioè ho sempre avuto l'impressione che la durata del test fosse sempre quella) ma non ho mai fatto una verifica...
tu l'hai fatta e io chino la testa e umilmente accetto il mio torto di fronte all'evidenza delle tue misurazioni indubbiamente valide ;)

...uhm... però forse... devo verificare una cosa...

halnovemila
24-06-2009, 21:22
io chino la testa e umilmente accetto il mio torto di fronte all'evidenza delle tue misurazioni indubbiamente valide ;)

Ecco... e ti pareva...
una volta su un milione che potevo aver torto... e invece no... anche stavolta ho ragione io! ;)
http://s19.postimg.org/x25j1qipv/3_DM_Tests_Times.gif

In effetti mi pareva strano di aver torto... non per niente... ma un numero fisso di fotogrammi avrebbe comportato (così come accade con il benchmark di Crysis) al variare dalla potenza CPU e GPU, un aumento o diminuzione della velocità in cui si muove la camera, i soggetti, gli oggetti, più o meno come aumentare o diminuire la velocità di riproduzione di una pellicola cinematografica... mentre a me le scene dei test (esclusi quelli CPU) hanno sempre dato l'impressione che si svolgessero nello stesso identico modo, con la camera, i soggetti e gli oggetti che si muovevano sempre alla "solita" velocità, indipendentemente dalla potenza della CPU e GPU impiegate per il test.
Un discorso a parte sono invece i CPU test... in questo caso la durata non è costante... ma di questo me n'ero accorto anch'io :)

jamby93
24-06-2009, 21:35
Ecco... e ti pareva...
una volta su un milione che potevo aver torto... e invece no... anche stavolta ho ragione io! ;)

Ehehe..
In effetti io avevo fatto il calcolo in base al test CPU, nel quale ero sicuro c'erano stati miglioramenti notevoli, non avevo controllato negli altri test, che a quanto pare non cambia la lunghezza finale. Buono a sapersi allora! :D
Ci si arricchisce sempre di nuove scoperte ;)

halnovemila
24-06-2009, 23:27
Ecco qua le differenze tra un 3DMark06 eseguito su una CPU dual core,
eseguito impostando l'affinità del task solo sul di un core,
eseguito sostituendo l'HAL e il Kernel multiprocessore con la versione Uniprocessore.
http://s19.postimg.org/enuzxr6f7/3_DM_2c1c1c_HALuni_graph.gif
La parte di grafico colorata in rosso è l'occupazione CPU da parte del kernel del sistema operativo (quindi anche dei driver).
Come si può osservare, impostando l'affinità di 3DMark06 su di un solo core non si impedisce al Kernel di continuare ad usare l'altro, di conseguenza l'unica parte del benchmark che che viene effettivamente condizionata è quella relativa ai test CPU (nel grafico superiore il test CPU occupa sia il core 0 che il core 1, mentre nel grafico centrale si nota l'assoluta assenza di verde nel riquadro relativo al core 1).
I risultati ai test GT e HDR non sono quindi destinati a cambiare a causa dell'impostazione dell'affinità del task 3DMark06 su un solo core.

Sostituendo il Kernel e l'HAL multiprocessore con la versione Uniprocessore, il secondo core della CPU diventa praticamente invisibile al sistema operativo.
In questo terzo e ultimo caso il Kernel (e i driver) è necessariamente costretto a usare lo stesso Core in uso dall'applicazione 3DMark, contribuendo ad aumentare l'occupazione CPU.
In questa condizione, se la CPU raggiunge il 100% di occupazione in tratti del benchmark dove prima la percentuale era inferiore al 100%, è possibile che si creino le condizioni per una limitazione della GPU altrimenti non presente.
In questo caso quindi, oltre ai test CPU, anche gli altri potrebbero subire delle riduzioni di Fps e di punteggi rispetto a quelli ottenibili con la disponibilità di entrambi i core.

http://s19.postimg.org/3qto8zjnn/3_DM_2c1c1c_HALuni_cmp.gif
Test effettuati con CPU Core2 Duo@3.3GHz, Fsb@275 e HD3850 AGP con clock GPU/RAM di default (670/830)

Saluti.
Alessio

Edit: per chi volesse misurare la tensione Vagp sulla propria scheda madre... oggi ho fatto questa foto :)
http://s19.postimg.org/66vhmu1qb/AGP_Voltage_Vddq_pin.jpg
Il pin #64, lato A del connettore AGP è uno degli 11 dove la scheda madre fornisce la tensione Vddq 1.5V. Sulla 4CoreDual-Sata2 questa tensione è di 1.61V; ma nel mio caso, avendo effettuato una modifica, è presente un overvolt di +0,04V.

jamby93
25-06-2009, 11:10
Ho eseguito i grafici con affinità anche con 3D Mark Vantage e questi sono risultati:

Grafico utilizzo CPU/GPU con 4 core abilitati (per sbaglio in jpg:( )
http://f.imagehost.org/0237/4_core_graph.jpg (http://f.imagehost.org/view/0237/4_core_graph)
Si nota subito come questo benchmark in confronto a 3D Mark 06 abbia un tempo di caricamento decisamente più lungo, in cui il processore "impazzisce" con utilizzi dei core molto vari.
Durante le scene però, l'influenza del processore sembra essere abbastanza bassa.
Migliore a mio opionione invece l'utilizzo del processore nei test CPU, che in confronto a 3D Mark 06 mi sembra molto più "stressato".


Grafico utilizzo CPU/GPU con 1 core abilitato
http://f.imagehost.org/0388/1_core_grpag.png (http://f.imagehost.org/view/0388/1_core_grpag)
Come si era notato prima, l'influenza del processore è molto bassa, infatti un solo core è sufficente per non generare la situazione "CPU limited" infatti la GPU raggiunge sempre il 100% senza influenza. Diversamente da quanto accadeva con 3D Mark 06.


Grafico FPS 1 Core/ 4 Core
http://f.imagehost.org/0338/1_graph.png (http://f.imagehost.org/view/0338/1_graph)
Come c'era da aspettarsi, le linee delle due soluzioni si appaiano sempre, dato che era la GPU ad essere limite.


Non ho fatto i grafici del test CPU in quanto ho notato che, soprattutto nel secondo test, 3D Mark "analizza" le prestazioni della CPU e in base al primo test genera una scena più o meno complessa per il secondo test. Nel caso specifico quando utilizzavo 4 core erano presenti 8 "gommoni" nella scena, mentre con un solo core ne erano presenti solo 2. Per questo motivo i FPS nei due casi si assomigliavano.
Da notare come, in questo caso, l'influenza del punteggio CPU influenzava notevolmente in punteggio finale. Il punteggio CPU è passato da ~8800 a ~2300 e il punteggio totale da ~7600 a ~4500.

roccia1234
25-06-2009, 12:03
bestia jamby93!! ti stai sbizzarrendo con i test!! complimenti!! :)
un piccolo appunto nei primi 2 test grafici (dove si vede la gpu spiattellata al 100%) viene praticemtne utilizzato un solo core (il core 3 per la precisione), mentre gli altri, a parte qualche picco casuale, sono quasi sempre in idle o poco più. Quindi manco il 3dmark vantage (nei test gpu) sfrutta tutti i 4 core, a differenza di prototype, che ha un'ottimizzazione multicore oserei dire esemplare.
Se sfruttasse tutti i core (il 3dmark) , dovremmo vederli tutti all'opera, anche magari al 15-20% a testa, non uno che va e gli altri che dormono.
Per il resto niente da dire, complimenti ancora! :)

Six1
25-06-2009, 12:23
Ciao a tutti!
Ho notato che in questi giorni di mia assenza è stato rimarcato più di qualche volta il punto sul limite imposto dello Slot PCIEx4x, sopratutto da halnovemila......
A queste eccezioni imposte dal Limite del PCIEx 4x, vorrei provare ad applicare delle soluzioni.




Dai Test effettuati da T.Hardware qui di seguito:
http://www.tomshw.it/graphic.php?guide=20080421&page=pci-express-2-scaling-06
Ho notato una cosa molto interessante, tra l'altro evidenziato anche da loro nelle conclusioni e considerazioni.......
Benchmark come Futuremark 3DMark06, PCMark Vantage, Prey o Quake mettono in luce il risvolto della medaglia: sono in grado di sfruttare i 512 MB (Radeon HD 3850) o i 2x 512 MB (GeForce 9800 GX2) di dati grafici, e quindi tutto fila liscio, anche senza la banda massima.

http://img142.imageshack.us/img142/4287/six1.png (http://img142.imageshack.us/i/six1.png/)
http://img134.imageshack.us/img134/2066/quake4.png (http://img134.imageshack.us/i/quake4.png/)

Questo significa che la memoria Video nel nostro caso assume un ruolo importantissimo e cruciale.


Allora dai test da Noi effettuati risulta che il 4x anche se in circostanze ben precise e molto rare, ad oggi potrebbe risultare un limite in determinati Giochi e più in specifico in determinati punti di gioco, dove :

nei giochi dalla grafica più curata e più spettacolare, la scena è formata da un gran numero di personaggi ed oggetti caratterizzati da superfici completamente diverse (dalla pelle agli abiti, dal legno alle pareti in muratura, dai pannelli metallici ai pavimenti di ogni tipo), per il cui disegno il processore grafico effettua un processo in due fasi: prima approssima l'andamento delle superfici con un modello composto di innumerevoli piccoli poligoni o triangoli, poi cerca in un repertorio di textures il tipo di “rivestimento” da applicare, e con esso effettua il vero e proprio “riempimento” (campitura) delle superfici. In questo processo è un po' come se le textures fossero campioni di carta da parati di vari colori con cui rivestire un'armatura in filo di ferro (wireframe) che approssima la sagoma del soggetto da disegnare.

È chiaro che se le superfici sono tante e di tanti tipi diversi, occorre un ampio repertorio di textures. Inoltre, se si lavora con superfici molto più grandi della texture, questa dovrà ovviamente essere disegnata più volte fino a “tappezzare” completamente l'oggetto. Questo potrebbe causare un evidente effetto di ripetizione (si pensi ad un muro che viene disegnato usando una piccola texture a mattoni in cui, per renderla più realistica, è stata disegnata una imperfezione o una scrostatura: questo particolare sarebbe ripetuto ad intervalli regolari e si noterebbe immediatamente). La soluzione per attenuare questo problema è utilizzare texture di grandi dimensioni.

Chiarito che per questo genere di applicazioni occorre avere a disposizione molte texture di grandi dimensioni, risulta immediatamente chiaro che occorre avere molta memoria ed un velocissimo canale di comunicazione con la CPU. Infatti, le texture non sono altro che grosse immagini disegnate con grande accuratezza, e le immagini occupano molta memoria. Normalmente, se la scheda video dispone di molta memoria locale, si farà in modo di parcheggiare a bordo di essa un repertorio di textures il più possibile vasto in modo tale che, per usarle, non sia necessario passare dal bus di sistema.

Tuttavia, anche solo per la popolazione iniziale rimane la necessità di far arrivare alla scheda video queste textures, che si trovano sul CD del gioco o sull'hard disk. La strada da percorrere per questo trasferimento è ovviamente il bus di sistema. La quantità di textures che possono essere usate in un gioco di ultima generazione può facilmente superare la quantità di memoria video a disposizione della scheda. (Questo era però forse vero fino a un paio di anni fà oggi una GPU può avere a disposizione fino a 2G di memoria Video)

Questo significa che, durante l'esecuzione del gioco, la CPU di sistema dovrà trasmettere alla scheda video le texture che le servono, e poiché non è facile o possibile prevedere in anticipo quali texture serviranno, perché ciò dipende dal percorso seguito dal giocatore, dalle sue azioni e dalla direzione verso cui volge lo sguardo, il trasferimento alla scheda video delle texture mancanti dovrà avvenire nel momento stesso in cui il gioco si accorge che servono per comporre la scena. In altre parole, in pochi millisecondi si dovrà riuscire a trasferire diversi megabyte di materiale grafico dalla RAM di sistema alla scheda video, passando per il bus di sistema.

Sempre per il bus di sistema viaggiano poi gli ordini che il programma principale impartisce alla scheda video: come comporre la scena, come generare le ombre, quali texture usare, quali elaborazioni tridimensionali applicare, quale illuminazione adottare, e così via. Solo le informazioni sulla costruzione della scena sono costituite da liste di coordinate dei vertici di migliaia o milioni di piccoli triangoli o poligoni che costituiscono il reticolo tridimensionale che approssima la sagoma degli oggetti, su cui andrà poi applicata la texture appropriata per ognuno.

Se per ogni triangolo devono essere fornite le coordinate tridimensionali precise dei tre vertici, ogni triangolo richiede l'invio di 3x3=9 numeri floating point, ognuno dei quali richiede diversi byte. “Inviare la descrizione della scena”, quindi, tradotto in numeri, significa “megabyte e megabyte al secondo” di dati da trasferire, passando per il bus di sistema.

Infine la scheda video, o più precisamente il suo processore grafico (Graphics Processor Unit, GPU), è rapida nell'esecuzione dei compiti su cui è specializzata ma deve essere costantemente istruita sul da farsi, e questo spetta al programma principale che gira sul processore principale del PC (Central Processing Unit, CPU). Il canale di comunicazione fra CPU e GPU, su cui devono viaggiare tutte queste informazioni, è naturalmente, ancora una volta, il bus di sistema.

Per tutti i motivi citati risulterà ora chiaro come mai il bus di sistema usato dalla scheda video abbia tanta rilevanza per l'aumento delle prestazioni, e perché negli anni si siano succeduti così tanti tipi di bus sempre più veloci, specializzati per le schede grafiche: se un normale bus PCI (banda di 133 Mbyte/s) è sicuramente sufficiente per le esigenze di un controller USB, questo non è vero per una scheda grafica.

Ecco perché negli anni sono statiproposti bus accelerati, in tre “dinastie” principali: AGP, PCI-X e PCI Express (all'epoca dei PC 486 esisteva anche un altro bus grafico denominato VESA Local Bus o VL-Bus, tramontato già con l'introduzione dei Pentium ed oggi completamente in disuso).

Ricordiamo che la larghezza di banda che un bus può assicurare dipende da due semplici fattori: la larghezza del canale, in bit, e la frequenza alla quale vengono trasferiti i dati su questo canale. Moltiplicando questi due valori si ottiene la banda. Si può paragonare il flusso di dati su un bus alla portata d'acqua in un fiume, che dipende dalla sezione (larghezza e profondità) e dalla velocità della corrente d'acqua.

Per esempio, un canale largo 8 bit che lavora a 1 MHz effettua 1 milione di trasferimenti da 8 bit ogni secondo. In altre parole, la sua banda è di 1 Megabyte/secondo. Per aumentare la sua banda si può costruire un canale più largo a parità di frequenza, oppure aumentare la frequenza a parità di larghezza di canale, o entrambe le cose. Come vedremo, le strategie seguite finora sono state diverse.

La prima famiglia, AGP, fece la sua comparsa nel 1997. Adottava una larghezza di canale a 32 bit come quella del normale bus PCI, ma lavorava a frequenze più elevate con uso di ulteriori tecniche per aumentare la frequenza efficace. Nel bus AGP 1x, per esempio, la frequenza era di 66 MHz, il doppio del PCI, e la banda era anch'essa doppia: 266 Mbyte/s. Le successive evoluzioni di AGP hanno mantenuto la larghezza di canale a 32 bit, ma hanno aumentato la frequenza efficace mediante tecniche come dual-pumping o quad-pumping.

Sono nati così gli standard AGP 2x, AGP 4x e AGP 8x (figura 1_AGP8x.jpg), capaci di assicurare, rispettivamente, bande massime di 533, 1.066 e 2.133 Mbyte/s. Lavorando a frequenze così elevate questi bus andavano incontro anche a problemi elettrici, che è stato possibile attenuare riducendo progressivamente la tensione di lavoro: se l'AGP 1x funzionava a 3.3V, l'AGP 8x usava tensioni di soli 0.8V.

La seconda soluzione tentata per assicurare alte prestazioni sul bus è stata il PCI-X, introdotto nel 1998, in piena era AGP, come tecnologia di bus alternativa al PCI. Il suo scopo, quindi, non si limitava all'accelerazione delle schede grafiche, ma consisteva in un aggiornamento dell'intero bus di sistema, per qualsiasi uso. Questo bus ricorreva sia ad un allargamento del canale (lavorava infatti a 64 bit), sia ad un aumento della frequenza (133 MHz). La sua banda di 1.066 Mbyte/s equivaleva a quella di un bus AGP 4x. Il PCI-X non è riuscito ad imporsi come standard generale per il bus nell'architettura PC, forse perché per le schede grafiche o di futura realizzazione non appariva comunque sufficientemente potente, mentre le periferiche PCI meno “esigenti” non ne avevano bisogno.

La terza famiglia, che oggi sembra avere definitivamente preso piede nell'architettura PC tanto da essere stata incorporata anche nel nuovo standard ExpressCard per le schede di espansione dei PC portatili, è quella del PCI-Express, o PCIe, da non confondere naturalmente con PCI-X.

Il PCI Express adotta un approccio originale rispetto alle strategie seguite finora per aumentare la banda del bus: la larghezza di canale si riduce a 1 bit soltanto, mentre la frequenza sale vertiginosamente, a ben 2500 MHz. Si tratta quindi di un bus seriale (fra l'altro con un connettore piccolissimo, solo 18 pin, dal momento che vi è un'unica linea dati e, quindi, un basso numero di contatti), che trasferisce 250 Mbyte/s (a causa della codifica usata per assicurare l'integrità dei dati, occorrono 10 cicli di clock per trasferire 8 bit).

Questo valore può apparire deludente se confrontato con quelli che caratterizzano le ultime evoluzioni di AGP e lo stesso PCI-X, e in effetti lo sarebbe, se non si tenesse conto di una fondamentale caratteristica prevista dallo standard PCI-Express: quella di aggregare un certo numero di canali seriali elementari PCIe per ottenere una banda complessiva superiore.

In quest'ottica, un bus PCIe elementare è detto PCIe 1x, mentre le versioni “aggregate” si chiamano PCIe x4, x8 e x16, ed assicurano rispettivamente una banda complessiva di 1Gbyte/s, 2 Gbyte/s e 4 Gbyte/s. Da non sottovalutare poi il fatto che il bus PCIe nelle sue versioni aggregate consente alle varie periferiche di utilizzare contemporaneamente, e in modo indipendente, piccole “quote” della banda complessivamente disponibile, semplicemente usando una “corsia” del bus aggregato. La flessibilità assicurata da questa possibilità di utilizzo concorrente del bus è propria della natura di bus multipli seriali aggregati del PCIe e costituisce, al di là dell'elevato valore di banda, una novità architetturale di grande importanza.



Alla luce di quanto detto per evitare di incorrere in possibili limiti su Slot PCIEx4x, basterebbe avere alcune accortezze nell' acquisto della propria scheda grafica:

Cause scatenanti il limite imposto dallo Slot 4x alla GPU e di conseguenza al Gioco in cui si è verifcato un calo di FPS.

1°Per questo genere di applicazioni occorre avere a disposizione molte texture di grandi dimensioni, risulta immediatamente chiaro che occorre avere molta memoria ed un velocissimo canale di comunicazione con la CPU. Infatti, le texture non sono altro che grosse immagini disegnate con grande accuratezza, e le immagini occupano molta memoria.
2° La quantità di textures che possono essere usate in un gioco di ultima generazione può facilmente superare la quantità di memoria video a disposizione della scheda.
3° La CPU gestisce la Fisica, e quindi per forza di cose viene coinvolta.

Eliminazione del Limite limite imposto dallo Slot 4x alla GPU e di conseguenza al Gioco in cui si è verifcato un calo di FPS.(Quindi Soluzioni)

1°Normalmente, se la scheda video dispone di molta memoria locale, si farà in modo di parcheggiare a bordo di essa un repertorio di textures il più possibile vasto in modo tale che, per usarle, non sia necessario passare dal bus di sistema.
2° Acquistare GPU con la massima memoria video disponibile, ad oggi esistono GPU fino ad un massimo di 2G (questo è importantissimo)
Questo può e di molto alleggerire, se non annullare la limitazione imposta su Slot PCIEx4x
3°Con Phisx di nVidia e Havok di ATI Radeon, anche la fisica è gestita dalle GPU, sempre più giochi permettono già oggi la gestione della Fisica da parte di Phisx, lo stesso avverrà con le prossime GPU di ATI con Havok. Il passaggio di dati tra CPU e GPU sarà sempre inferiore, la GPU sarà in grado di gestire un video gioco senza dover comunicare la quantità di dati che oggi comunica e che comunque nonostante questo come abbiamo riscontrato sono rare le situazioni in cui la Banda su SlotPCIEx4x risulta saturata.

Concusioni:
Quindi quando acquistate una GPU non risparmiate sulla Memoria Video, e cercate di acquistare GPU in grado di gestire la fisica in maniera indipendente alla CPU (Phisx,Havok)

Inoltre per tornare ai nostri Test è probabile che il limite riscontrato da halnovemila con la sua HD4870 da 1G, non venga riscontarto da GPU HD4870 con Memoria Video maggiore: 1,5G, 2G. Oppure con altri Giochi in grado di sfruttare la memoria video in maniera corretta.
Spero di essere stato chiaro. ;)

jamby93
25-06-2009, 13:11
Concusioni:
Quindi quando acquistate una GPU non risparmiate sulla Memoria Video, e cercate di acquistare GPU in grado di gestire la fisica in maniera indipendente alla CPU (Phisx,Havok)

Inoltre per tornare ai nostri Test è probabile che il limite riscontrato da halnovemila con la sua HD4870 da 512MB, non venga riscontarto da GPU HD4870 con Memoria Video maggiore: 1G, 1,5G, 2G.
Spero di essere stato chiaro. ;)
Ben tornato in auge e complimenti per l'ottima recensione dei diversi bus creati ed esistenti.
Ottima descrizione davvero.

Riguardo a quanto tu dici però, potrebbe esserci qualche errore in quanto abbiamo già verificato come anche nel mio caso (1GB) alcune volte ho riscontrato il fenomeno limitante del bus. Potremo dirlo definitivamente soltanto quando riuscirò ad inalzare le RAM se questo fenomeno si ripresenta anche in Protoype (come analizzato precedentemente), ma le possibilità sono abbastanza alte.
Basti pensare che nei test da noi effettuati, in scene particolarmente complesse del benchmark di Crysis, dove sono presenti molti oggetti, vegetazione, texture ecc ecc, la mia 4850 1GB ottiene FPS inferiori alla 3850 di halnovenila, su AGP 8X. Sono differenze non troppo elevate (attorno ai 5 FPS) ma è anche da considerare che sono GPU architetturalmente completamente differenti, dovrebbe infatti riscontrarsi un notevole guadagno per la 4850, mentre abbiamo verificato che in questi casi persino ne perde.
E le possibili cause non sono tante ;)

PS: Nota che, almeno per il settore ATI, le uniche GPU a superare la soglia di 1GB sono la 4870X2 e la 4850X2 entrambe con 2GB di GDDR5, peccato che non siano supportate dalla nostra mobo ;)
Stessa cosa vale per Nvidia.

Six1
25-06-2009, 13:23
Ma in fatti ad oggi, come detto:
Benchmark come Futuremark 3DMark06, PCMark Vantage, Prey o Quake mettono in luce il risvolto della medaglia: sono in grado di sfruttare
Questo sono in grado è importante.

Quindi non tutte le applicazioni ad oggi sono in grado di sfruttare la memoria video in maniera ottimale, ma questo handicap andrà scomparendo....
Come già è avvenuto con: Futuremark 3DMark06, PCMark Vantage e Prey o Quake.
Quindi prova a fare i Test sopra mensionati e poi paragonali con la HD3850 e poi ne riparliamo......

Poi ovviamente vi è tutta la restante parte della gestione della Fisica che per ora voi non vi sentite di prendere in considerazione perchè avete una GPU non in grado di effettuare questo lavoro.(legittimo, ma non per questo deve essere escluso).
Havok, Phisx e una memoria video superiore ai 512MB possono essere e saranno di grande aiuto.

jamby93
25-06-2009, 13:35
Come già è avvenuto con: Futuremark 3DMark06, PCMark Vantage e Prey o Quake.
Quindi prova a fare i Test sopra mensionati e poi paragonali con la HD3850 e poi ne riparliamo......

Beh, escludendo PCMark che non capisco cos'abbia a che fare con la GPU in quanto sono pochissime le applicazioni "daily" che sfruttano la GPU. In quel benchmark viene sfruttata la CPU e le RAM da quanto so...
Per i paragoni con 3DMark lo puoi notare tu da solo dai risultati in prima pagina.
Abbiamo visto come halnovenila ha ottenuto in 3DMark 06 un punteggio GPU ben più alto del mio, nonostante abbia una GPU più datata.
Il mio risultato:
PUNTEGGIO: 11735 di cui: SM2.0: 4583, SM3.0: 5324, CPU: 3621.

Contro quello di halnovenila:
PUNTEGGIO: 11713 di cui: SM 2.0: 4982, SM3.0: 5366, CPU: 3052

Ha riscontrato 400 punti in più nel punteggio SM2.0.
Da considerare che entrambe le GPU erano Overclockate, forse la mia di meno, ma oltre non reggeva, e cè la possibilità che sia sempre il bus a limitare, infatti i problemi che ho avuto in O.C. sono stati solo quando facevo partire i benchmark, con quindi un'elevata richiesta di poligoni e texture passanti, che è possibile a frequenze elevate il bus non regga. Sono solo supposizioni in ogni caso.. Non abbiamo dati certi.;)

roccia1234
25-06-2009, 13:38
un piccolo appunto. Le hd4870x2, e 4850x2 hanno si 2gb di vram, però è come se ne avessero uno... mi spiego.
dato che queste vga hanno 2 gpu, ogni gpu ha la sua parte di memoria dedicata, i due gb non sono condivisi tra le due gpu. Quando renderizzano una scena, le due gpu hanno nella memoria gli stessi identici dati, quindi se dovessero aver bisogno di immagazzinare 512 mb nella ram, l'occupazione totale di ram sarebbe 512mbx2=1024 mb, proprio per il fatto spiegato prima. Quindi alla fine la scheda ha si 2 gb di ram, ma è come se ne avesse 1 gb.

Six1
25-06-2009, 13:38
PS: Nota che, almeno per il settore ATI, le uniche GPU a superare la soglia di 1GB sono la 4870X2 e la 4850X2 entrambe con 2GB di GDDR5, peccato che non siano supportate dalla nostra mobo ;)
Stessa cosa vale per Nvidia.
No non è così........
ATI ha prodotto già scheda singola con 2G di Memoria Video....
Vapor-X da 2G:
http://www.sapphireitaly.com/content/view/604/59/

Comunque questo poco importa perchè.....
Per quanto riguarda la memoria video da 1G (di cui abbiamo disponibile la versione di nVidia GTS250+Phisx) questa è già abbondantemente sufficiente al nostro scopo se questa venisse sfruttata a dovere.....come detto poco prima.

Per la compatibilità......non è la memoria video a definire se una GPU è compatibile o meno, tanto è vero che dalla lista vi sono solo GPU compatibili da 512MB, invece noi usiamo tranquillamente GPU da 1G.

halnovemila
25-06-2009, 13:42
Inoltre per tornare ai nostri Test è probabile che il limite riscontrato da halnovemila con la sua HD4870 da 512MB, non venga riscontarto da GPU HD4870 con Memoria Video maggiore: 1G, 1,5G, 2G
Caro Six1 :)
ho letto tutto il tuo lungo post...
devi averci messo un bel po' nel scriverlo...
allora ti meriti i complimenti per l'impegno :)
Di quello che c'è scritto il 99% già lo conoscevo (mi mancava la parte relativa al bus del PCI-X) e sostanzialmente posso confermare quasi tutta la parte teorica...
ma le conclusioni mi lasciano un po' perplesso.
Prima cosa: Tanto per cominciare la HD4 870 Vapor-X che ho utilizzato per i test disponeva di 1GB di RAM GDDR5 (l'ho scritto nei dati relativi alla configurazione del PC; vedi il post #1195 (http://www.hwupgrade.it/forum/showpost.php?p=27924222&postcount=1195)).
Seconda cosa: il trasferimento delle texture verso la RAM video avviene in fase di precaricamento del livello o comunque in "burst", e non in streaming... ovvero l'intasamento del Bus dovuto al traferimento delle texture può avvenire, se avviene, ad intermittenza, e si manifesta più come un'interruzione, uno scatto, nel rendering della scena, piuttosto che come una riduzione degli Fps.
Come ho dimostrato con la misurazione "continua" degli Fps nell'arco di una scena di circa un minuto (vedi il post #1261 (http://www.hwupgrade.it/forum/showpost.php?p=27950943&postcount=1216)) date "certe circostanze" la perdita di Fps dovuta alla limitazione del bus è invece presente in modo lineare senza "strappi" o picchi.
Ergo la limitazione imposta da una non sufficiente larghezza di banda del bus non è sempre dovuta al trasferimento delle texture e non è risolvibile con l'aumento della memoria video on-board.
Terza cosa: non ho ancora approfondito l'argomento ma ho molte perplessità in merito al fatto che lo spostamento sulla GPU dell'onere di elaborazione della fisica comporti una riduzione del traffico dati sul bus CPU->GPU.
Allo stato attuale il fatto che la fisica sia calcolata dalla CPU non comporta alcuna sollecitazione sul bus (dato che l'elaborazione rimane tutta sul versante CPU/RAM e la GPU non viene interessata) e pertanto non può essere considerato uno degli elementi che potrebbero contribuire alla saturazione del bus PCIe (o AGP).
Al contrario, lo spostamento dell'elaborazione della fisica degli oggetti sulla GPU, se da un lato "alleggerisce" la CPU e può contribuire a rimuovere eventuali condizioni di CPU-limited, dall'altro credo che implicherà una maggiore e più stretta comunicazione tra CPU e GPU, anche bidirezionale, per la trasmissioni di dati di elaborazione controllo e sincronizzazione di cui, in caso contrario, non ci sarebbe bisogno.
Quindi, a conclusione, dubito che l'utilizzo delle tecnologie Phisx e Havok possa portare beneficio ai casi e nelle scene in cui il bus PCI-E non è in grado di garantire sufficiente larghezza di banda.

Saluti.
Alessio

@Jamby93
Approposito del test su Crysis...
parlando con Roccia1234 (e sulla base degli Fps da lui misurati sullo stesso fotogramma 1299) sono giunto alla conclusione che la prova che ti ho proposto non è sufficientemente affidabile/riproducibile per valere come dato sperimentale su cui fare o basare delle valutazioni.
In realtà io ho elaborato molti altri dati che confermano la mia ipotesi ma sarebbe troppo complicato pubblicarli per via sia delle dimensioni dei grafici (che per mantenere una adeguata risoluzione sono molto lunghi) che della loro non semplice lettura.

halnovemila
25-06-2009, 13:49
Da considerare che entrambe le GPU erano Overclockate, forse la mia di meno, ma oltre non reggeva
Non ti preoccupare la HD3 850 anche con un overclock da fargli scoppiare VRM e condensatori non supera i 1200 punti al test Unigine Sanctuary Demo.
La HD4870 rimane sempre il doppio più potente.
Del resto hai voglia ad overcloccare quando la differenza quando la HD3850 ha 320 unità shaders e la HD4870 ne ha 800!
:sofico:

Six1
25-06-2009, 14:06
devi averci messo un bel po' nel scriverlo...
allora ti meriti i complimenti per l'impegno

Non meno di quanto tu ci metti a scrivere i tuoi, e per cui ogni volta ti facciamo i complimenti per il tuo impegno. ;)


Ergo la limitazione imposta da una non sufficiente larghezza di banda del bus non è sempre dovuta al trasferimento delle texture e non è risolvibile con l'aumento della memoria video on-board.
Terza cosa: non ho ancora approfondito l'argomento ma ho molte perplessità in merito al fatto che lo spostamento sulla GPU dell'onere di elaborazione della fisica comporti una riduzione del traffico dati sul bus CPU->GPU.


Allora spiegami cosa satura(forse) o meglio cosa nella maggior parte dei casi satura(forse) tutta la banda a disposizione 1GBps(che non è poca), una volta esclusi i dati di Fisica e Texture. ;)

Al contrario, lo spostamento dell'elaborazione della fisica degli oggetti sulla GPU, se da un lato "alleggerisce" la CPU e può contribuire a rimuovere eventuali condizioni di CPU-limited, dall'altro credo che implicherà una maggiore e più stretta comunicazione tra CPU e GPU, anche bidirezionale, per la trasmissioni di dati di elaborazione controllo e sincronizzazione di cui, in caso contrario, non ci sarebbe bisogno.
Non credo. Io penso che la Fisica gestita dalla GPU rimanga pura gestione e lavoro di quest' ultima.
La Physics Processing Unit o PPU, è un microprocessore dedicato e ottimizzato per la gestione del calcolo della fisicità degli oggetti virtuali.
È quindi un'enorme rivoluzione, soprattutto nel campo della grafica tridimensionale, in quanto tutti i movimenti degli oggetti, le collisioni tra poligoni e tutto quello che riguarda il tridimensionale non viene più elaborato dalla CPU del computer, ma dal processore della Scheda Video, ottimizzato per quel tipo di calcoli.(non avrebbe senso da parte della GPU comunicare alla CPU un lavoro già compiuto, svolto in tempo reale)
Alla CPU viene quindi tolta una notevole mole di lavoro, quindi la potenza di calcolo può essere impiegata ad altri scopi, tra cui la gestione del sistema operativo, del motore di gioco, dell'intelligenza artificiale ecc. (in questo caso vi sarà uno scambio di dati ed ha un senso lo scambio GPU/CPU)
Tratto da WiKipedia: http://it.wikipedia.org/wiki/Physics_Processing_Unit
Phisx da nVidia: http://www.nvidia.it/object/physx_new_it.html


Prima cosa: Tanto per cominciare la HD4 870 Vapor-X che ho utilizzato per i test disponeva di 1GB di RAM GDDR5 (l'ho scritto nei dati relativi alla configurazione del PC
Ho editato....al posto dei 512MB ho messo 1G, ma tanto la risultante non cambia, perchè come detto a jamby93:
non tutte le applicazioni ad oggi sono in grado di sfruttare la memoria video in maniera ottimale(COD-4 fà parte di questi....) ma questo handicap andrà scomparendo.......
Come già è avvenuto con: Futuremark 3DMark06, PCMark Vantage e Prey o Quake.

halnovemila
25-06-2009, 17:01
Allora spiegami cosa satura(forse) o meglio cosa nella maggior parte dei casi satura(forse) tutta la banda a disposizione 1GBps(che non è poca), una volta esclusi i dati di Fisica e Texture. ;)
Ovviamente la geometria; ovvero l'insieme di quelle milioni di coordinate spaziali che definiscono le superfici poligonali (hai usato tu la parola "wireframe"? ;)) sulle quali poi vanno calcolati gli effetti di luce e applicate le texture.
Poi ovviamente ci sono tutti i dati relativi alle proprietà delle superfici.
Poi ci sono i dati relativi alle proprietà degli oggetti particellari.


Non credo. Io penso che la Fisica gestita dalla GPU rimanga pura gestione e lavoro di quest' ultima.
Anche se fosse, ciò non porterebbe ad alcuna riduzione del carico di dati in transito sul Bus rispetto alla situazione in cui l'elaborazione della fisica rimane in carico alla CPU; infatti in quest'ultimo caso, dato che la GPU è esclusa dal processo, non ci sono dati relativi in transito sul bus dalla CPU alla GPU.
La cosa sarebbe ben diversa se oltre al calcolo della fisica la GPU provvedesse in maniera autonoma o semi-autonoma anche al calcolo della geometria.

Ho editato....al posto dei 512MB ho messo 1G, ma tanto la risultante non cambia, perchè come detto a jamby93:
non tutte le applicazioni ad oggi sono in grado di sfruttare la memoria video in maniera ottimale(COD-4 fà parte di questi....) ma questo handicap andrà scomparendo.......
Sarà anche un handicap come tu dici, fattostà che di questo handicap la HD3 850 con 512MB e AGP 8x (metà della memoria on board della HD4870 da me testata) sembra non curarsi dato che nello stesso identico punto dello stesso identico gioco produce molti più Fps.
Riepilogando con 1GB e una scheda da 2000 punti Unigine e PCIe@4x ottengo 33 fps, invece con 512MB, una scheda da 1000 punti Unigine e AGP@8x ne ottengo 47.

Comunque CoD4 è un gioco che funziona fluidamente (senza scatti o stuttering dovuti al trasferimento delle texture) con il massimo della qualità sulle texture anche su schede video dotate di 256MB on-board, o addirittura con 128MB... provato personalmente con una GeForce 6800LE 128MB DDR, una X800Pro e XT 256MB DDR e una 6800 Ultra 256MB DDR3 (insomma tutto il mio parco di schede video attualmente ancora operative ;))

Six1
25-06-2009, 17:55
Ovviamente la geometria; ovvero l'insieme di quelle milioni di coordinate spaziali che definiscono le superfici poligonali sulle quali poi vanno calcolati gli effetti di luce e applicate le texture.
Poi ovviamente ci sono tutti i dati relativi alle proprietà delle superfici.
Poi ci sono i dati relativi alle proprietà degli oggetti particellari.
Beh andrebbero quantificati.......;)
Non credo proprio che la geometria, sulle quali poi vanno calcolati gli effetti di luce e applicate le texture,
tutti i dati relativi alle proprietà delle superfici, i dati relativi alle proprietà degli oggetti particellari possano saturare 1GBps
Come detto andrebbe quantificato.
Anche se fosse, ciò non porterebbe ad alcuna riduzione del carico di dati in transito sul Bus rispetto alla situazione in cui l'elaborazione della fisica rimane in carico alla CPU; infatti in quest'ultimo caso, dato che la GPU è esclusa dal processo, non ci sono dati relativi in transito sul bus dalla CPU alla GPU.
Non sono daccordo. La Fisica non è parte a se ma è parte della scena in cui è richiesta, quindi andrà ad unirsi con tanti altri dati. E penso che la GPU e CPU nella gestione della Fisica ad oggi senza Phisx o Havok comunichino.
La cosa sarebbe ben diversa se oltre al calcolo della fisica la GPU provvedesse in maniera autonoma o semi-autonoma anche al calcolo della geometria.
Magari. ;)
Sarà anche un handicap come tu dici, fattostà che di questo handicap la HD3 850 con 512MB e AGP 8x (metà della memoria on board della HD4870 da me testata) sembra non curarsi dato che nello stesso identico punto dello stesso identico gioco produce molti più Fps.
Riepilogando con 1GB e una scheda da 2000 punti Unigine e PCIe@4x ottengo 33 fps, invece con 512MB, una scheda da 1000 punti Unigine e AGP@8x ne ottengo 47.
Comunque CoD4 è un gioco che funziona fluidamente (senza scatti o stuttering dovuti al trasferimento delle texture) con il massimo della qualità sulle texture anche su schede video dotate di 256MB on-board, o addirittura con 128MB... provato personalmente con una GeForce 6800LE 128MB DDR, una X800Pro e XT 256MB DDR e una 6800 Ultra 256MB DDR3 (insomma tutto il mio parco di schede video attualmente ancora operative ;))

Beh ragazzi io ho provato ad avanzare delle ipotesi......
Ho questa Scheda Madre e quindi cerco di capire a parte l' esistenza di un limite (che sinceramente state facendo più grande di quello che è visto che i cali in prestazioni sono rarissimi e trascurabili, per di più ancora nel dubbio di un implicazione effettiva del limite imposto del PCIEx4x) anche le possibili soluzioni per cercare di renderli ancora più trascurabili o addirittura nulli.
Se volete invertire la tendenza sarebbe interessante e più proficuo per tutti.
Ormai credete di aver dimostrato che lo Slot PCIEx 4x in certi contesti limita, perchè non cercare di capire se si può rendere trascurabile questo limite o addirittura annullarlo?
O quanto meno cerchiamo di portare idee su entrambe i Fronti: PCIEx4x limiti? - PCIEx4x come posso evitare o rendere trascurabili questi limiti?
Secondo me il fatto della Memoria Video quanto meno andrebbe approfondito.....
Altre possibili idee sono sicuramente ben accette....

Io la butto lì poi vedete Voi.
Tutti noi stiamo ragionando ed esprimendo opinioni nel dubbio.
Dimostrare l' indimostrabile non porta a nulla, per lo meno investiamo le nostre idee ed energie per capire se si può in qualche modo migliorare....

Six1
25-06-2009, 19:15
Ciao a tutti, sono nuovo del forum però è da tempo che leggo le ultime news su questa scheda madre.
Vorrei upgradare la mia scheda video (Sapphire 3650 AGP ddr3) con una Sapphire 4850 Pci-Ex 512Mb (questa (http://www.eprice.it/Schede-Video-SAPPHIRE/s-1865122)): questo modello/marca è compatibile? :help:
Ho letto la lista iniziale, ma di 4850 ho visto solo la Asus (40euro più costosa).
Che ne pensate di questo upgrade? Credo ne valga la pena, almeno potrei attivare tutti i filtri per migliorare la qualità video (al momento il mio monitor ha ris. max. 1280*1024)
Ho il bios aggiornato alla 2.13 con 4Gb di RAM Kingston DDR 800 in Dual Channel e Intel Core2Quad Q6600.
Sarei tentato anche di passare ad Nvidia, visto i numerosi problemi di driver avuti con i Catalyst. Ora sembra migliorata la situazione, ma la possibilità di accelerare Photoshop non mi sembra cosa da poco, purtroppo le 9800GT/GTX costano sopra i 100euro. :muro:

Ciao e benvenuto!
l' idea di passare a nVidia potrebbe essere condivisibile.
Driver, Phisx, Cuda ecc. ecc.
Se decidessi per le nVidia non dimenticarti della ottima GTS250 da 512GB/1G di MSI (superiore alle 9800GTX)
Altrimenti se vuoi spendere poco anche la HD4850 da 1G potrebbe andar bene.

Se mi confermate che il modello della Sapphire può funzionare senza problemi :wtf: andrei per quello altrimenti dovrei cercare qualche altra scheda di brand più costosi però.
Ora vado che la Florida aspetta il suo don. :cool:
Non te lo possiamo assicurare.
Per le compatibilità consiglio di utilizzare sempre le marche consigliate nella lista in prima pagina, poi però ciò non toglie che anche altre marche possano comunque andar bene.....su questo aspetto un pochino si rischia e la scelta a questo punto dipende solo da te.
Inoltre ti consiglio di prendere una GPU con almeno 512MB di memoria, 1G sarebbe meglio.

Six1
25-06-2009, 19:36
Oggi mi e' arrivata la 4core dual rev.2 e tra poco inizio a fare l'upgrade.
sisi ho windows xp 32bit quindi vada per i 2 gb :p ,per il dual channel credo vada bene le stecche sono identiche(marca e modello),pero' non erano nel kit dual e comunque le ho comprate assieme.

p.s. allora mi sa che evito di mettere la terza stecca nello slot ddr2 :sofico:
Esatto vai di dual Channel che è meglio. Tra l' altro se usi W. Xp e non W. Vista vai strasicuro con 2G in Dual Channel.
Come ti diceva nomak87 se le Ram non sono Twin in dual channel potresti incorrere in qualche problemino speriamo bene......:sperem:

Ma poi non avevi detto di avere du banchi....1 da 1G e uno da 2G? :confused:
Adesso invece se ho ben capito hai tre pezzi da 1G l' uno......:confused:

Six1
25-06-2009, 22:32
Notizia a carattere generale....
si allarga la lista delle GPU AGP, anche XFX ha prodotto una nuova GPU AGP.
La XFX HD4650 AGP. Aggiungo il tutto in ultime news in prima pagina. ;)

TaiKaliso
26-06-2009, 10:45
Beh ragazzi io ho provato ad avanzare delle ipotesi......
Ho questa Scheda Madre e quindi cerco di capire a parte l' esistenza di un limite (che sinceramente state facendo più grande di quello che è visto che i cali in prestazioni sono rarissimi e trascurabili, per di più ancora nel dubbio di un implicazione effettiva del limite imposto del PCIEx4x) anche le possibili soluzioni per cercare di renderli ancora più trascurabili o addirittura nulli.
Se volete invertire la tendenza sarebbe interessante e più proficuo per tutti.
Ormai credete di aver dimostrato che lo Slot PCIEx 4x in certi contesti limita, perchè non cercare di capire se si può rendere trascurabile questo limite o addirittura annullarlo?
O quanto meno cerchiamo di portare idee su entrambe i Fronti: PCIEx4x limiti? - PCIEx4x come posso evitare o rendere trascurabili questi limiti?
Secondo me il fatto della Memoria Video quanto meno andrebbe approfondito.....
Altre possibili idee sono sicuramente ben accette....
Io la butto lì poi vedete Voi.
Tutti noi stiamo ragionando ed esprimendo opinioni nel dubbio.
Dimostrare l' indimostrabile non porta a nulla, per lo meno investiamo le nostre idee ed energie per capire se si può in qualche modo migliorare....
Condivido pienamente quanto detto da Six1.
Notizia a carattere generale....
si allarga la lista delle GPU AGP, anche XFX ha prodotto una nuova GPU AGP.
La XFX HD4650 AGP. Aggiungo il tutto in ultime news in prima pagina. ;)
Però anche XFX ha prodotto una nuova AGP. Perfetto. Speriamo continuino per questa strada. Se producono la HD4770 AGP giuro che la compro e la piazzo sullo slot AGP. Anche La 4670 AGP è interessante comunque e infatti e tra quelle che vorrei comprare......

Si sono qui a chiedervi un consiglio:
Devo scegliere tra 4 GPU, voi cosa mi consigliate? Premetto come già sapete di pendere dalla parte della verdona nvidia, quindi dovrete essere convincenti per farmi scegliere ATI.

Per il discorso della GPU AGP non ditemi che è meglio una PCIEx per investimento ecc. ecc. non mi interessa, tanto terrò questa schedozza supermamma ancora per un bel pò di tempo.

1. PowerColor HD4670 AGP 1G
2. Asus 9800GTX+ 512 MB
3. MSI GTS250 da 1G
4. PowerColor HD4870 1G
La HD4850 non l' ho presa in considerazione perchè se devo scegliere ATI PCIEx, scelgo la meno peggio o diciamo la migliore (per non offendere nessuno ;) ).

Ho scelto di prendere le GPU con le marche riportate su questo Thread non mi và di rischiare che poi non vadano..... :muro:
Six1 l' ha ribadito più di una volta, portando anche degli scambi fatti con PCTREIBER, qualche pagina prima, proprio su questo argomento.
Six1 Confermi???
Inoltre come da consiglio di Six1 ho scelto tra quelle con maggiore memoria video, ad eccezione della 9800GTX+ che purtroppo esiste solo con memoria da 512MB :cry:

Il procio molto probabilmente sarà un quad 6600 (il 6700 se riesco a trovarlo a poco)
A proposito un altra piccola domanda per Six1:
ma dove hai trovato la versione Tray del 6700 su internet a 150.00 euro? :D

Infine
Il mio alimentatore è un Corsair HX520

Premetto che mi piace giocare al Pc, ma non sono un Giocatore di quelli che si accaniscono e vogliono tutto al Top.
Grazie fin da adesso per i vostri consigli.
Un salutone a tutti.

:sofico:

Six1
26-06-2009, 11:32
Ragazzi notizia bomba!!!
Aggiungerò in prima pagina anche questa nuova GPU AGP.....

Anche la HIS ha prodotto la HD4670 AGP!!!
http://www.hisdigital.com/gb/product2-448.shtml


P.S.
Taikaliso, ho dato una letta veloce alla tua richiesta di suggerimento, intanto comincia a togliere dalla lista la PowerColor AGP, perchè la HIS AGP da quanto scritto nelle caratteristiche dovrebbe essere superiore.

Six1
26-06-2009, 14:04
Condivido pienamente quanto detto da Six1.

Però anche XFX ha prodotto una nuova AGP. Perfetto. Speriamo continuino per questa strada. Se producono la HD4770 AGP giuro che la compro e la piazzo sullo slot AGP. Anche La 4670 AGP è interessante comunque e infatti e tra quelle che vorrei comprare......

Si sono qui a chiedervi un consiglio:
Devo scegliere tra 4 GPU, voi cosa mi consigliate? Premetto come già sapete di pendere dalla parte della verdona nvidia, quindi dovrete essere convincenti per farmi scegliere ATI.

Per il discorso della GPU AGP non ditemi che è meglio una PCIEx per investimento ecc. ecc. non mi interessa, tanto terrò questa schedozza supermamma ancora per un bel pò di tempo.

1. PowerColor HD4670 AGP 1G
2. Asus 9800GTX+ 512 MB
3. MSI GTS250 da 1G
4. PowerColor HD4870 1G
La HD4850 non l' ho presa in considerazione perchè se devo scegliere ATI PCIEx, scelgo la meno peggio o diciamo la migliore (per non offendere nessuno ;) ).

Ho scelto di prendere le GPU con le marche riportate su questo Thread non mi và di rischiare che poi non vadano..... :muro:
Six1 l' ha ribadito più di una volta, portando anche degli scambi fatti con PCTREIBER, qualche pagina prima, proprio su questo argomento.
Six1 Confermi???
Inoltre come da consiglio di Six1 ho scelto tra quelle con maggiore memoria video, ad eccezione della 9800GTX+ che purtroppo esiste solo con memoria da 512MB :cry:

Il procio molto probabilmente sarà un quad 6600 (il 6700 se riesco a trovarlo a poco)
A proposito un altra piccola domanda per Six1:
ma dove hai trovato la versione Tray del 6700 su internet a 150.00 euro? :D

Infine
Il mio alimentatore è un Corsair HX520

Premetto che mi piace giocare al Pc, ma non sono un Giocatore di quelli che si accaniscono e vogliono tutto al Top.
Grazie fin da adesso per i vostri consigli.
Un salutone a tutti.

:sofico:

Cosa dirti....

Innanzitutto si ti confermo che ho raccomandato di acquistare GPU di marche in lista in prima pagina, proprio qualche pagina fà......proprio come tu dici.
Il discorso vale però solo per GPU PCIex, penso che per le versioni AGP non ci siano problemi. Comunque anche per quella esiste una lista più breve e totalmente non Ufficiale.
la HD4670 AGP non è male, tra l' altro come già detto, adesso è uscita anche la HIS molto valida. Se l' hai messa in lista io ci farei un pensierino. Ovviamente dipenderà dal prezzo.
Invece tra le soluzioni PCIEx io ti consiglio la GTS250 da 1G della MSI.
Nei giochi è ottima, inoltre consuma meno della 9800GTX+, più longeva delle soluzioni 9xxx perchè già fà parte della serie GTxxxx. Inoltre hai 1G di memoria disponibile utile per molte ragioni......
Inoltre nVidia è molto valida nei Driver, e fornisce già da questo modello la gestione della Fisica da GPU, grazie a Phisx. Poi Cuda ecc. ecc.
Con l' alimentatore che hai non dovresti aver nessun problema con le soluzioni che ti ho proposto.
La HD4770 AGP uscirà, ma ci vorrà ancora un annetto secondo me.

Il Q6700 l' ho acquistato qui: http://www.tiburcc.it/it-it/

Sopratutto perchè ho risparmiato sulle spese di spedizione essendo in un punto da me raggiungibile anche di persona.
Qui ho acquistato anche le Ram.....identiche a quelle di nomak87;) , sempre per lo stesso motivo.

halnovemila
26-06-2009, 22:12
O quanto meno cerchiamo di portare idee su entrambe i Fronti: PCIEx4x limiti? - PCIEx4x come posso evitare o rendere trascurabili questi limiti?
Secondo me il fatto della Memoria Video quanto meno andrebbe approfondito.....
Altre possibili idee sono sicuramente ben accette....

Io la butto lì poi vedete Voi.
Tutti noi stiamo ragionando ed esprimendo opinioni nel dubbio.
Dimostrare l' indimostrabile non porta a nulla, per lo meno investiamo le nostre idee ed energie per capire se si può in qualche modo migliorare....

Molti anni fa mi capitò di vedere una vignetta che mi fece allo stesso tempo divertire e riflettere molto.
C'era disegnato un classico "sportello" con l'impiegato dietro il banco...
sopra lo sportello la scritta "Ufficio reclami"...
sopra il tavolo dell'impiegato, una targa recava la scritta:
"non si accettano proteste... solo proposte"
Carino no? :)

In questo caso però trovarsi a riflettere, e a fare sperimentazioni e analisi attorno alla presenza di una eventuale limitazione dovuta al bus che unisce CPU e GPU, non rappresenta una protesta ma il semplice studio/approfondimento di un fattore che è stato prima completamente ignorato.
Non c'è nulla di strano, nè di negativo nel voler verificare se e quanto un componente di un sistema sia limitante.
Per esempio nessuno credo troverebbe strano se Jamby93 affermasse che la sua CPU, in certe condizioni, è limitante...
Come pure non ci sarebbe nulla di strano se, dati alla mano, si evidenziasse che la GPU della mia HD3850, in certe condizioni, è limitante.
Anche le RAM, in certe condizioni, possono essere limitanti.
Quindi, se ci si è soffermati con un po' più di attenzione, nel valutare e studiare i dati sperimentali con l'intento di verificare l'esistenza di un limite dovuto non alla CPU, non alla GPU, non alle RAM, non alla dimensione della RAM video on-board, ma al bus PCIe@4x, non è una forma di "accanimento", ma il tentativo di far luce su un aspetto non ancora sufficientemente studiato/capito; non credo ci sia nulla di cui rattristarsi.
Triste sarebbe invece chiudere gli occhi e rifiutare di approfondire certi argomenti per la sola paura di riscontrare dei "limiti" che si vorrebbe non ci fossero.
I limiti ci sono sempre; nella CPU, nella RAM, nella GPU, nel chipset... e anche nei bus di comunicazione...
l'importante non è rifugiarsi in un mondo ideale in cui i limiti non esistono, l'importante è conoscerli.
Galileo e Freud hanno fatto a lungo la figura dei rompiscatole con le loro continue teorie che andavano contro tutta la già consolidata conoscenza del tempo (il sole che girava attorno alla terra, le malattie mentali come pura questione medica di tipo neurologico).
Per tutta la loro vita i due grandi scienziati hanno sofferto il biasimo dei loro "colleghi" che li rimproveravano di insistere con teorie assurde che nessun altro prima di loro aveva mai avuto l'ardire di proporre.
Bene, noi oggi sappiamo che loro avevano ragione e tutti gli altri torto... ma poveri Galileo e Freud (e Einstein pure) quante amarezze hanno dovuto patire nella loro "accanita" ricerca della verità! :rolleyes:

Tornando alla materia della nostra discussione, parlare di soluzione quando ancora non c'è accordo sulla forma e la portata del problema, è alquanto prematuro.
E' un po' come voler trovare una soluzione alla peste quando c'è ancora un sacco di gente che crede che sia una malattia diffusa dagli "untori".
Finchè si continua a credere che la causa del problema siano delle persone che vanno in giro a "ungere" e diffondere la malattia sugli altri... nessuno penserà a lavarsi le mani con il sapone.

Oltrettutto, in campo informatico, quasi tutti i limiti si possono risolvere in due modi:
1) potenziando il componente "limitante"
2) sostituendo il componente "limitante"

Questo è vero per CPU, GPU, RAM, chipset e bus AGP e PCIe
Riguardo al primo dei due modi, sulla 4CoreDual-Sata2, ho dimostrato con i test al 3DMark06 e con quelli con CoD4, che aumentando la frequenza FSB e lasciando su "Auto" l'impostazione BIOS "PCIE Clock" le prestazioni del bus aumentano e il limite diminuisce.
Riguardo al secondo modo... beh... credo non abbia bisogno di spiegazioni :)

Comunque, ripeto, oltre ai pregi della 4CoreDual-Sata2 (come il prezzo vantaggioso, la sua grande versatilità, la relativamente buona qualita costruttiva, la disponibilità di continui aggiornamenti) è necessario conoscere bene anche i suoi limiti (come la scarsa vocazione all'overclock, il chipset non eccezionalmente performante, la limitata espandibilità della memoria, l'incompatibilità con un numero imprecisato di schede video e, ultimo ma non meno importante, un bus PCIe che non va oltre il 4x).

I limiti ci sono sempre, poi ognuno per conto proprio può decidere se sono importanti o meno...
però prima bisogna imparare a conoscerli :)

Notte.
Alessio

P.S. Se c'è qualcuno che è d'accordo con quanto ho scritto è pregato di farmelo sapere... :asd:

Six1
27-06-2009, 11:19
Molti anni fa mi capitò di vedere una vignetta che mi fece allo stesso tempo divertire e riflettere molto.
C'era disegnato un classico "sportello" con l'impiegato dietro il banco...
sopra lo sportello la scritta "Ufficio reclami"...
sopra il tavolo dell'impiegato, una targa recava la scritta:
"non si accettano proteste... solo proposte"
Carino no? :)
Interessante e simpatica la vignetta, ma fuori luogo perchè qui nessuno deve o vuole protestare o reclamare qualcosa.
O sbaglio :confused: ???
Io Non ho progettato, Non ho prodotto, Non vi ho venduto e Non vendo la 4CoredualSata2, e se hai letto il mio ultimo post ho semplicemente fatto richiesta di poter migliorare (nel possibile) i limiti di cui parli e di cui stiamo cercando ancora di capire la effettiva natura e provenienza (o sbaglio?).
Se si vuole protestare esiste la Asrock, o il negoziante che ve l' ha venduta(comunque non capisco il motivo per quale protestare visto che la Asrock specifica che questa Mobo: non è per fare Overclock spinti, ha il limite meccanico del 4x, più chiari di così......).
Poi tu specialmente utilizzando maggiormente lo slot AGP, con la HD3850 AGP, non dovresti avere nessun limite di sorta, ma se mai in questo caso hai la Scheda Madre (con tecnologia AGP) meno limitata che esista in circolazione.
Io comunque lo sottolineo nonostante i suoi limiti (come del resto anche tu hai detto tutto è limitato) non sento di dover fare alcuna protesta perchè sono molto soddisfatto della Asrock 4CoredualSata2. Rev 2.0.
In questo caso però trovarsi a riflettere, e a fare sperimentazioni e analisi attorno alla presenza di una eventuale limitazione dovuta al bus che unisce CPU e GPU, non rappresenta una protesta ma il semplice studio/approfondimento di un fattore che è stato prima completamente ignorato.
Esatto.
Non ho mai pensato che il vostro lavoro fosse inutile, (anzi) ho partecipato ai vostri test con curiosità e apertura totale....... ma negli ultimi tempi ho notato che l' argomento fosse troppo incentrato su un unica ipotesi senza cercare magari nel possibile come detto di trovare eventuali soluzioni (in caso esistano ovviamente ;) )
Poi è ovvio che i limiti esistono per tutto, e questo io sono il primo a dirlo.
Possibile che quanto da voi detto sia corretto, ma perchè invece di piangerci addosso non si cerca di ingegnarsi in positivo???
Insomma come titolare del Thread, potrò esprimere anche io qualche parere ogni tanto o No? :)

Però modesto il ragazzo..... :D
Ti sei paragonato a Galileo, Freud e Einstein
allora Galileo sarebbe jamby93, Freud roccia1234 e tu Einstean.......:asd:
Se ho sbagliato la combinazione magari puoi sempre aiutarmi a ricomporla....
Io ovviamente sarei parte dei colleghi ottusi che ostacolano il progresso.....:cry:
:) Probabilmente sono stato male interpretato, ribadisco che non ritengo le vostre analisi errate e prive di fondamento ma mi piacerebbe vedere anche qualche interessante idea degna di Einstein/halnovemila per cercare di migliorare tali limiti (Io lo vedo un approccio maggiormente positivo)

Tipo questo ottimo consiglio che hai dato e che metterò fortemente in risalto:
Riguardo al primo dei due modi, sulla 4CoreDual-Sata2, ho dimostrato con i test al 3DMark06 e con quelli con CoD4, che aumentando la frequenza FSB e lasciando su "Auto" l'impostazione BIOS "PCIE Clock" le prestazioni del bus aumentano e il limite diminuisce. Potresti indicarmi su quale Post hai sottolineato questa tua interessante scoperta?
Secondo te perchè le prestazioni aumentano? Ti sei dato una spiegazione plausibile?
Che ne diresti di approfondire tutti assieme, questa tua osservazione?

Inoltre il fatto della Memoria Video..........
Sono daccordo che non sempre è utile quindi risolutiva(questo è dovuto alla predisposizione di un determinato Gioco/Benchmark a sfruttare in maniera intelligente la memoria video della GPU), ma non si può certamente dire che non possa aiutare.( è incredibile il fatto come nei grafici la differenza tra il 4x e il 16x sia nulla addirittura il 4x ha segnato qualche puntarello in più.....)
In molti titoli questo potrebbe aiutare, in altri magari l' aiuto potrebbe invece arrivare da quello che tu hai invece notato.....
Oppure messi insieme potrebbero fare sia nell' uno che nell' altro, anche contemporaneamente, e il limite potrebbe ulteriormente assottigliarsi.
Cosa ne dici?
Se sei daccordo/siete daccordo si potrebbe iniziare a lavorare su queste due ipotesi.....
Tra l' altro in qualche modo già in parte confermate, la prima con i Test e i grafici e studi effettuati da halnovemila, il secondo con i Test e i grafici che vi ho postato effettuati da T.Hard.
Ovviamente cerco da parte mia e mi aspetto da Voi anche altre idee.

2) sostituendo il componente "limitante"[/B]
Riguardo al secondo modo... beh... credo non abbia bisogno di spiegazioni :)
Liberi di farlo, ci mancherebbe altro, Se lo si ritiene opportuno. Io dal canto mio cerco eventuali soluzioni o miglioramenti eventuali sia per me ma per chi decide di tenersi questa Scheda Madre o per chi la sta acquistando o la acquisterà e si affaccia o affaccierà in Futuro a questo Thread.

Spero di essere stato chiaro e di aver chiarito eventuali malintesi.

SuperNoa
27-06-2009, 12:52
Anche io sono un possessore di questa scheda, abbinata ad core 2 duo E6550 2,33 GHz 1333 MHz, con un pò di overclok sono riuscito ad alzare il bus e sfruttare il processore fino ai 2GHz, 2 x 1GB di ram a 800mhz Kingston, quella economica value, scheda video x1950PRO!
Sto pensando di cambiarla con una Asus P5QL per sfruttare a pieno il processore, che è a 1333 MHz, come anche la ram!