PDA

View Full Version : HD3850 AGP OTTIMIZZAZIONE TRAMITE VALIDO ABBINAMENTO DELLA COMPONENTISTICA HARDWARE


Mauro B.
04-03-2009, 16:07
La componenstistica hardware del nostro computer influenza le prestazioni della HD3850 AGP come in generale accade alle performance relative a qualsiasi altro dispositivo, pertanto la giusta combinazione permette di massimizzarne le funzioni.

Il componente che maggiormente influsce sulla scalabilità dei componenti è ovviamente la Main Board (Scheda Madre) ed il livello di dettaglio del BIOS che consenta di configurare i vari parametri per la stabilità e progressività dell'hardware, in base alla main booard potremmo stabilire quali dispositivi posssano interfacciarsi con essa e quindi agire con una certa complementarietà.

Uno degli elementi fondamentali con cui la scheda video si interfaccia e relaziona è la CPU. ciò si verifica attraverso l'interazione del chipset presente.

In base alle caratteristiche precipue del mio assetto sarebbe da considerare quale sia la CPU migliore che consenta di ottimizzare la HD3850 AGP.

Il quesito nel caso personale origina dal fatto che l'attuale scheda madre presenterebbe limitazioni nell'implementazione di talune cpu secondo specifiche tecniche esaminate nel sito del produttore JETWAY, tuttavia analoga scheda madre ASROCK ne risulterebbe esente, ammettendo così l'impiego di dual e quad core nel socket 775 LGA.

Con l'impiego di queste tecnologie ne risulterebbe in sintesi migliorata la performance della ATI HD3850 AGP.

halnovemila
05-03-2009, 20:23
Come sono state condotte le prove
I risultati pubblicati qui di seguito sono stati ottenuti eseguendo una batteria di test per ciascuna frequenza CPU da 1,7GHz a 3,5GHz con step di 100Mhz.
Per ciascuna frequenza CPU, i test sono stati ripetuti due volte: una prima volta con la HD3 850 AGP con clock GPU e RAM impostati ai valori di fabbrica (GPU 670MHz, RAM 830MHz x2), e una seconda volta con GPU e RAM overcloccati rispettivamente a 750MHz e 1000MHz.

La batteria di test comprendeva:
3DMark06
CoD4 - Multi (no AI, scena fissa)
CoD4 - Arcade (missione)

I test 3DMark06 sono stati eseguiti ciascuno dopo un riavvio del PC, mentre le prove con CoD4 sono state effettuate in sequenza all'interno della stessa sessione Windows.

Per ciascuna frequenza CPU è stata pure misurata la larghezza di banda della RAM di sistema mediante Sandra 2007
http://immagini.p2pforum.it/out.php/t359538_RAM6634.JPG (http://immagini.p2pforum.it/out.php/i359538_RAM6634.JPG)

Qui la tabella con tutti i risultati raccolti per la realizzazione dei grafici:
http://halnovemila.interfree.it/Forum/Tabella_risultati.pdf

Configurazione del PC
Intel Core2 Duo E4600 (2,4GHz)
Asrock 4CoreDual-Sata2
2x 1GB RAM DDR2 PC2 9200 OCZ FlexXLC 3-3-3-9 1T - Dual Channel
Sapphire HD3850 AGP 512 MB DDR3
Windows XP SP2 - Drivers 8.6

Nota sui grafici:
In tutti i grafici una o più sequenze di dati sono state "scalate" (mediante moltiplicazione o divisione) o "traslate" (mediante somma) per permetterne l'inserimento nello stesso grafico con altre serie di dati di diversa "scala".

Punteggi 3DMark06
http://immagini.p2pforum.it/out.php/i359494_Confrontopunteggi3DMark06.gif
Analisi del grafico
Il grafico soprastante mette a confronto i punteggi 3DMark06 misurati con la HD3 850 con clock GPU e RAM a default (3DM, GPU 670, RAM 830) e con overclock (3DM_OC, GPU 750, RAM 1000, 1,214v)
Dal grafico si possono notare almeno tre cose:
- L'altalenarsi della larghezza di banda della RAM pare essere ininfluente sugli esiti del test 3DMark; in altre parole anche la banda minima di 5,5GB/s è sufficiente ad evitare rallentamenti nei test.
- Entrambe le curve dei punteggi 3DMark tendono a diventare parallele alla retta del CPU Score (dual core); ciò dipende comprensibilmente dal fatto che esaurita la "spinta" data dai miglioramenti nei test GT e HDR, l'unico fattore di aumento del punteggio 3DMark rimane quello legato ai risultati del CPU test.
- I benefici effetti dell'overclock aumentano con l'aumentare della potenza della CPU

Singoli test 3DMark e HD3850 con clock di default
http://immagini.p2pforum.it/out.php/i359500_ScalabilitaHD3850conclock670.830.gif
Analisi del grafico
Il grafico soprastante illustra le variazioni di prestazioni misurate su ciascuno dei quattro test grafici 3DMark06.
I cerchietti rossi indicano la frequenza CPU oltre la quale non ci sono più miglioramenti apprezzabili nel risultato del test.
In questo caso si può notare che:
- l'aumento o diminuzione della larghezza di banda della RAM di sistema non pare influire sugli esiti dei test
- I test GT1 e HDR1 richiedono relativamente poca potenza di calcolo alla CPU e il limite della HD3 850 si vede già a partire da un clock CPU di circa 2,1GHz (a cui corrisponde in CPU score pari a 960 per un core e 1879 per due core CPU)
- I test GT2 e HDR2 richiedono più potenza CPU per cui il limite di prestazioni della HD3 850 viene raggiunto, al più tardi, attorno ai 3GHz CPU (a cui corrisponde in CPU score pari a 1357 per un core e 2644 per due core CPU)

Singoli test 3DMark e HD3850 overcloccata
http://immagini.p2pforum.it/out.php/i359505_ScalabilitaHD3850conclock750.1000.gif
Analisi del grafico
Questo grafico è analogo a quello precedente ma si riferisce ai risultati ottenuti con la HD3 850 overcloccata con GPU a 750MHz e RAM a 1000MHz (1,214v).
Valgono le stesse considerazioni fatte in precedenza salvo notare che l'overclock ha aumentato la scalabilità della scheda e quindi la potenza CPU necessaria per sfruttare al massimo la HD3 850.

Confronto diretto dei i risultati con HD3850 con e senza overclock
http://immagini.p2pforum.it/out.php/i359498_Confrontoscalabilitatraclockdidefaulteoverclock.gif
Analisi del grafico
Il grafico soprastante mette a diretto confronto i risultati dei test GT2 e HDR2 ottenuti con la scheda con clock di fabbrica e con overclock.
Si può notare come l'overclock abbia aumentato la scalabilità della HD3 850 soppratutto sul test HDR2, meno sul test GT che, evidentemente, è molto più "esigente" in termini di potenza grafica.

Risultati con CoD4
http://immagini.p2pforum.it/out.php/i359507_ScalabilitainCoD4.gif
Come sono state condotte le prove
Per completare il quadro la scheda è stata sottoposta ad un test "sul campo" con il gioco CoD4.
Come per il test 3DMark, anche in questo caso le prove sono state condotte sia con la scheda con clock di fabbrica (GPU 670MHz, RAM 830MHz) che in overclock con GPU a 750 e RAM a 1000.
I risultati etichettati come CoD_Multi sono relativi ad un test "statico" effettuato su di una particolare inquadratura di una mappa multiplayer, senza giocatori, senza AI, senza oggetti in movimento.
http://immagini.p2pforum.it/out.php/t359527_CoD476fps750.1000.JPG (http://immagini.p2pforum.it/out.php/i359527_CoD476fps750.1000.JPG)
Le impostazioni grafiche utilizzate sono:
Risoluzione=1024x768, Anti-Aliasing=4x, Depth of Field=No; Sync Every Frame=No, Dual Video
Cards=No;
tutte le altre impostazioni su Yes o al valore massimo consentito.
Texture in automatico e Anisotropic Filtering al valore predefinito (seconda tacca).

I risultati del test CoD_Multi sono stati sempre precisi e riproducibili; come si può osservare dal grafico la scheda ha espresso il massimo degli fps fin dalle frequenze CPU più basse.

Ben diversa la situazione per quanto riguarda il secondo test i cui risultati nel grafico sono etichettati con la dicitura CoD4_Arc.
In questo test le impostazioni grafiche sono le medesime di quello precedente ma la scena di riferimento per la misurazione degli fps è stata tratta dalla missione Charlie don't Surf giocata in modalità "arcade" e livello di difficoltà "Hardened".
E' stato scelto un momento particolarmente "pesante" (dal punto di vista delle prestazioni grafiche) a 35 secondi dall'inizio della missione.
http://immagini.p2pforum.it/out.php/t359535_CoD4CdS52fps750.1000.JPG (http://immagini.p2pforum.it/out.php/i359535_CoD4CdS52fps750.1000.JPG)

A causa della presenza di elementi casuali in ciascuna missione, i test sono stati ripetuti tre o quattro, in certi casi fino a sei volte per venire a capo di una certa "variabilità" dei risultati che poteva superare anche i due fotogrammi al secondo.
I risultati "scelti" per l'inserimento nel grafico sono quindi quelli che sono stati riprodotti più volte degli altri pur non essendo unici (se ad esempio, i risultati di quattro prove alla stessa frequenza CPU erano 47, 45, 44, 45, la "scelta" cadeva su 45).

Analisi del grafico
Il grafico soprastante ha un elemento di novità rispetto ai precedenti.
Si può notare un andamento irregolare della "curva" dei test CoD4_Arc che sembra rispecchiare il variare dei risultati relativi alla larghezza di banda della RAM di sistema. In CoD4 l'entità della larghezza di banda sembra quindi un fattore determinante ai fini delle prestazioni grafiche.
Intorno ai 3GHz di frequenza CPU (2644 CPU Score dual core), la HD3 850 raggiunge il massimo delle sue prestazioni pure in Overclock.

CoD4 e CPU Multi Core
http://immagini.p2pforum.it/out.php/t361346_CoD42c1c1cHALcmp.jpg (http://immagini.p2pforum.it/out.php/i361346_CoD42c1c1cHALcmp.jpg)
Ho voluto verificare se CoD4 si avvantaggia o meno della presenza di una CPU multi core, ripetendo il test CoD4_Arc con la CPU impostata alla frequenza di 3,4GHz e la HD3 850 con i clock a default.
Ebbene la risposta è: Sì, le prestazioni grafiche in CoD4 aumentano molto (61%) se il PC dispone di una CPU dual-core.
I risultato al centro dell'immagine è stato ottenuto impostando l'affinità di CoD4 sul Core 0, impedendogli in questo modo l'accesso al secondo core; questo non ha impedito però al Kernel di Windows (parte rossa del grafico di utilizzo della CPU) di sfruttare entrambi i core.
Sostituendo l'HAL Multiprocessore (Hardware Abstraction Layer) di WindowsXP con una versione Uniprocessore, il Kernel e tutte le applicazioni possono accedere ed utilizzare una sola CPU/core.
La parte destra dell'immagine mostra il risultato della prova effettuata con HAL Uniprocessore.


Credits: l'elaborazione dei dati e i grafici sono stati realizzati mediante "OpenOffice.Org Calc" (http://www.openoffice.org/); l'adattamento, conversione e il salvataggio delle immagini sono stati eseguiti mediante GIMP (http://www.gimp.org/).

Saluti.
Alessio
.

halnovemila
05-03-2009, 20:23
Mentre Raven, malconsigliato, si apprestava a sovrascrivere il BIOS della sua scheda, rischiando inutilmente di ritrovarsi con una HD3850 non più funzionante (quando avrebbe potuto benissimo e senza rischio alcuno, usare le funzioni di controllo velocità ventola disponibili in Ati Tray Tools), io completavo il 76esimo test 3DMark06 allo scopo di verificare sperimentalmente quanto asserito da mikepedo nel post #2608 (http://www.hwupgrade.it/forum/showpost.php?p=24316166&postcount=2608).

Configurazione hardware e modalità di esecuzione dei test sono le stesse di quelle descritte nel post #2363 (http://www.hwupgrade.it/forum/showpost.php?p=23925709&postcount=2363)

http://immagini.p2pforum.it/out.php/i370967_ConfrontoGT2NoAA.AA4.AA8.NoOC.OC.gif
http://immagini.p2pforum.it/out.php/i370968_ConfrontoHDR2NoAA.AA4.AA8.NoOC.OC.gif
Come si può notare l'attivazione dell'antialiasing ha abbattuto pesantemente le prestazioni della HD3850 fino ad annullarne del tutto la scalabilità in corrispondenza dell'AA 8x, e addirittura già con AA 4x nel test HDR2 dove nemmeno l'overclock GPU/RAM 750/1000 riesce a mantenere un po' di scalabilità.
Sembrerebbe quindi che, nel caso si voglia sfruttare l'AA, avere una CPU C2D da 2,4GHz piuttosto che da 3,4 non faccia alcuna differenza in termini di prestazioni grafiche.
Bisogna tenere a mente, però, che i test 3DMark potrebbero essere, dal punto di vista del carico sulla CPU, più "leggeri" di alcuni attuali giochi che, per funzionare a dovere, richiedono spesso il supporto di almeno un paio di core.

.........................................................................

Preso da una sana dose di curiosità e dall'entusiasmo di mikepedo nella sua rincorsa verso il massimo punteggio, ho voluto anch'io sperimentare e ricercare il limite di overcloccabilità della mia HD3 850 compatibile con l'esecuzione del test 3DMark06 senza artefatti evidenti.
http://immagini.p2pforum.it/out.php/t370970_3DM0611713C2D3.5GHzRAM292Cat.8.6HD3850837.1089.jpg (http://immagini.p2pforum.it/out.php/i370970_3DM0611713C2D3.5GHzRAM292Cat.8.6HD3850837.1089.jpg)
Scheda overcloccata a 837/1089
3DMark06 default settings
Total score: 11713
SM 2.0 score: 4982
SM3.0 score: 5366
CPU score: 3052

Da notare che:
1) Il livello di overclock raggiunto è solo un "esercizio" agonistico perchè, in tale configurazione, la scheda non è assolutamente affidabile sui lunghi periodi di attività.
2) Normalmente per alimentare la HD3850 uso il cavo PCI-E 6 poli che proviene direttamente dall'alimentatore.
In questa occasione, ho provato ad utilizzare anche l'adattatore Molex_x2->PCI-E_8poli, in dotazione alla scheda.
Contrariamente a quanto da altri sostenuto, l'uso dell'adattatore non mi ha concesso nessun aumento dei margini di overcloccabilità della scheda.

Saluti.
Alessio
.

Mauro B.
05-03-2009, 21:03
Grazie Hal

Mauro B.
21-03-2009, 19:39
vorrei capire quale hdd consigliereste per migliorare le prestazioni della hd3850 agp... come cpu penso che la migliore candidata sia il pentium 4 670.

halnovemila
21-03-2009, 21:51
Le prestazioni dell'hard disk non incidono direttamente su quelle della scheda grafica.

I fattori che incidono direttamente sono la risoluzione, l'attivazione dei filtri, il tipo di shader utilizzati, la complessità poligonale della scena, il numero e la dimensione delle texture, il numero di sorgenti luminose, l'attivazione di luci e ombre dinamiche e la qualità della resa.

Ovviamente se il sottosistema CPU/RAM/HDD, fornisce i dati alla scheda grafica, ad una velocità inferiore a quelle che essa sarebbe in grado di gestire, il risultato è che gli FPS sono minori del massimo possibile.

Ma delle tre componenti CPU, RAM e HDD, l'ultimo è senz'altro quello che incide meno, perchè il suo intervento è limitato alle fasi di caricamento delle scene (che solitamente avviene in un unico momento prima dell'inizio del gioco o del livello di gioco) e delle texture (che può avvenire anche durante il gioco, ma la quantità di dati è limitata e non richiede alte prestazioni di trasferimento o di accesso al disco).

In ogni caso, l'hard disk "migliore" è quello che ha i tempi di accesso minori, ovvero quello che impiega meno millisecondi per posizionare le testine e accedere ai dati memorizzati sul disco.
Solitamente i dischi con tempi di accesso minori sono quelli con velocità giri/minuto più alti (10000 15000, contro i normali 7200); che sono però anche quelli più rumorosi, più caldi, e più costosi.

Il tipo di interfaccia, IDE o SATA, non influisce sui tempi di accesso che dipendono esclusivamente da fattori meccanici/elettronici e di densità di memorizzazione dati sul disco.

La CPU più adatta a sfruttare appieno la HD3 850 dipende, ovviamente, dal tipo di applicazione 3D che si vuole usare, e dai fattori suddetti che incidono direttamente sulle prestazioni della scheda grafica.

Giochi come Supreme Commander, BF2, COD4, COD5, beneficiano ampiamente di CPU dual core (Supreme Commander, anche di CPU Quad Core).

I Core2 Duo Intel sono attualmente i migliori processori compatibili con schede madri con supporto AGP.
Un C2D alla frequenza di 3GHz è senz'altro in grado, con qualsiasi dei giochi 3D attualmente sul mercato, di fornire dati a sufficienza per saturare la capacità di elaborazione della HD3 850.
Ovviamente con l'aumento di risoluzione o l'attivazione di filtri AA e/o AF, la velocità con cui la HD3 850 è in grado di renderizzare la scena, diminuisce, e, pertanto, diminuisce anche la frequenza CPU "necessaria" per saturare di dati la HD3850.

Come si legge dai grafici risultanti dalle decine di test da me effettuati, se in assenza di filtri, la HD3850 viene "saturata" da una CPU C2D a 3GHz, con l'attivazione dell'AAx4 alla risoluzione di 1280x1024, la "saturazione" della scheda grafica si verifica con la CPU a soli 2,4GHz di clock.

Saluti.
Alessio
.

Mauro B.
21-03-2009, 22:11
Le prestazioni dell'hard disk non incidono direttamente su quelle della scheda grafica.

I fattori che incidono direttamente sono la risoluzione, l'attivazione dei filtri, il tipo di shader utilizzati, la complessità poligonale della scena, il numero e la dimensione delle texture, il numero di sorgenti luminose, l'attivazione di luci e ombre dinamiche e la qualità della resa.

Ovviamente se il sottosistema CPU/RAM/HDD, fornisce i dati alla scheda grafica, ad una velocità inferiore a quelle che essa sarebbe in grado di gestire, il risultato è che gli FPS sono minori del massimo possibile.

Ma delle tre componenti CPU, RAM e HDD, l'ultimo è senz'altro quello che incide meno, perchè il suo intervento è limitato alle fasi di caricamento delle scene (che solitamente avviene in un unico momento prima dell'inizio del gioco o del livello di gioco) e delle texture (che può avvenire anche durante il gioco, ma la quantità di dati è limitata e non richiede alte prestazioni di trasferimento o di accesso al disco).

In ogni caso, l'hard disk "migliore" è quello che ha i tempi di accesso minori, ovvero quello che impiega meno millisecondi per posizionare le testine e accedere ai dati memorizzati sul disco.
Solitamente i dischi con tempi di accesso minori sono quelli con velocità giri/minuto più alti (10000 15000, contro i normali 7200); che sono però anche quelli più rumorosi, più caldi, e più costosi.

Il tipo di interfaccia, IDE o SATA, non influisce sui tempi di accesso che dipendono esclusivamente da fattori meccanici/elettronici e di densità di memorizzazione dati sul disco.

La CPU più adatta a sfruttare appieno la HD3 850 dipende, ovviamente, dal tipo di applicazione 3D che si vuole usare, e dai fattori suddetti che incidono direttamente sulle prestazioni della scheda grafica.

Giochi come Supreme Commander, BF2, COD4, COD5, beneficiano ampiamente di CPU dual core (Supreme Commander, anche di CPU Quad Core).

I Core2 Duo Intel sono attualmente i migliori processori compatibili con schede madri con supporto AGP.
Un C2D alla frequenza di 3GHz è senz'altro in grado, con qualsiasi dei giochi 3D attualmente sul mercato, di fornire dati a sufficienza per saturare la capacità di elaborazione della HD3 850.
Ovviamente con l'aumento di risoluzione o l'attivazione di filtri AA e/o AF, la velocità con cui la HD3 850 è in grado di renderizzare la scena, diminuisce, e, pertanto, diminuisce anche la frequenza CPU "necessaria" per saturare di dati la HD3850.

Come si legge dai grafici risultanti dalle decine di test da me effettuati, se in assenza di filtri, la HD3850 viene "saturata" da una CPU C2D a 3GHz, con l'attivazione dell'AAx4 alla risoluzione di 1280x1024, la "saturazione" della scheda grafica si verifica con la CPU a soli 2,4GHz di clock.

Saluti.
Alessio
.

Sì Alessio diciamo che sei stato esauriente, ma secondo me tu non sei un essere umano bensì un computer avveneristico capace di creare nuove tecnologie e di autorigenerarsi :D.

Dalle tue dissertazioni ritengo di dover orientare la mia attenzione sul processore ed ho intenzione di procurarmi un Pentium 4 a 3,8GHZ capace di implementarsi massimizzando le funzioni della mia scheda video. Il solo processore che io possa attualmente impiegare nella mia scheda madre attuale limitata dal cd vrm che ritengo tu sappia perfettamente di cosa si tratti.

Grazie per l'esposizione delle tue conoscenze hal/Alessio.

halnovemila
21-03-2009, 23:18
Sì Alessio diciamo che sei stato esauriente, ma secondo me tu non sei un essere umano bensì un computer avveneristico capace di creare nuove tecnologie e di autorigenerarsi :D.

Eh ;)

Il solo processore che io possa attualmente impiegare nella mia scheda madre attuale limitata dal cd vrm

Hai la Jetway in firma? Ma non avevi acquistato anche una Asrock?

Grazie per l'esposizione delle tue conoscenze hal/Alessio.

Prego :)
Sai... fa piacere anche a me "esporre" agli altri le mie conoscenze...
tenerle tutte solo per me sarebbe uno spreco... ti pare? :asd:

Saluti.
Alessio

P.S. hai la casella dei messaggi privati piena.
Non posso inviarti la risposta al tuo PM

Mauro B.
25-03-2009, 22:39
volevo sapere se esistono del software che permettono di rilevare la versione del proprio vrm

djbooster
23-04-2009, 12:28
io ho questa mobo http://www.asrock.com/mb/overview.asp?Model=775I65G , e pentium D 3.40ghz,quindi fortunatamente non son cpu limited...

Sto per prendere una fantastica hd3850 agp 8X ma ho il problema che mi ritrovo con un alimentatore 450W pessimo con uscita +12v a 18A...


Che alimentatore nuovo mi consigliate(che possa reggere questa scheda video)?


Grazie e lunga vita all' Agp:stordita:

halnovemila
23-04-2009, 12:37
Provala con il tuo alimentatore... vedrai che sarà più che sufficiente.
(a meno che il tuo PC non sia dotato di 4 hard disk, neon, pompa per il raffreddamento a liquido, 7 o più ventole, etc... etc...)

Saluti.
Alessio

P.S. Sei CPU Limited

djbooster
23-04-2009, 13:03
Provala con il tuo alimentatore... vedrai che sarà più che sufficiente.
(a meno che il tuo PC non sia dotato di 4 hard disk, neon, pompa per il raffreddamento a liquido, 7 o più ventole, etc... etc...)

Saluti.
Alessio

P.S. Sei CPU Limited


Ok la proverò, comunque in una altro tread(http://www.hwupgrade.it/forum/showthread.php?p=27203795&posted=1#post27203795) mi hanno detto completamente il contrario(non sono cpu limited per questa scheda video di fascia medio bassa,il mio alimentatore è da rottamare):read: chi ascolto?:doh: help me! grazie mille dell'aiuto

P.s. la mia Cpu è dual core con clock a 3.40 di serie penso basti e avanzi a saturare una scheda video di fascia media considerando che gioco a risoluzioni basse(1024*768) per via del mio monitor lcd vecchiotto

halnovemila
23-04-2009, 13:50
Hai ragione ad essere confuso.
Del resto su certi argomenti troverai sempre chi dice una cosa e chi sostiene l'esatto contrario (un po' come per la politica).

Io, però, parlo per esperienza personale.
Li hai guardati i grafici postati all'inizio di questa discussione?
Li ho fatti io.
Sono il risultato di più di un centinaio di test con la HD3850 AGP e di oltre seicento dati raccolti e poi ordinati e rappresentati graficamente.

Io ho 39 anni e mi occupo di informatica da quando ne avevo 14.
Nel mio laboratorio ci sono 6 PC funzionanti, con tutti i sistemi operativi dal DOS a Windows Vista e Linux; con CPU dall'AthlonXP al Core 2 Duo 8500... in questo momento ho pure in iMac G3 di cui sto completando il ripristino.

Io usato senza problemi la HD3 850 AGP su di un PC con CPU Athlon 64 x2 4200+ e un alimentatore Nexus da 400W (dual rail) con 15A sui +12V.

Ho fatto misurazioni reali (vedi qui (http://www.hwupgrade.it/forum/showpost.php?p=21513231&postcount=516)) dell'assorbimento in potenza della HD3850 AGP e posso dire, a ragion veduta, che non supera i 110W (come del resto confermato da altri osservatori).

Ci sono testimonianze di altri possessori di HD3850 che l'hanno usata assieme ad alimentatori, non di marca blasonata, con 18A sui +12V.

480W di alimentatore non sono pochi, nemmeno per un PC su cui va installata la HD3850 AGP.
Poi, certo, bisogna considerare la qualità dell'alimentatore (Nexus E' di qualità), e come sono stati distribuiti i carichi (alcuni alimentari erogano buona parte della loro potenza totale soprattutto sulla linea a 3,3V o 5V che alimenta scheda madre e CPU).

In ogni caso, male che ti vada, se l'alimentatore non ce la dovessere fare te ne accorgeresti da blocchi del sistema o da riavvii nel bel mezzo delle scene 3D più intense; insomma ti basta usare Unigine (che "spreme" la scheda video) mentre tieni sotto sforzo la CPU con Orthos e vedi se dura almeno una mezz'ora.

Per quanto riguardo il fattore "CPU limited" bisogna capirsi sul significato di questa espressione.
Io intendo dire che, soprattutto in certi giochi che richiedono potenza di calcolo alla CPU (CoD4, SupremeCommander, BF2) il tempo di elaborazione è troppo lungo per permettere alla scheda grafica di generate il massimo dei fotogrammi al secondo che la complessità della scena, la risoluzione, i filtri e gli effetti di luci ed ombre dinamiche gli consentirebbero.

Io ti dico (prova sperimentale) che con CoD4 al massimo della qualità e risoluzione 1024x768, per "saturare" la HD3850 è necessaria una CPU Core2 Duo a 3GHz.
Quando farai il 3DMark06 e mi farai sapere il punteggio CPU ottenuto, di dirò con relativa precisione con che rapporto sta la tua CPU rispetto al C2D 3GHz.

Saluti.
Alessio
.

Mauro B.
23-04-2009, 14:24
io ho questa mobo http://www.asrock.com/mb/overview.asp?Model=775I65G , e pentium D 3.40ghz,quindi fortunatamente non son cpu limited...

Sto per prendere una fantastica hd3850 agp 8X ma ho il problema che mi ritrovo con un alimentatore 450W pessimo con uscita +12v a 18A...


Che alimentatore nuovo mi consigliate(che possa reggere questa scheda video)?


Grazie e lunga vita all' Agp:stordita:

Non vorrei errare ma 18A su canale unico +12v mi paiono insufficienti. se hai almeno altro canale +12v (Es. +12v1, +12v2 a 18A penso che invece siano sufficienti).


Mi è arrivato il processore a 3,8Ghz pentium 4... semi.massima scelta per la mia motherboard... tuttavia debbo ancora installarlo... :D

halnovemila
23-04-2009, 14:56
Mauro, alla HD3 850 AGP bastano 10A... se vogliamo esagerare 11A.

Ho rintracciato il post di un possessore della HD3 850 AGP che la faceva funzionare su di un PC con alimentatore (normale, a singolo rail), economico, da 30 Euro, con indicati 18A massimi sulla linea dei +12V.
Vedi a questa pagina (http://www.hwupgrade.it/forum/showthread.php?p=24052126#post24052126) il primo post di federico89.

Saluti.
Alessio

bobby10
23-04-2009, 15:07
Complimenti Hal per la tua competenza...
Anche io da una parte penso che quell'ali regga la 3850.. Spesso si acquistano alimentatori e schede video spendendo più di quanto vale tutto il muletto e senza che ce ne sia veramente bisogno..

Io per primo di esperimenti ne ho fatti e a volte esagerando pure.. per esempio una volta ho montato una 3650 ddr3 agp su un ali da 250w e 10A.. Blocco totale:fagiano: ma li il risultato era scontato ovviamente.
Almeno ci si fa un'idea generale dei limiti "reali"..poi ovviamente non tutti gli ali anche con stesse caratteristiche sono uguali..

bobby10
23-04-2009, 15:10
Mauro, alla HD3 850 AGP bastano 10A... se vogliamo esagerare 11A.

Ho rintracciato il post di un possessore della HD3 850 AGP che la faceva funzionare su di un PC con alimentatore (normale, a singolo rail), economico, da 30 Euro, con indicati 18A massimi sulla linea dei +12V.
Vedi a questa pagina (http://www.hwupgrade.it/forum/showthread.php?p=24052126#post24052126) il primo post di federico89.

Saluti.
Alessio

Appunto.. C'è un utente che addirittura tiene una 4850 su una ali non di marca con soli 22A sui +12 :eek: Su pc costosi però sinceramente non rischierei così..

Mauro B.
23-04-2009, 15:44
Mauro, alla HD3 850 AGP bastano 10A... se vogliamo esagerare 11A.

Ho rintracciato il post di un possessore della HD3 850 AGP che la faceva funzionare su di un PC con alimentatore (normale, a singolo rail), economico, da 30 Euro, con indicati 18A massimi sulla linea dei +12V.
Vedi a questa pagina (http://www.hwupgrade.it/forum/showthread.php?p=24052126#post24052126) il primo post di federico89.

Saluti.
Alessio

Ovvio, ma 18 ampere sulla linea +12v quanti dispositivi dovrebbero servire? Se solo la scheda video certamente sono oltre la sufficienza... ;), ma non so perchè io ne dubiti.


Installata la CPU Pentium 4 3,8Ghz funaiona perfettamente... i tecnici della mia scheda madre sostenevano l'incompabilità ahahahahahha a volte le cose studiarsele da soli premia :P

Adesso potrò beneficiare di ulteriore massimizzazione della mia scheda video AGP HD3850

ps: c'è un limite di cui sono caratterizzati molti esperti tecnici di questo forum, hanno la visione limitata all'oggetto preso nella sua singolarità e spesso sfugge la visione di insieme con cui esso opera. Stessa cosa accade ai primari: si soffermano sul singolo organo, ma sfugge loro la persona..., il profano invece tende a privilegiare la prospettiva complessa..., forse perchè gli errori commessi lo hanno reso sensibile ad ogni eventualità.

halnovemila
23-04-2009, 15:53
Complimenti Hal per la tua competenza...
Grazie :)


Anche io da una parte penso che quell'ali regga la 3850.. Spesso si acquistano alimentatori e schede video spendendo più di quanto vale tutto il muletto e senza che ce ne sia veramente bisogno..
Meno male che ci sei anche tu a dirlo ;)
Delle volte mi pare di essere un profeta nel deserto.
Purtroppo è dall'età 16 anni che mi sono accorto che intorno a me è tutta una gara a chi ce l'ha più grande (la macchina, l'impianto stereo, l'autoradio, l'hard disk, l'alimentatore... insomma, tutti surrogati di "quello" ;))
Ma, c'è da dire, che i produttori danno il loro bel contributo a gonfiare il già naturale "instinto umano" di avere sempre di più.

Io per primo di esperimenti ne ho fatti e a volte esagerando pure.. per esempio una volta ho montato una 3650 ddr3 agp su un ali da 250w e 10A.. Blocco totale:fagiano: ma li il risultato era scontato ovviamente.
Almeno ci si fa un'idea generale dei limiti "reali"..
Giusto, la teoria è una cosa... la pratica... ehm... a volte ;) è meglio.

poi ovviamente non tutti gli ali anche con stesse caratteristiche sono uguali..
Ovviamente :)

@Mauro
Vedrai che il tuo nuovo processore ti darà soddisfazione.
Magari quando l'hai montato fai qualche benchmark e posti qui i risultati... così ci dò un occhio anch'io :)

Saluti.
Alessio

Mauro B.
23-04-2009, 16:02
Grazie :)



Meno male che ci sei anche tu a dirlo ;)
Delle volte mi pare di essere un profeta nel deserto.
Purtroppo è dall'età 16 anni che mi sono accorto che intorno a me è tutta una gara a chi ce l'ha più grande (la macchina, l'impianto stereo, l'autoradio, l'hard disk, l'alimentatore... insomma, tutti surrogati di "quello" ;))
Ma, c'è da dire, che i produttori danno il loro bel contributo a gonfiare il già naturale "instinto umano" di avere sempre di più.


Giusto, la teoria è una cosa... la pratica... ehm... a volte ;) è meglio.


Ovviamente :)

@Mauro
Vedrai che il tuo nuovo processore ti darà soddisfazione.
Magari quando l'hai montato fai qualche benchmark e posti qui i risultati... così ci dò un occhio anch'io :)

Saluti.
Alessio

Eh,eheh sei curioso!? :D verificherò certo, ho eseguito dei benchmark con il P4 3.0 e sono nel thread di competenza della HD3850... però il programma in questione penso sia forviante perchè sospetto che i criteri di verifica applicati siano disomogenei rispetto al programma 3dmark: ho usato l'utilità Crystal mark :(


EDIT: La temperatura mi sempbra leggermente elevata dai 54 ai 57 gradi... forse rimetto il precedente dissipatore che mi pare + grande rispetto a quello presente nella confezione...

ps: tu da 16 anni, io prima dell'estate scorsa non sapevo distinguere il case dall'HDD :D, sicuramente sono ancora principiante, però mi diletto

halnovemila
23-04-2009, 16:32
Ovvio, ma 18 ampere sulla linea +12v quanti dispositivi dovrebbero servire? Se solo la scheda video certamente sono oltre la sufficienza... ;), ma non so perchè io ne dubiti.
I 12V alimentano parzialmente hard disk e drive ottici e contribuiscono pure all'alimentazione della scheda madre, RAM e CPU.
Ma c'è da dire che buona parte della potenza necessaria per alimentare RAM e CPU viene dalla linea a 3,3V e che anche la linea a 5V da il suo buon contributo.
Gli HD arrivano ad un assorbimento massimo di 1,5A sui +12V ma molto spesso stanno sotto i 1000mA.
Poi, se uno "carrozza" il Pc con batterie di HD e drive ottici, pompa per il raffreddamento a liquido, ventole e ventoline, neon, pannellini frontali, HUB USB interni... insomma... i 18A fanno presto a diventare pochini ;)

Installata la CPU Pentium 4 3,8Ghz funaiona perfettamente... i tecnici della mia scheda madre sostenevano l'incompabilità ahahahahahha a volte le cose studiarsele da soli premia :P
Mauro, i produttori non hanno voglia di "rogne" e ti dicono che si può fare solo ed esclusivamente ciò che loro stessi hanno già testato e/o che corrisponde perfettamente alle specifiche "ufficiali".
Il chè significa che tutta una serie di "abbinamenti" pur possibili, non verrà mai ufficialmente dichiarata fattibile da parte del/i produttore/i...
così se non ti funziona qualcosa loro si possono chiamare fuori.
E' anche per questo che la Sapphire, nel dichiarare i requisiti minimi per il funzionamento della HD3 850 AGP, ha indicato un amperaggio di 30A sui +12V.
In questo modo hanno messo le mani avanti rispetto a tutti i casi in cui il malfunzionamento dello scheda potrebbe dipendere dall'alimentatore.
Loro sanno che bastano 10A... ma ne chiedono 30;
diciamo che si sono presi un "buon margine" di sicurezza. ;)

Adesso potrò beneficiare di ulteriore massimizzazione della mia scheda video AGP HD3850

ps: c'è un limite di cui sono caratterizzati molti esperti tecnici di questo forum, hanno la visione limitata all'oggetto preso nella sua singolarità e spesso sfugge la visione di insieme con cui esso opera. Stessa cosa accade ai primari: si soffermano sul singolo organo, ma sfugge loro la persona..., il profano invece tende a privilegiare la prospettiva complessa..., forse perchè gli errori commessi lo hanno reso sensibile ad ogni eventualità.
L'incapacità di vedere le cose nel loro insieme non è solo di molti "esperti" tecnici di questo forum... è un po' d'ovunque.
Del resto per avere una visione del dettaglio e contemporanemente dell'insieme bisogna avere tante, tantissime competenze e non è una cosa da tutti.
Io, per esempio, ho una buona, ma non specialistica, conoscenza di programmazione, sistemistica, unita ad esperienza nell'uso di applicativi di grafica, video, gestione database... e poi anni di esperienza sull'HW, componenti di PC, ma anche stampanti di tutti i tipi, plotter e copiatrici;
succede così che laddove lo specialista HW rimbalza la causa di un problema sul SW, e lo specialista SW chiama in causa l'HW... e il cliente rimane con il suo problema... io riesco (a volte) ad avere quella visione di insieme che mi permette di identificare la causa del problema e di rimuoverla.
Ma laddove la soluzione richiede conoscenze troppo specialistiche io non arrivo... bisogna chiamare l'esperto... quello "vero" :)

Saluti.
Alessio

Mauro B.
23-04-2009, 17:20
:\ ho la temperatura del processore che è minimo a 49°C e quando ad esempio ho attivato internet explorer è scattata a 57°C è normale o debbo preoccuparmi... so di essere OT cmq voglio prevenire problemi con l'utilizzo di giochi con la HD£(%= perchè immagino che in questo caso la temperatura aumenterà ulteriormente.


Come posso controllare la temperatura della cpu in fase di gioco?

bobby10
23-04-2009, 18:21
:\ ho la temperatura del processore che è minimo a 49°C e quando ad esempio ho attivato internet explorer è scattata a 57°C è normale o debbo preoccuparmi... so di essere OT cmq voglio prevenire problemi con l'utilizzo di giochi con la HD£(%= perchè immagino che in questo caso la temperatura aumenterà ulteriormente.


Come posso controllare la temperatura della cpu in fase di gioco?

Eheh i Prescott sono famosi per le alte temperature..se il tuo va 3.8mhz direi che le tue sono ottime!
Se vuoi controllare la temperatura apri il programma che monitorizza (io uso Everest),fai partire il gioco e dopo qualche minuto di gioco premi contemporaneamente alt+tab.. Tornerai alla schermata del desktop e puoi controllare la temperatura

Mauro B.
23-04-2009, 18:29
Eheh i Prescott sono famosi per le alte temperature..se il tuo va 3.8mhz direi che le tue sono ottime!
Se vuoi controllare la temperatura apri il programma che monitorizza (io uso Everest),fai partire il gioco e dopo qualche minuto di gioco premi contemporaneamente alt+tab.. Tornerai alla schermata del desktop e puoi controllare la temperatura

con gears of war la temperatura è arrivata a 70 gradi.... ho utilizzato speedfan Se accedo ad una pagina di IE la temperatura s'impenna a 59 per poi precipitare a 50... c'è molta instabilità...

il precedente dissipatore mi ha ridotto di un paio di gradi la temperatura, forse ho sbagliato qualche operazione nel montaggio di quello fornito assieme alla cpu... bhò! :(

Stranamente con l'attuale la ventola di base è a 2163 rpm ed il calore è inferiore, con il proprio dissipatore la ventola è a 2909 rpm ma la temperatura è maggiore... però la dimensione è inferiore a quello in uso abbinato al procesore a 3Ghz

bobby10
23-04-2009, 18:54
con gears of war la temperatura è arrivata a 70 gradi.... ho utilizzato speedfan Se accedo ad una pagina di IE la temperatura s'impenna a 59 per poi precipitare a 50... c'è molta instabilità...

il precedente dissipatore mi ha ridotto di un paio di gradi la temperatura, forse ho sbagliato qualche operazione nel montaggio di quello fornito assieme alla cpu... bhò! :(

Stranamente con l'attuale la ventola di base è a 2163 rpm ed il calore è inferiore, con il proprio dissipatore la ventola è a 2909 rpm ma la temperatura è maggiore... però la dimensione è inferiore a quello in uso abbinato al procesore a 3Ghz

Ripeto sono temperature normalissime per quel tipo di pc.. La mia raga ha un prescott 3.0 e non ti dico d'estate come arde!

Mauro B.
23-04-2009, 19:08
Ripeto sono temperature normalissime per quel tipo di pc.. La mia raga ha un prescott 3.0 e non ti dico d'estate come arde!

Ok mi hai tranquillizzato :D Grazie..., e sì l'estate fa brutti scherzi, in quel periodo ho intenzione di trasferirmi in australia ;) col mio PC (la mia ragazza :D).

Six1
27-05-2009, 11:27
Ciao....;)

Anche io sulla Mobo che già ben conosci ho montato (almeno per ora più avanti monterò sulla Super Mobo in questione un Quad 6700 e una GTS250 MSI con Ram 800 della Corsair) un Pentium 4 ht (ottima bestiolina ancora secondo me) abbinato a una 7900 GS AGP, e 4G di Ram DDR-400, le temperature sono queste:
(Premetto che ho usato un ottima Pasta termica, il dissipatore è quello originale di Intel):
In idle 38-40-45° Max
Lavori basici Office, Internet ecc. ecc. 50-51°
Al top con i giochi (Crysis, Gears of War ecc. ecc.) 60° max 63°

Comunque ho anche il case ben areato:
Ventola anteriore immissione, laterale immissione/espulsione, posteriore espulsione e bassa espulsione per hardware sui Slot PCI.
Utilizzo il Quiet Fan attivabile da Bios di Asrock e il rumore delle ventole è in generale accettabile.
Spero di esserti stato di aiuto. ;)
Saluti. ;)

Mauro B.
27-05-2009, 11:50
Ciao....;)

Anche io sulla Mobo che già ben conosci ho montato (almeno per ora più avanti monterò sulla Super Mobo in questione un Quad 6700 e una GTS250 MSI con Ram 800 della Corsair) un Pentium 4 ht (ottima bestiolina ancora secondo me) abbinato a una 7900 GS AGP, e 4G di Ram DDR-400, le temperature sono queste:
(Premetto che ho usato un ottima Pasta termica, il dissipatore è quello originale di Intel):
In idle 38-40-45° Max
Lavori basici Office, Internet ecc. ecc. 50-51°
Al top con i giochi (Crysis, Gears of War ecc. ecc.) 60° max 63°

Comunque ho anche il case ben areato:
Ventola anteriore immissione, laterale immissione/espulsione, posteriore espulsione e bassa espulsione per hardware sui Slot PCI.
Utilizzo il Quiet Fan attivabile da Bios di Asrock e il rumore delle ventole è in generale accettabile.
Spero di esserti stato di aiuto. ;)
Saluti. ;)

Salve a te, questo thread è stato creato appositamente per disquisire dell'interazione tra HD3850 AGP e componentistica HW abbinata o abbinabile.

Dai rileivi grafici esposti da hal9000 si desumono gli apporti che le differenti CPU attribuiscono alla HD3850 AGP.

Da quanto potuto comprendere tuttavia è da considerare che maggiore sarà il coinvolgimento della GPU minore risulterà l'incidenza della CPU, pertanto sarebbe corretto verificare quali limiti potenziali determinino il vantaggio di massimizzare le qualità grafiche imputando alla scheda video la mole dell'attività grafica.

interessanti sono i settaggi presenti nel CCC dai quali si determinano condizionamenti sul coinvolgimento delle risorse che elaborano e trasmettono i dati, che non possono essere omesse o ignorate.

Conoscere il proprio hardware e le qualità dei singoli componenti permette di armonizzare l'interazione tra i componenti in modo da conseguire risultati di eccellenza.

La verifica della ottimale parametrizzazione di questi abbinamenti è svolta dallo SMARTGART, visionando il quale è possibile constatare quali sia lo scenario di relazione tra GPU, GDDR, RAM e CPU. Queti parametri dipendono dal settaggio BIOS e dalle potenzialità espresse dalla scheda madre, dalla disponibilità di un BIOS aggiornato.

Es. SMARTGART:

http://i44.tinypic.com/16jpi7a.jpg

In merito alle temperature della mia CPU, tramite il dissipatore in firma sono riuscito ad abbassare la gradazione di una 20ina di punti, per l'esattezza di 17 gradi in IDLE e 22 gradi in FULL.
ritengo che anche questo elemento influisca sulle prestazioni generali del sistema, che a temperature elevate tende a diminuire l'attività della CPU per consentire abbassamenti di temperature onde prevenire l'alea intrinseva al surriscaldamento.

Elemento acquisito scartabellando link informatici è che windows xp home Edition riconosce un solo core fisico e 2 core logici... pertanto anche il so determina possibilità e limitazioni.


CPU: Pentium 4 670 HT ES. dispongo di un pezzo da collezione casualmente procuratomi da Hong kong. :D

Six1
27-05-2009, 12:06
Salve a te, questo thread è stato creato appositamente per disquisire dell'interazione tra HD3850 AGP e componentistica HW abbinata o abbinabile.

Dai rileivi grafici esposti da hal9000 si desumono gli apporti che le differenti CPU attribuiscono alla HD3850 AGP.

Da quanto potuto comprendere tuttavia è da considerare che maggiore sarà il coinvolgimento della GPU minore risulterà l'incidenza della CPU, pertanto sarebbe corretto verificare quali limiti potenziali determinino il vantaggio di massimizzare le qualità grafiche imputando alla scheda video la mole dell'attività grafica.

interessanti sono i settaggi presenti nel CCC dai quali si determinano condizionamenti sul coinvolgimento delle risorse che elaborano e trasmettono i dati, che non possono essere omesse o ignorate.

Conoscere il proprio hardware e le qualità dei singoli componenti permette di armonizzare l'interazione tra i componenti in modo da conseguire risultati di eccellenza.

La verifica della ottimale parametrizzazione di questi abbinamenti è svolta dallo SMARTGART, visionando il quale è possibile constatare quali sia lo scenario di relazione tra GPU, GDDR, RAM e CPU. Queti parametri dipendono dal settaggio BIOS e dalle potenzialità espresse dalla scheda madre, dalla disponibilità di un BIOS aggiornato.

Es. SMARTGART:

http://i44.tinypic.com/16jpi7a.jpg

In merito alle temperature della mia CPU, tramite il dissipatore in firma sono riuscito ad abbassare la gradazione di una 20ina di punti, per l'esattezza di 17 gradi in IDLE e 22 gradi in FULL.
ritengo che anche questo elemento influisca sulle prestazioni generali del sistema, che a temperature elevate tende a diminuire l'attività della CPU per consentire abbassamenti di temperature onde prevenire l'alea intrinseva al surriscaldamento.

Elemento acquisito scartabellando link informatici è che windows xp home Edition riconosce un solo core fisico e 2 core logici... pertanto anche il so determina possibilità e limitazioni.


CPU: Pentium 4 670 HT ES. dispongo di un pezzo da collezione casualmente procuratomi da Hong kong. :D

Esiste solo un punto ben preciso dove la CPU inizia ad abbassare le sue prestazioni, arrivato a una certa temperatura se non ricordo male 70° per i Prescott della serie 6xx attivando il thermal throttling ( abbassa la frequenza della CPU ) poi ve ne sono di due tipi ecc. ecc.
Comunque questo è un sistema di autodifesa alle alte temperature che la CPU è in grado autonomamente di attivare, secondo me fino a quel punto la CPU lavora sempre al massimo delle sue potenzialità....

Mauro B.
27-05-2009, 12:14
Esiste solo un punto ben preciso dove la CPU inizia ad abbassare le sue prestazioni, arrivato a una certa temperatura se non ricordo male 70° per i Prescott della serie 6xx attivando il thermal throttling ( abbassa la frequenza della CPU ) poi ve ne sono di due tipi ecc. ecc.
Comunque questo è un sistema di autodifesa alle alte temperature che la CPU è in grado autonomamente di attivare, secondo me fino a quel punto la CPU lavora sempre al massimo delle sue potenzialità....

Sì impostazioni BIOS consentono di stabilire i correttivi da apportare all'attività della CPU, tuttavia se osservi la sezione diriferimento noterai come i parametri siano abbastanza limitativi...
nella pagina del mio BIOS la temperatura stabilita per applicare il Thermal Throttling è di 40°... mentre la mia CPU dovrebbe sopportare valori massimi di temperatura di 72° convenzionali.
Thermal Throttling pertanto disabilitato..., non so in qual post si sosteneva che i pentium 4 fossero dotato internamente di un blocco per prevenire cmq il danneggiamento del processore. Debbo ritrovare il post.

Six1
27-05-2009, 12:22
Sì impostazioni BIOS consentono di stabilire i correttivi da apportare all'attività della CPU, tuttavia se osservi la sezione diriferimento noterai come i parametri siano abbastanza limitativi...
nella pagina del mio BIOS la temperatura stabilita per applicare il Thermal Throttling è di 40°... mentre la mia CPU dovrebbe sopportare valori massimi di temperatura di 72° convenzionali.
Thermal Throttling pertanto disabilitato..., non so in qual post si sosteneva che i pentium 4 fossero dotato internamente di un blocco per prevenire cmq il danneggiamento del processore. Debbo ritrovare il post.

40° e si attiva il T.T.C. non credo, penso che tu ti stia sbagliando non avrebbe senso tagliare le gambe a una CPU già a una temperatura così bassa.....
Questo si attiva dalla soglia considerata di maggior stress circa quindi 70° a salire....a 85° il max dovrebbe poi disattivarsi direttamente la Cpu spegnendo di conseguenza l' intero sistema....questo preserva dalla rottura mentre il T.T.C. evita di arrivare al punto di rottura....

Mauro B.
27-05-2009, 12:28
http://i43.tinypic.com/307ufx1.jpg

Questi sono i dettagli di speedfan, la temperatura ultima indica 40°, stesso valore espresso nel mio bios... forse è possibile modificarlo... debbo verificare.

Cmq qui sono ot la sezione corretta in cui parlare di temperature CPU è qui:

http://www.hwupgrade.it/forum/showthread.php?t=1502771 :cool:

EDIT: mi son sbagliato, nella sezione Thermal throttling la temperatura era a 70° disattivato. ho provveduto ad attivarlo reimpostando la temperatura a 72°. :D

Six1
27-05-2009, 12:32
Ok. Scusa.
Saluti. ;)

Mauro B.
27-05-2009, 12:38
Ok. Scusa.
Saluti. ;)

adesso sono nel sito che ti ho indicato chiedendo del thermal throttling :D, per sapere se conviene o meno attivarlo...

è sempre una soddisfazione conversare di questi argomenti.

halnovemila
27-05-2009, 13:16
Da quanto potuto comprendere tuttavia è da considerare che maggiore sarà il coinvolgimento della GPU minore risulterà l'incidenza della CPU

Mauro, credo tu stia prendendo un abbaglio.
Non c'è "travaso" di "compiti" tra CPU e GPU.
Ognuna ha i suoi compiti e se una delle due è più lenta dell'altra nel portare a termine la propria parte relativa al fotogramma da visualizzare, non c'è modo per far sì che quella delle due che finisce prima possa "aiutare" l'altra.

La tecnologia dell'accelerazione è sempre consistita nel creare le condizioni che taluni compiti possano essere svolti da "processori" dedicati anzichè dalla CPU.
Per cui si sono sviluppati gli acceleratori grafici, quelli audio, ma anche quelli dedicati alla codifica e decodifica degli stream audio e video (MPEG o MJPEG), e recentemente si sono aggiunte le schede di accelerazione per il calcolo della fisica degli oggetti.

Poi è successo che i produttori di schede video hanno realizzato GPU in grado di accelerare anche la decodifica di flussi audio video, e non c'è da stupirsi se verranno prodotte GPU/driver in grado di accelerare anche l'audio, il calcolo della geometria, la fisica.

Ma tutto ciò è completamente TRASPARENTE all'utente e non c'è modo di poter trasferire un'attività, ovvero attivare un'accelerazione, dalla CPU alla GPU se quest'ultima, e i suoi driver (e le API di sistema, e l'applicazione) non è stata progettata allo scopo.

Spero di essermi spiegato chiaramente.

Saluti.
Alessio
.

Mauro B.
27-05-2009, 14:00
Mauro, credo tu stia prendendo un abbaglio.
Non c'è "travaso" di "compiti" tra CPU e GPU.
Ognuna ha i suoi compiti e se una delle due è più lenta dell'altra nel portare a termine la propria parte relativa al fotogramma da visualizzare, non c'è modo per far sì che quella delle due che finisce prima possa "aiutare" l'altra.

La tecnologia dell'accelerazione è sempre consistita nel creare le condizioni che taluni compiti possano essere svolti da "processori" dedicati anzichè dalla CPU.
Per cui si sono sviluppati gli acceleratori grafici, quelli audio, ma anche quelli dedicati alla codifica e decodifica degli stream audio e video (MPEG o MJPEG), e recentemente si sono aggiunte le schede di accelerazione per il calcolo della fisica degli oggetti.

Poi è successo che i produttori di schede video hanno realizzato GPU in grado di accelerare anche la decodifica di flussi audio video, e non c'è da stupirsi se verranno prodotte GPU/driver in grado di accelerare anche l'audio, il calcolo della geometria, la fisica.

Ma tutto ciò è completamente TRASPARENTE all'utente e non c'è modo di poter trasferire un'attività, ovvero attivare un'accelerazione, dalla CPU alla GPU se quest'ultima, e i suoi driver (e le API di sistema, e l'applicazione) non è stata progettata allo scopo.

Spero di essermi spiegato chiaramente.

Saluti.
Alessio
.

mi riferivo all'argomentazione che tu ed altri avete avanzato sostenendo che in un gioco se la CPU è limited si possono innalzare le impostazioni grafiche... forse in merito avrò frainteso, oppure vi siete spiegati male voi :D;
inoltre se il contenuto generico trattato risultasse confutabile, dovrei rilevare che le impostazioni SMARTGART sarebbero inutili..., invece al contrario il settaggio appropriato delle medesime permettono di distribuire il carico delle informazioni da elaborare, in modo da permettere un maggiore intervento o un minore intervento della CPU, e questo è altro elemento che devi tener presente... Non ho mai detto che si può escludere l'attività della gPU o della CPU, ma che queste attività possono essere bilanciate secondo differenti impostazioni: Vedasi BIOS, vedasi SMARTGART.

Spero di essere stato chiaro in merito.

halnovemila
27-05-2009, 16:31
mi riferivo all'argomentazione che tu ed altri avete avanzato sostenendo che in un gioco se la CPU è limited si possono innalzare le impostazioni grafiche... forse in merito avrò frainteso, oppure vi siete spiegati male voi :D;

Sì, sono possibili entrambe le ipotesi ;)
Ma il concetto è che si possono innalzare le impostazioni grafiche perchè, tanto, se si è CPU limited, gli FPS non scenderanno con l'aumento del carico di lavoro sulla GPU dovuto, ad esempio, all'innalzamento della risoluzione, o della qualità delle ombre, o delle luci dinamiche, o dell'antialiasing.
... o quantomeno...
non scenderanno fino al momento in cui la GPU, non sarà talmente "carica" di lavoro da rallentarsi fino al livello della CPU... da lì in poi si diventa "GPU limited" e gli FPS tornano a scendere.

inoltre se il contenuto generico trattato risultasse confutabile, dovrei rilevare che le impostazioni SMARTGART sarebbero inutili..., invece al contrario il settaggio appropriato delle medesime permettono di distribuire il carico delle informazioni da elaborare, in modo da permettere un maggiore intervento o un minore intervento della CPU

No, no Mauro, niente affatto.
Le impostazioni dello SMARTGART, influiscono sull'"efficienza" del canale di trasmissione dei dati tra scheda video AGP e Chipset/memorie/CPU.
Ciò significa semplicemente che un'impostazione non ottimale può pregiudicare le prestazioni grafiche del sistema (così, come delle RAM eccessivamente lente) ma non significa affatto che il carico di elaborazione viene "distribuito" in modo diverso tra CPU e GPU.
La CPU interviene per fare quello che deve fare, e la GPU lo stesso.
Poi lo possono fare più o meno velocemente a seconda delle condizioni in cui si trovano (in particolare all'efficienza dei canali di comunicazione) ma non c'è affatto nessun "trasferimento" di compiti o "bilanciamento" di carichi di elaborazione dall'una all'altra, in nessun caso.

Ci siamo capiti? ;)
Ciao :)
.

Mauro B.
27-05-2009, 16:41
Sì, sono possibili entrambe le ipotesi ;)
Ma il concetto è che si possono innalzare le impostazioni grafiche perchè, tanto, se si è CPU limited, gli FPS non scenderanno con l'aumento del carico di lavoro sulla GPU dovuto, ad esempio, all'innalzamento della risoluzione, o della qualità delle ombre, o delle luci dinamiche, o dell'antialiasing.
... o quantomeno...
non scenderanno fino al momento in cui la GPU, non sarà talmente "carica" di lavoro da rallentarsi fino al livello della CPU... da lì in poi si diventa "GPU limited" e gli FPS tornano a scendere.



No, no Mauro, niente affatto.
Le impostazioni dello SMARTGART, influiscono sull'"efficienza" del canale di trasmissione dei dati tra scheda video AGP e Chipset/memorie/CPU.
Ciò significa semplicemente che un'impostazione non ottimale può pregiudicare le prestazioni grafiche del sistema (così, come delle RAM eccessivamente lente) ma non significa affatto che il carico di elaborazione viene "distribuito" in modo diverso tra CPU e GPU.
La CPU interviene per fare quello che deve fare, e la GPU lo stesso.
Poi lo possono fare più o meno velocemente a seconda delle condizioni in cui si trovano (in particolare all'efficienza dei canali di comunicazione) ma non c'è affatto nessun "trasferimento" di compiti o "bilanciamento" di carichi di elaborazione dall'una all'altra, in nessun caso.

Ci siamo capiti? ;)
Ciao :)
.

Sì, ritengo che i rilievi esposti siano sufficientemente intelligibili.

Mauro B.
04-08-2009, 14:46
volevo sapere se è possibile e conveniente abbinare a due dimm ram 1024 negli altri 2 slot disponbili, due dimm dello stesso tipo 512 MB. entrambe le coppie sono in dual channel e dello stesso tipo, ovviamente distribuite corettamente negli sloto di apparteneza per fruire del dual channel.

Lots of questions here. I'll try to be thorough.



1. My BIOS warns me, that using 2.0V for memory settings, may harm my hardware. Is it just a precaution, or should I do it? It will warn you anytime it is set above a setting it believes is beyond it's programmed limit. However, it is more than capable of handling memory above 2.0 V. I have seen templates for this board with memory around 2.165 V and stable. It looks like you have the P07 BIOS. Is that the most recent BIOS rev?! If it isn't, you may want to go to EVGA and get the update. The board you have is a very seasoned platform and has been well documented. You should go to EVGA's 790i Forum and look at the BIOS templates there. Those templates will help you dial in your board.



2. Could BSODs have been caused by running my RAM at 1.8V, and 9-9-9-24, 1T (slightly incorrect) memory settings? Absolutely. When the electronic components don't get enough V, they tend to fail. They fail to read/write, they fail to refresh, they just can't perform properly. Anytime data isn't transferred properly, the system recognizes the error and tries to correct. Sometimes, the system can't correct the error and shuts the system down to protect the hardware, BSOD. As for the timing settings, if not set properly, they too can cause issues. Generally speaking, increasing the V slightly allows you to adjust your timings down slightly. But not in every case. Once again, use the templates that others have already tried and documented in the EVGA forums. Why waste your time and chance hardware failure or damage?! Use their experiences to find answers to your questions. If anything, PM Micah, he is a Moderator there and can point you to some good info. I have used his advice many times.





3. Could I have damaged my RAM by running at 1.5V, 1T/2T and other incorrect memory settings? Though undervolting your memory may not damage your memory, the damage caused by the memory not working properly could be very bad to your system.





4. So, when I raise the clock multiplier, am I supposed to be changing the CPU voltage at the same time? You do not have to change CPU voltages for increases in memory clocks. You should only be adjusting vDIMM or memory voltage. I find that as I raise the vDIMM, I also need to raise the FSB (MCP) voltage slightly.





5. Do Memory timings and CPU timings, combined with permutations of chip and RAM voltages, cause incompatibilities? Absolutely. In most instances, as the timings (latency) are decreased the voltage needs to be increased to stabilize the data transfer flow. If you don't have enough voltage, the system fails to read/write the data before the cycle time is up. Everything is based on cycles. The system has a set number of cycles for every process. When you increase the clock, or decrease the timings, you adjust the cycle requirements. Voltage is the parameter that must be adjusted in tandem with the clocks. Faster cycles = higher Voltage.





Hopefully, I was able to answer your questions or at least point you to the right place to get your solutions. Let us know if you have any more questions.

Dati aggiunti come memoria.

Mauro B.
13-09-2009, 17:13
ho letto in qualche post, che da un confronto tra 2 schede video agp radeon 128 bit e 256 bit adi bus che le differenza in termini prestazionali non
risulterebbero rilevanti... le schede video testate sono antecedenti la hd3850, volevo capire se i nuovi driver permettono di massimizzare questa innovazione oppure se esiste un software o qualche metodo per falro.


vorrei capire se c'è il modo di massimizzarne l'utilizzo, o se ciò già avvenga tramite driver o bios della scheda video....

vorrei sapere se il bios della scheda video è configurabile, e nel caso affermativo come accedervi.

inoltre vorrei comprendere se due dimm da 2 GB in dual channel sono utili per la gestione texture dei giochi evitando in tal modo latenze, sebbene adotti un sO 32 bit cmq fruirei di 1,2 GB circa.
grazie