Force.i7
04-12-2014, 18:39
Ciao a tutti, ripropongo qui un quesito sui i consumi delle schede grafiche overclokkate di fabbrica, sperando di essere nella sezione giusta...:rolleyes: ...perchè
nell'altra sezione (discussioni generali) il moderatore mi ha letteralmente"chiuso in faccia" la discussione (cosa peraltro assai antipatica :nono:) senza
però indicarmi la sezione corretta......... ma veniamo al quesito:
Siccome ho notato che i vari produttori spesso hanno la tendenza ad overclockare le VGA per aumentarne le prestazioni, vorrei
capire quanto aumentano i consumi di una VGA overclockata rispetto a quella standard?...... ad esempio le frequenze di base della GTX-750
sono 1020mhz e 1085mhz con boost, mentre se prendiamo una GTX-750 Gigabyte (mod. GV-N750OC 2GB) le frequenze sono rispettivamente
1059mhz e 1137mhz con boost!.... perciò se per quella standard (liscia) viene dato un TDP di 55W, quanto sarà il TDP della Gigabyte overclockata???
Altra cosa: quanto influisce invece la quantità di Vram sui consumi di una VGA?
Grazie x ogni chiarimento.
nell'altra sezione (discussioni generali) il moderatore mi ha letteralmente"chiuso in faccia" la discussione (cosa peraltro assai antipatica :nono:) senza
però indicarmi la sezione corretta......... ma veniamo al quesito:
Siccome ho notato che i vari produttori spesso hanno la tendenza ad overclockare le VGA per aumentarne le prestazioni, vorrei
capire quanto aumentano i consumi di una VGA overclockata rispetto a quella standard?...... ad esempio le frequenze di base della GTX-750
sono 1020mhz e 1085mhz con boost, mentre se prendiamo una GTX-750 Gigabyte (mod. GV-N750OC 2GB) le frequenze sono rispettivamente
1059mhz e 1137mhz con boost!.... perciò se per quella standard (liscia) viene dato un TDP di 55W, quanto sarà il TDP della Gigabyte overclockata???
Altra cosa: quanto influisce invece la quantità di Vram sui consumi di una VGA?
Grazie x ogni chiarimento.