View Full Version : [THREAD UFFICIALE - GF110] Geforce GTX580/570
vincenzomary
30-04-2012, 11:09
Vincenzo giochi senza vsync?
imposto nella schermata della scheda nvidia "forza attivata? grazie.
illidan2000
30-04-2012, 11:19
ho installato msi afterburner, mi spieghi cosa devo impostare, senza bruciare la scheda :D. grazie.
purtroppo ora non sono al mio pc principale... cmq c'è uno slider per la frequenza.
forse qualcun altro ti può rispondere meglio di me con il programma davanti!
¥º·RG·º¥
30-04-2012, 11:28
ho installato msi afterburner, mi spieghi cosa devo impostare, senza bruciare la scheda :D. grazie.
Cosa devi fare precisamente?
vincenzomary
30-04-2012, 16:01
Cosa devi fare precisamente?
il problema sono le temeperature che raggiungono, ad esempio con the witcher, quasi 75-80 gradi. mi hanno consigliato qualche post prima, di smanettare con i voltaggi, ventola ecc... non li ho mai toccati, o se l'ho fatto una volta, li ho riportati a default. grazie.
¥º·RG·º¥
30-04-2012, 16:55
il problema sono le temeperature che raggiungono, ad esempio con the witcher, quasi 75-80 gradi. mi hanno consigliato qualche post prima, di smanettare con i voltaggi, ventola ecc... non li ho mai toccati, o se l'ho fatto una volta, li ho riportati a default. grazie.
Dai un occhiata QUI (http://www.xtremeshack.com/immagine/i153463_immagine.jpg)
Il voltaggio si muove "a gradini" nel senso che, a partire da 1mV puo essere impostato solo su questi step:
1,1013,1025,1038,1050,1063,1075,1088,1100
La ventola invece puo essere impostata ad una % di rotazione fissa, oppure in maniera dinamica come indicato in figura. All'aumentare della temperatura corrisponde una % di rotazione della ventola. Scegli tu quello che fa per te ;)
vincenzomary
30-04-2012, 16:59
Dai un occhiata QUI (http://www.xtremeshack.com/immagine/i153463_immagine.jpg)
Il voltaggio si muove "a gradini" nel senso che, a partire da 1mV puo essere impostato solo su questi step:
1,1013,1025,1038,1050,1063,1075,1088,1100
La ventola invece puo essere impostata ad una % di rotazione fissa, oppure in maniera dinamica come indicato in figura. All'aumentare della temperatura corrisponde una % di rotazione della ventola. Scegli tu quello che fa per te ;)
la ventola è in modalità dinamica, ma con il voltaggio, cosa migliorerei? ho installato nvidia inspector, per gestire le opzioni della scheda grafica. nelle opzioni dei giochi adesso devo disabilitare tutti gli effetti? sembra che le temperature adesso siano leggermente più basse, è dovuto ad nvidia inspector? grazie.
¥º·RG·º¥
30-04-2012, 17:02
la ventola è in modalità dinamica, ma con il voltaggio, cosa migliorerei? ho installato nvidia inspector, per gestire le opzioni della scheda grafica. nelle opzioni dei giochi adesso devo disabilitare tutti gli effetti? sembra che le temperature adesso siano leggermente più basse, è dovuto ad nvidia inspector? grazie.
A voltaggi piu bassi, generalmente, corrispondono temperature piu basse. Quanto hanno le tue schede (voltaggio)?
vincenzomary
30-04-2012, 17:08
A voltaggi piu bassi, generalmente, corrispondono temperature piu basse. Quanto hanno le tue schede (voltaggio)?
non so com e ridimensionare l'immagine... scusate: http://i.imgur.com/VSE1j.jpg
¥º·RG·º¥
30-04-2012, 17:13
Vai su Settings e imposta la spunta a "Sblocca il controllo del voltaggio" "Sblocca il monitoraggio del voltaggio"
vincenzomary
30-04-2012, 17:20
Vai su Settings e imposta la spunta a "Sblocca il controllo del voltaggio" "Sblocca il monitoraggio del voltaggio"
corevoltage adesso misura 1013. attivando il vsync da nvidia inspector, non riesco a controllare bene il movimento del personaggio con il mouse.
Non ho levato niente di niente dei filtri e i cali di fps sono circa 4/5 .. manco me ne son accorto :oink: Poi al massimo se calano troppo abbasso di una tacca i filtri tanto a questa risoluzione ( 2560x1440 ) manco te ne accorgi..
Con la gtx 680 non avrai assolutamente nessun problema anzi !
Il monitor con quella scheda, se hai culo che abbia il PCB 2b, sara overlcockabile a 120hz ! con tutte le altre si arriva a un massimo di 100hz .. il mio,essendo un pcb 2C arriva massimo a 67hz.. conta che e' un S-IPS manco ti sto a dire la qualita' delle immagini...
Sulla sezione monitor ci sta proprio tutta una lunga discussione su questo monitor e anche il mio consiglio dove acquistarlo.
Controlla anche , scrivendo su google catleap se club overclock.net col traduttore e leggi tutto per farti una esauriente idea di com'è questo monitor.
Sempre sul sito di overclock.net dicono che tra un paio di mesi dovra' uscire per tutti i monitor la versione coi PCB ocerclokabili a 120hz.... per cui ...
Non male per un monitor, uguale e identico a quello della apple che ne costa 1387 euro, a 400 spedito con 2 anni di garanzia.....Poi se lo ciapi sotto il mio consiglio ... beh la spesa e' anche inferiore....
E' la prima volta che sento parlare di overclock del refresh del monitor! :D
fabbri.fili
30-04-2012, 18:59
Non ho levato niente di niente dei filtri e i cali di fps sono circa 4/5 .. manco me ne son accorto :oink: Poi al massimo se calano troppo abbasso di una tacca i filtri tanto a questa risoluzione ( 2560x1440 ) manco te ne accorgi..
Con la gtx 680 non avrai assolutamente nessun problema anzi !
Il monitor con quella scheda, se hai culo che abbia il PCB 2b, sara overlcockabile a 120hz ! con tutte le altre si arriva a un massimo di 100hz .. il mio,essendo un pcb 2C arriva massimo a 67hz.. conta che e' un S-IPS manco ti sto a dire la qualita' delle immagini...
Sulla sezione monitor ci sta proprio tutta una lunga discussione su questo monitor e anche il mio consiglio dove acquistarlo.
Controlla anche , scrivendo su google catleap se club overclock.net col traduttore e leggi tutto per farti una esauriente idea di com'è questo monitor.
Sempre sul sito di overclock.net dicono che tra un paio di mesi dovra' uscire per tutti i monitor la versione coi PCB ocerclokabili a 120hz.... per cui ...
Non male per un monitor, uguale e identico a quello della apple che ne costa 1387 euro, a 400 spedito con 2 anni di garanzia.....Poi se lo ciapi sotto il mio consiglio ... beh la spesa e' anche inferiore....
Quindi se è overcloccabile fino a 120HZ potrà funzionare pure il 3d?
¥º·RG·º¥
30-04-2012, 19:14
corevoltage adesso misura 1013. attivando il vsync da nvidia inspector, non riesco a controllare bene il movimento del personaggio con il mouse.
Il voltaggio è bassissimo, puoi star tranquillo che le temperature non dipendono da lui... io credo che dipenda da qualcosa nel sistema di dissipazione..
vincenzomary
30-04-2012, 20:05
Il voltaggio è bassissimo, puoi star tranquillo che le temperature non dipendono da lui... io credo che dipenda da qualcosa nel sistema di dissipazione..
ok, grazie.
illidan2000
30-04-2012, 20:13
E' la prima volta che sento parlare di overclock del refresh del monitor! :D
Idem. Se non vedo non credo
Inviato dal mio GT-N7000 usando Tapatalk
¥º·RG·º¥
30-04-2012, 20:15
Idem. Se non vedo non credo
Inviato dal mio GT-N7000 usando Tapatalk
SE funzionera, sai quanti monitor salteranno per aria nell'arco di 2 settimane dopo la modifica :rolleyes:
KingArthas94
30-04-2012, 21:53
SE funzionera, sai quanti monitor salteranno per aria nell'arco di 2 settimane dopo la modifica :rolleyes:
Bhè anche i monitor hanno dei processori al loro interno :D
Comunque al ragazzo che ha problemi con le temp in Witcher... METTI IL VSYNC!
vincenzomary
30-04-2012, 23:37
Bhè anche i monitor hanno dei processori al loro interno :D
Comunque al ragazzo che ha problemi con le temp in Witcher... METTI IL VSYNC!
grazie per il ragazzo :D , se metto il vsync (forzarlo da pannello nvidia, giusto?), non riesco a gestire bene con il mouse il personaggio, sembra che "balli". grazie.
crazy_techno
01-05-2012, 00:00
scusate ragazzi se m'intrometto ma son troppo contento: stasera sono riuscito a benchare al vantage con le due 580 a 1.010MHz :D :D :D
non mi chiedete però il voltaggio eh... :stordita: :asd:
killeragosta90
01-05-2012, 00:42
scusate ragazzi se m'intrometto ma son troppo contento: stasera sono riuscito a benchare al vantage con le due 580 a 1.010MHz :D :D :D
non mi chiedete però il voltaggio eh... :stordita: :asd:
mmm sento puzza di bruciato :asd:
comunque a parte gli scherzi, complimentoni! raggiungere 1.010mhz con uno sli di 580 è davvero, davvero tanto! indipendentemente dal voltaggio :)
crazy_techno
01-05-2012, 01:26
mmm sento puzza di bruciato :asd:
comunque a parte gli scherzi, complimentoni! raggiungere 1.010mhz con uno sli di 580 è davvero, davvero tanto! indipendentemente dal voltaggio :)
si, effettivamente ho preso dei rischi non da poco, ma la passione (o pazzia) per i bench é tanta... :D
cmq, considerando che le 580 erano a... mmmhh... 1,2V ... :eekk: con Tmax a 45°/46° solo negli ultimi test (sennò erano a 43°/44°) sotto liquido non mi sembra male, no?!
SE funzionera, sai quanti monitor salteranno per aria nell'arco di 2 settimane dopo la modifica :rolleyes:
Fuochi d'artificio in salsa led :D
mmm sento puzza di bruciato :asd:
comunque a parte gli scherzi, complimentoni! raggiungere 1.010mhz con uno sli di 580 è davvero, davvero tanto! indipendentemente dal voltaggio :)
Dimenticato la bistecca sul barbecue? :D
si, effettivamente ho preso dei rischi non da poco, ma la passione (o pazzia) per i bench é tanta... :D
cmq, considerando che le 580 erano a... mmmhh... 1,2V ... :eekk: con Tmax a 45°/46° solo negli ultimi test (sennò erano a 43°/44°) sotto liquido non mi sembra male, no?!
Complimenti :)
KingArthas94
01-05-2012, 09:58
grazie per il ragazzo :D , se metto il vsync (forzarlo da pannello nvidia, giusto?), non riesco a gestire bene con il mouse il personaggio, sembra che "balli". grazie.
Haha prego xD comunque installa i driver serie 300 e usa quella automatica, sempre che non parli proprio di quella che ti da problemi.
A me gira benissimo così...
Bah io oltre i 900 non riesco ad andare in sli..
Che programma/bios usate ler andare oltre i 1150 di vcore??
crazy_techno
01-05-2012, 16:49
Bah io oltre i 900 non riesco ad andare in sli..
Che programma/bios usate ler andare oltre i 1150 di vcore??
Io personalmente uso nibitor (nvidia bios editor) ;)
http://www.xtremeshack.com/scheda/153614_pts.-49.231-cpu-3930k-3.2-ghz-gtx580sli-1.010-mhz.jpg.html
A breve altri Vantage con 3930k occato.
¥º·RG·º¥
01-05-2012, 17:03
Bah io oltre i 900 non riesco ad andare in sli..
Che programma/bios usate ler andare oltre i 1150 di vcore??
Fermi Bios Editor...molto facile da usare ;)
KingArthas94
01-05-2012, 20:09
Continuate con i vostri record in overclock, intanto io provo a vedere i limiti minimi della mia 570 xD
http://localhostr.com/file/ulvITuC/Dead%20Space%202012-05-01%2015-08-35-34.png
Temperatura ambiente di 23-24 gradi...
603 MHz di GPU, 1.66 GHz di CPU. Un downclock abbastanza simpatico direi, le temperature sono sempre più basse di quando è a 742 MHz, quindi meno rumore e comunque i 60 fps stabilissimi con giochi abbastanza vecchiotti come il Dead Space che sto giocando ora :D
Ho forzato dal Pannello di Controllo NVIDIA 3 cose:
- AF a 16x
- VSync Adattiva
- FXAA
Quello è il risultato, ma ricordate che FRAPS negli screen non è capace di captare effetti post processing come quello dell'FXAA. :)
TigerTank
01-05-2012, 20:46
L'fxaa è una manna dal cielo per giochi come Dead Space! Comunque ci mancherebbe che non giri a dovere essendo un gioco del 2008 molto console-oriented :)
KingArthas94
01-05-2012, 21:06
L'fxaa è una manna dal cielo per giochi come Dead Space! Comunque ci mancherebbe che non giri a dovere essendo un gioco del 2008 molto console-oriented :)
Pensa ho messo a 568 MHz e pure gira da Dio <3
Comunque in Dead Space e altri giochi oltre all'FXAA ci sta l'antialiasing su texture trasparenti da attivare da control panel, la qualità è superiore, a mio parere di molto, ma avere i 60 fps è ormai NECESSARIO per le mie esigenze (quello sulle texture trasparenti è pesantissimo e, ad esempio in Skyrim, pur essendo cento volte meglio dell'FXAA in qualità, nella versione 8x mi fa scendere il framerate sotto i 60, e stuttero per colpa della vsync... lì entra in gioco l'adattivo ma 40 fps è sempre peggio di 60)
COOOOMUNQUE
Ieri ho comprato un controller XBOX 360 con filo della GameStop a 20 euri proprio per giochi come Bioshock, Skyrim, Dead Space... ragazzi la comodità è immensa, penso che se dovessi consigliare tra l'acquisto di un nuovo hardware e l'acquisto di un pad 360 sceglierei la seconda... tipo in Dead Space è così risolto il problema del lag del mouse, che si presenterebbe anche usando processori a 6 core e quad sli di 690, per problemi software!
killeragosta90
02-05-2012, 01:13
Pensa ho messo a 568 MHz e pure gira da Dio <3
A sto punto fai prima a cambiare scheda video :asd:
E' la prima volta che sento parlare di overclock del refresh del monitor! :D
E...sei informato male perche' il mio sale tranquillamente seguendo la guida di overclock.net
Quindi se è overcloccabile fino a 120HZ potrà funzionare pure il 3d?
Assolutamente no purtroppo :( Ci stanno provando ma non ci si riesce.
Idem. Se non vedo non credo
Inviato dal mio GT-N7000 usando Tapatalk
Buon giorno S. Tommaso... ;)
Vai tranquillamente su google e scrivi: catleap se club overclock.net col traduttore leggi per bene il tutto e documentati bene, sono 350 pagine piu' o meno, io le ho lette tutte e ti garantisco che il Monitor si overcloka tranquillamente.
Oppure puoi controllare tranquillamente su utube digitando catleap se overclock 124hz dove spiega passo passo , chi ha fatto il video e' un utente di overclock.net, cosa fare e cosa usare... piu' semplice di cosi' ... :stordita:
TigerTank
02-05-2012, 09:06
Ieri ho comprato un controller XBOX 360 con filo della GameStop a 20 euri proprio per giochi come Bioshock, Skyrim, Dead Space... ragazzi la comodità è immensa, penso che se dovessi consigliare tra l'acquisto di un nuovo hardware e l'acquisto di un pad 360 sceglierei la seconda... tipo in Dead Space è così risolto il problema del lag del mouse, che si presenterebbe anche usando processori a 6 core e quad sli di 690, per problemi software!
Un pad per giocare a degli fps? No, grazie :stordita:
Circa il lag del mouse, è un problema che dipende dal fatto di attivare v-sync + triple buffering (in pratica il costo da pagare per non avere il tearing). Questo problema però sulle Nvidia è stato risolto con la recente introduzione del v-sync adattivo, che abilita il v-sync solo quando si arriva alla soglia massima del monitor (60 o 120Hz) :)
illidan2000
02-05-2012, 09:06
Io personalmente uso nibitor (nvidia bios editor) ;)
http://www.xtremeshack.com/scheda/153614_pts.-49.231-cpu-3930k-3.2-ghz-gtx580sli-1.010-mhz.jpg.html
A breve altri Vantage con 3930k occato.
Mi piacerebbe un riscontro con 3dmark11 e unigine heaven 3.0....
Inviato dal mio GT-N7000 usando Tapatalk
¥º·RG·º¥
02-05-2012, 09:13
Un pad per giocare a degli fps? No, grazie :stordita:
Circa il lag del mouse, è un problema che dipende dal fatto di attivare v-sync + triple buffering (in pratica il costo da pagare per non avere il tearing). Questo problema però sulle Nvidia è stato risolto con la recente introduzione del v-sync adattivo, che abilita il v-sync solo quando si arriva alla soglia massima del monitor (60 o 120Hz) :)
Quoto.. ;)
Ma fatemi capire negli ultimi beta l fxaa e disabilitato perche??? Mi riferisco a bf3 che ce la gia di suo.... In quel caso posso rranquillamente disabilitare l msaa dal gioco???? Sarebbe inutile attivarlo entrambi mi confermate???? Il vsync adattivo e il caso di abilitarlo dal momento in cui giocando a tutto su ultra faccio dai 80-100max fps e ho un monitor a 120hz ho capito che l adattivo entra solo se gli fps vsnno oltra la soglia di refresh del proprio monitor.
TigerTank
02-05-2012, 10:18
Il v-sync adattivo attivalo sempre ;)
Circa l'fxaa dipende, se un gioco gira bene con l'AA interno(che sia fxaa o msaa) allora tanto vale usare quello mentre se un gioco non ce l'ha allora piuttosto che forzare l'msaa da drivers ormai è meglio provare ad attivare l'fxaa ;)
gtx580 a liquido a 930mhz 36.xxx al vantage con la config in firma.
Stiamo in linea? Voglio portarla a 1.2v di bios per stare stabile a 1ghz :)
Per ora a 1.125 930gpu e 2080 di memorie chiudo il vantage a 50° come temperatura di picco.
fabbri.fili
02-05-2012, 14:06
Io personalmente uso nibitor (nvidia bios editor) ;)
http://www.xtremeshack.com/scheda/153614_pts.-49.231-cpu-3930k-3.2-ghz-gtx580sli-1.010-mhz.jpg.html
A breve altri Vantage con 3930k occato.
con che voltaggio stai a 1010 mhz?
Li tieni in daily?
KingArthas94
02-05-2012, 16:46
Guardate pensavo anche io che i pad fossero scomodi, ma dopo averlo provato in Assassin's Creed e Dead Space... tra l'altro Dead Space è un tps e non è adrenalinico o.o e la sync verticale non risolve tutti i problemi in Dead Space (prima di spendere 20€ ho provato a fare di tutto XD), ma col pad è comodissimo, sono al chap 3 e non sono mai morto, strano :p
E' invece ovvio che per CoD o Battlefield non ci siano storie: mouse e tastiera la fanno da padroni! Ma dove posso, provo a non star chinato sulla tastiera in modo innaturale, anzi se uso il pad spesso e volentieri mi stendo sul letto per giocare :D
Altri giochi dove il pad è usabile alla perfezione sono GTA (io gioco al 4) e Skyrim. Se su quest'ultimo mettono i controlli vocali con microfono per PC, è finita :D
Per concludere, in Bioshock ho usato per il 70% del gioco la tastiera. Da lì in poi ho usato solo pad e mi sono trovato non tanto male (avrò sprecato giusto qualche proiettile e perso un pò di eve per elettricità a cacchio XD).
Alla fine, contro Fontaine ho preferito tornare al mouse+tastiera perchè ci sono troppi nemici e si muove velocemente :)
darthroy
02-05-2012, 17:04
EDIT
X-ray guru
02-05-2012, 17:40
Quindi se è overcloccabile fino a 120HZ potrà funzionare pure il 3d?
In teria sì, se riesci ad imbrogliare anche i driver 3D di Nvidia.
Il pannello comunque rimane un IPS, quindi con 10-15 ms reali di spegnimento dei pixel. Ciò vuol dire un ghosting da far paura.
Azzo se gira bene warhead sulle 580..
Peccato per il solito problema dai 24 Hz..
fabbri.fili
02-05-2012, 19:04
Sto controllando con vari programmi per tenere sott'occhio le frequenze, gpuz, nvidia inspector aida etc e tutti quanti rilevano che la frequenza della prima gpu non va mai in 2d ma rimane in low 3d, ho i driver 301.32.
Credo e spero siano i driver, qualcuno ha notato questo problema?
crazy_techno
02-05-2012, 19:10
Mi piacerebbe un riscontro con 3dmark11 e unigine heaven 3.0....
Ah sicuramente non li chiuderebbero... :cry:
Però chiudere il Vantage a quelle frequenze in SLI non penso sia un brutto risultato, no?? ;)
con che voltaggio stai a 1010 mhz?
Li tieni in daily?
Assolutamente NO. Per il daily mi basta il default (772mhz), o al massimo 800mhz.
Per l'OC massimo (1.010mhz) ho dovuto dare 1.2V... :stordita:
fabbri.fili
02-05-2012, 19:21
Ah sicuramente non li chiuderebbero... :cry:
Però chiudere il Vantage a quelle frequenze in SLI non penso sia un brutto risultato, no?? ;)
Assolutamente NO. Per il daily mi basta il default (772mhz), o al massimo 800mhz.
Per l'OC massimo (1.010mhz) ho dovuto dare 1.2V... :stordita:
Hai guadagni con 800 mhz in game?
E con 1010 mhz hai mai provato in game?
crazy_techno
02-05-2012, 20:13
Hai guadagni con 800 mhz in game?
E con 1010 mhz hai mai provato in game?
A 800 MHz ho dei guadagni che sono più o meno tangibili in base al gioco (per es. al Vantage mi danno circa 600 punti in più rispetto @default su Performance).
L'altro OC l'ho raggiunto solo alcuni giorni fà, e cmq non lo proverò mai in game.
SwOrDoFmYdEsTiNy
02-05-2012, 22:08
salve a tutti, da poco sono possessore di questa magnifica scheda, come potete vedere la mia firma non è ancora aggiornata, ho un paio di domande per voi:
1) da dove posso attivare l'adaptive v-sinc?
2) c'è un sito che permette di vedere tutti i software che sfruttano cuda? mi interessa particolamente il campo della conversione video, visto che mi capita spesso di fare video di giochi con fraps e poi di doverli convertire
grazie mille
salve a tutti, da poco sono possessore di questa magnifica scheda, come potete vedere la mia firma non è ancora aggiornata, ho un paio di domande per voi:
anche l'avatar non solo la firma mi dicono dalla regia :D
In teria sì, se riesci ad imbrogliare anche i driver 3D di Nvidia.
Il pannello comunque rimane un IPS, quindi con 10-15 ms reali di spegnimento dei pixel. Ciò vuol dire un ghosting da far paura.
E qua ti sbagli perche' sul catleap q270 se che ho in firma sono 6ms e di ghosting ti assicuro che non se ne presenta manco l'ombra :D
Non ho trovato nessuna discussione per over-refreshare il monitor...
Digita su google catleap q270 se club overclock.net.
Nella prima pagina,spoilerate, ci sono tutte le istruzioni e indicazioni come fare.
Da 60hz, alcune versioni del monitor con pcb particolare, passa a 124hz.
KingArthas94
03-05-2012, 13:41
Ragazzi ma una 570 fino a quanti megahertz può essere overcloccata senza dover fare modifiche al voltaggio? Tipo a 800 ci arriva? Scusate ma sono totalmente nabbo :D
¥º·RG·º¥
03-05-2012, 14:01
Ragazzi ma una 570 fino a quanti megahertz può essere overcloccata senza dover fare modifiche al voltaggio? Tipo a 800 ci arriva? Scusate ma sono totalmente nabbo :D
Dipende se utilizzi una reference oppure una custom. Le mie reference avevano un VID rispettivamente di 0.960 e 0.968 e @800/1600/2000 non arrivavano, avevano bisogno di 1v tondo tondo. Discorso diverso invece per le custom, che dato il loro OC di fabbrica sono gia overvoltate ;)
X-ray guru
03-05-2012, 16:01
E qua ti sbagli perche' sul catleap q270 se che ho in firma sono 6ms e di ghosting ti assicuro che non se ne presenta manco l'ombra :D
Io intendevo ghosting in 3D, che io intravedo anche con un TN da 2 ms.
Dubito che con 6 ms (anche fossero veri), tu non abbia ghosting in 3D.
Conta che il tempo di ogni frame a 120 Hz è di 8,33 ms e un monitor che ha 6 ms, crea una scia nel frame successivo lunga quasi 2/3 del frame stesso.
Naturalmente poi ognuno deve usare i propri occhi e quindi l'importante è che l'utente sia soddisfatto. :)
TigerTank
03-05-2012, 16:25
Paradossalmente il ghosting in 3D è accentuato su un TN da 2 ms. Infatti nel mio Samsung per il 3D consigliano di impostare il tempo di risposta al valore più basso dei 3 settaggi presenti nelle opzioni del pannello del monitor :)
Fine OT.
redblack2
03-05-2012, 23:45
ciao ragazzi ho appena comprato una MSi 570 TFIII 1280 PowerOC....spero di avere fatto una buona scelta.
killeragosta90
04-05-2012, 00:10
ciao ragazzi ho appena comprato una MSi 570 TFIII 1280 PowerOC....spero di avere fatto una buona scelta.
Si vai tranquillo, non ti pentirai dell'acquisto, te lo garantisco ;)
Dr.Speed
04-05-2012, 00:32
a me e arrivata oggi una gaiward 570 gtx glh, ma ho notato una cosa stranissima, se chiudo msi afterburner la ventola della scheda video rimane al minimo anche con temperature alte, mi sa che devo reistallare windows perche sembra che la pulizia dei driver non sia bastata, cosa dite?
ciao ragazzi ho appena comprato una MSi 570 TFIII 1280 PowerOC....spero di avere fatto una buona scelta.
ottima scelta, è nel case da novembre e ne sono soddisfatto :)
Ciaoo
Ciao ragazzi, vorrei chiedervi un aiuto riguardo l'overclock della mia scheda video.
Possiedo una EVGA GTX 570 Classified, l' ho messo sotto liquido e vorrei overcloccarla.
Avrei un pò di domande, e spero possiate rispondermi a tutti questi dubbi:
(Li metto in scala e numerati per facilitarvi la lettura)
1:software per overcloccare? Posso usare MSI afterburn?
2:voltaggio massimo da dare alla scheda per tenerla in daily senza subire danni?
2:i test li sto facendo con EVGA ocScanner, posso usare qualche altro sw che non danneggi la scheda?
3:questi test danneggiano la scheda?
4:nei test con evga ocScanner qualche volta mi risultano 2 o 3 artefatti, è grave?
5:Quanto tempo devo stressarla per capire se è stabile?
6:ho portato la scheda (al momento) a 900Core clock / 1800 shader clock / 250 memory clock. Il voltaggio è bloccato di default a 1088V, con questa configurazione ho 0 artefatti in EVGA ocScanner, dite che va bene, Le temperature massime non superano i 37°C
7:giochi per provarla? ho provato solo metro 2033 però ogni tanto mi crasha, il fatto è che credo mi crashi a prescindere. Vorrei provare BF3
Vi ringrazio per disponibilità, mi scuso per le 1000 domande, sono al corrente del fatto che probabilmente ogni giorno viene un utente come me e chiede questo, infatti ho provato a leggere qualche pagina precedente ma non ho trovato nulla che mi chiarisse bene questi punti. Spero possiate aiutarmi :-)
itachi23
04-05-2012, 10:41
Ciao ragazzi, vorrei chiedervi un aiuto riguardo l'overclock della mia scheda video.
Possiedo una EVGA GTX 570 Classified, l' ho messo sotto liquido e vorrei overcloccarla.
Avrei un pò di domande, e spero possiate rispondermi a tutti questi dubbi:
(Li metto in scala e numerati per facilitarvi la lettura)
1:software per overcloccare? Posso usare MSI afterburn?
2:voltaggio massimo da dare alla scheda per tenerla in daily senza subire danni?
2:i test li sto facendo con EVGA ocScanner, posso usare qualche altro sw che non danneggi la scheda?
3:questi test danneggiano la scheda?
4:nei test con evga ocScanner qualche volta mi risultano 2 o 3 artefatti, è grave?
5:Quanto tempo devo stressarla per capire se è stabile?
6:ho portato la scheda (al momento) a 900Core clock / 1800 shader clock / 250 memory clock. Il voltaggio è bloccato di default a 1088V, con questa configurazione ho 0 artefatti in EVGA ocScanner, dite che va bene, Le temperature massime non superano i 37°C
7:giochi per provarla? ho provato solo metro 2033 però ogni tanto mi crasha, il fatto è che credo mi crashi a prescindere. Vorrei provare BF3
Vi ringrazio per disponibilità, mi scuso per le 1000 domande, sono al corrente del fatto che probabilmente ogni giorno viene un utente come me e chiede questo, infatti ho provato a leggere qualche pagina precedente ma non ho trovato nulla che mi chiarisse bene questi punti. Spero possiate aiutarmi :-)
Quando fai overclock ci sono 2 fattori principali che potrebbero rovinare la scheda, la tensione e la temperatura, io ho una 580 e non so il range di tensione massimo che si può dare alla 570, ma credo che con MSI ab comunque non potresti superare la soglia massima, e le temperature sono ottime, ovviamente sei a liquido e quindi di questo devi preoccuparti relativamente, se ti crasha in metro significa che non sei rock solid e quindi dovresti alzare ancora un po' il voltaggio almeno di uno step, a me capitava al stessa cosa, mi chiudeva i bench e poi in game mi crashava, di solito uno step di voltaggio e vai tranquillo...se posso darti un consiglio con una scheda del genere bf3 va comunque provato , almeno per vedere i limiti del tuo hardware :) spero di aver risposto anche se in parte alle tue domande ;)
frusciante85
04-05-2012, 10:55
ragazzi voi sapete se c'è un modo/programma per capire se la propria gpu è buggata?? io ho una 580 e molto spesso con alcuni giochi crasha simili problemi li ho avuti con una dual gpu scoprendo poi che una delle due gpu era fallata
itachi23
04-05-2012, 11:50
ragazzi voi sapete se c'è un modo/programma per capire se la propria gpu è buggata?? io ho una 580 e molto spesso con alcuni giochi crasha simili problemi li ho avuti con una dual gpu scoprendo poi che una delle due gpu era fallata
Da una certa versione in poi dei driver alcune schede con voltaggi a default davano questo problema, cioè diventavano instabili in giochi particolarmente pesanti come BF3 o metro, almeno questi giochi hanno fatto questo scherzetto a me, comunque basta aumentare di uno step da MSI ab il voltaggio standard e la situazione dovrebbe tornare alla normalità ;)
Quando fai overclock ci sono 2 fattori principali che potrebbero rovinare la scheda, la tensione e la temperatura, io ho una 580 e non so il range di tensione massimo che si può dare alla 570, ma credo che con MSI ab comunque non potresti superare la soglia massima, e le temperature sono ottime, ovviamente sei a liquido e quindi di questo devi preoccuparti relativamente, se ti crasha in metro significa che non sei rock solid e quindi dovresti alzare ancora un po' il voltaggio almeno di uno step, a me capitava al stessa cosa, mi chiudeva i bench e poi in game mi crashava, di solito uno step di voltaggio e vai tranquillo...se posso darti un consiglio con una scheda del genere bf3 va comunque provato , almeno per vedere i limiti del tuo hardware :) spero di aver risposto anche se in parte alle tue domande ;)
Ciao itachi, ti ringrazio molto :) mi aiutato senz'altro! BF3 lo prenderò a prescindere; un compromesso tra grafica e fps lo troverò.
Non ho capito una cosa, praticamente mi succede esattamente quello che hai detto! tenendo presente però la stabilità di metro 2033 che è molto "particolare" diciamo... Non ho capito cosa intendi con alzare il voltaggio di uno step ( come si fa a salire per step? sale a frequenze predefinite? o intendi piano piano step by step?). Ti riferisci al core voltage (mV)? ciò è un pò un problema perchè con MSI afterburn è bloccato. Di default la mia scheda ha 1088. Pensi che a 1100 può andare? IN caso posso aumentarlo con EVGA precision? (a tal proposito ci sarebbe un altro problema. se lo modifico con evga precision, poi quando apro MSI afterburn giustamente mi si rimodifica ai settaggi di quest'ultimo. O sbaglio?)
PS: se te la senti... è giusto una mia curiosità, mi spiegheresti bene cosa implica modificare il voltaggio? cioè in pratica il gioco mi crasha perchè ho un voltaggio basso, se lo alzo aumento le temperature (ma qui direi di non aver problemi). L'obiettivo è come nei processori più o meno no? massima frequenza possibile con un voltaggio più basso possibile. Devo solo sapere come sbloccare sto benedetto voltaggio in MSI
Ciao itachi, ti ringrazio molto :) mi aiutato senz'altro! BF3 lo prenderò a prescindere; un compromesso tra grafica e fps lo troverò.
Non ho capito una cosa, praticamente mi succede esattamente quello che hai detto! tenendo presente però la stabilità di metro 2033 che è molto "particolare" diciamo... Non ho capito cosa intendi con alzare il voltaggio di uno step ( come si fa a salire per step? sale a frequenze predefinite? o intendi piano piano step by step?). Ti riferisci al core voltage (mV)? ciò è un pò un problema perchè con MSI afterburn è bloccato. Di default la mia scheda ha 1088. Pensi che a 1100 può andare? IN caso posso aumentarlo con EVGA precision? (a tal proposito ci sarebbe un altro problema. se lo modifico con evga precision, poi quando apro MSI afterburn giustamente mi si rimodifica ai settaggi di quest'ultimo. O sbaglio?)
PS: se te la senti... è giusto una mia curiosità, mi spiegheresti bene cosa implica modificare il voltaggio? cioè in pratica il gioco mi crasha perchè ho un voltaggio basso, se lo alzo aumento le temperature (ma qui direi di non aver problemi). L'obiettivo è come nei processori più o meno no? massima frequenza possibile con un voltaggio più basso possibile. Devo solo sapere come sbloccare sto benedetto voltaggio in MSI
puoi modificare il voltaggio predefinito tramitte msi afterburner entrando nelle opzione e sbloccando il controllo del voltaggio ;)
Dr.Speed
04-05-2012, 13:20
Ciao itachi, ti ringrazio molto :) mi aiutato senz'altro! BF3 lo prenderò a prescindere; un compromesso tra grafica e fps lo troverò.
Non ho capito una cosa, praticamente mi succede esattamente quello che hai detto! tenendo presente però la stabilità di metro 2033 che è molto "particolare" diciamo... Non ho capito cosa intendi con alzare il voltaggio di uno step ( come si fa a salire per step? sale a frequenze predefinite? o intendi piano piano step by step?). Ti riferisci al core voltage (mV)? ciò è un pò un problema perchè con MSI afterburn è bloccato. Di default la mia scheda ha 1088. Pensi che a 1100 può andare? IN caso posso aumentarlo con EVGA precision? (a tal proposito ci sarebbe un altro problema. se lo modifico con evga precision, poi quando apro MSI afterburn giustamente mi si rimodifica ai settaggi di quest'ultimo. O sbaglio?)
PS: se te la senti... è giusto una mia curiosità, mi spiegheresti bene cosa implica modificare il voltaggio? cioè in pratica il gioco mi crasha perchè ho un voltaggio basso, se lo alzo aumento le temperature (ma qui direi di non aver problemi). L'obiettivo è come nei processori più o meno no? massima frequenza possibile con un voltaggio più basso possibile. Devo solo sapere come sbloccare sto benedetto voltaggio in MSI
su afterburner vai su setting e spunti abilita contollo del voltaggio, se vedi che hai temperature troppo alte considera anche scendere qualche MHz anche se quelli indicati sono quelli di fabbrica purtroppo queste gpu (come tutte) soffrono di usura e con il apssare del tempo non e piu sicuro che reggano alle stesse frequenze, non conosco le schede msi ma se non funziona con afterburn ti consiglio nvidiaInspector
itachi23
04-05-2012, 13:28
Come ti hanno segnalato prendi l'ultima versione di ab e sblocca il voltaggio da settings, poi vedrai che quando aumenti di un po' quando vai ad applicare le modifiche il voltaggio verrà portato a voltaggi determinati, quindi se ora sei a 1080 potresti provare con 1090 e qualcosa, + o - va di dieci in dieci, ovviamente il concetto è lo stesso dell'overclock della CPU, trovare il voltaggio minore per stare Rock Solid, solo che ti consiglio di non utilizzare programmi che fanno bench, ma gioca direttamente, metro va benissimo secondo me come stress test e ti diverti pure ;)
Ottimo! allora ringrazio tutti per i consigli. Ho sbloccato msi ab dai setting ma il voltaggio massimo non supera i 1100.
Allora ho provato con 1100 core voltage, 900 core clock, 1800 shader clock e 2000 di memory clock. Mi passa il 3d mark su extreme, le temperature sono ottime. Ma in metro 2033 crasha :( ergo non va, devo scendere di clock o aumentare il voltaggio giusto?
Però da quanto ho capito è meglio non andare oltre, quindi abbasserò i clock.
Il mio unico cruccio è che, avendo come giochi che stressano molto la vga solo metro 2033, magari con gli altri giochi va bene. Ho skyrim ma non stressa tantissimo la vga imho. Ora provo ad abbassare a 880 di core clock, lascio invariato voltaggio e memoria.
SwOrDoFmYdEsTiNy
04-05-2012, 15:47
salve a tutti, da poco sono possessore di questa magnifica scheda, come potete vedere la mia firma non è ancora aggiornata, ho un paio di domande per voi:
1) da dove posso attivare l'adaptive v-sinc?
2) c'è un sito che permette di vedere tutti i software che sfruttano cuda? mi interessa particolamente il campo della conversione video, visto che mi capita spesso di fare video di giochi con fraps e poi di doverli convertire
grazie mille
nessuno che sa rispondere?
KingArthas94
04-05-2012, 16:54
quoto la domanda 2 del ragazzo sopra e rispondo alla 1
pannello di controllo nvidia, impostazioni per singola app 3d
itachi23
04-05-2012, 17:03
nessuno che sa rispondere?
Alla domanda 2 fate un giro sul sito nvidia mi sembra che ci sia una sezione dedicata, come c'è una lista di giochi che sono "nvidia-dipendenti" :D
score fresco fresco,ci sto lavorando su ;)
(http://imageshack.us/photo/my-images/607/37773vantagegtx58098019.jpg/)
Uploaded with ImageShack.us (http://imageshack.us)
abacostrano
04-05-2012, 20:00
score fresco fresco,ci sto lavorando su ;)
(http://imageshack.us/photo/my-images/607/37773vantagegtx58098019.jpg/)
Uploaded with ImageShack.us (http://imageshack.us)
che voltaggio :eek: io che pensavo di aver esagerato con 1,138 :D
io sto a liquido ;) se noti le temperature,i picco rilevato è di 60 gradi tondi tondi.
Quando gioco invece setto 970 di core e 1.200 di vcore in questo modo attivando il vsync muro ai 60fps e la sched non scalda una cippa :)
SwOrDoFmYdEsTiNy
04-05-2012, 22:03
Alla domanda 2 fate un giro sul sito nvidia mi sembra che ci sia una sezione dedicata, come c'è una lista di giochi che sono "nvidia-dipendenti" :D
bhe dopo aver visto il sito ti dico che posso modellare turbine 3d di aerei e studiarne i flussi aerodinamici, ma non ho trovato un programma per la conversione di video, tranne badaboom, e nella pagina di download c'è scritto che tra poco lo toglieranno pure .-. quindi sono punto e d'accapo con la ricerca, anche per quanto riguarda il v-sync, se posso essere sincero credo di essermi espresso male, cioè ero sicuro che fosse nel menù che mi avete detto, solo che non so qual'è la voce da selezionare ^^ a già, come driver ho gli ultimi beta
TigerTank
04-05-2012, 22:08
bhe dopo aver visto il sito ti dico che posso modellare turbine 3d di aerei e studiarne i flussi aerodinamici, ma non ho trovato un programma per la conversione di video, tranne badaboom, e nella pagina di download c'è scritto che tra poco lo toglieranno pure .-. quindi sono punto e d'accapo con la ricerca, anche per quanto riguarda il v-sync, se posso essere sincero credo di essermi espresso male, cioè ero sicuro che fosse nel menù che mi avete detto, solo che non so qual'è la voce da selezionare ^^ a già, come driver ho gli ultimi beta
Sincronizzazione verticale --> Automatica.
Non è così difficile ;)
SwOrDoFmYdEsTiNy
04-05-2012, 22:12
Sincronizzazione verticale --> Automatica.
Non è così difficile ;)
cioè se io metto su automatica, lui di default usa il v-sync adattativo? e se invece volessi mettere il v-sync normale?
TigerTank
04-05-2012, 22:15
cioè se io metto su automatica, lui di default usa il v-sync adattativo? e se invece volessi mettere il v-sync normale?
Lo attivi dai giochi oppure setti "Forza attivata".
Io comunque ti consiglierei di usare Automatica disattivando il v-sync nei giochi.
In tal modo il v-sync si attiva solo quando gli fps del gioco arrivano alla soglia di refresh del tuo monitor.
bhe dopo aver visto il sito ti dico che posso modellare turbine 3d di aerei e studiarne i flussi aerodinamici, ma non ho trovato un programma per la conversione di video
lol
freemake video converter :)
lol
freemake video converter :)
Pensato la stessa cosa :D
semplice ed efficace (e supporta le tecnologie nvidia).. tutti i sw del genere hanno mille opzioni e poi finisce che butti un dvd e basta :p
..eppure per scoprirlo ricordo che faticai parecchio!
richard99
05-05-2012, 17:22
Buonasera signori,
qualcuno mi saprebbe dire se per caso la scheda in oggetto, viste le sue generose dimensioni, presenta e se sì quali problemi di compatibilità (dal punto di vista delle misure) con la ASUS P8P67 Deluxe?
Qualcuno di voi ha questo tipo di configurazione per caso?
Grazie mille. Ciao.
la mobo va bene.. ma è da controllare lo spazio nel case piuttosto..
Buonasera signori,
qualcuno mi saprebbe dire se per caso la scheda in oggetto, viste le sue generose dimensioni, presenta e se sì quali problemi di compatibilità (dal punto di vista delle misure) con la ASUS P8P67 Deluxe?
Qualcuno di voi ha questo tipo di configurazione per caso?
Grazie mille. Ciao.
il problema delle dimensioni non sta per la schede madri, ma magari per il case.
richard99
05-05-2012, 17:38
il problema delle dimensioni non sta per la schede madri, ma magari per il case.
ciao, per quello non c'è problema in quanto ho un HAF 932 Advanced e quindi sono più tranquillo.
Piuttosto mi preoccupa la lunghezza della scheda. Ho il timore che dia problemi di montaggio rispetto alle porte SATA che ci sono sul bordo dx della Mobo.
P.S.: come ti trovi la la Lightning? Pompa?
KingArthas94
05-05-2012, 19:00
Ragazzi talvolta ho dello stuttering in giochi anche scemi come Audiosurf o comunque poco esosi ri risorse come Assassin's Creed, anche a dettagli minimi, poichè l'uso della GPU scende violentemente sotto al 10% e inizia a laggare malamente. Si presenta sia con che senza VSync.
Cosa dite che può essere? Succede con ogni diavolo di driver che provo, quindi non è quello il problema... in alcuni giochi stuttera per tipo 5 secondi e rovina totalmente il divertimento (vedi Audiosurf...)
ciao, per quello non c'è problema in quanto ho un HAF 932 Advanced e quindi sono più tranquillo.
Piuttosto mi preoccupa la lunghezza della scheda. Ho il timore che dia problemi di montaggio rispetto alle porte SATA che ci sono sul bordo dx della Mobo.
P.S.: come ti trovi la la Lightning? Pompa?
capito, non preoccuparti per le porte sata, non ci sono problemi per questo.
è una grandissima vga, anche se io mi sono trovato ad avere il core 772 e le memorie a 4008, anzichè 832 e 4200... leggendo su vari forum si possono trovare lightning 580 non con le specifiche dichiarate,e tutto ciò sulla scatola della vga non cè scritto, ma ho flashato il bios grazie ad un utente qui su forum ed è andato tutto benissimo.
Ragazzi talvolta ho dello stuttering in giochi anche scemi come Audiosurf o comunque poco esosi ri risorse come Assassin's Creed, anche a dettagli minimi, poichè l'uso della GPU scende violentemente sotto al 10% e inizia a laggare malamente. Si presenta sia con che senza VSync.
Cosa dite che può essere? Succede con ogni diavolo di driver che provo, quindi non è quello il problema... in alcuni giochi stuttera per tipo 5 secondi e rovina totalmente il divertimento (vedi Audiosurf...)
Molto probabilmente la scheda passa dal p-state 3D pesante ad uno inferiore e ti trovi a giocare con le frequenze di funzionamento ridotte; prova ad andare nel pannello di controllo Nvidia, nella sezione "Gestisci le impostazioni 3D", a settare per i giochi in questione la voce "Modalità di gestione dell'alimentazione" su "Preferisci le prestazioni massime": in questo modo basta un minimo di carico sulla scheda per portarla alle frequenze massime. ;)
KingArthas94
06-05-2012, 00:16
Mi pare che PrecisionX continui a segnare 740 MHz ma potrei sbagliarmi... la cosa che colpisce è che da 40-50% di uso scende ogni tanto a 10-20... proverò a fare come suggerisci :)
murrieta
06-05-2012, 09:48
ciao, per quello non c'è problema in quanto ho un HAF 932 Advanced e quindi sono più tranquillo.
Piuttosto mi preoccupa la lunghezza della scheda. Ho il timore che dia problemi di montaggio rispetto alle porte SATA che ci sono sul bordo dx della Mobo.
P.S.: come ti trovi la la Lightning? Pompa?
pensa che ne ho due in SLI e non recano nessun intralcio alle porte Sata della mainboard, quindi non avrai problemi da questo punto di vista...per il case sei in una botte di ferro...;)...Non ti resta che godertela!!!
io mi ci trovo ottimamente, sono molto fresche e anche in OC salgono una bellezza!!!
è una grandissima vga, anche se io mi sono trovato ad avere il core 772 e le memorie a 4008, anzichè 832 e 4200... leggendo su vari forum si possono trovare lightning 580 non con le specifiche dichiarate,e tutto ciò sulla scatola della vga non cè scritto, ma ho flashato il bios grazie ad un utente qui su forum ed è andato tutto benissimo.
hihihi ;) ;)
Ragazzi, chi gioca con BF3 con quali driver si trova meglio?
Io ho una 570, ma francamente BF3 per me rimane un mistero, ho stuttering a secondo delle patch che fanno i DICE....
KingArthas94
06-05-2012, 14:05
Ragazzi, chi gioca con BF3 con quali driver si trova meglio?
Io ho una 570, ma francamente BF3 per me rimane un mistero, ho stuttering a secondo delle patch che fanno i DICE....
Coi 300 e l'ultima patch mi va da Dio
P.J. Maverick
06-05-2012, 14:41
Coi 300 e l'ultima patch mi va da Dio
confermo
intanto sono incappato in questo
http://www.nexthardware.com/news/watercooling/4607/arctic-annuncia-laccelero-hybrid.htm
molto interessante :sofico:
Ok, provo a scaricare gli ultimi.
richard99
06-05-2012, 17:13
pensa che ne ho due in SLI e non recano nessun intralcio alle porte Sata della mainboard, quindi non avrai problemi da questo punto di vista...per il case sei in una botte di ferro...;)...Non ti resta che godertela!!!
io mi ci trovo ottimamente, sono molto fresche e anche in OC salgono una bellezza!!!
Bene bene... Molto bene, grazie per il tuo utile commento. Non vedo l'ora di utilizzarla. Ciao.
Con gli ultmi driver va meglio, ma ho sempre questo stuttering random anche con 60 fps fissi..... in base ai comandi che metto nel file config.cfg la cosa migliora o peggiora, penso sia un problema globale della mia config.
Non ho riscontrato saturazione della memoria, e comunque lo stuttering è presente a prescindere dal livello grafico.
Con gli ultmi driver va meglio, ma ho sempre questo stuttering random anche con 60 fps fissi..... in base ai comandi che metto nel file config.cfg la cosa migliora o peggiora, penso sia un problema globale della mia config.
Non ho riscontrato saturazione della memoria, e comunque lo stuttering è presente a prescindere dal livello grafico.
hai provato a dare un lieve overvolt alla vga?
hai provato a dare un lieve overvolt alla vga?
No, sono veramente poco pratico di queste cose.
Dici che può essere un problema del genere?
Ho installato msi e mi da 975 come Core Voltage, 732 Core clock, 1900 Memory Clock.
Il core voltage è troppo basso?
abacostrano
06-05-2012, 20:50
Ragazzi talvolta ho dello stuttering in giochi anche scemi come Audiosurf o comunque poco esosi ri risorse come Assassin's Creed, anche a dettagli minimi, poichè l'uso della GPU scende violentemente sotto al 10% e inizia a laggare malamente. Si presenta sia con che senza VSync.
Cosa dite che può essere? Succede con ogni diavolo di driver che provo, quindi non è quello il problema... in alcuni giochi stuttera per tipo 5 secondi e rovina totalmente il divertimento (vedi Audiosurf...)
Anche io ho lo stesso problema! ma non sono mai riuscito a risolverlo .. in assassin creed è parecchio evidente boh :confused:
KingArthas94
06-05-2012, 21:27
Ehi in Audiosurf sembra aver risolto mettendo da pannello di controllo nvidia, sezione risparmio energia, "prestazioni massime" come ha detto -Maxx-!
Yeah, ora faccio un'oretta ad AC e vi faccio sapere :D
abacostrano
06-05-2012, 22:43
Ehi in Audiosurf sembra aver risolto mettendo da pannello di controllo nvidia, sezione risparmio energia, "prestazioni massime" come ha detto -Maxx-!
Yeah, ora faccio un'oretta ad AC e vi faccio sapere :D
io purtroppo assassin creed lho disinstallato! speriamo funzioni :D
X-ray guru
07-05-2012, 15:21
Paradossalmente il ghosting in 3D è accentuato su un TN da 2 ms. Infatti nel mio Samsung per il 3D consigliano di impostare il tempo di risposta al valore più basso dei 3 settaggi presenti nelle opzioni del pannello del monitor :)
Fine OT.
Brevissimo commento: nei settaggi Samsung il valore che citi è il peso dell'overdrive ed è giusto metterlo al minimo per il 3D perché, se spinto troppo, crea dei veri e propri artefatti che in 3D danno molto fastidio.
No, sono veramente poco pratico di queste cose.
Dici che può essere un problema del genere?
Ho installato msi e mi da 975 come Core Voltage, 732 Core clock, 1900 Memory Clock.
Il core voltage è troppo basso?
Prova a metterlo a 1.000v giusto per prova. Ah cosa MOLTO importante,in bassoa destra sulla barra clicca e disattiva gli aggiornamenti automatici nvidia,sono avidi di risorse gravano spesso sulla cpu.
KingArthas94
07-05-2012, 18:20
Uh quella degli update automatici non la sapevo, thank you :D
1 ora di gioco in AC, 1 ora e mezza a DEAD SPACE e un quarto d'ora ad Audiosurf, lo stuttering continua ad esserci solo in AC ma dura tipo un secondo scendendo a 30 fps e a me non è accaduto più di una volta. Pare funzionare :D
SwOrDoFmYdEsTiNy
07-05-2012, 18:41
Prova a metterlo a 1.000v giusto per prova. Ah cosa MOLTO importante,in bassoa destra sulla barra clicca e disattiva gli aggiornamenti automatici nvidia,sono avidi di risorse gravano spesso sulla cpu.
ti giuro che ho dovuto ricaricare la pagina perchè non ero convinto di quello che leggevo, della serie in nvidia siamo capaci a fare i driver mi dicono ^^
mattxx88
07-05-2012, 18:53
ti giuro che ho dovuto ricaricare la pagina perchè non ero convinto di quello che leggevo, della serie in nvidia siamo capaci a fare i driver mi dicono ^^
in amd sono ancora meglio!
SwOrDoFmYdEsTiNy
07-05-2012, 19:02
in amd sono ancora meglio!
bhè ti posso dire che di sicuro non c'è bisogno di disabilitare gli aggiornamenti automatici perchè gravano sulla cpu e almeno io nella fattispecie non ho mai avuto problemi con i driver amd (tranne quando i primi tempi toccavo le impostazioni senza sapere cosa stavo facendo ^^), e io avevo pure il crossfire ^^
Prova a metterlo a 1.000v giusto per prova. Ah cosa MOLTO importante,in bassoa destra sulla barra clicca e disattiva gli aggiornamenti automatici nvidia,sono avidi di risorse gravano spesso sulla cpu.
Provo a fare questa prova.
Non riesco però a trovare dove disattivare gli aggiornamenti automatici.
qualcuno ha provato skyrim con i 301.24 ?
è una grandissima vga, anche se io mi sono trovato ad avere il core 772 e le memorie a 4008, anzichè 832 e 4200... leggendo su vari forum si possono trovare lightning 580 non con le specifiche dichiarate,e tutto ciò sulla scatola della vga non cè scritto, ma ho flashato il bios grazie ad un utente qui su forum ed è andato tutto benissimo.
Aspetta un attimo, ora sono in ufficio e non posso controllare bene, ma se non sbaglio anche io quando ho aperto msi afterburner ho letto quei valori! pensavo fosse perchè ero in ambiente windows, mi vuoi dire che non salgono quando gioco????? :mad: :mad: :mad:
che devo fare per mettere tutto a posto? tu parli di flashare il bios, non si può agire tramite msi afterburner evitando quella pericolosa pratica che è il flash del bios (che non ho mai fatto e vorrei continuare a non fare)??
Goofy Goober
07-05-2012, 20:53
già, sono le "lightining farlocche" di MSI, almeno, farlocche dal punto di vista delle frequenze
già, sono le "lightining farlocche" di MSI, almeno, farlocche dal punto di vista delle frequenze
e che c'è da fare? (oltre al flash del bios, per me ultimissimissima spiaggia)
Goofy Goober
07-05-2012, 21:06
e che c'è da fare? (oltre al flash del bios, per me ultimissimissima spiaggia)
tra l'altro io non sapevo di questa procedura del flash del bios, che poi è legata alla capacità della scheda di tenere il tale overclock con il tale voltaggio, variabile da ogni scheda visto che MSI non le ha testate in OC, ma appunto le vende con freq default, presumibilmente perchè sono chip "di seconda scelta" rispetto a quelli delle prime MSI Light uscite... Infatti queste MSI con frequenze standard sono uscite dopo tempo, e cosa buffa, hanno prestazioni inferiori alle Twin Frozr III che costano anche meno, ma hanno sempre freq overcloccate.
non c'è da fare nulla (o cmq, null'altro che il flash del bios)
la scheda è così e così resta. hai il doppio bios con lo switch ma inutile, visto che su entrambi trovi le frequenze base.
puoi metterti a overcloccare la scheda a mano con afterburner, se vuoi che lavori in OC.
e quale dovrebbe essere il voltaggio standard per la lightning reggere quelle frequenze?
¥º·RG·º¥
07-05-2012, 21:26
tra l'altro io non sapevo di questa procedura del flash del bios, che poi è legata alla capacità della scheda di tenere il tale overclock con il tale voltaggio, variabile da ogni scheda visto che MSI non le ha testate in OC, ma appunto le vende con freq default, presumibilmente perchè sono chip "di seconda scelta" rispetto a quelli delle prime MSI Light uscite... Infatti queste MSI con frequenze standard sono uscite dopo tempo, e cosa buffa, hanno prestazioni inferiori alle Twin Frozr III che costano anche meno, ma hanno sempre freq overcloccate.
non c'è da fare nulla (o cmq, null'altro che il flash del bios)
la scheda è così e così resta. hai il doppio bios con lo switch ma inutile, visto che su entrambi trovi le frequenze base.
puoi metterti a overcloccare la scheda a mano con afterburner, se vuoi che lavori in OC.
In caso di flash del bios tramite FBE sei tu che decidi quale voltaggio dare alla scheda.. sia in 3D, low 3D e 2D ;)
Goofy Goober
07-05-2012, 21:29
In caso di flash del bios tramite FBE sei tu che decidi quale voltaggio dare alla scheda.. sia in 3D, low 3D e 2D ;)
certo, ma se si sceglie il voltaggio sbagliato, la scheda è instabile.
intendevo dire questo... il flash del bios su una qualunque scheda atto ad alzare le sue frequenze è sempre legato al voltaggio che la scheda richiede per funzionare bene.
anche in caso di queste Light con freq a default, non è quindi garantito un OC stabile con un voltaggio simile a quello delle Light già overcloccate di fabbrica
¥º·RG·º¥
07-05-2012, 21:32
certo, ma se si sceglie il voltaggio sbagliato, la scheda è instabile.
intendevo dire questo... il flash del bios su una qualunque scheda atto ad alzare le sue frequenze è sempre legato al voltaggio che la scheda richiede per funzionare bene.
anche in caso di queste Light con freq a default, non è quindi garantito un OC stabile con un voltaggio simile a quello delle Light già overcloccate di fabbrica
:) esattamente ;)
Dr.Speed
07-05-2012, 22:06
:) esattamente ;)
la mia Gainward GTX 570 GLH regge gli 800MHz dell'oc di fabbrica con 0.960V al posto di 1.030V un bel risparmio sopratutto contando che in game ho guadagnato 10°c e fa molto meno rumore :D
¥º·RG·º¥
07-05-2012, 22:26
la mia Gainward GTX 570 GLH regge gli 800MHz dell'oc di fabbrica con 0.960V al posto di 1.030V un bel risparmio sopratutto contando che in game ho guadagnato 10°c e fa molto meno rumore :D
Sei stato fortunato ;).. Le mie 2 reference invece hanno bisogno di 1v tondo per reggere quelle frequenze.. :)
senza cambiare voltaggio con msi afterburner ho impostato core a 832 (ma va in automatico a 830) e memorie a 2100 (ma va in automatico a 2109), ed ho acceso la lucina dove dice "apply overclocking at system startup".
ho giocato a the witcher 2 per un'orettta buona, tutto stabile.
Così sono ok, cambia qualcosa rispetto alla versione della lightning che esce di fabbrica a 832?
Gli shader a quanto dovrei impostarli?
NOOB4EVER
08-05-2012, 00:09
in amd sono ancora meglio!
:O
qualcuno ha provato skyrim con i 301.24 ?
a me va che è una meraviglia
a me va che è una meraviglia
hai una 5xx o 6xx?
e ti funziona l'occlusione ambientale? io ho provato su disattivato, prestazioni e qualità, facendo degli screen.. vedo solo la giusta differenza in framerate, ma l'occlusione non c'è :doh: :fagiano:
(mesi fa ci ho fatto 400h di gioco tutte con l'occlusione attivata, quindi di sicuro non è che l'occhio mi si sia distratto e ho preso una svista :D )
in amd sono ancora meglio!
leggende metropolitane..
murrieta
08-05-2012, 08:54
senza cambiare voltaggio con msi afterburner ho impostato core a 832 (ma va in automatico a 830) e memorie a 2100 (ma va in automatico a 2109), ed ho acceso la lucina dove dice "apply overclocking at system startup".
ho giocato a the witcher 2 per un'orettta buona, tutto stabile.
Così sono ok, cambia qualcosa rispetto alla versione della lightning che esce di fabbrica a 832?
Gli shader a quanto dovrei impostarli?
strano che impostando 832-2100 (rispettivamente per clock GPU/Ram) ti veda clock inesatti...che versione di Afterburner utilizzi?...che bios revision ha la tua Lightning?...hai controllato che lo switchino del bios sia a posto?
per testare i clock standard 3d della Lightning, incrementa il voltaggio fino a non superare i 1,03 e rotti V, anche se son gia' troppi...che VID 3d ha la tua VGA?...il clock degli shader è pari al doppio di quello della GPU e sull'architettura Fermi si incrementa automaticamente all'aumentare del clock GPU...;)
redblack2
08-05-2012, 17:24
Arrivata la msi 570 twin frozr III mi appresto a montarla,a vederla fà paura ed è bella pesante,sono molto contento e penso di aver fatto un ottima scelta.
Orkozzio
08-05-2012, 18:21
Sto riprovando i driver 301.24 e x ora non mi fanno + casino con bf3... penso per una incompatibilità con gpu tweak che ho disinstallato.
Devo dire che con il v-sinc automatico e se il server non lagga, ho un'ottima fluidità e la scheda rimane pure + fresca visto che arriva max sui 60 fps!
Spero non mi crashi + su bf3 xchè mi ci trovo gran bene!:)
edit- mi è appena crashato bf3.....
Appena concluso affare sul sito, una msi gtx 580 twin frozr II oc edition a 300 spedita.
Vi sembra un buon affare ?
Con questo sistema di raffreddamento dovrei poterla spingere parecchio in oc, anche se non mi serve visto che gioco a 1920*1080 su un 22" ...
Qualcuno di voi la conosce bene ?
illidan2000
09-05-2012, 15:36
Appena concluso affare sul sito, una msi gtx 580 twin frozr II oc edition a 300 spedita.
Vi sembra un buon affare ?
Con questo sistema di raffreddamento dovrei poterla spingere parecchio in oc, anche se non mi serve visto che gioco a 1920*1080 su un 22" ...
Qualcuno di voi la conosce bene ?
nuova o usata? ormai le ho viste vendere anche a molto meno...
nuova o usata? ormai le ho viste vendere anche a molto meno...
usata .... doh !
itachi23
09-05-2012, 16:05
secondo me è ancora un buon prezzo 300 euro, basta che la scheda sia tenuta bene, dando un'occhiata al mercatino le 580 minimo ho visto darle a 280 euro, cmq per le schede video si va molto a fortuna o a conoscenza quando le prendi usate, cmq se la tua non ha difetti (e spero per te non ne abbia) ti ci divertirai parecchio :D
secondo me è ancora un buon prezzo 300 euro, basta che la scheda sia tenuta bene, dando un'occhiata al mercatino le 580 minimo ho visto darle a 280 euro, cmq per le schede video si va molto a fortuna o a conoscenza quando le prendi usate, cmq se la tua non ha difetti (e spero per te non ne abbia) ti ci divertirai parecchio :D
stavo per comprare una 6990 a 50 € in +, ma l'utente reg da parecchi anni non aveva nessun commento positivo dalle sue trattative, perciò ho lasciato perdere, di questaltro ho letto solamente bene e mi sono convinto.
Oggi la spediva, non vedo l'ora arrivi.
Per quanto riguarda un ulteriore oc (il venditore dice di non averne mai avuto bisogno...), la scheda è già ocata, ma in quale situazione ci sarebbe bisogno di un ulteriore oc ?
itachi23
09-05-2012, 16:43
stavo per comprare una 6990 a 50 € in +, ma l'utente reg da parecchi anni non aveva nessun commento positivo dalle sue trattative, perciò ho lasciato perdere, di questaltro ho letto solamente bene e mi sono convinto.
Oggi la spediva, non vedo l'ora arrivi.
Per quanto riguarda un ulteriore oc (il venditore dice di non averne mai avuto bisogno...), la scheda è già ocata, ma in quale situazione ci sarebbe bisogno di un ulteriore oc ?
bhè ti dirò io la mia la tengo ad 850 quasi senza toccare il voltaggio, immagino di guadagnare qualche frame rispetto alla frequenza normale, considera che dipende molto da quanto sei esigente tu e appassionato, se vuoi benchare guadagni punti, ma se giochi soltanto potresti tenerla benissimo alle frequenze standard...ovviamente questa è una mia considerazione
strano che impostando 832-2100 (rispettivamente per clock GPU/Ram) ti veda clock inesatti...che versione di Afterburner utilizzi?...che bios revision ha la tua Lightning?...hai controllato che lo switchino del bios sia a posto?
per testare i clock standard 3d della Lightning, incrementa il voltaggio fino a non superare i 1,03 e rotti V, anche se son gia' troppi...che VID 3d ha la tua VGA?...il clock degli shader è pari al doppio di quello della GPU e sull'architettura Fermi si incrementa automaticamente all'aumentare del clock GPU...;)
la versione di msi afterburner è l'ultima disponibile, i clock non me li "vede" ma me li setta in automatico a quei valori come se fossero i più vicini a quelli da me inseriti manualmente.
lo switch del bios è su normal (l'altra opzione non è solo per l'azoto?)
perchè devo portare il voltaggio a 1.03 se è stabile così per come è già ora (non ho toccato nulla finora)
cos'è il vid3d????
ed il clock degli shader se è il doppio del clock della gpu perchè AB mi consente di modificarlo in modo indipendente? che guadagni avrei e che rischi corro? Che valori sono "generalmente" sicuri?
a me va che è una meraviglia
hai una 5xx o 6xx?
e ti funziona l'occlusione ambientale? io ho provato su disattivato, prestazioni e qualità, facendo degli screen.. vedo solo la giusta differenza in framerate, ma l'occlusione non c'è :doh: :fagiano:
(mesi fa ci ho fatto 400h di gioco tutte con l'occlusione attivata, quindi di sicuro non è che l'occhio mi si sia distratto e ho preso una svista :D )
murrieta
09-05-2012, 19:29
la versione di msi afterburner è l'ultima disponibile, i clock non me li "vede" ma me li setta in automatico a quei valori come se fossero i più vicini a quelli da me inseriti manualmente.
lo switch del bios è su normal (l'altra opzione non è solo per l'azoto?)
perchè devo portare il voltaggio a 1.03 se è stabile così per come è già ora (non ho toccato nulla finora)
cos'è il vid3d????
ed il clock degli shader se è il doppio del clock della gpu perchè AB mi consente di modificarlo in modo indipendente? che guadagni avrei e che rischi corro? Che valori sono "generalmente" sicuri?
si, l'altro switch è per raffeddamenti estremi (LN2) ma impostandolo con vga con dissy standard ti riporta i clock 3d operativi di una gtx 580 standard...
il VID 3d è il voltaggio 3d impiegato dalla vga per sostanere gli opportuni clock sotto applicazioni 3d (giochi,etc...)...puoi visionarlo tramite software (afterburner,nv inspector,gpu-z,etc...)
non capisco il tuo problema/obiettivo: hai la tua VGA a frequenze differenti da quelle di una comune Lightning e vuoi riportarla a tali clock semplicemente caricando un profilo da afterburner (magari che si carichi in automatico all'avvio di windows) senza flashare il bios?oppure vuoi fare OC e spingerti oltre le frequenze stock della Light?...molto strano che non ti applichi i clock settati e che ti faccia toccare il clock degli shader indipendentemente dal clcok della GPU...
come OC, puoi provare a salire di frequenza GPU oltre gli 850 MHz (quindi shader a 1700) senza fare overvolt...vedi sin dove riesci ad arrivare in questo modo, le mie salgon parecchio senza overvolt sotto bench...per le RAM, a 2200 mhz dovrebbero arrivarci senza overvolt...poi testi,se ti è possibile, i nuovi clock con 3-4 run del bench di Crysis o con i giochi più esigenti prevalentemente...
hai una 5xx o 6xx?
e ti funziona l'occlusione ambientale? io ho provato su disattivato, prestazioni e qualità, facendo degli screen.. vedo solo la giusta differenza in framerate, ma l'occlusione non c'è :doh: :fagiano:
(mesi fa ci ho fatto 400h di gioco tutte con l'occlusione attivata, quindi di sicuro non è che l'occhio mi si sia distratto e ho preso una svista :D )
580 reference asus (è il thread delle 570/580 è ovvio che ho una 500 altrimenti non ti avrei risposto xD) e ho tutto attivo e maxato...
¥º·RG·º¥
09-05-2012, 19:55
bhè ti dirò io la mia la tengo ad 850 quasi senza toccare il voltaggio, immagino di guadagnare qualche frame rispetto alla frequenza normale, considera che dipende molto da quanto sei esigente tu e appassionato, se vuoi benchare guadagni punti, ma se giochi soltanto potresti tenerla benissimo alle frequenze standard...ovviamente questa è una mia considerazione
VID?
580 reference asus (è il thread delle 570/580 è ovvio che ho una 500 altrimenti non ti avrei risposto xD) e ho tutto attivo e maxato...
giusto XD quindi l'occlusione a te funziona normalmente, solo abilitandola dal semplice pannello dei driver, senza usare inspector..?
anche a me è attivabile e maxabile, però poi non viene renderizzata! e la cosa bella è che da prestazioni a qualità a disattivato c'è anche la giusta differenza in framerate ingame, ma in ogni caso non viene rendrizzata! :muro: :doh:
Ciao a < tti> Raga,
Avrei bisogno di qualche consiglio per l'acquisto di una GTX580 3GB...
- Meglio le reference o le OC sempre a parità di 3GB di memoria ...:mbe:???
- Tra questi modelli quale scegliereste e perchè ...:help:???
1) ZOTAC GTX 580 3 Gb AMP² ! Edition
2) EVGA GTX 580 Classified Ultra 3GB
3) Gainward GTX 580 Phantom 3GB
4) MSI GTX580 3GB Lightning Xtreme Edition
5) Gigabyte GTX 580 3GB
6) Palit GTX 580 3GB
- Ne esistono atre ke mi al sfuggono al momento ...:confused:
Grazie in anticipo per le Vostre gentili risposte
Ciao e alla prossima
Nio04 :cool:
io prenderei una evga 580 'liscia' (sempre con i 3gb di ram) e poi ci piazzerei l'accelero :O
evga perchè è una garanzia e ha una vasta comunità di supporto..
l'accelero perchè è il dissi che ti garantisce in assoluto il miglior rapporto temp/silenziosità, però è 3 slot..
la 580 classified la scarterei perchè costa un botto ed è fatta per essere azotata.. e poi non credo che quel dissi possa fare granche.. se la liquidi poi è un altro conto, però sei costretto a prendere la versione hydro copper che costa ancora di più :stordita:
Ciao a < tti> Raga,
Avrei bisogno di qualche consiglio per l'acquisto di una GTX580 3GB...
- Meglio le reference o le OC sempre a parità di 3GB di memoria ...:mbe:???
- Tra questi modelli quale scegliereste e perchè ...:help:???
1) ZOTAC GTX 580 3 Gb AMP² ! Edition
2) EVGA GTX 580 Classified Ultra 3GB
3) Gainward GTX 580 Phantom 3GB
4) MSI GTX580 3GB Lightning Xtreme Edition
5) Gigabyte GTX 580 3GB
6) Palit GTX 580 3GB
- Ne esistono atre ke mi al sfuggono al momento ...:confused:
Grazie in anticipo per le Vostre gentili risposte
Ciao e alla prossima
Nio04 :cool:
EVGA DS Superclocked (http://www.evga.com/products/moreInfo.asp?pn=015-P3-1587-AR&family=GeForce%20500%20Series%20Family&sw=)
http://www.evga.com/PRODUCTS/IMAGES/GALLERY/015-P3-1587-AR_LG_1.jpg
itachi23
10-05-2012, 08:09
VID?
1,037 mi sembra cioè due step in più rispetto allo standard che era 1 tondo se non mi sbaglio, ho dato uno step in + perché con metro era un po' instabile da una certa versione di driver in poi, comunque è bella fresca sto sui 60/65 gradi in full con ventola al 70%, scusami se non sono precisissimo, ma sto andando a ricordo :)
¥º·RG·º¥
10-05-2012, 10:00
1,037 mi sembra cioè due step in più rispetto allo standard che era 1 tondo se non mi sbaglio, ho dato uno step in + perché con metro era un po' instabile da una certa versione di driver in poi, comunque è bella fresca sto sui 60/65 gradi in full con ventola al 70%, scusami se non sono precisissimo, ma sto andando a ricordo :)
La tua quindi è overvoltata di fabbrica, il VID standard parte da 0.960 ;)
illidan2000
10-05-2012, 10:13
EVGA DS Superclocked (http://www.evga.com/products/moreInfo.asp?pn=015-P3-1587-AR&family=GeForce%20500%20Series%20Family&sw=)
mi sa che la voleva da 3gb.
personalmente sono molto attratto dalla amp2 e dalla lightning. per via del dissipatore, ovviamente
TigerTank
10-05-2012, 10:16
io prenderei una evga 580 'liscia' (sempre con i 3gb di ram) e poi ci piazzerei l'accelero :O
evga perchè è una garanzia e ha una vasta comunità di supporto..
l'accelero perchè è il dissi che ti garantisce in assoluto il miglior rapporto temp/silenziosità, però è 3 slot..
la 580 classified la scarterei perchè costa un botto ed è fatta per essere azotata.. e poi non credo che quel dissi possa fare granche.. se la liquidi poi è un altro conto, però sei costretto a prendere la versione hydro copper che costa ancora di più :stordita:
Ormai la gtx580 è superata, secondo me non conviene più prendere un modello nuovo, soprattutto se maggiorato e con 3 Gb di ram. Se proprio solo un eventuale usato a buon prezzo.
Ormai tanto vale aspettare ad esempio le gtx670 che stanno uscendo a meno di 400€.
Ormai la gtx580 è superata
non dire così.. :cry: :asd:
¥º·RG·º¥
10-05-2012, 10:51
non dire così.. :cry: :asd:
:asd: Ormai si aspetta solo il "chippone" :Perfido:
TigerTank
10-05-2012, 11:07
non dire così.. :cry: :asd:
Superata nel senso di generazioni e in riferimento all'acquisto di una scheda nuova, non prestazionalmente parlando perchè in questo è una scheda ancora validissima. :)
belga_giulio
10-05-2012, 11:08
La 580 superata???? :mbe:
Ne riparliamo al limite verso l'autunno del 2013 vah... dai siamo obbiettivi! :p
Finché una cosa svolge il suo compito e lo fa più che bene, non vedo come si possa considerara superata... solo perché ne è uscita una nuova? Ma dai! :)
E' come dire che il Galaxy S2 è superato solo perché è uscito il 3.
Secondo me il solo limite delle 580 era la mancanza di memoria.
Con 3 giga sopra, non ha senso prendere -e parlo di oggi!- una 680 o altri chipponi..
Poi come al solito ognuno fa quello che desidera fare, e nessuno avrà niente da ridire...
Ma obiettivamente, la 580 superata, direi proprio di no.. :D
State tranquilli felici possessoro della scheda (me compreso!). Tenete a bada le scimmie, e aspettate la nuova generazione di console, prima di spendere un sacco di soldi in nuove schede video, così da vedere che nuove richieste dovranno soddisfare i nostri PC, e da lì fare l'acquisto sul nuovo.
E se come si dice le console next-gen monteranno principalmente skede video AMD, mi sa che si dovrà tutti migrare al rosso, per avere il massimo delle ottimizzazioni..
Ciauz!
EDIT: vedo ora il tuo ulteriore post! ;)
itachi23
10-05-2012, 11:10
La tua quindi è overvoltata di fabbrica, il VID standard parte da 0.960 ;)
senti non voglio dire stupidaggini, ora che vado a casa controllo e ti dico sicuro
Secondo me il solo limite delle 580 era la mancanza di memoria.
Con 3 giga sopra, non ha senso prendere -e parlo di oggi!- una 680 o altri chipponi..
Poi come al solito ognuno fa quello che desidera fare, e nessuno avrà niente da ridire...
Ma obiettivamente, la 580 superata, direi proprio di no.. :D
sulla 580 problemi di memoria non ce ne sono visto che supportava massimo 2 monitor, e siamo ulteriolmente ubbiettivi, quanti giochi riuscivano a spomparla a dovere? crysis2, bf3 e the witcher2 e basta!
a parte questo punto di vista differente ti quoto in pieno!
¥º·RG·º¥
10-05-2012, 11:23
La 580 superata???? :mbe:
Ne riparliamo al limite verso l'autunno del 2013 vah... dai siamo obbiettivi! :p
Finché una cosa svolge il suo compito e lo fa più che bene, non vedo come si possa considerara superata... solo perché ne è uscita una nuova? Ma dai! :)
E' come dire che il Galaxy S2 è superato solo perché è uscito il 3.
Secondo me il solo limite delle 580 era la mancanza di memoria.
Con 3 giga sopra, non ha senso prendere -e parlo di oggi!- una 680 o altri chipponi..
Poi come al solito ognuno fa quello che desidera fare, e nessuno avrà niente da ridire...
Ma obiettivamente, la 580 superata, direi proprio di no.. :D
State tranquilli felici possessoro della scheda (me compreso!). Tenete a bada le scimmie, e aspettate la nuova generazione di console, prima di spendere un sacco di soldi in nuove schede video, così da vedere che nuove richieste dovranno soddisfare i nostri PC, e da lì fare l'acquisto sul nuovo.
E se come si dice le console next-gen monteranno principalmente skede video AMD, mi sa che si dovrà tutti migrare al rosso, per avere il massimo delle ottimizzazioni..
Ciauz!
EDIT: vedo ora il tuo ulteriore post! ;)
Ah si bestemmia anche in questo thread :asd: Per quanto riguarda il discorso della 580, si intende superata nel senso che ormai, data l'uscita della nuova serie, è "obsoleta". Ma come hai ben detto tu, svolge ancora tranquillamente il suo compito e l'unico chip in grado di rendere sensata la sostituzione delle nostre schede è il GK110, si parla di un chip da 7miliardi di transistor e scusami se è poco! ;)
senti non voglio dire stupidaggini, ora che vado a casa controllo e ti dico sicuro
Vabene ;)
TigerTank
10-05-2012, 11:25
Circa la vram dipende...io sinceramente non ho mai avuto problemi con 1,5GB. I 3GB (o i 4GB invece che 2 sulla sesta generazione) imho sono importanti se si fa largo uso di mods pesantissime in un gioco (tipo Skyrim) o in configurazioni Sli a risoluzioni esagerate (ad esempio triplo monitor o simili).
Circa la vram dipende...io sinceramente non ho mai avuto problemi con 1,5GB. I 3GB (o i 4GB invece che 2 sulla sesta generazione) imho sono importanti se si fa largo uso di mods pesantissime in un gioco (tipo Skyrim) o in configurazioni Sli a risoluzioni esagerate (ad esempio triplo monitor o simili).
più che dagli esempi da te citati, servono se le utilizzi per lavoro quindi rendering, grafida, editing, ecc
Crasher89
10-05-2012, 11:33
La 580 superata???? :mbe:
Ne riparliamo al limite verso l'autunno del 2013 vah... dai siamo obbiettivi! :p
Finché una cosa svolge il suo compito e lo fa più che bene, non vedo come si possa considerara superata... solo perché ne è uscita una nuova? Ma dai! :)
E' come dire che il Galaxy S2 è superato solo perché è uscito il 3.
Secondo me il solo limite delle 580 era la mancanza di memoria.
Con 3 giga sopra, non ha senso prendere -e parlo di oggi!- una 680 o altri chipponi..
Poi come al solito ognuno fa quello che desidera fare, e nessuno avrà niente da ridire...
Ma obiettivamente, la 580 superata, direi proprio di no.. :D
State tranquilli felici possessoro della scheda (me compreso!). Tenete a bada le scimmie, e aspettate la nuova generazione di console, prima di spendere un sacco di soldi in nuove schede video, così da vedere che nuove richieste dovranno soddisfare i nostri PC, e da lì fare l'acquisto sul nuovo.
E se come si dice le console next-gen monteranno principalmente skede video AMD, mi sa che si dovrà tutti migrare al rosso, per avere il massimo delle ottimizzazioni..
Ciauz!
EDIT: vedo ora il tuo ulteriore post! ;)
ma infatti lui diceva che è superata perchè è fuori la nuova generazione. ma non lo è prestazionalmente parlando.
belga_giulio
10-05-2012, 11:38
sulla 580 problemi di memoria non ce ne sono visto che supportava massimo 2 monitor, e siamo ulteriolmente ubbiettivi, quanti giochi riuscivano a spomparla a dovere? crysis2, bf3 e the witcher2 e basta!
a parte questo punto di vista differente ti quoto in pieno!
Pensando al futuro, ovviamente, 1,5 giga sono pochi.
Se ci devo campare per il resto del 2012 e tutto il 2013, avere avuto almeno 2 giga sarebbe stato meglio no? :)
in quel senso intendevo "limite".. ;)
Ah si bestemmia anche in questo thread :asd: Per quanto riguarda il discorso della 580, si intende superata nel senso che ormai, data l'uscita della nuova serie, è "obsoleta". Ma come hai ben detto tu, svolge ancora tranquillamente il suo compito e l'unico chip in grado di rendere sensata la sostituzione delle nostre schede è il GK110, si parla di un chip da 7miliardi di transistor e scusami se è poco! ;)
Per me qualcosa diventa "superato" e "obsoleto" quando "non basta più, non fa più bene quello che deve fare, o la tecnologia è andata così avanti che davvero si può parlare di obsolescenza"..
Ripeto, le parole non sono state create per essere usate a caso, non c'è parola più sbagliata di "obsoleto" per definire una 580.
Una cosa si cambia quando non fa più bene quello che deve fare, rispetto a ciò che ci serve...
Dai, pensaci, il gk110 potrà avere anche 20 miliardi di transistor... ma stai guardando la cosa da un punto di vista limitato. Nel senso che se a metà del 2013 la mia 580 starà ancora macinando più che bene.... cosa mi servono obiettivamente i 7 miliardi di transistor del gk110?
Riesco a spiegare il mio punto di vista? ;)
Rispetto alle esigenze attuali del mercato videoludico, se hai magari addirittura 2 x 580, allora il gk110 ti è ancora più inutile! Capisci?
Ecco perché davvero vale la pena aspettare di sapere quali saranno i nuovi hardware delle console... perché, siccome la maggior parte dei giochi PC sono porting, da quello si capirà di quanta potenza avremo bisogno....
Ma questo avverrà solo alla fine del 2013...!! :)
Ad oggi abbiamo già tutta la potenza che ci serve sui pc... vuoi non riuscire a far girare tutto appalla, con 2 x 580, da qui fino alla fine del 2013?
Quindi potrebbero far uscire anche la 780, ma se una cosa non serve ancora, c'è poco da fare. ^_^
...io capisco quanto siano riusciti a condizionarci, e a farci credere che si è fighi solo se si prende sempre l'ultimo pezzo di hardware inventato e il più performante...
Ma noi possiamo anche uscire da queste logiche, tutte mirate esclusivamente a farci comprare e comprare, solo per comprare.
Ripeto, ognuno la pensi a modo suo, e faccia ciò che crede sia meglio per sé, nessun problema proprio! :)
Ma non mi si racconti che queste schedone, ad oggi, sono REALMENTE necessarie.
Io aspetterò il 2014 per cambiare la 580 e tutto il pc. ;)
Poiché so che la "robetta" in firma basterà e avanzerà ancora per un anno e mezzo.
Pensando al futuro, ovviamente, 1,5 giga sono pochi.
Se ci devo campare per il resto del 2012 e tutto il 2013, avere avuto almeno 2 giga sarebbe stato meglio no? :)
in quel senso intendevo "limite".. ;)
io sto parlando al presente che ad ampliare così il discorso non si finisce più...volevo rendere le cose più semplici xD
comunque ammettilo pure te...sono pochi quelli in questo thread che terranno la 580 fino a fine 2012 o al massimo inizio 2013 o mi sbaglio? :D
¥º·RG·º¥
10-05-2012, 11:54
Pensando al futuro, ovviamente, 1,5 giga sono pochi.
Se ci devo campare per il resto del 2012 e tutto il 2013, avere avuto almeno 2 giga sarebbe stato meglio no? :)
in quel senso intendevo "limite".. ;)
Per me qualcosa diventa "superato" e "obsoleto" quando "non basta più, non fa più bene quello che deve fare, o la tecnologia è andata così avanti che davvero si può parlare di obsolescenza"..
Ripeto, le parole non sono state create per essere usate a caso, non c'è parola più sbagliata di "obsoleto" per definire una 580.
Una cosa si cambia quando non fa più bene quello che deve fare, rispetto a ciò che ci serve...
Dai, pensaci, il gk110 potrà avere anche 20 miliardi di transistor... ma stai guardando la cosa da un punto di vista limitato. Nel senso che se a metà del 2013 la mia 580 starà ancora macinando più che bene.... cosa mi servono obiettivamente i 7 miliardi di transistor del gk110?
Riesco a spiegare il mio punto di vista? ;)
Rispetto alle esigenze attuali del mercato videoludico, se hai magari addirittura 2 x 580, allora il gk110 ti è ancora più inutile! Capisci?
Ecco perché davvero vale la pena aspettare di sapere quali saranno i nuovi hardware delle console... perché, siccome la maggior parte dei giochi PC sono porting, da quello si capirà di quanta potenza avremo bisogno....
Ma questo avverrà solo alla fine del 2013...!! :)
Ad oggi abbiamo già tutta la potenza che ci serve sui pc... vuoi non riuscire a far girare tutto appalla, con 2 x 580, da qui fino alla fine del 2013?
Quindi potrebbero far uscire anche la 780, ma se una cosa non serve ancora, c'è poco da fare. ^_^
...io capisco quanto siano riusciti a condizionarci, e a farci credere che si è fighi solo se si prende sempre l'ultimo pezzo di hardware inventato e il più performante...
Ma noi possiamo anche uscire da queste logiche, tutte mirate esclusivamente a farci comprare e comprare, solo per comprare.
Ripeto, ognuno la pensi a modo suo, e faccia ciò che crede sia meglio per sé, nessun problema proprio! :)
Ma non mi si racconti che queste schedone, ad oggi, sono REALMENTE necessarie.
Io aspetterò il 2014 per cambiare la 580 e tutto il pc. ;)
Poiché so che la "robetta" in firma basterà e avanzerà ancora per un anno e mezzo.
Il succo del discorso è dunque questo: Il tutto varia da utente ad utente, dalle esigenze e dalla "malattia" che ognuno di noi ha :asd: . Ho afferrato appieno il tuo discorso e tu fai parte di quella utenza che "si accontenta" e porta avanti il suo hardware nel tempo :)
TigerTank
10-05-2012, 12:18
più che dagli esempi da te citati, servono se le utilizzi per lavoro quindi rendering, grafida, editing, ecc
Vero, al di là del settore gaming anche per questo, in caso di grafica 3D senza necessariamente andare ad acquistare una costosa vga professionale :)
ma infatti lui diceva che è superata perchè è fuori la nuova generazione. ma non lo è prestazionalmente parlando.
Sì esatto, in pratica se uno deve prendere una scheda nuova nvidia tanto vale andare di gtx670 a 400€ piuttosto che prendere una gtx580, se invece cerca l'affare nell'usato e ne trova una nel mercatino a tipo 250€ o simili è tutto un altro discorso :)
Uh quella degli update automatici non la sapevo, thank you :D
1 ora di gioco in AC, 1 ora e mezza a DEAD SPACE e un quarto d'ora ad Audiosurf, lo stuttering continua ad esserci solo in AC ma dura tipo un secondo scendendo a 30 fps e a me non è accaduto più di una volta. Pare funzionare :D
Felice di esserti stato d'aiuto ;)
abacostrano
10-05-2012, 12:45
io sto parlando al presente che ad ampliare così il discorso non si finisce più...volevo rendere le cose più semplici xD
comunque ammettilo pure te...sono pochi quelli in questo thread che terranno la 580 fino a fine 2012 o al massimo inizio 2013 o mi sbaglio? :D
per cambiare la mia gtx 580 aspettero l'uscita di crysis 3 :D :D :D
Ma quando escono le nuove console? inizio 2013?!
belga_giulio
10-05-2012, 12:51
Il succo del discorso è dunque questo: Il tutto varia da utente ad utente, dalle esigenze e dalla "malattia" che ognuno di noi ha :asd: . Ho afferrato appieno il tuo discorso e tu fai parte di quella utenza che "si accontenta" e porta avanti il suo hardware nel tempo :)
Mmmhh.. in parte il succo del discorso è quello.. in parte è più complesso. ;)
Al di là di tutto, non mi ritengo uno che si accontenta.
Nel senso che io amo, come voi, giocare al meglio delle possibilità grafiche.
E l'hardware che ho mi permette di farlo, rispetto a quello che offre (e offrirà fino a fine 2013) il mercato prima delle next gen console, e non di accontentarmi e basta. :)
Stai sicuro che se il mio hardware non mi facesse giocare con tutto al massimo, sarei il primo a cercare una nuova VGA o componente.
Il punto è che ho la prova (la mia esperienza di gioco fino ad oggi) e la certezza che VGA più potenti (per giocare, eh) non ne serviranno. Finché i produttori non avranno per le mani i nuovi hardware delle console, non ci saranno vere richieste di potenza così esagerate da richiedere "una 680, altrimenti non posso maxare i filtri"...
E comunque ve lo dice uno che in questo momento avrebbe i soldi per farsi una piattaforma extreme, con SLI di 680 e minchie e pizzi vari....
Ma per che giochi mi servirebbe??????? :mc:
:D Vi adoro, smanettoni miei! Non cambierei forum per nulla al mondo! ;)
Buoni e coscienziosi acquisti!
illidan2000
10-05-2012, 13:08
Il succo del discorso è dunque questo: Il tutto varia da utente ad utente, dalle esigenze e dalla "malattia" che ognuno di noi ha :asd: . Ho afferrato appieno il tuo discorso e tu fai parte di quella utenza che "si accontenta" e porta avanti il suo hardware nel tempo :)
si, concordo.
io ad esempio gioco in 3d oppure a 120hz, quindi dalla 590 sono passato allo sli di 680...
¥º·RG·º¥
10-05-2012, 13:53
Mmmhh.. in parte il succo del discorso è quello.. in parte è più complesso. ;)
Al di là di tutto, non mi ritengo uno che si accontenta.
Nel senso che io amo, come voi, giocare al meglio delle possibilità grafiche.
E l'hardware che ho mi permette di farlo, rispetto a quello che offre (e offrirà fino a fine 2013) il mercato prima delle next gen console, e non di accontentarmi e basta. :)
Stai sicuro che se il mio hardware non mi facesse giocare con tutto al massimo, sarei il primo a cercare una nuova VGA o componente.
Il punto è che ho la prova (la mia esperienza di gioco fino ad oggi) e la certezza che VGA più potenti (per giocare, eh) non ne serviranno. Finché i produttori non avranno per le mani i nuovi hardware delle console, non ci saranno vere richieste di potenza così esagerate da richiedere "una 680, altrimenti non posso maxare i filtri"...
E comunque ve lo dice uno che in questo momento avrebbe i soldi per farsi una piattaforma extreme, con SLI di 680 e minchie e pizzi vari....
Ma per che giochi mi servirebbe??????? :mc:
:D Vi adoro, smanettoni miei! Non cambierei forum per nulla al mondo! ;)
Buoni e coscienziosi acquisti!
si, concordo.
io ad esempio gioco in 3d oppure a 120hz, quindi dalla 590 sono passato allo sli di 680...
;) :cincin:
Vero, al di là del settore gaming anche per questo, in caso di grafica 3D senza necessariamente andare ad acquistare una costosa vga professionale :)
oltretutto conta che l'unica scheda professionale con 512 cuda core come la 580 è la tesla Tesla M2090 per datacenter cluster perchè la quadro 6000 tiene 448 cuda core...a parte la quadro plex che è uno sli di quadro 6000 ma da 512 cuda quindi imo una 580 è sempre la scelta migliore anche se non avrà quell'enorme quantitativo di ram come le quadro e tesla!
per cambiare la mia gtx 580 aspettero l'uscita di crysis 3 :D :D :D
Ma quando escono le nuove console? inizio 2013?!
io sono indeciso...670 o sli 580? :S
per le console non si sa nulla...rumors su specs e avvio produzione ma nulla di più
TigerTank
10-05-2012, 15:22
io sono indeciso...670 o sli 580? :S
Io sono molto tentato dal prendere una gtx670 e se nei prossimi mesi dovessero eventualmente capitarmi situazioni in cui non basta potrei pensare ad uno Sli...
Se però ti interessa il lato professionale di queste schede forse è ancora meglio la gtx580 perchè la nuova generazione mi sembra sia stata un pò castrata in tal senso.
abacostrano
10-05-2012, 15:29
io sono indeciso...670 o sli 580? :S
per le console non si sa nulla...rumors su specs e avvio produzione ma nulla di più
Io sarei andato di sli ma avendo una gtx 580 direct cu non so se sia il caso! :D penso che salterò anche il 110 per poi prendere la futura 780 :O
illidan2000
10-05-2012, 15:49
Io sono molto tentato dal prendere una gtx670 e se nei prossimi mesi dovessero eventualmente capitarmi situazioni in cui non basta potrei pensare ad uno Sli...
Se però ti interessa il lato professionale di queste schede forse è ancora meglio la gtx580 perchè la nuova generazione mi sembra sia stata un pò castrata in tal senso.
diciamo che non c'è una miglioria, ma vanno uguale alle 580, da quanto si legge
SwOrDoFmYdEsTiNy
10-05-2012, 16:42
ragazzi ho una domanda per voi, ho scaricato freemake video converter, come mi è stato consigliato un paio di pagine fà, solo che ho una richiesta, ho convertito dei video (catturati con afterburner, in formato grezzo, degli avi da svariati gb) in mp4 (codec h.264) e nel formato per upparli su youtube, solo che monitorando l'uso della scheda con afterburner, questa è rimasta alle frequenze di risparmio energetico e l'uso era attorno all' 1-2%.
nel menù del programma ho messo la spunta su utilizza cuda.
mi sapete dire come mai?
KingArthas94
10-05-2012, 16:53
Togli il controllo automatico e metti manualmente CUDA, non ricordo le frequenze della mia 570 in uso con quel videoconverter ma la velocità è triplicata, quindi di sicuro funzionava xD
TigerTank
10-05-2012, 17:07
diciamo che non c'è una miglioria, ma vanno uguale alle 580, da quanto si legge
Sei sicuro? Ogni titolo è una storia a sè ma dalle rece che sto guardando mi pare che vada un pò di più della gtx580, con uno scarto anche di 15-20 fps :)
Parlo ovviamente del fullHD, mi interessa solo quella visto che è la risoluzione che userò ancora per parecchio tempo.
illidan2000
10-05-2012, 17:57
Io parlavo di ambito professionale, per chi usa le librerie Cuda. In game la differenza c'e'. Appena mi arriva la seconda 680 posto i miei test, ma già una ha le stesse identiche prestazioni della 590
Inviato dal mio GT-N7000 usando Tapatalk
SwOrDoFmYdEsTiNy
10-05-2012, 18:02
Togli il controllo automatico e metti manualmente CUDA, non ricordo le frequenze della mia 570 in uso con quel videoconverter ma la velocità è triplicata, quindi di sicuro funzionava xD
ho capito il problema, bisogna fare una passato singola e non quella doppia, altrimenti la gpu non viene usata u.u
TigerTank
10-05-2012, 18:10
Io parlavo di ambito professionale, per chi usa le librerie Cusano. In game la differenza c'e'. Appena mi arriva la seconda 680 posto i miei test, ma già una ha le stesse identiche prestazioni della 590
Inviato dal mio GT-N7000 usando Tapatalk
Ok, grazie. Ora mi è chiaro ;)
non capisco il tuo problema/obiettivo: hai la tua VGA a frequenze differenti da quelle di una comune Lightning e vuoi riportarla a tali clock semplicemente caricando un profilo da afterburner (magari che si carichi in automatico all'avvio di windows) senza flashare il bios?oppure vuoi fare OC e spingerti oltre le frequenze stock della Light?...molto strano che non ti applichi i clock settati e che ti faccia toccare il clock degli shader indipendentemente dal clcok della GPU...
io voglio una lightning che funzioni con le frequenze di una lightning, non mi interessa l'OC (per ora), e mi chiedevo se ottenere il risultato tramite AB o tramite flash del BIOS sia "prestazionalmente" equivalente
anche io mi chiedo perchè AB non mi consente di impostare 832/2100 (e me le passa a 830/2109) :confused:
Togli il controllo automatico e metti manualmente CUDA, non ricordo le frequenze della mia 570 in uso con quel videoconverter ma la velocità è triplicata, quindi di sicuro funzionava xD
Ho fatto qualche prova al volo. Fra Cuda abilitato e non (verificato anche da GpuZ), col mio pc guadagno 3-4 secondi per minuto. Daccordo che ho un i7@4.5GHz, ma questo cuda ha sempre promesso miracoli... Ed io non ne ho mai trovati!
TigerTank
10-05-2012, 21:51
anche io mi chiedo perchè AB non mi consente di impostare 832/2100 (e me le passa a 830/2109) :confused:
Probabilmente perchè sia frequenze che voltaggi vanno a piccoli step :)
itachi23
10-05-2012, 22:13
Ah si bestemmia anche in questo thread :asd: Per quanto riguarda il discorso della 580, si intende superata nel senso che ormai, data l'uscita della nuova serie, è "obsoleta". Ma come hai ben detto tu, svolge ancora tranquillamente il suo compito e l'unico chip in grado di rendere sensata la sostituzione delle nostre schede è il GK110, si parla di un chip da 7miliardi di transistor e scusami se è poco! ;)
Vabene ;)
Mi sa che era overvoltata come hai detto tu, + o - stava intorno ad 1 volt e 783 Mhz, mi sembra che con 1 volt teneva bene gli 800 e 1,038 sto a 850 rs :D
Probabilmente perchè sia frequenze che voltaggi vanno a piccoli step :)
si mA 832/2100 sono (o dovrebbero essere) le frequenze di default delle lightning, e quindi dovrebbero essere accettate.
comunque la mia è solo una curiosità, tanto che volete che cambi tra 832 e830 di core clock e tra 2100 e 2109 di mem clock????
murrieta
10-05-2012, 22:25
si mA 832/2100 sono (o dovrebbero essere) le frequenze di default delle lightning, e quindi dovrebbero essere accettate.
comunque la mia è solo una curiosità, tanto che volete che cambi tra 832 e830 di core clock e tra 2100 e 2109 di mem clock????
non cambia assolutamente niente tra 830 e 832,tranquillo...pero' è strana sta cosa di afterburner,è la prima volta che mi capita di sentirlo...dovresti provare a flasharle il bios di una Lightning normale per vedere se sto inconveniente si ripresenta...che revision ha il tuo bios?
Dr.Speed
10-05-2012, 22:29
non cambia assolutamente niente tra 830 e 832,tranquillo...pero' è strana sta cosa di afterburner,è la prima volta che mi capita di sentirlo...dovresti provare a flasharle il bios di una Lightning normale per vedere se sto inconveniente si ripresenta...che revision ha il tuo bios?
anche la mia 570GTX GLH lascia incrementare solo a step, non solo con afterburner ma anche con nvidiaInspector
ho capito il problema, bisogna fare una passato singola e non quella doppia, altrimenti la gpu non viene usata u.u
Esattamente, il double pass è una procedura più lunga ed elaborata di encoding quindi si appoggia alla CPU ;)
non cambia assolutamente niente tra 830 e 832,tranquillo...pero' è strana sta cosa di afterburner,è la prima volta che mi capita di sentirlo...dovresti provare a flasharle il bios di una Lightning normale per vedere se sto inconveniente si ripresenta...che revision ha il tuo bios?
dove la controllo la revision del bios? Sai che mi sta venendo il dubbio che il tizio da cui la ho comprata abbia fatto qualcosa di strano (tipo flashare il bios di una 580 normale non light):confused:
anche se non è che poi sia sto gran problema, è comunque una bomba...e sto prendendo la seconda (:D :D :D :D )
il fw lo vedi da GPU-Z ..vedi anche se MSI ha rilasciato aggiornamenti.. EVGA ogni tanto ne rilascia..
dove la controllo la revision del bios? Sai che mi sta venendo il dubbio che il tizio da cui la ho comprata abbia fatto qualcosa di strano (tipo flashare il bios di una 580 normale non light):confused:
anche se non è che poi sia sto gran problema, è comunque una bomba...e sto prendendo la seconda (:D :D :D :D )
su gpu-z. Leggendo su vari forum e msi, capita di trovare lightning con frequenza di default di una 580, cosa che non viene detto da msi, e ovviamente non ce scritto neanche sulla scatola della vga.. cosa che è capitato anche a me e grazie all'utente murrieta ho flashato il bios ;)
Fortunato te, stavo prendendo anche io la seconda, ma il mio dog non ma fatto fare un po di soldi ora :D
il fw lo vedi da GPU-Z ..vedi anche se MSI ha rilasciato aggiornamenti.. EVGA ogni tanto ne rilascia..
la versione di AB è la 2.2.0.0, il bios è il 70.10.17.00.00(P1261-0002)
su gpu-z. Leggendo su vari forum e msi, capita di trovare lightning con frequenza di default di una 580, cosa che non viene detto da msi, e ovviamente non ce scritto neanche sulla scatola della vga.. cosa che è capitato anche a me e grazie all'utente murrieta ho flashato il bios ;)
Fortunato te, stavo prendendo anche io la seconda, ma il mio dog non ma fatto fare un po di soldi ora :D
la mie curiosità (non so se hai letto i post precedenti, quindi riassumo) sono:
1- ottengo le stesse prestazioni se faccio il flash del bios o se imposto manualmente le frequenze con AB? (questa curiosità ha un risvolto pratico)
2- se il flash del bios garantisce prestazioni migliori (rispetto alle stesse frequenze impostate tramite AB), come si esegue????
3- perchè AB non mi consente di impostare 832/2100 ma switcha in automatico a 830/2109? se 832/2100 sono frequenze "standard" per le lightning, perchè a me AB non le lascia impostare ma imposta lo step più vicino (questa è davvero solo una curiosità perche la differenza è davvero minuscola)
no, non intendo aggiornamenti di AB.. ma proprio aggiornamenti del fw della vga!.. evga li fa.. msi non so.. però può darsi, perchè anche di quelli evga non è che se ne parli molto.. anzi, molto non lo sanno.. bisogna andarsi a spulciare il loro forum per trovarli, però sono aggiornamenti assolutamente ufficialissimi..
scusa ma non lo vedo, dove è scritto il firmware?
http://img407.imageshack.us/img407/9061/20120512005353.jpg
illidan2000
12-05-2012, 08:03
scusa ma non lo vedo, dove è scritto il firmware?
http://img407.imageshack.us/img407/9061/20120512005353.jpg
bios = firmware
ragazzi una informazione riguardo il voltaggio....
ma undervoltare causa temperature potrebbe portare la vga a qualche danno?
tanto le freq default le tiene trancuillamente con parecchio meno vgpu....a pieno giovamento temperature
¥º·RG·º¥
12-05-2012, 17:02
ragazzi una informazione riguardo il voltaggio....
ma undervoltare causa temperature potrebbe portare la vga a qualche danno?
tanto le freq default le tiene trancuillamente con parecchio meno vgpu....a pieno giovamento temperature
Potrebbe causarti instabilita, ma fatto sta che al di sotto di 0.825 non si puo scendere, è un limite imposto da Nvidia..
Potrebbe causarti instabilita, ma fatto sta che al di sotto di 0.825 non si puo scendere, è un limite imposto da Nvidia..
la mia arriva a max 0.963v...da 1.038v
il che si traduce da 80° in full aneanche 70....
ed è assolutanmente stabile...io intendo se potesse in un certo qual modo arrecare danni al chip gpu.....
purtroppo ho dovuto cambiare slot pci-e (in quanto misteri dell'hardware nel primo non parte) questo in mezzo ai 3 totali sì...però prende poca aria salendo in default con ventola al 60% a 49°......è tanto sec voi per l'idle??
ho provato a rimettere la vga nel primo slot.....
all'avvio di win ha riconosciuto la stessa e chiesto il riavvio.....lo ho fatto si è riavviato normalmente......ha segnato 10 gradi e + in meno ma al sec riavvio carica tutto.......ma al desktop schermo nero si sente la musichetta d'avvio win....quindo pc si avvia ma il monitor resta in standby........
in modalità provvisoria(da dove scrivo) va....bo....
niente ora va.....si è avviato ....penso + al monitor a sto punto......
mefistole1978
21-05-2012, 12:38
ragazzi ho messo le schede in sli ma la temperatura arriva ad oltre gli 80 gradi, ho una maximus extreme z ho usato lo slot 1-3 ma stanno veramente troppo attaccate che dite le metto su slot 1-4 o le lascio cosi a 80 gradi la prima scheda e 65 la seconda?
Goofy Goober
21-05-2012, 12:51
ragazzi ho messo le schede in sli ma la temperatura arriva ad oltre gli 80 gradi, ho una maximus extreme z ho usato lo slot 1-3 ma stanno veramente troppo attaccate che dite le metto su slot 1-4 o le lascio cosi a 80 gradi la prima scheda e 65 la seconda?
80 gradi sono normali...
le 2 EVGA reference in SLI facevano 86 gradi la prima e 82 la seconda in piena estate.
te hai le MATRIX quindi è normale che la scheda più in alto si prende tutta l'aria calda della scheda sotto e sta più calda.
le custom con dispersione dell'aria nel case non son pensate per lo SLI... cmq 80 gradi sono normali e ben entro il limite di sicurezza. preoccupati se arrivi a 90 e li superi.
mefistole1978
21-05-2012, 13:21
80 gradi sono normali...
le 2 EVGA reference in SLI facevano 86 gradi la prima e 82 la seconda in piena estate.
te hai le MATRIX quindi è normale che la scheda più in alto si prende tutta l'aria calda della scheda sotto e sta più calda.
le custom con dispersione dell'aria nel case non son pensate per lo SLI... cmq 80 gradi sono normali e ben entro il limite di sicurezza. preoccupati se arrivi a 90 e li superi.
grazie goofy ma se le sposto su slot 1-4 invece che 1-3? perdo in prestazioni o e' uguale,grazie mille
Goofy Goober
21-05-2012, 13:23
grazie goofy ma se le sposto su slot 1-4 invece che 1-3? perdo in prestazioni o e' uguale,grazie mille
dipende da cosa supporta la tua scheda madre.
finchè le fai andare almeno su PCI-E 2.0 a 8X-8X non perdi nulla rispetto al 16X.
occhio che alcune schede ASUS non riescono ad attivare lo SLI a 2 schede in caso siano montate su slot "non previsti". idealmente è sempre meglio lasciarle negli slot che sono indicati sul manuale di istruzioni come consigliati, per non incorrere in problematiche varie.
io la ho dovuta mettere forzatamente nello slot intermedio in quanto nel primo superiore non parte e gpuz riporta:
bus interface pci-e 2.0x16@x8 2.0
swignifica da 16 va a 9 per immagino..... sarebbe un problema?
Goofy Goober
21-05-2012, 13:39
a volte GPU-Z sbaglia, comunque anche se per qualche problema non specificato una scheda singola in uno slot a 16x ti va a 8x, ci perdi nulla.
a volte GPU-Z sbaglia, comunque anche se per qualche problema non specificato una scheda singola in uno slot a 16x ti va a 8x, ci perdi nulla.
non so se hai presente la mia main....
ci stanno 3 solt....
quello + vicino alla cpu il primo in alto....quello intermedio a centro dove stà messa ed il terzo quasi ai piedi del case...
ora non saprei esattamente quanti slot la main ha a 16 o 8x....gpuz vede come su ho scritto...:)
che poi sta storia che ha del primo slot cosa sia bo......
se nel primo avvio in modalita provvisoria va ......
in quella normale carica logo tutto ma alla schermata dove appare il desktop il monitor va in standby......
Goofy Goober
21-05-2012, 13:52
non so se hai presente la mia main....
ci stanno 3 solt....
quello + vicino alla cpu il primo in alto....quello intermedio a centro dove stà messa ed il terzo quasi ai piedi del case...
ora non saprei esattamente quanti slot la main ha a 16 o 8x....gpuz vede come su ho scritto...:)
se nel primo slot, ossia il PCI-E 16X, il pc non parte, probabile che la main abbia problemi, potresti fartela cambiare in garanzia, non è normale che non parta.
lo slot intermedio, in bianco, è normale vada a 8X, se leggi sul manuale vedi che è uno slot PCI-E 16X limitato a 8X
è il primo l'unico slot 16X che va a 16X con scheda singola, e scende a 8X con SLI o Crossfire (mentre il secondo va sempre a 8X.
l'ultimo slot, il nero, è a 4X, da usare solo con altri tipi di schede, non schede video, o cmq, non schede video atte all'elaborazione intensiva.
se nel primo slot, ossia il PCI-E 16X, il pc non parte, probabile che la main abbia problemi, potresti fartela cambiare in garanzia, non è normale che non parta.
lo slot intermedio, in bianco, è normale vada a 8X, se leggi sul manuale vedi che è uno slot PCI-E 16X limitato a 8X
è il primo l'unico slot 16X che va a 16X con scheda singola, e scende a 8X con SLI o Crossfire (mentre il secondo va sempre a 8X.
l'ultimo slot, il nero, è a 4X, da usare solo con altri tipi di schede, non schede video, o cmq, non schede video atte all'elaborazione intensiva.
capito grazie....;)
vallo a capire...:rolleyes:
adesso sul primo funge....ed effettivamente ora gpuz riporta 16x@16x
Goofy Goober
21-05-2012, 14:20
vallo a capire...:rolleyes:
adesso sul primo funge....ed effettivamente ora gpuz riporta 16x@16x
Beh dai ottimo :D
magari la prima volta che avevi montato non era inserita bene fino in fondo, chissà, basta poco per far "scazzare" tutto :)
mefistole1978
21-05-2012, 16:27
dipende da cosa supporta la tua scheda madre.
finchè le fai andare almeno su PCI-E 2.0 a 8X-8X non perdi nulla rispetto al 16X.
occhio che alcune schede ASUS non riescono ad attivare lo SLI a 2 schede in caso siano montate su slot "non previsti". idealmente è sempre meglio lasciarle negli slot che sono indicati sul manuale di istruzioni come consigliati, per non incorrere in problematiche varie.
grazie ancora goofy ho fatto la prova messe su slot 1-4 una sta a 8x e la seconda su slot 4 sta a 16x... temperature 60\65 max ventole a default ma su bf3 scatta un po devo vedere meglio invece sotto bench tipo 3dmark ecc il risultato e identico
¥º·RG·º¥
22-05-2012, 17:30
Ragazzi volevo segnalarvi l'uscita dei nuovi WHQL ;)
http://www.nvidia.it/object/win7-winvista-64bit-301.42-whql-driver-it.html
ironman72
22-05-2012, 17:30
Ragazzi volevo segnalarvi l'uscita dei nuovi WHQL ;)
http://www.nvidia.it/object/win7-winvista-64bit-301.42-whql-driver-it.html
Battuto sul tempo:)!!
KingArthas94
22-05-2012, 17:37
Se li provate fateci sapere come girano, io li ho in Download ma aspetto qualche commento a riguardo :3
Orkozzio
22-05-2012, 17:40
Se li provate fateci sapere come girano, io li ho in Download ma aspetto qualche commento a riguardo :3
Se riesco stasera li provo magari in bf3.. visto che gli ultimi della serie 300 mi davano instabilità sulla mia 580 dcu... spero abbiano risolto il problema!;)
Goofy Goober
22-05-2012, 17:49
io sto gia usando da qualche settimana i BETA della stessa versione, se può interessare vanno bene.
niente continui crash se metto la vga nello slot a 16x.....
quindi dite che non fa + di tanto differenza il 16 dall'8x?
murrieta
22-05-2012, 17:56
io sto gia usando da qualche settimana i BETA della stessa versione, se può interessare vanno bene.
quoto, anch'io nessun problema con i 301.24 e gtx 580 in SLI...tuttavia curioso di metter su gli ultimi WHQL ;)
¥º·RG·º¥
22-05-2012, 18:41
Io li ho su e sto testando con Far Cry 2, 0 problemi per adesso! Un piccolo bug da segnalare: In SLI, AB mi segna l'utilizzo della memoria della 2 GPU fissa a 4194304Mb :rolleyes:
ragazzi proprio spassionatamente sec voi val la candela rimandare la main in rma per il motivo prima citato?
e tutte le noie di rito quali...tempistica spedizioni e bla bla bla per lo slot 16 vs 8x?
dove si nota nei giochi?
bench?
Orkozzio
22-05-2012, 20:05
I driver vanno bene, sono parecchio fluidi in bf3 tranne che mi han dato uno strano errore rimandandomi al desktop... del tipo out of memoriy e tanta altra roba... :eek: c'è scritto se ho una scheda video con almeno 512 mega di ram... ma che succede?!:(
¥º·RG·º¥
22-05-2012, 20:44
Rettifica: Con un nuovo riavvio il problemino della lettura della memoria usata dalla 2 GPU è sparito ;)
effetto dell' 8x?
o della
mi riferisco al punteggio così basso......
o della physx spostata alla cpu?
screen rimosso è 33200p
¥º·RG·º¥
23-05-2012, 10:17
effetto dell' 8x?
o della
mi riferisco al punteggio così basso......
o della physx spostata alla cpu?
cut
Ridimensiona l'immagine per favore, che fa sforare il thread. Per il resto, sarebbe meglio che tu facessi un bel Vantage o un 3D11, il 3D06 ormai è obsoleto :read:
Ridimensiona l'immagine per favore, che fa sforare il thread. Per il resto, sarebbe meglio che tu facessi un bel Vantage o un 3D11, il 3D06 ormai è obsoleto :read:
siccome paragono lo screen ad uno sempre da me fatto ma con una gtx 470 e dava 32000...a notevolmente freq+bassa ho pensato bene di fare questo....
seppur obsoleto non è basso ?
o magari in linea e sto pippandomi il cervello per niente con questo cavolo di 16x@8x?
per quanto riguarda l'img da quando non lo so fare la ho caricata e presa così...ma nessun prob la levo
¥º·RG·º¥
23-05-2012, 10:34
siccome paragono lo screen ad uno sempre da me fatto ma con una gtx 470 e dava 32000...a notevolmente freq+bassa ho pensato bene di fare questo....
seppur obsoleto non è basso ?
o magari in linea e sto pippandomi il cervello per niente con questo cavolo di 16x@8x?
per quanto riguarda l'img da quando non lo so fare la ho caricata e presa così...ma nessun prob la levo
Ormai io mi sono un po arruginito sul 3D06, ma per quanto riguarda il discorso del 16x@8x posso dirti che la "perdita" è davvero minima: si parla di circa il 6% che tradotto in FPS sarebbero 1-2, quindi dormi sonni tranquilli in quanto non hai alcun calo prestazionale notevole ;)
Ormai io mi sono un po arruginito sul 3D06, ma per quanto riguarda il discorso del 16x@8x posso dirti che la "perdita" è davvero minima: si parla di circa il 6% che tradotto in FPS sarebbero 1-2, quindi dormi sonni tranquilli in quanto non hai alcun calo prestazionale notevole ;)
come non detto ;)
ragazzi...mi potete consigliare un voltaggio da non superare con la 570 in daily(1-2ore di gioco) modello Palit Sonic Platinum
¥º·RG·º¥
23-05-2012, 14:25
ragazzi...mi potete consigliare un voltaggio da non superare con la 570 in daily(1-2ore di gioco) modello Palit Sonic Platinum
Per un daily 1063, per sessioni di bench puoi spingerti anche al massimo: 1100 ;)
Per un daily 1063, per sessioni di bench puoi spingerti anche al massimo: 1100 ;)
io salgo a 1.075 e 910-(2100-2150) dipende dai giochi...le temp a me sono tranquille...raramente sui 70
¥º·RG·º¥
23-05-2012, 14:35
io salgo a 1.075 e 910-(2100-2150) dipende dai giochi...le temp a me sono tranquille...raramente sui 70
Non ti serve assolutamente a nulla tutto quell'OC sulla GPU durante le sessioni di game, discorso diverso invece nei bench. Io ti consiglio di assestarti sugli 850Mhz con 1.050 e 2000 sulle memorie. Salire oltre e troppo con il core porta ad un surriscaldamento eccessivo dei VRM che non puoi monitorare tramite software ed essendo molto delicati potrebbero guastarsi. Anche occare troppo le memorie non ti serve a nulla in quanto il guadagno in termini di FPS è risibile (1-2FPS) ma con un rischio di artefatti e instabilita piu alto.. ;)
Non ti serve assolutamente a nulla tutto quell'OC sulla GPU durante le sessioni di game, discorso diverso invece nei bench. Io ti consiglio di assestarti sugli 850Mhz con 1.050 e 2000 sulle memorie. Salire oltre e troppo con il core porta ad un surriscaldamento eccessivo dei VRM che non puoi monitorare tramite software ed essendo molto delicati potrebbero guastarsi. Anche occare troppo le memorie non ti serve a nulla in quanto il guadagno in termini di FPS è risibile (1-2FPS) ma con un rischio di artefatti e instabilita piu alto.. ;)
la mia default è 800-2000...credo che 900 e 2100 non facciano danno...e ho visto su internet che la palit dissipa anche i vrm
¥º·RG·º¥
23-05-2012, 14:42
la mia default è 800-2000...credo che 900 e 2100 non facciano danno...e ho visto su internet che la palit dissipa anche i vrm
Il tuo "default" = OC di fabbrica, le reference escono a 732/1464/1900. Comunque vabene, lasciala allora a 900/1800/2100 ;)
Il tuo "default" = OC di fabbrica, le reference escono a 732/1464/1900. Comunque vabene, lasciala allora a 900/1800/2100 ;)
grazie...tu hai mai fatto test su una sola 570...vorrei confrontare i punteggi per vedere se il mio q9550 riesce a sfruttarla del tutto
¥º·RG·º¥
23-05-2012, 14:53
grazie...tu hai mai fatto test su una sola 570...vorrei confrontare i punteggi per vedere se il mio q9550 riesce a sfruttarla del tutto
Ecco a te i miei Vantage ;)
P28364 - 27439 - 31553 | GTX570 @905/1810/2100 | i7 2600k @4.7Ghz | 295.51 | Link | ¥º·RG·º¥ (PPU Disabled)
P32304 - 26878 - 81901 | GTX570 @900/1800/2100 | i7 2600k @4.6Ghz | 295.51 | Link | ¥º·RG·º¥ (PPU Enabled)
P50764 - 45114 - 81313 | 2-Way SLI GTX570 @ 905/1810/2000 | i7 2600k @4.7 | 301.24 | Link | ¥º·RG·º¥ (SLI PPU Enabled)
Ecco a te i miei Vantage ;)
P28364 - 27439 - 31553 | GTX570 @905/1810/2100 | i7 2600k @4.7Ghz | 295.51 | Link | ¥º·RG·º¥ (PPU Disabled)
P32304 - 26878 - 81901 | GTX570 @900/1800/2100 | i7 2600k @4.6Ghz | 295.51 | Link | ¥º·RG·º¥ (PPU Enabled)
P50764 - 45114 - 81313 | 2-Way SLI GTX570 @ 905/1810/2000 | i7 2600k @4.7 | 301.24 | Link | ¥º·RG·º¥ (SLI PPU Enabled)
quando torno a casa rimetto i vecchi driver e faccio i test e ti faccio sapere:cool:
risolto(pare) il problema slot.....ora 16x@16x....
ma un altro ne è ora :D
cioè all'apertura di gpu-z:
pci-e 2.0x16@x16 2.0
dopo qualche sec diventa
pci-e 1.1x16@x16 1.1
chi capisce? :D
e non so cmq a quanti frame corrispondano in game ma dall'8x al 16x il punteggio 3dmark è stato superiore di 2000p
¥º·RG·º¥
23-05-2012, 17:02
risolto(pare) il problema slot.....ora 16x@16x....
ma un altro ne è ora :D
cioè all'apertura di gpu-z:
pci-e 2.0x16@x16 2.0
dopo qualche sec diventa
pci-e 1.1x16@x16 1.1
chi capisce? :D
E' il PCI che va in risparmio energetico, non appena avvii qualche applicazione 3D subito ritorna a 2.0 ;)
E' il PCI che va in risparmio energetico, non appena avvii qualche applicazione 3D subito ritorna a 2.0 ;)
obligato....;)
vuoi sapere come risolto?
chi capisce sti così sarà un genio.......:D
portando il bus cpu da 100.0 a 101.1 mhz si è risolto tutto anche con cpu + alta di freq e meno vcore.....
¥º·RG·º¥
23-05-2012, 17:12
obligato....;)
vuoi sapere come risolto?
chi capisce sti così sarà un genio.......:D
portando il bus cpu da 100.0 a 101.1 mhz si è risolto tutto anche con cpu + alta di freq e meno vcore.....
Testa pero di nuovo la stabilita del sistema, perche nei SB l'aumento del BLCK potrebbe portare instabilita... ;)
Testa pero di nuovo la stabilita del sistema, perche nei SB l'aumento del BLCK potrebbe portare instabilita... ;)
già fatto ;) e paradossalmente a 53mhz di cpu in + è + stabile con meno v
nel senso che prima a 4700mhz a 1.31v ed ora a 4753mhz 1.28v e sto ancora provando a limare qualcosa :)
Se li provate fateci sapere come girano, io li ho in Download ma aspetto qualche commento a riguardo :3
Maggiori info sui nuovi driver rispetto i 296.10 che ormai uso e do come i migliori per la nostra serie?
Ne vale cambiare coi 301.42 oppure continuano ad essere instabili come i 301.24?
Che avevo provato ma in moltissimi giochi ho avuto un notevole calo prestazoinale.. :eek:
Maggiori info sui nuovi driver rispetto i 296.10 che ormai uso e do come i migliori per la nostra serie?
Ne vale cambiare coi 301.42 oppure continuano ad essere instabili come i 301.24?
Che avevo provato ma in moltissimi giochi ho avuto un notevole calo prestazoinale.. :eek:
sottoscrivo!!qualcuno ha provato? i 296.10 sono solidi come il cemento armato....difficile fare di meglio secondo me..anzi, facile fare di peggio!
KingArthas94
24-05-2012, 13:01
Installati, farò le dovute prove :D
mefistole1978
24-05-2012, 13:09
sottoscrivo!!qualcuno ha provato? i 296.10 sono solidi come il cemento armato....difficile fare di meglio secondo me..anzi, facile fare di peggio!
confermo i migliori restano i 296.10, i driver successivi hanno cali di fps specialmente in sli, ES. sul bench di batman addirittura come minimi scendeva a 8fps e max 26fps ma siamo matti, con i 296.10 tutto alla grande
confermo i migliori restano i 296.10, i driver successivi hanno cali di fps specialmente in sli, ES. sul bench di batman addirittura come minimi scendeva a 8fps e max 26fps ma siamo matti, con i 296.10 tutto alla grande
Confermo anch'io col mio SLi prestazioni dimezzate quando provai i 300 beta, pazzesco. :confused:
Domanda che non centra con la questione driver,
ma i problemi di sfarfallio dell'immagine noti anche come flickering che si manifestano con SLi + monitor 120hz in taluni giochi, sono risolvibili o ci si deve dare per rassegnati e impostare 60hz nel gioco che manifesta il problema?
Qualcuno ha riscontrato il mio stesso difetto?
dariscad
24-05-2012, 20:11
Una 580 GTX hydro copper2 in OC come prestazioni equivale ad una 670 gtx?
illidan2000
24-05-2012, 20:25
Una 580 GTX hydro copper2 in OC come prestazioni equivale ad una 670 gtx?
Un po meno credo
Inviato dal mio GT-N7000 usando Tapatalk
Goofy Goober
24-05-2012, 22:53
Una 580 GTX hydro copper2 in OC come prestazioni equivale ad una 670 gtx?
no assolutamente. la 670gtx praticamente va come una 680gtx che ha di media il 30% in più di prestazioni ingame rispetto alla 580gtx
TigerTank
24-05-2012, 23:36
no assolutamente. la 670gtx praticamente va come una 680gtx che ha di media il 30% in più di prestazioni ingame rispetto alla 580gtx
Senza contare che salgono anche parecchio, specialmente le custom :)
Ma possibile che la vga in firma non basta per bf3 ?!?
Quando gioco (solo single player, mai on-line) e anche quando guardo i filmati si creano delle righine ogni tanto ... non è che mi diano fastidio, è solo che pensavo che non ci fosse bisogno di ocare questa scheda per avere bf3 al max delle impostazioni video ...
che ne pensate ?!?
Per la cronaca, la scheda senza oc sta a cc800/sc1600/mc2048.
ThePunisher
25-05-2012, 11:50
Ma possibile che la vga in firma non basta per bf3 ?!?
Quando gioco (solo single player, mai on-line) e anche quando guardo i filmati si creano delle righine ogni tanto ... non è che mi diano fastidio, è solo che pensavo che non ci fosse bisogno di ocare questa scheda per avere bf3 al max delle impostazioni video ...
che ne pensate ?!?
Per la cronaca, la scheda senza oc sta a cc800/sc1600/mc2048.
Non è che stai parlando semplicemente del fatto che non hai abilitato il V-SYNC?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.