View Full Version : [THREAD UFFICIALE - GF110] Geforce GTX580/570
itachi23
03-03-2012, 15:24
grazie per le risposte :D Beh, alla fine il mio intento sarà (dico sarà perchè ora sono relativamente povero, quindi 300 euro non li ho :D ) quello di stare al passo con i tempi, e dato che ora ci stò perfettamente dentro con una 6850, con il solo limite delle dx11 (relativamente all'ambizione dei 60fps fissi o quasi), con una 570 sicuramente non avrò problemi credo per un paio di anni di console/giochi nextgen. Poi sicuramente farò un upgrade di tutto l'hw, ma per ora proprio non me la sento, questo hw l'ho recuperato a settembre da uno pseudoserver da ufficio usato pochissimo e l'ho risistemato per bene quindi cambiare subito mi sembra uno spreco.
Se non hai grosse scimmie (giochi che proprio non riesci a giocare come vorresti) non cambiare, osserva il mercatino e soprattutto aspetta l'uscita delle kepler e giudica tu il momento di cambiare, io mi sento di consigliarti questo ;)
pierluigi74
03-03-2012, 17:35
Se non hai grosse scimmie (giochi che proprio non riesci a giocare come vorresti) non cambiare, osserva il mercatino e soprattutto aspetta l'uscita delle kepler e giudica tu il momento di cambiare, io mi sento di consigliarti questo ;)
quoto, ma okkio alle scimmie :sofico:
NeverKnowsBest
03-03-2012, 18:54
Se non hai grosse scimmie (giochi che proprio non riesci a giocare come vorresti) non cambiare, osserva il mercatino e soprattutto aspetta l'uscita delle kepler e giudica tu il momento di cambiare, io mi sento di consigliarti questo ;)
Sicuro, aspetterò almeno 2 mesi prima di fare un passo del genere, magari con le nuove uscite serie 6 queste di serie 5 scenderanno di prezzo agevolando l'acquisto. Per le scimmie si, in effetti si tratta di quello perchè la 6850 è stato un ottimo acquisto, attualmente ho problemi solo con crysis/crysis 2 e lost planet in dx11
ah ah, le scimmie...
che poi nel nostro ambito, sono loro a comandare!!:D :D
raga,
ho un problema
ho comrpato credo mercoledi, sul forum una gtx 580 che a quanto pare ha il bios flashato con frequenze a default 850/1600
è una Zotac AMP
che prontamente ho messo sotto liquido con l'alphacool
oggi da un certo punto in poi mi schizzavano le temp a 96 98 gradi e un paio di volte il monitor mi andava in standbye probabilmente xke la vga era troppo calda
dubbio
se i pad che ho trovato nella confezione sono troppo spessi e probabilmente la gpu non aderiva bene al rame ho danneggiato la vga?
l'ho rimessa ad aria sempre ma ho cmq dovuto usare i pad che avevo e che a occhio o meglio controllando con il metro e non avendo il calibro mi risultano essere almeno 2 mm e dico almeno
se compro pad piu sottili dite che ripristino o che devo buttare la vga?
ThePunisher
04-03-2012, 11:31
raga,
ho un problema
ho comrpato credo mercoledi, sul forum una gtx 580 che a quanto pare ha il bios flashato con frequenze a default 850/1600
è una Zotac AMP
che prontamente ho messo sotto liquido con l'alphacool
oggi da un certo punto in poi mi schizzavano le temp a 96 98 gradi e un paio di volte il monitor mi andava in standbye probabilmente xke la vga era troppo calda
dubbio
se i pad che ho trovato nella confezione sono troppo spessi e probabilmente la gpu non aderiva bene al rame ho danneggiato la vga?
l'ho rimessa ad aria sempre ma ho cmq dovuto usare i pad che avevo e che a occhio o meglio controllando con il metro e non avendo il calibro mi risultano essere almeno 2 mm e dico almeno
se compro pad piu sottili dite che ripristino o che devo buttare la vga?
Molto difficile danneggiare la VGA anche raggiungendo temperature limite, vista la protezione hardware che prima cala le prestazioni e poi la spegne.
In ogni caso fai anche presto a verificarlo.
Scarica:
http://www.techpowerup.com/downloads/1383/GPUTool_Community_Technology_Preview_1.html
Pochi secondi di test dovrebbero essere sufficienti per verificare la bontà della scheda.
Poliacido
04-03-2012, 12:55
raga,
ho un problema
ho comrpato credo mercoledi, sul forum una gtx 580 che a quanto pare ha il bios flashato con frequenze a default 850/1600
è una Zotac AMP
che prontamente ho messo sotto liquido con l'alphacool
oggi da un certo punto in poi mi schizzavano le temp a 96 98 gradi e un paio di volte il monitor mi andava in standbye probabilmente xke la vga era troppo calda
dubbio
se i pad che ho trovato nella confezione sono troppo spessi e probabilmente la gpu non aderiva bene al rame ho danneggiato la vga?
l'ho rimessa ad aria sempre ma ho cmq dovuto usare i pad che avevo e che a occhio o meglio controllando con il metro e non avendo il calibro mi risultano essere almeno 2 mm e dico almeno
se compro pad piu sottili dite che ripristino o che devo buttare la vga?
Se le temp schizzano cosi è perchè non è stato montato correttamente il waterblock... I pad che ti riferisci li usi per le ram o anche per la gpu?? Nel caso di quest'ultima di solito andrebbe a diretto contatto solo con la pasta.
Io proverei a rimuovere il wb e controllare l'impronta per vedere se cè un buon contatto. Di solito si usano dei distanziali per montare il wb, probabilmente qualcosa è stato montato errato o mal fissato...
se hai danneggiato la vga o non rilevi segnale video a monitor acceso o da degli artefatti quando lavora...
per esperienza,,, ;)
playmake
04-03-2012, 14:10
Di solito i Pad che sono nelle confenzioni dovrebbero essere fatti apposta. Io tempo fa avevo un TRI SLI di 580 sotto liquido, con i waterblock della EK e relativi pad, e le temperature in full non superavano i 50 gradi. Come già detto da Poliacido dovresti controllare se è stato montato correttamente (idem per la pasta), e che siano stati montati tutti i pad :)
Confermo... vga a 1.150 940mhz nn passa mai i 50 gradi!!!
consiglio smontaggio e rimontaggio con calma verificando impronta prima di accendere!!!
Molto difficile danneggiare la VGA anche raggiungendo temperature limite, vista la protezione hardware che prima cala le prestazioni e poi la spegne.
In ogni caso fai anche presto a verificarlo.
Scarica:
http://www.techpowerup.com/downloads/1383/GPUTool_Community_Technology_Preview_1.html
Pochi secondi di test dovrebbero essere sufficienti per verificare la bontà della scheda.
accidenti non è la mia prima esperienza su liquido..sono malato del liquido
l'ho rimesas ad aria ma lasciandoci i pad che avevo messo per il wubbo xke quelli precedenti li ho buttati (non avrei mai pesnato di riutilizzarli)
anch ad aria le temp schizzano in un lampo e arrivato intorno ai 100 va in protezione e il monitor va in standbye
Se le temp schizzano cosi è perchè non è stato montato correttamente il waterblock... I pad che ti riferisci li usi per le ram o anche per la gpu?? Nel caso di quest'ultima di solito andrebbe a diretto contatto solo con la pasta.
Io proverei a rimuovere il wb e controllare l'impronta per vedere se cè un buon contatto. Di solito si usano dei distanziali per montare il wb, probabilmente qualcosa è stato montato errato o mal fissato...
i pad li ho usati per le ram..per la gpu uso la prolimatek (siringone da 30ml roprio xke smonto e rimonto migliaia di volte)
smontando il wubbo ho notato che la porzione centrale della gpu è secca quindi desumo non faceva aderenza
e inoltre ho notato che quando la gpu partiva con ungine per far prove di temp sentivo nei pressi della vga come qualcosa che sfrigolasse
ad ogni modo l'ho smontata pulito tutta e domani prenderò dei pad da 1 mm xke questi che ho sono davvero spessi
adesso sono tornato con la mia fida gtx 295 monopalla
Poliacido
04-03-2012, 14:19
smontando il wubbo ho notato che la porzione centrale della gpu è secca quindi desumo non faceva aderenza
Hai comperato il wubbo usato? Nel caso sia nuovo mi pare strano che mettano dentro dei pad con spessori sbagliati. Piu che altro il problema sembra la gpu: hai modo di verificare che l'ihs e il wubbo siano ben planari?
Il discorso anceh che se metti su pads + sottili rischi di danneggiare l'hardware quando serri le viti quindi o che le ram non facciano buon contatto.... io starei all'occhio: a tal proposito guarda sul sito del wubbo e vedi se danno con precisione le misure del pads da applicare.
Hai comperato il wubbo usato? Nel caso sia nuovo mi pare strano che mettano dentro dei pad con spessori sbagliati. Piu che altro il problema sembra la gpu: hai modo di verificare che l'ihs e il wubbo siano ben planari?
Il discorso anceh che se metti su pads + sottili rischi di danneggiare l'hardware quando serri le viti quindi o che le ram non facciano buon contatto.... io starei all'occhio: a tal proposito guarda sul sito del wubbo e vedi se danno con precisione le misure del pads da applicare.
si wubbo usato ma mai montato, le confezioni del Alphacool NexXxos e del backplate riportavano all'interno i pad e la pasta termica piu la brugola
sul foglietto esplicativo parlano di pad della misura i 15x15x1 mentre io misurando ho trovato 2 mm e alcuni ezzi anche 2,5
mah
http://img844.imageshack.us/img844/6012/immagineeqz.th.jpg (http://imageshack.us/photo/my-images/844/immagineeqz.jpg/)
roba da pazzi
mah
itachi23
04-03-2012, 19:31
http://img844.imageshack.us/img844/6012/immagineeqz.th.jpg (http://imageshack.us/photo/my-images/844/immagineeqz.jpg/)
roba da pazzi
mah
Bello sfondo, io cmq non testerei con furmark scalda oscenamente troppo per i miei gusti
Bello sfondo, io cmq non testerei con furmark scalda oscenamente troppo per i miei gusti
In teoria, il GF110 dovrebbe avere una circuiteria (rispetto al GF100) che, con "troiai" (perché è così che considero questi software) tipo furmark, taglia l'alimentazione e riduce il clock onde evitare problemi.....
Secondo quanto letto in rete, non dovrebbe nemmeno arrivarci con il "troiaio" a quelle temp il GF110....
ThePunisher
05-03-2012, 08:34
Bello sfondo, io cmq non testerei con furmark scalda oscenamente troppo per i miei gusti
Quello non è Furmark :asd:.
http://img844.imageshack.us/img844/6012/immagineeqz.th.jpg (http://imageshack.us/photo/my-images/844/immagineeqz.jpg/)
roba da pazzi
mah
Eh, direi, soprattutto perché di errori il test te ne sta facendo (vedi scritta in basso a sinistra). C'è decisamente qualcosa che non va nel cooling.
ThePunisher
05-03-2012, 08:36
In teoria, il GF110 dovrebbe avere una circuiteria (rispetto al GF100) che, con "troiai" (perché è così che considero questi software) tipo furmark, taglia l'alimentazione e riduce il clock onde evitare problemi.....
Secondo quanto letto in rete, non dovrebbe nemmeno arrivarci con il "troiaio" a quelle temp il GF110....
1) Quello non è Furmark
2) GPU Tool lo uso abitualmente e le temperature massime raggiunte dalla mia reference in OC si assestano dopo diversi minuti attorno ai 94-96° e comunque la stessa non produce artefatti.
3) Basta semplicemente non usare certi software per ore e ore (vista anche l'inutilità della cosa) e invece fare sessioni di test di circa 15 minuti al massimo per testare bontà e tolleranza in overclock (se la scheda tiene a 94-96°C significa che sicuramente durante l'esecuzione di un gioco sarà stabile).
Ho una Asus GTX 570 DirectCuII, purtroppo non sapevo dei problemi possibili con FurMark e ieri ho fatto qualche test con esso per testare un leggero overclock (senza overvolt) e la stabilita` del sistema ad alto carico in piu` sessioni a distanza ravvicinata per un totale di circa 45 minuti. Non e` successo nulla, ma avendo scoperto in seguito che la mia scheda video sarebbe sprovvista di circuteria OCP il dubbio di averne accorciato la vita rimane. Durante i vari test la temperatura massima toccata dal core e` stata di 86 gradi centigradi (anche se mi sembra di capire che il problema sarebbe ai VRM).
Posso stare tranquillo?
ThePunisher
05-03-2012, 11:25
Ho una Asus GTX 570 DirectCuII, purtroppo non sapevo dei problemi possibili con FurMark e ieri ho fatto qualche test con esso per testare un leggero overclock (senza overvolt) e la stabilita` del sistema ad alto carico in piu` sessioni a distanza ravvicinata per un totale di circa 45 minuti. Non e` successo nulla, ma avendo scoperto in seguito che la mia scheda video sarebbe sprovvista di circuteria OCP il dubbio di averne accorciato la vita rimane. Durante i vari test la temperatura massima toccata dal core e` stata di 86 gradi centigradi (anche se mi sembra di capire che il problema sarebbe ai VRM).
Posso stare tranquillo?
Stai tranquillo. Non hai accorciato nulla :D.
1) Quello non è Furmark
2) GPU Tool lo uso abitualmente e le temperature massime raggiunte dalla mia reference in OC si assestano dopo diversi minuti attorno ai 94-96° e comunque la stessa non produce artefatti.
3) Basta semplicemente non usare certi software per ore e ore (vista anche l'inutilità della cosa) e invece fare sessioni di test di circa 15 minuti al massimo per testare bontà e tolleranza in overclock (se la scheda tiene a 94-96°C significa che sicuramente durante l'esecuzione di un gioco sarà stabile).
Meglio così, furmark è un TROIAIO!
Però in ogni caso preferisco avere la certezza di non superare i 65° anche con core a 950 ;)
ThePunisher
05-03-2012, 11:32
Meglio così, furmark è un TROIAIO!
Però in ogni caso preferisco avere la certezza di non superare i 65° anche con core a 950 ;)
Con una reference è impossibile anche con core a 850. Si superano i 75°C anche in-game.
illidan2000
05-03-2012, 11:39
Con una reference è impossibile anche con core a 850. Si superano i 75°C anche in-game.
forse si riferisce a liquido, boh
Stai tranquillo. Non hai accorciato nulla :D.
Spero sia cosi`. Ne ho lette di cotte e di crude, anche di gente che in 3 minuti con Furmark e versioni reference della medesima scheda e OCP disabilitato, anche senza apparentemente sforare le temperature limite, e` riuscita a bruciare i VRM. Dopo questa scoperta dubito che utilizzero` ancora tale programma.
Esso effettivamente sfrutta la scheda video in maniera esosa, anche se la cosa a mio parere non giustifica NVidia a produrre schede che con il semplice uso, senza overclock e disspatore in buone condizioni, possono rovinarsi. Con il pannello di controllo del mio gruppo di continuita`, a proposito, ho avuto modo di testare i consumi della mia configurazione (inclusiva di monitor) a monte dell'alimentatore, ossia senza considerare che per esso sono a grandi linee circa l'85% dei valori riportati:
idle: 106w (monitor spento 88w):
2D leggero: ~145w
3D tipico: ~265w
furmark: ~385w
furmark + leggero overclock: ~400w
Come sopra + stress cpu (1 core) + monitor a 100% luminosita`: ~455w
Con una reference è impossibile anche con core a 850. Si superano i 75°C anche in-game.
Non ho una reference ;)
ThePunisher
05-03-2012, 11:56
Io sì :asd:.
Io sono davvero super soddisfatto dalla mia MSI GTX 580 Lightning Extreme 3GB, che alla fine ho deciso di non vendere. Dopo vari minuti con gpu tool, con ventole al 53% non ho superato i 66 gradi :D
http://img534.imageshack.us/img534/3466/testcn.png
Ottima, L'hai overcloccata tu oppure è un overclock di fabbrica?
Devo dire che anche io avevo una mezza idea di venderla la mia Windforce, però ho cambiato idea, è inudibile e fresca,.... che altro si può pretendere da una DX11 performante?
E' un overclock di fabbrica, e non ho provato a farla salire perchè così va più che bene, tiene delle temperature davvero basse e nei giochi va stra bene :D
Con che sistema la fai girare?
Io con 2 da 1,5gb gioco a bf3 a 120fps ... sono a posto fino alle dx12 :D temp max in sli 73°
raga.ho fatto il pc nuovo, ma le mie bimbe preferite sono sempre queste!!
Volevo passare alla concorrenza ma :O aspetto nvidia con piacere...
Intanto adesso si comincia a sfruttare come si deve queste vga:
http://3dmark.com/3dm11/2892996
:ave:
sickofitall
05-03-2012, 22:02
raga.ho fatto il pc nuovo, ma le mie bimbe preferite sono sempre queste!!
Volevo passare alla concorrenza ma :O aspetto nvidia con piacere...
Intanto adesso si comincia a sfruttare come si deve queste vga:
http://3dmark.com/3dm11/2892996
:ave:
Già, 3d mark profilo performance è il miglior test per sfruttare le vga, soprattutto a 1280x720 :stordita:
E LuxMark come benchmark? :stordita:
http://www.luxrender.net/wiki/LuxMark
(Che poi sarebbe il mio ambito: gpu computing, nel particolare ray tracing. Io non ho preso la mia 570 per giocare, ma capisco che cio` rappresenti una frazione minimale dell'uso medio che si fa di queste schede)
raga.ho fatto il pc nuovo, ma le mie bimbe preferite sono sempre queste!!
Volevo passare alla concorrenza ma :O aspetto nvidia con piacere...
Intanto adesso si comincia a sfruttare come si deve queste vga:
http://3dmark.com/3dm11/2892996
:ave:
Sinceramente mi sembra un pò bassino come punteggio 18000
Già, 3d mark profilo performance è il miglior test per sfruttare le vga, soprattutto a 1280x720 :stordita:
nono,nel senso che adesso si sfruttano a dovere stè 3 schede...
con il 3960x va tutto meglio.
me lo avevi detto che per vedere la potenza delle gpu serve il profilo X,li il procio non conta quasi niente in confronto a P
Sinceramente mi sembra un pò bassino come punteggio 18000
dici? per caso mi linkeresti dove hai visto un punteggio più alto?(anche in pm)
thx
EDIT
ne ho trovato uno:
http://3dmark.com/3dm11/2400685
però ha il procio a 5ghz e schede video a 940 e fa quasi uguale a me....
dici? per caso mi linkeresti dove hai visto un punteggio più alto?(anche in pm)
thx
EDIT
ne ho trovato uno:
http://3dmark.com/3dm11/2400685
però ha il procio a 5ghz e schede video a 940 e fa quasi uguale a me....
Ops era l'11 eheh
aspetto il nuovo vantage 11 ....
:D
lo faranno mai?
se nn erro dovrebbe uscire a giorni ;)
se nn erro dovrebbe uscire a giorni ;)
:eek:
non lo sapevo proprio!
http://img36.imageshack.us/img36/9822/img0004kx.th.jpg (http://imageshack.us/photo/my-images/36/img0004kx.jpg/)
mi rispodna soltanto chi ne capisce di saldature
risolverò?
maxmix65
06-03-2012, 09:08
http://img36.imageshack.us/img36/9822/img0004kx.th.jpg (http://imageshack.us/photo/my-images/36/img0004kx.jpg/)
mi rispodna soltanto chi ne capisce di saldature
risolverò?
:rolleyes: cioe'???
Quale' il problema
redeagle
06-03-2012, 09:22
:rolleyes: cioe'???
Quale' il problema
Come ti permetti di rispondere?! Mi pare evidente che non ne capisci di saldature!!!
:D
maxmix65
06-03-2012, 09:23
Come ti permetti di rispondere?! Mi pare evidente che non ne capisci di saldature!!!
:D
:D hahahah bella
Goofy Goober
06-03-2012, 12:00
Nemmeno io vedo il problema, non mi intendo di saldature... però, se ci fossero 2 cose da saldare assieme non sarebbe più evidente?
io vedo solo i graffi sul condensatore
un po sopra la scritta C99 che sta davanti il condensatore il contatto che viene in primo piano è staccato dala base del condensatore
X-ray guru
06-03-2012, 15:02
http://img36.imageshack.us/img36/9822/img0004kx.th.jpg (http://imageshack.us/photo/my-images/36/img0004kx.jpg/)
mi rispodna soltanto chi ne capisce di saldature
risolverò?
Dalla foto non si vede se è completamente staccato il condensatore dal pad o ha strappato il pad conduttivo dal circuito stampato.
Se fosse solo staccato dal pad, o unito allo stesso da qualche filino di stagno, è facile, con una punta a spillo e un saldatore da 16 W circa, rifare la saldatura.
Altrimenti con un saldatore ad aria calda si può far sciogliere lo stagno della piazzola e del pin del condensatore per poi rimetterli a contatto stretto, mentre è fuso.
Se è saltata la piazzola, niente da fare.
Io ti consiglio di fare l'operazione; il circuito senza il condensatore non funziona come dovrebbe e facilmente si potrebbe dannaggiare.
Dalla foto non si vede se è completamente staccato il condensatore dal pad o ha strappato il pad conduttivo dal circuito stampato.
Se fosse solo staccato dal pad, o unito allo stesso da qualche filino di stagno, è facile, con una punta a spillo e un saldatore da 16 W circa, rifare la saldatura.
Altrimenti con un saldatore ad aria calda si può far sciogliere lo stagno della piazzola e del pin del condensatore per poi rimetterli a contatto stretto, mentre è fuso.
Se è saltata la piazzola, niente da fare.
Io ti consiglio di fare l'operazione; il circuito senza il condensatore non funziona come dovrebbe e facilmente si potrebbe dannaggiare.
grazie tanto
mi ero documentato
ho rpovato al farlo saldare da un antennista molto capace
ho rpovato a casa ma non ha funzionato
i condensatori di quel genere non si trovano, ho provato da chi evnde ricambi per tv ma non hanno condensatori a polimeri organici in alluminio
o meglio hanno condensatori ma non da 16V con capacitanza di 180 uF
gli elettrolitici cosi non ce ne sono o sono grossi
e sul sito di mouser ne dovrei ordinare 1000 almeno e inltre non so quanti Ohms sono.. STORIA FINITA SCHEDA NEL CESSO
Poliacido
06-03-2012, 17:49
grazie tanto
mi ero documentato
ho rpovato al farlo saldare da un antennista molto capace
ho rpovato a casa ma non ha funzionato
i condensatori di quel genere non si trovano, ho provato da chi evnde ricambi per tv ma non hanno condensatori a polimeri organici in alluminio
o meglio hanno condensatori ma non da 16V con capacitanza di 180 uF
gli elettrolitici cosi non ce ne sono o sono grossi
e sul sito di mouser ne dovrei ordinare 1000 almeno e inltre non so quanti Ohms sono.. STORIA FINITA SCHEDA NEL CESSO
era la famosa 580 con le temp anomale?? Come è successo? Fatto danno smontando e rimontando il wb??
Crasher89
06-03-2012, 18:09
aspetto il nuovo vantage 11 ....
cioè? :O
non ne ho sentito parlare...
danyheart1989
06-03-2012, 19:08
Ho un problema quando gioco in 3d con alcuni giochi tipo deus ex e batman,alcune volte si blocca il gioco e dopo qualche secondo mi da la schermata nera,e devo solo riavviare,non si sblocca in nessuna maniera,sli di 580 e monitor asus 27 pollici 3d, in 2d a 120 hz tutto ok.pareri??? Gioco con vysinc attivato
grazie tanto
mi ero documentato
ho rpovato al farlo saldare da un antennista molto capace
ho rpovato a casa ma non ha funzionato
i condensatori di quel genere non si trovano, ho provato da chi evnde ricambi per tv ma non hanno condensatori a polimeri organici in alluminio
o meglio hanno condensatori ma non da 16V con capacitanza di 180 uF
gli elettrolitici cosi non ce ne sono o sono grossi
e sul sito di mouser ne dovrei ordinare 1000 almeno e inltre non so quanti Ohms sono.. STORIA FINITA SCHEDA NEL CESSO
dovresti informarti quali altre schede montano quei condensatori, sperando che anche qualcuna di fascia inferiore alkla tua li monti, cercarla sul mercatini rotta fusa (per altri problemi non legati a quel condensatore, chiedi prove con tester piuttosto)o vecchia pagala il meno possibile et vola condensatore e vga come nuovi...
Ho un problema quando gioco in 3d con alcuni giochi tipo deus ex e batman,alcune volte si blocca il gioco e dopo qualche secondo mi da la schermata nera,e devo solo riavviare,non si sblocca in nessuna maniera,sli di 580 e monitor asus 27 pollici 3d, in 2d a 120 hz tutto ok.pareri??? Gioco con vysinc attivato
Hai overcloccato il Pc o le VGA?
danyheart1989
06-03-2012, 22:52
Hai overcloccato il Pc o le VGA?
Si ma non credo che sia quelli il problema xke avendo il vsync attivo non sfrutto tutto il pc per poter giocare.con il vsync disattivato in 2d va tutto ok anche stressando al massimo cpu e vga,puo darsi una mal ottimizzazione dei driver in 3d?
Anche perche la maggior parte dei giochi che ho hanno problemi di artefatti in 3d quindi credo sia ancora acerba la situazione:muro:
Si ma non credo che sia quelli il problema xke avendo il vsync attivo non sfrutto tutto il pc per poter giocare.con il vsync disattivato in 2d va tutto ok anche stressando al massimo cpu e vga,puo darsi una mal ottimizzazione dei driver in 3d?
Anche perche la maggior parte dei giochi che ho hanno problemi di artefatti in 3d quindi credo sia ancora acerba la situazione:muro:
Prova a mettere tutto a default compresa la VGA e vedi come và...
Se ti dà ancora artefatti o schermate nere, disinstalla i driver dal pannello di controllo, riavvia in modalità provvisoria premendo F8 e pulisci tutto con driver sweeper e poi riavvia e prova a mettere i 285.62...:)
bosstury
07-03-2012, 13:32
raga posso chiedere qui per una gtx550 ??
Ciao a tutti. Vi chiedo un parere. Ho aggiornato la mia scheda video con gli ultimi driver, ma ho molto spesso le ventole della mia asus gtx 580 che girano a palla facendo un casino infernale. Il problema è che girano così sin da quando accendo il pc e non c'è verso di farle smettere!!!
Qualcuno è già successo? è un problema noto?
sickofitall
07-03-2012, 13:40
Ciao a tutti. Vi chiedo un parere. Ho aggiornato la mia scheda video con gli ultimi driver, ma ho molto spesso le ventole della mia asus gtx 580 che girano a palla facendo un casino infernale. Il problema è che girano così sin da quando accendo il pc e non c'è verso di farle smettere!!!
Qualcuno è già successo? è un problema noto?
può essere che si sia rotto il potenziometro della vga e la ventola va costantemente a palla
X-ray guru
07-03-2012, 15:48
può essere che si sia rotto il potenziometro della vga e la ventola va costantemente a palla
Forse volevi dire il sensore di temperatura?
Sulle schede video non ci sono potenziometri per regolare la velocità della ventola.
Per l'amico col problema: controlla che temperatura ti legge il sensore della gpu.
Se è perennemente sopra gli 80°, o si è rotto il sensore o il dissipatore non tocca sul cippone della gpu.
Se segna temperature più normali, fredde all'accensione ed in aumento con l'aumentare del carico, si può essere sfondata l'elettronica che regola i giri della ventola o il sensore che legge i giri della ventola.
Se riesco stasera controllo. Grazie
sickofitall
07-03-2012, 22:19
Forse volevi dire il sensore di temperatura?
Sulle schede video non ci sono potenziometri per regolare la velocità della ventola.
e come no, la vga per passare dal 40% al 60% deve dare 7v alla ventola invece che 5v (faccio un esempio), mentre per girare al massimo deve dare 12v
questa erogazione graduale della corrente con le ventole per pc la si ottiene con un potenziometro, quindi presumo che pure la 580 ne ha uno sul pcb...
Per cui se si guasta puó essere che la ventola giri sempre al massimo oppure non giri per nulla..,.
temperatura gpu con nvidia inspector è di 25C°!!! Ma se non ho capito male gira a palla una delle 2 ventole della scheda video, l'altra no!
e come no, la vga per passare dal 40% al 60% deve dare 7v alla ventola invece che 5v (faccio un esempio), mentre per girare al massimo deve dare 12v
questa erogazione graduale della corrente con le ventole per pc la si ottiene con un potenziometro, quindi presumo che pure la 580 ne ha uno sul pcb...
Per cui se si guasta puó essere che la ventola giri sempre al massimo oppure non giri per nulla..,.
Credo che il mio amico sickofitall intenda dire che si è probabilmente guastato il controller pwm a bordo della scheda video che altro non è che un potenziometro "solido" :)
¥º·RG·º¥
08-03-2012, 16:17
raga posso chiedere qui per una gtx550 ??
Anche se è il thread delle 570/580, si cerca sempre di dare una mano.. dicci tutto :)
19Francesco81
08-03-2012, 17:30
Ragazzi, visto che qui si parla di gpu...si può chiedere un consiglio sui giochi?
ciao ragazzi,
ho una domanda da farvi.. ho intenzione di comprare una 580 phantom gainward .in questo momento posseggo un corsair gs600 e come processore ho un i7 2600k. dice che sono al limite o può andare bene? (l' alimentatore :D)
grazie in anticipo
ciao ragazzi,
ho una domanda da farvi.. ho intenzione di comprare una 580 phantom gainward .in questo momento posseggo un corsair gs600 e come processore ho un i7 2600k. dice che sono al limite o può andare bene? (l' alimentatore :D)
grazie in anticipo
Be, dovresti farcela alla grande! Il GS600 è comunque un ali che spinge!
Ovvio che se hai collegati vari hard disk, schede pci e unità ottiche la situazione cambia! Pero ti posso dire che un mio caro amico possiede un 2600K (non averclockato :mad: ), una GTX 580 1,5GB, 8GB DDR3 1600Mhz, 1 solo HD Sata e un solo masterizzatore con un alimentatore Corsair 600w gli gira tutto alla grande! Quindi.. VAI TRANQUILLO CON IL GS600 ;)
Spero di esserti stato utile! ;)
Be, dovresti farcela alla grande! Il GS600 è comunque un ali che spinge!
Ovvio che se hai collegati vari hard disk, schede pci e unità ottiche la situazione cambia! Pero ti posso dire che un mio caro amico possiede un 2600K (non averclockato :mad: ), una GTX 580 1,5GB, 8GB DDR3 1600Mhz, 1 solo HD Sata e un solo masterizzatore con un alimentatore Corsair 600w gli gira tutto alla grande! Quindi.. VAI TRANQUILLO CON IL GS600 ;)
Spero di esserti stato utile! ;)
ok grazie del consiglio!:D
ma dici che riesco anche ad overclockare un pochino la cpu?
ciao ragazzi,
ho una domanda da farvi.. ho intenzione di comprare una 580 phantom gainward .in questo momento posseggo un corsair gs600 e come processore ho un i7 2600k. dice che sono al limite o può andare bene? (l' alimentatore :D)
grazie in anticipo
48A sono anche troppi per far girare una gtx 580 :D
ok grazie del consiglio!:D
ma dici che riesco anche ad overclockare un pochino la cpu?
Alla grande! Non puoi avere una 2600k e non occarlo :D
48A sono anche troppi per far girare una gtx 580 :D
eh ma dici che riesco a occare un po la cpu?..ad un mio amico si è bruciato il corsair cx600 avendo la mia stessa configurazione. poi non so magari era un errore di fabbrica
Alla grande! Non puoi avere una 2600k e non occarlo :D
eh lo so..ma il problema è se ce la faccio.. :D
eh ma dici che riesco a occare un po la cpu?..ad un mio amico si è bruciato il corsair cx600 avendo la mia stessa configurazione. poi non so magari era un errore di fabbrica
Per me vai tranquillo.
Nah, non credo proprio che un alimentatore si brucia perchè il pc consuma troppo ;)
La nvidia richiede 600W minimi per la 580, ma andresti tranquillo anche con meno!
La tua config non arriverà mai a consumare 600W!
Per me vai tranquillo.
Nah, non credo proprio che un alimentatore si brucia perchè il pc consuma troppo ;)
La nvidia richiede 600W minimi per la 580, ma andresti tranquillo anche con meno!
La tua config non arriverà mai a consumare 600W!
OK! grazie mille della risposta
OK! grazie mille della risposta
Niente, sicuramente avresti avuto problemi solo se avessi avuto uno sli di 580!
Niente, sicuramente avresti avuto problemi solo se avessi avuto uno sli di 580!
beh sicuramente hehe:D volevo giusto qualche chiarimento.
grazie mille
ho esattamente lo stesso dubbio di Pasta17, il pc così com'è per ora va bene ma vorrei overclocckare la CPU per evitare colli di bottiglia e a quel punto non so di quanto aumentano i consumi... quello che è il mio hardware lo potete leggere sotto in firma, c'è da aggiungere solo una scheda di rete wireless pci che utilizzavo qualche tempo fa per smanettare con backtrack :fiufiu: ma che ormai potrei benissimo disinstallare (anzi credo che al momento sia addirittura disattivata, non ricordo bene e non posso controllare perchè al momento scrivo dall'ufficio)
il consumo normale del q9505 e del 2600k è lo stesso, ma la msi lightning a pieno regime consuma già da sola 405watt!!!!
ho già postato il problema nel forum dedicato all'overclock dei processori e mi hanno tranquillizzato un po', ma non vorrei aver buttato i soldi del dissipatore in arrivo
Jeremy01
10-03-2012, 11:34
la sigla GLH per le 570 cosa indica?
Goes Like Hell.. sarebbe tipo 'spinge di brutto' .. inizialmente quando leggevo Goes Like Hell pensavo era qualcosa tipo 'vai all'inferno' , non molto sensato, ma simpatico lol :D :p
Jeremy01
10-03-2012, 11:48
Goes Like Hell.. sarebbe tipo 'spinge di brutto' .. inizialmente quando leggevo Goes Like Hell pensavo era qualcosa tipo 'vai all'inferno' , non molto sensato, ma simpatico lol :D :p
quindi le sigle non indicano versioni diverse di 570 se non in riferimento a OC o magari raffreddamento giusto?
cioè intendi se cambia solo l'oc di fabbrica o il dissi, oppure cambia anche lo schema del pcb, fasi di alimentazione o altro?.. non lo so..
Jeremy01
10-03-2012, 11:56
cioè intendi se cambia solo l'oc di fabbrica o il dissi, oppure cambia anche lo schema del pcb, fasi di alimentazione o altro?.. non lo so..
si esatto...vorrei capire se la 570 è una sola (e cambiano solo oc e cooling) oppure esistono varie versioni "diverese" come componenti sulla scheda e quindi stream processor ecc (e di conseguenza come prestazioni in maniera piu rilevante di un semplice OC)
ieri sera volevo aggiornare i driver della mia MSI 580 Lightning, posso usare quelli del sito Nvidia (i 295.73) o devo usare solo quelli forniti sul sito MSI (i 285.62) ?
e poi come vi trovate voi con gli ultimi driver? io al momento sto usando i 280.26 e finora nessun problema, ma ieri sera Mass Effect 3 mi è andato in crash...
le versioni custom con pcb non reference hanno solo più fasi di alimentazione e in alcuni casi qualche altra piccola feauture per l'oc, per il resto (a parte il dissi) sono come tutte le altre 570..
magari qualcuno può confermare..
poi quella gainward non ho idea di come sia..
murrieta
10-03-2012, 12:21
ieri sera volevo aggiornare i driver della mia MSI 580 Lightning, posso usare quelli del sito Nvidia (i 295.73) o devo usare solo quelli forniti sul sito MSI (i 285.62) ?
e poi come vi trovate voi con gli ultimi driver? io al momento sto usando i 280.26 e finora nessun problema, ma ieri sera Mass Effect 3 mi è andato in crash...
Ho uno SLI di Lightning come la tua e utilizzando gli ultimi driver 295.73 non ho avuto nessuna noia fin'ora...;)
Beltra.it
10-03-2012, 12:48
ragazzi, torno a porvi una domanda. possiedo la vga in firma, e volevo, oltre agli attuali 2 schermi, utilizzare la porta HDMI per collegarci in modo fisso la tv per vederci dei film ogni tanto, solo che mi dice che la scheda non supporta più di 2 schermi contemporaneamente.
ma non supportavano il 3D surround? e quindi più di 2 schermi? devo installare quei driver per usufruire dei 3 schermi contemporaneamente?
N.B: lo schermo della tv lo utilizzerei di rado, ma, siccome ho un cavo da 10 metri HDMI, volevo collegarlo in modo permanente senza dover ogni volta togliere uno degli schermi.
ironman72
10-03-2012, 12:59
ragazzi, torno a porvi una domanda. possiedo la vga in firma, e volevo, oltre agli attuali 2 schermi, utilizzare la porta HDMI per collegarci in modo fisso la tv per vederci dei film ogni tanto, solo che mi dice che la scheda non supporta più di 2 schermi contemporaneamente.
ma non supportavano il 3D surround? e quindi più di 2 schermi? devo installare quei driver per usufruire dei 3 schermi contemporaneamente?
N.B: lo schermo della tv lo utilizzerei di rado, ma, siccome ho un cavo da 10 metri HDMI, volevo collegarlo in modo permanente senza dover ogni volta togliere uno degli schermi.
Per il 3d surround ci vuole lo sli, ed anche per tre connessioni video.
mandi
http://www.hwupgrade.it/forum/showthread.php?t=2453156
AHAHAHA
crazy_techno
10-03-2012, 18:45
Ammazza... :eek: ma che ti é successo???
http://www.hwupgrade.it/forum/showthread.php?t=2453156
AHAHAHA
lol geniale... tienici informati sull'avventura
luca8088
12-03-2012, 23:06
Buonasera avrei intenzione di aggiungere una gtx 580 al mio sistema cosi da diventare un 3 way sli, la mia configurazione e quella in firma! il problema e che ho 2 580 hydro cooper che il clock del core default e 850 mhz. io vorrei aggiungere una 580 ad aria con il clock delle 580 originali 772mhz. secondo voi puo sorgere qualche problema. ps. l alimentazione e ok, ho un 1200w
Buonasera avrei intenzione di aggiungere una gtx 580 al mio sistema cosi da diventare un 3 way sli, la mia configurazione e quella in firma! il problema e che ho 2 580 hydro cooper che il clock del core default e 850 mhz. io vorrei aggiungere una 580 ad aria con il clock delle 580 originali 772mhz. secondo voi puo sorgere qualche problema. ps. l alimentazione e ok, ho un 1200w
monta solo la gtx liscia ci flashi sopra il bios della evga e sei a posto
Buonasera avrei intenzione di aggiungere una gtx 580 al mio sistema cosi da diventare un 3 way sli, la mia configurazione e quella in firma! il problema e che ho 2 580 hydro cooper che il clock del core default e 850 mhz. io vorrei aggiungere una 580 ad aria con il clock delle 580 originali 772mhz. secondo voi puo sorgere qualche problema. ps. l alimentazione e ok, ho un 1200w
si ma facendo così il clock delle 2 liquidate si abbassano a 722 lo sai vero? O.o
Inviato dal mio Optimus 2X usando Tapatalk
maxmix65
13-03-2012, 09:45
monta solo la gtx liscia ci flashi sopra il bios della evga e sei a posto
si ma facendo così il clock delle 2 liquidate si abbassano a 722 lo sai vero? O.o
Inviato dal mio Optimus 2X usando Tapatalk
Oppure con Msi afterburner imposti i voltaggi uguali per tutte e tre le schede e alzi il core della terza scheda a 850 e hai risolto senza fleshare nulla
ragazzi domanda stupida, si puo fare uno slide fra GTX 570 e GTX 560 ti? ha senso?
illidan2000
13-03-2012, 11:27
ragazzi domanda stupida, si puo fare uno slide fra GTX 570 e GTX 560 ti? ha senso?
no, non è fattibile
hermanss
13-03-2012, 11:29
ragazzi domanda stupida, si puo fare uno slide fra GTX 570 e GTX 560 ti? ha senso?
Da quanto ne so non si può fare lo SLI tra 570 e 560Ti perché montano gpu diverse. Forse si può fare con la 560Ti con 448sp...ma non credo.
Revelator
13-03-2012, 13:38
http://www.nvidia.it/object/win7-winvista-64bit-296.10-whql-driver-it.html
_DoktorTerror_
13-03-2012, 13:47
Ottima notizia :D
Wuillyc2
13-03-2012, 13:54
Ottima notizia :D
quoto! Bene!
come mai sono usciti ancora driver nuovi?C'entra qualcosa con l'imminente uscita di klepero?
oppure con le 6xxx faranno ancora driver nuovi?
_DoktorTerror_
13-03-2012, 14:02
come mai sono usciti ancora driver nuovi?C'entra qualcosa con l'imminente uscita di klepero?
oppure con le 6xxx faranno ancora driver nuovi?
Fra le schede supportate non risulta nessuna 6xx quindi deduco che al D1 ci saranno nuovi driver
Fra le schede supportate non risulta nessuna 6xx quindi deduco che al D1 ci saranno nuovi driver
:eek:
nvidia si sta dando da fare,brava!
Non resta che provare questi driver con i giochi più gettonati del momento
_DoktorTerror_
13-03-2012, 14:27
:eek:
nvidia si sta dando da fare,brava!
Non resta che provare questi driver con i giochi più gettonati del momento
Prova e fammi sapere così per quando rientro vado a colpo sicuro :D
Credo che il mio amico sickofitall intenda dire che si è probabilmente guastato il controller pwm a bordo della scheda video che altro non è che un potenziometro "solido" :)
Un controller pwm non è affatto un potenziometro, usa sempre 12v in uscita, varia "solo" la frequenza degli impulsi:
es 50 impulsi al secondo (12 volt per ogni impulso) = 90% regime di rotazione
20 impulsi al secondo (sempre 12 volt ad impulso) = min regime di rotazione.
Al variare degli impulsi per secondo varia la velocita di rotazione della ventola, nessun impulso con circuito chiuso = massimo regime di rotazione ;)
scorpion73
13-03-2012, 15:14
boys, ma se volessi fare un tri-sli di 580 secondo voi di che alimentatore abbisognerei?
sickofitall
13-03-2012, 15:18
boys, ma se volessi fare un tri-sli di 580 secondo voi di che alimentatore abbisognerei?
Io direi di puntare su un alimentatore che abbia almeno 80/85A sulla linea 12v (combinata)
scorpion73
13-03-2012, 15:31
ma presumo che il mio 950 non vada bene giusto? forse un corsair AX1200 può andare? che mi dite di questo alimentatore? oppure un ENERMAX REVOLUTION85+ ERV1250EGT 1250W
Un controller pwm non è affatto un potenziometro, usa sempre 12v in uscita, varia "solo" la frequenza degli impulsi:
es 50 impulsi al secondo (12 volt per ogni impulso) = 90% regime di rotazione
20 impulsi al secondo (sempre 12 volt ad impulso) = min regime di rotazione.
Al variare degli impulsi per secondo varia la velocita di rotazione della ventola, nessun impulso con circuito chiuso = massimo regime di rotazione ;)
Si, questo lo so, ma di fatto, ha la stessa identica funzione di un potenziometro ;)
Ottimo Thread :D
Questo Figio ha scritto la stessa cosa in non so quanti trd....
frafelix
13-03-2012, 18:26
ma presumo che il mio 950 non vada bene giusto? forse un corsair AX1200 può andare? che mi dite di questo alimentatore? oppure un ENERMAX REVOLUTION85+ ERV1250EGT 1250W
Veramente un corsair 950 se non fai oc brutale di tutte e tre le schede dovrebbe farcela
epic win
dopo la bellezza di 4 mesi ecco i nuovi driver -.-''
epic win
dopo la bellezza di 4 mesi ecco i nuovi driver -.-''
come 4 mesi?:confused:
I 295 sono usciti poco tempo fa.....
TigerTank
13-03-2012, 19:49
come 4 mesi?:confused:
I 295 sono usciti poco tempo fa.....
Credo intenda ufficiali :)
TigerTank
13-03-2012, 20:02
Io ho ancora i 285.79 e aspetto a cambiarli...tra qualche giorno finalmente dovrei riuscire a finire Oblivion (azz...a farlo bene quel gioco è quasi eterno :sofico: ). Con tutti quelli successivi non mi andava più la combinazione hdr da gioco + AA forzato da pannello...mah!
sisi ufficiali dico :)
Ah ok;)
Cmq i 295 fanno schifo,.. ora ho messo gli ufficiali,.. vediamo un po....
maxmix65
13-03-2012, 21:11
Ah ok;)
Cmq i 295 fanno schifo,.. ora ho messo gli ufficiali,.. vediamo un po....
Messi i nuovi drive presi 50 punti al 3dmark 2011 extreme
Messi i nuovi drive presi 50 punti al 3dmark 2011 extreme
Infatti mi sono spariti dei.... come chiamarli.... LAG? in un gioco vecchio come Mafia2....
In realtà con sta macchina ci gioco solo a Mafia2 ultimamente....
_DoktorTerror_
13-03-2012, 21:35
be allora sembra che girino bene :).....qualcuno ha provato con BF3?
maxmix65
13-03-2012, 21:36
be allora sembra che girino bene :).....qualcuno ha provato con BF3?
:D Si da oggi che ci gioco tutto ok
_DoktorTerror_
13-03-2012, 21:39
:D Si da oggi che ci gioco tutto ok
miglioramenti?
danyheart1989
14-03-2012, 06:15
Io con i nuovi driver ho avuto un problema con l'attivazione del 3d vision da pannello di controlli nvidia, mi dava 3d3 object failed,l'avro reinstallati venti volta e sono ritornato ai precedenti ma niente,alla fine ho disistallato tutto manualmente e cosi ho risolto,mah mistero!
killeragosta90
14-03-2012, 14:33
Ragazzi altri pareri sui nuovi driver (296.10)? Punteggi con i bench? Problemi? :)
Sono indeciso se installarli o no....grazie mille per eventuali risposte :p
maxmix65
14-03-2012, 15:28
Ragazzi altri pareri sui nuovi driver (296.10)? Punteggi con i bench? Problemi? :)
Sono indeciso se installarli o no....grazie mille per eventuali risposte :p
A me funzionano perfettamente ho preso anche 50 punti al 3d Mark 2011 mod xtreme
killeragosta90
14-03-2012, 20:24
A me funzionano perfettamente ho preso anche 50 punti al 3d Mark 2011 mod xtreme
Dai quasi quasi li installo e vi do anche il mio parere :)
luca8088
14-03-2012, 20:26
Oppure con Msi afterburner imposti i voltaggi uguali per tutte e tre le schede e alzi il core della terza scheda a 850 e hai risolto senza fleshare nulla
Fatto il tri way sli di 580 e alzato il core della terza come hai detto tu!! ora a 2560 x 1440 va che e una meraviglia :D . ciao e grazie
Arrow0309
14-03-2012, 20:38
Ciao ragazzi, ma è mai uscita questa KFA2 GTX580 sul mercato?
http://extrahardware.cnews.cz/files/images/novinky/2011/12prosinec/kfa2-gtx-580-mdt/kfa2-gtx-580-mdt-1.jpg
PS: Certo che la Gigabyte Gtx580 SO costa ancora ...
killeragosta90
14-03-2012, 20:53
Ciao ragazzi, ma è mai uscita questa KFA2 GTX580 sul mercato?
http://extrahardware.cnews.cz/files/images/novinky/2011/12prosinec/kfa2-gtx-580-mdt/kfa2-gtx-580-mdt-1.jpg
PS: Certo che la Gigabyte Gtx580 SO costa ancora ...
Cos'è sta cosa?? :eek:
Non l'avevo neanche mai vista questa versione :asd: Interessante!
epic win
dopo la bellezza di 4 mesi ecco i nuovi driver -.-''
GeForce 296.10 Driver WHQL 296.10 13.3.2012
GeForce 295.73 Driver WHQL 295.73 21.2.2012
io direi 2 settimane altro che 4 mesi...
Ciao ragazzi, ma è mai uscita questa KFA2 GTX580 sul mercato?
http://extrahardware.cnews.cz/files/images/novinky/2011/12prosinec/kfa2-gtx-580-mdt/kfa2-gtx-580-mdt-1.jpg
PS: Certo che la Gigabyte Gtx580 SO costa ancora ...
la KFA come anche la sparkle (modelli calibre con accelero extreme di serie) non hanno partner/canali ufficiali in italia purtroppo
GeForce 296.10 Driver WHQL 296.10 13.3.2012
GeForce 295.73 Driver WHQL 295.73 21.2.2012
io direi 2 settimane altro che 4 mesi...
la KFA come anche la sparkle (modelli calibre con accelero extreme di serie) non hanno partner/canali ufficiali in italia purtroppo
Allora erano ufficiali anche i 295?
Io mi sono perso.....
killeragosta90
14-03-2012, 22:22
GeForce 296.10 Driver WHQL 296.1013.3.2012
GeForce 295.73 Driver WHQL295.7321.2.2012
io direi 2 settimane altro che 4 mesi...
Quoto!
CoolSh@rK
15-03-2012, 09:49
Mmmhh escono i 296 whql a cosi breve distanza dagli ultimi 295.xx :O , updating! :asd:
GeForce 296.10 Driver WHQL 296.10 13.3.2012
GeForce 295.73 Driver WHQL 295.73 21.2.2012
io direi 2 settimane altro che 4 mesi...
la KFA come anche la sparkle (modelli calibre con accelero extreme di serie) non hanno partner/canali ufficiali in italia purtroppo
Confermo , 4 mesi erano dai 285 ;)
che bella quella KFA! non l'avevo mai vista.. peccato che da noi non si trova, sarebbe anche interessante un confronto col windforce 3x della gigabyte..
e a me incuriosiva proprio il modello in foto :D per il dissi.. magari lo faranno per la 680..!
Allora erano ufficiali anche i 295?
Io mi sono perso.....
sia i beta che i whql sono ufficiali...la cosa che li diversifica è che la certificazione windows (whql) che costa non pochi soldini e tempo quindi nvidia non la richiede su ogni release ma solo su alcune come fossero dei checkpoint (vienimi incontro che non mi vengono altri modi per dirlo)
KFA è il brand Europeo di Galaxy (per mercato Asia), quindi si trova in giro.
ripeto ancora...in italia non ci sono rivenditori...
sia i beta che i whql sono ufficiali...la cosa che li diversifica è che la certificazione windows (whql) che costa non pochi soldini e tempo quindi nvidia non la richiede su ogni release ma solo su alcune come fossero dei checkpoint (vienimi incontro che non mi vengono altri modi per dirlo)
AHAUAHAUAHAUAHAU!!!!:sofico: :sofico: :sofico:
Sei stato chiarissimo ;)
Grazie :)
luca8088
16-03-2012, 13:59
Buongiorno a tutti vorrei sapere se il mio alimentatore coolmaster silent pro gold 1200w e in grado di gestire un tri way sli di gtx 580 hydro cooper (core 850 Vcore 1.088) + un i7 2600k a 4,4 ghz ( V.core 1,290) . Il resto del mio hardware e scritto in firma. non vorrei che nei punti di picco massimo potrebbe non farcela . Ciao a tutti
maxmix65
16-03-2012, 14:36
Buongiorno a tutti vorrei sapere se il mio alimentatore coolmaster silent pro gold 1200w e in grado di gestire un tri way sli di gtx 580 hydro cooper (core 850 Vcore 1.088) + un i7 2600k a 4,4 ghz ( V.core 1,290) . Il resto del mio hardware e scritto in firma. non vorrei che nei punti di picco massimo potrebbe non farcela . Ciao a tutti
Si vai tranquillo il mio 100w Cooler master gold plus reggeva 3 gtx 570 a 950mhz con 875k a 4500mhz piu' parecchie ventole hd e corsair h50..
Dovresti stare in game sui 800w in bench sui 1100
illidan2000
16-03-2012, 14:56
Buongiorno a tutti vorrei sapere se il mio alimentatore coolmaster silent pro gold 1200w e in grado di gestire un tri way sli di gtx 580 hydro cooper (core 850 Vcore 1.088) + un i7 2600k a 4,4 ghz ( V.core 1,290) . Il resto del mio hardware e scritto in firma. non vorrei che nei punti di picco massimo potrebbe non farcela . Ciao a tutti
penso ad occhi chiusi. anche due 590 !
ThePunisher
16-03-2012, 18:03
penso ad occhi chiusi. anche due 590 !
Quoto.
luca8088
16-03-2012, 21:46
Io con un AX1200 tenevo su un TRI SLI di 580 con un 980x, 12GB di RAM della corsair con l'indicatore a led che si montava sopra per vederne il funzionamento e le temperature, più luci varie, 2 hd etc, quindi puoi stare più che tranquillo :D
P.S. Anche io le mie Zotac 580 le tenevo a 850, però preciso che per l'impianto a liquido avevo un alimentatore a parte, dato che oltre alle 580 avevo processore e scheda madre sotto liquido
Grazie per la risposta... cmq il procio e a liquido e anche 2 gtx, la terza e ad aria con la stessa frequenza delle altre 2. l impianto e un koolance exos 2.5. Ciao
danyheart1989
16-03-2012, 23:27
Hai overcloccato il Pc o le VGA?
Si ma non credo che sia quelli il problema xke avendo il vsync attivo non sfrutto tutto il pc per poter giocare.con il vsync disattivato in 2d va tutto ok anche stressando al massimo cpu e vga,puo darsi una mal ottimizzazione dei driver in 3d?
Anche perche la maggior parte dei giochi che ho hanno problemi di artefatti in 3d quindi credo sia ancora acerba la situazione:muro:
Prova a mettere tutto a default compresa la VGA e vedi come và...
Se ti dà ancora artefatti o schermate nere, disinstalla i driver dal pannello di controllo, riavvia in modalità provvisoria premendo F8 e pulisci tutto con driver sweeper e poi riavvia e prova a mettere i 285.62...:)
Mi sa che il problema è che si blocca la connessione internet e i giochi steam su bloccano e quando gioco in 3d e capita qursti non mi da l'errore ma si blocca tutto,me ne sono accorto xke mi è capitato anche in 2d con l'errore steam fatal error,non capusco xke in 3d non riesce a tornare al desktop in caso di chiusura improvvisa di un applicazione!
fabbri.fili
18-03-2012, 01:32
Si vai tranquillo il mio 100w Cooler master gold plus reggeva 3 gtx 570 a 950mhz con 875k a 4500mhz piu' parecchie ventole hd e corsair h50..
Dovresti stare in game sui 800w in bench sui 1100
osta però sei fortunato che con 100 watt alimenti tanto roba, il mio ne consuma 635 W con 3d mark 2011 :D
chi è che sta giocando a mafia II con lo SLI?
Con gli ultimi driver all'inizio parte a cannone ma poi sembra che si "stacca"lo SLI e gli fps si abbassano notevolmente...
poi se riduco in icona il gioco e lo rilancio,lo sli si riattacca...ma poi si ristacca di nuovo
:muro:
a me le ultime due versioni dei drivers ufficiali fanno craschare BF3, quando sono sul jet in particolare!
Erano dalla beta di BF3 che non avevo un crash in quel gioco...:fagiano:
a me le ultime due versioni dei drivers ufficiali fanno craschare BF3, quando sono sul jet in particolare!
Erano dalla beta di BF3 che non avevo un crash in quel gioco...:fagiano:
io gioco prevalentemente a BF3 e non ho nessun problema con i 296.10
Ho solo problemi con mafia II in sli...
io gioco prevalentemente a BF3 e non ho nessun problema con i 296.10
Ho solo problemi con mafia II in sli...
Boh...chissà da cosa dipende...
io installo solo i driver e i physx! Quelli 3d e gli aggiornamenti nvidia non li stallo mai..:boh:
io gioco prevalentemente a BF3 e non ho nessun problema con i 296.10
Ho solo problemi con mafia II in sli...
provato con una installazione pulita?
http://www.facebook.com/note.php?note_id=10150445040474626
Boh...chissà da cosa dipende...
io installo solo i driver e i physx! Quelli 3d e gli aggiornamenti nvidia non li stallo mai..:boh:
io anche solo driver+physx con questo monitor
provato con una installazione pulita?
http://www.facebook.com/note.php?note_id=10150445040474626
non ho fatto proprio così, ma i 2 pulitori gli ho usati in modalità provvisioria..
io anche solo driver+physx con questo monitor
non ho fatto proprio così, ma i 2 pulitori gli ho usati in modalità provvisioria..
per esperianze personale anche a me solo driver sweeper e ccleaner sono a sufficienza ma non sono infallibili...seguendo l'intera procedura è come avere un pc appena formattato senza la minima traccia di driver
scorpion73
19-03-2012, 09:44
chi è passato dallo SLI al TRI-SLI che miglioramenti ha notato nei giochi? sono sensibili oppure è solo uno sfizio?
leggendo le recensioni (in particolare su Guru3D perché su HW Upgrade non ho trovato recensioni che parlano del tri-sli) non mi sembra che l'aggiunta della terza scheda sulla maggior parte dei giochi porti ad incrementi per cui valga la pena spendere questi soldi, però chi meglio di coloro che hanno avuto esperienza diretta può dirmi come stanno realmente le cose?
per esperianze personale anche a me solo driver sweeper e ccleaner sono a sufficienza ma non sono infallibili...seguendo l'intera procedura è come avere un pc appena formattato senza la minima traccia di driver
ho fatto perfettamente come scritto....ma comunque alcuni passi sono inutili perchè mi dice che non esiste quel file cancellare...tipo quando devo scrivere sul cmq...
mah..io non indagherò troppo su questi crash sul jet di BF3, potrebbe essere anche il joystick che uso per guidarli! mi sa che me lo tengo così finchè non esce la 680 e poi faccio il cambio! :fagiano:
mah..io non indagherò troppo su questi crash sul jet di BF3, potrebbe essere anche il joystick che uso per guidarli! mi sa che me lo tengo così finchè non esce la 680 e poi faccio il cambio! :fagiano:
hai provato ad alzare un pò i V a cpu-ram-vga?
per esperianze personale anche a me solo driver sweeper e ccleaner sono a sufficienza ma non sono infallibili...seguendo l'intera procedura è come avere un pc appena formattato senza la minima traccia di driver
mitico!!!ho reinstallato i driver come detto da te,e ora sembra che non mi si stacca più lo sli in mafia II...
ho provato per 10 minuti tutto ok 200 fps rulez!
prima mi si staccava dopo appena un minutino,e mi andava 70fps
:ave: :cincin:
hai provato ad alzare un pò i V a cpu-ram-vga?
ho provato pure a default con vcore aumentato! però strano che lo faccia solo nel jet! una volta sola sul carro! Mai avuto un crash quando sono a piedi, ed ho giocato per decine di ore!
randymoss
19-03-2012, 21:28
Ciao a tutti, vorrei sapere se qualcuno sta provando i nuovi driver nvidia 296.10. Sulla mia scheda gainward gtx 570 "GLH" ho notato un calo prestazionale su i vari 3d mark ; vantage, 2011 e 2006. Non so come mai eppure quando li disinstallo uso driver sweeper. Quando finisco il benchmark e mi collego al sito futuremark mi dice che il punteggio non è in linea con l'hardware che ho. Premetto che i settaggi da bios sono gli stessi, so solo che rispetto ai driver precedenti e cioè 295.73, i punteggi sono calati.
danyheart1989
19-03-2012, 22:38
chi è passato dallo SLI al TRI-SLI che miglioramenti ha notato nei giochi? sono sensibili oppure è solo uno sfizio?
leggendo le recensioni (in particolare su Guru3D perché su HW Upgrade non ho trovato recensioni che parlano del tri-sli) non mi sembra che l'aggiunta della terza scheda sulla maggior parte dei giochi porti ad incrementi per cui valga la pena spendere questi soldi, però chi meglio di coloro che hanno avuto esperienza diretta può dirmi come stanno realmente le cose?
Non è certo come passare da una a due vga.io dico che anche uno sli è uno sfizio se non si gioca in 3d ovviamente,i giochi di oggi sono la maggior parte mal ottimizzati e solo per questo richiedono una scheda potente,ricordiamici che sono identici a xbox e ps3 che hanno hardware vecchio di 5 anni.forse sul pc si possono attivate filtri piu alti,ma uno tri sli non serve praticamente a nulla,almeno che non giochi con piu monitor o in 3d :)
murrieta
19-03-2012, 22:41
Non è certo come passare da una a due vga.io dico che anche uno sli è uno sfizio se non si gioca in 3d ovviamente,i giochi di oggi sono la maggior parte mal ottimizzati e solo per questo richiedono una scheda potente,ricordiamici che sono identici a xbox e ps3 che hanno hardware vecchio di 5 anni.forse sul pc si possono attivate filtri piu alti,ma uno tri sli non serve praticamente a nulla,almeno che non giochi con piu monitor o in 3d :)
quoto di brutto...;)
<Masquerade>
19-03-2012, 22:42
Non è certo come passare da una a due vga.io dico che anche uno sli è uno sfizio se non si gioca in 3d ovviamente,i giochi di oggi sono la maggior parte mal ottimizzati e solo per questo richiedono una scheda potente,ricordiamici che sono identici a xbox e ps3 che hanno hardware vecchio di 5 anni.forse sul pc si possono attivate filtri piu alti,ma uno tri sli non serve praticamente a nulla,almeno che non giochi con piu monitor o in 3d :)
con i giochi di oggi lo sli serve.... vedi gioconi massicci come rayman origin...o ME 3 ..ci vogliono 3x GTX580
:sbonk: :rotfl: :sbonk:
scherzo ovviamente.. concordo con quello che hai scritto..
NOOB4EVER
20-03-2012, 00:17
infatti finche non arrivan gli altri 2 samsung 27 con una 580 a monitor singolo sto a giocare a tutto a manetta o quasi :sofico:
:cool:
Simedan1985
20-03-2012, 00:19
mah..io non indagherò troppo su questi crash sul jet di BF3, potrebbe essere anche il joystick che uso per guidarli! mi sa che me lo tengo così finchè non esce la 680 e poi faccio il cambio! :fagiano:
Stesso problema ,appena accellero sul jet ...baaaaa schermata blu!!!
_DoktorTerror_
20-03-2012, 00:34
ho appena avuto un crash su BF3 con i 296.10 senza jet :(
NOOB4EVER
20-03-2012, 00:47
ho appena avuto un crash su BF3 con i 296.10 senza jet :(
vga singola monitor singolo non ho un crash in bf3 manco a pagarlo,drivers 275.33 mai piu' aggornati che sian problemi di multygpu? dice dice :sofico:
mah..io non indagherò troppo su questi crash sul jet di BF3, potrebbe essere anche il joystick che uso per guidarli! mi sa che me lo tengo così finchè non esce la 680 e poi faccio il cambio! :fagiano:
Stesso problema ,appena accellero sul jet ...baaaaa schermata blu!!!
ho appena avuto un crash su BF3 con i 296.10 senza jet :(
Io non vado mai sul jet ....ma hò anch'io frequenti BSOD con gli ultimi 296.10giocando sempre fanteria....:rolleyes: :confused: . L'ultimo BSOD riportava un system_service_exception....:confused:
Io non vado mai sul jet ....ma hò anch'io frequenti BSOD con gli ultimi 296.10giocando sempre fanteria....:rolleyes: :confused: . L'ultimo BSOD riportava un system_service_exception....:confused:
Ops...hò MSI AB che gira in modalità utente....provo a metterlo in modalità Kernel come suggeriscono in molti...vediamo se risolvo...:)
_DoktorTerror_
20-03-2012, 01:28
quindi sti 296.10 fanno un po ca@@@@ :mad:
randymoss
20-03-2012, 05:55
quindi sti 296.10 fanno un po ca@@@@ :mad:
credo di si........:mbe: :mbe: :mbe:
illidan2000
20-03-2012, 09:41
quindi sti 296.10 fanno un po ca@@@@ :mad:
parli sempre di Bf3?
sto giocando ad assassin's creed revelations, nessun problema o miglioria riscontrata. idem per hard reset (fluidissimo e perfetto anche in 3d)
Wuillyc2
20-03-2012, 09:45
quindi sti 296.10 fanno un po ca@@@@ :mad:
Yes, ho avuto lo stesso problema anche io, pensavo fosse dovuto all'oc ma fortunatamente non centra nulla.
Stesso problema ,appena accellero sul jet ...baaaaa schermata blu!!!
ho appena avuto un crash su BF3 con i 296.10 senza jet :(
Io non vado mai sul jet ....ma hò anch'io frequenti BSOD con gli ultimi 296.10giocando sempre fanteria....:rolleyes: :confused: . L'ultimo BSOD riportava un system_service_exception....:confused:
io non ho schermate blu, per crash intendevo che il gioco smette di funzionare...però non riesco a capire da cosa dipende. Ho l'ultima versione si MSI AB ufficiale (non beta) che tengo attiva per monitorare fps e temperature.
Ops...hò MSI AB che gira in modalità utente....provo a metterlo in modalità Kernel come suggeriscono in molti...vediamo se risolvo...:)
come si fa questa modifica?
CiccoMan
20-03-2012, 12:50
Scusate ragazzi, mi serve una delucidazione :stordita: ...
Ieri sono passato da una HD5850 (sapphire) a una GTX570 (palit ... quella con frequanze standard e dissipatore biventola) e ho avuto un problema in Skyrim... il gioco è chiaramente piu fluido e ho fatto la prima sessione di gioco tranquillamente con dettaglio ultra, tutto a palla e FXAA disattivato. Dopo un paio di ore di gioco il framerate di colpo è sceso a livelli paurosi rendendo il gioco ingiocabile. Inizialmente succedeva per qualche secondo quando entravo o uscivo da un abitazione (witerun) e poi negli esterni è peggiorato rimanendo fisso a due fps...
Possibile perchè è cominciato a piovere (in skyrim naturalmente :fagiano: )?
Alla fine sono uscito dal gioco, ho abbassato i filtri da 8x/16x a 4x/8x e quando sono rientrato la situazione era tornata alla normalità... ma non so se è stato l'abbassare i filtri o l'uscire e rientrare dal gioco...
E' capitato a qualcuno?
itachi23
20-03-2012, 13:58
Scusate ragazzi, mi serve una delucidazione :stordita: ...
Ieri sono passato da una HD5850 (sapphire) a una GTX570 (palit ... quella con frequanze standard e dissipatore biventola) e ho avuto un problema in Skyrim... il gioco è chiaramente piu fluido e ho fatto la prima sessione di gioco tranquillamente con dettaglio ultra, tutto a palla e FXAA disattivato. Dopo un paio di ore di gioco il framerate di colpo è sceso a livelli paurosi rendendo il gioco ingiocabile. Inizialmente succedeva per qualche secondo quando entravo o uscivo da un abitazione (witerun) e poi negli esterni è peggiorato rimanendo fisso a due fps...
Possibile perchè è cominciato a piovere (in skyrim naturalmente :fagiano: )?
Alla fine sono uscito dal gioco, ho abbassato i filtri da 8x/16x a 4x/8x e quando sono rientrato la situazione era tornata alla normalità... ma non so se è stato l'abbassare i filtri o l'uscire e rientrare dal gioco...
E' capitato a qualcuno?
Un bug noto di skyrim era dovuto al saturamento della memoria, ma lo faceva nella versione ps, prova ad aggiornare il gioco all'ultima versione, che driver hai?
io non ho schermate blu, per crash intendevo che il gioco smette di funzionare...però non riesco a capire da cosa dipende. Ho l'ultima versione si MSI AB ufficiale (non beta) che tengo attiva per monitorare fps e temperature.
come si fa questa modifica?
Vai su settings e sul primo sheet che si chiama "generale" trovi la voce proprietà di compatibilità con un menu' a tendina. Lo apri e metti Kernel..;)
CiccoMan
20-03-2012, 14:48
Un bug noto di skyrim era dovuto al saturamento della memoria, ma lo faceva nella versione ps, prova ad aggiornare il gioco all'ultima versione, che driver hai?
Il gioco è aggiornato, lo fa automaticamente steam :)
i drivers li ho scaricati l'altro ieri (ora non ricordo la numerazione... chiedo venia, ma è un pezzo che sono fuori dal mondo nvidia :p ...)... in effetti ci ho pensato pure io potesse essere un problema di driver... suppongo che tra ieri e oggi non sia uscita una nuova release...
Per la verità la mia paura più grande è che la scheda sia andata in thermal throttling... stasera se ho tempo faccio qualche bench...
anche a me succede e' un problema di saturamento della memoria video, se usi il pacchetto texture, basta vedere con msi afterburner che i 1280mb non bastano sulla video, o quasi sicuramente sono gestiti male, infatti basta andare sul desktop mentre giochi e torni subito sul gioco torna fluido abassandoti il carico sulla memoria video.
consiglio comunque lascia tutto su pure su ultra, a parte i decal su high e AA a 2x con fxaa attivo e hai ottime prestazioni e una bella immagine non seghettata
CiccoMan
20-03-2012, 16:20
anche a me succede e' un problema di saturamento della memoria video, se usi il pacchetto texture, basta vedere con msi afterburner che i 1280mb non bastano sulla video, o quasi sicuramente sono gestiti male, infatti basta andare sul desktop mentre giochi e torni subito sul gioco torna fluido abassandoti il carico sulla memoria video.
consiglio comunque lascia tutto su pure su ultra, a parte i decal su high e AA a 2x con fxaa attivo e hai ottime prestazioni e una bella immagine non seghettata
Strano, con la hd5850 (1GB) giocavo sempre con le texture hd e non avevo questo problema...
In pratica é un problema driver... speriamo che risolvano con le prossime release...
Inviato dal mio Galaxy Nexus usando Tapatalk
<Masquerade>
20-03-2012, 17:03
Strano, con la hd5850 (1GB) giocavo sempre con le texture hd e non avevo questo problema...
In pratica é un problema driver... speriamo che risolvano con le prossime release...
Inviato dal mio Galaxy Nexus usando Tapatalk
io con la 5850 invece ci giocavo da schifo, senza texture hd...
CiccoMan
20-03-2012, 18:08
io con la 5850 invece ci giocavo da schifo, senza texture hd...
Chiaramente il framerate non è nemmeno paragonabile e con la scheda amd i filtri erano tutti off... però era costante... ieri sera la 570 in cinque minuti è passata da millemila fps a 1-2 fps :mbe:
Comunque ho visto che ora skyrim sta ricevendo un update, magari sistemano prima loro di nvidia :oink:
<Masquerade>
20-03-2012, 18:30
Chiaramente il framerate non è nemmeno paragonabile e con la scheda amd i filtri erano tutti off... però era costante... ieri sera la 570 in cinque minuti è passata da millemila fps a 1-2 fps :mbe:
Comunque ho visto che ora skyrim sta ricevendo un update, magari sistemano prima loro di nvidia :oink:
mah.. non erano i frames il problema della 5850, ma lo stuttering veramente indecente. mentre con altri giochi che ho riporvato mi ha soddisfatto devo dire...tipo con dirt 3.
ciauz!
Vai su settings e sul primo sheet che si chiama "generale" trovi la voce proprietà di compatibilità con un menu' a tendina. Lo apri e metti Kernel..;)
scusami ma quest'opzione c'è anche in MSI AB 2.1.0? perchè non la trovo! :confused:
Se devo scaricare l'ultima versione beta di MSI AB, potresti dirmi come fare per attivare l'overvolt e overclock? Mi ricordo che nelle versioni beta c'era da aggiungere una stringa...
Grazie!
scusami ma quest'opzione c'è anche in MSI AB 2.1.0? perchè non la trovo! :confused:
Se devo scaricare l'ultima versione beta di MSI AB, potresti dirmi come fare per attivare l'overvolt e overclock? Mi ricordo che nelle versioni beta c'era da aggiungere una stringa...
Grazie!
Dovrebbe esserci anche nella tua...guarda bene è proprpio nel primo tab "generale" e accanto alla voce "sblocca il voltaggio" che puoi spuntare per aumentare il voltaggio e cosi overcloccare la VGA, c'è il menu a tendina dove puoi scegliere la modalità kernel..;)
Dovrebbe esserci anche nella tua...guarda bene è proprpio nel primo tab "generale" e accanto alla voce "sblocca il voltaggio" che puoi spuntare per aumentare il voltaggio e cosi overcloccare la VGA, c'è il menu a tendina dove puoi scegliere la modalità kernel..;)
http://s12.postimage.org/fsn34tfbd/Immagine.jpg (http://postimage.org/image/fsn34tfbd/)
non lo trovo.... :confused:
http://s12.postimage.org/fsn34tfbd/Immagine.jpg (http://postimage.org/image/fsn34tfbd/)
non lo trovo.... :confused:
Effettivamente non ce l'hai....:D :D ...scaricati l'ultima versione 2.2.0 Beta 14 ...:)
illidan2000
21-03-2012, 11:08
Effettivamente non ce l'hai....:D :D ...scaricati l'ultima versione 2.2.0 Beta 14 ...:)
è uscita la beta 15
http://www.hwfiles.it/download/scheda/4594/msi-afterburner/
killeragosta90
21-03-2012, 11:56
Dovrebbe esserci anche nella tua...guarda bene è proprpio nel primo tab "generale" e accanto alla voce "sblocca il voltaggio" che puoi spuntare per aumentare il voltaggio e cosi overcloccare la VGA, c'è il menu a tendina dove puoi scegliere la modalità kernel..;)
Scusa ma a che serve questa opzione/modalità? :confused:
Chiaramente il framerate non è nemmeno paragonabile e con la scheda amd i filtri erano tutti off... però era costante... ieri sera la 570 in cinque minuti è passata da millemila fps a 1-2 fps :mbe:
Comunque ho visto che ora skyrim sta ricevendo un update, magari sistemano prima loro di nvidia :oink:
che sia un problema di driver non so, be pero' a quanti frame giocavi tutto al massimo con la 5850 con le stesse impostazioni O.o.... naturalmente la memoria anche li si saturava e la gpu invece non riesciuva a gestire tutto quel carico in questo modo avevi un framerate basso e stabile, se e' come la penso e sempre che non sia un problema di driver come dici te, ma non si puo' scappare dalla verita' se non ci sta piu' niente nella memoria e continua a swappare sulla memoria di sistema ad un certo punto non ce' la fa piu' i incomincia ad andare giu' il framerate.
si risolve come ti ho detto, credo che facendo in questo modo ricarica solo le texture di dove sei al momento, secondo me e' gestito male dal gioco, dovrebbe fare in modo che quando lasci una certa area lasci il posto a quelle nuove.
Scusa ma a che serve questa opzione/modalità? :confused:
Passaci sopra con il mouse e ti viene spiegato...;)
scusate ragazzi se mi intrufolo...
anche voi avete avuto problemi con le 570 e i driver 296??
killeragosta90
22-03-2012, 12:03
Passaci sopra con il mouse e ti viene spiegato...;)
Eh purtroppo ho ancora una versione "vecchia" per cui non ho la possibilità di settare questa modalità e non so se valga la pena aggiornare per questa cosa, per quello ho chiesto qua :)
CiccoMan
22-03-2012, 12:08
che sia un problema di driver non so, be pero' a quanti frame giocavi tutto al massimo con la 5850 con le stesse impostazioni O.o.... naturalmente la memoria anche li si saturava e la gpu invece non riesciuva a gestire tutto quel carico in questo modo avevi un framerate basso e stabile, se e' come la penso e sempre che non sia un problema di driver come dici te, ma non si puo' scappare dalla verita' se non ci sta piu' niente nella memoria e continua a swappare sulla memoria di sistema ad un certo punto non ce' la fa piu' i incomincia ad andare giu' il framerate.
si risolve come ti ho detto, credo che facendo in questo modo ricarica solo le texture di dove sei al momento, secondo me e' gestito male dal gioco, dovrebbe fare in modo che quando lasci una certa area lasci il posto a quelle nuove.
Con la 5850 tenevo i filtri off e comunque era meno fluida. Quanti fps non saprei non li ho mai verificati, ma così a occhio direi che si stava sui 20/25 ma potrei dire una ca@@ata. Comunque quando capita con la 570 vado a 1 massimo 2 fps e non dico tanto per dire.
Comunque ieri sera ho provato la disinstallazione approfondita e reinstallazione del driver come suggerito ad un'altro utente qualche post fa. Ho rimesso tutto a palla filtri compresi e giocando il problema non si è riprasentato, ma ho provato un'oretta non più.
La mia paura era che fosse la scheda ad essere fallata, ma a questo punto è un problema di driver/gioco e quindi sono più tranquillo. Il fatto che in tutto hwupgrade (ho chiesto consiglio anche sul thread tecnico di skyrim... :p ) siamo solo in due ad avere questo problema può anche essere perchè non ci sono tante persone che si mettono ad entrare/uscire da un'abitazione di skyrim in modo compulsivo (anche perchè solo così riesco a riprodurre il problema) :stordita:
be a 1 o 2 fps non mi e' mai capitato di solito quando mi capita dai 60 col vsync scende sui 40, ma sta cosa me la faceva sopprattutto quando avevo messo un sacco di mod con 2k texture e altri mod alta risoluzione come acqua e vestiti.
comunque facci sapere, io ho pure una 570 palit, ma la scheda va benissimo in tutti giochi e per lo piu' la utilizzo in bf3, la tua scheda non ha nessun problema secondo me forse esageri con AA se lo usi a 8x non e' gestibile da una 570 almeno parlo per me che uso il vsync piu' tutti i tweaks e texture.
vincenzomary
22-03-2012, 16:19
scusate ragazzi se mi intrufolo...
anche voi avete avuto problemi con le 570 e i driver 296??
che tipo di problemi? grazie.
che tipo di problemi? grazie.
crash a random nei giochi...
Orkozzio
22-03-2012, 19:55
Una curiosità, quanti di voi lasceranno la loro 580/570 per prendere la nuova 680?!:)
Personalmente per quanto visto fino ad ora, la "scimmia" del cambio vga stranamente non si fa sentire ed io non sento la necessità di sostituire la mia 580 dcu2 che si comporta egregiamente
Ho deciso che la mia prossima scheda mi dovrà dare un boost di prestazioni minimo del 50% in + rispetto alla mia attuale e dunque resto in attesa delle prossime novità!;)
Goofy Goober
22-03-2012, 20:03
Una curiosità, quanti di voi lasceranno la loro 580/570 per prendere la nuova 680?!
Io per ora ho queste 2, e conto di tenerle
http://www.xtremeshack.com/immagine/i135349_580s.jpg
http://www.xtremeshack.com/immagine/i135350_580s2.jpg
non vedo motivi e giochi (per me) ancora validi per cambiarle.
Il mio target, inquadrato e "lockato" è il GK110
Che poi la 680 sia una signora scheda e le nuove features introdotte da nvidia molto interessante è indubbio. il TXAA sarà implementato anche sulla serie 4xx e 5xx comunque, il punto è che dovranno essere anche i giochi a supportarlo.
TigerTank
22-03-2012, 20:05
Una curiosità, quanti di voi lasceranno la loro 580/570 per prendere la nuova 680?!:)
Personalmente per quanto visto fino ad ora, la "scimmia" del cambio vga stranamente non si fa sentire ed io non sento la necessità di sostituire la mia 580 dcu2 che si comporta egregiamente
Ho deciso che la mia prossima scheda mi dovrà dare un boost di prestazioni minimo del 50% in + rispetto alla mia attuale e dunque resto in attesa delle prossime novità!;)
Personalmente dipenderà da quanto costerà in relazione al boost prestazionale + eventuali nuove features introdotte. Ultimamente gioco molto meno(causa anche nuova passione per i giochi sportivi su Wii) e ho tantissimi titoli arretrati (specialmente dovuti a saldi Steam) per i quali basta e avanza la vga attuale. Per non parlare poi del fatto che penso di dare la priorità ad un bell'Ivy 3770k, probabilmente + relativa mobo Z77.
Goofy Goober
22-03-2012, 20:10
Personalmente dipenderà da quanto costerà in relazione al boost prestazionale + eventuali nuove features introdotte. Ultimamente gioco molto meno(causa anche nuova passione per i giochi sportivi su Wii) e ho tantissimi titoli arretrati (specialmente dovuti a saldi Steam) per i quali basta e avanza la vga attuale. Per non parlare poi del fatto che penso di dare la priorità ad un bell'Ivy 3770k, probabilmente + relativa mobo Z77.
Io devo anche valutare se il passaggio a Z77 con PCI-E 3.0 sarà utile ora o più avanti, quando ci sarà appunto GK110, visto che il cpu limited è di nuovo alle porte con queste 680gtx e il GK110, e non so se il PCIe 2.0 sarà saturato dalle future kepler.
Diciamo che ho del tempo per valutare gli upgrade futuri, visto che al momento mi va bene tutto com'è.
TigerTank
22-03-2012, 20:21
Anch'io voglio prima vedere come si comporterà il PCI-E 3.0 con relativa scheda video di nuova generazione, non tanto per la questione banda che mi importa poco visto che è difficile che io vada oltre la singola vga...ma proprio in quanto a prestazioni :)
Poi come dici tu, non c'è fretta, nessuno ci corre dietro e abbiamo il tempo per valutare tutto con calma ;)
murrieta
22-03-2012, 21:03
Io per ora ho queste 2, e conto di tenerle
http://www.xtremeshack.com/immagine/i135349_580s.jpg
http://www.xtremeshack.com/immagine/i135350_580s2.jpg
non vedo motivi e giochi (per me) ancora validi per cambiarle.
Il mio target, inquadrato e "lockato" è il GK110
Che poi la 680 sia una signora scheda e le nuove features introdotte da nvidia molto interessante è indubbio. il TXAA sarà implementato anche sulla serie 4xx e 5xx comunque, il punto è che dovranno essere anche i giochi a supportarlo.
anch'io la penso esattamente come te....sto benissimo con il mio SLI e non sento alcuna impellenza di un VGA change anche per via dei pochi titoli che sfruttano il comparto grafico a dovere...pertanto ho calamitata l'attenzione per l'uscita del signor GK110 e non ho alcuna fretta di cambiare...;)
Orkozzio
22-03-2012, 21:07
AAAAAA beh, la fate facile voi.. ne basta già una oggi, con due io starei tranquillo per un'altra generazione a venire!:D
Piuttosto penso che la gestione del nuovo filtro, potrebbe essere molto interessante per non appesantire troppo il carico della vga e migliorare la resa generale delle schede.. sapete se verrà introdotto anche sulle nostre schede o non sono "strutturate" per supportarlo?! :confused:
Kingdemon
22-03-2012, 21:45
Una curiosità, quanti di voi lasceranno la loro 580/570 per prendere la nuova 680?!:)
Personalmente per quanto visto fino ad ora, la "scimmia" del cambio vga stranamente non si fa sentire ed io non sento la necessità di sostituire la mia 580 dcu2 che si comporta egregiamente
Ho deciso che la mia prossima scheda mi dovrà dare un boost di prestazioni minimo del 50% in + rispetto alla mia attuale e dunque resto in attesa delle prossime novità!;)
Io prima devo cambiare mobo procio e ram.. poi vedo come si comporta la 570. Il collo di bottiglia nel mio sistema adesso è lì..
ironman72
22-03-2012, 21:53
Io prima devo cambiare mobo procio e ram.. poi vedo come si comporta la 570. Il collo di bottiglia nel mio sistema adesso è lì..
Forse e' l'opposto..cioe' cpu+mobo+ram a non correre come la 570..
Almeno questo e' quello che ho sempre letto anche in queesto thread.
Goofy Goober
22-03-2012, 22:47
AAAAAA beh, la fate facile voi.. ne basta già una oggi, con due io starei tranquillo per un'altra generazione a venire!:D
Piuttosto penso che la gestione del nuovo filtro, potrebbe essere molto interessante per non appesantire troppo il carico della vga e migliorare la resa generale delle schede.. sapete se verrà introdotto anche sulle nostre schede o non sono "strutturate" per supportarlo?! :confused:
l'ho scritto nel mio post sopra :)
il TXAA sarà implementato anche sulla serie 4xx e 5xx comunque, il punto è che dovranno essere anche i giochi a supportarlo.
quindi bisogna vedere quando usciranno giochi che supporteranno questo tipo di AA...
murrieta
22-03-2012, 22:52
quindi bisogna vedere quando usciranno giochi che supporteranno questo tipo di AA...
e soprattutto "se" usciranno...:)
Goofy Goober
22-03-2012, 22:56
e soprattutto "se" usciranno...:)
spero sia sottointesa la cosa :D
è un po' come l'FXAA, semplificando, dopo che è stato implementato questo nuovo AA l'abbiam visto in alcuni titoli anche molto consolizzati, tipo DeuS EX HR e Skyrim...
tratto dalla review di guru3d delle 680
Unfortunately TXAA needs to be implemented in upcoming game titles, and this the functionality will be available later this year. TXAA will also get supported in GeForce series 400 and 500 products.
http://www.guru3d.com/article/geforce-gtx-680-review/6
e soprattutto "se" usciranno...:)
ma si tranquilli che ora tutti i giochi nati su pc, in particolare quelli in collaborazione con nvidia e physx verrano implementati immediatamente, anzi magari è già pronta la patch ;)
comunque quella scheda è una bestia...mi vergono della mia 580 xD
TigerTank
23-03-2012, 08:42
Un sito francese ha fatto una raccolta dei prezzi...sinceramente mi sa che aspetterò un pò(anche per vedere se titoli del calibro di Max payne 3 e Diablo3 meriterranno la spesa). Con i tempi che corrono speravo che moderassero un pò i prezzi e invece tutto l'opposto. Si va dai 500€ in su.
http://www.prixdunet.com/actualites/nvidia-geforce-gtx-680-1504.html
Goofy Goober
23-03-2012, 08:51
intanto diablo III non sarà certo un titolo "pesante" sotto l'aspetto grafico:)
gd350turbo
23-03-2012, 13:46
Ragazzi, provando a patchare i nuovi driver 300 per far si che si installino su una 580, si corre qualche rischio di danneggiare la medesima ?
Goofy Goober
23-03-2012, 14:03
Ragazzi, provando a patchare i nuovi driver 300 per far si che si installino su una 580, si corre qualche rischio di danneggiare la medesima ?
direi di no
ma meglio aspettare escano ufficiali, non credo passerà molto. devono anche mettere il supporto al TXAA per 4xx e 5xx con le prox release
playmake
23-03-2012, 14:12
Una curiosità, quanti di voi lasceranno la loro 580/570 per prendere la nuova 680?!:)
Personalmente per quanto visto fino ad ora, la "scimmia" del cambio vga stranamente non si fa sentire ed io non sento la necessità di sostituire la mia 580 dcu2 che si comporta egregiamente
Ho deciso che la mia prossima scheda mi dovrà dare un boost di prestazioni minimo del 50% in + rispetto alla mia attuale e dunque resto in attesa delle prossime novità!;)
non solo nn abbandono la nave... ma visto la moria di 580 svendute per scimmia ne prenderò una seconda da mettere in SLI ! :sofico: :sofico: :sofico:
Kingdemon
23-03-2012, 14:22
Forse e' l'opposto..cioe' cpu+mobo+ram a non correre come la 570..
Almeno questo e' quello che ho sempre letto anche in queesto thread.
Sì è quello che intendevo dire.. nel mio sistema la cpu è il collo di bottiglia
Goofy Goober
23-03-2012, 14:27
Sì è quello che intendevo dire.. nel mio sistema la cpu è il collo di bottiglia
di sicuro avrai bei giovamenti quando passerai ad una nuova piattaforma, tipo 1155.
Kingdemon
23-03-2012, 14:36
di sicuro avrai bei giovamenti quando passerai ad una nuova piattaforma, tipo 1155.
E' quello che credo anche io.. sto aspettando l'uscita di ivy e per maggio mi faccio un bel regalo :)
Volevo già passare ad un 2500k ad ottobre ma poi per vari problemi non sono riuscito.. A sto giro però cambio architettura!
Punterò anche ad una mobo che supporti lo sli.. non si sa mai che in futuro mi convenga prendere una sorellina alla 570 invece che cambiarla!
gd350turbo
23-03-2012, 14:42
Una curiosità, quanti di voi lasceranno la loro 580/570 per prendere la nuova 680?!:)
Sicuramente non io...
( a meno che non trovi un pazzo disposto a darmi almeno 450 euro per la mia )
Il mio ormai antiquato sistema ha dato dei punti ad heaven bench ad un sistema da 2000 euro, ( ovviamente il colpevole è il proprietario non il sistema )
Gira tutto magnificamente, non cè traccia di cpu limited, perchè dovrei cambiare ?
Per una 670 che è stata denominata 680 per volere del marketing ?
E che tra 6 mesi quando uscirà il GK110 varrà la metà ?
Noooo...
Aspetto la 780 !
TigerTank
23-03-2012, 14:48
direi di no
ma meglio aspettare escano ufficiali, non credo passerà molto. devono anche mettere il supporto al TXAA per 4xx e 5xx con le prox release
Concordo, il supporto sarà esteso anche a 5xx e 4xx ma non c'è alcuna fretta visto che se non sbaglio il TXAA dev'essere implementato nel gioco stesso :)
Semmai è interessante l'smaa settabile da pannello invece del classico AA forzato (il più delle volte inutilmente).
Per una 670 che è stata denominata 680 per volere del marketing ?
E che tra 6 mesi quando uscirà il GK110 varrà la metà ?
Noooo...
Aspetto la 780 !
Per ora la penso anch'io così...non mi va di spendere 500€ per una vga che avrebbe dovuto essere la sorellina minore del GK110(che avrebbe dovuto essere la 680 e invece sarà la 780) e spacciata invece per nuovo top di gamma avendo prestazioni mediamente superiori alla 7970 (anch'essa messa sul mercato ad un prezzo maggiorato rispetto a precedenti generazioni amd).
gd350turbo
23-03-2012, 14:52
Sì è quello che intendevo dire.. nel mio sistema la cpu è il collo di bottiglia
La mia si difende ancora bene...
Viaggia però a 3.8/3.9 ghz
Una curiosità, quanti di voi lasceranno la loro 580/570 per prendere la nuova 680?!:)
Personalmente per quanto visto fino ad ora, la "scimmia" del cambio vga stranamente non si fa sentire ed io non sento la necessità di sostituire la mia 580 dcu2 che si comporta egregiamente
Ho deciso che la mia prossima scheda mi dovrà dare un boost di prestazioni minimo del 50% in + rispetto alla mia attuale e dunque resto in attesa delle prossime novità!;)
Se vengono utilizzate a pieno tanto di cappello a chi le cambie, ma se seguono la scimmia possono tranquillamente saltare o aspettare altro :p
Kingdemon
23-03-2012, 14:59
La mia si difende ancora bene...
Viaggia però a 3.8/3.9 ghz
Ho provato a salire ma devo dare troppo v-core penso sia un problema di mobo.
Io gioco solo a BF3.. e in molti mi hanno consigliato un upgrade della cpu. Se potessi proverei la mia 570 su un sandy..
Secondo te non siamo cpu limited?
Edit: forse ne avevamo già discusso :fagiano: non vorrei andare troppo OT
gd350turbo
23-03-2012, 15:10
Ho provato a salire ma devo dare troppo v-core penso sia un problema di mobo.
Io gioco solo a BF3.. e in molti mi hanno consigliato un upgrade della cpu. Se potessi proverei la mia 570 su un sandy..
Secondo te non siamo cpu limited?
Edit: forse ne avevamo già discusso :fagiano: non vorrei andare troppo OT
Anchio gioco solo a BF3 ed anche a me, avevano detto, non so in base a quale teoria, che ero cpu limited...
Ho fatto tutte le verifiche del caso, prima con il taskmanager e afterburner attivi in background.
Taskmanager arriva al massimo a dei picchi di circa l'80% e afterburner segna sempre l'utilizzo dalla 580 al 99%, anche provando ripetutamente scene in cui causa complessità, il frame rate crolla, non vi è segno di cedimento da parte della cpu/gpu.
Ad ulteriore riprova la funzione interna di BF3 , cpu overlayperf mi pare si chiami che ti mostra su un grafico il tempo necessario per eseguire una istruzione mostra una situazione perfetta !
Certo siamo molto vicini al limite, potrebbe essere che con la 680 questo limite venga superato, ma per ora siamo perfetti !
Tra un annetto, quando ci saranno soluzioni GK110 di gigabyte o msi di provata efficenza, allora, forse un bel computer nuovo !
Ragazzi, afterburner non mi fa sbloccare il V delle mie 570.. cosa posso usarle per o.voltarle?
come non detto.. l'ho aggiornato e funziona
Orkozzio
23-03-2012, 18:53
Ottimo, allora chi ha gia l'ex top di gamma non è tentato di passare alla nuova o presunta tale top di gamma..:)
D'altronde il guadagno di fps non è così consistente da gridare al miracolo.. e se proprio mi deciderò al grande salto, lo farò alla prossima ammiraglia di casa nvidia/amd.. rigorosamente con dissipatore custom!;)
Orkozzio
23-03-2012, 18:54
l'ho scritto nel mio post sopra :)
quindi bisogna vedere quando usciranno giochi che supporteranno questo tipo di AA...
Grazie... sarà l'età.. o forse è meglio che faccio un salto dall'oculista!:D :stordita:
Kingdemon
23-03-2012, 19:20
Anchio gioco solo a BF3 ed anche a me, avevano detto, non so in base a quale teoria, che ero cpu limited...
Ho fatto tutte le verifiche del caso, prima con il taskmanager e afterburner attivi in background.
Taskmanager arriva al massimo a dei picchi di circa l'80% e afterburner segna sempre l'utilizzo dalla 580 al 99%, anche provando ripetutamente scene in cui causa complessità, il frame rate crolla, non vi è segno di cedimento da parte della cpu/gpu.
Ad ulteriore riprova la funzione interna di BF3 , cpu overlayperf mi pare si chiami che ti mostra su un grafico il tempo necessario per eseguire una istruzione mostra una situazione perfetta !
Certo siamo molto vicini al limite, potrebbe essere che con la 680 questo limite venga superato, ma per ora siamo perfetti !
Tra un annetto, quando ci saranno soluzioni GK110 di gigabyte o msi di provata efficenza, allora, forse un bel computer nuovo !
Io invece in BF3 ho sempre tutto usato al 100%.. sia procio che ram che vga.
Ultimamente poi ho crolli di frame e non capisco da cosa siano causati.. per mesi mi è sempre girato bene! Adesso provo a postare sul thread tecnico del gioco..
Una curiosità, quanti di voi lasceranno la loro 580/570 per prendere la nuova 680?!:)
Personalmente per quanto visto fino ad ora, la "scimmia" del cambio vga stranamente non si fa sentire ed io non sento la necessità di sostituire la mia 580 dcu2 che si comporta egregiamente
Ho deciso che la mia prossima scheda mi dovrà dare un boost di prestazioni minimo del 50% in + rispetto alla mia attuale e dunque resto in attesa delle prossime novità!;)
huhuhuh sto per prendere la seconda Lightning :D :D
aspetterò GK110 per il cambio.
Beseitfia
23-03-2012, 20:34
Ragazzi secondo voi vale la pena cambiare le mie due gtx580 in firma con due gtx680??
gd350turbo
23-03-2012, 20:36
Ragazzi secondo voi vale la pena cambiare le mie due gtx580 in firma con due gtx680??
Se riesci a fare il cambio gratis, si...
Beseitfia
23-03-2012, 20:54
Se riesci a fare il cambio gratis, si...
addirittura? Non penso di riuscirci gratis...ma la gtx680 va molto di piu' della 580?? Dalla recensione mi pare sia su per giu come la 7970...
francisco9751
23-03-2012, 21:04
che ne pensate della pny?ho visto una gtx 570 pny a 227..e sembra il momento di fare uno sli :D quindi volevo saperne un po' di piu
addirittura? Non penso di riuscirci gratis...ma la gtx680 va molto di piu' della 580?? Dalla recensione mi pare sia su per giu come la 7970...
no dovrebbe avere il 10% in più di una 7970 :)
francisco9751
23-03-2012, 21:15
nessuno conosce il marchio pny?:(
Goofy Goober
23-03-2012, 21:31
addirittura? Non penso di riuscirci gratis...ma la gtx680 va molto di piu' della 580?? Dalla recensione mi pare sia su per giu come la 7970...
tieniti il tuo SLI e vivi felice. giochi che gli danno fastidio ora non ce ne sono. se non cambi per scimmia allora lascia stare...
nessuno conosce il marchio pny?:(
è un buon brand. Storico nvidia se ricordo bene, le PYN nvidia me le ricordo già tanti anni fa, ho avuto anche 2 8800gtx della PYN. Se parli di reference comunque, a parte EVGA e forse le Zotac AMP e le MSI, non è che gli altri brand facciano schede più o meno valide. son tutte simili.
Kingdemon
23-03-2012, 21:36
Non la conosco personalmente come marca.. secondo me se è una reference puoi anche "rischiare" attenzione invece che non sia una di quelle a pcb corto con la ventola centrale.
Goofy Goober
23-03-2012, 21:43
Non la conosco personalmente come marca.. secondo me se è una reference puoi anche "rischiare" attenzione invece che non sia una di quelle a pcb corto con la ventola centrale.
anche quelle con ventola centrale sono "reference", anche se poi sono schede peggiori delle originarie con ventola a turbina...
la PYN è una buona marca comunque, c'è poco da rischiare... mica parliamo di PALIT :fagiano:
francisco9751
23-03-2012, 21:49
infatti è una di quelle..allora prendere un altra palit per 20 euro in più e vado sul sicuro..anche se non sono reference posso fare lo sli no?perché avevo sentito che era meglio con le reference
francisco9751
23-03-2012, 21:50
io ho la palit e mai avuti problemi :D
Kingdemon
23-03-2012, 21:52
anche quelle con ventola centrale sono "reference", anche se poi sono schede peggiori delle originarie con ventola a turbina...
la PYN è una buona marca comunque, c'è poco da rischiare... mica parliamo di PALIT :fagiano:
No aspetta quelle con la ventola centrale hanno il pcb corto.. non sono assolutamente reference.
Poi che vadano bene comunque può essere ma ho dei dubbi in merito alle fasi di alimentazione e alla dissipazione del calore.. se devo dare un consiglio o reference o una custom ma di un certo livello tipo la gigabyte triventola o una msi twin frozr. Il tutto imho si intende :)
Edit: per lo sli solitamente si consigliano due vga con design reference perchè espellono il calore verso l'esterno e non si danno fastidio.. dipende molto anche dall'areazione del tuo case
Goofy Goober
23-03-2012, 22:37
No aspetta quelle con la ventola centrale hanno il pcb corto.. non sono assolutamente reference.
sono reference nel senso che il modello a ventola centrale della 570 è diventato la reference "seconda versione" per tutti i produttori
pure EVGA ha fatto le 570hd che sono a pcb corto
poi ci sono le inno 3d anche...
in pratica hanno smesso di usare il PCB "prima versione", che poi altro non era che quello della 580gtx con meno vram saldata sopra e meno fasi d'alimentazione.
il pcb corto della 570 "seconda versione" mi pare quello della 560ti invece.
buonasera gente, volete sapere come ho fatto io a far impennare gli fps con la mia cara 580? beh ve lo dico subito...ho settato l'anti aliasing a 2x:D
con bf3 60 fps quasi fissi!
la perdita di qualità è davvero minima, anzi quasi impercettibile, e si guadagna davvero tanto.....lunga vita alla gtx580!!
che ne pensate della pny?ho visto una gtx 570 pny a 227..e sembra il momento di fare uno sli :D quindi volevo saperne un po' di piu
Pny è uno dei migliori Partners Nvidia, vai tranquillo;)
buonasera gente, volete sapere come ho fatto io a far impennare gli fps con la mia cara 580? beh ve lo dico subito...ho settato l'anti aliasing a 2x:D
con bf3 60 fps quasi fissi!
la perdita di qualità è davvero minima, anzi quasi impercettibile, e si guadagna davvero tanto.....lunga vita alla gtx580!!
Si, è ancora una gran bella scheda;)
sickofitall
24-03-2012, 07:13
buonasera gente, volete sapere come ho fatto io a far impennare gli fps con la mia cara 580? beh ve lo dico subito...ho settato l'anti aliasing a 2x:D
con bf3 60 fps quasi fissi!
la perdita di qualità è davvero minima, anzi quasi impercettibile, e si guadagna davvero tanto.....lunga vita alla gtx580!!
Si, è ancora una gran bella scheda;)
ha ragione, molte volta abbassando di una tacca un settaggio grafico si perde molto poco in qualità visiva ma in compenso gli fps schizzano
L'aa di bf3 è di una pesantezza unica
_DoktorTerror_
24-03-2012, 11:00
addirittura? Non penso di riuscirci gratis...ma la gtx680 va molto di piu' della 580?? Dalla recensione mi pare sia su per giu come la 7970...
il 16% in piu...............fatti uno sli mettile in oc e aspetta GK110 ;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.