PDA

View Full Version : [THREAD UFFICIALE - GF110] Geforce GTX580/570


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 [122] 123 124 125 126 127 128 129 130 131 132 133

Giustaf
10-04-2012, 22:58
io nel menù Nvidia alla voce Sincronizzazione Verticale ho sia l'opzione "Automatica" che "Automatico (intervallo 2)"

qual'è la differenza tra i due?

Mark011
10-04-2012, 23:28
un'asus gtx570 dc2 a 175€ come la vedete? usata naturalmente

killeragosta90
10-04-2012, 23:31
io nel menù Nvidia alla voce Sincronizzazione Verticale ho sia l'opzione "Automatica" che "Automatico (intervallo 2)"

qual'è la differenza tra i due?
ti quoto il messaggio:
Grazie! Ed io ho trovato una spiegazione sulla differenza, eccola qui:

http://uptiki.altervista.org/_altervista_ht/wmgf4n2b5tx3e14arwu_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=wmgf4n2b5tx3e14arwu.jpg)
:)

V1TrU'z
11-04-2012, 08:59
un'asus gtx570 dc2 a 175€ come la vedete? usata naturalmente

Molto bene, grazie :D

keroro.90
11-04-2012, 09:08
Comunque si parlerebbe di tempi lunghissimi per causare danni, non di una prova di qualche minuto, mi pare di capire.

Io avevo messo al massimo in "manuale" per sentire se il rumore era eccessivo e poi avevo reimpostato su "dinamico", riscontrando che l'adeguamento ai giri originari come tempo era comunque alquanto lungo.

Vabbè, allora nessun problema quindi dici tu, grazie. ;)

Si si tempi lunghi....se giochi 10h a settimana in un annon sono 500h...quindi niente di che sulla durata complessiva...

-Maxx-
11-04-2012, 09:16
Esatto, diciamo che, leggerezza a parte, questo filtro da drivers è una manna dal cielo per tutti i titoli vecchiotti che oltre a non includere ancora l'fxaa non hanno nemmeno l'msaa interno e per i quali forzarlo da pannello con il solito "escludi..." o non funzionava o comportava effetti collaterali tra pesantezza e /o artefatti.


E' una manna anche per chi ha una scheda video di fascia medio-bassa e un monitor Full HD :D

in full hd 2x basta secondo me

Concordo ;)

Dipende, soprattutto perchè la teoria delle "scalettature che in fullHD non si vedono" è una bella bufala. Si vedono eccome! :)
Comunque piuttosto che il 2x tanto vale attivare ormai l'fxaa che si avvicina ai 4x.

Beh non è che non si vedono, si vedono di meno :)

La differenza tra 1440x900 e 1920x1080 con il filtro 2x MSAA si nota e pure tanto... :fagiano:

illidan2000
11-04-2012, 09:20
un'asus gtx570 dc2 a 175€ come la vedete? usata naturalmente

regalata

¥º·RG·º¥
11-04-2012, 09:55
L'adaptive vsync io l'avevo provato usando i 301.10 moddati. Risultato: è una boiata, il tearing c'è eccome... Su Tom's hardware c'era una bella spiegazione.
Diciamo che se siete abituati ad avere vsync off, attivate l'adaptive è migliorerà la situazione, se siete abituati a on, lasciatelo com'è...

Ci posti l'articolo per favore? Sicuramente qualcosa sarà andato storto con questo "accrocco" sui driver...

jolly74
11-04-2012, 10:06
pensavo fosse solo un problema mio :D provato con pes 2012, syndicate e battlefield 3 e il tearing si nota! poi non sono per niente abituato a giocare senza v-sync quindi forse lo noto ancora di piu boh

L'adaptive vsync io l'avevo provato usando i 301.10 moddati. Risultato: è una boiata, il tearing c'è eccome... Su Tom's hardware c'era una bella spiegazione.
Diciamo che se siete abituati ad avere vsync off, attivate l'adaptive è migliorerà la situazione, se siete abituati a on, lasciatelo com'è...

A me funziona benissimo sui seguenti giochi : TW2 , Batman AA , Batman AC , BF3 , Metro2033 , Darksiders , però io ho una 680 e monitor 120 hz . Puoi linkare l'articolo che citi ?

nervoteso
11-04-2012, 10:25
qualcuno è passato da 580 a 680? ne vale la pena?

¥º·RG·º¥
11-04-2012, 10:33
qualcuno è passato da 580 a 680? ne vale la pena?

Anche se questo non è il thread giusto, assolutamente no! non ne vale la pena. La 680 è DAVVERO una signora scheda, efficientissima e con potenza da vendere ma il passaggio che tu hai chiesto è insensato: la 580 ancora ti permette di far girare tutto al massimo senza alcun problema in Full-HD ;). Se sei tentato, ti consiglio di trovare un'altra 580 usata ed andare di SLI fino al GK110 ;)

Chiuso OT

illidan2000
11-04-2012, 11:17
qualcuno è passato da 580 a 680? ne vale la pena?

Anche se questo non è il thread giusto, assolutamente no! non ne vale la pena. La 680 è DAVVERO una signora scheda, efficientissima e con potenza da vendere ma il passaggio che tu hai chiesto è insensato: la 580 ancora ti permette di far girare tutto al massimo senza alcun problema in Full-HD ;). Se sei tentato, ti consiglio di trovare un'altra 580 usata ed andare di SLI fino al GK110 ;)

Chiuso OT

secondo me non è per niente OT una domanda del genere dai...
cmq se volete posto i miei test

Mark011
11-04-2012, 11:25
Molto bene, grazie :D

regalata

il tipo voleva 200€, alla fine ci siamo accordati per 175, domani dovrei andare a casa sua a testarla, cosa dovrei controllare per essere sicuri che non mi stia facendo il pacco???

illidan2000
11-04-2012, 11:29
il tipo voleva 200€, alla fine ci siamo accordati per 175, domani dovrei andare a casa sua a testarla, cosa dovrei controllare per essere sicuri che non mi stia facendo il pacco???

purtroppo ad occhio non si vede nulla. lo puoi sapere solo quando la infili dentro il case e la provi per un po'. fai un po' di test generici (3dmark11,unigine heaven) e poi ci giochi qualche oretta.

edit. non avevo capito che la testavate con il pc :)
beh, vale lo stesso discorso dai. portati appresso i test

playmake
11-04-2012, 11:37
unigine heaven @ tutto al max con tutti i filtri al max. fallo girare 30 min e vivi sereno ;)

Mark011
11-04-2012, 11:40
secondo voi dunque basta 1 3dmark11 e mezz'ora di heaven? senza giochi?

¥º·RG·º¥
11-04-2012, 11:43
secondo voi dunque basta 1 3dmark11 e mezz'ora di heaven? senza giochi?

Dai anche un occhiata alle temperature sia in idle che full, per prevenire eventuali anomalie nel sistema di dissipazione e controlla il VID con Gpu-z ;)

Goofy Goober
11-04-2012, 11:45
secondo voi dunque basta 1 3dmark11 e mezz'ora di heaven? senza giochi?

no

a me sono stabili sia 3dMark11, ma soprattutto Unigine per ore e ore, ma poi gioco a Crysis2 DX11 e magari mi crasha dopo 2 minuti di gioco o dopo 1 ore :fagiano:

Unigine Heaven per me può esser utile a valutare le temperature ad uso prolungato... per la stabilità no... 3dMark11 o Vantage è già più probabile che crashino con eventuale riavvio dei driver video...

Ma crysis2 a me ha sempre caxxiato l'OC delle VGA perchè richiede più voltaggio dei programmi da bench. Altri dicono lo stesso di BF3.
Mi avevano spiegato che probabilmente dipende dal calo dei voltaggi quando tutto il pc lavora in full-load rispetto ai programmi di bench che stressano più le schede video che il resto, non so se può dipendere dall'alimentatore o no.

per testare una scheda se è funzionante o no, può anche andar bene usare solo i programmi di benchmark.

illidan2000
11-04-2012, 11:55
no

a me sono stabili sia 3dMark11, ma soprattutto Unigine per ore e ore, ma poi gioco a Crysis2 DX11 e magari mi crasha dopo 2 minuti di gioco o dopo 1 ore :fagiano:

Unigine Heaven per me può esser utile a valutare le temperature ad uso prolungato... per la stabilità no... 3dMark11 o Vantage è già più probabile che crashino con eventuale riavvio dei driver video...

Ma crysis2 a me ha sempre caxxiato l'OC delle VGA perchè richiede più voltaggio dei programmi da bench. Altri dicono lo stesso di BF3.
Mi avevano spiegato che probabilmente dipende dal calo dei voltaggi quando tutto il pc lavora in full-load rispetto ai programmi di bench che stressano più le schede video che il resto, non so se può dipendere dall'alimentatore o no.

per testare una scheda se è funzionante o no, può anche andar bene usare solo i programmi di benchmark.
una volta si usava ati tray tools (anche su schede nVidia) con l'artifact test. non so se è possibile farlo.
cmq non ricordo chi (forse ThePunisher) su questo thread parlava di un gpu tool con un test analogo

eccolo qui: http://www.hwupgrade.it/forum/showpost.php?p=37037954&postcount=29883

Goofy Goober
11-04-2012, 11:56
non ho mai provato in effetti con quello, ma qualcosa di simile credo ci sia.

cmq non è un test simile a quello che usa Furmark per stressare le schede? Furmark cmq da evitare accuratamente IMHO

illidan2000
11-04-2012, 13:10
non ho mai provato in effetti con quello, ma qualcosa di simile credo ci sia.

cmq non è un test simile a quello che usa Furmark per stressare le schede? Furmark cmq da evitare accuratamente IMHO

si, furmark è veramente una porcata. oltre al fatto che i drivers nvidia cmq limitano la scheda, quindi è del tutto inutile

murrieta
11-04-2012, 14:15
secondo voi dunque basta 1 3dmark11 e mezz'ora di heaven? senza giochi?

potrebbero bastare...se ne hai la possibilità monitora le temperature in idle e full, i giri delle ventole e 3-4 rullate consecutive del benchmark di Crysis sotto la neve...;)


come sono i nuovi driver??...ne vale la pena metterli su?qualcuno che li ha provati? attualmente ho i 295.73 e sono perfetti

¥º·RG·º¥
11-04-2012, 14:22
potrebbero bastare...se ne hai la possibilità monitora le temperature in idle e full, i giri delle ventole e 3-4 rullate consecutive del benchmark di Crysis sotto la neve...;)


come sono i nuovi driver??...ne vale la pena metterli su?qualcuno che li ha provati? attualmente ho i 295.73 e sono perfetti

Li ho su da 3 giorni, perfetti sotto ogni punto di vista... FXAA e Adaptive V-Sync ottimi... per adesso soddisfatto ;)

killeragosta90
11-04-2012, 14:36
Li ho su da 3 giorni, perfetti sotto ogni punto di vista... FXAA e Adaptive V-Sync ottimi... per adesso soddisfatto ;)
Hai notato miglioramenti anche per quanta riguarda le pure prestazioni con i giochi? :)

¥º·RG·º¥
11-04-2012, 14:42
Hai notato miglioramenti anche per quanta riguarda le pure prestazioni con i giochi? :)

Attualmente ho su Crysis 2 e Left4Dead 2..con Crysis senza v-sync circa 3-4 FPS, un aumento pero riservato agli spazi aperti.. dove il framerate è piu ballerino (sempre senza v-sync), L4D invece indentico.. ;)

vincenzomary
11-04-2012, 15:19
Li ho su da 3 giorni, perfetti sotto ogni punto di vista... FXAA e Adaptive V-Sync ottimi... per adesso soddisfatto ;)
FXAA e Adaptive V-Sync da pannello nvidia? quindi attivare (perchè di default è disattivato) antialiasing-FXAA, ma Adaptive dove è? grazie.

nervoteso
11-04-2012, 16:35
Anche se questo non è il thread giusto, assolutamente no! non ne vale la pena. La 680 è DAVVERO una signora scheda, efficientissima e con potenza da vendere ma il passaggio che tu hai chiesto è insensato: la 580 ancora ti permette di far girare tutto al massimo senza alcun problema in Full-HD ;). Se sei tentato, ti consiglio di trovare un'altra 580 usata ed andare di SLI fino al GK110 ;)

Chiuso OT

beh io ho già 2 580, volevo sapere se 2 680 mi garantivano un miglioramento x sostenere un 3d vision surround

illidan2000
11-04-2012, 16:45
beh io ho già 2 580, volevo sapere se 2 680 mi garantivano un miglioramento x sostenere un 3d vision surround

due 680 vanno come due 590... se non di più, cloccandole a dovere, quindi penso che hai un miglioramento di prestazioni abbastanza consistente.
però forse ti conviene aspettare la versione da 4gb, per avere la certezza di supportare tale risoluzione

-Maxx-
11-04-2012, 16:53
due 680 vanno come due 590... se non di più, cloccandole a dovere, quindi penso che hai un miglioramento di prestazioni abbastanza consistente.
però forse ti conviene aspettare la versione da 4gb, per avere la certezza di supportare tale risoluzione

This :)

playmake
11-04-2012, 16:59
però forse ti conviene aspettare la versione da 4gb, per avere la certezza di supportare tale risoluzione


quoto, dopo numerosi ropensamenti nn sto prendendo la 680 x la poca ram. in bf3 la mia 580 è Sempre satura.... e gioco solo a 1920x1200 :'(

abacostrano
11-04-2012, 17:42
Li ho su da 3 giorni, perfetti sotto ogni punto di vista... FXAA e Adaptive V-Sync ottimi... per adesso soddisfatto ;)

ma quindi non hai notato mai quell'effetto odioso che si ha quando disattivi il v-sync? adesso provo a renstallare tutto, forse non mi funzionano bene

illidan2000
11-04-2012, 17:45
quoto, dopo numerosi ropensamenti nn sto prendendo la 680 x la poca ram. in bf3 la mia 580 è Sempre satura.... e gioco solo a 1920x1200 :'(

c'è da dire che è il solo gioco che fa questo però... e se cali di AA non dovresti avere problemi.
io gioco con il 3dVision, e il problema della ram pare non esserci.
certo il surround è un altro paio di maniche, non avrei proprio dubbi, solo 4gb!

Randall
11-04-2012, 17:53
... nn sto prendendo la 680 x la poca ram. in bf3 la mia 580 è Sempre satura.... e gioco solo a 1920x1200 :'(

azz... ero venuto orgoglioso a dire che da 1h faccio anche io parte del club (570) e la prima cosa che leggo è che a "solo" 1920x1200 1,5 gb di vram sono pochi :eek:
... comincia bene la mia avventura :stordita:

e meno male che i tui ripensamenti ti hanno fatto posticipare la 680 così non mi hai venduto la tua zotac e io rosico un pò meno per aver risparmiato xx€ con la 570 :D

:)

¥º·RG·º¥
11-04-2012, 19:19
FXAA e Adaptive V-Sync da pannello nvidia? quindi attivare (perchè di default è disattivato) antialiasing-FXAA, ma Adaptive dove è? grazie.

L'Adaptive lo attivi impostando la voce "Sincronizzazione Verticale" su Automatico, per quanto riguarda l'FXAA invece attivalo su un qualsiasi game che deciderai di giocare: se il gioco lo supporta si abiliterà normalmente, altrimenti il pannello stesso ti dira che l'applicazione non supporta il filtro ;). Nel caso in cui pero attivandolo noti degli sfarfallii o una resa dell'immagine che perde qualita disabilitalo ;)

ma quindi non hai notato mai quell'effetto odioso che si ha quando disattivi il v-sync? adesso provo a renstallare tutto, forse non mi funzionano bene

Posso dirti che io sto particolarmente attento a questo genere di cose, e il problema non si presenta. Reinstalla i driver facendo una bella pulizia in modalità provvisoria ;)



beh io ho già 2 580, volevo sapere se 2 680 mi garantivano un miglioramento x sostenere un 3d vision surround

A livello di potenza bruta le 580 gestiscono alla grande un 3D Surround, quello che le limita è la quantita di vram. Quindi un boost prestazionale lo avrai quando sostituirai si le tue 580 con le 680, ma soltanto con quelle da 4Gb, come ti ha suggerito illidan ;)

vincenzomary
11-04-2012, 19:49
L'Adaptive lo attivi impostando la voce "Sincronizzazione Verticale" su Automatico, per quanto riguarda l'FXAA invece attivalo su un qualsiasi game che deciderai di giocare: se il gioco lo supporta si abiliterà normalmente, altrimenti il pannello stesso ti dira che l'applicazione non supporta il filtro ;). Nel caso in cui pero attivandolo noti degli sfarfallii o una resa dell'immagine che perde qualita disabilitalo ;)

grazie.

Orkozzio
11-04-2012, 20:31
Io son tornato agli ultimi certificati... con questi ultimi con asus gpu tweak continua ad andarmi in crash.. aspetto i prossimi certificati!:(

Jhon16
11-04-2012, 21:42
Ciao a tutti. . avrei un quesito da porvi: GTX 580 occata abbastanza bene VS GTX 680 Stock?? Come siamo messi?

¥º·RG·º¥
11-04-2012, 21:54
GIYF
http://www.tomshw.it/cont/articolo/nvidia-geforce-gtx-680-gk104-kepler-e-la-gpu-piu-potente-per-i-videogiochi-adaptive-v-sync-regolare-e-meglio/36510/9.html
In poche parole, sopra ai 60 fps il vsync è attivo, quando si scende sotto si disattiva. La seconda opzione invece (Intervallo 2) lavora con 30 fps (utile quando la scheda video riesce a renderizzare attorno a quegli fps).
Aggiungere VID/PID della propra scheda nell'INF, non porta nessun "accrocco" nei driver, li fa solo lavorare su hardware non testato...

Esattamente..

nevets89
11-04-2012, 21:58
Ciao a tutti. . avrei un quesito da porvi: GTX 580 occata abbastanza bene VS GTX 680 Stock?? Come siamo messi?

malissimo...se hai letto sopra sai che una gtx 680 va circa come una gtx 590
GTX 680>=GTX 590>GTX 580

TigerTank
11-04-2012, 22:06
Ciao a tutti. . avrei un quesito da porvi: GTX 580 occata abbastanza bene VS GTX 680 Stock?? Come siamo messi?

Per ora resta in attesa di eventuali news su GK110 ;)

killeragosta90
12-04-2012, 00:02
Attualmente ho su Crysis 2 e Left4Dead 2..con Crysis senza v-sync circa 3-4 FPS, un aumento pero riservato agli spazi aperti.. dove il framerate è piu ballerino (sempre senza v-sync), L4D invece indentico.. ;)
Grazie mille per le info! :)

Eddy72
12-04-2012, 02:06
io gioco con il 3dVision..........

Ciao
hai messo su i nuovi driver? se si come si comporta il 3dVision?
Grazie
Ciaoo

nervoteso
12-04-2012, 07:35
due 680 vanno come due 590... se non di più, cloccandole a dovere, quindi penso che hai un miglioramento di prestazioni abbastanza consistente.
però forse ti conviene aspettare la versione da 4gb, per avere la certezza di supportare tale risoluzione

ma sta 680 a 4gb sapete quando esce?

playmake
12-04-2012, 08:30
azz... ero venuto orgoglioso a dire che da 1h faccio anche io parte del club (570) e la prima cosa che leggo è che a "solo" 1920x1200 1,5 gb di vram sono pochi :eek:
... comincia bene la mia avventura :stordita:

e meno male che i tui ripensamenti ti hanno fatto posticipare la 680 così non mi hai venduto la tua zotac e io rosico un pò meno per aver risparmiato xx€ con la 570 :D

:)


è sufficiente levare qlc filtro per non saturarla... ma con la 580 cloccata mi permetto di giocare tutto @ ultra con tutti i filtri a minimo 50 fps che spesso sono 70-80.... in questo caso non occupo MAI meno di 1440Mb :D :D :D

illidan2000
12-04-2012, 08:34
ma sta 680 a 4gb sapete quando esce?
mmh... non penso tarderà molto, un mese, un mese e mezzo

Giustaf
12-04-2012, 09:08
mmh... non penso tarderà molto, un mese, un mese e mezzo

non si diceva fine aprile? :stordita:

illidan2000
12-04-2012, 09:36
Ciao
hai messo su i nuovi driver? se si come si comporta il 3dVision?
Grazie
Ciaoo

molto bene :)

¥º·RG·º¥
12-04-2012, 12:07
è sufficiente levare qlc filtro per non saturarla... ma con la 580 cloccata mi permetto di giocare tutto @ ultra con tutti i filtri a minimo 50 fps che spesso sono 70-80.... in questo caso non occupo MAI meno di 1440Mb :D :D :D

Parole che non esistono nel mio vocabolario :asd:

Randall
12-04-2012, 12:27
Parole che non esistono nel mio vocabolario :asd:

Napoleone! :D

io per ora qualche filtro lo posso ancora togliere, e anzi passando dallo sli di 275 (889) alla singola 570 (1280) ho guadagnato ben 391mb di vram :sofico:

tutto ovviamente in attesa di tempi/€ migliori :( ... ;)

illidan2000
12-04-2012, 12:32
Parole che non esistono nel mio vocabolario :asd:

io le ombre le tolgo anche se non ho problemi di prestazioni... per me sono del tutto inutili, e se mi fanno guadagnare qualche altro fps, pure se già sto a 100fps e passo a 105, ben venga :)

¥º·RG·º¥
12-04-2012, 12:51
;) ;)

Buell72
12-04-2012, 13:29
Domanda:

La seconda 580 in sli nel pc Sportly in firma, non ne vuole sapere di andare in idle?
Qualcuno ha suggerimenti?:muro: :muro:

illidan2000
12-04-2012, 13:53
Domanda:

La seconda 580 in sli nel pc Sportly in firma, non ne vuole sapere di andare in idle?
Qualcuno ha suggerimenti?:muro: :muro:

Refresh a 110 invece che 120. Hai 2 monitor?

Inviato dal mio GT-N7000 usando Tapatalk

Buell72
12-04-2012, 15:17
Refresh a 110 invece che 120. Hai 2 monitor?

Inviato dal mio GT-N7000 usando Tapatalk

Si, due monitor, uno per scheda, ma nn uso il sourround e sono lcd da 60 hz.
§Il secondo monitor è diverso dal primo e lo uso per monitorare e basta.

illidan2000
12-04-2012, 16:44
Si, due monitor, uno per scheda, ma nn uso il sourround e sono lcd da 60 hz.
§Il secondo monitor è diverso dal primo e lo uso per monitorare e basta.

cmq è il secondo monitor che non ti fa andare in idle la scheda. ho lo stesso tuo problema, per il quale attivo o disattivo il secondo alla bisogna.
si può ovviare alla cosa con nVidia inspector, ma pure là non è automatico, poiché prima di giocare devi andare ad alzare di nuovo le frequenze.
è un bug risaputo che nvidia non risolverà

Buell72
12-04-2012, 17:42
cmq è il secondo monitor che non ti fa andare in idle la scheda. ho lo stesso tuo problema, per il quale attivo o disattivo il secondo alla bisogna.
si può ovviare alla cosa con nVidia inspector, ma pure là non è automatico, poiché prima di giocare devi andare ad alzare di nuovo le frequenze.
è un bug risaputo che nvidia non risolverà

Si, ma nn mi sta a 405 come di solito con 2 monitor, mi va a palla, come fosse in 3d....:muro: :muro:

Eddy72
12-04-2012, 23:43
molto bene :)
Grazie :)

illidan2000
13-04-2012, 08:20
Si, ma nn mi sta a 405 come di solito con 2 monitor, mi va a palla, come fosse in 3d....:muro: :muro:

hai provato a staccare o disabilitare il secondo?

Buell72
13-04-2012, 09:55
hai provato a staccare o disabilitare il secondo?

Si, va in idle.

Se metto il secondo monitor sulla prima insieme al monitor principale, la seconda va in idle regolarmente, la prima sta a palla e nn a 405..... nn riesco a capire.... se invece rimetto la 8800 come Physx, la 580 con due monitor sta a 405....

Che senso ha?

Cmq per ora faccio tasto win + P e disattivo il secondo monitor quando nn mi serve.....

Goofy Goober
13-04-2012, 10:01
Si, va in idle.

Se metto il secondo monitor sulla prima insieme al monitor principale, la seconda va in idle regolarmente, la prima sta a palla e nn a 405..... nn riesco a capire.... se invece rimetto la 8800 come Physx, la 580 con due monitor sta a 405....

Che senso ha?

Cmq per ora faccio tasto win + P e disattivo il secondo monitor quando nn mi serve.....

ha senso, è una limitazione dei driver nvidia, in dual monitor la scheda sta con frequenze maxate. sempre stato così

se proprio vuoi usi nvidia inspector e forzi le frequenze idle a mano, devi però disabilitare tale funione prima di lanciare un app 3d altrimenti i driver crashano, oppure creare una lista di .exe che escludano tale opzione sempre da nvidia inspector

se hai un 120hz la scheda sta a 405, se lo metti a 110 o 100, va in idle. ma con 2 monitor o usi inspector oppure niente da fare

Buell72
13-04-2012, 10:21
ha senso, è una limitazione dei driver nvidia, in dual monitor la scheda sta con frequenze maxate. sempre stato così

se proprio vuoi usi nvidia inspector e forzi le frequenze idle a mano, devi però disabilitare tale funione prima di lanciare un app 3d altrimenti i driver crashano, oppure creare una lista di .exe che escludano tale opzione sempre da nvidia inspector

se hai un 120hz la scheda sta a 405, se lo metti a 110 o 100, va in idle. ma con 2 monitor o usi inspector oppure niente da fare

Allora:
Se io uso una sola 580 con 2 monitor attaccati, la scheda sta a 405 (con una 8800 per la fisica).
Se ne uso due in sli, la scheda sta a 833.
Se collego il secondo monitor alla seconda scheda, la seconda scheda sta a 833.
Con inspector ho già tentato, nessuna risoluzione, la scheda con due monitor, oppure la seconda scheda con annesso secondo monitor è e rimane a 833.
Ho monitor entrambi da 60 hz.

Simedan1985
13-04-2012, 10:22
Mi conviene spendere altr 260 euro e prendere la seconda 580,oppure vendere la mia e prendere la 680? O aspetto gk110?? anche la 680 mi da l'idea di avere poca vram!!

Buell72
13-04-2012, 10:25
Mi conviene spendere altr 260 euro e prendere la seconda 580,oppure vendere la mia e prendere la 680? O aspetto gk110?? anche la 680 mi da l'idea di avere poca vram!!


Obbiettivamente no,.... io sto rimanendo un po deluso da sto sli,... ho stuttering a go go....
Sono anni che uso Ati, con Nvidia è la mia prima esperienza, infelice per adesso.
Con le 5870 avevo risolto lo stuttering montando una terza scheda, ma adesso di certo nn mi metto a comprare una terza 580....:muro:

TigerTank
13-04-2012, 10:29
Mi conviene spendere altr 260 euro e prendere la seconda 580,oppure vendere la mia e prendere la 680? O aspetto gk110?? anche la 680 mi da l'idea di avere poca vram!!

Io ti consiglierei di aspettare ancora un pò per vedere se escono info ufficiali su GK110, altrimenti se trovi una seconda 580 usata prendila e poi attendi in ogni caso GK110.
Io di solito sono uno che resta con una sola vga ma che la cambia ad ogni generazione, questa volta però la 680 non mi ha ispirato nemmeno un pò, troppo costosa in rapporto all'esiguo scarto prestazionale che ha rispetto alla nostra.

keroro.90
13-04-2012, 10:31
Aspetta aspetta......tra non molto esce il gk110.....
Potrebbe esserci un bel calo di prezzi...e magari non si sa mai che Amd non rilasci qualcosa altro per contrastare il 110...
Poi mancano ancora le dual gpu all'appello...

Goofy Goober
13-04-2012, 10:32
Allora:
Se io uso una sola 580 con 2 monitor attaccati, la scheda sta a 405 (con una 8800 per la fisica).
Se ne uso due in sli, la scheda sta a 833.
Se collego il secondo monitor alla seconda scheda, la seconda scheda sta a 833.
Con inspector ho già tentato, nessuna risoluzione, la scheda con due monitor, oppure la seconda scheda con annesso secondo monitor è e rimane a 833.
Ho monitor entrambi da 60 hz.

In effetti non ricordo in singola scheda a che freq scendeva, è da un po' di tempo che uso lo SLI.
Con lo SLI comunque alla scheda a cui colleghi il monitor secondario il driver impone di girare a frequenze massime. sia che sia la prima sia la seconda.
Con inspector risolvi per forza di cose, avvii l'utility Multi-Display Energy Saver

http://www.3dcenter.org/dateien/abbildungen/07-Hauptfenster-MDPS.png

http://www.3dcenter.org/dateien/abbildungen/08-MDPS.png

e da questa schermata metti la spunta alla scheda che vuoi sia forzata a freq idle.
segui gli accorgimenti che dicevo prima quando avvii app 3d, altrimenti i driver crashano.

per lo stuttering, strano, io ne avevo a palate con il quad SLI di 295gtx (abbastanza normale come cosa), ma con le 580gtx non ne ho :)

¥º·RG·º¥
13-04-2012, 10:33
Mi conviene spendere altr 260 euro e prendere la seconda 580,oppure vendere la mia e prendere la 680? O aspetto gk110?? anche la 680 mi da l'idea di avere poca vram!!

Hai cambiato 3 SLI di 580 :banned: :asd: sai di cosa sono capaci ;)... Seconda 580 e poi via di GK110! :Perfido:

Buell72
13-04-2012, 10:45
In effetti non ricordo in singola scheda a che freq scendeva, è da un po' di tempo che uso lo SLI.
Con lo SLI comunque alla scheda a cui colleghi il monitor secondario il driver impone di girare a frequenze massime. sia che sia la prima sia la seconda.
Con inspector risolvi per forza di cose, avvii l'utility Multi-Display Energy Saver

http://www.3dcenter.org/dateien/abbildungen/07-Hauptfenster-MDPS.png

http://www.3dcenter.org/dateien/abbildungen/08-MDPS.png

e da questa schermata metti la spunta alla scheda che vuoi sia forzata a freq idle.
segui gli accorgimenti che dicevo prima quando avvii app 3d, altrimenti i driver crashano.

per lo stuttering, strano, io ne avevo a palate con il quad SLI di 295gtx (abbastanza normale come cosa), ma con le 580gtx non ne ho :)


ORPO!
Grazie della dritta, pensavo si dovesse modificare il clock direttamente dal tab delle frequenza :)

Forse ho stuttering perché cmq nn è un gran sistema quello dove sono montate le schede.

Goofy Goober
13-04-2012, 10:57
ORPO!
Grazie della dritta, pensavo si dovesse modificare il clock direttamente dal tab delle frequenza :)

Forse ho stuttering perché cmq nn è un gran sistema quello dove sono montate le schede.

prego :D

come dici tu probabile sia colpa del sistema su cui sono le 580

jolly74
13-04-2012, 15:01
Obbiettivamente no,.... io sto rimanendo un po deluso da sto sli,... ho stuttering a go go....
Sono anni che uso Ati, con Nvidia è la mia prima esperienza, infelice per adesso.
Con le 5870 avevo risolto lo stuttering montando una terza scheda, ma adesso di certo nn mi metto a comprare una terza 580....:muro:

Prova a montare lo SLi sull'altro pc e vedi che magicamente lo stuttering scompare , il K10 955 che hai adesso nemmeno con overclock molto spinto le farebbe lavorare bene :)

killeragosta90
13-04-2012, 15:38
Installati i nuovi driver!...che dire?.....PROMOSSI A PIENI VOTI!!! :D

Nvidia questa volta sul lato driver ha svolto davvero un ottimo lavoro! :)

Buell72
13-04-2012, 15:42
Prova a montare lo SLi sull'altro pc e vedi che magicamente lo stuttering scompare , il K10 955 che hai adesso nemmeno con overclock molto spinto le farebbe lavorare bene :)

Infatti vecio, mi sa che è quello il problema!!

dewwwxx84
13-04-2012, 21:00
Installati i nuovi driver!...che dire?.....PROMOSSI A PIENI VOTI!!! :D

Nvidia questa volta sul lato driver ha svolto davvero un ottimo lavoro! :)

Io trovo ottimo il lavoro svolto con il nuovo V-sinc specialmente con SKYRIM ;) tutto molto + fluido e zer struttering. :D

Anche le gtx580 da 1,5GB a 2560x1600 rullano benissimo con il suddetto titolo. :p

<Masquerade>
13-04-2012, 23:25
Prova a montare lo SLi sull'altro pc e vedi che magicamente lo stuttering scompare , il K10 955 che hai adesso nemmeno con overclock molto spinto le farebbe lavorare bene :)

quoto prima di lamentarsi forse sarebbe meglio provarle su un sistema decente

murrieta
13-04-2012, 23:50
Infatti vecio, mi sa che è quello il problema!!

al 100% è la piattaforma a giocare un ruolo determinante nelle performances dello SLI...anch'io ho 2 Lightning che volano su un sistema X58 simile al tuo...;)

Buell72
14-04-2012, 07:02
quoto prima di lamentarsi forse sarebbe meglio provarle su un sistema decente

Lamentarsi?:rolleyes:
Ah si, di risposte come le tue.....

Buell72
14-04-2012, 07:04
al 100% è la piattaforma a giocare un ruolo determinante nelle performances dello SLI...anch'io ho 2 Lightning che volano su un sistema X58 simile al tuo...;)

Infatti :)
Beh, per i giochi che uso su quel pc, diciamo che mi possono bastare così :)
ORa ho trovato un punto di compromesso decente.
Cmq + che la cpu, il vero limite sono le DDR2, che hanno sufficiente apertura per il traffico dati.
Grazie cmq :)

<Masquerade>
14-04-2012, 07:12
Lamentarsi?:rolleyes:


scusami eh, ma non ti sei lamentato dello sli , che sei deluso, dello stuttering ecc? ma almeno prima prova a metterlo su un sistema decente no? quel pc non è in grado di far lavorare bene due 580 (con uno Skyrim ti andrà come una gtx560 :asd:), mi stupisce che tu non te ne renda conto visto che mi sembravi un utente esperto :boh:


Ah si, di risposte come le tue.....
ehhhh si...vabbè...:asd:
ed io della gente che si lamenta prima ancora di aver fatto le cose come si deve (e 2 580 in sli su un phenom non la vedo fatta tanto bene) :asd:

killeragosta90
14-04-2012, 10:16
Obbiettivamente no,.... io sto rimanendo un po deluso da sto sli,... ho stuttering a go go....
Sono anni che uso Ati, con Nvidia è la mia prima esperienza, infelice per adesso.
Con le 5870 avevo risolto lo stuttering montando una terza scheda, ma adesso di certo nn mi metto a comprare una terza 580....:muro:
scusami eh, ma non ti sei lamentato dello sli , che sei deluso, dello stuttering ecc? ma almeno prima prova a metterlo su un sistema decente no? quel pc non è in grado di far lavorare bene due 580 (con uno Skyrim ti andrà come una gtx560 :asd:), mi stupisce che tu non te ne renda conto visto che mi sembravi un utente esperto :boh:
Mi vedo costretto a quotare masquerade, da come ne parli, un utente non tanto esperto indeciso sullo sli dopo aver letto alcuni dei tuoi precedenti post avrebbe potuto scartare la soluzione di mettere una seconda scheda in sli senza nemmeno chiedere un parere in questo thread...

Buell72
14-04-2012, 10:53
Mi vedo costretto a quotare masquerade, da come ne parli, un utente non tanto esperto indeciso sullo sli dopo aver letto alcuni dei tuoi precedenti post avrebbe potuto scartare la soluzione di mettere una seconda scheda in sli senza nemmeno chiedere un parere in questo thread...

E' la forma del dialogo che è deludente,.... è ben diverso scrivere una cosa corretta come questa:

al 100% è la piattaforma a giocare un ruolo determinante nelle performances dello SLI...anch'io ho 2 Lightning che volano su un sistema X58 simile al tuo...;)

piuttosto che una cosa del genere:

quoto prima di lamentarsi forse sarebbe meglio provarle su un sistema decente

Tralasciando cmq questa poco cortese parentesi, il mio "lamentarmi" è riferito al fatto che il limite dell'efficienza della cpu dovrebbe risultare limitato ad alte risoluzioni.
Inoltre su piattaforma simile, sicuramente un crossfire è + efficiente di uno sli, e questo di sicuro l'ho provato di persona.

Cmq grazie per le delucidazioni.

Alekos Panagulis
14-04-2012, 14:12
Tralasciando cmq questa poco cortese parentesi, il mio "lamentarmi" è riferito al fatto che il limite dell'efficienza della cpu dovrebbe risultare limitato ad alte risoluzioni.
Inoltre su piattaforma simile, sicuramente un crossfire è + efficiente di uno sli, e questo di sicuro l'ho provato di persona.

Cmq grazie per le delucidazioni.

In teoria la cpu viene usata meno quanto più si sale con la risoluzione, ma la percentuale di questa variazione cambia a seconda del sistema. Nel tuo caso la configurazione è davvero troppo sbilanciata, e probabilmente sei SEMPRE cpu limited nei giochi moderni. Anche se viene continuamente ripetuto che al giorno d'oggi la cpu conta di meno, è vero il contrario: da Bf3 a Skyrim sono sempre più i giochi cpu dependent. 2 gtx580 su un Phenom X4 sono veramente un scempio, un sistema concepito malissimo. Io al posto tuo cambierei piattaforma, o rimarrei con una sola 580.
Per quanto riguarda l'efficienza del dual gpu, se questa è la prima volta che usi lo SLI, non sei nelle condizioni di giudicare, vista la piattaforma.
Sono un estimatore di AMD e come tanti estimatori di AMD so che il tallone di achille delle GPU rosse è proprio il Crossfire: inefficiente e male ottimizzato. Le critiche sono arrivate e arrivano tutt'ora dai maggiori siti internazionali (da Hardcop a Guru3d a Anandtech).
Personalmente ho avuto CF di tutti i tipi, sin dai tempi della x1900xtx fino alle recenti 5870, fin quanto ho capito che se volevo avere due GPU dovevo passare allo SLI. E infatti, col senno di poi, ho fatto bene. Praticamente ho dimenticato che cosa siano i driver. Aggiorno quando ne ho voglia, giusto perchè ho la notifica del pannello di controllo.
Se dovessi tornare al single GPU non esiteri a comprare una favolosa 7970. Ma il dual NO.
Senza polemiche o flame, ok? Solo opinioni personali. :)


PS. Un esempio di autorevole e costruttiva critica del Crossfire: http://www.hardocp.com/article/2012/01/17/amd_crossfirex_drivers_opportunity_lost/

We have to just sit here with our heads in our hands and wonder why AMD is seemingly trying its best to piss off its customers that spend the most on its retail products; the CrossFireX gamer. We have seen more than a few AMD video card owners openly express that AMD’s lacking driver support is pushing them to not consider an AMD GPU for their next buy. And honestly, it is hard to hold that decision against them.


Remember the days of monthly Catalyst Driver releases? Remember the days of Terry Makedon, the "CatalystMaker" pushing those out? That all seemingly ended when Terry moved to CPU marketing and AMD seems to think that all of those efforts are no longer important.

Buell72
14-04-2012, 14:54
In teoria la cpu viene usata meno quanto più si sale con la risoluzione, ma la percentuale di questa variazione cambia a seconda del sistema. Nel tuo caso la configurazione è davvero troppo sbilanciata, e probabilmente sei SEMPRE cpu limited nei giochi moderni. Anche se viene continuamente ripetuto che al giorno d'oggi la cpu conta di meno, è vero il contrario: da Bf3 a Skyrim sono sempre più i giochi cpu dependent. 2 gtx580 su un Phenom X4 sono veramente un scempio, un sistema concepito malissimo. Io al posto tuo cambierei piattaforma, o rimarrei con una sola 580.
Per quanto riguarda l'efficienza del dual gpu, se questa è la prima volta che usi lo SLI, non sei nelle condizioni di giudicare, vista la piattaforma.
Sono un estimatore di AMD e come tanti estimatori di AMD so che il tallone di achille delle GPU rosse è proprio il Crossfire: inefficiente e male ottimizzato. Le critiche sono arrivate e arrivano tutt'ora dai maggiori siti internazionali (da Hardcop a Guru3d a Anandtech).
Personalmente ho avuto CF di tutti i tipi, sin dai tempi della x1900xtx fino alle recenti 5870, fin quanto ho capito che se volevo avere due GPU dovevo passare allo SLI. E infatti, col senno di poi, ho fatto bene. Praticamente ho dimenticato che cosa siano i driver. Aggiorno quando ne ho voglia, giusto perchè ho la notifica del pannello di controllo.
Se dovessi tornare al single GPU non esiteri a comprare una favolosa 7970. Ma il dual NO.
Senza polemiche o flame, ok? Solo opinioni personali. :)


PS. Un esempio di autorevole e costruttiva critica del Crossfire: http://www.hardocp.com/article/2012/01/17/amd_crossfirex_drivers_opportunity_lost/

Conosco bene quell'articolo, tuttavia ripeto che A PARITA' di piattaforma (vale a dire un vecchio sistema DDR2 con K10), un cross è + efficiente di uno sli... questo è ciò che è emerso su questa macchina.

Che sia perché la 580 è una scheda troppo potente per poter essere gestita da questa macchina, è un altro fatto.
Per fare un banale esempio, soffrivo meno stuttering con due 5870 (negli ultimi driver naturalmente) su una piattaforma simile (Asus M4A79 con le medesime ram e cpu).
Con l'aggiunta della terza 5870, lo stuttering era definitivamente scomparso.
Dubito però che tre 580 potrebbero eliminare lo stuttering, poiché troppa potenza in gioco.
Ho preso una seconda 580 per sfizio, visto che una macchina da gioco seria ce l'ho già.
Tuttavia utilizzo questa macchina principalmente per cose di lavoro da casa, e quando ho un poco di tempo, in giochi solo e solamente DX9 (Mafia II ecc ecc).
Vien da se che nn sono propriamente giochi all'ultimo grido e che torna a valere cmq la tesi che in alta risoluzione (da full HD in su) la cpu nn dovrebbe essere troppo limitativa.
Poi che BF3 sia CPU dipendete mi è nuova davvero, la rete è piena di review che affermano il contrario (anche se ormai ho smesso di leggere review che si castrano l'una con l'altra).
E, per aprire un piccolo OT, ti posso assicurare che due 7970 in cross nn hanno alcun problema.
Chiaro che se anche queste le usassi sulla macchina in questione, probabilmente nn sarebbe la stessa cosa.

Tutto questo non certo per minimizzare Nvidia, altrimenti di certo non avrei Nvidia dentro le mie (tante) macchine.
Penso però di avere il diritto di affermare ciò che ho appena descritto, senza che mi venga risposto in modo irrispettoso, o quant'altro, visto che io non mi sono mai permesso di rispondere malamente a nessuno sul nostro bel forum.

Grazie cmq delle delucidazioni.:)

smoicol
15-04-2012, 12:02
ciao a tutti qualcuno ha provato con z68\z77 a vedere che boost c'è abilitando l'mvp su gtx 580 o 570?

nevets89
15-04-2012, 12:11
Conosco bene quell'articolo, tuttavia ripeto che A PARITA' di piattaforma (vale a dire un vecchio sistema DDR2 con K10), un cross è + efficiente di uno sli... questo è ciò che è emerso su questa macchina.

Che sia perché la 580 è una scheda troppo potente per poter essere gestita da questa macchina, è un altro fatto.
Per fare un banale esempio, soffrivo meno stuttering con due 5870 (negli ultimi driver naturalmente) su una piattaforma simile (Asus M4A79 con le medesime ram e cpu).
Con l'aggiunta della terza 5870, lo stuttering era definitivamente scomparso.
Dubito però che tre 580 potrebbero eliminare lo stuttering, poiché troppa potenza in gioco.
Ho preso una seconda 580 per sfizio, visto che una macchina da gioco seria ce l'ho già.
Tuttavia utilizzo questa macchina principalmente per cose di lavoro da casa, e quando ho un poco di tempo, in giochi solo e solamente DX9 (Mafia II ecc ecc).
Vien da se che nn sono propriamente giochi all'ultimo grido e che torna a valere cmq la tesi che in alta risoluzione (da full HD in su) la cpu nn dovrebbe essere troppo limitativa.
Poi che BF3 sia CPU dipendete mi è nuova davvero, la rete è piena di review che affermano il contrario (anche se ormai ho smesso di leggere review che si castrano l'una con l'altra).
E, per aprire un piccolo OT, ti posso assicurare che due 7970 in cross nn hanno alcun problema.
Chiaro che se anche queste le usassi sulla macchina in questione, probabilmente nn sarebbe la stessa cosa.

Tutto questo non certo per minimizzare Nvidia, altrimenti di certo non avrei Nvidia dentro le mie (tante) macchine.
Penso però di avere il diritto di affermare ciò che ho appena descritto, senza che mi venga risposto in modo irrispettoso, o quant'altro, visto che io non mi sono mai permesso di rispondere malamente a nessuno sul nostro bel forum.

Grazie cmq delle delucidazioni.:)

io invece ricordo un articolo su sli - crossfire...
non ricordo l'indirizzo, ma ricordo che con 2 gtx 470 un phenom 955 ,anche con tutti i filtri attivi, faceva come massimi i minimi dell'i5 2500....e l'aumento percentuale in molti giochi era sotto il 20%....non ricordo se il phenom fosse overcloccato....

Buell72
15-04-2012, 12:27
io invece ricordo un articolo su sli - crossfire...
non ricordo l'indirizzo, ma ricordo che con 2 gtx 470 un phenom 955 ,anche con tutti i filtri attivi, faceva come massimi i minimi dell'i5 2500....e l'aumento percentuale in molti giochi era sotto il 20%....non ricordo se il phenom fosse overcloccato....

Parlando puramente di fps, passando le tre 5870 da una piattaforma Amd ad una Intel, ho notato un aumento considerevole degli fps minimi, mentre i massimi sono rimasti gli stessi, e questo a risoluzioni Full HD, in Unigine, Crysis2, BF3,... quindi tutta roba DX11.

nevets89
15-04-2012, 12:33
link (http://www.bjorn3d.com/read.php?cID=2071&pageID=10660)
ecco la recensione tra un x6 ed un i5...effettivamente ricordavo male...
su vecchi giochi la differenza però è enorme

Buell72
15-04-2012, 12:41
link (http://www.bjorn3d.com/read.php?cID=2071&pageID=10660)
ecco la recensione tra un x6 ed un i5...effettivamente ricordavo male...
su vecchi giochi la differenza però è enorme

Già;)

Ma + che i numeri in se stesso, quello che nn riesco a capire è questo:
Se io aumento le impostazioni da Nvidia Inspector dell'AA, le prestazioni calano mostruosamente pur nn saturando la vram.....
Questo nn accadeva col cross delle 5870 agendo da ATT....

Beseitfia
15-04-2012, 12:55
ragazzi che ne pensate dei driver 301.24 beta? Meglio dei 296.10 ?

KingArthas94
15-04-2012, 13:24
http://localhostr.com/file/WhFhvLR/asic.png
Questo vuol dire che ho un ottimo esemplare!

EDIT: se volessi overclockare di qualche MHz come software mi consigliate EVGA Precision? Pur avendo una ASUS? :P

killeragosta90
15-04-2012, 13:30
ragazzi che ne pensate dei driver 301.24 beta? Meglio dei 296.10 ?
Si, sono migliori. Li ho installati da un paio di giorni e mi ci trovo benissimo :)

fr4nc3sco
15-04-2012, 14:28
anche secondo me gli ultimi beta non sono male

¥º·RG·º¥
15-04-2012, 14:31
http://localhostr.com/file/WhFhvLR/asic.png
Questo vuol dire che ho un ottimo esemplare!

EDIT: se volessi overclockare di qualche MHz come software mi consigliate EVGA Precision? Pur avendo una ASUS? :P

L'asic conta meno del nulla nella valutazione della gpu, comincia ad occare con AB e vedi come si comporta la scheda ;)

maxmix65
15-04-2012, 14:34
L'asic conta meno del nulla nella valutazione della gpu, comincia ad occare con AB e vedi come si comporta la scheda ;)

Infatti a volte non e' solo quello il parametro....
A breve mi separero' dalla mia super 570 da oltre 1000mhz con dissi stock..
Mi spiace tantissimo certo che questa scheda in mano a chi usa azoto sarebbe una belva da paura

¥º·RG·º¥
15-04-2012, 14:38
Infatti a volte non e' solo quello il parametro....
A breve mi separero' dalla mia super 570 da oltre 1000mhz con dissi stock..
Mi spiace tantissimo certo che questa scheda in mano a chi usa azoto sarebbe una belva da paura

Voltaggio? ;)

KingArthas94
15-04-2012, 15:26
L'asic conta meno del nulla nella valutazione della gpu, comincia ad occare con AB e vedi come si comporta la scheda ;)

AB? After Burner? Ho appena chiesto se sia meglio EVGA Precision o altri software... di Precision mi ispira l'OnScreenDisplay che mostra i dati della GPU ingame.

prra
15-04-2012, 15:33
provai precision un pò di tempo fa.. AB ha tutte le features di precision più tante altre.. non so se adesso con le nuove versioni di precision sia diverso, ma penso dino..

tra l'altro mi pare che l'autore sia sempre lo stesso.. che è anche l'autore del vecchio rivatuner..

una cosa.. che chiedo a tutti.. con rivatuner era possibile visualizzare nell'osd anche la temp della cpu..

magari sfruttando il rivatuner static server tenchnology compreso in AB è ancora possibile farlo??

¥º·RG·º¥
15-04-2012, 15:38
AB? After Burner? Ho appena chiesto se sia meglio EVGA Precision o altri software... di Precision mi ispira l'OnScreenDisplay che mostra i dati della GPU ingame.

Fa tutto esattamente alla stessa maniera anche AB, e inoltre AB ti permette anche di overvoltare, cosa che invce EVGA Precision non fa.. ;)

_DoktorTerror_
15-04-2012, 15:39
Fa tutto esattamente alla stessa maniera anche AB, e inoltre AB ti permette anche di overvoltare, cosa che invce EVGA Precision non fa.. ;)

ti sbagli perche si puo ;)

TigerTank
15-04-2012, 15:41
di Precision mi ispira l'OnScreenDisplay che mostra i dati della GPU ingame.
Sì con AB c'è anche l'osd gestito da On-Screen Display Server. Sta a voi selezionare nelle impostazioni quali valori visualizzare, oltre che colore, dimensione e posizione delle scritte.


magari sfruttando il rivatuner static server tenchnology compreso in AB è ancora possibile farlo??
No, a meno di eventuali modifiche a me sconosciute è limitato solo alla vga.

prra
15-04-2012, 15:44
Sì con AB c'è anche l'osd gestito da On-Screen Display Server. Sta a voi selezionare nelle impostazioni quali valori visualizzare, oltre che colore, dimensione e posizione delle scritte.

ti riferisci a quello che ho chiesto io?

io comunque parlavo della temp della CPU, non GPU .. con rivatuner so che si interfacciava con realtemp e si poteva inserire nell'osd di rivatuner anche la temp della CPU..

ho fatto delle prove col rivatuner static server compreso in AB ma non mi funge..:confused:

EDIT

ma che peccato...

ricordo che feci già delle ricerche e non trovai niente.. magari dopo riprovo.. non si sa mai :D

prra
15-04-2012, 16:18
scusate il doppio post, ma ne vale la pena..

ho rifatto una ricerca ed ho trovato questo thread del 2012, quindi attuale e valido.. http://forums.guru3d.com/showthread.php?t=357247

è possibile usare hwinfo insieme ad afterburner per visualizzare anche la temp e l'utilizzo della cpu all'interno dell osd di AB..

;)

maxmix65
15-04-2012, 16:32
Voltaggio? ;)

A 1.137v bench a 995mhz a 1.150-1.167 1000-1006 mhz ..
Dissi stock Asic quality 93%

Goofy Goober
15-04-2012, 17:01
ti sbagli perche si puo ;)

quoto
con precision X hanno ora inserito il tasto apposito nell'interfaccia per l'overvolting, che avvia EV Tune per settare i voltaggi delle schede.

¥º·RG·º¥
15-04-2012, 18:40
ti sbagli perche si puo ;)

quoto
con precision X hanno ora inserito il tasto apposito nell'interfaccia per l'overvolting, che avvia EV Tune per settare i voltaggi delle schede.

Ah bhe se intendete il precision X si.. sono rimasto un po indietro con Precision :asd:

cire92cry
15-04-2012, 19:19
ragazzi che ne pensate dei driver 301.24 beta? Meglio dei 296.10 ?

Io avevo problemi con l'sli e bf3 e ho rimesso i 296.10 :D Aspetto quelli ufficiali.

illidan2000
15-04-2012, 19:24
scusate il doppio post, ma ne vale la pena..

ho rifatto una ricerca ed ho trovato questo thread del 2012, quindi attuale e valido.. http://forums.guru3d.com/showthread.php?t=357247

è possibile usare hwinfo insieme ad afterburner per visualizzare anche la temp e l'utilizzo della cpu all'interno dell osd di AB..

;)

mmh..proverò. solo che io lo guardo dalla g15...

prra
15-04-2012, 19:42
mmh..proverò. solo che io lo guardo dalla g15...

tiè.. l'ho appena appena ultimato.. l'osd perfetto :asd:

http://i.imgur.com/pFgr3.jpg

ci ho dovuto smanettare un pò su, ma combinando hwinfo e afterburner lo si può personalizzare al 100%.. assolutamente da provare :O ;)

c'è anche questa piccola guida in italiano http://www.news3d.eu/index.php?topic=64437.0

<Masquerade>
15-04-2012, 19:43
ma è spettacolare questa cosa che si può vedere la temp della cpu :mbe: :confused: :eek:

prra
15-04-2012, 19:49
infatti non immagini che soddisfazione :D :fagiano: :p
tempo fa stavo sclerando per fare sta cosa, cercando di usare il vecchio rivatuner che non supporta più le vga dalle 4xx in poi :doh: :p

comunque volendo ci si può infilare di tutto.. temp e voltaggi di qualsiasi cosa.. e si possono personalizzare sia le posizioni sia i nomi..

<Masquerade>
15-04-2012, 20:11
infatti non immagini che soddisfazione :D :fagiano: :p
tempo fa stavo sclerando per fare sta cosa, cercando di usare il vecchio rivatuner che non supporta più le vga dalle 4xx in poi :doh: :p

comunque volendo ci si può infilare di tutto.. temp e voltaggi di qualsiasi cosa.. e si possono personalizzare sia le posizioni sia i nomi..

ganzissimo :fagiano: :fagiano: :fagiano: :fagiano:

illidan2000
16-04-2012, 07:23
tiè.. l'ho appena appena ultimato.. l'osd perfetto :asd:

http://i.imgur.com/pFgr3.jpg

ci ho dovuto smanettare un pò su, ma combinando hwinfo e afterburner lo si può personalizzare al 100%.. assolutamente da provare :O ;)

c'è anche questa piccola guida in italiano http://www.news3d.eu/index.php?topic=64437.0

Wow! !!!!! Appena torno a casa giovedì lo provo!

Inviato dal mio GT-N7000 usando Tapatalk

abacostrano
16-04-2012, 13:24
scusate ho un piccolo problema! quando attivo l on screen display di msi afterburner per monitorare il gioco battlefield mi crasha :confused: come posso risolvere questo problema? poi ho provato a disabilitarlo ma adesso ogni volta che apro msi si apre automaticamente anche questo :muro:

alakyr
16-04-2012, 13:52
tiè.. l'ho appena appena ultimato.. l'osd perfetto :asd:

http://i.imgur.com/pFgr3.jpg

ci ho dovuto smanettare un pò su, ma combinando hwinfo e afterburner lo si può personalizzare al 100%.. assolutamente da provare :O ;)

c'è anche questa piccola guida in italiano http://www.news3d.eu/index.php?topic=64437.0

G15 FTW :D

prra
16-04-2012, 14:26
dopo aver scoperto questa cosa, direi G15 FTspendaccioni e basta.. :asd:

l'ho snellito un pò :D
http://i.imgur.com/Kkhd8.jpg

abacostrano
16-04-2012, 18:34
ragazzi ho bisogno di qualche consiglio! ho provato a fare un installazione pulita cn tutti i passaggi per i nuovi driver ma ogni volta che abilito l'adaptive v-sync continuo ad avere tearing nei giochi. da cosa puo dipendere?? :muro:

fabbri.fili
16-04-2012, 22:43
dopo aver scoperto questa cosa, direi G15 FTspendaccioni e basta.. :asd:

l'ho snellito un pò :D
http://i.imgur.com/Kkhd8.jpg

quell'osd dov'è visibile sul monitor o sulla tua g15?

prra
16-04-2012, 22:47
...e chi cel'ha questa G15 :asd:

è l'osd di AB, che si può 'interfacciare' con hwinfo.. vedi esattametne il primo post di questa pag ;)

FroZen
17-04-2012, 07:51
ma è spettacolare questa cosa che si può vedere la temp della cpu :mbe: :confused: :eek:

utilissimo per quando mi dimentico di alzare la ventola della cpu prima di entrare in BF3 :doh: :doh: :doh: :doh:

alakyr
17-04-2012, 08:04
dopo aver scoperto questa cosa, direi G15 FTspendaccioni e basta.. :asd:

l'ho snellito un pò :D
http://i.imgur.com/Kkhd8.jpg

Spendaccioni? La presi qualcosa come 3/4 anni fa a media world a 29.90 in offerta...quanto una normale tastiera decente...altro che spendaccioni!

Sent from my Optimus 2X using Tapatalk 2

Goofy Goober
17-04-2012, 08:31
più che altro spendaccioni quelli che comprano la G19 che costa un milione di dollari, ancor oggi prezzo pieno (sito logitech) e non ha nemmeno i tasti meccanici :fagiano:

TigerTank
17-04-2012, 09:23
più che altro spendaccioni quelli che comprano la G19 che costa un milione di dollari, ancor oggi prezzo pieno (sito logitech) e non ha nemmeno i tasti meccanici :fagiano:

Io ho avuto la G15, ora ho la Illuminated Keyboard con i tasti ultrapiatti. Non ritornerei indietro manco se mi pagassero :D


c'è anche questa piccola guida in italiano http://www.news3d.eu/index.php?topic=64437.0

Grazie ;)

prra
17-04-2012, 09:37
29.90

ah bhè, se è così è un altro discorso, l'avrei sicuramente comprata anche io :D

anche se adesso, pensando di poter controllare tutto quello che voglio dalll'osd, non prenderei ne g15 se fosse ancora in produzione, ne g19 se fossi spendaccione.. :D

Buell72
17-04-2012, 10:43
Salve.

M'è sparita all' improvviso la possibilità di sovrascrivere le impostazione AA da pannello Nvidia per Mass Effect 3... posso solo scegliere la modalità "gestito dall'applicazione".

Tutti gli altri giochi sono regolari.

Qualcuno ne sa niente?

Buell72
17-04-2012, 12:13
Salve.

M'è sparita all' improvviso la possibilità di sovrascrivere le impostazione AA da pannello Nvidia per Mass Effect 3... posso solo scegliere la modalità "gestito dall'applicazione".

Tutti gli altri giochi sono regolari.

Qualcuno ne sa niente?

Risolto reinstallando i driver.....

illidan2000
17-04-2012, 13:10
ah bhè, se è così è un altro discorso, l'avrei sicuramente comprata anche io :D

anche se adesso, pensando di poter controllare tutto quello che voglio dalll'osd, non prenderei ne g15 se fosse ancora in produzione, ne g19 se fossi spendaccione.. :D

cmq l'lcd è molto utile per vedere le temp della scheda, e anche gli fps

prra
17-04-2012, 13:40
si ma non vedo l'utilità di questo lcd sulla tastiera quando con l'osd di AB+hwinfo puoi visualizzare tutto quello che ti pare..

anzi, l'osd nell'angolo dello schermo mi sembra molto più comodo da osservare durante il gaming rispetto all'lcd sulla tastiera.. :stordita:
...poi certo, lcd o osd che sia, lo si guarda giusto un attimo.. o si gioca o si sta a guardare le temp :sofico: :p

TigerTank
17-04-2012, 13:56
si ma non vedo l'utilità di questo lcd sulla tastiera quando con l'osd di AB+hwinfo puoi visualizzare tutto quello che ti pare..

anzi, l'osd nell'angolo dello schermo mi sembra molto più comodo da osservare durante il gaming rispetto all'lcd sulla tastiera.. :stordita:
...poi certo, lcd o osd che sia, lo si guarda giusto un attimo.. o si gioca o si sta a guardare le temp :sofico: :p

Quoto, io lo attivo ogni tanto con i tasti settati nelle opzioni di AB, perchè altrimenti l'occhio balla sempre lì rovinandomi il coinvolgimento nel gioco :D

illidan2000
17-04-2012, 14:07
si ma non vedo l'utilità di questo lcd sulla tastiera quando con l'osd di AB+hwinfo puoi visualizzare tutto quello che ti pare..

anzi, l'osd nell'angolo dello schermo mi sembra molto più comodo da osservare durante il gaming rispetto all'lcd sulla tastiera.. :stordita:
...poi certo, lcd o osd che sia, lo si guarda giusto un attimo.. o si gioca o si sta a guardare le temp :sofico: :p

io lo trovo meglio, poiché se è su schermo, magari mi ci fisso troppo, invece se è sull'lcd è più raro che mi cada l'occhio... e poi magari il gioco mette l'interfaccia in modo tale da coprirlo

TigerTank
17-04-2012, 14:22
io lo trovo meglio, poiché se è su schermo, magari mi ci fisso troppo, invece se è sull'lcd è più raro che mi cada l'occhio... e poi magari il gioco mette l'interfaccia in modo tale da coprirlo

Fai bene, anche perchè se prendi una tastiera con l'lcd incorporato mi sembra giusto che lo si debba sfruttare il più possibile! ;)

Alekos Panagulis
17-04-2012, 14:25
io lo trovo meglio, poiché se è su schermo, magari mi ci fisso troppo, invece se è sull'lcd è più raro che mi cada l'occhio... e poi magari il gioco mette l'interfaccia in modo tale da coprirlo

Quoto, molto meglio l'LCD sulla tastiera.

Goofy Goober
17-04-2012, 15:02
peccato che non facciano tastiere meccaniche con schermo stile logitech :muro:

Jack 85
17-04-2012, 15:27
Quoto, molto meglio l'LCD sulla tastiera.

Anche perhè questi programmini rompono le palle e non poco la scheda video, generando parecchie volte dello stuttering;)

elevul
17-04-2012, 15:56
Quoto, molto meglio l'LCD sulla tastiera.

Concordo pure io.
Se solo la G19 fosse meccanica...

Sent from my GT-N7000 using Tapatalk 2

fabbri.fili
17-04-2012, 17:37
si ma non vedo l'utilità di questo lcd sulla tastiera quando con l'osd di AB+hwinfo puoi visualizzare tutto quello che ti pare..

anzi, l'osd nell'angolo dello schermo mi sembra molto più comodo da osservare durante il gaming rispetto all'lcd sulla tastiera.. :stordita:
...poi certo, lcd o osd che sia, lo si guarda giusto un attimo.. o si gioca o si sta a guardare le temp :sofico: :p

Usi solol i sensori di hwinfo oppure anche quelli ab?

prra
17-04-2012, 17:45
Usi solol i sensori di hwinfo oppure anche quelli ab?

dalle impostazioni di AB ho lasciato solo gli fps.. tutto il resto ho preferito impostarlo da hwinfo perchè ha le impostazioni per cambiare le etichette all'inizio delle righe e organizzare tutto come preferisci

eventualmente comunque scrivi un pm, che ho già fatto fare un sacco di ot con questo osd :asd:

Quoto, io lo attivo ogni tanto con i tasti settati nelle opzioni di AB, perchè altrimenti l'occhio balla sempre lì rovinandomi il coinvolgimento nel gioco :D

faccio uguale anche io.. chi gioca con l'osd fisso sullo schermo puzza :p

illidan2000
17-04-2012, 18:03
peccato che non facciano tastiere meccaniche con schermo stile logitech :muro:

Cosa intendi per tastiera meccanica?

Inviato dal mio GT-N7000 usando Tapatalk

Goofy Goober
17-04-2012, 23:20
Cosa intendi per tastiera meccanica?

Inviato dal mio GT-N7000 usando Tapatalk

tastiera con tasti meccanici, tipo i cherry MX e via dicendo.

io ne volevo una così, ma nessuna ha il display informativo tipo le logitech

alakyr
18-04-2012, 07:58
Piú che altro su osd vedi solo quello che imposti....su'lcd vedi tutto basta avere i plugin (ab, cpu e ram, teamspeak, ventrilo, msn, e chi piú ne ha piú ne metta) senza "rovinare" la visuale di gioco, ed eventuali screenshoot con delle scritte

Inviato dal mio Optimus 2X con Tapatalk 2

prra
18-04-2012, 08:20
vabbhè si può scegliere il tasto per far apparire e sparire l'osd.. giocare con l'osd fisso è brutto...

sulle altre funzioni del display niente da dire.. magari non saranno cose assolutamente utilissime per tutti, anzi.. però ne ho letto un pò di cose proprio qualche settimana fa, ed è un bell'aggeggino :asd: ben supportato..

_fabry_
18-04-2012, 08:54
g15 for ever scusate lo sfogo... ah ho anche la g13... ma davvero vi piace vedere il monitor "zampettato" di scrittine rosa fashion negli angoli???? :D

cambiando discorso..
al giorno d'oggi, con che driver gira meglio una 580 in game??
thanks!!!

TigerTank
18-04-2012, 09:12
ma davvero vi piace vedere il monitor "zampettato" di scrittine rosa fashion negli angoli???? :D

Beh...come detto si possono associare dei tasti per farlo apparire/scomparire a piacere...ed il colore si può anche cambiare, mica devi usare per forza il rosa. :)
Per il resto preferisco una scrittina a monitor piuttosto che avere ancora quei tasti alti, ora che mi sono abituato a quelli PerfectStroke (http://www.logitech.com/it-it/68/5912) della mia(che rendono anche più agevole il giocare). Fine OT.

_fabry_
18-04-2012, 11:44
de gustibus come sempre...

riguardo ai migliori driver invece??

XEV
18-04-2012, 12:10
tutto questo marketing, gaming, lcd, uber pown anche per le tastiere ?!.. :doh:

Simedan1985
18-04-2012, 13:07
Ragazzi volevo sapere se con la mia 580 potevo utilizzare fxaa con bf3 ,impostandolo dal pannello nvidia:confused: Per caso è un esclusiva solo delle gpu kepler? Ho i driver 301,24 beta. inno3d 580 gtx

TigerTank
18-04-2012, 13:20
Con i nuovi drivers anche noi possiamo tranquillamente usare l'fxaa. Comunque ho letto più volte che bf3 ha già il suo fxaa interno. Da drivers andrebbe usato con quei giochi che non prevedono tale filtro o meglio ancora con giochi vecchiotti che non hanno proprio AA nativo.

_fabry_
18-04-2012, 13:51
ma sti 301 sono decenti per giocare??

io con le mie vecchie 560 li avevo dovuti abbandonare...

gd350turbo
18-04-2012, 13:58
Ragazzi volevo sapere se con la mia 580 potevo utilizzare fxaa con bf3 ,impostandolo dal pannello nvidia:confused: Per caso è un esclusiva solo delle gpu kepler? Ho i driver 301,24 beta. inno3d 580 gtx

Si...
Io domenica, avevo un pò di tempo libero ( evento raro ) e mi sono dedicato a fare prove su BF3 con i nuovi 301.24.
Analizzavo con afterburner, taskmanager e i tools di BF3, l'andamento della situazione e ho visto che attivando la sincronia verticale automatica, e l'alimentazione come prestazioni massime, il gioco stesso ne guadagna parecchio !
Nelle aree semplici da visualizzare, evita la produzione di screen oltre i 60 fps riducendo il carico sulla vga, permettendo quindi consumi e temperature inferiori, e nelle scene ad alto carico, ho notato un frame drop più limitato rispetto i driver precedenti, si nota inoltre che il grafico di utilizzo della GPU, segue appunto l'andamento del gioco, e secondo il mio parere l'esperienza di gioco è migliorata.

moscato
18-04-2012, 16:31
salve a tutti.
domandone di servizio sull'alimentatore.
sono in procinto di upgradare il mio pc vecchio ormai di circa 6 anni con qualcosa di meglio.
la mia configurazione finale sarà un I7-2600, 8 gb e gtx580.

Per risparmiare un po', volevo vedere di tenermi buono l'alimentatore maa leggendo varie cose nel topic mi salgono i dubbi;

premetto inoltre che non sono interessato ad oc o sistemi spintissimi, mi basta la config base che supera di netto la mia attuale caffettiera. :D

Attualmente monto un enermax liberty 620w. detta così credo che possa tenere la nuova config, ma parlando di ampere mi sorgono i dubbi.
ecco il link dell'etichetta dell'ali (non è una mia foto ma il modello è lo stesso).

http://img517.imageshack.us/img517/4252/dsc05615o.jpg

inoltre questo modello non prevedeva le porte pcie a 8 pin quindi mi trovo solo due cavi pcie a 6 pin collegati alla mia attuale vga.
so che le gtx580 si alimentanto con 1x6pin+1x8pin.
a questo punto, se riuscissi a tenermi l'ali, quale dovrebbe essere la connessione corretta?

un cavo 6 pin da ali a vga e l'altro 6 pin dall'ali al connettore a "v 2x6pin to 8pin" oppure dovrei collegare entrambi i cavi 6 pin sul connettore a V che finisce nell'ingresso 8pine e la'ltro ingresso a 6 pin utilizzarlo con uno sdoppiatore molex?


nel caso in cui l'ali risultasse inadeguato, cosa mi potreste consigliare come marca e/o modelli, calcolando sempre che cerco la marca seria ma non il mega top tra 150€

grazie mille per il supporto.

ddemarch
18-04-2012, 17:11
salve a tutti.
domandone di servizio sull'alimentatore.
sono in procinto di upgradare il mio pc vecchio ormai di circa 6 anni con qualcosa di meglio.
la mia configurazione finale sarà un I7-2600, 8 gb e gtx580.

Per risparmiare un po', volevo vedere di tenermi buono l'alimentatore maa leggendo varie cose nel topic mi salgono i dubbi;

premetto inoltre che non sono interessato ad oc o sistemi spintissimi, mi basta la config base che supera di netto la mia attuale caffettiera. :D

Attualmente monto un enermax liberty 620w. detta così credo che possa tenere la nuova config, ma parlando di ampere mi sorgono i dubbi.
ecco il link dell'etichetta dell'ali (non è una mia foto ma il modello è lo stesso).

http://img517.imageshack.us/img517/4252/dsc05615o.jpg

inoltre questo modello non prevedeva le porte pcie a 8 pin quindi mi trovo solo due cavi pcie a 6 pin collegati alla mia attuale vga.
so che le gtx580 si alimentanto con 1x6pin+1x8pin.
a questo punto, se riuscissi a tenermi l'ali, quale dovrebbe essere la connessione corretta?

un cavo 6 pin da ali a vga e l'altro 6 pin dall'ali al connettore a "v 2x6pin to 8pin" oppure dovrei collegare entrambi i cavi 6 pin sul connettore a V che finisce nell'ingresso 8pine e la'ltro ingresso a 6 pin utilizzarlo con uno sdoppiatore molex?


nel caso in cui l'ali risultasse inadeguato, cosa mi potreste consigliare come marca e/o modelli, calcolando sempre che cerco la marca seria ma non il mega top tra 150€

grazie mille per il supporto.

Possiedi lo stesso alimentatore che monto io! Io con una 570 e 2600k non ho alcun problema, l'alimentatore non scalda per niente sotto sforzo però la 570 consuma meno della 580, circa 30-35w. Per me dovrebbe reggere..
Ad ogni modo sei sicuro di non avere il connettore a 8pin nell'alimentatore? Il mio ne ha uno da 6 e uno da 8..

P:S: il mio è modulare

moscato
18-04-2012, 17:25
Possiedi lo stesso alimentatore che monto io! Io con una 570 e 2600k non ho alcun problema, l'alimentatore non scalda per niente sotto sforzo però la 570 consuma meno della 580, circa 30-35w. Per me dovrebbe reggere..
Ad ogni modo sei sicuro di non avere il connettore a 8pin nell'alimentatore? Il mio ne ha uno da 6 e uno da 8..

P:S: il mio è modulare

anche il mio è modulare.
ma io intendo la vecchia serie liberty, non la "nuova".
sul connettore a 8 pin non so dirti.. mi pare di no.
almeno i due cavi rossi 12v sono entrambi a 6 pin.
su cosa trovi il tuo connettore a 8?
mica sui cavi che escono direttamente dall'ali? perchè qulli a memoria hanno un connettore 4+4pin, ma devo vedere a casa.

ddemarch
18-04-2012, 19:00
anche il mio è modulare.
ma io intendo la vecchia serie liberty, non la "nuova".
sul connettore a 8 pin non so dirti.. mi pare di no.
almeno i due cavi rossi 12v sono entrambi a 6 pin.
su cosa trovi il tuo connettore a 8?
mica sui cavi che escono direttamente dall'ali? perchè qulli a memoria hanno un connettore 4+4pin, ma devo vedere a casa.

Si si è della vecchia serie il mio, beh ho un 6-pin e un 6+2-pin nei 2 cavi pci-ex, probabilmente il tuo è una serie precedente.. :confused:

abacostrano
18-04-2012, 19:08
ragazzi voi per avere i 60 fps quasi in ogni situazione in battlefiled con la vostra gtx580 che impostazioni usate? nn riesco a trovare un giusto compromesso

gd350turbo
18-04-2012, 19:11
driver 301.24 con sincronia automatica e overclock alla massima potenza

_fabry_
18-04-2012, 20:03
Ah ma allora girano sti 301...

Orkozzio
18-04-2012, 20:13
ragazzi voi per avere i 60 fps quasi in ogni situazione in battlefiled con la vostra gtx580 che impostazioni usate? nn riesco a trovare un giusto compromesso

Io ho impostato tutto su ultra, tranne il filtro msax qualcosa che è disattivato in quanto è di una pesantezza assurda in rapporto ai pregi che da e ho anche disattivato il motion blur che mi tira balordo e basta.
In questa situazione ho degli sporadici cali sotto i 60 fps ma per la maggior parte del tempo ci sono sopra senza problemi.;)
Occhio che ci sono dei server nei quali si hanno dei rallentamenti/scatti che non sono dovuti al tuo sistema ma penso a qualcosa che non va nel server!

Simedan1985
18-04-2012, 20:24
Quindi per usare fxaa in bf3 ,devo disabilitare dal gioco msaa??

abacostrano
18-04-2012, 20:46
Io ho impostato tutto su ultra, tranne il filtro msax qualcosa che è disattivato in quanto è di una pesantezza assurda in rapporto ai pregi che da e ho anche disattivato il motion blur che mi tira balordo e basta.
In questa situazione ho degli sporadici cali sotto i 60 fps ma per la maggior parte del tempo ci sono sopra senza problemi.;)
Occhio che ci sono dei server nei quali si hanno dei rallentamenti/scatti che non sono dovuti al tuo sistema ma penso a qualcosa che non va nel server!

sto notando che anche se sto sui 50-60 fps non lo sento fluido boh! per adesso sto con tutto su ultra tranne antialiasing 2x

playmake
18-04-2012, 20:52
sto notando che anche se sto sui 50-60 fps non lo sento fluido boh! per adesso sto con tutto su ultra tranne antialiasing 2x


hai qualche altro problema allora, io col sistema in firma l'ho giocato sia online che offline con TUTTO a ultra filtri inclusi con fluidità estrema e mai sotto i 50fps ;)

Simedan1985
18-04-2012, 20:53
sto notando che anche se sto sui 50-60 fps non lo sento fluido boh! per adesso sto con tutto su ultra tranne antialiasing 2x

potrebbe essere un problema dell HT del procio , hai impostato il vsync?

prra
18-04-2012, 20:55
sto notando che anche se sto sui 50-60 fps non lo sento fluido boh! per adesso sto con tutto su ultra tranne antialiasing 2x

togli le ombre.. è un vantaggio tecnico/tattico :asd:

abacostrano
18-04-2012, 21:47
potrebbe essere un problema dell HT del procio , hai impostato il vsync?

si ho il v-sync attivo con triple buffering perche l'adaptive v-sync mi da tearing :( ho fatto l'installazione pulita gia due volte ma non ho risolto il problema. in questo sistema ci sta installata anche poca roba, è bello leggero :D come lo risolvo se è l HT?! :rolleyes:

playmake
18-04-2012, 21:49
si ho il v-sync attivo con triple buffering perche l'adaptive v-sync mi da tearing :( ho fatto l'installazione pulita gia due volte ma non ho risolto il problema. in questo sistema ci sta installata anche poca roba, è bello leggero :D come lo risolvo se è l HT?! :rolleyes:

disattivi l'HT da bios :D

abacostrano
18-04-2012, 22:08
disattivi l'HT da bios :D

Ho un i5 2500k! non credo di averlo l'HT almeno cosi ho letto in giro! XD

XEV
19-04-2012, 07:08
Ho un i5 2500k! non credo di averlo l'HT almeno cosi ho letto in giro! XD

non è che se si hanno dei rallentamenti allora tutto dipende dal pc... dipende da che connessione hai, su che server ti colleghi, ping, lag server.. Su server anche italiani con 64 players, vedi che anche se si hanno 60fps minimi, in certe situazioni dei rallentamenti si hanno,anche se si possiede la fibra, questo è dovuto al server. Come si fa a dire subito che si hanno dei problemi al pc, mah.

un utente ti ha detto di provare a non tenere tutto su ultra, ma di abbassare il filtro msax, vedi che di miglioramenti ne troverai. ;)

moscato
19-04-2012, 07:41
Si si è della vecchia serie il mio, beh ho un 6-pin e un 6+2-pin nei 2 cavi pci-ex, probabilmente il tuo è una serie precedente.. :confused:


non saprei. io ho solo i due cavi 6 pin. :(
del resto l'ali l'avrò comprato 5, 6 anni fa...:mc:

BMWZ8
19-04-2012, 08:33
salve a tutti.
domandone di servizio sull'alimentatore.
sono in procinto di upgradare il mio pc vecchio ormai di circa 6 anni con qualcosa di meglio.
la mia configurazione finale sarà un I7-2600, 8 gb e gtx580.

Per risparmiare un po', volevo vedere di tenermi buono l'alimentatore maa leggendo varie cose nel topic mi salgono i dubbi;

premetto inoltre che non sono interessato ad oc o sistemi spintissimi, mi basta la config base che supera di netto la mia attuale caffettiera. :D

Attualmente monto un enermax liberty 620w. detta così credo che possa tenere la nuova config, ma parlando di ampere mi sorgono i dubbi.
ecco il link dell'etichetta dell'ali (non è una mia foto ma il modello è lo stesso).

http://img517.imageshack.us/img517/4252/dsc05615o.jpg

inoltre questo modello non prevedeva le porte pcie a 8 pin quindi mi trovo solo due cavi pcie a 6 pin collegati alla mia attuale vga.
so che le gtx580 si alimentanto con 1x6pin+1x8pin.
a questo punto, se riuscissi a tenermi l'ali, quale dovrebbe essere la connessione corretta?

un cavo 6 pin da ali a vga e l'altro 6 pin dall'ali al connettore a "v 2x6pin to 8pin" oppure dovrei collegare entrambi i cavi 6 pin sul connettore a V che finisce nell'ingresso 8pine e la'ltro ingresso a 6 pin utilizzarlo con uno sdoppiatore molex?


nel caso in cui l'ali risultasse inadeguato, cosa mi potreste consigliare come marca e/o modelli, calcolando sempre che cerco la marca seria ma non il mega top tra 150€

grazie mille per il supporto.



ciao....guarda quello che possiedo io: un modu 82+ da 525w. avevo gli stessi dubbi tuoi prima di comprare la 580; poi mi sono documentato, ho preso la scheda, e l'ali regge che è una bomba,ora non so se ha gli stessi amperaggi del tuo; io per sicurezza comunque non ho usato il singolo cavo che finisce con l'8+8 ma oltre a quello, che ho attaccato nell'8 pin della scheda, ho usato un altro cavo per il 6 pin, così da stressare meno l'alimentatore.

per la cronaca, avendo un case vecchio con l'ali sopra, col dremel ho aperto quattro feritoie sul case in alto, ho girato l'ali, così pesca aria fresca e anche sotto sforzo va che è un amore:D

moscato
19-04-2012, 08:45
ciao....guarda quello che possiedo io: un modu 82+ da 525w. avevo gli stessi dubbi tuoi prima di comprare la 580; poi mi sono documentato, ho preso la scheda, e l'ali regge che è una bomba,ora non so se ha gli stessi amperaggi del tuo; io per sicurezza comunque non ho usato il singolo cavo che finisce con l'8+8 ma oltre a quello, che ho attaccato nell'8 pin della scheda, ho usato un altro cavo per il 6 pin, così da stressare meno l'alimentatore.

per la cronaca, avendo un case vecchio con l'ali sopra, col dremel ho aperto quattro feritoie sul case in alto, ho girato l'ali, così pesca aria fresca e anche sotto sforzo va che è un amore:D

ho visto adesso la scheda del tuo.
è distante mille miglia dal mio. hai più ampere sulle 12v e di base tu hai un sacco di cavi in più del mio. ha la possibilità del 6+2 sui due cavi cosa che io non ho.
quindi oltre all'amperaggio peggiore ho anche difficoltà tecniche nei collegamenti.

BMWZ8
19-04-2012, 08:46
http://www.nexthardware.com/recensioni/alimentatori/96/enermax-modu82-525w-pro82-625w_2.htm



a quanto pare il mio ha 3 ampere in più sulla 12 volt(e comunque sia ne ha 40, sempre 2 sotto alle specifiche nvidia, ma essendo un ali di qualità come ho già detto mai nessun problema)..per avere sicurezze sulla vga o fai una prova,con degli adattatori per l'otto pin se il tuo ali ne ha solo 6+6 o aspetti la fascia media di kepler(visto che vuoi le prestazioni della 580) che andrà di sicuro con connettori 6+6 o anche meno, per il resto della config che vorresti fare non avrai nessun problema.

moscato
19-04-2012, 08:57
http://www.nexthardware.com/recensioni/alimentatori/96/enermax-modu82-525w-pro82-625w_2.htm



a quanto pare il mio ha 3 ampere in più sulla 12 volt(e comunque sia ne ha 40, sempre 2 sotto alle specifiche nvidia, ma essendo un ali di qualità come ho già detto mai nessun problema)..per avere sicurezze sulla vga o fai una prova,con degli adattatori per l'otto pin se il tuo ali ne ha solo 6+6 o aspetti la fascia media di kepler(visto che vuoi le prestazioni della 580) che andrà di sicuro con connettori 6+6 o anche meno, per il resto della config che vorresti fare non avrai nessun problema.

la questione di kepler è un buon consiglio.
pensavo alla 580 ora semplicemente per risparmiare qualcosa e cercarla di seconda mano, visto che non sono un accanito giocatore e non faccio oc.
comunque tengo in considerazione l'idea.

¥º·RG·º¥
19-04-2012, 10:34
si ho il v-sync attivo con triple buffering perche l'adaptive v-sync mi da tearing :( ho fatto l'installazione pulita gia due volte ma non ho risolto il problema. in questo sistema ci sta installata anche poca roba, è bello leggero :D come lo risolvo se è l HT?! :rolleyes:

L'installazione pulita non risolve niente, bisogna effettuare la pulizia in modalita provvisoria ;)... hai fatto anche quello? :)

Matz
19-04-2012, 10:45
Salve ragazzi... Mi sta salendo un po' la scimmia per la gtx680...

Secondo voi vale la pena fare il salto dalla mia attuale?

Ali3n77
19-04-2012, 10:49
Salve ragazzi... Mi sta salendo un po' la scimmia per la gtx680...

Secondo voi vale la pena fare il salto dalla mia attuale?

Col monitor che mi e' arrivato ora ora ho lo stesso tuo dubbio....
Mi sa che aspetto le versioni custom pero' :oink:

¥º·RG·º¥
19-04-2012, 10:52
Salve ragazzi... Mi sta salendo un po' la scimmia per la gtx680...

Secondo voi vale la pena fare il salto dalla mia attuale?

Col monitor che mi e' arrivato ora ora ho lo stesso tuo dubbio....
Mi sa che aspetto le versioni custom pero' :oink:

Lasciate perdere, prendete un'altra 580 e andate di SLI fino al GK110 ;)

P.S. Alien tu avrai bisogno anche di piu vram, motivo in piu per attendere il GK110..

Matz
19-04-2012, 10:55
Lasciate perdere, prendete un'altra 580 e andate di SLI fino al GK110 ;)

Dopo l'esperienza di 2 5970 in cross lascio... Mono GPU tutta la vita! Preferisco sacrificare un po' di prestazioni ma giocare in piena tranquillità!

...magari con NVIDIA è diverso ma sono ancora traumatizzato!

Ali3n77
19-04-2012, 10:58
Lasciate perdere, prendete un'altra 580 e andate di SLI fino al GK110 ;)

P.S. Alien tu avrai bisogno anche di piu vram, motivo in piu per attendere il GK110..

Grazie del consiglio " Boss " ! ;)
Infatti mi sa che aspettero' gk110 senza spendere altri soldoni...il monitor e' identico paro paro al iMac 27" cinema blablabla..con la sola differenza del prezzo ... iMac costa 1200 e passa euro il mio l'ho pagato 400 tondi tondi compreso di spedizione :stordita: ed e' anche meglio perche' raggiunge i 100hz di refresh :oink:
Per natale mi sa che mi faro il regalo piu' azzeccato col GK110 abbinato a sto monito :D Non oso immagginare tutto a palla coi filtri con sto monitor...vita sociale...ADDIO!!! :D

¥º·RG·º¥
19-04-2012, 10:59
Dopo l'esperienza di 2 5970 in cross lascio... Mono GPU tutta la vita! Preferisco sacrificare un po' di prestazioni ma giocare in piena tranquillità!

...magari con NVIDIA è diverso ma sono ancora traumatizzato!

Bhe ma tu stai parlando anche di 4 GPU da gestire, e anche lavorandoci sopra con una ottimizzazione da manuale, la cosa rappresenterebbe sempre un ardua sfida con ogni nuovo gioco che esce! Lo SLI di Nvidia è qualcosa di sensazionale, io l'ho montato da circa un mese e posso dirti che mi trovo davvero benissimo: assolutamente 0 problemi! ;). Se pero mi dici che non vuoi una doppia GPU, ti sconsiglio di passare dalla tua 580 alla 680: si parla di un incremento che va dal 10 al 13%..

¥º·RG·º¥
19-04-2012, 11:01
Grazie del consiglio " Boss " ! ;)
Infatti mi sa che aspettero' gk110 senza spendere altri soldoni...il monitor e' identico paro paro al iMac 27" cinema blablabla..con la sola differenza del prezzo ... iMac costa 1200 e passa euro il mio l'ho pagato 400 tondi tondi compreso di spedizione :stordita: ed e' anche meglio perche' raggiunge i 100hz di refresh :oink:
Per natale mi sa che mi faro il regalo piu' azzeccato col GK110 abbinato a sto monito :D Non oso immagginare tutto a palla coi filtri con sto monitor...vita sociale...ADDIO!!! :D

:asd: :Perfido:

Matz
19-04-2012, 11:04
Bhe ma tu stai parlando anche di 4 GPU da gestire, e anche lavorandoci sopra con una ottimizzazione da manuale, la cosa rappresenterebbe sempre un ardua sfida con ogni nuovo gioco che esce! Lo SLI di Nvidia è qualcosa di sensazionale, io l'ho montato da circa un mese e posso dirti che mi trovo davvero benissimo: assolutamente 0 problemi! ;). Se pero mi dici che non vuoi una doppia GPU, ti sconsiglio di passare dalla tua 580 alla 680: si parla di un incremento che va dal 10 al 13%..

Ah beh... Per così poco tengo la mia!

Ma la gk110 sarà una 680 custom?

¥º·RG·º¥
19-04-2012, 11:07
Ah beh... Per così poco tengo la mia!

Ma la gk110 sarà una 680 custom?

Assolutamente no ;) è il nuovo chip targato Nvidia. Il chip della 680 invece è il GK104. Con il GK110 vedremo davvero la potenza di Kepler ;)

Matz
19-04-2012, 11:11
Assolutamente no ;) è il nuovo chip targato Nvidia. Il chip della 680 invece è il GK104. Con il GK110 vedremo davvero la potenza di Kepler ;)

Quindi si parla di serie 700?

Vabbe... Si aspetta!

¥º·RG·º¥
19-04-2012, 11:15
Quindi si parla di serie 700?

Vabbe... Si aspetta!

Credo proprio di si, e se il suo debutto non sarà ufficiale subito dopo l'estate, nel periodo natalizio sarà gia disponibile sugli scaffali ;)

abacostrano
19-04-2012, 11:47
L'installazione pulita non risolve niente, bisogna effettuare la pulizia in modalita provvisoria ;)... hai fatto anche quello? :)

si si ho fatto tutti i passaggi che mi avete consigliato! :D

_fabry_
19-04-2012, 12:14
Da oggi sarò (di nuovo) dei vostri!!
:D :D

killeragosta90
19-04-2012, 12:54
Bhe ma tu stai parlando anche di 4 GPU da gestire, e anche lavorandoci sopra con una ottimizzazione da manuale, la cosa rappresenterebbe sempre un ardua sfida con ogni nuovo gioco che esce! Lo SLI di Nvidia è qualcosa di sensazionale, io l'ho montato da circa un mese e posso dirti che mi trovo davvero benissimo: assolutamente 0 problemi! ;). Se pero mi dici che non vuoi una doppia GPU, ti sconsiglio di passare dalla tua 580 alla 680: si parla di un incremento che va dal 10 al 13%..
A dire la verità il gap prestazionale tra la 580 e la 680 si aggira mediamente attorno al 30%, e arriva "tranquillamente" a punte anche del 35% :)

E ne ho lette tante di recensioni sulla nuova 680, sicuramente il gk110 sarà altra cosa però la differenza c'è dalla 580 ;)

Simedan1985
19-04-2012, 13:39
Lasciate perdere, prendete un'altra 580 e andate di SLI fino al GK110 ;)
cut......GK110..

Ne sto appena trattando una ;)

illidan2000
19-04-2012, 13:44
A dire la verità il gap prestazionale tra la 580 e la 680 si aggira mediamente attorno al 30%, e arriva "tranquillamente" a punte anche del 35% :)

E ne ho lette tante di recensioni sulla nuova 680, sicuramente il gk110 sarà altra cosa però la differenza c'è dalla 580 ;)

io sono passato da 590 a 680 la settimana scorsa.
le due schede hanno prestazioni identiche...

TigerTank
19-04-2012, 13:52
Lasciate perdere, prendete un'altra 580 e andate di SLI fino al GK110 ;)

P.S. Alien tu avrai bisogno anche di piu vram, motivo in piu per attendere il GK110..

O anche resistere con una sola, tanto ora con l'fxaa si ha un bel guadagno prestazionale :)
Io per ora sono a questo bivio:

-se GK110 verrà posticipato a nuova generazione per contrastare la nuova generazione amd, prenderò una gtx680(quando ci sarà ampia disponibilità), sperando che i tagli di prezzo dichiarati da amd si ripercuotano anche sulla controparte verde.
-se GK110 verrà confermato per l'autunno...aspetterò :)

Basta che Nvidia ci faccia sapere qualcosa di ufficiale!

¥º·RG·º¥
19-04-2012, 14:05
Ne sto appena trattando una ;)

Thumbs up! ;)

O anche resistere con una sola, tanto ora con l'fxaa si ha un bel guadagno prestazionale :)
Io per ora sono a questo bivio:

-se GK110 verrà posticipato a nuova generazione per contrastare la nuova generazione amd, prenderò una gtx680(quando ci sarà ampia disponibilità), sperando che i tagli di prezzo dichiarati da amd si ripercuotano anche sulla controparte verde.
-se GK110 verrà confermato per l'autunno...aspetterò :)

Basta che Nvidia ci faccia sapere qualcosa di ufficiale!

Credo che faro esattamente come te ;)

killeragosta90
19-04-2012, 14:06
io sono passato da 590 a 680 la settimana scorsa.
le due schede hanno prestazioni identiche...
Allora quanto ho detto dovrebbe essere vero, dato che da una 590 a una 580 c'è mediamente un 35-40% di differenza in fatto di prestazioni, o no? :)

¥º·RG·º¥
19-04-2012, 14:12
@killeragosta

Cerchiamo di non sparare troppi numeri :rolleyes:

killeragosta90
19-04-2012, 14:22
@killeragosta

Cerchiamo di non sparare troppi numeri :rolleyes:
Cioè?

Era tanto per fare una quantificazione, anche se piuttosto approssimativa, d'altronde sei stato te il primo a "spare" dei numeri e anche piuttosto errati. Se vuoi posto la fila di recensioni in cui quantificano che il gap prestazionale tra una gtx 580 e una gtx 680 si aggira in media attorno al 30%.

Poi anch'io sono uno di quelli che si tiene stretta stretta la propria 580 e preferisce aspettare il gk110, però bisogna ammettere che la differenza di prestazioni tra una 580 e una 680 c'è!

¥º·RG·º¥
19-04-2012, 14:27
Cioè?

Era tanto per fare una quantificazione, anche se piuttosto approssimativa, d'altronde sei stato te il primo a "spare" dei numeri e anche piuttosto errati. Se vuoi posto la fila di recensioni in cui quantificano che il gap prestazionale tra una gtx 580 e una gtx 680 si aggira in media attorno al 30%.

Poi anch'io sono uno di quelli che si tiene stretta stretta la propria 580 e preferisce aspettare il gk110, però bisogna ammettere che la differenza di prestazioni tra una 580 e una 680 c'è!

Ti consiglio di dare un occhiata QUI (http://www.guru3d.com/article/msi-geforce-gtx-680-twinfrozr-iii-oc-review/18) soprattutto in Crysis 2 e Metro2033.. Comunque chiudiamo qui questo piccolo OT ;)

illidan2000
19-04-2012, 14:36
Allora quanto ho detto dovrebbe essere vero, dato che da una 590 a una 580 c'è mediamente un 35-40% di differenza in fatto di prestazioni, o no? :)

In sequenza sullo stesso PC, nell'arco di tre giorni ho testato con 3dmark11, unigine heaven 3 e barman ac una 5870, una 580, una 590 e una 680. Se riesco a ritrovare i risultati li posto, magari anche con un grafico

Inviato dal mio GT-N7000 usando Tapatalk

killeragosta90
19-04-2012, 14:44
Ti consiglio di dare un occhiata QUI (http://www.guru3d.com/article/msi-geforce-gtx-680-twinfrozr-iii-oc-review/18) soprattutto in Crysis 2 e Metro2033.. Comunque chiudiamo qui questo piccolo OT ;)
Si ma adesso non è che una recensione su due giochi fa testo per tutte :asd:

Comunque si sta parlando del gap prestazionale tra la gtx 580 e la successiva generazione, non credo sia poi così OT :) (visto che un paio di pagine fa si è parlato di tasiere per ben due pagine xD)

killeragosta90
19-04-2012, 14:46
In sequenza sullo stesso PC, nell'arco di tre giorni ho testato con 3dmark11, unigine heaven 3 e barman ac una 5870, una 580, una 590 e una 680. Se riesco a ritrovare i risultati li posto, magari anche con un grafico

Inviato dal mio GT-N7000 usando Tapatalk
ottimo :)

EDIT: scusate il doppio post, errore mio.

Simedan1985
19-04-2012, 16:14
O anche resistere con una sola, tanto ora con l'fxaa si ha un bel guadagno prestazionale :)
Io per ora sono a questo bivio:

cut..!

Ciao Tiger ,con quali giochi riesci ad avere vantaggi con l'fxaa??

Alekos Panagulis
19-04-2012, 16:39
Sono mesi che gioco a BF3 con quel fastidiosi flickering delle montagne sullo sfondo, nella mappa Karkand. Succede solo con SLI attivo.
Anche voi?

TigerTank
19-04-2012, 16:48
Ciao Tiger ,con quali giochi riesci ad avere vantaggi con l'fxaa??

Direi un pò tutti o quasi, l'fxaa è già in partenza più leggero dell'msaa e l'altro suo vantaggio principale è quello di poterlo usare con quei giochi che non hanno filtri AA nativi, senza più forzare l'msaa (magari smanettando anche tramite Nvidia Inspector con gli esadecimali di compatibilità) che spesso non funziona o comporta artefatti grafici.
Ad esempio l'ho provato con Oblivion, con Bioshock e con Alien Breed con impressioni molto positive. In futuro lo proverò con altri titoli che inizierò a giocare(tempo permettendo che ahimè...è sempre poco).

fabbri.fili
19-04-2012, 19:36
Chi ha provato gli ultimi driver usciti oggi?
Io con live mail ho lo stesso problema della sfocatura nelle scritte

TigerTank
19-04-2012, 20:35
Nuovo afterburner 2.2.0 ufficiale: LINK (http://downloads.guru3d.com/Afterburner-2.2.0-download-2562.html)

¥º·RG·º¥
19-04-2012, 21:06
Nuovo afterburner 2.2.0 ufficiale: LINK (http://downloads.guru3d.com/Afterburner-2.2.0-download-2562.html)

Grazie per la segnalazione ;)

Orkozzio
19-04-2012, 22:23
Chi ha provato gli ultimi driver usciti oggi?
Io con live mail ho lo stesso problema della sfocatura nelle scritte

Io con i 301 ho i testi sfuocati su messenger e , strana cosa, ativando il filtro fxaa e la sincronia di tipo 1, bf3 mi crasha in game... se tolgo queste due impostazioni ci gioco tranquillamente!:confused: :confused:

GIAN.B
19-04-2012, 22:55
Sono mesi che gioco a BF3 con quel fastidiosi flickering delle montagne sullo sfondo, nella mappa Karkand. Succede solo con SLI attivo.
Anche voi?

Confermo li avevo anch'io e anche sui campi di erba. Adesso hò messo gli ultimi beta e mi sembra molto meglio....prova...;)

killeragosta90
19-04-2012, 23:58
Scusate ragazzi ma dove sono 'sti beta usciti oggi? Io non li trovo sul sito ufficiale nvidia :(

abacostrano
20-04-2012, 00:12
Scusate ragazzi ma dove sono 'sti beta usciti oggi? Io non li trovo sul sito ufficiale nvidia :(

dovrebbero essere i 301.32 pero non mi fido molto se non li trovo sul sito nvidia :rolleyes:

Goofy Goober
20-04-2012, 07:58
dovrebbero essere i 301.32 pero non mi fido molto se non li trovo sul sito nvidia :rolleyes:

non è che se trovi i beta su Guru3d ti nuclearizzano il pc e invece sul sito nvidia sei apposto sempre... sempre nvidia li fa questi driver...

quando erano usciti quelli fallati che bruciavano le schede video perchè spegnevano la ventola (mi pare serie 2xx) erano distribuiti sul sito nvidia :rolleyes:


:asd:
su ragazzi non fatevi tante paturnie, se li volete provare ok, ma non rischiate mica di vedere la scheda video che viene trasportata in un'altra dimensione :D

_fabry_
20-04-2012, 08:41
eccomi (di nuovo) dei vostri.... :D

http://img72.imageshack.us/img72/7721/img6139z.jpg (http://imageshack.us/photo/my-images/72/img6139z.jpg/)


vorrei cominciare con un po di oc, mi date qualche dato di riferimento, come vcore, frequenze e ventola?? magari una media...
uso afterburner....
grazie raga....

¥º·RG·º¥
20-04-2012, 09:12
eccomi (di nuovo) dei vostri.... :D

cut


vorrei cominciare con un po di oc, mi date qualche dato di riferimento, come vcore, frequenze e ventola?? magari una media...
uso afterburner....
grazie raga....

Spingiti massimo a 1050 oppure 1063mV con frequenze sugli 850-870Mhz e sei apposto per un daily ;)

illidan2000
20-04-2012, 09:22
eccomi (di nuovo) dei vostri.... :D

http://img72.imageshack.us/img72/7721/img6139z.jpg (http://imageshack.us/photo/my-images/72/img6139z.jpg/)


vorrei cominciare con un po di oc, mi date qualche dato di riferimento, come vcore, frequenze e ventola?? magari una media...
uso afterburner....
grazie raga....

molto belle... per l'oc, dipende da quanto vuoi occare... :)
parti da 850 e poi vedi se sei soddisfatto, sempre tenendo in conto che in SLI le schede salgono meno

Ali3n77
20-04-2012, 09:30
eccomi (di nuovo) dei vostri.... :D

http://img72.imageshack.us/img72/7721/img6139z.jpg (http://imageshack.us/photo/my-images/72/img6139z.jpg/)


vorrei cominciare con un po di oc, mi date qualche dato di riferimento, come vcore, frequenze e ventola?? magari una media...
uso afterburner....
grazie raga....

Allora io per daily, ho una PNY gtx580, sto tenendo 1.088 a 900 con 2100 su memorie non supero MAI i 60/70 gradi anche in full con giochi pesanti anche crysis 2 ed e' stabilissima! ;) Non rischio nulla con queste temperature :)
Unica cosa ora che ho cambiato Monitor col catleap da 2550x1440 giocando con questa risoluzione le temperature per tenere i 50/60 fps fissi la scheda mi si e' alzata di 5 gradi tondi tondi.

Alekos Panagulis
20-04-2012, 09:56
Confermo li avevo anch'io e anche sui campi di erba. Adesso hò messo gli ultimi beta e mi sembra molto meglio....prova...;)

Ok proverò, grazie.

_fabry_
20-04-2012, 10:15
Ragazzi grazie davvero
Oggi mi metterò un po' a testare e vi faccio sapere..

_fabry_
20-04-2012, 11:47
Scusate ragazzi
Quale dovrebbe essere un punteggio medio Al Vantage per un l'ali di 580 @ default?,

Randall
20-04-2012, 12:06
toglietemi un dubbio....

sono appena passato da uno sli di 275 ad una 570 (+275 per la fisica) per cercare di limitare rumore ed un fastidioso stuttering che pativo con il sistema in firma a costi da mercatino;) .
la seconda 275 era una msi twinfrozer2, quindi diversa dalla zotac ref.

adesso ho le dx11 e la fluidità mi sembra migliorata pur avvertendo acora un minimo di "tentennamenti" qua e la.
il rumore è meno però quando la 570 frulla non mi fa rimpiangere il vecchio setup, anzi :(

ora come si dice, l'appetito vien mangiando e con le verie simiette che urlano "we need more powaaaa!!!" e avendo l'occasione di raddoppiare la 570 con una "palit" identica a quella che già ho con una spesa limitata sono in dubbio sul dafarsi.

la mia paura e di tornare con lo sli a patire stuttering e raddoppiare il rumore che già non è pochissimo.

voui con sli di 570/580 come vi trovate?


se fossi riuscito raccimolare in tempo utile gli € necessari settimana scorsa ora chiederei consigli nel tread delle 680... :(
ma c'è crisi e lo sli è la cosa più economica dopo l'aspettare e non far nulla :D

Buell72
20-04-2012, 12:17
toglietemi un dubbio....

sono appena passato da uno sli di 275 ad una 570 (+275 per la fisica) per cercare di limitare rumore ed un fastidioso stuttering che pativo con il sistema in firma a costi da mercatino;) .
la seconda 275 era una msi twinfrozer2, quindi diversa dalla zotac ref.

adesso ho le dx11 e la fluidità mi sembra migliorata pur avvertendo acora un minimo di "tentennamenti" qua e la.
il rumore è meno però quando la 570 frulla non mi fa rimpiangere il vecchio setup, anzi :(

ora come si dice, l'appetito vien mangiando e con le verie simiette che urlano "we need more powaaaa!!!" e avendo l'occasione di raddoppiare la 570 con una "palit" identica a quella che già ho con una spesa limitata sono in dubbio sul dafarsi.

la mia paura e di tornare con lo sli a patire stuttering e raddoppiare il rumore che già non è pochissimo.

voui con sli di 570/580 come vi trovate?


se fossi riuscito raccimolare in tempo utile gli € necessari settimana scorsa ora chiederei consigli nel tread delle 680... :(
ma c'è crisi e lo sli è la cosa più economica dopo l'aspettare e non far nulla :D


Io avevo (appena messa in vendita una) uno sli di 580 Lightning, ma col sistema Sporting in firma, nn rendeva nulla ovviamente, stuttering a go go.
Ma te, con sistema I7 nn dovresti in teoria avere questi problemi,.. almeno, così qui mi hanno detto;)

¥º·RG·º¥
20-04-2012, 12:31
Scusate ragazzi
Quale dovrebbe essere un punteggio medio Al Vantage per un l'ali di 580 @ default?,

Io con lo SLI in firma feci circa P48300

toglietemi un dubbio....

sono appena passato da uno sli di 275 ad una 570 (+275 per la fisica) per cercare di limitare rumore ed un fastidioso stuttering che pativo con il sistema in firma a costi da mercatino;) .
la seconda 275 era una msi twinfrozer2, quindi diversa dalla zotac ref.

adesso ho le dx11 e la fluidità mi sembra migliorata pur avvertendo acora un minimo di "tentennamenti" qua e la.
il rumore è meno però quando la 570 frulla non mi fa rimpiangere il vecchio setup, anzi :(

ora come si dice, l'appetito vien mangiando e con le verie simiette che urlano "we need more powaaaa!!!" e avendo l'occasione di raddoppiare la 570 con una "palit" identica a quella che già ho con una spesa limitata sono in dubbio sul dafarsi.

la mia paura e di tornare con lo sli a patire stuttering e raddoppiare il rumore che già non è pochissimo.

voui con sli di 570/580 come vi trovate?


se fossi riuscito raccimolare in tempo utile gli € necessari settimana scorsa ora chiederei consigli nel tread delle 680... :(
ma c'è crisi e lo sli è la cosa più economica dopo l'aspettare e non far nulla :D

Soddisfatto al 100% e con il nuovo V-Sync che va una meraviglia credo proprio che non soffrirai piu di stuttering ;)

Goofy Goober
20-04-2012, 12:34
Io con lo SLI in firma feci circa P48300

con 2 570 al vantage hai fatto quel punteggio? :eek: :eek:

io con 2 580 faccio questo:

http://dl.dropbox.com/u/3896005/Pc%20foto%20liquido/benchmark/vantage%201.063.JPG

¥º·RG·º¥
20-04-2012, 12:41
con 2 570 al vantage hai fatto quel punteggio? :eek: :eek:

io con 2 580 faccio questo:

http://dl.dropbox.com/u/3896005/Pc%20foto%20liquido/benchmark/vantage%201.063.JPG

Se non erano 48300 erano 48200, ma comunque di media si. Dài anche un occhiata QUI (http://imageshack.us/f/13/2600k51009002100.jpg/): i 50000 li ho presi con CPU @5.0Ghz e GPU @900/1800/2100

Goofy Goober
20-04-2012, 12:42
Se non erano 48300 erano 48200, ma comunque di media si. Dài anche un occhiata QUI (http://imageshack.us/f/13/2600k51009002100.jpg/): i 50000 li ho presi con CPU @5.0Ghz e GPU @900/1800/2100

la differenza quindi l'ha fatta la CPU? io la mia la tengo sempre a 4,4ghz

senno come si spiega che le mie 580 a 850mhz fanno meno, molto meno, di 2 570?

edit: ma te fai 263fps nel "cpu test 2" e io 36fps?!? cioè 600mhz fanno cambiare tutto questo?

¥º·RG·º¥
20-04-2012, 12:45
la differenza quindi l'ha fatta la CPU? io la mia la tengo sempre a 4,4ghz

senno come si spiega che le mie 580 a 850mhz fanno meno, molto meno, di 2 570?

Esatto proprio la CPU, per rendertene conto controlla il risultato del "CPU Test 1-2" Soprattutto nel secondo, il mio è stato nettamente superiore :)

¥º·RG·º¥
20-04-2012, 12:47
Per toglierti definitvamente ogni dubbio, occa la tua CPU a 4.7 e fai una prova ;)

Goofy Goober
20-04-2012, 12:47
Esatto proprio la CPU, per rendertene conto controlla il risultato del "CPU Test 1-2" Soprattutto nel secondo, il mio è stato nettamente superiore :)

scusa ma non capisco, quindi da 4,4ghz a 4,7ghz o 5ghz, il vantage subisce un abisso di incremento prestazionale? :confused:
non me intendo di benchmark perchè preferisco le prestazioni in game ai numeri, però sta cosa mi incuriosisce. fai quasi 50000 punti in più sulla cpu con 600mhz!! possibile?

Goofy Goober
20-04-2012, 12:48
Per toglierti definitvamente ogni dubbio, occa la tua CPU a 4.7 e fai una prova ;)

la mia a 4,7ghz non ci arriva :fagiano: o almeno, fin'ora non ci sono riuscito, credo dovrei dare una paccata di volts

¥º·RG·º¥
20-04-2012, 12:51
scusa ma non capisco, quindi da 4,4ghz a 4,7ghz o 5ghz, il vantage subisce un abisso di incremento prestazionale? :confused:
non me intendo di benchmark perchè preferisco le prestazioni in game ai numeri, però sta cosa mi incuriosisce. fai quasi 50000 punti in più sulla cpu con 600mhz!! possibile?

Bhe è risaputo che i bench sintetici sono piu affamati di CPU e la frequenza è quello che conta piu di tutto, a differenza dei giochi. Non vorrei pero che tu sia un po CPU-Limited con le schede occate in quel modo e la CPU a 4.4 :rolleyes:, per cui ti ripeto: occa a 4.7 e ripeti il Vantage ;)

Edit: 4.5 o 4.6 credo proprio di si :)..Io sono a 4.7 con 1.296..

Goofy Goober
20-04-2012, 12:53
Bhe è risaputo che i bench sintetici sono piu affamati di CPU e la frequenza è quello che conta piu di tutto, a differenza dei giochi. Non vorrei pero che tu sia un po CPU-Limited con le schede occate in quel modo e la CPU a 4.4 :rolleyes:, per cui ti ripeto: occa a 4.7 e ripeti il Vantage ;)

Edit: 4.5 o 4.6 credo proprio di si :)..Io sono a 4.7 con 1.296..

domani vedo se riesco, io ora a 4.4 con HT on ci sto con 1.320V da bios e 1.314-1.288 rilevati da CPU-Z a seconda di idle o full load.
la mia è una cpu sfortunata (e anche le schede video lo sono, nei benchmark stanno abb. stabili, ma basta un gioco DX11 e crasha tutto).
a me avevano detto che con le 580 in SLI un 2600K va bene da 4ghz in su per i giochi e che non le limita... pensavo fosse vero visto che vedo molti utenti con SLI di schede su piattaforma X58 e cpu intorno ai 4 o 4,2ghz

_fabry_
20-04-2012, 12:57
Un momento raga
Da ciò che ho potuto vedere in giro uno sli di 580 con un buon sistema neanche troppo occata dovrebbe stare sui 50000 come Vantage anche perché con le mie 560 ti e sistema tutto default facevo 37000

Ho chiesto perché facendo un test al volo col lo sli di 580 e lo stesso pc su cui avevo le 560 ho fatto 36000 ed evidentemente c'e qualcosa che non va...
Qualcuno mi illumina??

¥º·RG·º¥
20-04-2012, 13:01
domani vedo se riesco, io ora a 4.4 con HT on ci sto con 1.320V da bios e 1.314-1.288 rilevati da CPU-Z a seconda di idle o full load.
la mia è una cpu sfortunata (e anche le schede video lo sono, nei benchmark stanno abb. stabili, ma basta un gioco DX11 e crasha tutto).
a me avevano detto che con le 580 in SLI un 2600K va bene da 4ghz in su per i giochi e che non le limita... pensavo fosse vero visto che vedo molti utenti con SLI di schede su piattaforma X58 e cpu intorno ai 4 o 4,2ghz

Guarda io sono per le prove pratiche ed effettive sulla propria piattaforma ;) e ci sono due metodi per verificare se davvero un punteggio basso è dovuto a qualche problema di limitatezza da parte della CPU:

1) Monitorare l'utilizzo delle schede tramite AB, se le schede si fermano o ruotano attorno ad una % fissa ( che non sia il 99%) allora si è CPU-Limited

2) Tramite il Vantage: Si parte da una frequenza di base a scelta della CPU e si sale pian piano: Ipotizziamo 4.0Ghz. Se Il punteggio man mano che si sale di frequenza (4.0 -4.2 -4.4 -4.6 ecc.) aumenta drasticamente (dai 700-1000 punti in su) allora vuol dire che bisogna salire ancora in quanto la CPU limita le VGA, non appena invece ci si accorge che il passaggio da una frequenza all'altra implica un aumento di punteggio basso (200-400 punti) vuol dire che non si è piu CPU-Limited ;)

Goofy Goober
20-04-2012, 13:04
intanto posso dire che con test come 3d MARK 11 e Unigine le VGA stavano sempre al 99-98% con cpu a 4,4ghz... Nel Vantage devo verificare, non ero a monitorare le percentuali d'uso tanto che il pc faceva il test.

_fabry_
20-04-2012, 13:08
Guardate,
Io i 36000 li ho ottenuti col 2500k a 4800 quindi nel mio caso il problema non penso sia la Cpu...

Simedan1985
20-04-2012, 13:08
Sicuramente per i bench sintetici una cpu ( e parliamo solo di intel nehalem,Sandy ed ivy perche amd non è competitiva neanche a 8ghz) per fare il punteggio sulla gpu,specie multy gpu, è necessario portarla ai valori massimi di clock rimanendo in totale sicurezza!! Caso diverso sono i giochi prendendo di riferimento la risoluzione fullhd penso che un nehalem sui 4,0ghz sfrutti a dovere due 580!!

brain75
20-04-2012, 13:11
Bhe è risaputo che i bench sintetici sono piu affamati di CPU e la frequenza è quello che conta piu di tutto, a differenza dei giochi. Non vorrei pero che tu sia un po CPU-Limited con le schede occate in quel modo e la CPU a 4.4 :rolleyes:, per cui ti ripeto: occa a 4.7 e ripeti il Vantage ;)

Edit: 4.5 o 4.6 credo proprio di si :)..Io sono a 4.7 con 1.296..

Ma disattivare il physx no ? :)

_fabry_
20-04-2012, 13:29
allora ho fatto cosi:
in questo screen vi mostro i risultati del mio sistema in firma con cpu a 4800 cambiando solo la vga:
il 41000 e con le 2 560 ti oc
il 36000 e con le 2 580
il 30000 e con la 7970
http://img844.imageshack.us/img844/7425/sli560tivs7970vssli580.png (http://imageshack.us/photo/my-images/844/sli560tivs7970vssli580.png/)



effettivamente e il cpu score la discrepanza maggiore...
il mio problema e quello di essere cpu limited?? a 4800??

Goofy Goober
20-04-2012, 13:31
ma perchè nei primi 2 test fai 24000 di cpu score e nell'ultimo 70000?

¥º·RG·º¥
20-04-2012, 13:37
ma perchè nei primi 2 test fai 24000 di cpu score e nell'ultimo 70000?

Nell'ultimo test ha il physx attivo :)

_fabry_
20-04-2012, 13:37
E quello che mi chiedo....
Tra tutti e tre gli screen l'unica cosa a cambiare e la vga... Com'e hardware setting e oc e sempre lo stesso identico sistema..

¥º·RG·º¥
20-04-2012, 13:38
Ma disattivare il physx no ? :)

Ho il test solo su scheda singola senza Physx..

_fabry_
20-04-2012, 13:39
Da pannello nvidia dici??

XEV
20-04-2012, 13:39
domani vedo se riesco, io ora a 4.4 con HT on ci sto con 1.320V da bios e 1.314-1.288 rilevati da CPU-Z a seconda di idle o full load.
la mia è una cpu sfortunata (e anche le schede video lo sono, nei benchmark stanno abb. stabili, ma basta un gioco DX11 e crasha tutto).
a me avevano detto che con le 580 in SLI un 2600K va bene da 4ghz in su per i giochi e che non le limita... pensavo fosse vero visto che vedo molti utenti con SLI di schede su piattaforma X58 e cpu intorno ai 4 o 4,2ghz

quindi un 2600@default siamo in cpu limited con uno sli di 580 ?...

aumentano le prestazioni grafica e non solo ovviamente, aumentando la frequenza di un 2600, ma stiamo scherzando dicendo che un 2600 è cpu limited @default con lo sli di 580?!..
è l'architettura su cui si piazza lo sli che conta veramente, e questo è facilissimo da vedere tra 2 processori con architettura diversa ad uguale frequenza..

che poi sia una boiata avere un 2600k a frequenza stock, a prescindere dallo sli o non, questo è un altro discorso.

¥º·RG·º¥
20-04-2012, 13:40
Da pannello nvidia dici??

Dalle opzioni del vantage, la voce da cercare è PPU

P.S. Ridimensiona l'immagine.. ;)

Goofy Goober
20-04-2012, 13:40
Nell'ultimo test ha il physx attivo :)

ah ecco
allora lo attivo anche io

mi hanno sempre detto che bisogna disattivare l'opzione PPU sul vantage per non farlsare li risultato...

ma infatti mi sembrava strano perchè ho confrontato il mio punteggio con una recensione su GURU3d con 2 580DCII in SLI, ed ero in linea coi punti P totali e superavo il punteggio P delle sole gpu. probabile che anche li abbiano tenuto il PPU disattivo

brain75
20-04-2012, 13:40
Per questo é molto + alto del suo in proporzione...io con physx le 2 570 con il 920 a 4,2 ho fatto 46000 punti e rotti ;)

Goofy Goober
20-04-2012, 13:43
quindi un 2600@default siamo in cpu limited con uno sli di 580 ?...

aumentano le prestazioni grafica e non solo ovviamente, aumentando la frequenza di un 2600, ma stiamo scherzando dicendo che un 2600 è cpu limited @default con lo sli di 580?!..
è l'architettura su cui si piazza lo sli che conta veramente, e questo è facilissimo da vedere tra 2 processori con architettura diversa ad uguale frequenza..

che poi sia una boiata avere un 2600k a frequenza stock, a prescindere dallo sli o non, questo è un altro discorso.

frena frena frena

io ho semplicemente riportato un consiglio datomi su un forum, dove dicevano che col 2600K e 2 580gtx in SLI vado tranquillo di non essere limitato in nessun modo anche solo da 4ghz in più. la mia domanda in quel caso era se è necessario portare i K a frequenze alte, da 4.5ghz in su per capirci, visto che vedevo molti utenti con clock elevati.
il mio essendo sfigato sta a 4,4ghz con tanti volts, e quindi volevo evitare di salire troppo per non farlo scaldare più del dovuto, e la risposta che mi era stata data è quella.

non ho MAI detto che un 2600 a 3.4ghz limita qualcosa. quindi non sto scherzando o niente, ok? :)
ripeto, ho solo riportato quanto mi avevano consigliato, se tale consiglio era bufala o una menzogna, non ne ho idea :read:

_fabry_
20-04-2012, 13:43
Scusate non ci sto più capendo una mazza,
In quale dei 3 risultati ho sbagliato e cosa??

_fabry_
20-04-2012, 13:58
ok ho capito, ho provato a fare un est col ppu attivo e ho raggiunto un punteggio proporzionato a quelli che ho postato,
era quello il problema grazie a tutti...

XEV
20-04-2012, 13:58
frena frena frena

io ho semplicemente riportato un consiglio datomi su un forum, dove dicevano che col 2600K e 2 580gtx in SLI vado tranquillo di non essere limitato in nessun modo anche solo da 4ghz in più. la mia domanda in quel caso era se è necessario portare i K a frequenze alte, da 4.5ghz in su per capirci, visto che vedevo molti utenti con clock elevati.
il mio essendo sfigato sta a 4,4ghz con tanti volts, e quindi volevo evitare di salire troppo per non farlo scaldare più del dovuto, e la risposta che mi era stata data è quella.

non ho MAI detto che un 2600 a 3.4ghz limita qualcosa. quindi non sto scherzando o niente, ok? :)
ripeto, ho solo riportato quanto mi avevano consigliato, se tale consiglio era bufala o una menzogna, non ne ho idea :read:

no ma figurati :asd: :asd: ;)
che salendo di frequenza si migliora si vede, se si ha poi una cpu fortunata allora ci si può spingere abbastanza, ma per me gia un daily, a prescindere se sia una cpu fortunata o meno o sli, lo terrei e lo tengo a 4,2
ma gia @default è tutto stra ok :D

_fabry_
20-04-2012, 14:17
Ragazzi scusate
Il vcore Max di sicurezza per una reference quale potrebbe essere??

Randall
20-04-2012, 14:53
mi chiarite una cosa please?

premesso che non sono ne un hard overclocker ne un bencher, vedo che tutti confrontate sempre più tabelle e risultati di 3dmark rispetto a giochi reali...

nel senso: Io cerco/prendo una vga che mi faccia giocare il meglio possibile a giochi reali.

cosa mi sono perso?
che indicazioni mi da un risultato di 3dmark in più rispetto ai fps in un gioco?

già da solo ho capito che per quanto gli fps medi siano importanti non la dicono tutta e la reale giocabilità la vedi dai "minimi"...
ma il 3dmark mi sfugge...

KingArthas94
20-04-2012, 14:55
Ragazzi in questi giorni stavo rigiocando Half Life 2, ma la potenza della 570 è davvero davvero sprecatissima... dite che posso fare senza problemi downclock della GPU tipo a 600 MHz? Già gioco in modalità risparmio energia che mette il procio a 1.6 GHz :D come metto? (uso EVGA Precision)

illidan2000
20-04-2012, 15:29
Ragazzi in questi giorni stavo rigiocando Half Life 2, ma la potenza della 570 è davvero davvero sprecatissima... dite che posso fare senza problemi downclock della GPU tipo a 600 MHz? Già gioco in modalità risparmio energia che mette il procio a 1.6 GHz :D come metto? (uso EVGA Precision)

il tuo problema è il consumo :confused:

KingArthas94
20-04-2012, 15:35
il tuo problema è il consumo :confused:

Non è un problema, ma se si può diminuire, perchè non farlo?