PDA

View Full Version : [Thread Ufficiale - GM204] Geforce GTX 980 - GTX 970


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 [107] 108 109 110 111 112 113 114 115 116 117

World
23-02-2016, 09:55
Bravo! io sono stabile a tutto con quel bios,anche se la metto a 1600-8000!
Ho scaricato anche io quel BIOS, l'ho aperto con maxwell BIOS tweaker ma I valori non mi convincono tanto. Nel senso che ha sparato altissimi i valori di potenza estraibili dai connettori pcie, non so se sia una cosa saggia. Poi magari qualcuno più esperto può illuminarmi

Sent from my LG-D855 using Tapatalk

The Witcher
23-02-2016, 10:54
Ho già provato tutti i driver presenti sul sito di nvidia con eventuale pulizia di ddu ma la situazione non è cambiata di una virgola :cry:

L'unico riva tuner che uso è riva tuner statisticserver (per alcuni giochi mi serve per bloccare gli fps a un massimo di 60). Può essere quello?

Hmm...quella del controller mi è sfuggita. Però mi sorge una domanda. Come mai gli fps dovrebbero calare per l'attivazione del controller xbox o della vibrazione? :what: Capisco che il mondo del computer è un mondo particolare, ma questa mi giunge nuova! :what:

Visual C++ e directx già aggiornati oggi! ^^

N.B. Bell'avatar :asd:

nessun aiuto?

Ho fatto tutto quello descritto dall'utente ma ho ancora cali di fps con mgs v :(

DVD2005
23-02-2016, 14:59
Ragazzi scusate, ho bisogno del vostro aiuto, ho da pochi giorni, una EVGA GTX 970 FTW+, la scheda è perfetta ma c' è un problema, almeno per me: come voi ben sapete le ventole, in idle, non girano e questo si traduce in temperature, a riposo, per me inaccettabili, 47 gradi...Con la mia vecchia 680 stavo 10 gradi in meno. Ho installato MSI AFTERBURNER ma, siccome sono totalmente spratico, continuo a creare profili ventola strampalatissimi:D non riesco ad ottenere il giusto compromesso fra rumore e temperature, qualche anima pia sarebbe cosi gentile da suggerirmi un profilo adatto a questa scheda, magari postando il grafico come si fa con i deficenti...:D. Grazie e scusatemi.

ho da poco la 970 ed onestamente il fatto che le ventole stiano ferme fino ad una certa temperatura l'ho trovata una cosa intelligente.
Ho abbassato tramite a AB il limite a 45° di fermo ventole (Asus di default ha settato il limite sui 65° se non erro), ora che è inverno la vga in idle sta sui 35/38 gradi.
Ormai il pc quando è acceso lo uso per giocare per un numero di tempo decisamente inferiore rispetto alle altre attività, di conseguenza se la vga sta senza le ventole che girano "per niente" è cosa che gradisco.

fraussantin
23-02-2016, 15:14
ho da poco la 970 ed onestamente il fatto che le ventole stiano ferme fino ad una certa temperatura l'ho trovata una cosa intelligente.
Ho abbassato tramite a AB il limite a 45° di fermo ventole (Asus di default ha settato il limite sui 65° se non erro), ora che è inverno la vga in idle sta sui 35/38 gradi.
Ormai il pc quando è acceso lo uso per giocare per un numero di tempo decisamente inferiore rispetto alle altre attività, di conseguenza se la vga sta senza le ventole che girano "per niente" è cosa che gradisco.
Esatto aumenta la longevità delle ventole e dei cuscinetti delle stesse , e rende muto il pc in idle.

aled1974
23-02-2016, 15:28
e i vrm/mosfet/vram ringraziano, caldamente :asd:

ciao ciao

fraussantin
23-02-2016, 15:32
e i vrm/mosfet/vram ringraziano, caldamente :asd:

ciao ciao
È una vga che consuma pochissimo , non credo che in idle scaldino molto i vrm e il comparto alimentazione.

Per le ram se scaldano danno artefatti , tu ne hai mai visti in idle?

E cmq Si parla di componenti che si rompono oltre 100 gradi .

aled1974
23-02-2016, 15:49
schede vostre, scelte vostre :mano:

io più di portare la cosa all'attenzione di chi magari non ci ha pensato non discuto oltre :D

ciao ciao

Ubro92
23-02-2016, 16:28
L'asus ha il sensore dei vrm e in idle a ventole ferme non superano i 40-45° con gpu sui 39-40...

Qyindi non diciamo scemenze se di default è presente questa funzionalità i costruttori hanno opportunamente costruito i dissipatori per essere efficienti in quel contesto... Senza contare che Asus usa componenti military con range di tolleranza molto più alti rispetto la norma, infatti per i vrm viene indicata come temperatura critica intorno ai 135°...

Cosa che infatti per la giga g1 è sconsigliato dallo stesso costruttore attivare con BIOS mod questa funzionalità visto che non era progettata a questo scopo...



Inviato dal mio Nexus 5 utilizzando Tapatalk

alfredo.r
23-02-2016, 16:40
L'asus ha il sensore dei vrm e in idle a ventole ferme non superano i 40-45° con gpu sui 39-40...

Qyindi non diciamo scemenze se di default è presente questa funzionalità i costruttori hanno opportunamente costruito i dissipatori per essere efficienti in quel contesto... Senza contare che Asus usa componenti military con range di tolleranza molto più alti rispetto la norma, infatti per i vrm viene indicata come temperatura critica intorno ai 135°...

Cosa che infatti per la giga g1 è sconsigliato dallo stesso costruttore attivare con BIOS mod questa funzionalità visto che non era progettata a questo scopo...



Inviato dal mio Nexus 5 utilizzando Tapatalk


Son d'accordo con Ubro, di certo non progettavano delle Asus da overclock che si friggono da sole...
Personalmente ritengo la funzione 0db molto comoda anche perché il pc non è usato solo per il gaming e quindi avere un sistema silente quando si sfrutta il 2% delle sue capacità è cosa assai gradita


Inviato da un telefono più figo del tuo via Tapatalk

Dono89
23-02-2016, 17:39
Anche la gigabyte ha ottimi componenti, poi che la asus sia da oc ne possiamo parlare fino domani...con un solo connettore a 8 pin e un voltaggio massimo a 1.21v

XEV
23-02-2016, 18:08
Ce chi preferisce avere la vga in iddle 29/30 e chi gli sta bene 38/40.. semplice. Io preferisco la prima.

scatolino
23-02-2016, 18:52
Ce chi preferisce avere la vga in iddle 29/30 e chi gli sta bene 38/40.. semplice. Io preferisco la prima.

38/40 ci mettevo la firma...La mia, in idle, sta a 47...Non penso, parlo da profano per carità, che tenendo sempre la ventola a girare, (piano) si possano rovinare cuscinetti & c. Nel mio case, dal 2011, ci sono 4 ventole NOCTUA che girano quasi 12 ore al giorno, una del processore e le altre ausiliarie, ancora funzionano perfettamente e non fanno il minimo rumore di cuscinetti usurati, quindi prima che si rovinino quelle della mia nuova scheda, campa cavallo, la avrò cambiata tre volte, inoltre all' interno della confezione della mia EVGA, è presente un foglio che avverte specificatamente che le ventole, in idle, non girano e che, nel caso si voglia farle andare, bisogna scaricare EVGA PRECISION, quindi, anche i costruttori, prevedono eccome questa eventuale modifica da parte dell' utente. Poi, come scrivevo prima, nel mio case, non ci sono solo le ventole della vga, ma altre, che girano sempre, quindi, il pc, muto non lo è affatto.

29Leonardo
23-02-2016, 18:57
L'asus ha il sensore dei vrm e in idle a ventole ferme non superano i 40-45° con gpu sui 39-40...

Qyindi non diciamo scemenze se di default è presente questa funzionalità i costruttori hanno opportunamente costruito i dissipatori per essere efficienti in quel contesto... Senza contare che Asus usa componenti military con range di tolleranza molto più alti rispetto la norma, infatti per i vrm viene indicata come temperatura critica intorno ai 135°...

Cosa che infatti per la giga g1 è sconsigliato dallo stesso costruttore attivare con BIOS mod questa funzionalità visto che non era progettata a questo scopo...



Inviato dal mio Nexus 5 utilizzando Tapatalk

Sono d'accordo solo sulla prima parte, sulla seconda molto meno, ciò che sconsigliano comunque è scendere al di sotto della velocità consigliata senza specificare altro.

Quindi potrebbe essere che si siano voluti mettere le mani avanti nel caso a qualcuno fosse balenata l'idea di tenere perennemente la scheda con le ventole al minimo.

Sono stra-convinto che in idle anche tenendole spente sulla g1 non accada proprio nulla.

The Witcher
23-02-2016, 19:32
Ho già provato tutti i driver presenti sul sito di nvidia con eventuale pulizia di ddu ma la situazione non è cambiata di una virgola :cry:

L'unico riva tuner che uso è riva tuner statisticserver (per alcuni giochi mi serve per bloccare gli fps a un massimo di 60). Può essere quello?

Hmm...quella del controller mi è sfuggita. Però mi sorge una domanda. Come mai gli fps dovrebbero calare per l'attivazione del controller xbox o della vibrazione? :what: Capisco che il mondo del computer è un mondo particolare, ma questa mi giunge nuova! :what:

Visual C++ e directx già aggiornati oggi! ^^

N.B. Bell'avatar :asd:

nessuno? :(

terranux
23-02-2016, 19:35
Ho scaricato anche io quel BIOS, l'ho aperto con maxwell BIOS tweaker ma I valori non mi convincono tanto. Nel senso che ha sparato altissimi i valori di potenza estraibili dai connettori pcie, non so se sia una cosa saggia. Poi magari qualcuno più esperto può illuminarmi

Sent from my LG-D855 using Tapatalk
cioè quali sarebbero? mi puoi dire quali valori intendi? io la scheda la tengo come quel bios meno che il boost e le ram che le tengo più calmi,per ora non ho avuto il minimo problema,anche le temp sono ottime intorno ai 53-60° giocando a fallout 4

XEV
23-02-2016, 19:52
38/40 ci mettevo la firma...La mia, in idle, sta a 47...Non penso, parlo da profano per carità, che tenendo sempre la ventola a girare, (piano) si possano rovinare cuscinetti & c. Nel mio case, dal 2011, ci sono 4 ventole NOCTUA che girano quasi 12 ore al giorno, una del processore e le altre ausiliarie, ancora funzionano perfettamente e non fanno il minimo rumore di cuscinetti usurati, quindi prima che si rovinino quelle della mia nuova scheda, campa cavallo, la avrò cambiata tre volte, inoltre all' interno della confezione della mia EVGA, è presente un foglio che avverte specificatamente che le ventole, in idle, non girano e che, nel caso si voglia farle andare, bisogna scaricare EVGA PRECISION, quindi, anche i costruttori, prevedono eccome questa eventuale modifica da parte dell' utente. Poi, come scrivevo prima, nel mio case, non ci sono solo le ventole della vga, ma altre, che girano sempre, quindi, il pc, muto non lo è affatto.

abbiamo con un amico una ati 5850 che gira ogni giorno sotto oc pesante...
non parliamo di rovinare i cuscinetti delle ventole.. è inutile per molti motivi :)

vedi comunque con ab o precision come ti è + comodo settare le ventole.. oppure potresti flashare il bios.. non so

scatolino
23-02-2016, 20:46
abbiamo con un amico una ati 5850 che gira ogni giorno sotto oc pesante...
non parliamo di rovinare i cuscinetti delle ventole.. è inutile per molti motivi :)

vedi comunque con ab o precision come ti è + comodo settare le ventole.. oppure potresti flashare il bios.. non so

Si si, grazie già fatto, con l' aiuto di un altro utente del forum, che ringrazio sempre:) , tramite AB, ho trovato un profilo ventola perfetto, adesso, in idle, sto a 29 gradi, scheda bella fresca...e silenziosissima.:D

World
23-02-2016, 20:56
cioè quali sarebbero? mi puoi dire quali valori intendi? io la scheda la tengo come quel bios meno che il boost e le ram che le tengo più calmi,per ora non ho avuto il minimo problema,anche le temp sono ottime intorno ai 53-60° giocando a fallout 4
Se vai su power table, intendo la quarta quinta e sesta tabella che da quello che ho capito sono rispettivamente i valori di potenza estraibili dal primo e secondo connettore PCI e il valore di tdp. Se li confronti con il BIOS default vedi che cambiano molto (cento e passa watt). Il fatto è che non avendo la msi i sensori sui VRM non so se c'è da preoccuparsi effettivamente...

Sent from my LG-D855 using Tapatalk

fraussantin
23-02-2016, 20:57
non parliamo di rovinare i cuscinetti delle ventole.. è inutile per molti motivi :)


Beh a me è capitato ( tra roba mia e di amici )su una sapphire 5850 e si una 7900gs mi pare giga.

Per non parlare delle ventole stock dei processori .

Certo non dopo 2 anni ma dopo molti di piu.

XEV
23-02-2016, 21:05
Si si, grazie già fatto, con l' aiuto di un altro utente del forum, che ringrazio sempre:) , tramite AB, ho trovato un profilo ventola perfetto, adesso, in idle, sto a 29 gradi, scheda bella fresca...e silenziosissima.:D

;) :)

Beh a me è capitato ( tra roba mia e di amici )su una sapphire 5850 e si una 7900gs mi pare giga.

Per non parlare delle ventole stock dei processori .

Certo non dopo 2 anni ma dopo molti di piu.

una corsair af del mio case 750d ha iniziato a darmi molto fastidio dopo appena 1 anno di utilizzo..
mentre le ventole stock intel, 3 ne posso contare dopo diversi anni, non hanno mai dato problemi... per questo è inutile discuterne :)

ste-87
23-02-2016, 21:23
L'asus ha il sensore dei vrm e in idle a ventole ferme non superano i 40-45° con gpu sui 39-40...

Qyindi non diciamo scemenze se di default è presente questa funzionalità i costruttori hanno opportunamente costruito i dissipatori per essere efficienti in quel contesto... Senza contare che Asus usa componenti military con range di tolleranza molto più alti rispetto la norma, infatti per i vrm viene indicata come temperatura critica intorno ai 135°...

Cosa che infatti per la giga g1 è sconsigliato dallo stesso costruttore attivare con BIOS mod questa funzionalità visto che non era progettata a questo scopo...



Inviato dal mio Nexus 5 utilizzando Tapatalk

http://oi63.tinypic.com/24nk5te.jpg

http://oi65.tinypic.com/2e4gtty.jpg

http://oi66.tinypic.com/kb6b1k.jpg

http://oi68.tinypic.com/5vbs6f.jpg

per carità è 1 caso, ma è capitato 2 settimane fa circa su un altro forum (tom's) che un utente riportasse queste foto della sua Asus GTX 980 Strix durante la normale navigazione su internet ha sentito uno scricchiolio e visto del fumo dopo 1 anno che la possedeva, no overclock no overvolt (no kombustor e/o furmark) e temperature sulla gpu rilevate di 65-70°C mediamente quando era sotto carico. Tra l'altro anche il plate posizionato sopra per la dissipazione semi-passiva gli sembrava montato pure bene e il pad a perfetto contatto con ogni vrm

io penserei più a preoccuparmi delle temperature, entro limiti ragionevoli e senza ossessioni naturalmente, che non dei cuscinetti delle ventole che se va male, salvo difetti di fabbrica, durano più delle vita della scheda video stessa anche se fosse mediamente lunga (5 anni)

p.s. per fare quel disastro sono inoltre convinto che basti anche molto meno di 135°C che dichiarano, probabilmente più per marketing che per altro

scatolino
23-02-2016, 21:26
Articolo interessante postato in un altro thread: http://www.guru3d.com/articles-pages/msi-geforce-gtx-970-gaming-review,9.html

DrossBelly
23-02-2016, 21:33
cioè quali sarebbero? mi puoi dire quali valori intendi? io la scheda la tengo come quel bios meno che il boost e le ram che le tengo più calmi,per ora non ho avuto il minimo problema,anche le temp sono ottime intorno ai 53-60° giocando a fallout 4

Beh Fallout non è propriamente il gioco su cui basarsi come temperature/pesantezza in game

fraussantin
23-02-2016, 21:58
Articolo interessante postato in un altro thread: http://www.guru3d.com/articles-pages/msi-geforce-gtx-970-gaming-review,9.html

in full ( vrm)arrivano a 85 gradi con le ventole a paletta.

stock con le ventole spente sta a 50 gradi .

quindi nessun problema.


ps pure a me la msi sta a quelle temperature ( gpu) in stock e in full , quindi direi che è veritiero.

Ubro92
24-02-2016, 07:17
http://oi63.tinypic.com/24nk5te.jpg

http://oi65.tinypic.com/2e4gtty.jpg

http://oi66.tinypic.com/kb6b1k.jpg

http://oi68.tinypic.com/5vbs6f.jpg

per carità è 1 caso, ma è capitato 2 settimane fa circa su un altro forum (tom's) che un utente riportasse queste foto della sua Asus GTX 980 Strix durante la normale navigazione su internet ha sentito uno scricchiolio e visto del fumo dopo 1 anno che la possedeva, no overclock no overvolt (no kombustor e/o furmark) e temperature sulla gpu rilevate di 65-70°C mediamente quando era sotto carico. Tra l'altro anche il plate posizionato sopra per la dissipazione semi-passiva gli sembrava montato pure bene e il pad a perfetto contatto con ogni vrm

io penserei più a preoccuparmi delle temperature, entro limiti ragionevoli e senza ossessioni naturalmente, che non dei cuscinetti delle ventole che se va male, salvo difetti di fabbrica, durano più delle vita della scheda video stessa anche se fosse mediamente lunga (5 anni)

p.s. per fare quel disastro sono inoltre convinto che basti anche molto meno di 135°C che dichiarano, probabilmente più per marketing che per altro

Un danno simile non è certo da additare alla modalità 0DB... C'era gia un problema alla base, difetti di fabbrica o condensatori che gia erano difettosi... Anche perchè asus di certo non gode ad avere richieste di RMA e rimborsi...

Poi li è proprio esploso, piu che problema di temperature sembra un sovraccarico...

fraussantin
24-02-2016, 07:34
http://oi63.tinypic.com/24nk5te.jpg

http://oi65.tinypic.com/2e4gtty.jpg

http://oi66.tinypic.com/kb6b1k.jpg

http://oi68.tinypic.com/5vbs6f.jpg

per carità è 1 caso, ma è capitato 2 settimane fa circa su un altro forum (tom's) che un utente riportasse queste foto della sua Asus GTX 980 Strix durante la normale navigazione su internet ha sentito uno scricchiolio e visto del fumo dopo 1 anno che la possedeva, no overclock no overvolt (no kombustor e/o furmark) e temperature sulla gpu rilevate di 65-70°C mediamente quando era sotto carico. Tra l'altro anche il plate posizionato sopra per la dissipazione semi-passiva gli sembrava montato pure bene e il pad a perfetto contatto con ogni vrm

io penserei più a preoccuparmi delle temperature, entro limiti ragionevoli e senza ossessioni naturalmente, che non dei cuscinetti delle ventole che se va male, salvo difetti di fabbrica, durano più delle vita della scheda video stessa anche se fosse mediamente lunga (5 anni)

p.s. per fare quel disastro sono inoltre convinto che basti anche molto meno di 135°C che dichiarano, probabilmente più per marketing che per altro
E perché ha invalidato la garanzia invece di spedirla in assistenza?

Mmm .... Cmq a 135 gradi in idle non ci arrivi.

Imho o c'è un difetto alla base , o ha moddato il fw , o mentre navigava girava furmark.


Fossr stata una msi o una giga poi...

Ma asus se non erro ha il sensore di temperatura anche sui vrm.

scatolino
24-02-2016, 08:48
Siccome questo argomento mi interessa particolarmente, ieri sera ho mandato una mail ad EVGA, stamattina mi hanno risposto che, temperature fino a 80 gradi sono assolutamente normali per le loro schede durante l' esecuzione di giochi, ma che, se volevo, potevo benissimo installare PRECISION X e gestire le ventole a mio piacimento, nessun danno per queste ultime mi è stato chiaramente specificato, quindi resto come sono adesso, ventole sempre in funzione (piano) anche in idle, certo non sono così stupido da farle girare all' 80/100% h24...:)

Copio e incollo parte della domanda e della risposta:

Your Question:

(...) I installed PRECISION X, now can I make the fans spin always, at 30%, also in idle? Can they be damaged? Thank you! Best Regards

Your Answer:

Hi Sergio,

(...) It will not damage the fans and it will be find running at these speeds at idle.

Regards,
EVGA

29Leonardo
24-02-2016, 09:20
http://oi63.tinypic.com/24nk5te.jpg

http://oi65.tinypic.com/2e4gtty.jpg

http://oi66.tinypic.com/kb6b1k.jpg

http://oi68.tinypic.com/5vbs6f.jpg




Considerata l'utenza media di toms quel no kombustor ci credo proprio :asd:

Se è vero quello che ha detto invece sarà proprio qualche difetto di fabbricazione della scheda ad averlo causato, altrimenti ci sarebbe state una moria di scheda mica da ridere...


Cmq dovrei stare una pacchia dato che ho pure il dissipatore della cpu ruotato di 90 che succhia aria proprio da dietro la gpu :D

X-ray guru
24-02-2016, 14:59
domanda OT: ma se ho altre periferiche vecchie, hdd e masterizzatori (sata), pure questi devono essere uefi-compliant?
come farei a controllare?
la scheda audio è usb, e quindi non penso conti



Nel BIOS delle motherboard UEFI c'è l'opzione di settare il booting delle periferiche in modalità "legacy". Leggi con attenzione il capitolo del manuale della MB che spiega questi settaggi.

Robydriver
24-02-2016, 17:02
http://oi63.tinypic.com/24nk5te.jpg

http://oi65.tinypic.com/2e4gtty.jpg

http://oi66.tinypic.com/kb6b1k.jpg

http://oi68.tinypic.com/5vbs6f.jpg


:eek: Azz. che arrosto! ...e le patatine? :D

illidan2000
24-02-2016, 17:30
Nel BIOS delle motherboard UEFI c'è l'opzione di settare il booting delle periferiche in modalità "legacy". Leggi con attenzione il capitolo del manuale della MB che spiega questi settaggi.

eh, ok, ma io ambivo ad un sistema full uefi :)
qui siamo molto OT, cmq vado a spulciare nel mio manuale, casomai ti disturbo un po' in PM :)

Aurox
24-02-2016, 19:12
Ciao a tutti, sto per prendere una 970 a breve e mi domandavo se era possibile inviare l'audio attraverso hdmi da una porta e il video attraverso un altra, o se l'uscita primaria è la sola è unica che può streammare anche l'audio, questo in quanto vorrei inviare tramite hdmi il suono all' home theater, però senza poi doverne uscire verso lo schermo.
Fattibile ? Grazie mille :D

LkMsWb
24-02-2016, 21:21
Ciao a tutti, sto per prendere una 970 a breve e mi domandavo se era possibile inviare l'audio attraverso hdmi da una porta e il video attraverso un altra, o se l'uscita primaria è la sola è unica che può streammare anche l'audio, questo in quanto vorrei inviare tramite hdmi il suono all' home theater, però senza poi doverne uscire verso lo schermo.
Fattibile ? Grazie mille :D

Se ho capito quello che vuoi fare allora è fattibile e dipende principalmente dal software utilizzato, la porta HDMI con l'audio va attivata come schermo secondario per forza (altrimenti non puoi streammare), ma puoi tranquillamente usare l'home teather per ascoltare lasciando la TV spenta e usare lo schermo del PC o quello che più ti aggrada, è quello che faccio quando voglio solo ascoltare musica infatti :D

Aurox
24-02-2016, 22:10
Se ho capito quello che vuoi fare allora è fattibile e dipende principalmente dal software utilizzato, la porta HDMI con l'audio va attivata come schermo secondario per forza (altrimenti non puoi streammare), ma puoi tranquillamente usare l'home teather per ascoltare lasciando la TV spenta e usare lo schermo del PC o quello che più ti aggrada, è quello che faccio quando voglio solo ascoltare musica infatti :D
Ah è perfetto ! Grazie della dritta, si il mio intento è quello, insomma da un hdmi voglio vederci e dall'altro sentirci haha, potrei fare uso di una uscita unica facendo riuscire il segnale hdmi dall'ht verso lo schermo, solo che avrei bisogno non di 1 cavo hdmi nuovo ma bensì due (per motivi di distanza casa, schermo, ht)
Altra domanda da newbie, l'audio della GTX è proprietario suo o "deriva" da quello della mobo ?

Gameshard
24-02-2016, 22:27
Ciao a tutti, sto per prendere una 970 a breve e mi domandavo se era possibile inviare l'audio attraverso hdmi da una porta e il video attraverso un altra, o se l'uscita primaria è la sola è unica che può streammare anche l'audio, questo in quanto vorrei inviare tramite hdmi il suono all' home theater, però senza poi doverne uscire verso lo schermo.
Fattibile ? Grazie mille :D
Per veicolare l'audio credo che, come ti ha risposto l'utente prima di me, la cosa sia perfettamente fattibile. :)
Considera però che se prendi una GTX 970, come me, sarai fortemente Cpu limited e non la sfrutteresti a fondo. Ad occhio, da possessore di Phenom 965 e Gtx 970 (vedi firma) credo che al max si potrebbe sfruttare al 100% una Gtx 770, ma non di più.
Io presi la gtx 970 come prima tappa di un aggiornamento completo, invece all'improvviso la ditta per la quale lavoravo fallì e così rimasi a metà dell'opera... :mad:
Ad ogni modo, col Phenom occato a 3,7 Ghz, praticamente un Phenom xII 980 (non ho un dissi decente per occare di più), riesco a sfruttare la Gtx 970 all'85% (con Crysis 3 che è molto Cpu dipendente), grazie anche al fatto che gioco alla bella risoluzione di 2048x1536 col mio vecchio, ma ancora validissimo Samsung CRT 21". In questo modo riesco a spostare il carico maggiormente sulla Gpu, in modo da far rifiatare il Phenom e devo dire che ho un'ottima esperienza di gioco, anche se, come detto, non sfrutto la Gpu al 100%, se non nei giochi più leggeri. Se gioco Crysis 3 in FullHD, come è il tuo monitor, anche con la Cpu in leggero overclock, non riesco a sfruttare la scheda video oltre il 65%.
Pertanto, ti sconsiglio l'acquisto, a meno che non aggiorni il Pc e ti consiglio di cercare una Gtx 770 nei mercatini dell'usato e vedrai che avrai comunque un notevolissimo incremento rispetto alla tua Gtx 260.
Qui sono messe a confronto la tua attuale Gtx 260 e una Gtx 680, che è anche un po' meno performante di una Gtx 770, guarda che aumento di performance che avresti, considera anche che una Gtx 970 è almeno il 60/70% superiore a una Gtx 680:

http://www.anandtech.com/bench/product/664?vs=555

Ho preso da poco una Gtx 760 usata a 100€ (Asus direct CUII SSU) e, nonostante il PC con Q6600 di mio figlio sia anch'esso Cpu limited, si riesce a giocare bene con settaggi medio/alti a una quarantina di fps nei giochi 2015.
Inoltre fra pochi mesi uscirà la nuova serie di Vga "Pascal" e con gli stessi soldi (o poco più) che pagheresti oggi una Gtx 970, ne avresti un nuova che andrebbe quasi il doppio, a patto, naturalmente, di aggiornare anche scheda madre, processore (Intel) e aggiungere almeno altri 4 Gb di ram, se non togliere la vecchia ram e passare a 2 banchi da 8 gb o, se non li supporta, a 4 banchi da 4 Gb. Altrimenti coi nuovi giochi sei fuori anche come richiesta di ram di sistema. ;)

Aurox
24-02-2016, 22:38
Per veicolare l'audio credo che, come ti ha risposto l'utente prima di me, la cosa sia perfettamente fattibile. :)
Considera però che se prendi una GTX 970, come me, sarai fortemente Cpu limited e non la sfrutteresti a fondo. Ad occhio, da possessore di Phenom 965 e Gtx 970 (vedi firma) credo che al max si potrebbe sfruttare al 100% una Gtx 770, ma non di più.
Io presi la gtx 970 come prima tappa di un aggiornamento completo, invece all'improvviso la ditta per la quale lavoravo fallì e così rimasi a metà dell'opera... :mad:
Ad ogni modo, col Phenom occato a 3,7 Ghz, praticamente un Phenom xII 980 (non ho un dissi decente per occare di più), riesco a sfruttare la Gtx 970 all'85% (con Crysis 3 che è molto Cpu dipendente), grazie anche al fatto che gioco alla bella risoluzione di 2048x1536 col mio vecchio, ma ancora validissimo Samsung CRT 21". In questo modo riesco a spostare il carico maggiormente sulla Gpu, in modo da far rifiatare il Phenom e devo dire che ho un'ottima esperienza di gioco, anche se, come detto, non sfrutto la Gpu al 100%, se non nei giochi più leggeri. Se gioco Crysis 3 in FullHD, come è il tuo monitor, anche con la Cpu in leggero overclock, non riesco a sfruttare la scheda video oltre il 65%.
Pertanto, ti sconsiglio l'acquisto, a meno che non aggiorni il Pc e ti consiglio di cercare una Gtx 770 nei mercatini dell'usato e vedrai che avrai comunque un notevolissimo incremento rispetto alla tua Gtx 260.
Qui sono messe a confronto la tua attuale Gtx 260 e una Gtx 680, che è anche un po' meno performante di una Gtx 770, guarda che aumento di performance che avresti, considera anche che una Gtx 970 è almeno il 60/70% superiore a una Gtx 680:

http://www.anandtech.com/bench/product/664?vs=555

Ho preso da poco una Gtx 760 usata a 100€ (Asus direct CUII SSU) e, nonostante il PC con Q6600 di mio figlio sia anch'esso Cpu limited, si riesce a giocare bene con settaggi medio/alti a una quarantina di fps nei giochi 2015.
Inoltre fra pochi mesi uscirà la nuova serie di Vga "Pascal" e con gli stessi soldi (o poco più) che pagheresti oggi una Gtx 970, ne avresti un nuova che andrebbe quasi il doppio, a patto, naturalmente, di aggiornare anche scheda madre, processore (Intel) e aggiungere almeno altri 4 Gb di ram, se non togliere la vecchia ram e passare a 2 banchi da 8 gb o, se non li supporta, a 4 banchi da 4 Gb. Altrimenti coi nuovi giochi sei fuori anche come richiesta di ram di sistema. ;)

Ti ringrazio infinitamente per la cura e passione che hai impiegato nel rispondermi, apprezzo anche tutti i consigli, inoltre spero non mi ucciderai hahah, devo ancora aggiornare la firma in quanto il PC è in assemblaggio giusto in sti giorni, passerò ad un i5 4690k, 16gb 2400mhz, asrock z97 extreme 6, PSU antec hcg-620, il monitor rimarrà il medesimo invece :)

Gameshard
24-02-2016, 22:49
Ti ringrazio infinitamente per la cura e passione che hai impiegato nel rispondermi, apprezzo anche tutti i consigli, inoltre spero non mi ucciderai hahah, devo ancora aggiornare la firma in quanto il PC è in assemblaggio giusto in sti giorni, passerò ad un i5 4690k, 16gb 2400mhz, asrock z97 extreme 6, PSU antec hcg-620, il monitor rimarrà il medesimo invece :)
Ahahahahah,
...come non detto... :asd:
Certo che fai un bel salto, più o meno quello che mi ero prefissato io, solo che io venivo almeno da uno SLI di Gtx 275 (per riscaldare le piadine era perfetto)... :asd:

Aurox
24-02-2016, 22:54
Ahahahahah,
...come non detto... :asd:
Certo che fai un bel salto, più o meno quello che mi ero prefissato io, solo che io venivo almeno da uno SLI di Gtx 275 (per riscaldare le piadine era perfetto)... :asd:
Eh si un bel salto, spero sia tangibile ! Haha davvero… non ci ho mai pensato di scaldarci le piadine ma credo che con uno SLI del genere se esageri le bruci haha, due fornetti.
Altra domanda, a quanto consigliate di pagare una GTX 270 usata? Vorrei rimanere verso i 250, ma allo stesso tempo le non reference costano un macello, o forse chi le vende esagera,quasi da far convenire una scheda video nuova per la differenza di pochi euro :(

Gameshard
24-02-2016, 23:03
Eh si un bel salto, spero sia tangibile ! Haha davvero… non ci ho mai pensato di scaldarci le piadine ma credo che con uno SLI del genere se esageri le bruci haha, due fornetti.
Altra domanda, a quanto consigliate di pagare una GTX 270 usata? Vorrei rimanere verso i 250, ma allo stesso tempo le non reference costano un macello, o forse chi le vende esagera,quasi da far convenire una scheda video nuova per la differenza di pochi euro :(
Guarda, una bella "custom" (Gigabyte G1, MSI Gaming 4G, Asus Strix) non penso che riesci a trovarla a meno di 270€. Cosiderato che ancora oggi sono ancora vendute nuove sui 350€ (io la mia G1 la pagai 380€ a novembre 2014), verresti a risparmiare praticamente solo il 22% di Iva. Se la trovi con ampia garanzia residua si può fare, ma solo con ritiro a mano e prova della scheda, perchè magari soffre di coil-whine o per non rischiare le tante truffe con gli acquisti online. Trovarla a 250€ può essere possibile, ma difficilmente potrebbe essere una delle ottime che ti ho indicato.

Aurox
25-02-2016, 00:27
Guarda, una bella "custom" (Gigabyte G1, MSI Gaming 4G, Asus Strix) non penso che riesci a trovarla a meno di 270€. Cosiderato che ancora oggi sono ancora vendute nuove sui 350€ (io la mia G1 la pagai 380€ a novembre 2014), verresti a risparmiare praticamente solo il 22% di Iva. Se la trovi con ampia garanzia residua si può fare, ma solo con ritiro a mano e prova della scheda, perchè magari soffre di coil-whine o per non rischiare le tante truffe con gli acquisti online. Trovarla a 250€ può essere possibile, ma difficilmente potrebbe essere una delle ottime che ti ho indicato.

Grazie della ulteriore dritta, mi sono documentato un po' sul coil-whine e a quanto pare segue tre regole (secondo reddit)

A) è totalmente random in base a marca modello ecc
B) overcloccando o downcloccando leggermente potrebbe sparire
C) è influenzato anche dalla "qualità" del psu

Però si, sarebbe meglio provare la scheda o prenderne una garantita senza coil whine :)

alfredo.r
25-02-2016, 08:54
Domanda:
Ho iniziato Ryse e mi gira intorno ai 60 FPS con qualche calo a 50-45 di tanto in tanto...
Sinceramente non mi disturba anche perché il v-sync garantisce l'assenza di tearing...
Dite che con un po' di overclock riesco a ottenere i 60fps rock solid o è meglio abbassare i filtri da 8x a 4x per ottenere lo stesso effetto ma con minor impatto sulle prestazioni?


Inviato da un telefono più figo del tuo via Tapatalk

goemonchan
25-02-2016, 09:04
Domanda:
Ho iniziato Ryse e mi gira intorno ai 60 FPS con qualche calo a 50-45 di tanto in tanto...
Sinceramente non mi disturba anche perché il v-sync garantisce l'assenza di tearing...
Dite che con un po' di overclock riesco a ottenere i 60fps rock solid o è meglio abbassare i filtri da 8x a 4x per ottenere lo stesso effetto ma con minor impatto sulle prestazioni?


Inviato da un telefono più figo del tuo via Tapatalk

a che risoluzione giochi?

alfredo.r
25-02-2016, 09:23
a che risoluzione giochi?


1080p


Inviato da un telefono più figo del tuo via Tapatalk

illidan2000
25-02-2016, 10:07
Domanda:
Ho iniziato Ryse e mi gira intorno ai 60 FPS con qualche calo a 50-45 di tanto in tanto...
Sinceramente non mi disturba anche perché il v-sync garantisce l'assenza di tearing...
Dite che con un po' di overclock riesco a ottenere i 60fps rock solid o è meglio abbassare i filtri da 8x a 4x per ottenere lo stesso effetto ma con minor impatto sulle prestazioni?


Inviato da un telefono più figo del tuo via Tapatalk

per filtri intendi l'AA o l'anisotropico?
Non penso che sia l'AA. Con un AA8x (che è inutile), non credo che staresti a 60fps.... nel secondo caso, non incide molto sulle prestazioni, e lo puoi anche sparare a 16x

alfredo.r
25-02-2016, 10:08
per filtri intendi l'AA o l'anisotropico?

Non penso che sia l'AA. Con un AA8x (che è inutile), non credo che staresti a 60fps.... nel secondo caso, non incide molto sulle prestazioni, e lo puoi anche sparare a 16x


Ho scritto filtro perché non mi ricordo se fosse AA o anisotropico, più tardi controllo meglio e se è AA lo porto a 4x...
Probabilmente questo potrebbe garantirmi i 60fps fissi


Inviato da un telefono più figo del tuo via Tapatalk

Ubro92
25-02-2016, 10:09
Direi che non ci si puo lamentare se fosse cosi :sofico:

http://s15.postimg.org/u8k8uawtj/12744355_10207771806285186_74124615218446867_n.jpg (http://postimg.org/image/u8k8uawtj/)

fraussantin
25-02-2016, 11:39
Domanda:
Ho iniziato Ryse e mi gira intorno ai 60 FPS con qualche calo a 50-45 di tanto in tanto...
Sinceramente non mi disturba anche perché il v-sync garantisce l'assenza di tearing...
Dite che con un po' di overclock riesco a ottenere i 60fps rock solid o è meglio abbassare i filtri da 8x a 4x per ottenere lo stesso effetto ma con minor impatto sulle prestazioni?


Inviato da un telefono più figo del tuo via Tapatalk
Non credo se guardi bene la vga non è al 100% lo faceva pure a me con la gaming.

alfredo.r
25-02-2016, 11:42
Non credo se guardi bene la vga non è al 100% lo faceva pure a me con la gaming.


Sinceramente non utilizzo programmi di monitoraggio per non farmi troppe pippe mentali... Al massimo tengo attivo il counter FPS di STEAM giusto per farmi un'idea se il gioco sta girando fuori sincro o meno...
Ad ogni modo grazie al v-sync non noto particolari problemi per cui potrei tenerlo tranquillamente anche così, è giusto per vedere il numerino fisso su 60 :asd:


Inviato da un telefono più figo del tuo via Tapatalk

fraussantin
25-02-2016, 11:46
Sinceramente non utilizzo programmi di monitoraggio per non farmi troppe pippe mentali... Al massimo tengo attivo il counter FPS di STEAM giusto per farmi un'idea se il gioco sta girando fuori sincro o meno...
Ad ogni modo grazie al v-sync non noto particolari problemi per cui potrei tenerlo tranquillamente anche così, è giusto per vedere il numerino fisso su 60 :asd:


Inviato da un telefono più figo del tuo via Tapatalk
Non so cosa dirti , ma sicuro non dipende dalla gpu. Al massimo potrebbe essere una lentezza delle vram perche il gioco richiede troppa banda tutta assieme , forse alzando quelle risolvi.
Oppure semplicemente è ottimizzato male e stop
Io l'ho giocato e stop.

La cosa che mi ha fatto incazzare di questo gioco è l'assenza di un anti aliasing decente. Quel txaa appanna tutto che ti piglia la voglia di andare da un ottico.

Potevano implementare altri sistemi.

alfredo.r
25-02-2016, 12:02
Non so cosa dirti , ma sicuro non dipende dalla gpu. Al massimo potrebbe essere una lentezza delle vram perche il gioco richiede troppa banda tutta assieme , forse alzando quelle risolvi.
Oppure semplicemente è ottimizzato male e stop
Io l'ho giocato e stop.

La cosa che mi ha fatto incazzare di questo gioco è l'assenza di un anti aliasing decente. Quel txaa appanna tutto che ti piglia la voglia di andare da un ottico.

Potevano implementare altri sistemi.


Sono pienamente d'accordo con te, mi limiterò a giocarlo e stop. Certo non mi metto a overcloccare all'inverosimile la scheda solo per lo sfizio dei 60fps fissi (che a quanto dici tu manco solo raggiungibili).
Ho notato anch'io l'effetto appannamento, bisogna ridurre il moltiplicatore per evitare questa cosa?
Il supercampionamento può aiutare?
Io per il momento lo tengo su off anche perché non so neanche cosa sia :asd:


Inviato da un telefono più figo del tuo via Tapatalk

fraussantin
25-02-2016, 12:18
Sono pienamente d'accordo con te, mi limiterò a giocarlo e stop. Certo non mi metto a overcloccare all'inverosimile la scheda solo per lo sfizio dei 60fps fissi (che a quanto dici tu manco solo raggiungibili).
Ho notato anch'io l'effetto appannamento, bisogna ridurre il moltiplicatore per evitare questa cosa?
Il supercampionamento può aiutare?
Io per il momento lo tengo su off anche perché non so neanche cosa sia :asd:


Inviato da un telefono più figo del tuo via Tapatalk
Io non ho trovato alternative.. Il dsr non lo regge .

Magari qualcuno più smanettone vi è riuscito.

29Leonardo
25-02-2016, 13:26
Sono pienamente d'accordo con te, mi limiterò a giocarlo e stop. Certo non mi metto a overcloccare all'inverosimile la scheda solo per lo sfizio dei 60fps fissi (che a quanto dici tu manco solo raggiungibili).
Ho notato anch'io l'effetto appannamento, bisogna ridurre il moltiplicatore per evitare questa cosa?
Il supercampionamento può aiutare?
Io per il momento lo tengo su off anche perché non so neanche cosa sia :asd:


Inviato da un telefono più figo del tuo via Tapatalk

Il supercampionamento è una specie di dsr, ovvero è come se renderizzasse il gioco a una risoluzione da 2x in poi rispetto quella usata,di conseguenza se hai problemi a tenere fissi i 60fps non pensarci nemmeno ad attivarla.

alfredo.r
25-02-2016, 14:16
Ho giocato un altro po' e nella jungla il problema degli FPS si è accentuato mentre negli altri livelli è meno evidente...
Sto pensando di bloccare gli FPS a 30 almeno evito questo saliscendi...
Ad ogni modo ho letto qualche thread su STEAM e a quanto pare è proprio un problema del gioco...
C'è chi dice di risolvere smanettando col notepad, chi avviando origin (?) sta di fatto che è un problema noto e ad oggi non ancora fixato da nvidia...
Che palle è il primo vero gioco mal ottimizzato che becco da quando gioco su pc...


Inviato da un telefono più figo del tuo via Tapatalk

fraussantin
25-02-2016, 14:21
Ho giocato un altro po' e nella jungla il problema degli FPS si è accentuato mentre negli altri livelli è meno evidente...
Sto pensando di bloccare gli FPS a 30 almeno evito questo saliscendi...
Ad ogni modo ho letto qualche thread su STEAM e a quanto pare è proprio un problema del gioco...
C'è chi dice di risolvere smanettando col notepad, chi avviando origin (?) sta di fatto che è un problema noto e ad oggi non ancora fixato da nvidia...
Che palle è il primo vero gioco mal ottimizzato che becco da quando gioco su pc...


Inviato da un telefono più figo del tuo via Tapatalk
Bloccalo a 50 con rivatuner.

Gameshard
25-02-2016, 18:43
Grazie della ulteriore dritta, mi sono documentato un po' sul coil-whine e a quanto pare segue tre regole (secondo reddit)

A) è totalmente random in base a marca modello ecc
B) overcloccando o downcloccando leggermente potrebbe sparire
C) è influenzato anche dalla "qualità" del psu

Però si, sarebbe meglio provare la scheda o prenderne una garantita senza coil whine :)
Anche questa è buona, occhio alle truffe online, però: è la sorella minore della G1, non ha il backplate, ha due heatpipes in meno, quindi scalderà 3-4° di più e non ha il led luminoso personalizzabile (è solo una scritta). Nuova costa sui 320/330€, abbastanza fresca grazie alle tre ventole, TDP alto (280W) come la G1 e quindi è un'ottima Vga anche per fare overclock perchè ha anche i vrm a contatto col dissipatore e quindi molto freschi:

http://www.subito.it/informatica/geforce-gtx-970-in-garanzia-frosinone-155172921.htm

P.S.) la frequenza del Core a default è di una settantina di Mhz più bassa della G1, ma quella si può modificare facilmente con MSI AfterBurner. ;)

Aurox
26-02-2016, 00:11
Anche questa è buona, occhio alle truffe online, però: è la sorella minore della G1, non ha il backplate, ha due heatpipes in meno, quindi scalderà 3-4° di più e non ha il led luminoso personalizzabile (è solo una scritta). Nuova costa sui 320/330€, abbastanza fresca grazie alle tre ventole, TDP alto (280W) come la G1 e quindi è un'ottima Vga anche per fare overclock perchè ha anche i vrm a contatto col dissipatore e quindi molto freschi:

http://www.subito.it/informatica/geforce-gtx-970-in-garanzia-frosinone-155172921.htm

P.S.) la frequenza del Core a default è di una settantina di Mhz più bassa della G1, ma quella si può modificare facilmente con MSI AfterBurner. ;)

Grazie mille, sei gentilissimo, l'ho contattato, vi farò sapere a breve se sono entrato a far parte della famiglia 970 anche io :D

NOOB4EVER
26-02-2016, 00:59
Grazie mille, sei gentilissimo, l'ho contattato, vi farò sapere a breve se sono entrato a far parte della famiglia 970 anche io :D

perche' la gtx 260 non tiene piu' con gli ultimi giochi ? :asd: scherzi a parte a 250 fai sicuro un affare in rapporto alle prestazioni in fullhd ;)

DVD2005
26-02-2016, 10:58
perche' la gtx 260 non tiene piu' con gli ultimi giochi ? :asd: scherzi a parte a 250 fai sicuro un affare in rapporto alle prestazioni in fullhd ;)

quoto, ho sentito l'incremento dalla 670, immagino cosa possa essere dalla 260

alex oceano
26-02-2016, 12:18
quoto, ho sentito l'incremento dalla 670, immagino cosa possa essere dalla 260

io notai un incremento notevole da una gtx 260 xfx black edition ad una zotac gtx 960 sono pianeti diversi

killeragosta90
26-02-2016, 13:18
io notai un incremento notevole da una gtx 260 xfx black edition ad una zotac gtx 960 sono pianeti diversi

Eh beh! Direi che c'è di mezzo un oceano! :p

alex oceano
26-02-2016, 17:22
Eh beh! Direi che c'è di mezzo un oceano! :p

hahahahha questa mi è piaciuta troppo!!!:read:
:D :D :D :D :rotfl:

legolas119
26-02-2016, 21:44
E' una piuma

http://gamegpu.com/images/stories/Test_GPU/Action/Street_Fighter_V/test/SF_V_1920.jpg

https://translate.google.com/translate?sl=auto&tl=en&js=y&prev=_t&hl=it&ie=UTF-8&u=http%3A%2F%2Fgamegpu.com%2Faction-%2F-fps-%2F-tps%2Fstreet-fighter-v-test-gpu.html&edit-text=

Scusate, una domanda: dopo che avrò settato tutto al max in street fighter V, con quale programma posso visualizzare i FPS e capire così se sta girando sempre a 60fps?

grazie

scatolino
26-02-2016, 22:02
Buonasera a tutti, curiosando sul sito EVGA ho notato che la mia 970 FTW+ ha il doppio bios, siccome sono alquanto capra in questo argomento, sapreste dirmi cosa significa? Se sposto l'interruttorino sull' altro lato, che succede? Esplode?:eekk: Avrei migliori prestazioni? Grazie!

alfredo.r
26-02-2016, 23:52
Comunque per gli interessati al capitolo Vr oggi mi è arrivato uno di quei box cardboard cinesi per infilarci il cellulare dentro e devo ammettere che è un aggeggino carino...
Ho scoperto che tramite un programmino: Trinus (per Android) e Kinovr (per iOS) si riesce a streammare il segnale da pc e usare comunque il giroscopio del telefono (non ho ancora provato però)
Sarebbe un buon modo per avere una sorta di oculus rift pezzotto a 30€ (costo dell'aggeggio più quello dell'app).
Volevo chiedervi se conoscete qualche gioco in Vr così magari se ce l'ho già in libreria provo e vi faccio sapere :)


Inviato da un telefono più figo del tuo via Tapatalk

fraussantin
27-02-2016, 13:07
Scusate, una domanda: dopo che avrò settato tutto al max in street fighter V, con quale programma posso visualizzare i FPS e capire così se sta girando sempre a 60fps?

grazie

fraps

legolas119
27-02-2016, 13:30
fraps

grazie!

LkMsWb
27-02-2016, 19:28
Scusate, una domanda: dopo che avrò settato tutto al max in street fighter V, con quale programma posso visualizzare i FPS e capire così se sta girando sempre a 60fps?

grazie

Steam stesso può mostrare gli FPS, volendo. Il contatore si può attivare dalle impostazioni :)

Amph
28-02-2016, 14:36
non ricordo ora, ma tra la msi 970 e la gigabyte msi con 3 ventole, quale dissipa meglio e fa meno rumore?

alfredo.r
28-02-2016, 14:51
La msi ha la funzione 0db la gigabyte no...
Poi a ventole accese non saprei dirti


Inviato da un telefono più figo del tuo via Tapatalk

29Leonardo
28-02-2016, 15:09
non ricordo ora, ma tra la msi 970 e la gigabyte msi con 3 ventole, quale dissipa meglio e fa meno rumore?

Sono praticamente uguali a livello di rumore, come dissipazione la 970 g1 invece è leggermente meglio.

eXeS
28-02-2016, 15:11
Sono praticamente uguali a livello di rumore, come dissipazione la 970 g1 invece è leggermente meglio.




La 0db ce l'ha solo l'asus.
Anche le MSI Gaming 4G

29Leonardo
28-02-2016, 15:14
Anche le MSI Gaming 4G

Ok, chiedo venia, ho editato il messaggio

illidan2000
28-02-2016, 15:18
Sono praticamente uguali a livello di rumore, come dissipazione la 970 g1 invece è leggermente meglio.

msi pure...

legolas119
28-02-2016, 20:10
Steam stesso può mostrare gli FPS, volendo. Il contatore si può attivare dalle impostazioni :)

Io non ho Steam, quindi mi andrebbe meglio Fraps che immagino basti avviare per rilevare i fps, giusto?

fraussantin
28-02-2016, 20:36
Io non ho Steam, quindi mi andrebbe meglio Fraps che immagino basti avviare per rilevare i fps, giusto?
Sisi tu lo avvii e stop

legolas119
28-02-2016, 22:11
Sisi tu lo avvii e stop

grazie!

Dinofly
28-02-2016, 23:25
Comunque per gli interessati al capitolo Vr oggi mi è arrivato uno di quei box cardboard cinesi per infilarci il cellulare dentro e devo ammettere che è un aggeggino carino...
Ho scoperto che tramite un programmino: Trinus (per Android) e Kinovr (per iOS) si riesce a streammare il segnale da pc e usare comunque il giroscopio del telefono (non ho ancora provato però)
Sarebbe un buon modo per avere una sorta di oculus rift pezzotto a 30€ (costo dell'aggeggio più quello dell'app).
Volevo chiedervi se conoscete qualche gioco in Vr così magari se ce l'ho già in libreria provo e vi faccio sapere :)


Inviato da un telefono più figo del tuo via Tapatalk
Provato ed é assolutamente improponibile. Latenza eccessiva, il tracking funziona veramente male. Inoltre non è supportato nativamente dai giochi, e richiede un 3d SBS (supportato da pochissimi)

Obyboby
28-02-2016, 23:32
Ragazzi un consiglio:
per un PC un po' datato, un amico voleva da tempo comprarsi una 970. Non avendo troppa liquidità però cerca altre occasioni nel frattempo... ha trovato una 690 a 150 euro ed è piuttosto tentato, io da certi video ho notato che è simile a una 980 come prestazioni, ma secondo voi ne vale la pena? O è meglio cercare una 970? Gioca in 1080p..

ferro10
29-02-2016, 00:54
Ragazzi un consiglio:
per un PC un po' datato, un amico voleva da tempo comprarsi una 970. Non avendo troppa liquidità però cerca altre occasioni nel frattempo... ha trovato una 690 a 150 euro ed è piuttosto tentato, io da certi video ho notato che è simile a una 980 come prestazioni, ma secondo voi ne vale la pena? O è meglio cercare una 970? Gioca in 1080p..

la gtx690 come potenza bruta è molto valida
https://tpucdn.com/reviews/ASUS/GTX_970_STRIX_OC/images/perfrel_1920.gif

però dispone di solo 2gb e in più c'è la questione sli che può non essere usato al 100% e questo dipende dal gioco, in più c'è da valutare la questione consumi la gtx690 consuma 340-350w.

Obyboby
29-02-2016, 08:17
la gtx690 come potenza bruta è molto valida
https://tpucdn.com/reviews/ASUS/GTX_970_STRIX_OC/images/perfrel_1920.gif

però dispone di solo 2gb e in più c'è la questione sli che può non essere usato al 100% e questo dipende dal gioco, in più c'è da valutare la questione consumi la gtx690 consuma 340-350w.

Ti ringrazio! In poche parole inizia a sentire il peso degli anni nonostante sia ancora potente.. :sofico:

illidan2000
29-02-2016, 09:48
Ti ringrazio! In poche parole inizia a sentire il peso degli anni nonostante sia ancora potente.. :sofico:

beh, sì, direi che la vRam la limiterebbe parecchio, anche rispetto ad una 970. Per questo la paga 100 euro in meno. Se è un casual gamer, e gioca a risoluzioni basse e senza filtri, può andare

alfredo.r
29-02-2016, 10:05
Provato ed é assolutamente improponibile. Latenza eccessiva, il tracking funziona veramente male. Inoltre non è supportato nativamente dai giochi, e richiede un 3d SBS (supportato da pochissimi)


Per curiosità a te l'anti virus ha bloccato il programma? Perché kinovr mi crasha per colpa dell'antivirus...
Volevo provarlo ma non va...
Se mi confermi che la latenza è eccessiva e che funziona male evito di perderci tempo anche se volevo provarlo lo stesso giusto per lo sfizio "di esserci riuscito" :D


Inviato da un telefono più figo del tuo via Tapatalk

ferro10
29-02-2016, 10:10
beh, sì, direi che la vRam la limiterebbe parecchio, anche rispetto ad una 970. Per questo la paga 100 euro in meno. Se è un casual gamer, e gioca a risoluzioni basse e senza filtri, può andare

quoto per 150€ è sicuramente valida come gpu.


controlla solo che l'alimentatore regga e che disponga di una cpu abbastanza veloce.

KampMatthew
29-02-2016, 11:00
Mha, tra una 690 ed una scheda nuova, sarebbe comunque preferibile una scheda nuova. A parte i 2 gb di vram che oggi sono diventati troppo pochi, per cui potrebbe trovarsi con potenza da vendere ma memoria satura e quindi della potenza non se ne farebbe comunque niente, ma poi i giochi nuovi sono ottimizzati per i chip nuovi, così come i driver, la storia recente delle 780 dovrebbe insegnare. Senza contare che la 690 ha bisogno di un alimentatore bello tosto, e dubito che lo abbia.
Io prenderei una 970, al massimo se proprio non riesce causa moneta, ripiegherei su una 960.
La 690 era una gran scheda nei tempi in cui uscì. Oggi no.

alfredo.r
29-02-2016, 11:04
Sono d'accordo...
Con 190€ si prende una 960 nuova che male male non è, non consuma una ceppa ed ha gli ultimi driver ottimizzati...



Inviato da un telefono più figo del tuo via Tapatalk

aled1974
29-02-2016, 11:22
computer datato, alimentatore sconosciuto, anch'io andrei di 960 nuova :mano:

ciao ciao

Obyboby
29-02-2016, 12:16
beh, sì, direi che la vRam la limiterebbe parecchio, anche rispetto ad una 970. Per questo la paga 100 euro in meno. Se è un casual gamer, e gioca a risoluzioni basse e senza filtri, può andare

Grazie anche a te :)

traider
29-02-2016, 12:33
Per la GTX 970 a quanto siete arrivati massimo su GPU e MEMORIE in Overclock senza overvoltare ? .

Amph
29-02-2016, 13:01
Per la GTX 970 a quanto siete arrivati massimo su GPU e MEMORIE in Overclock senza overvoltare ? .

a me tiene i 1450 tranquillamente, probabilmente anche di più, ho messo +100 su entrambi sulla mia giga


una cosa, ma la asus strix è più limitata di una g1 o msi in termini di wattaggio? per via del 8 pin, invece del 6+8 è esatto?

la mia 970 ora consuma anche 200watt, mi sembra troppo per una scheda che ha un tdp di 150

illidan2000
29-02-2016, 15:05
a me tiene i 1450 tranquillamente, probabilmente anche di più, ho messo +100 su entrambi sulla mia giga


una cosa, ma la asus strix è più limitata di una g1 o msi in termini di wattaggio? per via del 8 pin, invece del 6+8 è esatto?

la mia 970 g1 ora consuma anche 200watt, mi sembra troppo per una scheda che ha un tdp di 150

8pin sarebbero 225watt massimi (150+75 dalla mainvoard). Però penso che possa tranquillamente prendersene pure di più, con poco rischio.
E' certamente più limitata a livello di BIOS, pertanto è necessario un bios mod

Amph
29-02-2016, 16:32
il tdp della gigabyte è davvero esagerato, messo sui 300w, l'ho impostato al 60% e regge tranquillamente l'oc, dubito che questa scheda avra mai bisogno di tutti quei watt a prescindere dall'oc...si consuma solo di più per niente

Gameshard
29-02-2016, 20:05
a me tiene i 1450 tranquillamente, probabilmente anche di più, ho messo +100 su entrambi sulla mia giga


una cosa, ma la asus strix è più limitata di una g1 o msi in termini di wattaggio? per via del 8 pin, invece del 6+8 è esatto?

la mia 970 ora consuma anche 200watt, mi sembra troppo per una scheda che ha un tdp di 150
Con bios a default la Strix ha un TDP di 163W aumentabile del 20% con MSI Afterburner, per un totale di 196W massimi.
La Gigabyte G1 (ma anche la Windforce) con bios originale ha un TDP di ben 250W, aumentabile del 12% con MSI Ab per un totale di 280W massimi.
E' ovvio che, in caso di overclock di una certa consistenza, la Strix sia limitata e subirebbe continui tagli dal boost 2,0 per rientrare nel "target" di consumo e richiederebbe un bios-mod, mentre la Gigabyte può essere spinta tranquillmente fino ai propri limiti del Core anche a frequenze sui 1600 di Core e oltre 8000 memorie sulle memorie, senza che riesca a sforare il limite del TDP, pertanto, almeno nella "Power Table", non necessita di alcuna modifica e si può tenere senza problemi il bios originale. Diverso invece (e anche più rischioso), se si vuole aumentare di più il Vcore (si può arrivare max 1,256V con MSI Ab) o se si vuole eliminare il boost 2.0, per non avere più tagli di alcun genere, anche dovuti alle temperature.

29Leonardo
29-02-2016, 20:23
msi pure...

Ma anche no, dato che la g1 è considerata la migliore delle 970.

Dono89
01-03-2016, 06:58
il tdp della gigabyte è davvero esagerato, messo sui 300w, l'ho impostato al 60% e regge tranquillamente l'oc, dubito che questa scheda avra mai bisogno di tutti quei watt a prescindere dall'oc...si consuma solo di più per niente
Non funziona così :)
Quello che imposti è il limite, significa che se la scheda li richiede li consuma se la scheda non li richiede non li consuma.

Si toglie semplicemente il vincolo la scheda lo richiede, non ci sono, taglio delle frequenze

fraussantin
01-03-2016, 07:44
Ma poi il tdp non è lo spreco termico massimo?

I consumi sono altra cosa e non vengono mai dichiarati

Amph
01-03-2016, 08:48
Non funziona così :)
Quello che imposti è il limite, significa che se la scheda li richiede li consuma se la scheda non li richiede non li consuma.

Si toglie semplicemente il vincolo la scheda lo richiede, non ci sono, taglio delle frequenze

si lo so che è il limite ma se per qualche motivo la scheda lo richiede andrà a consumare di più, avendo un limite più basso sei sicuro che non potrà consumare più di tot

Con bios a default la Strix ha un TDP di 163W aumentabile del 20% con MSI Afterburner, per un totale di 196W massimi.
La Gigabyte G1 (ma anche la Windforce) con bios originale ha un TDP di ben 250W, aumentabile del 12% con MSI Ab per un totale di 280W massimi.
E' ovvio che, in caso di overclock di una certa consistenza, la Strix sia limitata e subirebbe continui tagli dal boost 2,0 per rientrare nel "target" di consumo e richiederebbe un bios-mod, mentre la Gigabyte può essere spinta tranquillmente fino ai propri limiti del Core anche a frequenze sui 1600 di Core e oltre 8000 memorie sulle memorie, senza che riesca a sforare il limite del TDP, pertanto, almeno nella "Power Table", non necessita di alcuna modifica e si può tenere senza problemi il bios originale. Diverso invece (e anche più rischioso), se si vuole aumentare di più il Vcore (si può arrivare max 1,256V con MSI Ab) o se si vuole eliminare il boost 2.0, per non avere più tagli di alcun genere, anche dovuti alle temperature.

comunque con wattmetro alla mano al 60% di tdp la gigabyte sta sui 170w-180w, in realtà la gigabyte puo essere spinta fino a 300w(8+6pin+slot MB)

Dono89
01-03-2016, 09:17
si lo so che è il limite ma se per qualche motivo la scheda lo richiede andrà a consumare di più, avendo un limite più basso sei sicuro che non potrà consumare più di tot

Giusto, ma se lo richiede è perché serve e se non hai quella potenza disponibile hai i tagli

Gameshard
01-03-2016, 10:08
comunque con wattmetro alla mano al 60% di tdp la gigabyte sta sui 170w-180w, in realtà la gigabyte puo essere spinta fino a 300w(8+6pin+slot MB)
Più o meno è così, infatti il 60% del TDP di 280W è proprio 168W.
Col bios originale della G1 il limite imposto nella "Power table" del bios è a 250W + il 12% aumentabile da software come MSI Ab, quindi max 280W e non si riuscirebbe ad arrivare a 300W (parlo della gtx 970). Superata questa soglia avvengono i primi tagli al Vcore, per cui si abbassano anche le frequenze a step di 13 Mhz o multipli di 13 (dipende da quanto Vcore è stato tagliato), per far rientrare la Vga nel range di consumo max inposto dal bios. Moddando il bios si può fare in modo che possa consumare anche 350W (aumentando al limite tollerabile la quantità di corrente che può passare nei connettori ausiliari e nel PCIe), ma in realtà una G1, anche in alto overclock nei games più pesanti, non riuscirà mai a usare tutta quella corrente, arrivando al max a sfruttare 250/270W. Infatti ho da parte il bios che mi ha moddato un amico esperto che mi consentirebbe di arrivare fino a 350W, ma non lo installo perchè non mi serve e anche per non ritrovarmi con la garanzia invalidata per un'eventule rma, nel caso non riuscissi più a riflasharci sopra l'originale per via di un guasto grave.

P.S.) i produttori si tengono sempre sotto le specifiche dei connettori ausiliari, infatti anche la Strix è limitata a 196W max, pur potendo arrivare coi connettori a 225W (150W +75W). Anche la MSI è limitata a 220W max, pur potendo arrivare a 300W come la G1, perchè ha gli stessi connettori (8+6 pin+PCIe). Fra tutti, solo gli ingegneri della Gigabyte hanno osato di più (280W su 300W), magari si sentono tranquilli sul loro progetto e sul dissipatore triventola della G1.

illidan2000
01-03-2016, 10:10
Ma anche no, dato che la g1 è considerata la migliore delle 970.
io dicevo solo che anche la MSI ha la funzione 0db. Il messaggio lo hai poi editato...
il tdp della gigabyte è davvero esagerato, messo sui 300w, l'ho impostato al 60% e regge tranquillamente l'oc, dubito che questa scheda avra mai bisogno di tutti quei watt a prescindere dall'oc...si consuma solo di più per niente

Non funziona così :)
Quello che imposti è il limite, significa che se la scheda li richiede li consuma se la scheda non li richiede non li consuma.

Si toglie semplicemente il vincolo la scheda lo richiede, non ci sono, taglio delle frequenze

si lo so che è il limite ma se per qualche motivo la scheda lo richiede andrà a consumare di più, avendo un limite più basso sei sicuro che non potrà consumare più di tot

comunque con wattmetro alla mano al 60% di tdp la gigabyte sta sui 170w-180w, in realtà la gigabyte puo essere spinta fino a 300w(8+6pin+slot MB)

una cosa è come imposti il bios, un'altra è quanti watt massimi può ricevere elettricamente.
Anche se da bios imposti 500W, se non gli servono non se li prenderà mai.
Questo valore è una valvola di sicurezza, che nVidia ha impostato per contenere i consumi, ma per noi che overclocchiamo è soltanto un inutile paletto che tarpa le ali alle nostre VGA

più aumenti il voltaggio, e le frequenze, e più consuma.
Alla stessa frequenza, con voltaggio maggiore, consuma di più. Se il TDP blocca, si abbassano voltaggi e consumi a seconda della tabella di BIOS.
Allo stesso voltaggio, con frequenze maggiori, si ha più consumi, e vale il discorso di sopra.

tenere basso il TDP e overcloccare è da neofiti, o da persone che non hanno capito come funzionano i Boost di nVidia

alfredo.r
01-03-2016, 10:19
Tutto molto bello ma una Vga che consuma 300w e mantiene i 1600 di core contro una che ne consuma meno di 200 e mantiene i 1400-1450 in realtà che vantaggi ha?
3 FPS?
A sto punto se proprio si devono buttare soldi (100w/h per un anno non so di preciso quanto siano ma pochi non sono) non è meglio cambiare Vga? O fare un bello sli?


Inviato da un telefono più figo del tuo via Tapatalk

fraussantin
01-03-2016, 10:39
Tutto molto bello ma una Vga che consuma 300w e mantiene i 1600 di core contro una che ne consuma meno di 200 e mantiene i 1400-1450 in realtà che vantaggi ha?
3 FPS?
A sto punto se proprio si devono buttare soldi (100w/h per un anno non so di preciso quanto siano ma pochi non sono) non è meglio cambiare Vga? O fare un bello sli?


Inviato da un telefono più figo del tuo via Tapatalk
Se fai bench 5 ore al giorno con la vga manetta 30 euro l'anno.


Ma la realtà è diversa dai bench

Arrow0309
01-03-2016, 10:40
Avete ragione un po entrambi, difatti sto valutando anch'io se tenerlo ancora il bios mod a 1.28v col tdp di quasi 400w (limit) per stare ok e senza tagli alcuni a 1550/8000 oppure tornare al bios della G1 (980) e rimanere sui 1500. :fagiano:

illidan2000
01-03-2016, 11:14
Avete ragione un po entrambi, difatti sto valutando anch'io se tenerlo ancora il bios mod a 1.28v col tdp di quasi 400w (limit) per stare ok e senza tagli alcuni a 1550/8000 oppure tornare al bios della G1 (980) e rimanere sui 1500. :fagiano:

non ho dubbi su ciò che deciderai....

Arrow0309
01-03-2016, 12:27
non ho dubbi su ciò che deciderai....

Che c'hai la palla di vetro? :asd:
Te non hai dubbi ma io si invece. :p :fagiano:

KampMatthew
01-03-2016, 13:34
A me si, ho appena guardato.

illidan2000
01-03-2016, 13:38
Che c'hai la palla di vetro? :asd:
Te non hai dubbi ma io si invece. :p :fagiano:

se il 1550 è stabile, e le temperature non sono da altoforno, non credo che ti vai a perdere 50 mhz per "scrupolo energetico" :oink:

KampMatthew
01-03-2016, 14:17
Se la risposta era per me grazie per l'informazione :)

Si era per te. A scanso di equivoci, intendevi questo, giusto?

http://s14.imagestime.com/out.php/t1058366_hevc.jpg (http://www.imagestime.com/show.php/1058366_hevc.jpg.html)


Se cliccando sull'immagine firefox ti fa vedere l'avviso di sito contraffatto, vai tranquillo, è imagestime.

Amph
01-03-2016, 14:33
tenere basso il TDP e overcloccare è da neofiti, o da persone che non hanno capito come funzionano i Boost di nVidia

no è da persone che non fanno solo gaming, ma mining :asd:

Tutto molto bello ma una Vga che consuma 300w e mantiene i 1600 di core contro una che ne consuma meno di 200 e mantiene i 1400-1450 in realtà che vantaggi ha?
3 FPS?
A sto punto se proprio si devono buttare soldi (100w/h per un anno non so di preciso quanto siano ma pochi non sono) non è meglio cambiare Vga? O fare un bello sli?


Inviato da un telefono più figo del tuo via Tapatalk

le vga non sono nate solo per giocare, la sto usando per minare una moneta molto profittevole, comunque poco cambio il ratio wattaggio profitto rimane invariato a qualsiasi valore

ma la bolletta è più cara se si consuma di più, per via delle soglie, poi si mantiene anche la gpu più fresca che fa sempre bene per il lifespan

fraussantin
01-03-2016, 14:44
no è da persone che non fanno solo gaming, ma mining :asd:



le vga non sono nate solo per giocare, la sto usando per minare una moneta molto profittevole, comunque poco cambio il ratio wattaggio profitto rimane invariato a qualsiasi valore

ma la bolletta è più cara se si consuma di più, per via delle soglie, poi si mantiene anche la gpu più fresca che fa sempre bene per il lifespan
Certo che anche bruciare risorse e inquinare per creare moneta farlocca ....

C'è proprio qualcosa di sbagliato in questo mondo..

Amph
01-03-2016, 14:52
Certo che anche bruciare risorse e inquinare per creare moneta farlocca ....

C'è proprio qualcosa di sbagliato in questo mondo..

puoi vederlo come passatempo, invece di giocare 16 ore al giorno uno mina per 16 ore e fa soldi :D

fraussantin
01-03-2016, 14:56
puoi vederlo come passatempo, invece di giocare 16 ore al giorno uno mina per 16 ore e fa soldi :D
Si ma non è che dicevo di chi mina . Tu fai anche bene

È proprio sbagliato che si possa far soldi sprecando energia inutilmente.

traider
01-03-2016, 15:05
puoi vederlo come passatempo, invece di giocare 16 ore al giorno uno mina per 16 ore e fa soldi :D

Che moneta stai minando ? .

killeragosta90
01-03-2016, 15:14
puoi vederlo come passatempo, invece di giocare 16 ore al giorno uno mina per 16 ore e fa soldi :D


http://venividivici.us/sites/default/files/mina-musica.png


















....anche se personalmente preferisco altre cantanti! :p

Amph
01-03-2016, 16:06
Che moneta stai minando ? .

ethereum e decred, più o meno stesso profitto

Si ma non è che dicevo di chi mina . Tu fai anche bene

È proprio sbagliato che si possa far soldi sprecando energia inutilmente.

io la vendo come una conversione di energia in soldi, un po come quelli che convertono il carburante in soldi(parlo dei mezzi pubblici)

che poi il mondo è pieno di sprechi ben peggiori

Arrow0309
01-03-2016, 17:58
se il 1550 è stabile, e le temperature non sono da altoforno, non credo che ti vai a perdere 50 mhz per "scrupolo energetico" :oink:

Eh c'hai ragione, lo sai? :p
Visto che mi fanno pure una cifra comodo quei extra 50mhz su molti giochi (per lo meno sui minimi) a 2560/1440
Come temp vga, max 43-44° ma dovrebbero pure migliorare fra un po, con la nuova cpu 4790k @4.8 a 1.26v ed il loop più snello senza il passaggio del liq. sul mosfet block (come ho adesso). :cool:

carlosamp
02-03-2016, 09:14
ciao ragazzi pulendo il pc ho notato che sul backplate della asus 970 strix c'e' una pellicola trasparente... non e' che va' tolta vero? :muro:

XEV
02-03-2016, 09:23
ciao ragazzi pulendo il pc ho notato che sul backplate della asus 970 strix c'e' una pellicola trasparente... non e' che va' tolta vero? :muro:
io la toglierei.. per il calore

fabietto27
02-03-2016, 09:23
ciao ragazzi pulendo il pc ho notato che sul backplate della asus 970 strix c'e' una pellicola trasparente... non e' che va' tolta vero? :muro:
Ehhh direi di si...pena vedertela colata sul backplate ;)

Inviato dal vivavoce della mia DAF Variomatic

aled1974
02-03-2016, 09:35
se ancora non si è sciolta meglio di sì :D

ciao ciao

Holy455
02-03-2016, 10:29
ciao ragazzi pulendo il pc ho notato che sul backplate della asus 970 strix c'e' una pellicola trasparente... non e' che va' tolta vero? :muro:

Il pc lo usavi e non si è fusa?

Kostanz77
02-03-2016, 10:43
Il pc lo usavi e non si è fusa?


Ma come fa a fondersi??.......al massimo sulla piastra esterna la temperatura arriverà a 40 C°


Inviato dal mio iPhone 6S utilizzando Tapatalk

Holy455
02-03-2016, 11:17
Ma come fa a fondersi??.......al massimo sulla piastra esterna la temperatura arriverà a 40 C°


Plastichina da imballaggi con sotto anche 60 gradi lo vedi come si increspa...

poi se è immacolata meglio xD

carlosamp
02-03-2016, 12:00
ops :D comunque e' ancora intatta come se fosse nuova, eppure la scheda e' li' da piu' di un anno...

grazie provvedero' subito ;)

29Leonardo
02-03-2016, 12:29
io dicevo solo che anche la MSI ha la funzione 0db. Il messaggio lo hai poi editato...

Ah ok, ma il messaggio che mi hai quotato era quello giusto, non quello editato. Anche se editi un messaggio il contenuto del quote rimane invariato :D

Perciò avevo inteso il tuo "msi pure" anche per quanto riguarda il resto e non solo il fatto della 0db

Eh c'hai ragione, lo sai? :p
Visto che mi fanno pure una cifra comodo quei extra 50mhz su molti giochi (per lo meno sui minimi) a 2560/1440
Come temp vga, max 43-44° ma dovrebbero pure migliorare fra un po, con la nuova cpu 4790k @4.8 a 1.26v ed il loop più snello senza il passaggio del liq. sul mosfet block (come ho adesso). :cool:

Ma come fai a testarlo con precisione l'aumento sui minimi nei giochi? Io quell'aumento lo vedo solo nella schermata finale dei bench, quando gioco anche con una differenza di 200mhz nel core non cambia nulla. Però c'è da dire che forse con il gioco che testo a 1440p sono già gpu limited dato che l'utilizzazione è sempre sul 90-99%

aled1974
02-03-2016, 13:14
Plastichina da imballaggi con sotto anche 60 gradi lo vedi come si increspa...

poi se è immacolata meglio xD

fino ai casi da twilight zone

http://s24.postimg.org/oeo1o85xh/NFTjw_Gml.jpg

:asd:

ciao ciao

Arrow0309
02-03-2016, 13:28
Ah ok, ma il messaggio che mi hai quotato era quello giusto, non quello editato. Anche se editi un messaggio il contenuto del quote rimane invariato :D

Perciò avevo inteso il tuo "msi pure" anche per quanto riguarda il resto e non solo il fatto della 0db



Ma come fai a testarlo con precisione l'aumento sui minimi nei giochi? Io quell'aumento lo vedo solo nella schermata finale dei bench, quando gioco anche con una differenza di 200mhz nel core non cambia nulla. Però c'è da dire che forse con il gioco che testo a 1440p sono già gpu limited dato che l'utilizzazione è sempre sul 90-99%
E quale sarebbe sto gioco che testi a 1440p?

killeragosta90
02-03-2016, 13:56
fino ai casi da twilight zone

///

:asd:

ciao ciao

Oh madonna! LOL :sofico:

Gello
02-03-2016, 14:00
Eh c'hai ragione, lo sai? :p
Visto che mi fanno pure una cifra comodo quei extra 50mhz su molti giochi (per lo meno sui minimi) a 2560/1440
Come temp vga, max 43-44° ma dovrebbero pure migliorare fra un po, con la nuova cpu 4790k @4.8 a 1.26v ed il loop più snello senza il passaggio del liq. sul mosfet block (come ho adesso). :cool:

50mhz che ti aiutano nei minimi mi sa di fantascienza

XEV
02-03-2016, 15:15
fino ai casi da twilight zone



:asd:

ciao ciao

lol.. fino a sto livello ?!

illidan2000
02-03-2016, 15:50
Ah ok, ma il messaggio che mi hai quotato era quello giusto, non quello editato. Anche se editi un messaggio il contenuto del quote rimane invariato :D

Perciò avevo inteso il tuo "msi pure" anche per quanto riguarda il resto e non solo il fatto della 0db


è che io ho il vizio di aprire tantissime schede, e nel frattempo i post possono avere delle modifiche. Quando ho cliccato il tasto quote (dopo 15-20 minuti), non sono andato sicuramente a rileggere il contenuto del quote, ritenendo per buono quello scritto 20 minuti prima...

29Leonardo
02-03-2016, 15:59
fino ai casi da twilight zone

http://s24.postimg.org/oeo1o85xh/NFTjw_Gml.jpg

:asd:

ciao ciao

Che cazzata, per dimenticanza ho tenuto per 4 mesi la plastichina sopra il backplate su una scheda e non si è sciolta ne difettata minimamente, figuriamoci i copri connettori che sono di plastica dura. :rolleyes: Connettori che tra l'altro sono ancora montati su dal dayone..

Poi nella foto si vede che tiene la copertura pure sulla pci-e..

50mhz che ti aiutano nei minimi è fantascienza

Fixed :asd:

fraussantin
02-03-2016, 16:05
Che cazzata, per dimenticanza ho tenuto per 4 mesi la plastichina sopra il backplate su una scheda e non si è sciolta ne difettata minimamente, figuriamoci i copri connettori che sono di plastica dura. :rolleyes: Connettori che tra l'altro sono ancora montati su dal dayone..

Poi nella foto si vede che tiene la copertura pure sulla pci-e..
Si è una cazzata ovvia:perche si vedono non puoi scordarteli

ma la plastica dipende dalle temperature.

Per dire il pet a 50 gradi si inizia a deformare.

Il pp regge oltre 130 gradi.

Ora non so che plastica sia.

29Leonardo
02-03-2016, 16:09
Si è una cazzata ovvia:perche si vedono non puoi scordarteli

ma la plastica dipende dalle temperature.

Per dire il pet a 50 gradi si inizia a deformare.

Il pp regge oltre 130 gradi.

Ora non so che plastica sia.

Dico che all'interno del case che si possano sciogliere i copri connettori dello sli mi sembra una cazzata pazzesca. Quelli che nella foto si sono sciolti io li tengo ancora montati, poi non saprei che cosa ha combinato il tizio per ridurli a quel modo.

Amph
02-03-2016, 16:21
ma la g1 oltre a quei + 100 sul core ha qualcosa in più rispetto alla WF oc? perché ci mette poco uno a mettere +100 sul core della WF oc

posso capire la WF di base...

29Leonardo
02-03-2016, 20:59
Non è solo la differenza di 100mhz la g1 è superiore in tutto, materiali, potenziale di oc, dissipazione etc..

Arrow0309
02-03-2016, 21:33
Non è solo la differenza di 100mhz la g1 è superiore in tutto, materiali, potenziale di oc, dissipazione etc..

Quoto, dissipatore in primis :cool:

http://ic.tweakimg.net/ext/i/2000552909.jpeg

Al livello pcb sono molto simili e con le stesse fasi (quasi), cmq la scelta dei mosfet del vrm sulla Windforce e' di qualità inferiore

Ubro92
03-03-2016, 08:17
Ragazzi ma con metro 2033 versione non REDUX succede che la gpu non lavora in full ma sempre intorno all'85% max per brevi picchi 94% anche con vsync disattivo, sto smanettando con le impostazioni ma non vuole proprio saperne, qualche consiglio?

illidan2000
03-03-2016, 08:45
beh, io ne ho due di WF3, e le tengo daily a 1544, 1.2v/1.215v (quella sotto). Non arrivo a 80° su quella più calda, e profilo ventole non particolarmente aggressivo (1:1 mi pare, ora non sono a casa).
Su giochi meno impegnativi, cappo gli fps e le faccio andare non al 100%, e non le sento proprio
Ragazzi ma con metro 2033 versione non REDUX succede che la gpu non lavora in full ma sempre intorno all'85% max per brevi picchi 94% anche con vsync disattivo, sto smanettando con le impostazioni ma non vuole proprio saperne, qualche consiglio?
non è che sei CPU limited? dai un'occhio alle percentuali di utilizzo

Ubro92
03-03-2016, 09:04
beh, io ne ho due di WF3, e le tengo daily a 1544, 1.2v/1.215v (quella sotto). Non arrivo a 80° su quella più calda, e profilo ventole non particolarmente aggressivo (1:1 mi pare, ora non sono a casa).
Su giochi meno impegnativi, cappo gli fps e le faccio andare non al 100%, e non le sento proprio

non è che sei CPU limited? dai un'occhio alle percentuali di utilizzo

Un 2500K a 4.6ghz? Le percentuali di utilizzo della cpu non sono uniformi su 4 core 2-3 core lavorano intorno al 30-35% e 1-2 fino a massimo 55-70%.

Ma credo sia il gioco buggato perchè molti in rete sembrano avere lo stesso problema, che piu che bug è una questione driver sembra...

29Leonardo
03-03-2016, 09:45
Come se fosse l'unico gioco su PC ad avere un utilizzo non uniforme delle risorse a disposizione :stordita:

Tra l'altro a 2560x1080 non è che gravi molto di piu' di una comune full-hd, prova a mettere il dsr in 4k e vedi come ti collassa tutto :D

KampMatthew
03-03-2016, 10:12
beh, io ne ho due di WF3, e le tengo daily a 1544, 1.2v/1.215v (quella sotto). Non arrivo a 80° su quella più calda, e profilo ventole non particolarmente aggressivo

All'atto pratico, tra la g1 e la wf3 non cambia niente se non quei 2-3° sulla gpu.
Il dissipatore della wf3 è già adeguato ai watt che deve smaltire il chip, il fatto che il dissi g1 abbia 2 heatpipe in più non comporta nessun miracolo. Non è che se ce ne mettono 20 si va sotto zero.
Poi nella realtà ci sono g1 che vanno meglio delle wf3 e wf3 che vanno meglio delle g1.
Il resto è moda o questione di gusti. Il led che si accende, il backplate che fa figo, ecc.

illidan2000
03-03-2016, 10:27
All'atto pratico, tra la g1 e la wf3 non cambia niente se non quei 2-3° sulla gpu.
Il dissipatore della wf3 è già adeguato ai watt che deve smaltire il chip, il fatto che il dissi g1 abbia 2 heatpipe in più non comporta nessun miracolo. Non è che se ce ne mettono 20 si va sotto zero.
Poi nella realtà ci sono g1 che vanno meglio delle wf3 e wf3 che vanno meglio delle g1.
Il resto è moda o questione di gusti. Il led che si accende, il backplate che fa figo, ecc.

se la trovavo a 10/15 euro in più, prendevo la g1, ma mi costava oltre 50€ (l'una) e ho lasciato perdere
Un 2500K a 4.6ghz? Le percentuali di utilizzo della cpu non sono uniformi su 4 core 2-3 core lavorano intorno al 30-35% e 1-2 fino a massimo 55-70%.

Ma credo sia il gioco buggato perchè molti in rete sembrano avere lo stesso problema, che piu che bug è una questione driver sembra...

hai disattivato la tasselazione? (DOF?)

Spider-Mans
03-03-2016, 11:11
qualcuno ha comprato di recente una 970 evga? (da gennaio insomma)

volevo una info sulla registrazione al sito evga...se c'era ancora la promozione sugli alimentatori...

wooow
03-03-2016, 12:04
Ragazzi ma con metro 2033 versione non REDUX succede che la gpu non lavora in full ma sempre intorno all'85% max per brevi picchi 94% anche con vsync disattivo, sto smanettando con le impostazioni ma non vuole proprio saperne, qualche consiglio?
Proprio nel weekend con la 970 driver 361.91 e il sistema in firma, ho provato Metro 2033 (se non ricordo male capitolo 1 inseguimento) maxato compreso DOF e Tassellazione, disattivando solo il PhysX avanzato in full HD la GPU mediamente stava tra 90-99%, la CPU sui 45-50%
mentre attivando PhysX avanzato in effetti ho notato che la VGA lavorara a memoria più o meno nel range da te indicato 85-90% con alcuni picchi oltre

Ubro92
03-03-2016, 13:20
hai disattivato la tasselazione? (DOF?)

No, ho tutto impostato al massimo, ora faccio una prova, anche se credo di mettermi l'anima in pace, alla fine il frame si mantine sui 50-51 minimi, è piu un fatto di principio nel vedere sia cpu che gpu non utilizzate al massimo...

La cosa che mi irrita veramente è il fatto che il gioco soffre moltissimo di tearing e stuttering indipendentemente dal frame.

illidan2000
03-03-2016, 14:22
No, ho tutto impostato al massimo, ora faccio una prova, anche se credo di mettermi l'anima in pace, alla fine il frame si mantine sui 50-51 minimi, è piu un fatto di principio nel vedere sia cpu che gpu non utilizzate al massimo...

La cosa che mi irrita veramente è il fatto che il gioco soffre moltissimo di tearing e stuttering indipendentemente dal frame.

mah, strano, io ci giocai anni fa con lo sli di 680, e non ho avuto alcun problema di questo tipo. Sinceramente non ricordo che impostazioni avessi, ma non credo di aver abbassato sicuramente le texture. Al limite la fisica, come diceva l'utente qui sopra, e sicuramente tolto l'inutile DOF

29Leonardo
03-03-2016, 14:45
ci sono delle opzioni da togliere che sono un pò buggate, una sicuro è tessellazione l'altra non ricordo, cmq ricordo che dovetti smanettare non poco per non farlo stutterare.

Amph
03-03-2016, 14:54
All'atto pratico, tra la g1 e la wf3 non cambia niente se non quei 2-3° sulla gpu.
Il dissipatore della wf3 è già adeguato ai watt che deve smaltire il chip, il fatto che il dissi g1 abbia 2 heatpipe in più non comporta nessun miracolo. Non è che se ce ne mettono 20 si va sotto zero.
Poi nella realtà ci sono g1 che vanno meglio delle wf3 e wf3 che vanno meglio delle g1.
Il resto è moda o questione di gusti. Il led che si accende, il backplate che fa figo, ecc.

ecco hai riassunto il mio pensiero, e roba da iphoner diciamo :asd:

Ubro92
03-03-2016, 16:55
Se ti riferisci a metro 2033 originale quello dello stuttering era un problema noto, che però inspiegabilmente non avevano tutti: io per esempio con una 660 liscia lo avevo.

Inviato dal mio LG-D855 utilizzando Tapatalk

eh ma infatti, quando lo giocai al tempo, avevo una 5870 + 260(physx) e lo giocavo senza problemi, anzi... Ora invece non è proprio il max, smanettando lo stuttering piu o meno sembra l'abbia risolto ma il tearing permane...

Comunque un amico ha la versione Redux e per curiosità l'abbiamo provata e sembra non dare gli stessi problemi, gira decisamente meglio e l'uso della gpu è inchiodato a 99%, quindi credo proprio che il motore grafico abbia qualche problema con le attuali schede o che ci sono problemi driver...

fabietto27
03-03-2016, 18:02
Comunque un amico ha la versione Redux e per curiosità l'abbiamo provata e sembra non dare gli stessi problemi, gira decisamente meglio e l'uso della gpu è inchiodato a 99%, quindi credo proprio che il motore grafico abbia qualche problema con le attuali schede o che ci sono problemi driver...

La versione Redux è stata ottimizzata...la trovi a pochi euro....Consigliata vivamente sia per metro 2033 che per Last Light.



Inviato dal vivavoce della mia DAF Variomatic

caccapupu91
04-03-2016, 00:33
Provo a chiedere qui anche se è un problema del muletto, per qualche motivo physx non funge. L'ho settato dal pannello solo alla gpu, ho messo l'indicatore visivo, disinstallato driver, aggiornati e da gpu-z dice che physx c'è nel pc D: Perchè qualsiasi cosa avvio esce sempre physx>cpu?

29Leonardo
04-03-2016, 10:21
Provo a chiedere qui anche se è un problema del muletto, per qualche motivo physx non funge. L'ho settato dal pannello solo alla gpu, ho messo l'indicatore visivo, disinstallato driver, aggiornati e da gpu-z dice che physx c'è nel pc D: Perchè qualsiasi cosa avvio esce sempre physx>cpu?

Non è che percaso i giochi che avvi hanno bisogno di una versione specifica di phsyx? Mi pare che alcuni hanno bisogno anche di un altro driver specifico oltre a quello incluseo nel pacchetto nvidia.
Oppure a livello di registro si sarà scombussolato qualcosa se hai installato/disinstallato i driver nvidia spesso.

killeragosta90
04-03-2016, 13:17
Provo a chiedere qui anche se è un problema del muletto, per qualche motivo physx non funge. L'ho settato dal pannello solo alla gpu, ho messo l'indicatore visivo, disinstallato driver, aggiornati e da gpu-z dice che physx c'è nel pc D: Perchè qualsiasi cosa avvio esce sempre physx>cpu?

Hai già provato una disinstallazione pulita con DDU?

Spider-Mans
04-03-2016, 13:47
eccomi in ritardo ma sono dei vostri..
anche se per pochi mesi :D in attesa di pascal ho rimandato il pc nuovo troppo a lungo...mi sono deciso a prendermi una scheda grafica temporanea...

ho appena comprato sull amazzonia una 970 evga SSC a 333 euro

scelto evga sia perche a quanto pare c'è ancora l'offerta di ottenere lo sconto sugli alimentatori evga nello store ufficiale.... se registri una scheda grafica evga entro 30 giorni...ma anche per il discorso garanzia 3 anni sul sito evga epossibilita di trasferirla in futuro quando decidero di rivenderla..senza dovermi accollare eventuali fastidi di rma futuri xD per conto dell acquirente

ora vedo di monetizzare the division che dovrebbe mandarmi amazon via mail con il codice appena spediscono..... :oink:

per la questione ventole...anche questa 970 si comporta come la strix mi pare..ossia ventole ferme in idle...

per farle muovere un po anche a bassa temperatura...va bene msi afterburner o meglio evga precision?

29Leonardo
04-03-2016, 14:01
Provo a chiedere qui anche se è un problema del muletto, per qualche motivo physx non funge. L'ho settato dal pannello solo alla gpu, ho messo l'indicatore visivo, disinstallato driver, aggiornati e da gpu-z dice che physx c'è nel pc D: Perchè qualsiasi cosa avvio esce sempre physx>cpu?

Allora ho riprovato alcuni giochi e fa pure a me, praticamente negli ini del gioco dovresti trovare una voce simile a questa

bDisablePhysXHardwareSupport" da mettere su False

Ad ogni modo pare sia un errore di comunicazione tra driver e gioco quindi ti conviene cercare su google un workaround per il gioco in cui hai il problema.

jolly74
04-03-2016, 14:29
no è da persone che non fanno solo gaming, ma mining :asd:



Scusa una domanda, sempre che non stai trollando con la frase appena sopra, ma qual'è il tuo guadagno pulito a fare minning con la tua cfg, 1 € al mese?

illidan2000
04-03-2016, 16:45
Scusa una domanda, sempre che non stai trollando con la frase appena sopra, ma qual'è il tuo guadagno pulito a fare minning con la tua cfg, 1 € al mese?

mah, secondo me, se lo fa, non è per un euro.... ma è un "lavoro" impegnativo, ci devi stare dietro

Amph
04-03-2016, 17:45
vedo sull'amazzone che c'è sia una g1 gaming, che una g1 gaming edition, differenze? questa volta è la stessa cosa?

Scusa una domanda, sempre che non stai trollando con la frase appena sopra, ma qual'è il tuo guadagno pulito a fare minning con la tua cfg, 1 € al mese?

no sono 4 euro al giorno(con una sola scheda eh) e si ti dico quanto facevo in passato quando il mining era più di moda, nel 2013 dico, c'è da sbellicarsi :asd: soldi facili proprio

in realtà adesso se mi impegno con qualche moneta appena uscita potrei fare di più, ma c'è da seguire la sezione di bitcointalk sulle altcoin

caccapupu91
05-03-2016, 19:15
Non è che percaso i giochi che avvi hanno bisogno di una versione specifica di phsyx? Mi pare che alcuni hanno bisogno anche di un altro driver specifico oltre a quello incluseo nel pacchetto nvidia.
Oppure a livello di registro si sarà scombussolato qualcosa se hai installato/disinstallato i driver nvidia spesso.

Ho provato anche il tuo consiglio con bDisablePhysXHardwareSupport ma in tanti giochi "blizzard" non c'è nemmeno :cry: nemmeno migrando tutta la cartella gioco e documenti dal pc dove physx funziona. Mi resta solo formattà .-.

Hai già provato una disinstallazione pulita con DDU?

yes, è stata la prima cosa :cry:

29Leonardo
06-03-2016, 12:03
Ma non è che ti soffermi a vedere solo la scritta nel menu iniziale?

Quando fai partire l'applicazione il messaggio iniziale sarà sempre >cpu, quando poi entri nella parte giocata passa alla gpu.

Ovviamente il gioco deve essere programmato per sfruttare a pieno le librerie per poter usare la gpu, ci sono molti giochi che usano delle librerie parziali che gravano solo sulla CPU di conseguenza non potranno in nessun modo essere inizializzate dalla GPU.

Quindi assicurati prima che il gioco sia pienamente compatibile

https://en.wikipedia.org/wiki/List_of_games_with_hardware-accelerated_PhysX_support

Se vuoi verificare che i driver e la scheda comunichino perfettamente scaricati questo (http://www.ozone3d.net/benchmarks/physx-fluidmark/) tool, se quando lo fai partire esce il messaggio che stai usando la gpu non hai problemi di driver, la causa sarà da cercare nel gioco stesso.

Tutto ciò se usi win 7 x64, per gli altri os non saprei se possono intervenire altri fattori a rompere le scatole.

ferro10
06-03-2016, 15:55
ragazzi dove cambiare monitor

volevo prendere il AOC G2460PG però avrei un 2 domande:

1) la 970 come si comporta a 1920x1080 144hz?
2) considerate che io non sono un amante dei 60fps quindi anche se ne faccio 40 mi bastano già.

alfredo.r
06-03-2016, 16:23
ragazzi dove cambiare monitor



volevo prendere il AOC G2460PG però avrei un 2 domande:



1) la 970 come si comporta a 1920x1080 144hz?

2) considerate che io non sono un amante dei 60fps quindi anche se ne faccio 40 mi bastano già.


1) A 144hz maxati ci arrivi solo coi giochi vecchi, coi nuovi scordatelo (già è difficile mantenere i 60fissi in alcuni casi)
2) che cavolo te lo compri a fare un monitor 144hz se non sei nemmeno un fanatico dei 60hz? :asd:




Inviato da un telefono più figo del tuo via Tapatalk

fraussantin
06-03-2016, 16:30
1) A 144hz maxati ci arrivi solo coi giochi vecchi, coi nuovi scordatelo (già è difficile mantenere i 60fissi in alcuni casi)
2) che cavolo te lo compri a fare un monitor 144hz se non sei nemmeno un fanatico dei 60hz? :asd:




Inviato da un telefono più figo del tuo via Tapatalk
CHe poi aggiungo , va a finire ti abitui ai 144 hz che quando giochi a 60 stai male. :asd:

ferro10
06-03-2016, 16:47
1) A 144hz maxati ci arrivi solo coi giochi vecchi, coi nuovi scordatelo (già è difficile mantenere i 60fissi in alcuni casi)
2) che cavolo te lo compri a fare un monitor 144hz se non sei nemmeno un fanatico dei 60hz? :asd:




Inviato da un telefono più figo del tuo via Tapatalk

mi interessava il G-SYNC.

bhe visto che io il monitor lo cambio ogni 10anni volevo prendere qualcosa di valido e non fermarmi solo al 1920x1080 60hz

fraussantin
06-03-2016, 16:58
mi interessava il G-SYNC.

bhe visto che io il monitor lo cambio ogni 10anni volevo prendere qualcosa di valido e non fermarmi solo al 1920x1080 60hz
Secondo me è il momento peggiore per cambiare monitor.

Il 1080p è alla frutta , ma le vga" economiche" ancora non reggono risoluzioni maggiori.

Il futuro è a 4k che entro 3,4 anni diventerà lo standard o cmq quello che oggi è il 1080p .

Il gsync non si sa se andrà avanti o meno per via del nuovo standard unico . ( imho rimane )


Se il monitor ce l'hai tienilo , se non ce l'hai spendici il giusto per quello che vuoi e puoi fare nei prossimi 2,3 anni.

ferro10
06-03-2016, 22:44
Secondo me è il momento peggiore per cambiare monitor.

Il 1080p è alla frutta , ma le vga" economiche" ancora non reggono risoluzioni maggiori.

Il futuro è a 4k che entro 3,4 anni diventerà lo standard o cmq quello che oggi è il 1080p .

Il gsync non si sa se andrà avanti o meno per via del nuovo standard unico . ( imho rimane )


Se il monitor ce l'hai tienilo , se non ce l'hai spendici il giusto per quello che vuoi e puoi fare nei prossimi 2,3 anni.

il monitor ce lo però è un vecchio lg 1680x1050 60hz e mi piacerebbe cambiare con qualcosa full hd 144mhz

Dono89
07-03-2016, 07:38
Second me, 144hz a 1080p non ha molto senso, farei più 1440p a 60hz

aled1974
07-03-2016, 08:19
un bel dubbio non c'è che dire, ma non sui 144hz almeno per me

se vuoi risparmiare al massimo in attesa delle prossime schede video e quindi nella speranza di vedere nuovi monitor più interessanti, o più economici, di questi allora IMHO vai di 1920x1080 a 60hz (è stata la mia scelta, dettata però anche dalla necessità: mi era morto il precedente monitor)

se invece vuoi sfruttare la 970 allora evita il 1440p, dovresti scendere a compromessi ed evita anche i 144hz per lo stesso motivo, difficilmente li raggiungeresti, ma se al contempo vuoi qualcosa di più dei 60hz allora prendi un monitor g-sync, la spesa però è superiore come sai già

se invece vuoi comprare il monitor da usare per i prossimi 10 anni (facciamo 5) allora senza ombra di dubbio vai di 1440p ma su diagonale da almeno 27", per l'aspect a scelta tua se 16:9 o il più coinvolgente 21:9 (34"), scelta tua se lo vuoi piatto o curvo. In ogni caso io direi Ips con g-sync se pensi di rimamere sulle verdi, con freesync se sai già per certo che passerai a polaris

ciao ciao

fraussantin
07-03-2016, 08:28
un bel dubbio non c'è che dire, ma non sui 144hz almeno per me

se vuoi risparmiare al massimo in attesa delle prossime schede video e quindi nella speranza di vedere nuovi monitor più interessanti, o più economici, di questi allora IMHO vai di 1920x1080 a 60hz (è stata la mia scelta, dettata però anche dalla necessità: mi era morto il precedente monitor)

se invece vuoi sfruttare la 970 allora evita il 1440p, dovresti scendere a compromessi ed evita anche i 144hz per lo stesso motivo, difficilmente li raggiungeresti, ma se al contempo vuoi qualcosa di più dei 60hz allora prendi un monitor g-sync, la spesa però è superiore come sai già

se invece vuoi comprare il monitor da usare per i prossimi 10 anni (facciamo 5) allora senza ombra di dubbio vai di 1440p ma su diagonale da almeno 27", per l'aspect a scelta tua se 16:9 o il più coinvolgente 21:9 (34"), scelta tua se lo vuoi piatto o curvo. In ogni caso io direi Ips con g-sync se pensi di rimamere sulle verdi, con freesync se sai già per certo che passerai a polaris

ciao ciao

concordo su tutto , in particolare sul fatto del 1080p a 60hz. Per la 970.


Per comprare il monitor per il futuro , io non azzarderei.

Se polaris è buona i gsync caleranno di prezzo . Ma potrebbe pure decidere di passare alle rosse , se invece polaris floppa almeno è sicuro di quel che deve fare.




Ps poi il un 16\10 1050p non lo cambierei mai con un 1080p.

ferro10
07-03-2016, 08:38
un bel dubbio non c'è che dire, ma non sui 144hz almeno per me

se vuoi risparmiare al massimo in attesa delle prossime schede video e quindi nella speranza di vedere nuovi monitor più interessanti, o più economici, di questi allora IMHO vai di 1920x1080 a 60hz (è stata la mia scelta, dettata però anche dalla necessità: mi era morto il precedente monitor)

se invece vuoi sfruttare la 970 allora evita il 1440p, dovresti scendere a compromessi ed evita anche i 144hz per lo stesso motivo, difficilmente li raggiungeresti, ma se al contempo vuoi qualcosa di più dei 60hz allora prendi un monitor g-sync, la spesa però è superiore come sai già

se invece vuoi comprare il monitor da usare per i prossimi 10 anni (facciamo 5) allora senza ombra di dubbio vai di 1440p ma su diagonale da almeno 27", per l'aspect a scelta tua se 16:9 o il più coinvolgente 21:9 (34"), scelta tua se lo vuoi piatto o curvo. In ogni caso io direi Ips con g-sync se pensi di rimamere sulle verdi, con freesync se sai già per certo che passerai a polaris

ciao ciao

ok grazie per i consiglio.

i 144hz mi piacciono per il multiplayer tipo BF3-BF4 dove giocando tutto su low li faccio di sicuro.

un ultima domanda
se io setto il monitor a 144hz e poi per esempio in crysis 3 tutto ultra faccio 50fps l'unica cosa è che non sfrutto a pieno il mio monitor? oppure la fluidità risulta peggiore rispetto ad usare un 60hz?

illidan2000
07-03-2016, 09:00
ok grazie per i consiglio.

i 144hz mi piacciono per il multiplayer tipo BF3-BF4 dove giocando tutto su low li faccio di sicuro.

un ultima domanda
se io setto il monitor a 144hz e poi per esempio in crysis 3 tutto ultra faccio 50fps l'unica cosa è che non sfrutto a pieno il mio monitor? oppure la fluidità risulta peggiore rispetto ad usare un 60hz?

per i 144hz, anche il processore deve fare la tua parte. E nel tuo caso, ti frenerebbe un po' secondo me.
No, peggiore no. Solo che non lo sfrutti, ma mai mai...

ferro10
07-03-2016, 09:15
per i 144hz, anche il processore deve fare la tua parte. E nel tuo caso, ti frenerebbe un po' secondo me.
No, peggiore no. Solo che non lo sfrutti, ma mai mai...

ok
per il discorso cpu non è un problema anche perché pensavo di cambiare tutto con broadwell-e.

PS: il g-sync funziona bene anche con fps bassi tipo 50-40?

29Leonardo
07-03-2016, 09:32
Dipende dal monitor, teoricamente gsync lavora da 40hz-144hz, quindi al di sotto o al di sopra di questo range si disattiva.

illidan2000
07-03-2016, 09:33
ok
per il discorso cpu non è un problema anche perché pensavo di cambiare tutto con broadwell-e.

PS: il g-sync funziona bene anche con fps bassi tipo 50-40?

si, ma non ne vale la pena di stare a 40 fps, comunque, è moscio. Hai solo il vantaggio di non avere mai tearing

jolly74
07-03-2016, 10:37
no sono 4 euro al giorno(con una sola scheda eh) e si ti dico quanto facevo in passato quando il mining era più di moda, nel 2013 dico, c'è da sbellicarsi :asd: soldi facili proprio

in realtà adesso se mi impegno con qualche moneta appena uscita potrei fare di più, ma c'è da seguire la sezione di bitcointalk sulle altcoin

Dai ma è impossibile che tu riesca ad elaborare tanti GH/S da poter guadagnare 4 € puliti al giorno (hai già tolto le spese della luce? ), a meno che tu non abbia integrato al tuo pc un miner usb che ne aumenti notevolmente la capacità di calcolo.

29Leonardo
07-03-2016, 10:42
si, ma non ne vale la pena di stare a 40 fps, comunque, è moscio. Hai solo il vantaggio di non avere mai tearing

Non è cosi, il gsync serve anche a restituirti una sensazione di fluidità a framerate bassi. (se non proprio che è la cosa piu fondamentale del gsync) Altrimenti manco lo avrebbero inventato...ce ne stavamo tutti con il vsync+tb con i monitor a 60hz.

illidan2000
07-03-2016, 11:04
Non è cosi, il gsync serve anche a restituirti una sensazione di fluidità a framerate bassi. (se non proprio che è la cosa piu fondamentale del gsync) Altrimenti manco lo avrebbero inventato...ce ne stavamo tutti con il vsync+tb con i monitor a 60hz.
guarda che ce l'ho eh!!! A me giocare a 40fps non piace, è una questione soggettiva

29Leonardo
07-03-2016, 12:33
guarda che ce l'ho eh!!! A me giocare a 40fps non piace, è una questione soggettiva

Quindi stai dicendo che giocare a 40fps con il vsync+tb è perfettamente uguale a giocare con il gsync a 40fps?

(THE REAL) Neo
07-03-2016, 12:36
Non è cosi, il gsync serve anche a restituirti una sensazione di fluidità a framerate bassi. (se non proprio che è la cosa piu fondamentale del gsync) Altrimenti manco lo avrebbero inventato...ce ne stavamo tutti con il vsync+tb con i monitor a 60hz.
Non credo ci riesca,se scendi troppo di fps.
Se la tua gpu fà 40 fps,e il gsync adegua il refresh a quei frame,col cavolo che và fluido il gioco.

E se interpola altri frame,per darti 60 o piú fps fittizi, si creerà un input lag da farti bestemmiare in aramaico antico.

Inviato dal mio Nexus 5X utilizzando Tapatalk

fraussantin
07-03-2016, 12:40
Quindi stai dicendo che giocare a 40fps con il vsync+tb è perfettamente uguale a giocare con il gsync a 40fps?

spero che almeno il mouse nutelloso non ci sia.


da quello hce ho capito io col gsync a 40 fps è come giocare a 40 fps senza vsinc attivo , ma senza il tearing

illidan2000
07-03-2016, 13:19
Quindi stai dicendo che giocare a 40fps con il vsync+tb è perfettamente uguale a giocare con il gsync a 40fps?

spero che almeno il mouse nutelloso non ci sia.


da quello hce ho capito io col gsync a 40 fps è come giocare a 40 fps senza vsinc attivo , ma senza il tearing

più o meno sì. magari guadagni un paio di fps di lag per via che non hai il triple buffering, ma di certo non è che sia fluido fluido. Di giocare si gioca uguale. Ma d'altronde, se uno si accontenta, gode. Come se bevi una coca cola del discount, invece dell'originale

Amph
07-03-2016, 13:59
Dai ma è impossibile che tu riesca ad elaborare tanti GH/S da poter guadagnare 4 € puliti al giorno (hai già tolto le spese della luce? ), a meno che tu non abbia integrato al tuo pc un miner usb che ne aumenti notevolmente la capacità di calcolo.

non è bitcoin mining ma altcoin, non servono gli asic, è questo il bello

si fanno 150 euro per scheda al mese, ora come ora, con un consumo di soli 150w che vengono 30 euro al mese calcolando 0.25 per kw/h che è lo scaglione più alto qui da me

X-ray guru
07-03-2016, 15:40
Scusate, qualcuno mi sa dare un link o una breve risposta su cosa fa di preciso l'opzione V-Sync attivo (uniforme) che appare nei driver quando hai lo SLI attivato?
La breve spiegazione che c'è nel pannello di controllo dei driver non mi illumina per nulla. :D

Grazie.

X-ray guru
07-03-2016, 15:50
non è bitcoin mining ma altcoin, non servono gli asic, è questo il bello



Dacci dentro finché puoi, visto che se il meccanismo è simile a quello di bitcoin, quando il numero di "coin" che ci sono in giro supera un certo livello, si passa ad un ordine di grandezza superiore della complessità dell'algoritmo di criptaggio, rendendo poco o per nulla conveniente fare mining.

Amph
07-03-2016, 16:10
già, ma dipende più dal valore della moneta e adesso è alto quindi profittevole, ci metto poco a spegnere tutto se non lo diventa più.... comunque si può spegnere il led blu della g1?

29Leonardo
07-03-2016, 16:23
già, ma dipende più dal valore della moneta e adesso è alto quindi profittevole, ci metto poco a spegnere tutto se non lo diventa più.... comunque si può spegnere il led blu della g1?

Si, ma a patto che tieni su installato il geforce experience che serve per gestire il led e altre cose. Altrimenti non saprei se c'è un modo senza togliere il dissipatore di staccare il connettore del led sulla scheda.

Amph
07-03-2016, 18:55
Si, ma a patto che tieni su installato il geforce experience che serve per gestire il led e altre cose. Altrimenti non saprei se c'è un modo senza togliere il dissipatore di staccare il connettore del led sulla scheda.

ecco vorrei evitare di installare roba, speravo si vedesse il cavetto da qualche parte per scollegarlo(l'ho montata subito senza guardare, non mi aspettavo quel led)

DrossBelly
07-03-2016, 18:57
Strano, come nella Msi 4g non c'è il software proprietario che te la fa spegnere?

fraussantin
07-03-2016, 19:30
ecco vorrei evitare di installare roba, speravo si vedesse il cavetto da qualche parte per scollegarlo(l'ho montata subito senza guardare, non mi aspettavo quel led)
Il gf experience fa parte del driver , e non è pesante .


Poi che non serva ad un tubo.... È un altro discorso.

29Leonardo
07-03-2016, 21:05
Il gf experience fa parte del driver , e non è pesante .


Poi che non serva ad un tubo.... È un altro discorso.

Il problema piu che altro è shadowplay che interferisce con injector e altri programmi che leggono ciò che avviene a schermo, di conseguenza va disattivato.

Inoltre quando attivo per il fatto che registra 20 minuti di video fa troppe scritture su disco.

Lucieno
07-03-2016, 21:46
ragazzi, io non ho ancora installato gli ultimi driver usciti oggi. qualcuno di voi l'ha fatto? ho letto di parecchi utenti che si lamentano online. di che si tratta?:confused:

(THE REAL) Neo
07-03-2016, 21:49
ragazzi, io non ho ancora installato gli ultimi driver usciti oggi. qualcuno di voi l'ha fatto? ho letto di parecchi utenti che si lamentano online. di che si tratta?:confused:
Io ho saltato le ultime 3 release, proprio a causa di problemi che affliggono i drivers.
Gente che non riesce piú ad avviare Windows 10,gente che gli si spegne lo schermo e non si riaccende piú.
In pratica,nVidia stà sputtanando Maxwell, perché gli ingegneri sono tutti al lavoro su Pascal...

Inviato dal mio Nexus 5X utilizzando Tapatalk

Amph
07-03-2016, 21:50
https://www.reddit.com/r/nvidia/comments/49dghk/some_users_may_be_experiencing_issues_w_game/

fraussantin
07-03-2016, 22:15
ragazzi, io non ho ancora installato gli ultimi driver usciti oggi. qualcuno di voi l'ha fatto? ho letto di parecchi utenti che si lamentano online. di che si tratta?:confused:

su alcune configurazioni , da un black screen solito ( credo quando sostituisce il driver) e freezza. al riavvio si deve ripristinare il punto precedente.

illidan2000
07-03-2016, 22:29
Io ho saltato le ultime 3 release, proprio a causa di problemi che affliggono i drivers.
Gente che non riesce piú ad avviare Windows 10,gente che gli si spegne lo schermo e non si riaccende piú.
In pratica,nVidia stà sputtanando Maxwell, perché gli ingegneri sono tutti al lavoro su Pascal...

Inviato dal mio Nexus 5X utilizzando Tapatalk

pure la release di oggi?

fraussantin
07-03-2016, 22:53
pure la release di oggi?
Quella di oggi è la peggiore , ma quella del primo marzo va bene.

Io l'ho usata su seven senza problemi . Stasera ho messo 10 sul pc nuovo e aggiornato sempre a quella del 1/3( visti i guai di quella di oggi) e nessun problema.

Cmq imho piu che boicottare Maxwell mi pare che stiano cercando di spingerlo al massimo sulle dx 12 per cercare di recuperare il gap con amd.

E fanno uscire relese premature nella speranza di fare figure di cacca minori con i recensori.


Poi che senso ha boicottare Maxwell ora che pascal non c'è? Per farci comprare amd?

(THE REAL) Neo
08-03-2016, 06:29
Quella di oggi è la peggiore , ma quella del primo marzo va bene.

Io l'ho usata su seven senza problemi . Stasera ho messo 10 sul pc nuovo e aggiornato sempre a quella del 1/3( visti i guai di quella di oggi) e nessun problema.

Cmq imho piu che boicottare Maxwell mi pare che stiano cercando di spingerlo al massimo sulle dx 12 per cercare di recuperare il gap con amd.

E fanno uscire relese premature nella speranza di fare figure di cacca minori con i recensori.


Poi che senso ha boicottare Maxwell ora che pascal non c'è? Per farci comprare amd?
Imho non stanno boicottando Maxwell, semplicemente hanno spostato la maggior parte degli ingegneri,a sviluppare e testare drivers per Pascal,in vista del rilascio delle prime gpu piú avanti.

Togliere ingegneri allo sviluppo dei drivers attuali,può creare situazioni come questa.



Inviato dal mio Nexus 5X utilizzando Tapatalk

KampMatthew
08-03-2016, 07:17
E prendessero altri ingegneri, perchè la cosa non è affatto giustificabile. Le ultime 3-4 release di driver sono una porcheria.

Ubro92
08-03-2016, 07:18
Io se devo essere onesto con gli ultimi 364.47 ho trovato la pace, con i precedenti 362.00 avevo problemi di crash dei driver in idle e anche in game notavo cali di framerate, infatti stavo usando i 361.91, ma con questa release sembra essere tornato tutto in regola.

Comunque raga, dato l'avvicinamento di molto titoli che sfruttano le nuove api credo che stiano facendo parecchi esperimenti con i nuovi driver per sfruttare le nuove librerie, cio spiegherebbe anche il perchè con OS inferiori a W10 la stabilità è migliore, o almeno da quello che ho potuto constatare personalmente.

Dono89
08-03-2016, 07:35
Che tutti si stiano spostando su Pascal non mi torna minimamente, non avrebbe senso ripetere quanto fatto con Maxwell e penalizzare troppo le "vecchie" gpu.
Credo che come ogni release non è possibile testarla su TUTTE le configurazioni esistenti, quindi (non giustifica) ma potrebbe presentarsi una situazione simile.

Personalmente problemi gravi non li ho mai riscontrati, stasera installo anche quest'ultima release e vediamo (configurazione in firma)


EDIT:driver rimossi dal sito nvidia???

illidan2000
08-03-2016, 08:58
EDIT:driver rimossi dal sito nvidia???

io li vedo

fraussantin
08-03-2016, 09:21
io li vedo
Li hanno tolti dal consigliati e si trova o in archivio per chi li vuole.

Immagino che non arrivino neanche in automatico.

illidan2000
08-03-2016, 09:59
Li hanno tolti dal consigliati e si trova o in archivio per chi li vuole.

Immagino che non arrivino neanche in automatico.

io cerco (e ho sempre fatto così) solo in quelli archiviati, ecco :D

http://www.nvidia.it/Download/Find.aspx?lang=it

Lucieno
08-03-2016, 11:22
ho visto su un gruppo facebok lo screen di un utente che provava con una 780ti le ultime 4 release di driver con heaven e aveva un calo di una 20 di punti a ogni release. come cosa sembra pressocchè ridicola! :mbe:

alex oceano
08-03-2016, 11:54
conviene mantenere i vecchi driver io sono con gli 353,82 liscio fluido 0 problemi, con i nuovi blocchi fissi

Amph
08-03-2016, 12:51
io tutto liscio con i penultimi 361.91, questi non ho provato

sono comunque su windows 7

fraussantin
08-03-2016, 14:22
sto giocando a evil within , e benché faccia 60 fps fissi , la fluidità sembra a 30 . c'è qualche trucco , o il gioco è fatto a caiser?

Dono89
08-03-2016, 14:58
io li vedo

tolti per metterne di nuovi, beta

http://www.nvidia.it/download/driverResults.aspx/99652/it

estinto
08-03-2016, 20:20
Salve un piccolo aiuto/informazione, ho montato una nuova Gtx980 Asus Strix e ho notato che scalda molto più della mia precedente Gigabyte a tre ventoline, visto la possibilità di settare una curva personalizzata delle 2 ventole sulla Asus e rifacendomi dai valori di default è possibile che a 60° sia impostato solo il 50% della velocità ( ok che a manetta fanno un casinoooo) ?
Posso dormire tranquillo lasciando le impostazioni base o vado a toccare le curve?
Grazie.

By

amon.akira
08-03-2016, 21:27
sto giocando a evil within , e benché faccia 60 fps fissi , la fluidità sembra a 30 . c'è qualche trucco , o il gioco è fatto a caiser?

disabilita qulasiasi forma di osd o fps counter e vedrai che risolvi, c'è anche un mio post in merito su steam ^^

fraussantin
08-03-2016, 21:43
disabilita qulasiasi forma di osd o fps counter e vedrai che risolvi, c'è anche un mio post in merito su steam ^^
Grazie appena posso provo .

nevione
09-03-2016, 09:00
Buongiorno, vorrei un parere se possibile.
Posseggo una 780 lightning che mi soddisfa perfettamente, a parte la furbata di nvidia di castrare la vecchia gen via driver a favore delle nuove vga, purtuttavia con il mio monitor (27 full hd, 60hz) gioco a bene o male tutto maxato con buoni framerate.
Vedo però che almeno qui in Spagna le 780 si vendono ancora molto bene (sui siti specializzati tra i 250 e 280 euro)
Suppongo quindi di poter vendere la lightning, che era il top delle 780 ad almeno 250/270 euro.
Volevo aspettare Pascal per cambiare, però ho paura che poi la mia 780 varrebbe poco o nulla.
Cambiando ora escluderei amd (avute diverse in passato ma le attuali non mi convincono, la 390 costa poco meno di una 980)
La 980ti mi pare sprecata per il mio monitor e troppo cara, la 970 a parte il bug della ram la vedrei come un upgrade di poco conto rispetto alla mia.
Sarei quindi orientato su una 980 liscia, ho visto in particolare una evga sc in arrivo in uno shop dove mi fornisco per il 28 marzo a 529 euro.
Quindi diciamo che con 250/270 euro farei l'upgrade.
Come lo vedete? Quanto incrementerei percentualmente passando da 780 a 980? E l'evga ero rimasto fosse uno dei migliori brand nvidia, non capisco perchè sia la 980 meno costosa su codesto sito (rispetto a msi, gigabyte ed asus) È una buona scheda?
Grazie.

illidan2000
09-03-2016, 09:10
Buongiorno, vorrei un parere se possibile.
Posseggo una 780 lightning che mi soddisfa perfettamente, a parte la furbata di nvidia di castrare la vecchia gen via driver a favore delle nuove vga, purtuttavia con il mio monitor (27 full hd, 60hz) gioco a bene o male tutto maxato con buoni framerate.
Vedo però che almeno qui in Spagna le 780 si vendono ancora molto bene (sui siti specializzati tra i 250 e 280 euro)
Suppongo quindi di poter vendere la lightning, che era il top delle 780 ad almeno 250/270 euro.
Volevo aspettare Pascal per cambiare, però ho paura che poi la mia 780 varrebbe poco o nulla.
Cambiando ora escluderei amd (avute diverse in passato ma le attuali non mi convincono, la 390 costa poco meno di una 980)
La 980ti mi pare sprecata per il mio monitor e troppo cara, la 970 a parte il bug della ram la vedrei come un upgrade di poco conto rispetto alla mia.
Sarei quindi orientato su una 980 liscia, ho visto in particolare una evga sc in arrivo in uno shop dove mi fornisco per il 28 marzo a 529 euro.
Quindi diciamo che con 250/270 euro farei l'upgrade.
Come lo vedete? Quanto incrementerei percentualmente passando da 780 a 980? E l'evga ero rimasto fosse uno dei migliori brand nvidia, non capisco perchè sia la 980 meno costosa su codesto sito (rispetto a msi, gigabyte ed asus) È una buona scheda?
Grazie.
una gran cazzata...
risparmia i soldi per una 980ti o per le nuove pascal in uscita. Più di 400 euro non puoi spendere per una 980, allo stato attuale. Prendila usata se puoi, ma è come buttare i soldi ora

fraussantin
09-03-2016, 09:21
Buongiorno, vorrei un parere se possibile.
Posseggo una 780 lightning che mi soddisfa perfettamente, a parte la furbata di nvidia di castrare la vecchia gen via driver a favore delle nuove vga, purtuttavia con il mio monitor (27 full hd, 60hz) gioco a bene o male tutto maxato con buoni framerate.
Vedo però che almeno qui in Spagna le 780 si vendono ancora molto bene (sui siti specializzati tra i 250 e 280 euro)
Suppongo quindi di poter vendere la lightning, che era il top delle 780 ad almeno 250/270 euro.
Volevo aspettare Pascal per cambiare, però ho paura che poi la mia 780 varrebbe poco o nulla.
Cambiando ora escluderei amd (avute diverse in passato ma le attuali non mi convincono, la 390 costa poco meno di una 980)
La 980ti mi pare sprecata per il mio monitor e troppo cara, la 970 a parte il bug della ram la vedrei come un upgrade di poco conto rispetto alla mia.
Sarei quindi orientato su una 980 liscia, ho visto in particolare una evga sc in arrivo in uno shop dove mi fornisco per il 28 marzo a 529 euro.
Quindi diciamo che con 250/270 euro farei l'upgrade.
Come lo vedete? Quanto incrementerei percentualmente passando da 780 a 980? E l'evga ero rimasto fosse uno dei migliori brand nvidia, non capisco perchè sia la 980 meno costosa su codesto sito (rispetto a msi, gigabyte ed asus) È una buona scheda?
Grazie.
Se hai paura del crollo di valore della tua puoi prendere una 970 ( il bug è risolto via driver e in 1080p non si è mai presentato). La 980non ha senso di esistere.

Altrimenti aspetta la nuova ...70

Robydriver
09-03-2016, 10:12
Quoto totalmente.
Passare oggi da una 780ti (pur recuperando 250/280 euro) ad una 980 (a530 euro) per giocare in FHD/60Hz è un discreto spreco.Non ne vale la pena.
Sopratutto ha poco senso poichè pur recuperando una bella somma della tua,ne devi tirare fuori altrettanti per la 980.
Che quando uscirà Pascal (se non si rivela un flop),varrà più o meno quel che riesci a prendere oggi della tua.
Quindi,forse,varrebbe la pena più orientarsi su una 970.Con qualche buona offerta ci metteresti poca differenza sulla tua e ci riperderesti poco a rivenderla.Però la differenza in termini prestazionali dalla tua la vedi solo se in quel particolare frangente Nvidia ha "messo mano" (leggi castrato) Kepler in favore di Maxwell.
Oppure,passare momentaneamente ad una 390 "liscia",trovando l'offerta giusta.Anche se rispetto alla tua di differenza ne vedrai poca comunque.
Ma che ora queste operazioni convengano economicamente,mi pare difficile.A meno che la tua 780ti l'avessi pagata poco (su Amazon questa estate se ne trovavano usate a poco più di 300 euro) e allora,recuperando quasi del tutto la spesa per la 780,fai un passo avanti e vedrai all'uscita di Pascal se ne vale la pena ricambiare.Anche se in FHD/60Hz non credo.

nevione
09-03-2016, 10:33
Ok quindi sostanzialmente o rimango così o ci metto 70/80 euro e passo alla 970, poi con Pascal vedremo.
Comunque la mia 780 è liscia, non ti...

KampMatthew
09-03-2016, 13:33
Ok quindi sostanzialmente o rimango così o ci metto 70/80 euro e passo alla 970, poi con Pascal vedremo.
Comunque la mia 780 è liscia, non ti...

La 970 non ha nessun bug, è fatta proprio così. Ha mezzo gb di memoria lenta e 3.5 veloci, ma all'atto pratico non ti accorgi di niente. Se giochi a 1080 sei a posto, io spesso col dsr gioco a 1440 e non ho mai avuto problemi. Chiaramente dipende dai giochi, con alcuni vado a 1080, con alcuni 1440, altri anche di più. Comunque anche se passi i fatidici 3.5 gb e vai a 3.6, 3.7, 3.8, ecc, se stai su un gioco dove la gpu ce la fa, problemi non ne vedi.
Una volta sola pensavo di avere problemi, poi invece mi sono accorto che 8 gb di ram non mi bastano, non ricordo che gioco era, ne ho messi 16 e il problema è sparito.

Comunque se per 70/80 € piazzi la tua e prendi una 970 ti conviene farlo prima di subito, primo perchè la 970 poi la rivendi bene, secondo, perchè la tua vga è penalizzata a livello di sw. I nuovi giochi vanno meglio con le nuove vga, c'è poco da fare, e il comportamento scorretto di nvidia verso la tua generazione di schede, con i driver praticamente morti, di certo non aiuta.

Comunque io qualche dubbio ce l'ho che vendi la tua a quella cifra. Chi è che per risparmiare 70/80 prenderebbe una vga ormai abbandonata al suo destino e non una 970 che è nel pieno del supporto?

Poi vabbè, immagino che la storia si ripeterà a breve con l'uscita delle nuove vga, 970 e 980 saranno presto dimenticate. Se così dovesse essere, io me ne torno di corsa con le rosse con cui sono stato quasi 20 anni di fila e mi son sempre trovato bene e ha sempre garantito una ottima longevità.

alex oceano
09-03-2016, 14:38
La 970 non ha nessun bug, è fatta proprio così. Ha mezzo gb di memoria lenta e 3.5 veloci, ma all'atto pratico non ti accorgi di niente. Se giochi a 1080 sei a posto, io spesso col dsr gioco a 1440 e non ho mai avuto problemi. Chiaramente dipende dai giochi, con alcuni vado a 1080, con alcuni 1440, altri anche di più. Comunque anche se passi i fatidici 3.5 gb e vai a 3.6, 3.7, 3.8, ecc, se stai su un gioco dove la gpu ce la fa, problemi non ne vedi.
Una volta sola pensavo di avere problemi, poi invece mi sono accorto che 8 gb di ram non mi bastano, non ricordo che gioco era, ne ho messi 16 e il problema è sparito.

Comunque se per 70/80 € piazzi la tua e prendi una 970 ti conviene farlo prima di subito, primo perchè la 970 poi la rivendi bene, secondo, perchè la tua vga è penalizzata a livello di sw. I nuovi giochi vanno meglio con le nuove vga, c'è poco da fare, e il comportamento scorretto di nvidia verso la tua generazione di schede, con i driver praticamente morti, di certo non aiuta.

Comunque io qualche dubbio ce l'ho che vendi la tua a quella cifra. Chi è che per risparmiare 70/80 prenderebbe una vga ormai abbandonata al suo destino e non una 970 che è nel pieno del supporto?

Poi vabbè, immagino che la storia si ripeterà a breve con l'uscita delle nuove vga, 970 e 980 saranno presto dimenticate. Se così dovesse essere, io me ne torno di corsa con le rosse con cui sono stato quasi 20 anni di fila e mi son sempre trovato bene e ha sempre garantito una ottima longevità.

ottimo ragionamento
anche io ho fatto 2 upgrade dei pc da gioco e sono passato da (gioco in full hd) :

gtx 760 @ gtx 970 gigabyte g1 gaming
gtx 770 @ gtx 970 msi gaming
e devo dire sono davvero ottime!!

nevione
09-03-2016, 14:41
Francamente mi paiono alti i prezzi delle 780 ma su mercatini e siti specializzati quelli vedo (250/260/280) qui in Spagna.
Considerando che la lightning era una 780 con tutta una serie di chicche e costava 150 euro in più delle 780 liscie direi che almeno a 250 dovrei venderla imho...
Per la 970 preferenza per qualche brand? Mi ispirava la MSI biventola visto anche che mi sono trovato bene con la lightning...

aled1974
09-03-2016, 17:17
La 970 non ha nessun bug, è fatta proprio così. Ha mezzo gb di memoria lenta e 3.5 veloci, ma all'atto pratico non ti accorgi di niente.

:mano: :D

ciao ciao

Arrow0309
09-03-2016, 18:25
Salve un piccolo aiuto/informazione, ho montato una nuova Gtx980 Asus Strix e ho notato che scalda molto più della mia precedente Gigabyte a tre ventoline, visto la possibilità di settare una curva personalizzata delle 2 ventole sulla Asus e rifacendomi dai valori di default è possibile che a 60° sia impostato solo il 50% della velocità ( ok che a manetta fanno un casinoooo) ?
Posso dormire tranquillo lasciando le impostazioni base o vado a toccare le curve?
Grazie.

By
Se non fai oc non hai alcun motivo di preoccuparti.
Altrimenti una curva personalizzata io la farei, diciamo per pareggiare alle temp che avevi prima con la Gigabyte.
E ti ricordi anche il discorso di cambiare la pasta termica? :cool:
Btw:
Come mai l'ai cambiata?
Perché non si trovavano i wb full cover? :)

estinto
09-03-2016, 19:00
Se non fai oc non hai alcun motivo di preoccuparti.
Altrimenti una curva personalizzata io la farei, diciamo per pareggiare alle temp che avevi prima con la Gigabyte.
E ti ricordi anche il discorso di cambiare la pasta termica? :cool:
Btw:
Come mai l'ai cambiata?
Perché non si trovavano i wb full cover? :)

Ebbene si!:D
Ora posso programmare un progetto futuro a " Bagno Maria".
Da fare assolutamente perché se le ventole vanno al massimo...miii che casino, dieci volte meglio la Gigabyte con le tre ventoline prima a livello di rumore e temp.
Poi non parliamo che i programmi che mettono per personalizzare la curva fa pena, 3 punti su tutto il grafico, tre...ma che caxx.....:muro:
No no niente Oc, anche perché lo è già di suo nativamente.

By

aled1974
09-03-2016, 19:05
usa msi afterbuner ;)

ciao ciao

estinto
09-03-2016, 20:33
usa msi afterbuner ;)

ciao ciao

Con la Asus Strix, se può fare?
By

Arrow0309
09-03-2016, 20:41
Con la Asus Strix, se può fare?
By

Ogni brand oggi ha una sua utility per sia l'oc che fan control
Di sto passo perché non con la sua Asus Gpu Tweak?

http://techreport.com/r.x/970-cards/gpu-tweak-fan.jpg

estinto
09-03-2016, 21:12
Se se proprio quella sto usando, solo tre punti modificabili....ed ogni volta che avvio il pc debbo ricordarmi di cliccare la "Mia configurazione": assolutamente una PALLA colossale.:rolleyes:

By

aled1974
09-03-2016, 21:14
Con la Asus Strix, se può fare?
By

sì, è quello che viene usato un po' da tutti, anche con le amd ;)

ciao ciao

estinto
10-03-2016, 10:49
Installato Msi Afterburner , decisamente un altra cosa: Grazie mille.!!!;)
Via nel cestino Asus Tweak!!:Prrr:

By

Arrow0309
10-03-2016, 11:15
Quanto l'hai pagata la 980 Strix?
Io pure mi sto orientando per prendere una seconda 980 per lo Sli ma vorrò a tutti i costi una Gigabyte G1, se ad un buon prezzo tanto meglio. :cool:
Mah, vediamo. :fagiano:
Penso di trovarla sempre sulla baia inglese, attualmente li trovi sui 350-375 sterline, non nuove ovv.

29Leonardo
10-03-2016, 12:04
Raga ma nvidia inspector non funziona su driver successivi alla relase 343xx? Guardando il changelog dell'ultimo update di inspector vedo che è fermo a quella versione, si spiegherebbe perchè non sia mai riuscito a far funzionare certe tecniche di antialiasing.

Poi non saprei se dipende anche dai giochi, vedo che quelli basati sull'U3 sono delle rotture di balle da configurare bene specie per l'antialiasing, inoltre non so se è capitato anche a voi ma senza smanettare negli ini non ce nè uno che non faccia stuttering (e lo avevo pure con amd senza smanettare nei singoli giochi U3 based)

estinto
10-03-2016, 13:19
Quanto l'hai pagata la 980 Strix?
Io pure mi sto orientando per prendere una seconda 980 per lo Sli ma vorrò a tutti i costi una Gigabyte G1, se ad un buon prezzo tanto meglio. :cool:
Mah, vediamo. :fagiano:
Penso di trovarla sempre sulla baia inglese, attualmente li trovi sui 350-375 sterline, non nuove ovv.

Su amazon l'ho presa 530€ e ti regalavano uno da Invidia e l'altro da Asus due giochi: The Division e Far Cry Primal, nel mio caso m'interessava entrambi, quindi è come se gli ho scalati , restando molto al disotto del preventivo originale per esser nuova.;)

By

illidan2000
10-03-2016, 15:20
Quanto l'hai pagata la 980 Strix?
Io pure mi sto orientando per prendere una seconda 980 per lo Sli ma vorrò a tutti i costi una Gigabyte G1, se ad un buon prezzo tanto meglio. :cool:
Mah, vediamo. :fagiano:
Penso di trovarla sempre sulla baia inglese, attualmente li trovi sui 350-375 sterline, non nuove ovv.

mah, ha poco senso secondo me. Sì, vai più forte della 980TI, ma spendi molto di più. E poi, in quei giochi dove lo SLI non va (Just cause 3, Rage, il futuro Doom4, Wolfenstein, ecc...), oppure dove ha poca resa (e la TI sta sopra), ci rimani malissimo.
Meglio vendere la tua per una 980TI! Se proprio non vuoi aspettare le nuove

Spider-Mans
10-03-2016, 15:58
mah, ha poco senso secondo me. Sì, vai più forte della 980TI, ma spendi molto di più. E poi, in quei giochi dove lo SLI non va (Just cause 3, Rage, il futuro Doom4, Wolfenstein, ecc...), oppure dove ha poca resa (e la TI sta sopra), ci rimani malissimo.
Meglio vendere la tua per una 980TI! Se proprio non vuoi aspettare le nuove

quoto
io venderei la 980 e comprerei una 980ti oppure aspetta pascal (1080)
lo sli se non hai una risoluzione assurda da gestire..lo eviterei se posso ottenere prestazioni simili comprando una top di gamma..visto che non tutti i giochi lo supportano..vedi i titoli id/bethesda-...poi lo sli crea problemi di temperature piu alte nel pc...

Arrow0309
10-03-2016, 17:13
Non ho problemi di temp con un impianto di due rad (360 monsta e 280 XT45) entrambi in P/P e due pompe D5.
Ma cmq mi sa che avete ragione, ci gioco a 1440p a 60hz e qui una 980Ti (meglio se Giga così ho anche un bios mod pronto sul ocn) se la dovrebbe cavare niente male.
Avrei voluto vedere un bel SLI dentro al mio Enthoo Primo ma il gioco non vale la candela. :fagiano:

randymoss
10-03-2016, 18:12
ciao a tutti. Vorrei un consiglio da voi per quanto riguarda l'attendibilità di video memory stress:
Test 16bpp RGB:565 in corso...OK
TEST FALLITO (Codice: 8876017C)
Test 16bpp RGB:555 in corso...OK
TEST FALLITO (Codice: 8876017C)
Test 16bpp BGR:565 in corso...NON SUPPORTATO (Codice: 80004001)
Test 32bpp RGB:888 in corso...OK
TEST FALLITO (Codice: 8876017C)
Test 32bpp BGR:888 in corso...NON SUPPORTATO (Codice: 80004001)
TEST NON COMPLETATO

La mia vga è una geforce gigabyte gtx 970 gaming acquistata ad agosto scorso. Non ho avuto nessun problema con la vga con i giochi e vari benchmarks ( 3s mark e heaven benchmark). Ho provato a fare questo test , invece ed ecco il risultato...

Spider-Mans
10-03-2016, 18:23
Non ho problemi di temp con un impianto di due rad (360 monsta e 280 XT45) entrambi in P/P e due pompe D5.
Ma cmq mi sa che avete ragione, ci gioco a 1440p a 60hz e qui una 980Ti (meglio se Giga così ho anche un bios mod pronto sul ocn) se la dovrebbe cavare niente male.
Avrei voluto vedere un bel SLI dentro al mio Enthoo Primo ma il gioco non vale la candela. :fagiano: ma sopratutto per i tanti giochi che lo sli non lo supportano ... con una singola 980ti hai il boost ovunque
con due 980 solo sui game "sli ready"

nicola1283
10-03-2016, 21:48
Finalmente dopo tanto tempo il dsr funziona anche in sli ERA ORA

Arrow0309
11-03-2016, 13:02
ma sopratutto per i tanti giochi che lo sli non lo supportano ... con una singola 980ti hai il boost ovunque
con due 980 solo sui game "sli ready"

Arrivata pure la backplate EK per la 980, domani mi metto a fa un po di aggiornamenti al liq. e hw (mobo e cpu) :cool:

Mi sa che rimando con la gpu,
Almeno fin'a Pasqua(l) :asd:

nevione
11-03-2016, 16:12
Comunque io non capisco una cosa.
Ok potendo, meglio aspettare Pascal.
Ok che per il full hd cambiando adesso la 970 pare la scelta più saggia (se vendo la 780 mi sono deciso per la 970 MSI, se no aspetto Pascal)
Ma perché tutti dite che la 980 è assurda e la 980ti uber?
La 980ti va leggermente di più della 980 e costa circa 180 euro in più, almeno qui in Spagna.
Mi sono perso qualcosa?

29Leonardo
11-03-2016, 16:28
Comunque io non capisco una cosa.
Ok potendo, meglio aspettare Pascal.
Ok che per il full hd cambiando adesso la 970 pare la scelta più saggia (se vendo la 780 mi sono deciso per la 970 MSI, se no aspetto Pascal)
Ma perché tutti dite che la 980 è assurda e la 980ti uber?
La 980ti va leggermente di più della 980 e costa circa 180 euro in più, almeno qui in Spagna.
Mi sono perso qualcosa?

No è che ognuno dice la sua, per me nessuna scheda vale la pena di superare certe cifre (cifra che paragono al costo di una consolle).

Ad esempio tra la 970 e la 980ti c'è un gap prestazionale del 20% a favore della 980ti ma quest'ultima costa il 100% in piu.

Poi logico che se non hai problemi di budget e magari manco ti interessa la filosofia della spesa intelligente te ne sbatti a prescindere da tutto e ti compri quello che ti pare.

29Leonardo
11-03-2016, 16:41
che la 980ti non brilli per convenienza siamo d'accordo, ma tra una 980ti ed una 970 se prendiamo versioni mediamente cloccate per entrambe, si va da un 25% di differenza a salire se si sale di risoluzione e se si incappa in giochini che saturano 4gb di ram ed oltre... insomma la differenza prestazionale c'è ed è pesante... se poi vale il doppio della cifra questo possiamo discuterne quanto vogliamo.

L'oc non l'ho messo in conto perchè non è garantito il risultato, alcune schede sono piu fortunate/sfigate di altre, per il resto mi sono basato sui risultati in 1080p che è la risoluzione usata per il 90% delle persone.

illidan2000
11-03-2016, 16:53
No è che ognuno dice la sua, per me nessuna scheda vale la pena di superare certe cifre (cifra che paragono al costo di una consolle).

Ad esempio tra la 970 e la 980ti c'è un gap prestazionale del 20% a favore della 980ti ma quest'ultima costa il 100% in piu.

Poi logico che se non hai problemi di budget e magari manco ti interessa la filosofia della spesa intelligente te ne sbatti a prescindere da tutto e ti compri quello che ti pare.

dalla 970 alla 980ti c'è un abisso. almeno 50% in più

Arrow0309
11-03-2016, 17:20
Comunque io non capisco una cosa.
Ok potendo, meglio aspettare Pascal.
Ok che per il full hd cambiando adesso la 970 pare la scelta più saggia (se vendo la 780 mi sono deciso per la 970 MSI, se no aspetto Pascal)
Ma perché tutti dite che la 980 è assurda e la 980ti uber?
La 980ti va leggermente di più della 980 e costa circa 180 euro in più, almeno qui in Spagna.
Mi sono perso qualcosa?

No, non ti sei perso niente. :)
È che siamo (rimasti) veramente pochi possessori della 980 (attivi) su sto 3d ufficiale.
E che vuoi che ti consigli la stramagioranza di 970 users?
Esatto, la 970. :asd:
Ma io ti dico, la 980ti costa un rene, lasciala stare, è indegna come prezzo.
Però se puoi trovati e prenditi una bella 980 (meglio se Giga G1) ad un buon prezzo (anche sulla baia italiana, spagnola, inglese, dove la trovi) anche usata.
E poi hai voglia di giocare in 1080p aspettando sia il dx12 che il pascal. ;)

dalla 970 alla 980ti c'è un abisso. almeno 50% in più

Si, non può essere.
Penso che si sia sbagliato ed intendeva (almeno all'inizio) il divario tra sia la 970-980 oppure tra le 980-980ti. :O

Dono89
11-03-2016, 18:37
Non è cosa consiglia chi ha una 970 ma chi guarda al portafoglio considerando le prestazioni.
Se uno deve andare di 980 (c'è più gap tra 970-980 che 980-980ti).
Se hai soldi da spendere (tanti) vai di 980ti.
Se paragoni spesa/resa vai di 970 (che cmq sta sopra le 300€...) il discorso è molto semplice

Spider-Mans
11-03-2016, 18:38
mi ero dimenticato ma l'altro ieri mi è arrivata la 970 ssc comprata da amazon

http://media.memoryexpress.com/Assets/Products/MX55557/evga_gtx_970_ssc_000.jpg

pagata 333 euro...
in piu registrandola sul sito evga mi ha attivato lo sconto del 30% sugli alimentatori evga ed ho preso il G2 850 da 160 euro a 111 euro piu spese spedizione

ora posso attendere pascal in "tranquillita" xD visto che avevo necessita di una scheda grafica per il pc nuovo che sto assemblando

Arrow0309
11-03-2016, 18:48
mi ero dimenticato ma l'altro ieri mi è arrivata la 970 ssc comprata da amazon

http://media.memoryexpress.com/Assets/Products/MX55557/evga_gtx_970_ssc_000.jpg

pagata 333 euro...
in piu registrandola sul sito evga mi ha attivato lo sconto del 30% sugli alimentatori evga ed ho preso il G2 850 da 160 euro a 111 euro piu spese spedizione

ora posso attendere pascal in "tranquillita" xD visto che avevo necessita di una scheda grafica per il pc nuovo che sto assemblando
Bei acquisti, complimenti :cincin:

Amph
11-03-2016, 20:13
io intanto ho preso altre due g1 gaming :D

davvero delle belle bimbe

Arrow0309
11-03-2016, 20:28
io intanto ho preso altre due g1 gaming :D

davvero delle belle bimbe

Che fai, un bel 3-way Sli? :D

Spider-Mans
12-03-2016, 10:33
Bei acquisti, complimenti :cincin:

grazie :stordita: anche se penso che la conservero nel mio case per pochi mesi...in attesa di pascal

Dinofly
12-03-2016, 22:54
Incredibile che io pagai l'anno scorso 310 euro una palit jetstream gtx970...
Oggi mi costerebbe il 20% in più...