PDA

View Full Version : [THREAD UFFICIALE - GK104] Geforce GTX770/760/690/680/670/660Ti


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 [88] 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133

NOOB4EVER
03-01-2013, 19:25
:eek: :eek: :eek:

:asd:

ps. Auguri a Tutti Ragazzi :D

:asd: auguri Tony

slide1965
03-01-2013, 19:31
lascialo a default cambia solo

http://i.imgur.com/N1HpL.png
ok,alimentazione su prestazione massime presumo,giusto?

Messi89
03-01-2013, 19:51
ok,alimentazione su prestazione massime presumo,giusto?

su adattivo .......



Opzione disponibile dalla serie GeForce 9 in poi , è una caratteristica che fa uso delle tecnologie atte a sostenere livelli di carico diversi a seconda dell'applicazione 3D in esecuzione. Le opzioni disponibili sono "adattivo" e "Preferisci prestazioni massime". Adattivo è impostato di default il default, e quando è selezionato la scheda grafica , automaticamente seleziona le frequenze per applicazioni 3D "pesanti" , mentre invece quando non è necessaria molta potenza grafica il clock scende in "idle" (riposo). Adattivo è l'impostazione consigliata per tutti gli utenti, perché assicura che le operazioni GPU si basino sul carico di lavoro rilevato, abbassando ed alzando la velocità di clock quando necessario, consentendo di ridurre i consumi in condizioni di "idle" (2D). Nelle applicazioni e giochi 3D l'impostazione "adattiva" non causa problemi, infatti la GPU lavorerà sempre al massimo regime senza interruzioni. Generalmente solo i giochi molto vecchi e le applicazioni 3D molto semplici potrebbero vedere la scheda video ridurre il clock. Tuttavia, se pensate che un gioco possa non funzionare correttamente è possibile modificare questa impostazione a "Preferisci prestazioni massime" per assicurarsi che la scheda sia sempre in esecuzione alla massima velocità di clock.
N.B. questa impostazione riguarda solo applicazioni e giochi 3D, e non sul desktop di Windows.

NOOB4EVER
03-01-2013, 20:05
ok,alimentazione su prestazione massime presumo,giusto?

ovviamente,al contrario otterresti prestazioni "non in linea " sotto alcuni titoli,ove le percentuali di utilizzo gpu non rientrano nel profilo di performance massime 3D disponibili,esempio : in Black Ops 2 ,con SLI di 680 se non setti prestazioni massime hai le vga che stanno a 1050 mhz @ 1.025V al core al posto del normale 1058 mhz @ 1.175V che si ottiene con il boost di Keplero appunto,generando di conseguenza un framerate inferiore a quello nominale in condizioni di piena attivita' della tua vga ;)

quindi settare sempre e comunque preferisci prestazioni massime per ovviare a questo inconveniente :)

slide1965
03-01-2013, 21:37
E' un 50 e 50:D

NOOB4EVER
03-01-2013, 21:41
prova :stordita:

slide1965
03-01-2013, 21:44
Stavo provando un po' tutte le impostazioni ma non e' che riesca a cogliere gran differenze,ma non solo in riferimento all alimentazione ,un po' con tutti.
Ci vorrebbe un guida insieme alla Vga :D

sickofitall
03-01-2013, 21:50
Stavo provando un po' tutte le impostazioni ma non e' che riesca a cogliere gran differenze,ma non solo in riferimento all alimentazione ,un po' con tutti.
Ci vorrebbe un guida insieme alla Vga :D

oppure ci vorrebbe google :read:

NOOB4EVER
03-01-2013, 22:05
:stordita:

Messi89
03-01-2013, 22:17
:bsod:

TigerTank
03-01-2013, 22:20
per ora lo sto provando sul hp a 1600x900 con la gt320m (60-70% gpu usage :asd: ) :asd: non me lo ricordavo cosi brutto :D gira dai 35 ai 60 fps poi lo provo sul fisso :stordita:

Ok, grazie finto Noob, resto in attesa ;)

belga_giulio
03-01-2013, 22:27
Ciao a tutti! :)

Sto per prendere una 680.. e stavo pensando di prendere la versione da 4 giga di memoria, dal momento che gioco a 2560x1440 (e pensando al futuro, in cui magari nei prossimi 2/3 anni ci saranno texture di dimensioni sempre più impegnative sul fronte memoria per la vga)..
Ho visto che la differenza di prezzo tra una versione 2 e 4 giga non è insostenibile..

Voi cosa ne pensate?

(come versione stavo pensando alla asus directCu II... ma se avete dei consigli anche per questa siete i benvenuti!)

Grazie a tutti! :)

Giulio

zeok
03-01-2013, 23:02
una Gigabye GTX670 4 GB N670OC-4GD a 375 euro...è un prezzo corretto?

Simoasd
04-01-2013, 02:05
una Gigabye GTX670 4 GB N670OC-4GD a 375 euro...è un prezzo corretto?

La mia Giga l'ho pagata lo stesso prezzo quest'estate e ha 2 gb, quindo adesso 375 per la versione da 4 mi pare un buon prezzo.

antoniotdi
04-01-2013, 08:28
secondo voi il mio alimentatore Seasonic X660 potrebbe alimentare un domani uno Sli di 670 ( con la configurazione in firma, o anche con un i7 3770k) ?

Grazie :)

ertruffa
04-01-2013, 08:35
si,con 650 watt sulla +12v vai tranquillo.
http://www.seasonicusa.com/NEW_X-series_560-660-760-850.htm
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_670_SLI/23.html

Beseitfia
04-01-2013, 09:59
ragazzi ho postato lo stesso problema nel thread di windows 8, forse pero' è piu' indicato qui...Praticamente l'indice di prestazioni di windows 8 pro 64 mi da 6,5 come valutazione per la grafica nei giochi e per la vga..Un po' bassino visto che ho uno sli di gtx680 no? So bene che questi test lasciano il tempo che torvano, ma visto che con windows 7 avevo il punteggio massimo, mi sembra un po strano questo valore..Premetto di non avere problemi nei giochi, che vanno uguali a prima..Pero' mi sembra comunque strano questo cambiamento, voi che ne pensate?

killeragosta90
04-01-2013, 10:16
...So bene che questi test lasciano il tempo che torvano...

Che hai detto bene, quindi non farti paranoie :asd:

illidan2000
04-01-2013, 10:53
Che hai detto bene, quindi non farti paranoie :asd:

quotone

Inviato dal mio GT-N7000 usando Tapatalk

antoniotdi
04-01-2013, 11:05
si,con 650 watt sulla +12v vai tranquillo.
http://www.seasonicusa.com/NEW_X-series_560-660-760-850.htm
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_670_SLI/23.html

Ok grazie :)
credevo di dover cambiare ali un domani per un eventuale Sli di 670, invece fortunatamente il mio Seasonic X660W dovrebbe andare comunque bene.

Giustaf
04-01-2013, 14:08
ragazzi ho postato lo stesso problema nel thread di windows 8, forse pero' è piu' indicato qui...Praticamente l'indice di prestazioni di windows 8 pro 64 mi da 6,5 come valutazione per la grafica nei giochi e per la vga..Un po' bassino visto che ho uno sli di gtx680 no? So bene che questi test lasciano il tempo che torvano, ma visto che con windows 7 avevo il punteggio massimo, mi sembra un po strano questo valore..Premetto di non avere problemi nei giochi, che vanno uguali a prima..Pero' mi sembra comunque strano questo cambiamento, voi che ne pensate?

Sarà il test che scazza, o magari con le nuove release di drivers ti darà il valore corretto, come ti hanno detto cmq, non ci pensare. L'importante è la prestazione vera nei giochi! :D

cyberpunk2020
04-01-2013, 15:15
dopo gloriosi anni con la gtx285 ......finalmente una evga 680 sc entra in mio possesso !!

finalmenteeeeeeeeeeeeee !!

un saluto a tutti !

Antonioplay85
04-01-2013, 15:26
dopo gloriosi anni con la gtx285 ......finalmente una evga 680 sc entra in mio possesso !!

finalmenteeeeeeeeeeeeee !!

un saluto a tutti !

complimenti un bel passo avanti :D

egounix
04-01-2013, 15:45
ragazzi ho postato lo stesso problema nel thread di windows 8, forse pero' è piu' indicato qui...Praticamente l'indice di prestazioni di windows 8 pro 64 mi da 6,5 come valutazione per la grafica nei giochi e per la vga..Un po' bassino visto che ho uno sli di gtx680 no? So bene che questi test lasciano il tempo che torvano, ma visto che con windows 7 avevo il punteggio massimo, mi sembra un po strano questo valore..Premetto di non avere problemi nei giochi, che vanno uguali a prima..Pero' mi sembra comunque strano questo cambiamento, voi che ne pensate?

Apri il file xml e metti a tutto 9.9


Sent from my DingDingDong (by Gunter) using my Tralala!

NOOB4EVER
04-01-2013, 16:05
:fagiano: :stordita: :D

NOOB4EVER
04-01-2013, 16:07
complimenti un bel passo avanti :D

quoto,inoltre essendo uno che non cambia molto spesso vedendo che viene da una siora scheduzza,la 680 garantira' quel pelino di performance in piu' rispetto alla 670,in questo caso puo' starci ,ovvio se uno cambia ad ogni generazione ,ma gari 2 vga la 670 e' il top, bel pasaggio si cmq ,avra un 150% di boost rispetto alla 285 :D

MorrisADsl
04-01-2013, 16:22
Cercando con google non sono riuscito a togliermi un dubbio... Conviene settare le impostazioni dei giochi nel pannello di controllo nvidia o nel gioco proprio? Le impostazioni nvidia hanno comunque la precedenza credo. Qualche pagina indietro c'erano impostazioni interessanti ma se lascio decidere all' applicazione 3d non sono applicabili.

killeragosta90
05-01-2013, 02:18
Apri il file xml e metti a tutto 9.9


Idolo :asd:

belga_giulio
05-01-2013, 02:26
Alla fine ho "tagliato la testa al toro"....
per 35 euro in più rispetto a quella con 2gb, ho preso la 680 con 4gb di memoria..
la Gigabyte OC, quella con 3 ventole.. saranno anche 3 slot di scheda, ma tanto so già che fare Sli non mi interessa e non mi interesserà. ;)
Ho letto su un forum che per l'editing video è comunque molto consigliato avere più ram video, e inoltre, visto quanta ram possono occupare i giochi pesantemente moddati, penso di aver fatto una scelta a lungo termine..
d'altronde me la dovrò far durare almeno 3-4 annetti.. ;)

illidan2000
05-01-2013, 06:07
Alla fine ho "tagliato la testa al toro"....
per 35 euro in più rispetto a quella con 2gb, ho preso la 680 con 4gb di memoria..
la Gigabyte OC, quella con 3 ventole.. saranno anche 3 slot di scheda, ma tanto so già che fare Sli non mi interessa e non mi interesserà. ;)
Ho letto su un forum che per l'editing video è comunque molto consigliato avere più ram video, e inoltre, visto quanta ram possono occupare i giochi pesantemente moddati, penso di aver fatto una scelta a lungo termine..
d'altronde me la dovrò far durare almeno 3-4 annetti.. ;)

hai fatto la scelta migliore che potevi

<Masquerade>
05-01-2013, 06:48
hai fatto la scelta migliore che potevi

anche se dubito che una scheda del genere sarà in grado di farti giocare bene per 3-4 anni @2560x.
già cede ora in qualche caso. figuriamoci, no tra 3-4 anni, ma anche tra 2 anni.

e questo vale per tutte le schede di questa generazione.

<Masquerade>
05-01-2013, 06:51
considerando poi che tra un 3 mesi esce la GTX780, e che se tutto va bene magari spingerà discretamente di più, e che magari i 3-4 anni li regge meglio.
senza nulla togliere alla 680, ma forse la scelta migliore arrivati a sto punto , era quella di aspettare per questa scheda.

Goofy Goober
05-01-2013, 08:46
considerando poi che tra un 3 mesi esce la GTX780, e che se tutto va bene magari spingerà discretamente di più, e che magari i 3-4 anni li regge meglio.
senza nulla togliere alla 680, ma forse la scelta migliore arrivati a sto punto , era quella di aspettare per questa scheda.

:mano:

domanda sul surround nvidia. gli schermi devono esser identici scommetto... vero?
o basta che siano alla stessa risoluzione?

se collego 3 schermi a 2 schede in SLI, e non attivo il surround, posso usare il tutto come dekstop esteso normale giusto?
i risparmi energetici come funzionano in questi casi, fanno come con 2 schermi connessi e lasciano una scheda sempre a frequenze e voltaggi maxati, o addirittura le lasciano tutte e 2 maxate? :stordita:

illidan2000
05-01-2013, 08:57
:mano:

domanda sul surround nvidia. gli schermi devono esser identici scommetto... vero?
o basta che siano alla stessa risoluzione?

se collego 3 schermi a 2 schede in SLI, e non attivo il surround, posso usare il tutto come dekstop esteso normale giusto?
i risparmi energetici come funzionano in questi casi, fanno come con 2 schermi connessi e lasciano una scheda sempre a frequenze e voltaggi maxati, o addirittura le lasciano tutte e 2 maxate? :stordita:

basta che abbiano la stessa risoluzione.
le frequenze in idle rimangono bassi, a 324mhz per tutte e due le schede.

Goofy Goober
05-01-2013, 09:14
basta che abbiano la stessa risoluzione.
le frequenze in idle rimangono bassi, a 324mhz per tutte e due le schede.

ottimo grazie,

nei prox tempi probabilmente metterò su una config surround abbozzata da usare per un po' e vedere se mi trovo, avevo già provato in passato il surround (non sul mio pc) ma il costo totale mi aveva frenato.

aaasssdddfffggg
05-01-2013, 09:15
basta che abbiano la stessa risoluzione.
le frequenze in idle rimangono bassi, a 324mhz per tutte e due le schede.

vero anche se la scelta corretta da fare è quella che ricade su 3 schermi identici per avere la stessa identica qualità video sull'intera scena coperta dai 3 pannelli; insomma,se si deve fare il surround che lo si faccia bene.

<Masquerade>
05-01-2013, 09:21
vero anche se la scelta corretta da fare è quella che ricade su 3 schermi identici per avere la stessa identica qualità video sull'intera scena coperta dai 3 pannelli; insomma,se si deve fare il surround che lo si faccia bene.

a breve pure io do via una delle 2 670 4096mb

Goofy Goober
05-01-2013, 09:22
vero anche se la scelta corretta da fare è quella che ricade su 3 schermi identici per avere la stessa identica qualità video sull'intera scena coperta dai 3 pannelli; insomma,se si deve fare il surround che lo si faccia bene.

concordo.
avendo recuperato un monitor di qualche anno fa 27" 1080p che sto usando come secondario a fianco dell'S27A950 volevo cercarne un altro di stesse dimensioni e risoluzione per provare se il surround mi soddisfa/interessa sul serio. ovviamente poi se sarà fatto, andrà fatto solo con monitor identici tra loro :D

ma non so ancora, probabilmente farò il salto di risoluzione piuttosto che il surround, però lasciare i 120hz sarebbe troppo dura... insomma, troppe variabili :bsod:

aaasssdddfffggg
05-01-2013, 09:38
concordo.
avendo recuperato un monitor di qualche anno fa 27" 1080p che sto usando come secondario a fianco dell'S27A950 volevo cercarne un altro di stesse dimensioni e risoluzione per provare se il surround mi soddisfa/interessa sul serio. ovviamente poi se sarà fatto, andrà fatto solo con monitor identici tra loro :D

ma non so ancora, probabilmente farò il salto di risoluzione piuttosto che il surround, però lasciare i 120hz sarebbe troppo dura... insomma, troppe variabili :bsod:

devi capire bene su cosa privilegi dal tuo pannello.Per mia fortuna non mi sono mai trovato nella tua posizione e mai avuto dubbio alcuno sulla scelta da adottare ma questo vale per me.
Felicissimo quindi per chi si trova benissimo con i tn 120Hz.;)

<Masquerade>
05-01-2013, 09:48
prepariamoci a rimettere accelero su singola GTX670 @ 1380mhz. d'altronde la seconda mi tocca darla via all'ultimo. non posso giocare, in questi 3 mesi a 2560x1440 con una 5850 perchè fa ridere

Goofy Goober
05-01-2013, 10:10
devi capire bene su cosa privilegi dal tuo pannello.Per mia fortuna non mi sono mai trovato nella tua posizione e mai avuto dubbio alcuno sulla scelta da adottare ma questo vale per me.
Felicissimo quindi per chi si trova benissimo con i tn 120Hz.;)

se riuscissi a tenere per qualche mese un monitor over fhd probabilmente dissiperei i miei dubbi, ma per ora ho potuto provarli solo en passant... comprarne uno solo per far prova non mi va.

in questi 3 mesi a 2560x1440 con una 5850 perchè fa ridere

e non giocare proprio per 3 mesi? :asd:
un po' di disintossicazione :sofico:

Orkozzio
05-01-2013, 10:12
considerando poi che tra un 3 mesi esce la GTX780, e che se tutto va bene magari spingerà discretamente di più, e che magari i 3-4 anni li regge meglio.
senza nulla togliere alla 680, ma forse la scelta migliore arrivati a sto punto , era quella di aspettare per questa scheda.

Secondo me se non voleva/poteva aspettare, ha fatto la scelta più longeva prendendosi la top di gamma!;)
E' logico che verrà sorpassata dalla prossima generazione di gpu ma cmq rimarrà una signora scheda soprattutto dovendola tenere per qualche anno.
Per il nuovo proprietario... goditela!;)

<Masquerade>
05-01-2013, 10:20
e non giocare proprio per 3 mesi? :asd:
un po' di disintossicazione :sofico:

a qualche partita non posso rinunciarci, e voglio farlo in maniera almeno decente.
e prima delle nuove schede esce pure Crysis 3.. mi verrà voglia di provarlo subito... e serve una scheda decente per giochicchiarci un pochetto 1080p su HD TV, intanto.

sickofitall
05-01-2013, 10:24
se riuscissi a tenere per qualche mese un monitor over fhd probabilmente dissiperei i miei dubbi, ma per ora ho potuto provarli solo en passant... comprarne uno solo per far prova non mi va.


Imposta il tuo samsung @60hz e saprai già cosa ti aspetta :stordita:

aaasssdddfffggg
05-01-2013, 10:29
se riuscissi a tenere per qualche mese un monitor over fhd probabilmente dissiperei i miei dubbi, ma per ora ho potuto provarli solo en passant... comprarne uno solo per far prova non mi va.



e non giocare proprio per 3 mesi? :asd:
un po' di disintossicazione :sofico:

hehe,pensa te ,ho in pre-order CRYSIS 3 che a questo punto non precaricherò nemmeno quando sarà disponibile.Rimanderò l'operazione con un mesetto di ritardo o poco più.Insomma si smonta...e si rientra meglio di prima.;)

<Masquerade>
05-01-2013, 10:30
mi aspettavo che nemesis mi commentasse la sua "mossa".

abbiamo avuto una sorta di telepatia.
la mia non è una decisione presa ora, ma l'ho pensata in questi ultimi 2-3gg.
cmq aggiungo, per lo sli, nel complesso mi ha dato una bella mano in alcuni giochi. ovvimanete non è perfetto come la singola scheda ma questo lo sapevo da mo.

antoniotdi
05-01-2013, 10:37
Alla fine ho "tagliato la testa al toro"....
per 35 euro in più rispetto a quella con 2gb, ho preso la 680 con 4gb di memoria..
la Gigabyte OC, quella con 3 ventole.. saranno anche 3 slot di scheda, ma tanto so già che fare Sli non mi interessa e non mi interesserà. ;)
Ho letto su un forum che per l'editing video è comunque molto consigliato avere più ram video, e inoltre, visto quanta ram possono occupare i giochi pesantemente moddati, penso di aver fatto una scelta a lungo termine..
d'altronde me la dovrò far durare almeno 3-4 annetti.. ;)

Scusate la domanda da inesperto, perchè con 3 slot di scheda non si può fare lo SLI? O ci sono piu problemi? potete chiarirmi questo aspetto?

Grazie :)

<Masquerade>
05-01-2013, 10:40
si può far si.
ma ci vuole una mobo che le tenga distanziate, altrimenti quella sopra, tenendole attaccate, va a fuoco.

antoniotdi
05-01-2013, 10:44
si può far si.
ma ci vuole una mobo che le tenga distanziate, altrimenti quella sopra, tenendole attaccate, va a fuoco.

ah ok ho capito, quindi bisognerebbe scegliere una Mobo con pci distanti... mi fate un esempio di una mobo z77 del genere spaziosa per eventuali Sli di 670 da 3 slot?

Grazie :)

<Masquerade>
05-01-2013, 10:49
ah ok ho capito, quindi bisognerebbe scegliere una Mobo con pci distanti... mi fate un esempio di una mobo z77 del genere spaziosa per eventuali Sli di 670 da 3 slot?

Grazie :)

non ci sto dietro alle Z77

cmq forse questa: http://www.evga.com/Products/Product.aspx?pn=151-IB-E699-KR



ma nem che mi hai messo in ignore? ho sto dubbio :asd:
eppure ultimamente si andava d'accordo: http://www.hwupgrade.it/forum/showthread.php?t=2456783&page=1065
sarebbe comica la cosa :D

sickofitall
05-01-2013, 10:55
:asd: trolli troppo :sofico:

aaasssdddfffggg
05-01-2013, 10:58
non ci sto dietro alle Z77

cmq forse questa: http://www.evga.com/Products/Product.aspx?pn=151-IB-E699-KR



ma nem che mi hai messo in ignore? ho sto dubbio :asd:
eppure ultimamente si andava d'accordo: http://www.hwupgrade.it/forum/showthread.php?t=2456783&page=1065
sarebbe comica la cosa :D

Quella scheda la provai in laboratoro personalmente.Davvero ben progettata e studiata bene.Costa parecchio ma questo è un altro discorso.
Puoi levarti il dubbio e anche se fosse stato non sarebbe stato un dramma per te e per nessun altro.:)

<Masquerade>
05-01-2013, 11:00
:asd: trolli troppo :sofico:


non più di te tipo quando fai le battutine sui 60hz con tanto di gif ecc lol :asd:

Goofy Goober
05-01-2013, 11:06
Imposta il tuo samsung @60hz e saprai già cosa ti aspetta :stordita:

devo rendermi conto se la risoluzione ben superiore su un pannello di stessa dimensione mi aggrada :O
con i 60hz ho convissuto tanti anni e so già cosa mi aspetta :fagiano:

sto anno sarà un patema per scegliere cosa modificare nella config... cambiar piatta e andare sulla serie X, aspettare ivy.e, prender haswell, cambiare i monitor o no...
l'unica cosa sicura sono due gpu nuove appena ci saranno.

<Masquerade>
05-01-2013, 11:10
Puoi levarti il dubbio e anche se fosse stato non sarebbe stato un dramma per te e per nessun altro.:)

forse lo pensi perchè s'è bisticciato su 3 cosette, qualche tempo fa lol

ma dai su... ti considero un pilastro. ed un grande intenditore di hw pc in generale. e menomale che c'eri anche te in questo thread.
Questo penso realmente. quindi mi sarebbe dispiaciuto si.
ed in genrale il 90% delle volte l'ho sempre pensata come te. anche il monitor mi piace questa strada che ho intrapreso(come la tua): è stupendo lo ribadisco. ;)

antoniotdi
05-01-2013, 11:11
non ci sto dietro alle Z77

cmq forse questa: http://www.evga.com/Products/Product.aspx?pn=151-IB-E699-KR



ma nem che mi hai messo in ignore? ho sto dubbio :asd:
eppure ultimamente si andava d'accordo: http://www.hwupgrade.it/forum/showthread.php?t=2456783&page=1065
sarebbe comica la cosa :D
Ok grazie.

Altro dubbio che ho, se monto una sola vga devo metterla al primo slot PCI, quello più vicino alla cpu insomma.. O è indifferente e posso installare la vga in qualunque slot PCI anche es quello più in basso?

Nel caso di Sli... Se installo la prima vga nel primo slot PCI, quello vicino alla cpu insomma..., la seconda vga devo installarla nello slot immediatamente successivo o in qualunque altro slot PCI che mi pare?

Scusate la domanda da inesperto, grazie :)

aaasssdddfffggg
05-01-2013, 11:11
devo rendermi conto se la risoluzione ben superiore su un pannello di stessa dimensione mi aggrada :O
con i 60hz ho convissuto tanti anni e so già cosa mi aspetta :fagiano:

sto anno sarà un patema per scegliere cosa modificare nella config... cambiar piatta e andare sulla serie X, aspettare ivy.e, prender haswell, cambiare i monitor o no...
l'unica cosa sicura sono due gpu nuove appena ci saranno.

ti aumento il livello di dubbi : Intel rilascerà insieme algi ivi e (che non andranno oltre i 6 core)anche un 8 core Desktop su base sandy-E sempre per x79...:)

aaasssdddfffggg
05-01-2013, 11:16
Ok grazie.

Altro dubbio che ho, se monto una sola vga devo metterla al primo slot PCI, quello più vicino alla cpu insomma.. O è indifferente e posso installare la vga in qualunque slot PCI anche es quello più in basso?

Nel caso di Sli... Se installo la prima vga nel primo slot PCI, quello vicino alla cpu insomma..., la seconda vga devo installarla nello slot immediatamente successivo o in qualunque altro slot PCI che mi pare?

Scusate la domanda da inesperto, grazie :)

Le vga puoi metterle dove vuoi in qualsiasi slot pci express 16x che però sono così ripartiti sulla Z77 FTW :

x16
x16
x8
x16
x8

Goofy Goober
05-01-2013, 11:16
ti aumento il livello di dubbi : Intel rilascerà insieme algi ivi e (che non andranno oltre i 6 core)anche un 8 core Desktop su base sandy-E sempre per x79...:)

si lo sapevo :cry:

e non ho capito perchè l'8 core lo fanno ancora su Sandy-E, tra l'altro sarà venduto come xeon o come cpu consumer?

per di più sembra che non uscirà alcun chipset consumer nuovo nella serie X, e X79 resterà l'unico anche per cpu Ivy-E, e ho paura quindi che nemmeno lato motherboard si vedranno novità interessanti visto questo punto.

il dubbio si genera nella probabile necessità di affiancare una scheda e piattaforma migliore alle gpu nvidia in arrivo per sfruttarle al meglio, visto che una scheda con due PCI.E 2.0 a 8x per lo SLI con le future schede potrebbe scazzuolare un po', anche se attualmente con le 580 va da 10.

aaasssdddfffggg
05-01-2013, 11:18
forse lo pensi perchè s'è bisticciato su 3 cosette, qualche tempo fa lol

ma dai su... ti considero un pilastro. ed un grande intenditore di hw pc in generale. e menomale che c'eri anche te in questo thread.
Questo penso realmente. quindi mi sarebbe dispiaciuto si.
ed in genrale il 90% delle volte l'ho sempre pensata come te. anche il monitor mi piace questa strada che ho intrapreso(come la tua): è stupendo lo ribadisco. ;)

nessun problema da parte mia.
Le cose serie sono ben altre che non andare d'accordo su alcuni aspetti.

<Masquerade>
05-01-2013, 11:18
io al max l'esa ivi-e. come dissi a delly anche di la. questo è il mio progetto futuro.
poi vediamo. potrei anche dirottare su un esa 3930...che schifo non fa di certo. insumma questo socket un altra cpu ci passa di sicuro.

aaasssdddfffggg
05-01-2013, 11:19
si lo sapevo :cry:

e non ho capito perchè l'8 core lo fanno ancora su Sandy-E, tra l'altro sarà venduto come xeon o come cpu consumer?

per di più sembra che non uscirà alcun chipset consumer nuovo nella serie X, e X79 resterà l'unico anche per cpu Ivy-E, e ho paura quindi che nemmeno lato motherboard si vedranno novità interessanti visto questo punto.

il dubbio si genera nella probabile necessità di affiancare una scheda e piattaforma migliore alle gpu nvidia in arrivo per sfruttarle al meglio, visto che una scheda con due PCI.E 2.0 a 8x per lo SLI con le future schede potrebbe scazzuolare un po', anche se attualmente con le 580 va da 10.

No,gli Xeon ci sono già da marzo 2012.Sarà venduto e destinato alla fascia consumer quindi come un Extreme Edition per X79.

<Masquerade>
05-01-2013, 11:21
nessun problema da parte mia.
Ok!
Le cose serie sono ben altre che non andare d'accordo su alcuni aspetti.

eh si :fagiano:

aaasssdddfffggg
05-01-2013, 11:23
Ok!


eh si :fagiano:

anzi,prepariamoci per quando uscirà CRYSIS 3 che vedrai le lamentele degli utenti che lo troveranno come un mattone,non è possibile giocarlo,e pesantissimo,e via dicendo.
Sarà di nuovo una guerra magari sul thread apposito....:)

<Masquerade>
05-01-2013, 11:30
anzi,prepariamoci per quando uscirà CRYSIS 3 che vedrai le lamentele degli utenti che lo troveranno come un mattone,non è possibile giocarlo,e pesantissimo,e via dicendo.
Sarà di nuovo una guerra magari sul thread apposito....:)

lol :asd:

no ma meglio fa da furbi, ne parlavo in pvt con un vecchio utente qualche giorno fa: non ne vale + la pena discutere o difendere il giochino nei thread appositi, che con alcuni bimbimink...emmmm cape calde magari si rischia pure di finì a sosp. varie magari... l'importante mi garbi a me e festa finita :asd: ;)

¥º·RG·º¥
05-01-2013, 11:32
anzi,prepariamoci per quando uscirà CRYSIS 3 che vedrai le lamentele degli utenti che lo troveranno come un mattone,non è possibile giocarlo,e pesantissimo,e via dicendo.
Sarà di nuovo una guerra magari sul thread apposito....:)

Mamma mia guarda.... non farmici pensare va! Sempre lo stesso brodo...

aaasssdddfffggg
05-01-2013, 11:44
si lo sapevo :cry:

e non ho capito perchè l'8 core lo fanno ancora su Sandy-E, tra l'altro sarà venduto come xeon o come cpu consumer?

per di più sembra che non uscirà alcun chipset consumer nuovo nella serie X, e X79 resterà l'unico anche per cpu Ivy-E, e ho paura quindi che nemmeno lato motherboard si vedranno novità interessanti visto questo punto.

il dubbio si genera nella probabile necessità di affiancare una scheda e piattaforma migliore alle gpu nvidia in arrivo per sfruttarle al meglio, visto che una scheda con due PCI.E 2.0 a 8x per lo SLI con le future schede potrebbe scazzuolare un po', anche se attualmente con le 580 va da 10.

perchè è già pronto da tempo : Il 3930K e 3960X altro non sono che degli XEON E5-2600 Series con QPI-CORE-CACHE disabilitati e TDP più basso rispetto allo XEON E5 top di gamma di riferimento(per consentire ampi margini di OC).
Intel non farà altro che attivare i restanti altri 2 core su sandy-E.Il resto resterà disabilitato e questo fa si che tali cpu non saranno mai in grado di lavorare in coppia,non per altro è destinato alla fascia consumer.

antoniotdi
05-01-2013, 11:46
Le vga puoi metterle dove vuoi in qualsiasi slot pci express 16x che però sono così ripartiti sulla Z77 FTW :

x16
x16
x8
x16
x8

ok grazie :)

TigerTank
05-01-2013, 12:09
Ciao a tutti!
Neme com'è che vendi le tue 2 bestiole?!? :eek:

aaasssdddfffggg
05-01-2013, 12:16
Ciao a tutti!
Neme com'è che vendi le tue 2 bestiole?!? :eek:

per far respirare il mio portafogli tra circa 90 giorni...
mossa tattica,mettiamola così.;)

belga_giulio
05-01-2013, 12:31
considerando poi che tra un 3 mesi esce la GTX780, e che se tutto va bene magari spingerà discretamente di più, e che magari i 3-4 anni li regge meglio.
senza nulla togliere alla 680, ma forse la scelta migliore arrivati a sto punto , era quella di aspettare per questa scheda.

Sì, ma quanto costerà tra tre mesi una 780 con 4gb di ram, visto quello che costano le 680 ora, e che continuano a costare le 580 (quando si trovano)?

Io il computer l'ho fatto adesso, lo sappiamo bene che con i tempi rapidi dell'informatica ha senso solo fino a un certo punto aspettare...
Tra tre mesi esce la 780, e allora perché poi non ne aspetto altri 3 che esce Haswell, e così via... è tutto sfasato, e uno il pc non se lo farebbe mai continuando ad aspettare.. ;)

<Masquerade>
05-01-2013, 12:35
la GTX780 avrà 3GB di vram visto che, che si tratti di GK110 o GK2equalcosa a sto giro avrà il bus a 384bit.

credo costerà 500-550€
la 6GB probabilmente 650€

belga_giulio
05-01-2013, 12:40
Eh appunto... stiamo diventando un pò pazzi... ma che prezzi assurdi! Vanno aumentando, e mica di poco, di generazione in generazione... :O

slide1965
05-01-2013, 12:41
lo sappiamo bene che con i tempi rapidi dell'informatica ha senso solo fino a un certo punto aspettare...
Tra tre mesi esce la 780, e allora perché poi non ne aspetto altri 3 che esce Haswell, e così via..;)
concordo in pieno,a quel punto,dopo haswell conviene aspettare ancora un po che poi esce crysis 4 e le gtx880.:mc: :mc:


con i 60hz ho convissuto tanti anni e so già cosa mi aspetta :fagiano:

cosa?
che non vedi fluidi i giochi perche' vanno solo a 60 fps al secondo?

nei prox tempi probabilmente metterò su una config surround abbozzata da usare per un po' e vedere se mi trovo

mi permetto di darti un consiglio:
indipendentemente dal tipo di monitor,frequenza,marca ,costo, modello o risoluzione,dai priorita' ad un aspetto,te lo dico x esperienza personale,diversamente rischi che dopo 2 mesi il surround ti abbia gia' fatto venire l'orchite:
cerca dei monitor con cornice prossima allo zero.;)

aaasssdddfffggg
05-01-2013, 12:42
Eh appunto... stiamo diventando un pò pazzi... ma che prezzi assurdi! Vanno aumentando, e mica di poco, di generazione in generazione... :O

macchè...sono i prezzi di lancio che NVIDIA applica da sempre sulle sue top di gamma.Non ce nulla da scandalizzarsi.

<Masquerade>
05-01-2013, 12:43
Eh appunto... stiamo diventando un pò pazzi... ma che prezzi assurdi! Vanno aumentando, e mica di poco, di generazione in generazione... :O

la top nvidia la mette sempre cara.non è una novità.
e cmq pure la 680 4GB non scherza: ancora oggi costa un ballino di soldi. stiamo come minimo a 480€ da quello che vedo su trovaprezzi.

belga_giulio
05-01-2013, 12:50
macchè...sono i prezzi di lancio che NVIDIA applica da sempre sulle sue top di gamma.Non ce nulla da scandalizzarsi.

la top nvidia la mette sempre cara.non è una novità.
e cmq pure la 680 4GB non scherza: ancora oggi costa un ballino di soldi. stiamo come minimo a 480€ da quello che vedo su trovaprezzi.

440, tramite un amico... ma il punto resta se si continua ad aspettare, non si fa mai su un pc.. e comunque tra 440 e 550, preferisco la prima cifra, per una top di gamma (ancora attualissima poi, visto quanto offre il mercato dei porting da console)..
non so voi, ma a me non avanzano mai euro dopo che ho fatto sù un nuovo sistema. ;)

cm0s
05-01-2013, 12:50
Eh appunto... stiamo diventando un pò pazzi... ma che prezzi assurdi! Vanno aumentando, e mica di poco, di generazione in generazione... :O
è la cruda realtà attuale, purtroppo i prezzi vanno sempre in aumento, ecco perchè il mercato dell'usato è in costante crescita.. :D
personalmente per adesso ho una gtx670 wf3. quasi sicuramente cambierò gpu tra 2 generazioni visto il basso aumento teorico al livello prestazionale della generazione successiva..

aaasssdddfffggg
05-01-2013, 12:52
440, tramite un amico... ma il punto resta se si continua ad aspettare, non si fa mai su un pc.. e comunque tra 440 e 550, preferisco la prima cifra, per una top di gamma (ancora attualissima poi, visto quanto offre il mercato dei porting da console)..
non so voi, ma a me non avanzano mai euro dopo che ho fatto sù un nuovo sistema. ;)

tu sei libero di comprare quando vuoi.Ci mancherebbe che fosse il contrario.
Se hai deciso di comprare adesso perchè non ne potevi fare più a meno, hai fatto bene.

belga_giulio
05-01-2013, 12:55
è la cruda realtà attuale, purtroppo i prezzi vanno sempre in aumento, ecco perchè il mercato dell'usato è in costante crescita.. :D
personalmente per adesso ho una gtx670 wf3. quasi sicuramente cambierò gpu tra 2 generazioni visto il basso aumento teorico al livello prestazionale della generazione successiva..

Ma sì, sono d'accordo.. voglio vedere quanto realmente cambierà tra una 680 e una 780.. ogni anno è la stessa storia, e gli incrementi prestazionali sono realmente visibili ogni 2 generazioni..
Io stesso passo dalla 580 alla 680 perché sto rifacendo il computer, e volevo la VGA pci-e 3.0.. e l'ho fatto anche perché la 580 me la prendevano per un buon prezzo.. ma sono certo che non vedrò a occhio nudo un salto così estremo..

gaevulk
05-01-2013, 12:56
lol :asd:

no ma meglio fa da furbi, ne parlavo in pvt con un vecchio utente qualche giorno fa: non ne vale + la pena discutere o difendere il giochino nei thread appositi, che con alcuni bimbimink...emmmm cape calde magari si rischia pure di finì a sosp. varie magari... l'importante mi garbi a me e festa finita :asd: ;)

ho beccato una sospensione di 5 gg per aver risposto ad uno di questi :stordita:

aaasssdddfffggg
05-01-2013, 12:57
Ma sì, sono d'accordo.. voglio vedere quanto realmente cambierà tra una 680 e una 780.. ogni anno è la stessa storia, e gli incrementi prestazionali sono realmente visibili ogni 2 generazioni..
Io stesso passo dalla 580 alla 680 perché sto rifacendo il computer, e volevo la VGA pci-e 3.0.. e l'ho fatto anche perché la 580 me la prendevano per un buon prezzo.. ma sono certo che non vedrò a occhio nudo un salto così estremo..

il pp resta sempre quello dei 28 quindi non ci si aspetta miracoli,ma affinamenti e ottimizzazioni si.Mi aspetto un 20% in più sulla 680 e amo tornare sull'interfaccia di 384bit.

belga_giulio
05-01-2013, 12:59
il pp resta sempre quello dei 28 quindi non ci si aspetta miracoli,ma affinamenti e ottimizzazioni si.Mi aspetto un 20% in più sulla 680 e amo tornare sull'interfaccia di 384bit.

Sì, questa cosa del passare dai 384 bit della 580 ai 256 della 680 non mi è molto chiara.. magari me la sai spiegare questa scelta.. :confused:

aaasssdddfffggg
05-01-2013, 13:01
Sì, questa cosa del passare dai 384 bit della 580 ai 256 della 680 non mi è molto chiara.. magari me la sai spiegare questa scelta.. :confused:

di fatto non l'ho mai digerita nemmeno io tale soluzione sin dagli arbori dei rumors su GK104.Sta di fatto che ,per non scendere come ampiezza di banda che è in grado di tirar fuori una gtx580,si è optati per delle freq. molto elevate sulle vram.I valori sono pressochè identici.

<Masquerade>
05-01-2013, 13:02
il pp resta sempre quello dei 28 quindi non ci si aspetta miracoli,ma affinamenti e ottimizzazioni si.Mi aspetto un 20% in più sulla 680 e amo tornare sull'interfaccia di 384bit.

mi aspetto minimo un 25% +.ma potrebbe essere fino ad un max 40% +.(possibile con le ultime specifiche postate nel 3d aspettando) o una via di mezzo tra questi 2 valori.

aaasssdddfffggg
05-01-2013, 13:03
mi aspetto minimo un 25% +.ma potrebbe essere fino ad un max 40% +.(possibile con le ultime specifiche postate nel 3d aspettando) o una via di mezzo tra questi 2 valori.

il mio 20% è il tetto minimo che mi aspetto.Voglio mantenermi "prudente".

<Masquerade>
05-01-2013, 13:05
Voglio mantenermi "prudente".

:asd:

belga_giulio
05-01-2013, 13:08
di fatto non l'ho mai digerita nemmeno io tale soluzione sin dagli arbori dei rumors su GK104.Sta di fatto che ,per non scendere come ampiezza di banda che è in grado di tirar fuori una gtx580,si è optati per delle freq. molto elevate sulle vram.I valori sono pressochè identici.

Quindi, all'atto pratico non c'è differenza.. beh, meno male.. ;)

mi aspetto minimo un 25% +.ma potrebbe essere fino ad un max 40% +.(possibile con le ultime specifiche postate nel 3d aspettando) o una via di mezzo tra questi 2 valori.

dal 25 al 40%???
..ad essere ottimisti, forse al 25% ci arriverà fra un anno (quando mancheranno 3 mesi alla 880!)... dopo le varie ottimizzazioni da parte sia di nVidia, coi driver, che degli sviluppatori..
Comunque si vedrà quando usciranno... :)

aaasssdddfffggg
05-01-2013, 13:10
Quindi, all'atto pratico non c'è differenza.. beh, meno male.. ;)



dal 25 al 40%???
..ad essere ottimisti, forse al 25% ci arriverà fra un anno (quando mancheranno 3 mesi alla 880!)... dopo le varie ottimizzazioni da parte sia di nVidia, coi driver, che degli sviluppatori..
Comunque si vedrà quando usciranno... :)

non ce differenza...mentre con la 780 si passa ai 384 bit e sembra pure che nvidia voglia mantenere le freq. ram a regimi elevati.Significherebbe un aumento considerevole questa volta.:)

¥º·RG·º¥
05-01-2013, 13:13
Quindi, all'atto pratico non c'è differenza.. beh, meno male.. ;)



dal 25 al 40%???
..ad essere ottimisti, forse al 25% ci arriverà fra un anno (quando mancheranno 3 mesi alla 880!)... dopo le varie ottimizzazioni da parte sia di nVidia, coi driver, che degli sviluppatori..
Comunque si vedrà quando usciranno... :)

Alla fine queste sono solo "pippe mentali" non si puo discutere di driver, miglioramenti, etc. senza avere dati ufficiali e schede alla mano... Bisogna aspettare, testare con mano e infine trarne le conclusioni ognuno per se; perchè, grazie a Dio, ognuno è libero di pensare,scegliere e spendere i propri soldi nella maniera che ritiene piu opportuna ;)

appleroof
05-01-2013, 13:16
Sì, questa cosa del passare dai 384 bit della 580 ai 256 della 680 non mi è molto chiara.. magari me la sai spiegare questa scelta.. :confused:

un numeretto in sè non dice nulla, una gpu và valutata nel suo insieme ed evidentemente 256bit su gk104 non erano limitanti (basta vedere le prestazioni in confronto ad una gpu con 384bit di bus come la 7970), in più -forse il motivo principale- è meno complicato mettere un bus da 256bit con 2 giga di vram, oltre al risparmio in termini di consumi e dimensioni del chip

probabilmente si tornerà ai 384 anche perchè la 780 avrà 3giga di ram, più che per problemi di bandwith limited (anche se in effetti la 780 avendo prestazioni maggiori forse potrebbe avere reali benefici da maggaiore banda, tocca aspettare per vedere..)

belga_giulio
05-01-2013, 13:16
non ce differenza...mentre con la 780 si passa ai 384 bit e sembra pure che nvidia voglia mantenere le freq. ram a regimi elevati.Significherebbe un aumento considerevole questa volta.:)

Ma io sono sicuro che sarà una super schedona, e che avrà un margine di miglioramento :)
Solo che con una top di gamma all'anno, l'aumento prestazionale reale rispetto alla top di gamma dei 12 mesi precedenti, all'inizio si aggira su un 10-15% quando va bene... le sfornano troppo rapidamente, è questo che penso...
Certo, poi tra ottimizzazioni dei driver e degli sviluppatori, il margine cresce.. ma al massimo di un altro reale 5-10%...
e ripeto, questo perché un anno solo per una nuova top di gamma e troppo poco per sperare in entusiastiche rivoluzioni..
Ogni 2/3 anni è già più realistico... infatti sono certo che tra una 480/580 e una 780, allora sì che si vedrà un 40% di prestazioni in più reali, e non solo sulla carta.. :)

<Masquerade>
05-01-2013, 13:20
Ma io sono sicuro che sarà una super schedona, e che avrà un margine di miglioramento :)
Solo che con una top di gamma all'anno, l'aumento prestazionale reale rispetto alla top di gamma dei 12 mesi precedenti, all'inizio si aggira su un 10-15% quando va bene... le sfornano troppo rapidamente, è questo che penso...


succede questo quando la gpu che esce dopo non è altro che la solita con il blocco sp riattivato (GTX480/GTX580), o le frequenze aumentate (GTX280/GTX285).
questa volta però utilizzano un altra gpu. il gk104 è già sfruttato al massimo. impossibile tirarci fuori di più da questo ottimo chip: non ha blocchi di sp o bus da riattivare,le frequenze già son spinte ora. è riuscito bene alla prima.
quindi mi aspetto di più di un 10-15%dalla nuova gpu

<Masquerade>
05-01-2013, 13:26
non ce differenza...mentre con la 780 si passa ai 384 bit e sembra pure che nvidia voglia mantenere le freq. ram a regimi elevati.Significherebbe un aumento considerevole questa volta.:)

mettici anche i 48rops per gestire + agevolmente i filtri brutal

BruceWilliss
05-01-2013, 13:27
Eh appunto... stiamo diventando un pò pazzi... ma che prezzi assurdi! Vanno aumentando, e mica di poco, di generazione in generazione... :Oma tu lascia stare quello che spesso leggi! non ha alcun senso passare alla 780 ma al limite la generazione successiva e comunque con una 680 vai avanti 2 anni e anche anche. ;)

appleroof
05-01-2013, 13:27
succede questo quando la gpu che esce dopo non è altro che la solita con il blocco sp riattivato (GTX480/GTX580), o le frequenze aumentate (GTX280/GTX285).
questa volta però utilizzano un altra gpu. il gk104 è già sfruttato al massimo. impossibile tirarci fuori di più da questo ottimo chip: non ha blocchi di sp o bus da riattivare,le frequenze già son spinte ora. è riuscito bene alla prima.
quindi mi aspetto di più di un 10-15%dalla nuova gpu

Non lo so, kepler non scala alla grandissima all'aumento di cudacore, basta vedere le differenze prestazionali tra 670 e 680 ad esempio...io mi aspetto un +25% max dalla 780, poi bohhh

aaasssdddfffggg
05-01-2013, 13:29
mettici anche i 48rops per gestire + agevolmente i filtri brutal

si ovvio,mi ero soffermato solo sull'interfaccia di memoria.Comunque si,mi aspetto almeno un 20% sulla 680.

<Masquerade>
05-01-2013, 13:37
Non lo so, kepler non scala alla grandissima all'aumento di cudacore, basta vedere le differenze prestazionali tra 670 e 680 ad esempio...io mi aspetto un +25% max dalla 780, poi bohhh

mi sembra scali come fermi apple.

alla fine ...prendi la GTX560ti 448sp 320bit 40rops ...va neanche il 10% in meno di una GTX 570 con il blocco sp in + e sempre 320bit e 40rops.
con la GTX580 (vs 570) c'era più differenza perchè questa, oltre il blocco sp in +, aveva anche il bus più grosso e 48rops. ed allora si iniziava ad andare sul 15% +.


apple... con la combo 384bit 48rops ed il resto uguale alla 680 imho già andrebbe un 12-15% + imho. se ci aggiungi che potrebbe, senza andare sulla fantascienza( cioè i 2880sp), magari un 50% + di sp...

appleroof
05-01-2013, 13:38
ma tu lascia stare quello che spesso leggi! non ha alcun senso passare alla 780 ma al limite la generazione successiva e comunque con una 680 vai avanti 2 anni e anche anche. ;)

Sono d'accordo come opinione personale, ma oggettivamente non tutti hanno le stesse esigenze/voglie per cui direi che per qualcuno potrebbe avere senso cambiare...

appleroof
05-01-2013, 13:42
mi sembra scali come fermi apple.

alla fine ...prendi la GTX560ti 448sp 320bit 40rops ...va neanche il 10% in meno di una GTX 570 con il blocco sp in + e sempre 320bit e 40rops.
con la GTX580 (vs 570) c'era più differenza perchè questa, oltre il blocco sp in +, aveva anche il bus più grosso e 48rops. ed allora si iniziava ad andare sul 15% +.


apple... con la combo 384bit 48rops ed il resto uguale alla 680 imho già andrebbe un 12-15% + imho. se ci aggiungi che potrebbe, senza andare sulla fantascienza( cioè i 2880sp), magari un 50% + di sp...

Non lo so ripeto, credo ci voglia di più che un refresh per avere oltre il 25 di prestazioni, però quello che dici pure ha senso, stiamo a vedere...per ora pure io propendo alla prudenza :D

Obrigado
05-01-2013, 13:44
Non lo so ripeto, credo ci voglia di più che un refresh per avere oltre il 25 di prestazioni, però quello che dici pure ha senso, stiamo a vedere...per ora pure io propendo alla prudenza :D

anche secondo me!

cmq io vedro' di sbarazzarmi dello sli di 680 per tornare in singola con una 780 3gb

illidan2000
05-01-2013, 13:46
Ma io sono sicuro che sarà una super schedona, e che avrà un margine di miglioramento :)
Solo che con una top di gamma all'anno, l'aumento prestazionale reale rispetto alla top di gamma dei 12 mesi precedenti, all'inizio si aggira su un 10-15% quando va bene... le sfornano troppo rapidamente, è questo che penso...
Certo, poi tra ottimizzazioni dei driver e degli sviluppatori, il margine cresce.. ma al massimo di un altro reale 5-10%...
e ripeto, questo perché un anno solo per una nuova top di gamma e troppo poco per sperare in entusiastiche rivoluzioni..
Ogni 2/3 anni è già più realistico... infatti sono certo che tra una 480/580 e una 780, allora sì che si vedrà un 40% di prestazioni in più reali, e non solo sulla carta.. :)

Il discorso non sta in piedi. già tra 580 e 680 c'è un netto 50% in più.....

Inviato dal mio GT-N7000 usando Tapatalk

<Masquerade>
05-01-2013, 13:46
Non lo so ripeto, credo ci voglia di più che un refresh per avere oltre il 25 di prestazioni, però quello che dici pure ha senso, stiamo a vedere...per ora pure io propendo alla prudenza :D

si stiamo sul prudente dai. diciamo che il 25% + (+ oc un altro 15% + che schifo non mi fa)è un ottimo candidato. se poi è di più....meglio.sarebbe una bella sorpresa.

Obrigado
05-01-2013, 13:50
si stiamo sul prudente dai. diciamo che il 25% + (+ oc un altro 15% + che schifo non mi fa)è un ottimo candidato. se poi è di più....meglio.sarebbe una bella sorpresa.

a me sai cosa fa strano?

il fatto che a dicembre dell'anno scorso gia stavamo parlando da tempo delle 680...

e adesso di ste 780... manco uno screen fake. :(

appleroof
05-01-2013, 13:50
anche secondo me!

cmq io vedro' di sbarazzarmi dello sli di 680 per tornare in singola con una 780 3gb

Voglia di più vram?

si stiamo sul prudente dai. diciamo che il 25% + (+ oc un altro 15% + che schifo non mi fa)è un ottimo candidato. se poi è di più....meglio.sarebbe una bella sorpresa.

:mano:

appleroof
05-01-2013, 13:57
a me sai cosa fa strano?

il fatto che a dicembre dell'anno scorso gia stavamo parlando da tempo delle 680...

e adesso di ste 780... manco uno screen fake. :(

L'hype in generale era più alto sulla rete, imho perché era un'architettura tutta nuova e poi perché tardava, anche sul refresh di gcn noto più disinteresse...

killeragosta90
05-01-2013, 14:00
e adesso di ste 780... manco uno screen fake. :(

No problem, se vuoi quello te lo faccio io :asd:


Comunque dai ragazzi, in queste cose ci vuole estrema pazienza, anche visto e considerato che si tratta di Nvidia...e sappiamo tutti come è fatta su 'ste cose :stordita:

<Masquerade>
05-01-2013, 14:02
qualcosa via via si è visto...

http://www.tomshw.it/cont/news/nvidia-tesla-k20-e-k20x-sprigionano-la-potenza-di-gk110/41008/1.html

e se li in quella tabella ci fossero la 770 e 780 c'è poco da scoprire....sarebbero già state messe le carte in tavola...

poi c'è le news di GK114-214 ...che dicono sarà su queste gpu.....postata pure poco tempo fa nel 3d aspettando...

ci sta pure che fughe + concrete si inzieranno a vedere giusto 20gg prima dell'uscita della nuova vga...

<Masquerade>
05-01-2013, 14:04
L'hype in generale era più alto sulla rete, imho perché era un'architettura tutta nuova e poi perché tardava, anche sul refresh di gcn noto più disinteresse...

quoto. è vera sta cosa.

belga_giulio
05-01-2013, 14:16
Alla fine so solo che mi voglio godere sta 680 e spremerla più che potrò per tutto il tempo che potrò, e vedere i suoi bei vantaggi nell'editing e gioco moddato, con quei suoi bei 4 giga di ram, che col mio monitor sono manna.. :D

killeragosta90
05-01-2013, 14:23
Alla fine so solo che mi voglio godere sta 680 e spremerla più che potrò per tutto il tempo che potrò, e vedere i suoi bei vantaggi nell'editing e gioco moddato, con quei suoi bei 4 giga di ram, che col mio monitor sono manna.. :D

Guarda sicuro avrai un boost incedibile per quanto riguarda il gaming rispetto alla 580 ;)

....però sul lato editing non ti aspettare miglioramenti, anzi! Kepler va mediamente peggio rispetto alle Fermi, è risaputo che sia castrata su questo lato. Una 680 rispetto ad una 580 in questo ambito perde, di poco ma perde.

EDIT: è anche vero però che se col software che utilizzi per l'editing ti saturava spesso la "poca" v-ram della 580, allora si con una 680 da 4Gb trarresti vantaggio anche in quel campo :)

<Masquerade>
05-01-2013, 15:01
ho beccato una sospensione di 5 gg per aver risposto ad uno di questi :stordita:
a me l'anno scorso per discute co uno di un gioco ci han sospeso 3 volte di fila = basta così :tie: :asd:
Guarda sicuro avrai un boost incedibile per quanto riguarda il gaming rispetto alla 680 ;)


attento :O

xbeatx
05-01-2013, 15:02
nuovi drivers
http://www.geforce.com/drivers/results/55121

killeragosta90
05-01-2013, 15:04
attento :O
Ahah grazie masque per la segnalazione :p

Editato e corretto :)

illidan2000
05-01-2013, 15:10
nuovi drivers
http://www.geforce.com/drivers/results/55121

Ho finito far cry 3 da pochi minuti, hihi

qui cmq la versione ita:

http://www.nvidia.it/object/win8-win7-winvista-64bit-310.90-whql-driver-it.html

belga_giulio
05-01-2013, 15:16
Guarda sicuro avrai un boost incedibile per quanto riguarda il gaming rispetto alla 580 ;)

....però sul lato editing non ti aspettare miglioramenti, anzi! Kepler va mediamente peggio rispetto alle Fermi, è risaputo che sia castrata su questo lato. Una 680 rispetto ad una 580 in questo ambito perde, di poco ma perde.

EDIT: è anche vero però che se col software che utilizzi per l'editing ti saturava spesso la "poca" v-ram della 580, allora si con una 680 da 4Gb trarresti vantaggio anche in quel campo :)

Sì, ricordo che avevo letto che la 680 rendeva meno della 580 sul calcolo parallelo... per fortuna non fa tutto la scheda video, ma anche il resto dell'hardware supporterà... ;)
Non ho ancora cambiato la firma perché penso dovrebbe arrivare tutto intorno a metà gennaio, quindi aspetto ancora un momento..
Eh sì, passare da 1,5 giga a 4, è un bel boost anche per l'editing. Infatti ho pensato proprio a questo. Da quest'anno si lavoro solo con full-hd, quindi una 4 giga ci stava tutta! ;)

Ho finito far cry 3 da pochi minuti, hihi


Premesso che so che è diverso da un TES o un Fallout.... ma quanto lo è? :)
Perché mi attira assai, però io sono amante viscerale degli RPG free roaming stile TES, Fallout, Gothic...
Quanto è sparatutto e quanto è RPG questo Far Cry 3? :)
Grazie!

appleroof
05-01-2013, 15:36
Ho finito far cry 3 da pochi minuti, hihi

qui cmq la versione ita:

http://www.nvidia.it/object/win8-win7-winvista-64bit-310.90-whql-driver-it.html

consiglio cmq di aggiornare, i penultimi potrebbero potenzialmente avere qualche problema di sicurezza (ci mancavano pure i driver adesso per i crackers :rolleyes: ) http://techreport.com/news/24116/security-hole-found-in-nvidia-driver-service

cut
Quanto è sparatutto e quanto è RPG questo Far Cry 3? :)
Grazie!

95% fps 5% rpg

Beseitfia
05-01-2013, 15:36
Provati i nuovi 310.90? Avete notato dei miglioramenti rispetto ai 310.70?

Orkozzio
05-01-2013, 17:46
Provati i nuovi 310.90? Avete notato dei miglioramenti rispetto ai 310.70?

Al 3dmark 11 stesso identico punteggio tra quelli nuovi e quelli vecchi!:D

Messi89
05-01-2013, 20:21
Al 3dmark 11 stesso identico punteggio tra quelli nuovi e quelli vecchi!:D

da quel poco che ho provato sembra uguale assassin's creed III


cit nvidia
Naturalmente. questi driver includono anche le ottimizzazioni per Call of Duty: Black Ops 2 e Assassin's Creed III, che offrono prestazioni superiori sino al 26% in Call of Duty: Black Ops 2 sino al 18% in Assassin’s Creed III, oltre a una grafica fluida e priva di riflessi grazie all'antialias TXAA in entrambi i videogame.

http://i.imgur.com/NfdSx.png

http://i.imgur.com/QyBjK.png

prima volta che mi succede questo crash


http://www.youtube.com/watch?v=CRyIkdxKARY&feature=share

GIAN.B
05-01-2013, 20:52
E' la CPU. Che è Limited.

Messi89
05-01-2013, 21:01
http://i.imgur.com/vD97S.png







http://i.imgur.com/eSgs4.png

GIAN.B
05-01-2013, 21:55
:asd: :asd:

gaevulk
05-01-2013, 22:38
la mia 670 sale pochino in oc sul core,col firmware originale massimo arriva a 1163 mhz stabile,ora volevo provare a salire sulle memorie e volevo chiedervi se esiste una soglia da non oltrepassare in dayli oppure se vale come con il core nel senso che posso overcloccarle fino a che reggono,tenete presente che ho montato un accelero mono plus e che pero' le ram sono senza dissipatorini

Gun09
06-01-2013, 00:09
nuovi drivers
http://www.geforce.com/drivers/results/55121

Questa è una delle cose che mi porta a preferire Nvidia. Supporto driver imho nettamente superiore.

la mia 670 sale pochino in oc sul core,col firmware originale massimo arriva a 1163 mhz stabile,ora volevo provare a salire sulle memorie e volevo chiedervi se esiste una soglia da non oltrepassare in dayli oppure se vale come con il core nel senso che posso overcloccarle fino a che reggono,tenete presente che ho montato un accelero mono plus e che pero' le ram sono senza dissipatorini

Pure la mia 670 è moscia, 1267MHz però è la Power Edition, la quale "dovrebbe" arrivare oltre i 1300 agilmente.
Cmq per le ram io mi sono regolato in base al rapporto core/memory 1:3. Ho prima trovato il valore massimo per il core, come anche tu hai già fatto, poi ho calcolato che per avvicinarmi a tale rapporto dovevo mettere il memory offset +650: l'ho fatto subito, ho visto che era stabile e l'ho lasciato (potrei perciò salire ancora probabilmente, ma mi sta bene cosi).
Ti consiglio di provare così, poi se le memorie non saranno stabili scendi fino al massimo valore stabile.

Sicuramente strizzandole al massimo però non si fa danno, quindi se potrai salire oltre il valore del rapporto 1:3 e vuoi "more fps" fallo (ho notato che su Unigine aumentando il clock della memoria aumenta considerevolmente anche il punteggio del bench)!!!

P.S. una domandina: il BIOS di Delly a quale voltaggio ti fa andare la scheda? Ci sto facendo un pensierino anch'io..:oink:

belga_giulio
06-01-2013, 00:18
Ho già capito che oltre l'oc del 3770k, se continuo a seguirvi finirò per occare pure la 680... mai oveclockata una vga prima.. :fagiano:

gaevulk
06-01-2013, 00:39
Questa è una delle cose che mi porta a preferire Nvidia. Supporto driver imho nettamente superiore.



Pure la mia 670 è moscia, 1267MHz però è la Power Edition, la quale "dovrebbe" arrivare oltre i 1300 agilmente.
Cmq per le ram io mi sono regolato in base al rapporto core/memory 1:3. Ho prima trovato il valore massimo per il core, come anche tu hai già fatto, poi ho calcolato che per avvicinarmi a tale rapporto dovevo mettere il memory offset +650: l'ho fatto subito, ho visto che era stabile e l'ho lasciato (potrei perciò salire ancora probabilmente, ma mi sta bene cosi).
Ti consiglio di provare così, poi se le memorie non saranno stabili scendi fino al massimo valore stabile.

Sicuramente strizzandole al massimo però non si fa danno, quindi se potrai salire oltre il valore del rapporto 1:3 e vuoi "more fps" fallo (ho notato che su Unigine aumentando il clock della memoria aumenta considerevolmente anche il punteggio del bench)!!!

P.S. una domandina: il BIOS di Delly a quale voltaggio ti fa andare la scheda? Ci sto facendo un pensierino anch'io..:oink:
il voltaggio sta' ad 1,212v a quanto mi hanno detto non dovrebbe creare alcun problema,daltrode a centinaia hanno montato i bios di delly e non ho letto di problemi fino ad ora mentre per quanto riguarda il fattore ram/aumento punteggio bench anche io l'ho notato con le amd non era cosi :mbe:
tu sulle ram hai qualche dissipatore? la mia e' una reference con su un accelero mono plus e le rtam come detto le ho lasciate scoperte per non impastare la scheda

55AMG
06-01-2013, 00:44
Ragazzi richiedo per l'ennesima volta.
Qualcuno ha preso la 670 Gigabyte o EVGA da 4GB?
Possibile nessuno le abbia prese? :eek:
Avrei bisogno di un paio di info grazie ;)

TigerTank
06-01-2013, 00:52
Che info ti servono? A parte il quantitativo di vram doppio sono identiche a quelle da 2GB :)

55AMG
06-01-2013, 00:59
PIN alimentazione di entrambe (se sono identiche in quanto AMD ha differenziato tra le 3G be 6Gb per poi a quanto pare unificarsi in un secondo tempo).
Un bench con relativo punteggio di Unigine 3 a 1080P con TUTTO MAXATO.
Grazie Tiger ;)

Gun09
06-01-2013, 01:04
il voltaggio sta' ad 1,212v a quanto mi hanno detto non dovrebbe creare alcun problema,daltrode a centinaia hanno montato i bios di delly e non ho letto di problemi fino ad ora mentre per quanto riguarda il fattore ram/aumento punteggio bench anche io l'ho notato con le amd non era cosi :mbe:
tu sulle ram hai qualche dissipatore? la mia e' una reference con su un accelero mono plus e le rtam come detto le ho lasciate scoperte per non impastare la scheda

Bello, a 1,212 supererei 1.3GHz :oink:

Però ho letto che il voltaggio così è un po' altino per queste schede, anche se la Power Edition dovrebbe reggere meglio la botta. Comunque se esce un qualche gioco pesante che mi piace il BIOS modificato ce lo metto anch'io:p

Non so se la mia monta dissipatorini sulle ram, dovrei controllare; però ancora non ho mai sentito parlare di 670 bruciate :boh:

GIAN.B
06-01-2013, 01:19
Bello, a 1,212 supererei 1.3GHz :oink:

Non è affatto detto...;)

gaevulk
06-01-2013, 01:21
Bello, a 1,212 supererei 1.3GHz :oink:

Però ho letto che il voltaggio così è un po' altino per queste schede, anche se la Power Edition dovrebbe reggere meglio la botta. Comunque se esce un qualche gioco pesante che mi piace il BIOS modificato ce lo metto anch'io:p

Non so se la mia monta dissipatorini sulle ram, dovrei controllare; però ancora non ho mai sentito parlare di 670 bruciate :boh:

guarda che le p.e. dovrebbero avere la possibilita' di modificare il voltaggio tramite msi afterburner versione 2.2.3 e solo con quella ...prova se vuoi ;)
comunque non ho letto da nessuna parte che quel voltaggio e' alto per le 670 booh :mbe:

Gun09
06-01-2013, 01:22
Non è affatto detto...;)

Dici? sarebbero solo 33 MHz in più per un 0.1V in più, credo che ce la farebbe.

gaevulk
06-01-2013, 01:22
Non è affatto detto...;)

infatti,la mia a 1,212v sta' di base a 1202 mhz e da li non si schioda neanche di 1 solo mhz

Gun09
06-01-2013, 01:23
infatti,la mia a 1,212v sta' di base a 1202 mhz e da li non si schioda neanche di 1 solo mhz

A quanto arrivavi con 1.175?

Edit: 1163, letto adesso. Beh, 1202-1163=39MHz, a me basterebbero :p

gaevulk
06-01-2013, 01:24
A quanto arrivavi con 1.175?

1163/1176 mhz ,la tua ha il solito voltaggio ad 1,175v o superiore?

Gun09
06-01-2013, 01:29
1163/1176 mhz ,la tua ha il solito voltaggio ad 1,175v o superiore?

1.175 per via del bios nuovo (le prime PE erano sbloccate a quanto ne so).
E da 1267 non si schioda, a 1280 vedo qualche artefatto su Unigine (qualche flash verde random su superfici poco riflettenti tipo il legno). Però cavolo il memory clock sale parecchio, e fa guadagnare altrettanto :sborone:

TigerTank
06-01-2013, 01:35
PIN alimentazione di entrambe (se sono identiche in quanto AMD ha differenziato tra le 3G be 6Gb per poi a quanto pare unificarsi in un secondo tempo).
Un bench con relativo punteggio di Unigine 3 a 1080P con TUTTO MAXATO.
Grazie Tiger ;)

Per la prima domanda bastava usare un motore di ricerca...la giga ha un 6+8, le evga mi pare 6+6. La giga inoltre mi sembra sia tri-slot.

Circa la seconda domanda...dipende anche dalla config che c'è sotto e da quanto è "fortunata" la vga già a livello di boost automatico. Io posso postarti solo dei bench delle mie...ad esempio questa è la mia prima gtx670:

http://imageshack.us/a/img715/2518/bench11140600max.th.jpg (http://imageshack.us/photo/my-images/715/bench11140600max.jpg/)

La seconda invece è meno fortunata per cui ho abbassato la prima per allinearle:

http://imageshack.us/a/img545/5920/heaven20121124140947542.th.jpg (http://imageshack.us/photo/my-images/545/heaven20121124140947542.jpg/)

gaevulk
06-01-2013, 01:39
1.175 per via del bios nuovo (le prime PE erano sbloccate a quanto ne so).
E da 1267 non si schioda, a 1280 vedo qualche artefatto su Unigine (qualche flash verde random su superfici poco riflettenti tipo il legno). Però cavolo il memory clock sale parecchio, e fa guadagnare altrettanto :sborone:

allora qualcosa potresti guadagnare,puoi fare una prova con msi versione 2.2.3 per vedere se ti fa modificare il voltaggio?
ecco cosa ho trovato sull'argomento

delly chiedeva se funzionasse l'overvolt via software sulle p.e e la risposta e' stata questa:

" funziona si, ma sempre tramite il solito AfterBurner, e solo ed esclusivamente con la versione 2.2.3. Con le sucessive è stata tolta tale funzione"

gaevulk
06-01-2013, 01:42
Circa la seconda domanda...dipende anche dalla config che c'è sotto e da quanto è "fortunata" la vga già a livello di boost automatico. Io posso postarti solo dei bench delle mie...ad esempio questa è la mia prima gtx670:


tiger,tu che dici sull'overclock della ram? conviene spingerlo fin dove regge o potrei rovinare qualcosa visto che sulla mia 670 non ho montato alcun dissipatore per le ram?
le temperature del core sono ottime con l'accelero,non ho mai visto i 60 gradi anche con 1,212v

55AMG
06-01-2013, 01:52
Io le RAm non le alzerei più di tanto, in quanto le differenze che apportano sono realmente minime. Inutile rischiare per niente in poche parole.

55AMG
06-01-2013, 01:56
Circa la seconda domanda...dipende anche dalla config che c'è sotto e da quanto è "fortunata" la vga già a livello di boost automatico. Io posso postarti solo dei bench delle mie...ad esempio questa è la mia prima gtx670

Grazie Tiger.
Tu o qualcun altro avete lo stesso bench con Unigine 3 sempre a 1080P tutto maxato ma senza alcun OC?

killeragosta90
06-01-2013, 02:32
allora qualcosa potresti guadagnare,puoi fare una prova con msi versione 2.2.3 per vedere se ti fa modificare il voltaggio?
ecco cosa ho trovato sull'argomento

delly chiedeva se funzionasse l'overvolt via software sulle p.e e la risposta e' stata questa:

" funziona si, ma sempre tramite il solito AfterBurner, e solo ed esclusivamente con la versione 2.2.3. Con le sucessive è stata tolta tale funzione"

Confermo, era la mia risposta in seguito alla domanda che mi aveva posto Delly :)

Comunque per chi se lo chiedesse la Power Edition raffredda la V-ram e le fasi tramite una piastra dissipante che ricopre l'intero pcb o quasi (che tra l'altro è la stessa che viene montata sulla Lightinig e la Twin Frozr).

<Masquerade>
06-01-2013, 09:05
Però, mica male:
http://www.abload.de/img/immaginezsri6.png (http://www.abload.de/image.php?img=immaginezsri6.png)


http://www.abload.de/image.php?img=rp6orh.jpg

forse forse potrebbe regge anche i 1392Mhz in game no per bench. un pò sfortunata sulle memorie, l'altra teneva anche tra i 7300-7400.

vediamo con test più approfonditi , che sta -fortunata edition- l'ho sempre tenuta addormentata alle frequenze della seconda.

TigerTank
06-01-2013, 09:30
tiger,tu che dici sull'overclock della ram? conviene spingerlo fin dove regge o potrei rovinare qualcosa visto che sulla mia 670 non ho montato alcun dissipatore per le ram?
le temperature del core sono ottime con l'accelero,non ho mai visto i 60 gradi anche con 1,212v

Io le RAm non le alzerei più di tanto, in quanto le differenze che apportano sono realmente minime. Inutile rischiare per niente in poche parole.

Le ram su queste schede hanno un bel pò di margine arrivando anche a 7000 o più, per cui qualcosina senza esagerare glielo si può anche dare...tipo 6400-6600. Io le tenevo così quando avevo una sola gtx670, con lo Sli ho dato alle ram di entrambe solo un +200(400 Mhz) a entrambe le schede. In caso però assicuratevi che se non dissipate ci sia almeno un buon ricircolo d'aria sulle vga.
Ora non ho test comparativi da postare ma altri utenti avevano già dimostrato che alzare le ram portava invece un boost piuttosto tangibile.
Vedete voi, se non vi sentite sicuri lasciatele anche a default che vanno più che bene ;)

Grazie Tiger.
Tu o qualcun altro avete lo stesso bench con Unigine 3 sempre a 1080P tutto maxato ma senza alcun OC?

Purtroppo al momento non ho screens da postarti ma in questa situazione dovresti viaggiare sui 1200 punti.

gaevulk
06-01-2013, 10:01
Confermo, era la mia risposta in seguito alla domanda che mi aveva posto Delly :)

Comunque per chi se lo chiedesse la Power Edition raffredda la V-ram e le fasi tramite una piastra dissipante che ricopre l'intero pcb o quasi (che tra l'altro è la stessa che viene montata sulla Lightinig e la Twin Frozr).

ecco,ora che leggo bene vedo che la scheda e' la tua ;)

Le ram su queste schede hanno un bel pò di margine arrivando anche a 7000 o più, per cui qualcosina senza esagerare glielo si può anche dare...tipo 6400-6600. Io le tenevo così quando avevo una sola gtx670, con lo Sli ho dato alle ram di entrambe solo un +200(400 Mhz) a entrambe le schede. In caso però assicuratevi che se non dissipate ci sia almeno un buon ricircolo d'aria sulle vga.
Ora non ho test comparativi da postare ma altri utenti avevano già dimostrato che alzare le ram portava invece un boost piuttosto tangibile.
Vedete voi, se non vi sentite sicuri lasciatele anche a default che vanno più che bene ;)



Purtroppo al momento non ho screens da postarti ma in questa situazione dovresti viaggiare sui 1200 punti.

ho provato ad alzare le ram e reggono anche un +600 :eek: ,il boost prestazionale secondo unigine heaven c'e' ecome,da +0 a +500 gia' guadagno un buon 10% sugli fps :eek: ora l'ho impostate a +500,dite che montando i dissipatorini posso stare tranquillo?

killeragosta90
06-01-2013, 10:13
Io le RAm non le alzerei più di tanto, in quanto le differenze che apportano sono realmente minime. Inutile rischiare per niente in poche parole.

Sbagli, questo accadeva con la precedente generazione, con la serie Kepler la differenza è più marcata. O almeno così mi è parso di vedere. :)

illidan2000
06-01-2013, 10:38
Ho già capito che oltre l'oc del 3770k, se continuo a seguirvi finirò per occare pure la 680... mai oveclockata una vga prima.. :fagiano:

e che aspetti!!! è fatta per essere overcloccata!
poi, per come nvidia ha obbligato le aziende a non permettere l'overvolt, non riusciresti a fare danni nemmeno se ti impegnassi!

slide1965
06-01-2013, 11:08
Ieri ho installato gli ultimi driver nvidia ma c'e qualcosa che non quadra:
ogni tanto all'accensione il desktop va fuori risoluzione e il pannello di controllo nvidia non e' accessibile.

windows riporta la scritta :

"le impostazioni dello schermo nvidia non sono disponibili"
"attualmente non si sta utilizzando uno schermo collegato a una GPU nvidia".

Mi basta spegnere e riaccendere per far si che magicamente il problema sparisca e tutto torni alla normalità .
Direi che non e' del tutto normale.

Ho provato a reinstallare i driver da zero ma idem.

Qualcuno altro ha lo stesso problema?

Gun09
06-01-2013, 11:22
Confermo, era la mia risposta in seguito alla domanda che mi aveva posto Delly :)

Comunque per chi se lo chiedesse la Power Edition raffredda la V-ram e le fasi tramite una piastra dissipante che ricopre l'intero pcb o quasi (che tra l'altro è la stessa che viene montata sulla Lightinig e la Twin Frozr).

Killer, te con la 2.2.3 sei riuscito a portarla oltre 1.175V?
Che BIOS hai? Il mio non dovrebbe permettermelo, è il 80.04.4B.00.47.

Comunque ragazzi ho letto che dovrebbe essere dannoso a lungo andare stare sopra gli 1.175V, confermate?

illidan2000
06-01-2013, 11:26
Ieri ho installato gli ultimi driver nvidia ma c'e qualcosa che non quadra:
ogni tanto all'accensione il desktop va fuori risoluzione e il pannello di controllo nvidia non e' accessibile.

windows riporta la scritta :

"le impostazioni dello schermo nvidia non sono disponibili"
"attualmente non si sta utilizzando uno schermo collegato a una GPU nvidia".

Mi basta spegnere e riaccendere per far si che magicamente il problema sparisca e tutto torni alla normalità .
Direi che non e' del tutto normale.

Ho provato a reinstallare i driver da zero ma idem.

Qualcuno altro ha lo stesso problema?

windows 7 o windows 8?
pure a me win8 ha fatto le bizze le prime volte... cmq prova a scaricare gli ultimi drivers, forse ti risolve

ryosaeba86
06-01-2013, 11:30
windows 7 o windows 8?
pure a me win8 ha fatto le bizze le prime volte... cmq prova a scaricare gli ultimi drivers, forse ti risolve

ha proprio provato gli ultimie hanno fatto questo problema...
per questo aspetto sempre io..nn si sa mai cosa si trova....:)

slide1965
06-01-2013, 11:35
Gli ultimi,quelli usciti ieri.
Ho win 7 ult64 non win 8.

¥º·RG·º¥
06-01-2013, 11:40
Gli ultimi,quelli usciti ieri.
Ho win 7 ult64 non win 8.

Io su Windows 8, 0 problemi :)

gaevulk
06-01-2013, 11:58
Killer, te con la 2.2.3 sei riuscito a portarla oltre 1.175V?
Che BIOS hai? Il mio non dovrebbe permettermelo, è il 80.04.4B.00.47.

Comunque ragazzi ho letto che dovrebbe essere dannoso a lungo andare stare sopra gli 1.175V, confermate?

dove lo hai letto? posta un link se puoi ;)

Gun09
06-01-2013, 12:07
dove lo hai letto? posta un link se puoi ;)

Ricordo che si trattava di una discussione su Tom's hw (ora non la trovo), quindi si trattava sempre di comune utenza, perciò se qualcuno smentisce quel che ho letto io non potrei altro che esserne felice :D

<Masquerade>
06-01-2013, 12:16
io son mesi che tengo una 670 ad 1.212 e non è mai successo nulla.
e pure su xtreme system c'è gente che le ha sbloccate.. idem su overclock.net.
continuerò a tenerla così, visto che a me piace spremerla al max delle sue possibilità una scheda video.
e non penso proprio si rompa da qui ai prox 3 mesi :asd:

Messi89
06-01-2013, 12:18
ho provato il gioco planetside 2, cala un po troppo di fps...
sarà sicuramente la cpu....Vero Gian?
:rotfl:

Gun09
06-01-2013, 12:38
io son mesi che tengo una 670 ad 1.212 e non è mai successo nulla.
e pure su xtreme system c'è gente che le ha sbloccate.. idem su overclock.net.
continuerò a tenerla così, visto che a me piace spremerla al max delle sue possibilità una scheda video.
e non penso proprio si rompa da qui ai prox 3 mesi :asd:

Ottimo allora :)

55AMG
06-01-2013, 14:02
Mi confermate che la 670 Gigabyte WindForce3 4Gb è tri-slot? Dalle specifiche del sito sembra di sì.

<Masquerade>
06-01-2013, 14:10
Mi confermate che la 670 Gigabyte WindForce3 4Gb è tri-slot? Dalle specifiche del sito sembra di sì.

vuoi pure la conferma? da solo non ci arrivi a capirlo? con immagini tipo questa del sito gigabyte?

http://www.abload.de/img/6796_m44p27.png (http://www.abload.de/image.php?img=6796_m44p27.png)

http://www.gigabyte.com/products/product-page.aspx?pid=4375#ov

55AMG
06-01-2013, 14:14
vuoi pure la conferma? da solo non ci arrivi a capirlo? con immagini tipo questa del sito gigabyte?

Se devi rispondere così puo itranquillamente ignorare e passare avanti.
Se chiedo conferma un motivo ci sarà stupido o meno che sia.

<Masquerade>
06-01-2013, 14:16
Se chiedo conferma un motivo ci sarà stupido o meno che sia.

quale sarebbe scusa? per curiosità

xchè se hai visto il sito si vede benissimo che la scheda è tre slot.

55AMG
06-01-2013, 14:18
Semplice, preferisco conferme di chi ce l'ha. Non è la prima volta che su siti (anche ufficiali) ci sono foto o specifiche errate. E siccome ho avuto brutta esperienza preferisco la certezza al 100% e, credo, l'unico modo sia chiedere a chi l'ha comprata o vista di persona. Magari è una "fissa" mia, ma lo preferisco veremente.
Tutto qua.

<Masquerade>
06-01-2013, 14:33
Mah, io non l'ho vista dal vivo, ma secondo me puoi star tranquillo che è in quel modo. non solo nel sito ma in tutte le news uscite la scheda è in quel modo :asd:
se non ti fidi ancora eccoti un video bellino su youtube, lo puoi mettere anche a 720p :asd:

http://www.youtube.com/watch?v=00Yy391fO74

55AMG
06-01-2013, 14:36
Ok grazie 1000

<Masquerade>
06-01-2013, 14:39
cmq la scheda + che 3, è una due slot e mezza.
infatti il dissipatore come si può vedere è più basso del bracket

55AMG
06-01-2013, 14:44
Se non erro invece la 670 EVGA 4GB dovrebbe essere 2 slot.
Mi fa paura che sia però runorosa.

<Masquerade>
06-01-2013, 14:47
Se non erro invece la 670 EVGA 4GB dovrebbe essere 2 slot.
Mi fa paura che sia però runorosa.

quella si è due slot. e si, è rumorosetta. da quello che ho letto nel forum overclock.net.

altrimenti valuta quella come la mia, la zotac. è dual slot, ed è come la 680, stesso dissy e pcb lungo. ed è meglio della evga.
altrimenti c'è anche la asus DCII dual slot sempre con 4GB

55AMG
06-01-2013, 14:50
Zotac non conosco bene, ora approfondisco più nel dettaglio.
Asus per quanto buone preferisco starci alla larga in quanto purtroppo l'assistenza post-vendita da un paio d'anni a questa parte lascia molto a desiderare.

<Masquerade>
06-01-2013, 14:54
per evga mi son dimenticato una cosa.

che ora esiste anche la 670 FTW (FTW = alla 680 reference) 4GB. mentre prima ci stava solo quella con il pcb corto.
http://www.evga.com/Products/Product.aspx?pn=04G-P4-3673-KR

55AMG
06-01-2013, 15:03
Sì ma purtroppo ha sempre il problema della rumorosità.
Ho guardato sul sito Zotac la 670 4GB e non mi va il link delle immagini (problemi del sito penso).
Se non sbaglio, non essendoci la versione AMP!, dovrebbe essere sempre monoventola, quindi sempre rumorosa come EVGA?

<Masquerade>
06-01-2013, 15:08
allora. la evga monoventola con il pcb corto è rumorosa.
la evga ftw e zotac 4gb (quindi come dicevamo uguali alle 680 reference) per esser schede con quel tipo di dissipatore van bene cmq. anche se ovviamente una custom come la gigabyte (o asus ecc) che avevi in mente è molto meglio per temp e rumorosità.
secondo me la gigabyte è ottima. se vuoi il max come temp / silenziosità vedrai ti devi dirigere su quella che è custom

55AMG
06-01-2013, 15:12
Gigabyte era la mia scelta, i nquanto ne ho sentito parlare molto bene. Mi preoccupano gli ingombri, più che altro in ottica di un eventuale SLi futuro.

<Masquerade>
06-01-2013, 15:46
ti servirebbe una mobo adatta per tenerle distanziate

TigerTank
06-01-2013, 15:52
Gigabyte era la mia scelta, i nquanto ne ho sentito parlare molto bene. Mi preoccupano gli ingombri, più che altro in ottica di un eventuale SLi futuro.

Perdona la domanda...ma come mai ti serve proprio il modello da 4 GB?

55AMG
06-01-2013, 15:54
Voglio longevità, di "soli" 2GB non mi fido più di tanto. So che le differenze sarebbero (dove presenti) minime o nulle. Ma calcolando anche l'arrivo delle console next-gen (con relativo, si spera, innalzamento anche della qualità dei giochi per PC), e vista la spesa non irrisoria, vorrei stare "largo".

egounix
06-01-2013, 15:55
Gigabyte era la mia scelta, i nquanto ne ho sentito parlare molto bene. Mi preoccupano gli ingombri, più che altro in ottica di un eventuale SLi futuro.

Ma non prendevi la 7970 vapour-x 6gb?


Sent from my DingDingDong (by Gunter) using my Tralala!

gaevulk
06-01-2013, 16:05
E voi siste convinti che con l'arrivo delle nuove console il livello dei giochi per pc aumenti cosi tanto? :stordita:

55AMG
06-01-2013, 16:07
Ego ciao quanto tempo :)
Avevo poi preso (ed ho) la 7970 Ghz Edition Vapor-X (3GB).
Sto assemblando un altro PC (di punta) e volevo provare anche una 670.
Cioè le scelte sarebbero queste:

1. Su PC principale ci metto Cross di 7970 e su muletto tengo la 5870.
2. Su PC principale ci metto 670 (4GB?) e su muletto (o viceversa) la 7970.
3. Faccio su PC principale uno Sli di 660Ti o un Cross di 7950 e su muletto la 7970.

La preferenza andrebbe su prendere un nVidia tanto per differenziare un po'.

<Masquerade>
06-01-2013, 16:10
E voi siste convinti che con l'arrivo delle nuove console il livello dei giochi per pc aumenti cosi tanto? :stordita:

secondo me si. ma ho paura aumenterà anche la pesantezza.

illidan2000
06-01-2013, 16:24
Ego ciao quanto tempo :)
Avevo poi preso (ed ho) la 7970 Ghz Edition Vapor-X (3GB).
Sto assemblando un altro PC (di punta) e volevo provare anche una 670.
Cioè le scelte sarebbero queste:

1. Su PC principale ci metto Cross di 7970 e su muletto tengo la 5870.
2. Su PC principale ci metto 670 (4GB?) e su muletto (o viceversa) la 7970.
3. Faccio su PC principale uno Sli di 660Ti o un Cross di 7950 e su muletto la 7970.

La preferenza andrebbe su prendere un nVidia tanto per differenziare un po'.

Prendi la asus dcu2 da 4gb allora, che è una due slot

Inviato dal mio GT-N7000 usando Tapatalk

TigerTank
06-01-2013, 16:27
Voglio longevità, di "soli" 2GB non mi fido più di tanto. So che le differenze sarebbero (dove presenti) minime o nulle. Ma calcolando anche l'arrivo delle console next-gen (con relativo, si spera, innalzamento anche della qualità dei giochi per PC), e vista la spesa non irrisoria, vorrei stare "largo".

Secondo me tanto vale che prendi la 2GB soprattutto se resterai ancora a lungo ad esempio in fullHD 60Hz. Questo perchè quando succederà ciò che hai scritto sarà facile che 4Gb di Vram possano diventare utili...ma contemporaneamente la GPU sarà ormai obsoleta in quanto a potenza di calcolo necessaria ;)

tristano9000
06-01-2013, 17:35
ragazzi scusate ma per un monitor 120hz è preferibile un nvidia o amd, siccome sono in procinto di prendere una nuova scheda video vorrei scegliere una che non mi dia problemi con il monitor, stavo per acquistare una msi lightning 7970, ma addirittura noto che non ha l'uscita dual link.

Antonioplay85
06-01-2013, 18:10
ragazzi scusate ma per un monitor 120hz è preferibile un nvidia o amd, siccome sono in procinto di prendere una nuova scheda video vorrei scegliere una che non mi dia problemi con il monitor, stavo per acquistare una msi lightning 7970, ma addirittura noto che non ha l'uscita dual link.

per il 120Hz vai di nvidia ;)

sickofitall
06-01-2013, 18:11
ragazzi scusate ma per un monitor 120hz è preferibile un nvidia o amd, siccome sono in procinto di prendere una nuova scheda video vorrei scegliere una che non mi dia problemi con il monitor, stavo per acquistare una msi lightning 7970, ma addirittura noto che non ha l'uscita dual link.

Entrambe le schede permettono l'utilizzo dei 120hz, in generale però con nvidia il più delle volte si riesce ad avere un'esperienza migliore

Questo è il mio personale parere e non voglio certo generalizzare ;)

aaasssdddfffggg
06-01-2013, 18:12
ragazzi scusate ma per un monitor 120hz è preferibile un nvidia o amd, siccome sono in procinto di prendere una nuova scheda video vorrei scegliere una che non mi dia problemi con il monitor, stavo per acquistare una msi lightning 7970, ma addirittura noto che non ha l'uscita dual link.

se intendi sfruttare i 120hz,se intendi giocare in 3D "attivo" vai di NVIDIA.Strada obbligata o quasi direi.

keyvan
06-01-2013, 18:40
Mi confermate che la 670 Gigabyte WindForce3 4Gb è tri-slot? Dalle specifiche del sito sembra di sì.

Non ridere eh,non so cosa significhi tri-slot ma ho questa scheda,se mi spieghi cosa vuoldire,posso verificare e dirtelo.

tristano9000
06-01-2013, 18:47
se intendi sfruttare i 120hz,se intendi giocare in 3D "attivo" vai di NVIDIA.Strada obbligata o quasi direi.

a me interessa solo sfruttare i 120hz, però sono un pò in confusione da quello che leggo nelle discussioni, dei 2gb di ram che sono pochini e sul fatto che con i nuovi driver le amd vadano un pochino meglio

NOOB4EVER
06-01-2013, 19:02
a me interessa solo sfruttare i 120hz, però sono un pò in confusione da quello che leggo nelle discussioni, dei 2gb di ram che sono pochini e sul fatto che con i nuovi driver le amd vadano un pochino meglio

quoto quoto,prendere una GTX670/680 con 2GB di ram Video e' una mossa tra le piu' stupide,i 2 gb sono il tallone di achille di questa architettura e quindi se giochi in 1920 x 1080 ti ci vuole come minimo una 4 GB :O






Nemesis Elite ne vende 2

Obrigado
06-01-2013, 19:10
a me interessa solo sfruttare i 120hz, però sono un pò in confusione da quello che leggo nelle discussioni, dei 2gb di ram che sono pochini e sul fatto che con i nuovi driver le amd vadano un pochino meglio

la differenza che rende le nvidia migliori per il 2D 120hz e' una!

installando i driver ma escludendo il driver 3d vision, ti permettera' di avere nelle opzioni video una voce (forza aggiornamento massimo) che ti fa forzare la maggior parte dei giochi cappati a 60fps a 120fps.

esempio1: 7970 + monitor 120hz + dirt2= 60fps
esempio2: 7970 + monitor 120hz + need for speed world= 60fps
esempio3: 7970 + monitor 120hz + moh:warfighter=60fps

con nvidia

esempio1: 680 + monitor 120hz + dirt2= 120fps
esempio2: 680 + monitor 120hz + need for speed world= 120fps
esempio3: 680 + monitor 120hz + moh:warfighter=120fps

belga_giulio
06-01-2013, 19:11
E voi siste convinti che con l'arrivo delle nuove console il livello dei giochi per pc aumenti cosi tanto? :stordita:

Ragazzi, ma veramente, secondo me non aumenterà così tanto la richiesta hardware con l'arrivo delle nuove console....

Un caso emblematico è quello di The witcher 2...

L'anno scorso il mio i7 860 con una 580 mi faceva avere tra i 45 e i 60 fps con tutto maxato, in full hd!
E sappiamo che quel gioco è stato programmato pensando alle risorse hardware dei pc, e non delle console...
infatti sappiamo che gli ci sono voluti mesi a quelli di cd project per portarlo sulla xbox360, perché lo hanno dovuto castrare di brutto, pur facendo in modo che non sembrasse tanto...

Quello che voglio dire è che l'hardware che abbiamo attualmente su pc è sicuramente già più potente dell'hardware che avranno le console next gen.... pensateci!! :)

Questo vuol dire che molto probabilmente per i porting dalle console next gen una 680 con 4 giga e un sandy/ivy occati (ma forse anche no) basteranno sicuramente per giocare...

Secondo me ci accorgeremo relativamente della differenza..

Orkozzio
06-01-2013, 19:15
Ragazzi, ma veramente, secondo me non aumenterà così tanto la richiesta hardware con l'arrivo delle nuove console....

Un caso emblematico è quello di The witcher 2...

L'anno scorso il mio i7 860 con una 580 mi faceva avere tra i 45 e i 60 fps con tutto maxato, in full hd!
E sappiamo che quel gioco è stato programmato pensando alle risorse hardware dei pc, e non delle console...
infatti sappiamo che gli ci sono voluti mesi a quelli di cd project per portarlo sulla xbox360, perché lo hanno dovuto castrare di brutto, pur facendo in modo che non sembrasse tanto...

Quello che voglio dire è che l'hardware che abbiamo attualmente su pc è sicuramente già più potente dell'hardware che avranno le console next gen.... pensateci!! :)

Questo vuol dire che molto probabilmente per i porting dalle console next gen una 680 con 4 giga e un sandy/ivy occati (ma forse anche no) basteranno sicuramente per giocare...

Secondo me ci accorgeremo relativamente della differenza..


Sicuramente non possono avere chissà quale potenza nella nuove console semplicemente xchè devono contenersi sul costo finale della console stessa altrimenti non se la compra nessuno!;)
E' positivo xò che finalmente non si lavorerà più su giochi adatti a console vecchie di parecchi anni!;)

Simoasd
06-01-2013, 19:20
Secondo me per un paio di anni i 2 gb in fullhd basteranno, non penso che i primi giochi per console next gen possano subito essere dei crysis 2 + maldohd mod pompati.

A proposito di Maldohd mod, quanta vram vi occupa al massimo?

<Masquerade>
06-01-2013, 19:25
già ora molti multi piatta vari maxandoli mettono in crisi le schede high end.
figuriamoci quando usciranno giochi multi piatta provenienti dalle prossime console che saranno molto più potenti delle attuali...
+ la spurzzatella di dx12 (perchè puntualmente ci sarà anche questa menata qui ad appesantire il tutto)... ciao ciao alle schede di oggi, non dico sempre ma insomma l'arrancheira, utilizzandole a risoluzione parecchio alta, imho iniziera a far capolino.

<Masquerade>
06-01-2013, 19:26
su questa cosa so cinico.

tristano9000
06-01-2013, 19:28
la differenza che rende le nvidia migliori per il 2D 120hz e' una!

installando i driver ma escludendo il driver 3d vision, ti permettera' di avere nelle opzioni video una voce (forza aggiornamento massimo) che ti fa forzare la maggior parte dei giochi cappati a 60fps a 120fps.

esempio1: 7970 + monitor 120hz + dirt2= 60fps
esempio2: 7970 + monitor 120hz + need for speed world= 60fps
esempio3: 7970 + monitor 120hz + moh:warfighter=60fps

con nvidia

esempio1: 680 + monitor 120hz + dirt2= 120fps
esempio2: 680 + monitor 120hz + need for speed world= 120fps
esempio3: 680 + monitor 120hz + moh:warfighter=120fps

quindi per il mio monitor 120hz un nvidia resta una scelta quasi obbligata, ma questi esempi valgono per questi giochi o ce ne sono altri ?

Goofy Goober
06-01-2013, 19:31
Un caso emblematico è quello di The witcher 2...
L'anno scorso il mio i7 860 con una 580 mi faceva avere tra i 45 e i 60 fps con tutto maxato, in full hd!


l'anno scorso the witcher 2 con ubersampling attivo (se dici tutto maxato...) faceva 2,5fps sulla mia config :asd:

battute a parte, come sempre, bastano l'uscita di qualche nuovo gioco appositamente appesantito per far diventare obsolete anche le configurazioni più potenti.

c'è poco da pensare a cosa, come, quando succederà, tanto si sa che succederà, altrimenti se seguiamo il discorso delle console io dovrei giocare a 60fps o 120fps fissi con qualunque gioco esistente con le mie 2 580gtx a settaggi massimi, eppure non è così. :)

sickofitall
06-01-2013, 19:37
quindi per il mio monitor 120hz un nvidia resta una scelta quasi obbligata, ma questi esempi valgono per questi giochi o ce ne sono altri ?

anche aliens vs predator (dx11) e crysis1+warhead (dx10) sono bloccati a 60hz, ma ce ne sono anche altri che non ricordo

<Masquerade>
06-01-2013, 19:38
l'anno scorso the witcher 2 con ubersampling attivo (se dici tutto maxato...) faceva 2,5fps sulla mia config :asd:


ed anche togliendoli l'ubersampling ci son alcuni punti dove va sotto i 45fps, arriva pure a toccare i 30fps minimi nel capitolo 2. ed avevo la 580 @940mhz

55AMG
06-01-2013, 19:42
Non ridere eh,non so cosa significhi tri-slot ma ho questa scheda,se mi spieghi cosa vuoldire,posso verificare e dirtelo.

Non rido ci mancherebbe.
Tri-slot vuol dire quanti slot occupa. Si capisce anche guardando "dietro" al PC (anche se poi la scheda può occupare 2,5 slot internamente). Se occupa tre feritorie è tri-slot, due, dual-slot,etc etc
Grazie dell'interesse ma avevo già risolto comunque.

55AMG
06-01-2013, 19:45
quindi per il mio monitor 120hz un nvidia resta una scelta quasi obbligata, ma questi esempi valgono per questi giochi o ce ne sono altri ?

Se intendi usare il 3D è leggermente meglio nVidia.
Se intendi usare i 120hz restando nel 2D vanno bene entrambe. Poi dipende quale è la più performante da scheda a scheda.

<Masquerade>
06-01-2013, 19:52
esempio: prendete GTA VICE CITY e SAN ANDREAS!!!

titolo multi piatta proveniente dalla vecchia generazione console ps2/xbox che per maxarlo su pc bastava una scheda video della generazione a momenti della radeon 9800pro.

prendete GTAIV , titolo multi piatta proveniente dalla attuale generazione console xbox 360/ps3 che se lo maxi fa arrancare le GTX 680 e 7970 (e GTA5 magari sarà più peso).

immaginatevi un GTA 6....con un mondo ancora più vasto e dettagliato con magari le dx12 con l'aa speciale che ti leva 30fps... secondo me sarà più pesante.
io non ci credo alla favoletta grafica + bella e gioco ottimizzato meglio.
non ci sperate tanto perchè rimarrete delusi ancora una volta.

TigerTank
06-01-2013, 19:59
ragazzi scusate ma per un monitor 120hz è preferibile un nvidia o amd, siccome sono in procinto di prendere una nuova scheda video vorrei scegliere una che non mi dia problemi con il monitor, stavo per acquistare una msi lightning 7970, ma addirittura noto che non ha l'uscita dual link.

Dipende dal monitor, se preferisci una vga Nvidia prendi un monitor che sia certificato per il 3DVision altrimenti ti ritroverai tutto bloccato via drivers e non potrai giocare in 3D. Il mio Samsung 120Hz ad esempio non è certificato per cui salvo qualche trucchetto parzialmente funzionante non potrei mai usarlo in 3D con il 3D Vision.

quoto quoto,prendere una GTX670/680 con 2GB di ram Video e' una mossa tra le piu' stupide,i 2 gb sono il tallone di achille di questa architettura e quindi se giochi in 1920 x 1080 ti ci vuole come minimo una 4 GB :O


Ahahahah perfido! :Perfido:


io non ci credo alla favoletta grafica + bella e gioco ottimizzato meglio.
non ci sperate tanto perchè rimarrete delusi ancora una volta.
Purtroppo esiste anche la più che reale favoletta: appesantiamo i giochi di proposito per spingere più gente possibile all'upgrade delle proprie vga.

sickofitall
06-01-2013, 20:12
prendete GTAIV , titolo multi piatta proveniente dalla attuale generazione console xbox 360/ps3 che se lo maxi fa arrancare le GTX 680 e 7970 (e GTA5 magari sarà più peso).

già, guarda caso abbassando 2 voci pure qui gli fps schizzano, dai 40-50 ai 70-80 (togliendo pure lo suttering)

ovviamente con una sola vga

Purtroppo esiste anche la più che reale favoletta: appesantiamo i giochi di proposito per spingere più gente possibile all'upgrade delle proprie vga.
:mano:

Messi89
06-01-2013, 20:17
il problema vostro è che siete tutti CPU LIMITED

<Masquerade>
06-01-2013, 20:20
Purtroppo esiste anche la più che reale favoletta: appesantiamo i giochi di proposito per spingere più gente possibile all'upgrade delle proprie vga.
eh, questa cosa ci sarà sempre.SEMPRE.
perchè non è, che te prendi il gioco della 720, e lo porti su pc e via... ci staranno quei miglioramenti su pc che te lo renderanno un mattone. non dico sempre ma succederà spesso.

BruceWilliss
06-01-2013, 20:21
Io su Windows 8, 0 problemi :)confermo testati oggi! :)

<Masquerade>
06-01-2013, 20:22
oggi è sempre così. porting da console, + le DX11 è diventa un mattone immenso.
immaginati il porting dalla ps4, più le dx11-dx12 ....ed ecco che, se vuoi maxare il gioco, il mattone è servito.

sickofitall
06-01-2013, 20:23
il problema vostro è che siete tutti CPU LIMITED

Impossibile, io ho un ivy bridge 3570K (4 CORE e 4 THREAD) :O lo overclocco a 4ghz e spacco tutto!!!111!!1!1! :O

slide1965
06-01-2013, 20:24
Ho un amico che di schermi a 120hz ne ha 3 in configurazione surround e giocando in 2D la differenza rispetto ad un 60hz conferma anche lui che non e' percettibile ,per cui se qualcuno mi riesce a spiegare l'utilità di avere 100 fps al secondo gli sarei grato.
;)

Obrigado
06-01-2013, 20:25
Ho un amico che di schermi a 120hz ne ha 3 in configurazione surround e giocando in 2D la differenza rispetto ad un 60hz conferma anche lui che non e' percettibile ,per cui se qualcuno mi riesce a spiegare l'utilità di avere 100 fps al secondo gli sarei grato.
;)

il tuo amico ha problemi di vista/percezione.

giocando a 120fps si hanno molti vantaggi:

scie annullate o ridotte all'osso.
i monitor 120hz spesso hanno al massimo 1frame di lag (8.66ms o poco piu)
si e' piu' competitivi giocando online
si puo' giocare col v-sync sfruttando a fondo il comparto video
generalmente si riesce a giocare di piu' per via del minor affaticamento degli occhi

slide1965
06-01-2013, 20:28
I problemi di vista non li ha solo lui ma anche io perche sono a casa sua 3 volte alla settimana e ti confermo che non si nota differenza alcuna.
Per essere competitivi online bisogna saper giocare al gioco a cui si gioca .
Io di scie non ne ho ed ho un 60hz.

Obrigado
06-01-2013, 20:30
I problemi di vista non li ha solo lui ma anche io perche sono a casa sua 3 volte alla settimana e ti confermo che non si nota differenza alcuna.
Per essere competitivi online bisogna saper giocare al gioco a cui si gioca .
Io di scie non ne ho ed ho un 60hz.

forse perche li tiene a 60hz.

oppure seriamente avete un occhio poco sensibile e non sareste gli unici al mondo... anzi..

chiudiamo qui il discorso altrimente se ne esce qualcuno che dice pure che oltre 30fotogrammi al secondo l'occhio umano non vede..

NB: forse saro' nella tomba e qualcuno lo credera' ancora..

NB: vuol dire che siete molto fortunati. vi risparmiate un sacco di soldi se non vi accorgete di BEN 60FOTOGRAMMI IN PIU NELLO STESSO SECONDO!!!

BruceWilliss
06-01-2013, 20:32
I problemi di vista non li ha solo lui ma anche io perche sono a casa sua 3 volte alla settimana e ti confermo che non si nota differenza alcuna.
Per essere competitivi online bisogna saper giocare al gioco a cui si gioca .
Io di scie non ne ho ed ho un 60hz.allora siamo in 3!!! :D il problema è con che monitor da 60 si confronta quello da 120!! certo che se provano 60hz scadenti magari si noterà anche ma se posso dirti la mia sono soldi buttati nel water..chissà se abbiamo problemi di visione noi o chissà se sono condizionati loro dalla spesa fatta... :D

slide1965
06-01-2013, 20:33
evidentemente ha la vista di Superman ,beato lui.:D
Un po' come quelli che se non hanno un mouse a 1450000 dpi non accendono il computer.
Per cortesia su...

Obrigado
06-01-2013, 20:35
vabbe siete anziani... avrete l'occhio un po appasito!

Goofy Goober
06-01-2013, 20:36
Bene allora sono "occhio superman" anche io, nonostante la miopia.

Basta su, sta storia degli fps e hz che si notano o non si notano sta diventando peggio di beautiful senza ridge....

BruceWilliss
06-01-2013, 20:37
vabbe siete anziani... avrete l'occhio un po appasito!mah... io ci vedo benissimo e non porto occhiali neppure per leggere... quindi almeno per me sei un pò fuori carreggiata. ;)

slide1965
06-01-2013, 20:37
Questa dei monitor a 120 Hz e un po' come quella che se non si hanno 4gb di vram ormai non si e' nessuno e non si gioca piu nemmeno in full hd.
Mah......:muro:

Obrigado
06-01-2013, 20:37
mah... io ci vedo benissimo e non porto occhiali neppure per leggere... quindi almeno per me sei un pò fuori carreggiata. ;)

vuol dire che non cogli la differenza... ma non per questo la tua e' verita' e la mia no!

slide1965
06-01-2013, 20:39
Basta su, sta storia degli fps e hz che si notano o non si notano sta diventando peggio di beautiful senza ridge....
Sopratutto se ci si ostina a non capire che l'occhio umano (Superman a parte) non riesce a cogliere differenze tra 60fps e 6000000000 di fps.
Finche non si accetterà questo altro che Beautiful,qui possiamo girare Dallas.

Obrigado
06-01-2013, 20:40
Questa dei monitor a 120 Hz e un po' come quella che se non si hanno 4gb di vram ormai non si e' nessuno e non si gioca piu nemmeno in full hd.
Mah......:muro:

punti di vista.

ogni verita' e' opinabile. anche la tua!

55AMG
06-01-2013, 20:40
vabbe siete anziani... avrete l'occhio un po appasito!

LOL!

La verità come spesso accade credo stia nel mezzo.
Se un monitor 60HZ è ben calibrato e supoortato da una scheda video come si deve, le differenze diventeranno minime, però in teoria dovrebbero essere percepibili, soprattutto negli spostamenti veloci.

Io continuo a preferire un buon IPS ad un 120Hz, ma queste son oscelte personali.

Obrigado
06-01-2013, 20:41
Sopratutto se ci si ostina a non capire che l'occhio umano (Superman a parte) non riesce a cogliere differenze tra 60fps e 6000000000 di fps.
Finche non si accetterà questo altro che Beautiful,qui possiamo girare Dallas.

e si tu sei dentro ognuno di noi e hai la saggezza e le capacita' di essere tutti allo stesso momento..

insomma sei un dio che chiede consigli su come overcloccare la sua 690... ma che sa tutto il resto.

BruceWilliss
06-01-2013, 20:41
vuol dire che non cogli la differenza... ma non per questo la tua e' verita' e la mia no!ma neppure viceversa. ;) se tu noti fai bene a spendere ma se io non noto non spendo... te l'ho detto vanno fatti confronti con monitor decenti e non come ho trovato in rete monitor da 120 hz da 500 euro confrontati con 60 hz da 150 euro... ti piace vincere facile eee?!?! :D :D

slide1965
06-01-2013, 20:41
punti di vista.

ogni verita' e' opinabile. anche la tua!

Hai ragione ma la mia non e' una verità ma bensì e quello che dice la scienza.

<Masquerade>
06-01-2013, 20:42
Basta su, sta storia degli fps e hz che si notano o non si notano sta diventando peggio di beautiful senza ridge....

eh si, un pochettino ha inziato a stufare sta storia.
Raga...la verità è che a tanta gente non gli frega proprio un caxxo di fa 120fps nei giochi, non lo ritengono necessario. ne manco io lo ritengo necessario a dirti la verità. ma non critico o piglio per il ciapet chi ha tale necessità. li capisco.

slide1965
06-01-2013, 20:43
e si tu sei dentro ognuno di noi e hai la saggezza e le capacita' di essere tutti allo stesso momento..

insomma sei un dio che chiede consigli su come overcloccare la sua 690... ma che sa tutto il resto.
Il fatto che io non sappia fare un oc su una c...o di scheda video non fa di me un nabbo,spero tu te ne renda conto e il fatto che oltre un certo numero di fps l'occhio umano non riesce piu a discernere differenze non lo dico io ma gli scienziati che ci hanno studiato accanto.
Riesci a capire?
A meno che tu non abbia una qualche dote soprannaturale e' molto probabile che quello che vedi e' suggestione .

Goofy Goober
06-01-2013, 20:43
Questa dei monitor a 120 Hz e un po' come quella che se non si hanno 4gb di vram ormai non si e' nessuno e non si gioca piu nemmeno in full hd.
Mah......:muro:

Mah cosa? La tua frase sembra uscita da quell'album intitolato verità supposte :asd:

Cioè te la stai raccontando da solo, usando come paragoni cose che c'entrano meno dello zero entropico come i dpi di un mouse o i gb di vram. Perpiacere dai, un conto è esprimere un parere come "a me i 120hz non servono/piacciono", un conto è iniziare a straparlare

Obrigado
06-01-2013, 20:44
Hai ragione ma la mia non e' una verità ma bensì e quello che dice la scienza.

la tua scienza!

la vera scienza dice che ogni persona ha differenti capacita' cognitive e percettive.

e che l'occhio non percepisce fotogrammi, ma FOTONI/QUANTI DI LUCE.

c'e' chi percepisce la varizazione meglio di altri!!

tu fai parte del gruppo che non la percepisce nel migliore dei modi!

semplice no?

BruceWilliss
06-01-2013, 20:44
Questa dei monitor a 120 Hz e un po' come quella che se non si hanno 4gb di vram ormai non si e' nessuno e non si gioca piu nemmeno in full hd.
Mah......:muro:basta non dar retta a tutto quello che si legge! ;) io ho una 2gb e la vram non mi è mai mancata però si sa che c'è sempre chi si crede migliore anche di chi le ha progettate purtroppo :)

sickofitall
06-01-2013, 20:45
lol

<Masquerade>
06-01-2013, 20:45
basta non dar retta a tutto quello che si legge! ;) io ho una 2gb e la vram non mi è mai mancata però si sa che c'è sempre chi si crede migliore anche di chi le ha progettate purtroppo :)

io ho una 4GB, ma proprio oggi dicevo che una 2gb per una 1080p alla fine va bene.
l'ho presa solo per sfizio perchè mi tirava come modello.

slide1965
06-01-2013, 20:47
la tua scienza!

la vera scienza dice che ogni persona ha differenti capacita' cognitive e percettive.

e che l'occhio non percepisce fotogrammi, ma FOTONI/QUANTI DI LUCE.

c'e' chi percepisce la varizazione meglio di altri!!

tu fai parte del gruppo che non la percepisce nel migliore dei modi!

semplice no?
Si come no....la mia scienza.

Niente dai,avete ragione.
Con 120 Hz e' tutt un altra musica .:muro:

Beato te che fai parte del gruppo dei super-dotati.

Obrigado
06-01-2013, 20:49
Niente dai,avete ragione.
Con 120 Hz e' tutt un altra musica .:muro:

che tristezza..

al posto di ringraziare chi ti stava spiegando i vantaggi, hai preferito dar contro ad una realta' che non conosci e che non accetti per svariati motivi.

se ero come te non avrei mai scoperto i 120hz e non me li sarei mai goduti.

TRISTEZZA INFINITA PER TUTTI QUELLI COME TE!

<Masquerade>
06-01-2013, 20:49
Niente dai,avete ragione.
Con 120 Hz e' tutt un altra musica .:muro:

ma perchè ti ci incazzi? te sei soddisfatto del tuo monitor da 60hz? hai visto i 120hz non li riteni un gran vantaggio? allora basta così.
cosa vuoi discutere oltre? e sbattere la capa nel muro co sta smile??

slide1965
06-01-2013, 20:52
che tristezza..

al posto di ringraziare chi ti stava spiegando i vantaggi, hai preferito dar contro ad una realta' che non conosci e che non accetti per svariati motivi.

se ero come te non avrei mai scoperto i 120hz e non me li sarei mai goduti.

TRISTEZZA INFINITA PER TUTTI QUELLI COME TE!

Io dovrei ringraziarti??

secondo me stai delirando.

tu stai spiegando la teoria (non applicata) condita dalla tua suggestione.
Di vantaggi PRATICI e REALI nel 120hz non c'e ne sono in 2D.
Il resto e' suggestione .

Obrigado
06-01-2013, 20:53
Io dovrei ringraziarti??

secondo me stai delirando.

tu sati spiegando la teoria 8non applicata) e la tua suggestione perche'di vantaggi pratici REALI non c'e ne sono se non che il giocare in 3d,il resto e' suggestione .

ti diro'...

CREDICI!!!!

e' piu' comodo per la tua coscienza!

55AMG
06-01-2013, 20:56
Di vantaggi PRATICI e REALI nel 120hz non c'e ne sono in 2D.
Il resto e' suggestione .

Ciao Slide. Su immagine ferma, statica no.
Ma su panning (verticali od orizzontali) delle migliorie dei 120Hz rispetto ai 60Hz ci sono. Poi c'è chi le nota di più e chi di meno, poi ovvio non si stia parlando di differenze eclatanti.

Goofy Goober
06-01-2013, 20:57
Sopratutto se ci si ostina a non capire che l'occhio umano (Superman a parte) non riesce a cogliere differenze tra 60fps e 6000000000 di fps.
Finche non si accetterà questo altro che Beautiful,qui possiamo girare Dallas.

Si come no....la mia scienza.

Niente dai,avete ragione.
Con 120 Hz e' tutt un altra musica .:muro:

scusami ma, spiegami per quale ragione fai questa crociata CONTRO i 120hz negli schermi. Te ne hanno tirato uno in testa in questi giorni e ti hanno fatto male? :stordita:

inoltre, trovami la "scienza" che dice che l'occhio non vede oltre i 60frame.

mi pare che qui siamo ai livelli della leggenda metropolitana dei 30frame, nata perchè i film del cinema sono proiettati a 24p / 24 frame e quando questo fatto è stato reso noto ai più, una marea di poco informati è partita con la crociata dei 30 frame.

il punto è che ci sta tutta dire che è più difficile distinguere fluttuazioni di framerate oltre i 60 fps, rispetto a rilevare un calo da 60 a 40fps, ma ben altra cosa è dire che l'occhio umano è inabilitato a distinguere fluttuazione oltre i 60 frame, ossia che oltre i 60 frame l'occhio non vede il frame rate più elevato, cosa falsa, equivalente a dire che la terra è piatta :fagiano:

tra l'altro, non è il mio caso, ma una buona parte di utenti che gioca pesantemente a shooter online si trova meglio a giocare a dettagli minimi senza vsync per avere un framerate teoricamente infinito ben sopra i 60 (a parte blocchi del motore grafico).
se il loro occhio non distinguesse nulla/avesse vantaggio alcuno nell'osservare un gioco oltre i 60 frame, perchè fare tutto questo? follia pura? :stordita:

slide1965
06-01-2013, 21:00
@Obridago
io non ho bisogno di crederci per 3 motivi:
1-se prendevo un 120 hz risparmiavo pure dei soldi e se non lo preso c'e un motivo
2-e' stato studiato (non lo dico io ma fior fior di luminari di fama internazionale)che oltre un certo numero di frame l'occhio umano non riesce piu a cogliere differenza alcuna per cui CHE TI PIACCIA O MENO le differenze che vedi tu sono SUGGESTIONE.(A MENO CHE TU NON SIA SUPERMAN)

2-ho provato e ho amici che usano i 120 hz in 3d e loro stessi mi hanno consigliato(sapendo che a me il 3d fa schifo)di lasciar perdere perche in 2d non cambia una cippa DI NIENTE.
Detto questo tu puoi convincerti di vedere meglio a 120 hz che io dormo lo stesso la notte,vai tranquillo.
Come tu stesso hai detto:
credici
ma perchè ti ci incazzi? te sei soddisfatto del tuo monitor da 60hz? hai visto i 120hz non li riteni un gran vantaggio?
non mi incazzo certo x un monitor,si dialoga ;)

*SONY*
06-01-2013, 21:00
il tuo amico ha problemi di vista/percezione.

giocando a 120fps si hanno molti vantaggi:

scie annullate o ridotte all'osso.
i monitor 120hz spesso hanno al massimo 1frame di lag (8.66ms o poco piu)
si e' piu' competitivi giocando online
si puo' giocare col v-sync sfruttando a fondo il comparto video
generalmente si riesce a giocare di piu' per via del minor affaticamento degli occhi
Quoto tutto;)

Obrigado
06-01-2013, 21:03
Quoto tutto;)

dillo al signorino di sopra....

Obrigado
06-01-2013, 21:04
@Obridago
io non ho bisogno di crederci per 3 motivi:
1-se prendevo un 120 hz risparmiavo pure dei soldi e se non lo preso c'e un motivo
2-e' stato studiato (non lo dico io ma fior fior di luminari di fama internazionale)che oltre un certo numero di frame l'occhio umano non riesce piu a cogliere differenza alcuna per cui CHE TI PIACCIA O MENO le differenze che vedi tu sono SUGGESTIONE.(A MENO CHE TU NON SIA SUPERMAN)

2-ho provato e ho amici che usano i 120 hz in 3d e loro stessi mi hanno consigliato(sapendo che a me il 3d fa schifo)di lasciar perdere perche in 2d non cambia una cippa DI NIENTE.
Detto questo tu puoi convincerti di vedere meglio a 120 hz che io dormo lo stesso la notte,vai tranquillo.
Come tu stesso hai detto:
credici

non mi incazzo certo x un monitor,si dialoga ;)

quindi secondo te:

tutta la comunita' di persone che ha un 120hz e' tutta gente pazza e illusa che crede alla favolette?

complimenti!


sei tu il nuovo messia!

fatti qualche lettura va:

http://www.overclock.net/t/662628/60hz-vs-120hz-explained
http://www.pcper.com/reviews/Graphics-Cards/Frame-Rating-New-Graphics-Performance-Metric
http://techreport.com/review/21516/inside-the-second-a-new-look-at-game-benchmarking
http://www.youtube.com/watch?v=a2IF9ZPwgDM

55AMG
06-01-2013, 21:05
In effetti, anche io ero caduto nel discorso dei 30fps oltre i quali non si notavano differenze.
Poi, tramite prove mediche/aereonautiche, pare che la soglia sia sui 40/60fps a seconda della persona. Oltre scientificamente pare non vi siano differenze percepibil iad occhio umano.

C'è inoltre da ricordare che per fare "andare a dovere un 120Hz" serve più potenza della GPU stessa, e bisogna capire se questo vale la candela.
Una 670 a 120Hz come si comporta negli ultimi giochi?

<Masquerade>
06-01-2013, 21:06
se te hai provato e non ci hai visto miglioramenti non c'è più nulla da discutere.
cioè è inutile, finisci per scornarti con altri con una discussione infinita (come sta succedendo e diventa noiosa ed ot alla fine) che invece ce li hanno visti e che usano sti monitor.
se a te non convince va bene (anche a me non interessa per es.) ma è inutile fare come ti han detto prima la crociata contro i 120hz.

E BASTAAAAAAAAAAA!!!

<Masquerade>
06-01-2013, 21:09
Una 670 a 120Hz come si comporta negli ultimi giochi?

mah se abbassi i famosi dettagli pesantissimi certamente ci vai oltre i 60fps, quindi gli hz in più li sfrutti. 120fps fissi dubito.

chiudo qui.

Obrigado
06-01-2013, 21:10
bisogna capire l'esperimento:

http://www.youtube.com/watch?v=a2IF9ZPwgDM
http://www.youtube.com/watch?v=a2IF9ZPwgDM
http://www.youtube.com/watch?v=a2IF9ZPwgDM
http://www.youtube.com/watch?v=a2IF9ZPwgDM
http://www.youtube.com/watch?v=a2IF9ZPwgDM
http://www.youtube.com/watch?v=a2IF9ZPwgDM
http://www.youtube.com/watch?v=a2IF9ZPwgDM
http://www.youtube.com/watch?v=a2IF9ZPwgDM
http://www.youtube.com/watch?v=a2IF9ZPwgDM
http://www.youtube.com/watch?v=a2IF9ZPwgDM