PDA

View Full Version : [THREAD UFFICIALE - GK104] Geforce GTX770/760/690/680/670/660Ti


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 [34] 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133

BMWZ8
19-06-2012, 21:01
ragazzi ma questo fxaa sembra che rende tutta l'immagine leggermente più opaca...tipo qua http://www.hardocp.com/image.html?image=MTMzOTQwNjE2N2h1UDVxcXRtOVNfN18xMF9sLnBuZw==


guardate i colori dell'omino...fxaa sono più scuri, msaa belli brillanti, certo sulle scalettature vince l'fx a mani basse, ma mi sembra un compromesso molto migliorabile per ora, niente per cui sbavare ecco.


voi che avete provato...ditemi, sto dicendo cazzate??:D

NOOB4EVER
19-06-2012, 21:03
a noob non mi dire che è il tipo è Gian.b perchè rido fino a domani.
no sai, ieri sera aveva criticato nemesis perchè voleva un paio di 680 "pepate" :sbonk:

prendile te noob :sborone:


cmq le direct cu sicuri non si possono liquidare? non dico con la piastrellona che copre anche intorno alla gpu(memorie ecc).. ma con uno di quelli solo ed esclusivamente per la gpu...avete capito che intendo??

se piuttosto pasturo con 1000€ di boiles alle carpe al lago vicino casa :sofico:

na cmq ho il silverstone con le vga orizzontali ora vedo in settimana che monto 3750 e la 670 con le 3 ventole sotto e appuntola vga in verticale che sputa laria fuori....se facessero sti full cover per ste vga nane maledette :muro: :muro: :muro:

@Nem : sisi che si e' fiondato arrivano dopodomani :|

<Masquerade>
19-06-2012, 21:04
ragazzi ma questo fxaa sembra che rende tutta l'immagine leggermente più opaca...tipo qua http://www.hardocp.com/image.html?image=MTMzOTQwNjE2N2h1UDVxcXRtOVNfN18xMF9sLnBuZw==


guardate i colori dell'omino...fxaa sono più scuri, msaa belli brillanti, certo sulle scalettature vince l'fx a mani basse, ma mi sembra un compromesso molto migliorabile per ora, niente per cui sbavare ecco.


voi che avete provato...ditemi, sto dicendo cazzate??:D

io l'ho visto

1 posto smaa (il secondo più leggero)
2 posto fxaa (il più leggero di tutti)











98 posto MSAA4-8x (ed è pure pesante oltre che schifosamente scalettato)

mirkonorroz
19-06-2012, 21:16
Io da quegli screen capisco solo che avranno anche settato l'MSAA ma che e' implementato male. Ci sono giochi con MS4x in cui le scalette non si vedono certo cosi.

AA=SS. :read:

aaasssdddfffggg
19-06-2012, 21:16
io l'ho visto

1 posto smaa (il secondo più leggero)
2 posto fxaa (il più leggero di tutti)











98 posto MSAA4-8x (ed è pure pesante oltre che schifosamente scalettato)

e in MP3 stranamente è quello che rilascia i risultati visivi migliori e risorse inferiori.;)

<Masquerade>
19-06-2012, 21:19
se piuttosto pasturo con 1000€ di boiles alle carpe al lago vicino casa :sofico:

na cmq ho il silverstone con le vga orizzontali ora vedo in settimana che monto 3750 e la 670 con le 3 ventole sotto e appuntola vga in verticale che sputa laria fuori....se facessero sti full cover per ste vga nane maledette :muro: :muro: :muro:

@Nem : sisi che si e' fiondato arrivano dopodomani :|

:fagiano: :fagiano::fagiano:



e in MP3 stranamente è quello che rilascia i risultati visivi migliori e risorse inferiori.;)

rispetto al msaa non c'è paragone ;)
cmq in questo gioco ci avrei visto bene anche il TXAA...

aaasssdddfffggg
19-06-2012, 21:20
rispetto al msaa non c'è paragone ;)
cmq in questo gioco ci avrei visto bene anche il TXAA...

esattamente.Il TXAA lo troveremo certamente in CRYSIS 3 a detta di NVIDIA.

<Masquerade>
19-06-2012, 21:22
esattamente.Il TXAA lo troveremo certamente in CRYSIS 3 a detta di NVIDIA.

si... ti immagini anche in far cry 3... sarebbe bello ci fosse anche sta opzione

aaasssdddfffggg
19-06-2012, 21:23
si... ti immagini anche in far cry 3... sarebbe bello ci fosse anche sta opzione

hehe,la speranza è che NVIDIA non faccia debuttare questo nuovo algoritmo in CRYSIS 3 che uscirà nel Q1 2013.
Arriverà prima dai.

<Masquerade>
19-06-2012, 21:24
hehe,la speranza è che NVIDIA non faccia debuttare questo nuovo algoritmo in CRYSIS 3 che uscirà nel Q1 2013.
Arriverà prima dai.

no beh da quello che so già Borderland 2 dovrebbe usarlo

aaasssdddfffggg
19-06-2012, 21:25
no beh da quello che so già Broderland 2 dovrebbe usarlo

ma si infatti.D'altronde ha ribadito in più di un occasione che l'avrebbe lanciato nelle release future nel corso di quest'anno.

<Masquerade>
19-06-2012, 21:27
ma si infatti.D'altronde ha ribadito in più di un occasione che l'avrebbe lanciato nelle release future nel corso di quest'anno.

Like our FXAA technology, TXAA will first be implemented in upcoming game titles shipping later this year.

The following games and game engines/developers have committed to offering TXAA support so far:
MechWarrior Online, Secret World, Eve Online, Borderlands 2, Unreal 4 Engine, BitSquid, Slant Six Games, and Crytek.

vediamo se si allarga sempre di più la lista ;)

aaasssdddfffggg
19-06-2012, 21:30
Like our FXAA technology, TXAA will first be implemented in upcoming game titles shipping later this year.

The following games and game engines/developers have committed to offering TXAA support so far:
MechWarrior Online, Secret World, Eve Online, Borderlands 2, Unreal 4 Engine, BitSquid, Slant Six Games, and Crytek.

vediamo se si allarga sempre di più la lista ;)

non poteva mancare il supporto per nulla al mondo su questi 2 engine di EPIC & Crytek.Molto bene.

appleroof
19-06-2012, 21:31
NVIDIA ha rilasciato il benchmark che ha mostrato durante il lancio della gtx690 avvenuto in SHANGAI.
La demo è full DX11 (utilizza l'engine U3 DX11)con tutte le caratteristiche implementate con le nuove API (tessellazione,ambient occlusion,depth of field,etc.)e con le tecnologie proprietarie PhysX e APEX.La trovate qui :

http://www.geforce.com/whats-new/articles/put-your-system-through-its-paces-download-the-pla-directx-11-and-physx-benchmark/

ottima segnalazione, grazie ;)

<Masquerade>
19-06-2012, 21:32
non potevano mancare per nulla al mondo.

secondo i miei calcoli, se questo motore grafico lo supporterà, è fatta per nvidia.
perchè prevedo che questo sarà il motore grafico più usato in futuro.

il cryengine 3 farà vedere belle cose ma non lo vedo come un motore grafico che useranno molto spesso.

aaasssdddfffggg
19-06-2012, 21:34
secondo i miei calcoli, se questo motore grafico lo supporterà, è fatta per nvidia.
perchè prevedo che questo sarà il motore grafico più usato in futuro.

il cryengine 3 farà vedere belle cose ma non lo vedo come un motore grafico che useranno molto spesso.

non è un caso che EPIC abbia deciso di mostrare al mondo in antemprima mondiale all'E3 il suo nuovo engine sotto una GTX680...

GIAN.B
19-06-2012, 23:05
NVIDIA ha rilasciato il benchmark che ha mostrato durante il lancio della gtx690 avvenuto in SHANGAI.
La demo è full DX11 (utilizza l'engine U3 DX11)con tutte le caratteristiche implementate con le nuove API (tessellazione,ambient occlusion,depth of field,etc.)e con le tecnologie proprietarie PhysX e APEX.La trovate qui :

http://www.geforce.com/whats-new/articles/put-your-system-through-its-paces-download-the-pla-directx-11-and-physx-benchmark/

Provato.
Non mi sembra nulla di eccezionale comunque, molto più pesante e bello graficamente Unigine.
Inoltre le GPU non mi vanno nemmeno in boost durante il bench e il loro utilizzo al massimo arriva al 50%. Penso sia una questione di driver....
Comunque l'average FPS è stato di circa 120 FPS alla fine del bench....;)

<Masquerade>
19-06-2012, 23:07
non è un caso che EPIC abbia deciso di mostrare al mondo in antemprima mondiale all'E3 il suo nuovo engine sotto una GTX680...
eh si.
Provato.
Non mi sembra nulla di eccezionale comunque, molto più pesante e bello graficamente Unigine.


addirittura? no perchè anche questo (Unigine).....mmmmmhhhhh... non è che sia tutto sto spettacolo diciamo ...

GIAN.B
19-06-2012, 23:09
http://a0.twimg.com/profile_images/1865601151/YOU_DONT_SAY_reasonably_small.png


Ma scusa hai guardato le foto dei pcb?
http://i0.kym-cdn.com/entries/icons/original/000/004/006/y-u-no-guy.jpg


680 liscia
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_680/images/front.jpg

680 dciihttp://www.techpowerup.com/reviews/ASUS/GeForce_GTX_680_Direct_Cu_II/images/front.jpg

Per la cronaca caro Sick ...risolto con questi ;) :

http://www.ekwb.com/shop/blocks/vga-blocks/fc-geforce/geforce-gtx-6x0-series/ek-fc680-gtx-dcii-acetal-nickel.html

http://www.ekwb.com/shop/blocks/vga-blocks/fc-backplates/ek-fc680-gtx-dcii-backplate-black.html

Inoltre sembra che togliendo una semplice resistenza sulle 680 DC II si possa sbloccare il voltaggio del Vcore.....proveremo....;)

<Masquerade>
19-06-2012, 23:11
Inoltre sembra che togliendo una semplice resistenza sulle 680 DC II si possa sbloccare il voltaggio del Vcore.....proveremo....;)

già con questa c'era questa possibilità... ehehehe :Perfido:

GIAN.B
19-06-2012, 23:14
Inoltre sembra che togliendo una semplice resistenza sulle 680 DC II si possa sbloccare il voltaggio del Vcore.....proveremo....;)

già con questa c'era questa possibilità... ehehehe :Perfido:

;) :Perfido: :fiufiu:

<Masquerade>
19-06-2012, 23:17
;) :Perfido: :fiufiu:

:asd:

TigerTank
19-06-2012, 23:55
Per la cronaca caro Sick ...risolto con questi ;) :

http://www.ekwb.com/shop/blocks/vga-blocks/fc-geforce/geforce-gtx-6x0-series/ek-fc680-gtx-dcii-acetal-nickel.html

http://www.ekwb.com/shop/blocks/vga-blocks/fc-backplates/ek-fc680-gtx-dcii-backplate-black.html

Inoltre sembra che togliendo una semplice resistenza sulle 680 DC II si possa sbloccare il voltaggio del Vcore.....proveremo....;)

Stica...esteticamente sono proprio orrendi :fagiano:

GIAN.B
19-06-2012, 23:59
Stica...esteticamente sono proprio orrendi :fagiano:

Eh..mi sarebbero piaciuti molto di + i Koolance ma purtroppo hò potuto salvare la situazione solo con questi...:( . Comunque almeno sono costruiti molto bene mi sembra...

TigerTank
20-06-2012, 00:05
Eh..mi sarebbero piaciuti molto di + i Koolance ma purtroppo hò potuto salvare la situazione solo con questi...:( . Comunque almeno sono costruiti molto bene mi sembra...

Speriamo anche perchè sto notando che i fullcover EK ad ogni generazione sono sempre più cari!

NOOB4EVER
20-06-2012, 00:14
non dire a sick "per la cronaca che me li ha linkati " lui su skype ... sickpooowwaa :cool:

NOOB4EVER
20-06-2012, 00:34
Stica...esteticamente sono proprio orrendi :fagiano:

ok dai ma esternamente...se guardi la parte a contatto con la gpu si son degnati di adottare i distanziali gia fissati e non di plastica come una volta...diciamo che si nota un miglioramento finale del prodotto ...li testeremo giovedi cmq se costano un po in piu ma non si sgretolano come i soliti ci sta il sovrapprezzo dovuto alla qualitan o ? ;)

egounix
20-06-2012, 01:10
Sì però c'è lo sbattimento di dover piazzare dissipatori vari sulle ram e sulla zona di alimentazione + eventuali extra. Il fullcover è molto più comodo da questo punto di vista e da anche più solidità a tutto il pcb.



Io invece spesso mi chiedo come si riesca a giocare bene con 3 monitor...ok la visuale esagerata ma restano comunque le cornici dei monitor, o sbaglio?
E ovviamente spazi e distanza dai monitor permettendo.

Non ci fai caso alle cornici mentre giochi, e anche se ci volessi far caso, non influenzerebbero il gameplay.
Spazi e distanza servono.

@nemesis: che so sti monitor 4k? Io son sempre indietro :p vado a googlare.
Edit: ho letto la news di tom's sul view 2160p... Al fatto che un i5 non gli sia bastato a far girare le immagini in movimento, mi son cascate le braccia... Ma al fatto che "costerà come un auto"... Mi son cascate le @@ xD

Sent from my DingDingDong (by Gunter) using my Tralala!

biker73
20-06-2012, 02:13
Ciao a tutti, scrivo le mie impressioni, sto provando una Asus GTX670 direct cuII "non top" che mi sono fatto prestare, l ho provata con BF3 e Asassin's creed revelations per ora, con stupore ho notato che la mia GTX 580 gainward phantom3 (3GB) va stranamente meglio, daltronde non vedo questa grande diversità di valori tecnici, mentre di soldi si :).
Il mio PC= case haff 922, Asrock z68 xtreme4, cpu intel 2600K OC a 4,3Ghz rinfrescato da dissipatore Noctua D14, RAM 8GB G.Skill, VGA GTX580 3GB phantom3, HDD SSD OCZ Vertex3 120GB, alim. corsaire 650wat, LG blu-ray writer, il tutto colegato a un TV RGB LED Bravia 46X4500 a 1080P.
Ecco sotto le differenze delle due VGA in questione.

ASUS GTX670 DC2 (no Top)
170 Watts -
GPU Base Clock 915MHz +
3004 MHz 2GB GDDR5 (256-bits) -
PCI Express 3.0 +
Memory Bandwidt 192000 MB/sec -
Texel Rate 102480 Mtexels/sec +
Pixel Rate 29280 Mpixels/sec -
-------------------------------------------------------------
Gainward GTX580 Phantom3
244 Watts +
GPU Clockspeed 783Mhz -
3072MB 3GB GDDR5 (384-bits) +
PCI-Express 2.0 -
Memory Bandwidt 192384 MB/sec +
Texel Rate 49408 Mtexels/sec -
Pixel Rate 37056 Mpixels/sec +

Ora la differenza dei valori vale 200 euro? secondo mel la GTX 670 che fa la differenza sarà quella con memoria video da 3GB in su, su qualche forum ho letto che alcuni dei ultimi giochi usciti usano solo 700mb di memoria video, tutte balle, sino al mese scorso avevo una gtx 580 vaporX OC di fabbrica 1,5MB GDDR5, venduta per la gainward phantom3 3GB GDDR5, vi assicuro che gli sporadici ma evidenti cali di frame che prima si notavano es. con AC revelations facendo il girotondo su se stesso con Ezio, con la 580 3GB sono spariti e quasi impercettibili se dovessero capitare, stesso discorso con BF3 specialmente riguardo ai filmati in realtime.
Con la GTX670 il discorso si è invertito inspiegabilmente, ulteriore guadagno di fluidità nei filmati in real time in BF3 ma peggio della 580 in game.
Spiegazioni...la potenza e nulla senza il controllo, con la 670 a 28nm visto che consumava e scaldava meno perché non l'hanno infarcita x bene? c'è la gtx 580 a 3GB GDDR5, bom via 670 da almeno 3GB in su, invece alcuni valori sono maggiori sulla 580 phantom3, roba che nessun valore doveva essere inferiore alla 580.
Morale ciulata commerciale, un po di clock si cambia il nome da 5 a 6 e via 200 euro in piu, via bench e mille parole, senza cambiare valori nei giochi, installato driver della 670 nvidia "installazione pulita" tuttavia la 580 3GB gainward phantom3 per ora "a me" va meglio della 670 asus DC2 e bom.

LurenZ87
20-06-2012, 06:18
Non mi esprimo su AC, ma su BF3 non c'è proprio storia tra le due, quindi imho hai qualche problema sul tuo pc... oppure anche tu hai una ASUS difettosa (ultimamente tra le verdi e le rosse :rolleyes: )

appleroof
20-06-2012, 06:30
Per le balle sulla mem video basta vedere AB...tranne max payne 3 e pochissimi altri tipo crysis2 maxato o appunto bf3, ia stragrande maggioranza dei giochi vanilla sta sotto il giga di RAM in fullhd con filtri, altro che balle :asd:

sickofitall
20-06-2012, 07:29
Per la cronaca caro Sick ...risolto con questi ;) :

Inoltre sembra che togliendo una semplice resistenza sulle 680 DC II si possa sbloccare il voltaggio del Vcore.....proveremo....;)
http://a0.twimg.com/profile_images/1865601151/YOU_DONT_SAY_reasonably_small.png
non dire a sick "per la cronaca che me li ha linkati " lui su skype ... sickpooowwaa :cool:

:rolleyes:

RoUge.boh
20-06-2012, 08:00
esperienza personale sulle ASUS
avevo una gigabyte 7970 reference liquidata andava una cannonata..(ho fatto over 11k in 3Dmark11) adesso ho un'ASUS 7970 DCII 2 per magia alcuni giochi non sono più fluidi rispetto alla gigabyte.. ora non so il motivo detto sinceramente eppure cambiano solo le fasi di alimentazione eppure.... quello che ti posso dire che con me ASUS ha chiuso.....

Babxbba
20-06-2012, 08:10
Personalmente è arrivata ieri la670 directcuII, e per ora va poco meno, se non eguaglia, la precedente 590 con la configurazione in firma e monitor in fullHD 3dvision, provati per ora unigine benchmark, the witcher 2,crysis 2, legend of grimrock (questo per vedere se partivano a palla le ventolecome per la590, invece è rimasto uno spiffero).
Soddisfattissimo dell' acquisto, e poi ci sta divinamente nel case :P.

Unico neo estetico,come molti han notato il dissipatore visto di fianco pare storto.

Domandina,leggevo di molti che han verificato gli asic della scheda video, come fare?
Intanto vedo se riesco a trovarlo andando a ritroso nel topic, se qualcuno miillumina prima mi faun piacere.

paninello
20-06-2012, 08:28
Ehi Bab :D

Da GPU-Z clicchi in alto a sinistra con il tastro destro del mouse, ti si apre il menù a tendina e ci deve essere la funzione ASIC da qualche parte. :)

BruceWilliss
20-06-2012, 08:49
ecco ma mi domando a che cosa serve una MSI GeForce GTX 680 Lightning con 100 fasi caxxi e mazzi se poi si overclocca come una reference? :mbe:
http://www.guru3d.com/article/msi-geforce-gtx-680-lightning-review/25

LurenZ87
20-06-2012, 08:55
ecco ma mi domando a che cosa serve una MSI GeForce GTX 680 Lightning con 100 fasi caxxi e mazzi se poi si overclocca come una reference? :mbe:
http://www.guru3d.com/article/msi-geforce-gtx-680-lightning-review/25

c'è anche scritto che l'attuale versione di Afterburner non è pronta per spingere come si deve questa vga...

Razor90
20-06-2012, 09:04
ecco ma mi domando a che cosa serve una MSI GeForce GTX 680 Lightning con 100 fasi caxxi e mazzi se poi si overclocca come una reference? :mbe:
http://www.guru3d.com/article/msi-geforce-gtx-680-lightning-review/25

per avere una lighting bisogna spendere 100 carte in più, legge del mercato :sofico:

Oggi dovrebbe arrivare la mia modesta point of view gtx 670 ( rigorosamente reference ), pagata in tutto, compreso spedizione assicurata e costi paypal, 345 eurazzi.
Se scalda troppo o fa casino, male che va spendo 30 euro e ci appioppo sopra un dissi custom.

ComunGue, mi consigliate di disinstallare driver da pannello di controllo e fare una passata di driver sweeper prima di montare la vga nuova?

BruceWilliss
20-06-2012, 09:09
c'è anche scritto che l'attuale versione di Afterburner non è pronta per spingere come si deve questa vga...lasciatelo dire (poi ne riparleremo) con la GTX 480 Lightning è stata la stessa identica cosa e cioè in condizioni umane (senza azoto ecc ecc) la mia zotac si overcloccava come una Lightning e forse anche di più! condizioni in cui l'ho tenuta 2 anni poi venduta ad un amico e funziona sempre benissimo.. rumore e calore a parte non cambiava veramente nulla..

LurenZ87
20-06-2012, 09:22
lasciatelo dire (poi ne riparleremo) con la GTX 480 Lightning è stata la stessa identica cosa e cioè in condizioni umane (senza azoto ecc ecc) la mia zotac si overcloccava come una Lightning e forse anche di più! condizioni in cui l'ho tenuta 2 anni poi venduta ad un amico e funziona sempre benissimo.. rumore e calore a parte non cambiava veramente nulla..

figurati :), sarò il primo a catalogarle come EPIC FAIL una ad una le super-custom se non ne esce una che con l'overvolt regge i 1500Mhz... anche perché la mia reference è arrivata a 1360Mhz sul core e 1754Mhz sulle memorie e non ha cose particolari, come bios e raffreddamento estremi (e la uso a 1300/1704Mhz in daily). Ora mi dirai che la mia è fortunata, ma vedo che la media dei 1250-1300Mhz ce l'hanno praticamente quasi tutte, GTX 670 comprese, quindi spero che sia un problema di Afterburner :stordita: .

BruceWilliss
20-06-2012, 09:32
figurati :), sarò il primo a catalogarle come EPIC FAIL una ad una le super-custom se non ne esce una che con l'overvolt regge i 1500Mhz... anche perché la mia reference è arrivata a 1360Mhz sul core e 1754Mhz sulle memorie e non ha cose particolari, come bios e raffreddamento estremi (e la uso a 1300/1704Mhz in daily). Ora mi dirai che la mia è fortunata, ma vedo che la media dei 1250-1300Mhz ce l'hanno praticamente quasi tutte, GTX 670 comprese, quindi spero che sia un problema di Afterburner :stordita: .allora ache la mia lo è perchè la uso 1300\1750 tutti i giorni :)

LurenZ87
20-06-2012, 09:46
allora ache la mia lo è perchè la uso 1300\1750 tutti i giorni :)

allora non serve aggiungere altro :)

aaasssdddfffggg
20-06-2012, 09:46
Qui trovate la review completa della MSI Lightning 2 Giga per chi fosse interessato :

http://www.techpowerup.com/reviews/MSI/GTX_680_Lightning/

Compulsion
20-06-2012, 09:49
per avere una lighting bisogna spendere 100 carte in più, legge del mercato :sofico:

Oggi dovrebbe arrivare la mia modesta point of view gtx 670 ( rigorosamente reference ), pagata in tutto, compreso spedizione assicurata e costi paypal, 345 eurazzi.
Se scalda troppo o fa casino, male che va spendo 30 euro e ci appioppo sopra un dissi custom.

ComunGue, mi consigliate di disinstallare driver da pannello di controllo e fare una passata di driver sweeper prima di montare la vga nuova?

si e poi quando te la vendi se la metti a 10 euro in più della media prezzi del mercatino di cominciano ad insultare. Ste custom per me stanno bene sullo scaffale.
Per i driver fai come dici te e andrà benissimo oppure io senza disinstallare nulla riavvio direttamente in modalità provvisoria passo driver sweeper e riavvio in modalità normale, installo drivers nuovi e riavvio di nuovo. Mai avuto un problema

beppe8682
20-06-2012, 09:56
Non mi esprimo su AC, ma su BF3 non c'è proprio storia tra le due, quindi imho hai qualche problema sul tuo pc... oppure anche tu hai una ASUS difettosa (ultimamente tra le verdi e le rosse :rolleyes: )

Scusate ma come si fa a vedere se la scheda è difettosa o meno?:help:

Io ad esempio ho notato che Crysis 1 gira maluccio a 1080p/tutti filtri on/settaggio max, tutti gli altri giochi vanno da dio però, adesso sto giocando ad Alan Wake AN, 60fps fissi tutto al max per esempio


Unico neo estetico,come molti han notato il dissipatore visto di fianco pare storto.


eh già! io mi sono rassegnato...

aaasssdddfffggg
20-06-2012, 09:57
eh si.


addirittura? no perchè anche questo (Unigine).....mmmmmhhhhh... non è che sia tutto sto spettacolo diciamo ...

vero.Sono bench che devono tirare fuori risultati e non techdemo da farti leccare i baffi.
Masque,se sei ancora interessato ho trovato in GERMANIA la EVGA FTW 4 GIGA+BACKPLATE con disponibilità immediata.Azienda serissima (ci ho preso i 2 XEON E5);)

Compulsion
20-06-2012, 09:59
Qui trovate la review completa della MSI Lightning 2 Giga per chi fosse interessato :

http://www.techpowerup.com/reviews/MSI/GTX_680_Lightning/

guardando velocemente i grafici le differenze di fps sono davvero irrisorie. Anche le capacità di overclocking non fanno assolutamente gridare al miracolo. Puzza di marketing spinto

duda86
20-06-2012, 10:01
Ok che è una VGA che scalda poco, ma addirittura farla passiva :stordita:

http://www.techpowerup.com/img/12-06-20/193a.jpg

aaasssdddfffggg
20-06-2012, 10:02
guardando velocemente i grafici le differenze di fps sono davvero irrisorie. Anche le capacità di overclocking non fanno assolutamente gridare al miracolo. Puzza di marketing spinto

si è normale.Non vi dovete mica aspettare la luna da queste customs spinte.Anche la EVGA CLASSIFIED (che di clock sarà la regina del mercato attestandosi sui 1440 ad aria) tirando le somme si guadagnerà ad occhio e croce al massimo quei 4-5 frames in più nei giochi.
Sono prodotti più curati che sicuramente non valgono i soldi spesi in più in termini prestazionali ma questo è un altro discorso.

Compulsion
20-06-2012, 10:05
Ok che è una VGA che scalda poco, ma addirittura farla passiva :stordita:

http://www.techpowerup.com/img/12-06-20/193a.jpg

interessante, col mio case sarebbe una bomba. Mi piacerebbe leggere delle recensioni e vedere le temp che raggiunge. Comunque mi direte che sono matto ma la ventola che in full inizia ad aumentare i giri per me ha un certo fascino :)

maxmix65
20-06-2012, 10:06
Ieri sera abbiamo provato su btf3 i nuovi driver..
Io con la Gigabyte gtx 670 e marcopa con la sua sculata Zotac gtx 680 reference ..
ricapitolando stesse frequenze core 1290mhz per entrambi +100 sulle memo voltaggio automatico..
Stesse impostazioni grafiche del gioco e del pannello Nvidia
Lui sistema operativo pulito io 1 anno di vita..
Abbiamo usato editor di battlefield 3 per settarlo in egual modo
praticamente a me stava fisso a 60fps a lui saliva e scendeva da tra 60 e a volte a 52..
Abbiamo percosso gli stessi punti della mappa insieme
praticamente la frequenza del core gli si alzava e scendeva..
A me fissa a 1290 senza muoversi
prima avevo anche io la 680 propio per questo motivo l'ho data via..
Per tenere le frequenze fisse occorre alzare leggermente i filtri in modo che la vga venga costretta a lavorare di piu'..
Anche alzando i filtri con il core fisso a 1290 a lui in alcuni punti scendeva a 52-56fps a me fissa a 60..
Ma come e' possibile una cosa del genere??

Compulsion
20-06-2012, 10:08
si è normale.Non vi dovete mica aspettare la luna da queste customs spinte.Anche la EVGA CLASSIFIED (che di clock sarà la regina del mercato attestandosi sui 1440 ad aria) tirando le somme si guadagnerà ad occhio e croce al massimo quei 4-5 frames in più nei giochi.
Sono prodotti più curati che sicuramente non valgono i soldi spesi in più in termini prestazionali ma questo è un altro discorso.

per me è comunque troppo costosa ma già 1440 è un risultato di un altro spessore

BruceWilliss
20-06-2012, 10:11
nuovo afterburner http://downloads.guru3d.com/Afterburner-2.2.2-download-2562.html

Ali3n77
20-06-2012, 10:14
nuovo afterburner http://downloads.guru3d.com/Afterburner-2.2.2-download-2562.html

Che fa di nuovo???? Non ci capisco n'H !! :D Mi pare,per quel che sto capendo, che sia praticamente uguale alla versione 2.2.1 o sbaglio?

TigerTank
20-06-2012, 10:15
Ok che è una VGA che scalda poco, ma addirittura farla passiva :stordita:

http://www.techpowerup.com/img/12-06-20/193a.jpg

Loooool, mi ricorda vagamente certe astronavi di Homeworld :asd:

Che fa di nuovo???? Non ci capisco n'H !! :D Mi pare,per quel che sto capendo, che sia praticamente uguale alla versione 2.2.1 o sbaglio?


Changes list includes:
-Increased upper allowed power limit for power limit adjustment slider on some extreme editions of NVIDIA GeForce GTX 600 series graphics cards
-ATIPDLXX.DLL is no longer included in MSI Afterburner distributive
-MSI On-Screen Display server has been upgraded to version 4.3.4. New version gives you the following improvements:
Fixed framerate calculation for DirectX10/DirectX11 applications, which actively use presentation testing during rendering (e.g. Max Payne 3)

aaasssdddfffggg
20-06-2012, 10:15
Che fa di nuovo???? Non ci capisco n'H !! :D Mi pare,per quel che sto capendo, che sia praticamente uguale alla versione 2.2.1 o sbaglio?

è scritto nel log.Leggilo e troverai tutte le novità apportate.

Ali3n77
20-06-2012, 10:22
Edit!!

naumakia
20-06-2012, 10:56
tra 2 680 superclocked signature evga (1150mh con il turbo) in sli vs una evga 690 1019MHz, noterei differenze a livello prestazionale??

Il punto è questo ho una 680 a casa nuova e incellophanata me ne sono pentito di averne preso solo una, però forse un mio amico generoso se la prenderebbe.

Visto che ci sono mediamente 60 watt di consumo in più e le prestazioni con le standard sono quasi simili, non vedo differenza non è meglio che mi prendo una 690?:)

grazie!

biker73
20-06-2012, 11:00
Non mi esprimo su AC, ma su BF3 non c'è proprio storia tra le due, quindi imho hai qualche problema sul tuo pc... oppure anche tu hai una ASUS difettosa (ultimamente tra le verdi e le rosse :rolleyes: )



Mah problemi al pc non credo, sino a l'altro ieri giocavo a cannone, montato sta GTX670 DCII va leggermente peggio in alcuni casi, ripeto in BF3 fluidità migliorata in video realtime, in game non dico che va proprio male, ho notato solo dei micro scattini che prima non c'erano, da una parte però per ora l ho solo provata 5 min con AC, e 5 con BF3 e a me pare proprio che vada meglio la 580 3GB, d'altronde i valori tecnici li avete letti non si può dire che la 670 e superiore su tutto, non vorrei mai che si compensano, consumi a parte, un'altra mia impressione e che la 580 mi pare abbia anche colori più brillanti e vivaci.
Inoltre che difetti dovrebbero avere ultimamente ste VGA verdi e rosse?

aaasssdddfffggg
20-06-2012, 11:05
tra 2 680 superclocked signature evga (1150mh con il turbo) in sli vs una evga 690 1019MHz, noterei differenze a livello prestazionale??

Il punto è questo ho una 680 a casa nuova e incellophanata me ne sono pentito di averne preso solo una, però forse un mio amico generoso se la prenderebbe.

Visto che ci sono mediamente 60 watt di consumo in più e le prestazioni con le standard sono quasi simili, non vedo differenza non è meglio che mi prendo una 690?:)

grazie!

si,dal momento che come prestazioni andrai praticamente uguale.Roba di 1-2 fps o giù di lì per lo SLI di singole.Ovviamente la 690 sale meno ma non credo che avrai motivi di OC una simile scheda.

NOOB4EVER
20-06-2012, 11:10
Mah problemi al pc non credo, sino a l'altro ieri giocavo a cannone, montato sta GTX670 DCII va leggermente peggio in alcuni casi, ripeto in BF3 fluidità migliorata in video realtime, in game non dico che va proprio male, ho notato solo dei micro scattini che prima non c'erano, da una parte però per ora l ho solo provata 5 min con AC, e 5 con BF3 e a me pare proprio che vada meglio la 580 3GB, d'altronde i valori tecnici li avete letti non si può dire che la 670 e superiore su tutto, non vorrei mai che si compensano, consumi a parte, un'altra mia impressione e che la 580 mi pare abbia anche colori più brillanti e vivaci.
Inoltre che difetti dovrebbero avere ultimamente ste VGA verdi e rosse?

ti dico che sto provando le stesse cose da una settimana e tra 670 e 580 su bf3 devi andare non meglio di piu' con la keplerina ;) se cosi' non e' smanetta un po' sul pannello e vedi di riportare la situazione come si deve...la 670 va come la 680 che a volte va quasi 2 570 ;)

Razor90
20-06-2012, 11:15
si e poi quando te la vendi se la metti a 10 euro in più della media prezzi del mercatino di cominciano ad insultare. Ste custom per me stanno bene sullo scaffale.
Per i driver fai come dici te e andrà benissimo oppure io senza disinstallare nulla riavvio direttamente in modalità provvisoria passo driver sweeper e riavvio in modalità normale, installo drivers nuovi e riavvio di nuovo. Mai avuto un problema

bon, allora proverò così! La vga non la venderò mai, al massimo se ne affianca un 'altra... :D

mattxx88
20-06-2012, 11:19
si è normale.Non vi dovete mica aspettare la luna da queste customs spinte.Anche la EVGA CLASSIFIED (che di clock sarà la regina del mercato attestandosi sui 1440 ad aria) tirando le somme si guadagnerà ad occhio e croce al massimo quei 4-5 frames in più nei giochi.
Sono prodotti più curati che sicuramente non valgono i soldi spesi in più in termini prestazionali ma questo è un altro discorso.

ho guardato anche io velocemente la review della lightning, sbaglio o non si overvolta? :O

NOOB4EVER
20-06-2012, 11:42
no guarda sto tuca tuca non si puo vedere' ...va', va' che viso ... :Puke:

biker73
20-06-2012, 12:11
ti dico che sto provando le stesse cose da una settimana e tra 670 e 580 su bf3 devi andare non meglio di piu' con la keplerina ;) se cosi' non e' smanetta un po' sul pannello e vedi di riportare la situazione come si deve...la 670 va come la 680 che a volte va quasi 2 570 ;)

Un'altra cosa, io ho sempre usato ATI, la 580 sarebbe la mia prima Nvidia, è difficile da spiegare, però in tutti i giochi dove in ambiente vi sono alberi, noto che guardando il fogliame mentre la scena e in movimento si nota una specie di fibrillo di luminosità di schiarimento e inscurimento (Solo sul fogliame dell'albero), mentre stando immobili questo fibrillio non avviene, stessa cosa su alcune superfici con bumpmapping, es alcune torri in AC, ecco in questo caso "il difetto" la 670 lo fa anche di più della 580.
Mai avuto questo tipo di disturbo con nessuna ATI, ecco per farvi capire e come se mentre si guarda un albero ci si mette e si toglie velocissimamente degli occhiali polarizzati.

Case haff 922, Asrock z68 xtreme4, cpu intel 2600K OC a 4,3Ghz rinfrescato da dissipatore Noctua D14, RAM 8GB G.Skill, VGA GTX580 3GB phantom3, HDD SSD OCZ Vertex3 120GB, alim. corsaire 650wat, LG blu-ray writer, il tutto colegato a un TV RGB LED Bravia 46X4500 a 1080P.

NOOB4EVER
20-06-2012, 12:26
Un'altra cosa, io ho sempre usato ATI, la 580 sarebbe la mia prima Nvidia, è difficile da spiegare, però in tutti i giochi dove in ambiente vi sono alberi, noto che guardando il fogliame mentre la scena e in movimento si nota una specie di fibrillo di luminosità di schiarimento e inscurimento (Solo sul fogliame dell'albero), mentre stando immobili questo fibrillio non avviene, stessa cosa su alcune superfici con bumpmapping, es alcune torri in AC, ecco in questo caso "il difetto" la 670 lo fa anche di più della 580.
Mai avuto questo tipo di disturbo con nessuna ATI, ecco per farvi capire e come se mentre si guarda un albero ci si mette e si toglie velocissimamente degli occhiali polarizzati.

[/B]

se tutto e' a posto non lo devono fare ne la 580 ne la 670 ;)

FroZen
20-06-2012, 12:37
Un'altra cosa, io ho sempre usato ATI, la 580 sarebbe la mia prima Nvidia, è difficile da spiegare.....

Prima di pensare ad un formattone riparatore che è l'extrema ratio di ogni problema di VGA, prova a scaricare "driver sweeper", disinstallare la VGA, riavviare in modalità provvisoria, lanciare "driver sweeper" e poi riavviare in modalità normale ed installare gli ultimi WHQL che trovi sul sito nVidia....

Fra nVidia e nVidia non dovresti avere queste differenze qualitative che invece molti hanno notato passando da nVidia a AMD (in meglio...).

Se non risolvi nemmeno così formattone.............

p.s: so che non è semplice ma hai provato a cambiare monitor?

aaasssdddfffggg
20-06-2012, 12:46
Prima di pensare ad un formattone riparatore che è l'extrema ratio di ogni problema di VGA, prova a scaricare "driver sweeper", disinstallare la VGA, riavviare in modalità provvisoria, lanciare "driver sweeper" e poi riavviare in modalità normale ed installare gli ultimi WHQL che trovi sul sito nVidia....

Fra nVidia e nVidia non dovresti avere queste differenze qualitative che invece molti hanno notato passando da nVidia a AMD (in meglio...).

Se non risolvi nemmeno così formattone.............

p.s: so che non è semplice ma hai provato a cambiare monitor?

ancora con sta storia che su AMD l'immagine risulta migliore,i colori più vividi,il contrastopiù elevato e storielle del genere?Sono discorsi campati per aria privi di alcun fondamento.Postammo a suo tempo anche un confronto diretto tra AMD eNVIDIA su questo aspetto confrontando diversi gaming.Il risultato dei test era identico (dinoxPC)

<Masquerade>
20-06-2012, 12:50
ancora con sta storia che su AMD l'immagine risulta migliore,i colori più vividi,il contrastopiù elevato e storielle del genere?Sono discorsi campati per aria privi di alcun fondamento.Postammo a suo tempo anche un confronto diretto tra AMD eNVIDIA su questo aspetto confrontando diversi gaming.Il risultato dei test era identico (dinoxPC)

non è vera questa storia,ed io ho sia ati che nvidia. so alla pari. ma se devo dirla tutta come IQ la darei vinta a nvidia perchè puoi forzare l'ambient occlusion in alcuni giochi. ma se un domani anche amd avrà questa opzione allora tornerà alla pari al 100%

aaasssdddfffggg
20-06-2012, 12:55
non è vera questa storia,ed io ho sia ati che nvidia. so alla pari. ma se devo dirla tutta come IQ la darei vinta a nvidia perchè puoi forzare l'ambient occlusion in alcuni giochi. ma se un domani anche amd avrà questa opzione allora tornerà alla pari al 100%

appunto Masque,ma dovevi quotare l'altro nostro amico e non me visto che sei sulla mia stessa linea di pensiero che è quella corretta tra l'altro..;)

<Masquerade>
20-06-2012, 12:57
appunto Masque,ma dovevi quotare l'altro nostro amico e non me visto che sei sulla mia stessa linea di pensiero che è quella corretta tra l'altro..;)

ho quotato te solo per confermare, da possessore di entrambe le marche, che questa storia è una stronzata coi fiocchi.;)

aaasssdddfffggg
20-06-2012, 12:58
ho quotato te solo per confermare, da possessore di entrambe le marche, che questa storia è una stronzata coi fiocchi.;)

:cincin:

puoi dirlo forte sperando che si chiuda questo discorso privo di fondamenta senza più ritornarci sopra.

Pat77
20-06-2012, 12:59
ho quotato te solo per confermare, da possessore di entrambe le marche, che questa storia è una stronzata coi fiocchi.;)

Dipenderà anche in minima parte dal cavo, per me sono entrambe ottime.

Razor90
20-06-2012, 13:06
ragazzi ho qualche problema con la vga penso,

Ho runnato unigine heaven, vi fo vedere i risultati

http://snag.gy/aH7ba.jpg

com'è possibile???

Illuminatemi. Ho reinstallato i driver, installato la vga, processore ok.. Buh

TigerTank
20-06-2012, 13:07
non è vera questa storia,ed io ho sia ati che nvidia. so alla pari. ma se devo dirla tutta come IQ la darei vinta a nvidia perchè puoi forzare l'ambient occlusion in alcuni giochi. ma se un domani anche amd avrà questa opzione allora tornerà alla pari al 100%

Io ho avuto sia Ati/Amd che Nvidia(l'ultimo cambio è stato da 5870 a gtx580) ma non ho mai riscontrato differenze eclatanti a livello di qualità di immagine. Purtroppo però devo dire che negli anni, a livello di incompatibilità e magagne iniziali con i giochi appena usciti, ho avuto qualche problemino in più con le Ati/Amd...senza però criticare l'indubbia alta qualità complessiva delle vga a livello hardware.

eXeS
20-06-2012, 13:08
Ieri sera abbiamo provato su btf3 i nuovi driver..
Io con la Gigabyte gtx 670 e marcopa con la sua sculata Zotac gtx 680 reference ..
ricapitolando stesse frequenze core 1290mhz per entrambi +100 sulle memo voltaggio automatico..
Stesse impostazioni grafiche del gioco e del pannello Nvidia
Lui sistema operativo pulito io 1 anno di vita..
Abbiamo usato editor di battlefield 3 per settarlo in egual modo
praticamente a me stava fisso a 60fps a lui saliva e scendeva da tra 60 e a volte a 52..
Abbiamo percosso gli stessi punti della mappa insieme
praticamente la frequenza del core gli si alzava e scendeva..
A me fissa a 1290 senza muoversi
prima avevo anche io la 680 propio per questo motivo l'ho data via..
Per tenere le frequenze fisse occorre alzare leggermente i filtri in modo che la vga venga costretta a lavorare di piu'..
Anche alzando i filtri con il core fisso a 1290 a lui in alcuni punti scendeva a 52-56fps a me fissa a 60..
Ma come e' possibile una cosa del genere??
Anche le temperature influenzano il boost massimo, sulla 680 reference com'erano ?

NOOB4EVER
20-06-2012, 13:10
io credo che chiunque con un minimo di sapienza se ne starebbe li al posto di uscirsene con ste cose...il bello e'che "la creme de la creme " dei gamers e' tutta qui e si ostinano sui loro concetti astratti ...mi chiedo che senso abbia vivere una vita senza aver mai "provato una verde " :D :D :D

deve essere tipo morire vergini :sofico:


:cool:

NOOB4EVER
20-06-2012, 13:12
ragazzi ho qualche problema con la vga penso,

Ho runnato unigine heaven, vi fo vedere i risultati


com'è possibile???

Illuminatemi. Ho reinstallato i driver, installato la vga, processore ok.. Buh

ma hai lanciato il bench con f9 o hai slidato am anetta sul tassellatore? :)

Razor90
20-06-2012, 13:13
ma hai lanciato il bench con f9 o hai slidato am anetta sul tassellatore? :)

ho cliccato su RUN , lol comunque ora riprovo, lanciando con f9.

quali devono essere i settaggi per runnarlo?

NOOB4EVER
20-06-2012, 13:17
Anche le temperature influenzano il boost massimo, sulla 680 reference com'erano ?

ciao eXes approfitto per chiederti una info in merito proprio alle temp e alla gesitione delle freq di kepler in base appunto allla temp: perche la 670 che ho in prova anche se raggiunge gli 80° rimane per esempio a 1185 mhz ? io avevo capito che diminuiva la frequenza per limare diciamo le temperature di esercizio e mantenere la vga entro un determinato range di consumo che cosa e' che on torna?

inoltre,non so se sia il programma che scaxxa ma per esempio le 2 680 che mi devono arrivare,seppur non molto fortunate,hanno un power targhet di 190% e cmq non salgono bene ...potrebbe essere una questione di setting o pensi che entrambe le vga siano sfigate ? non superano i 1140 al core :cry:

grazie in anticipo :)

NOOB4EVER
20-06-2012, 13:18
ho cliccato su RUN , lol comunque ora riprovo, lanciando con f9.

quali devono essere i settaggi per runnarlo?

tu avvia il test in goliath cioe' tutto a palla e appena sei dentro e inizia il giro premi f9 :)

Razor90
20-06-2012, 13:21
tu avvia il test in goliath cioe' tutto a palla e appena sei dentro e inizia il giro premi f9 :)

sempre 19 fps, ho controllato da evga precision ed ho il power fisso a 364... Cacchio succede? l'alimentatore non regge la scheda?

Razor90
20-06-2012, 13:32
tra l'altro, avviato gpu-z in stress, il massimo clock che mi da è 915Mhz... scheda fallata?

fabryx73
20-06-2012, 13:33
sempre 19 fps, ho controllato da evga precision ed ho il power fisso a 364... Cacchio succede? l'alimentatore non regge la scheda?

che ali hai razor???
hai modo di provarla su un altro pc ,magari di un amico?

oppure testa qualche gioco!

Razor90
20-06-2012, 13:34
che ali hai razor???
hai modo di provarla su un altro pc ,magari di un amico?

oppure testa qualche gioco!

un lc-power da 560W, ho controllato gli amperaggi, sui 12v sta a 18A... Controllato con BF, anche li, 30FPS... che cacchio succede?

se l'alimentatore non ce la facesse comunque andrebbe in crash ( penso ) o no?

Obrigado
20-06-2012, 13:34
mammamia che fallimento la piattaforma x79

http://www.tomshw.it/cont/news/geforce-gtx-680-e-670-senza-pcie-3-0-su-piattaforme-x79/38174/1.html

dopo il southbridge castrato di 2 porte sata 6gb e 2 porte sas

aggiungiamoci i processori monchi che sono 8 core tagliati a 6 per rientrare nel tdp 130w

pure il pciexpress monco!!!

a buon intenditore.

fabryx73
20-06-2012, 13:35
un lc-power da 560W, ho controllato gli amperaggi, sui 12v sta a 18A... Controllato con BF, anche li, 30FPS... che cacchio succede?

se l'alimentatore non ce la facesse comunque andrebbe in crash ( penso ) o no?

sicuro 12v sui 18a ...?
hai altre linee 12v ????
perchè 18a è troppo poco!!!!!!

c'è ne vogliono almeno 35a!!!

io il mio ali 465watt è 38a ma comunque lo cambierò per 'sta scheda!!!

Razor90
20-06-2012, 13:36
sicuro 12v sui 18a ...?
hai altre linee 12v ????
perchè 18a è troppo poco!!!!!!

c'è ne vogliono almeno 35a!!!

io il mio ali 465watt è 38a ma comunque lo cambierò per 'sta scheda!!!

18+18 = 36 :)

5a2v0
20-06-2012, 13:37
sempre 19 fps, ho controllato da evga precision ed ho il power fisso a 364... Cacchio succede? l'alimentatore non regge la scheda?

tra l'altro, avviato gpu-z in stress, il massimo clock che mi da è 915Mhz... scheda fallata?

che ali hai razor???
hai modo di provarla su un altro pc ,magari di un amico?

oppure testa qualche gioco!

non ci conosciamo ma mi offro volontario per provarla a casa mia XD XD XD

fabryx73
20-06-2012, 13:38
18+18 = 36 :)

non usi lo stesso cavo dell'ali per tutte e 2 gli attacchi da 6 pin,vero?
perchè con 18 per cavo collegato ai 2 connettori 6 pin della scheda..... sarebbe troppo poco ....


ps. asic con cpu-z????

Razor90
20-06-2012, 13:39
non usi lo stesso cavo dell'ali per tutte e 2 gli attacchi da 6 pin,vero?
perchè con 18 per cavo collegato ai 2 connettori 6 pin della scheda..... sarebbe troppo poco ....

sono un noob della madonna. Ora vedo. Giuro che non ci ho fatto caso.

5a2v0
20-06-2012, 13:40
18+18 = 36 :)

2 linee da 18 non danno 36A puliti.. LC-power (che ho avuto anche io in passato) non è neanche tutto sto grandissimo marchio per alimentatori O.o

Razor90
20-06-2012, 13:41
2 linee da 18 non danno 36A puliti.. LC-power (che ho avuto anche io in passato) non è neanche tutto sto grandissimo marchio per alimentatori O.o

lo so, ma ora ho questo disponibile ^^ Ora vedo un attimo cosa riesco a combinare... intanto cacciate idee LoL

Razor90
20-06-2012, 13:50
Ho controllato l alimentatore. Praticamente ho un cavo che poi mi ricaccia i due da 6 pin... Problema di alimentatore ? Dite che non va bene ?

fabryx73
20-06-2012, 13:53
Ho controllato l alimentatore. Praticamente ho un cavo che poi mi ricaccia i due da 6 pin... Problema di alimentatore ? Dite che non va bene ?

stai calmo e tranquillo :D
arriveranno i super esperti che ti daranno una mano....

per noi seminiubbi problema di ali...
non hai un amico da provarla?

dacci il modello giusto di ali....preciso

Razor90
20-06-2012, 13:56
La power 6560 titan rev 2. Sono sicuro che sia problema d alimentatore, sta sera cerco di provare la scheda da qualche amico

fabryx73
20-06-2012, 14:02
La power 6560 titan rev 2. Sono sicuro che sia problema d alimentatore, sta sera cerco di provare la scheda da qualche amico

magari hai la scheda fallata....io ovviamente spero di no...chissà perchè :D ...

ma HAI UN ALI OSCENO....
secondo me è colpa di quello....
ocio a non friggere tutto per colpa dell'ali....
spero che qualche sapientone.....di cui il forum è sempre pieno quando si tratta di fare post kilometrici sulle supermegastralightingsuperpower 680 gtx 8 giga.... :D (scherzo eh! ,non prendetevela ;) ) dia una mano ,visto che io non sono super esperto.... ;)

Razor90
20-06-2012, 14:05
Tranquillo ho smontato tutto per il momento, ora è scesa la depressione visto che non posso far niente... L alimentatore ha ben 5 anni e avevo messo in conto che era da cambiare... Ora ne dovrò comprare un altro :/

eXeS
20-06-2012, 14:09
ciao eXes approfitto per chiederti una info in merito proprio alle temp e alla gesitione delle freq di kepler in base appunto allla temp: perche la 670 che ho in prova anche se raggiunge gli 80° rimane per esempio a 1185 mhz ? io avevo capito che diminuiva la frequenza per limare diciamo le temperature di esercizio e mantenere la vga entro un determinato range di consumo che cosa e' che on torna?

Come agisce il throttling del clock lo sanno solo nVidia e i vari partner che confezionano i bios, e la temperatura è solo una delle n variabili insieme al consumo, che rompono il c..o all'oc di queste schede :D


inoltre,non so se sia il programma che scaxxa ma per esempio le 2 680 che mi devono arrivare,seppur non molto fortunate,hanno un power targhet di 190% e cmq non salgono bene ...potrebbe essere una questione di setting o pensi che entrambe le vga siano sfigate ? non superano i 1140 al core :cry:

grazie in anticipo :)
Credo sia solo questione di GPU meno fortunate :(

fabryx73
20-06-2012, 14:22
Credo sia solo questione di GPU meno fortunate :(

Un consiglio all'utente di prima exes?
ali o cos'altro?...credevo che kepleer consumasse poco.... :(

FroZen
20-06-2012, 14:22
Postammo a suo tempo anche un confronto diretto tra AMD eNVIDIA su questo aspetto confrontando diversi gaming.Il risultato dei test era identico (dinoxPC)

Letto ora l'articolo a cui ti riferisci...........

Mi aspettavo chissà che analisi tecnico-scientifiche e invece.............Dirt3 evidenzia che delle differenze "ad occhio" fra le due marche esistono mentre gli altri due sempre "ad occhio" pare di no.........poi ho capito che alla fine è l'occhio che vuole la sua parte ma sarebbe come sostenere che un pannello LCD è cromaticamente ben tarato usando una tavolozza dei colori da bambini invece che un colorimetro digitale.....

Comunque vabbè ho raccolto solo le impressioni di certi utenti del forum, le stesse impressioni che una volta danno lo stuttering come inesistente sulle GTX e altre volte come una orrenda realtà percui, non siate così permalosi.......peace and love.

@ Noob: non so per "gamers" tu cosa intendi :asd: ma io giocavo (i gamers che intendo io) con una GeForce 3 64MB quando tu ancora gattonavi :asd:

FroZen
20-06-2012, 14:27
Un consiglio all'utente di prima exes?
ali o cos'altro?...credevo che kepleer consumasse poco.... :(

Non c'è nulla da inventare...nVidia da le specifiche minime con il dovuto grado di sicurezza per far funzionare al meglio la scheda a DEFAULT (normalmente sono gli amperaggi sui 12V il problema), attieniti a quelle specifiche e vedi se il tuo ali le rispetta, punto. Gli alimentatori comunque hanno un certo grado di invecchiamento, parliamo sempre di VGA da 200W........mica pizza e fichi....

Ali3n77
20-06-2012, 14:30
Tranquillo ho smontato tutto per il momento, ora è scesa la depressione visto che non posso far niente... L alimentatore ha ben 5 anni e avevo messo in conto che era da cambiare... Ora ne dovrò comprare un altro :/

Fai una cosa se hai il vysn disattivato da unigine magari lo hai attivato nel pannello di controllo invidia! Forzalo anche li disattivato e rifai il bench!
Aveva fregato anche me lol ! ;)
Prova e fai sapere!

aaasssdddfffggg
20-06-2012, 14:59
mammamia che fallimento la piattaforma x79

http://www.tomshw.it/cont/news/geforce-gtx-680-e-670-senza-pcie-3-0-su-piattaforme-x79/38174/1.html

dopo il southbridge castrato di 2 porte sata 6gb e 2 porte sas

aggiungiamoci i processori monchi che sono 8 core tagliati a 6 per rientrare nel tdp 130w

pure il pciexpress monco!!!

a buon intenditore.

se sei venuto qui dentro a dire castronerie ti accontento subito :

i corei7 lga2011 esacore (desktop)non sono stati "tagliati" (oltre ai core anche cache e qpi sono stati tolti per evidenziare le 2 classi di appartenenza) portati a 6 core per contenere il tdp max : gli 8 core sono destinati agli XEON LGA2011 (così ha deciso intel) e se proprio vuoi montare un 8 core su lga2011 hai l'imbarazzo della scelta tra gli xeon con tdp che vanno da 70-150watt max (tutti ad 8 core fisici).
Il discorso pci-e 3.0 esiste tra nvidia e Intel ma nulla vieta,come ha suggerito NVIDIA stessa,a portare la banda passante al pci-e 3.0 forzando un registro.Sul chipset C606 (x79 professionale ovvero quello montato sulla EVGA SR-X per intenderci)il problema non si pone proprio dal principio.
Andiamo avanti : sempre sul discorso porte il C606 (sempre x79 professionale e sempre di piattaforma lga2011 parliamo) supporta nativamente 2 canali sas da 4 porte ciascuno per un totale di 8 porte sas come nel caso sempre della mia SR-X.Non sono sufficienti?Pazienza.
Per ultimo,l'LGA 2011 sarà la piattaforma top di gamma dei prossimi processori basati su IVY BRIDGE-E e IVI BRIDGE-EP (base XEON) in arrivo il prossimo anno...

Obri...:muro:
Chiudo OT..però queste sparate campate in aria dovrebbero essere tamponate.

GIAN.B
20-06-2012, 15:13
se sei venuto qui dentro a dire castronerie ti accontento subito :

i corei7 lga2011 esacore (desktop)non sono stati "tagliati" (oltre ai core anche cache e qpi sono stati tolti per evidenziare le 2 classi di appartenenza) portati a 6 core per contenere il tdp max : gli 8 core sono destinati agli XEON LGA2011 (così ha deciso intel) e se proprio vuoi montare un 8 core su lga2011 hai l'imbarazzo della scelta tra gli xeon con tdp che vanno da 70-150watt max (tutti ad 8 core fisici).
Il discorso pci-e 3.0 esiste tra nvidia e Intel ma nulla vieta,come ha suggerito NVIDIA stessa,a portare la banda passante al pci-e 3.0 forzando un registro.Sul chipset C606 (x79 professionale ovvero quello montato sulla EVGA SR-X per intenderci)il problema non si pone proprio dal principio.
Andiamo avanti : sempre sul discorso porte il C606 (sempre x79 professionale e sempre di piattaforma lga2011 parliamo) supporta nativamente 2 canali sas da 4 porte ciascuno per un totale di 8 porte sas come nel caso sempre della mia SR-X.Non sono sufficienti?Pazienza.
Per ultimo,l'LGA 2011 sarà la piattaforma top di gamma dei prossimi processori basati su IVY BRIDGE-E e IVI BRIDGE-EP (base XEON) in arrivo il prossimo anno...

Obri...:muro:
Chiudo OT..però queste sparate campate in aria dovrebbero essere tamponate.

Molto interessante. Sapevo molto poco di questo socket , sia X79 che il C606...:)
Volevo approffitare e chiedere...ma uscirà un Ivy a 8 core anche per sistemi desktop top di gamma o rimarrà destinato solo ai Xeon? Inoltre avrà molti sbloccato?....:D ....vabbè piccolo OT ma chiudo subito...

aaasssdddfffggg
20-06-2012, 15:14
Io ho avuto sia Ati/Amd che Nvidia(l'ultimo cambio è stato da 5870 a gtx580) ma non ho mai riscontrato differenze eclatanti a livello di qualità di immagine. Purtroppo però devo dire che negli anni, a livello di incompatibilità e magagne iniziali con i giochi appena usciti, ho avuto qualche problemino in più con le Ati/Amd...senza però criticare l'indubbia alta qualità complessiva delle vga a livello hardware.

già,le cose stanno esattamente così ed un ulteriore conferma da parte tua su quanto ci siamo espressi poco fa.

aaasssdddfffggg
20-06-2012, 15:16
Molto interessante. Sapevo molto poco di questo socket , sia X79 che il C606...:)
Volevo approffitare e chiedere...ma uscirà un Ivy a 8 core anche per sistemi desktop top di gamma o rimarrà destinato solo ai Xeon? Inoltre avrà molti sbloccato?....:D ....vabbè piccolo OT ma chiudo subito...

ivi-e dovrebe essere a 8 core fisici (salvo cambiamenti ultimi da parte di intel)e molti sbloccato per sistemi desktop mentre in ambito Xeon arriveranno con ivi-ep i 10core fisici/20 threads per cpu.
Siamo ot Gian fermiamoci qui.;)

GIAN.B
20-06-2012, 15:18
.....mentre in ambito Xeon arriveranno con ivi-ep i 10core fisici/20 threads per cpu.
Siamo ot Gian fermiamoci qui.;)

:eek: :eek:

illidan2000
20-06-2012, 15:19
se sei venuto qui dentro a dire castronerie ti accontento subito :

i corei7 lga2011 esacore (desktop)non sono stati "tagliati" (oltre ai core anche cache e qpi sono stati tolti per evidenziare le 2 classi di appartenenza) portati a 6 core per contenere il tdp max : gli 8 core sono destinati agli XEON LGA2011 (così ha deciso intel) e se proprio vuoi montare un 8 core su lga2011 hai l'imbarazzo della scelta tra gli xeon con tdp che vanno da 70-150watt max (tutti ad 8 core fisici).
Il discorso pci-e 3.0 esiste tra nvidia e Intel ma nulla vieta,come ha suggerito NVIDIA stessa,a portare la banda passante al pci-e 3.0 forzando un registro.Sul chipset C606 (x79 professionale ovvero quello montato sulla EVGA SR-X per intenderci)il problema non si pone proprio dal principio.
Andiamo avanti : sempre sul discorso porte il C606 (sempre x79 professionale e sempre di piattaforma lga2011 parliamo) supporta nativamente 2 canali sas da 4 porte ciascuno per un totale di 8 porte sas come nel caso sempre della mia SR-X.Non sono sufficienti?Pazienza.
Per ultimo,l'LGA 2011 sarà la piattaforma top di gamma dei prossimi processori basati su IVY BRIDGE-E e IVI BRIDGE-EP (base XEON) in arrivo il prossimo anno...

Obri...:muro:
Chiudo OT..però queste sparate campate in aria dovrebbero essere tamponate.
ok per le porte sas, ma le sata3? se siamo sempre a quota 2 siamo messi male...

aaasssdddfffggg
20-06-2012, 15:24
ok per le porte sas, ma le sata3? se siamo sempre a quota 2 siamo messi male...

ma ragazzi parliamoci chiaro : quale piattaforma ti garantisce ad oggi di montare i processori più veloci sul mercato (sia desktop che prorfessionali)e quale piattaforma ti garantisce di installare il maggiore quantitativo di ram possibile e quale piattaforma è già pronta per i prossimi processori top di gamma di INTEL (anche qui sia desktop che professionali) con pci-e 3.0 nativo?Ok per le sata3 a 2 sole porte ma ci sono anche controller esterni anzi,quelli dedicati vanno anche meglio di quello nativo del chipset a dirla tutta.
Messi male mi sembra un po' azzardato.:)

GIAN.B
20-06-2012, 15:24
ivi-e dovrebe essere a 8 core fisici (salvo cambiamenti ultimi da parte di intel)e molti sbloccato per sistemi desktop mentre in ambito Xeon arriveranno con ivi-ep i 10core fisici/20 threads per cpu.
Siamo ot Gian fermiamoci qui.;)

ultimo piccolo OT....:D ....quindi in teoria con il prossimo socket Haswell vedremo i 10 core fisici anche in ambito desktop?? ....:eek: :eek: :)

aaasssdddfffggg
20-06-2012, 15:27
ultimo piccolo OT....:D ....quindi in teoria con il prossimo socket Haswell vedremo i 10 core fisici anche in ambito desktop?? ....:eek: :eek: :)

non lo so.Non lavoro in INTEL.:D :)

DerRichter
20-06-2012, 15:28
Direi proprio di no... se siamo fortunati, 6.

GIAN.B
20-06-2012, 15:31
non lo so.Non lavoro in INTEL.:D :)

Direi proprio di no... se siamo fortunati, 6.

Uhm...invece io dico proprio di sì....magari non da subito ma con il die shrink di Haswell previsto penso per il 2014....finora infatti ciò che Intel ha presentato prima nei Xeon l'hà sempre poi riportato sui processori Desktop...;) ...chiudo OT grazie mille.

appleroof
20-06-2012, 15:35
Direi proprio di no... se siamo fortunati, 6.

Quoto, credo solo con il prossimo pp avremo speranza di avere 8 core nella fascia medio-alta (quella del mio procio intendo) anche perché in haswell gran parte dello spazio è preso da quella porcheria di gpu integrata

aaasssdddfffggg
20-06-2012, 15:49
Allora,in merito alla EVGA GTX680 CLASSIFIED Jacob su twitter ha detto o meglio confermato :

"EV Bot is required for voltage adjustment beyond 1175mV"

sickofitall
20-06-2012, 15:54
Allora,in merito alla EVGA GTX680 CLASSIFIED Jacob su twitter ha detto o meglio confermato :

"EV Bot is required for voltage adjustment beyond 1175mV"

quindi, 650 euro + 100 per regolare il voltaggio? :asd: incominciano ad essere un pò ridicoli IMHO

aaasssdddfffggg
20-06-2012, 15:57
quindi, 650 euro + 100 per regolare il voltaggio? :asd: incominciano ad essere un pò ridicoli IMHO

già..l'unica mia fortuna è che ho già l'EVBOT acquistato insieme all'SR-X.Una spesa di meno...comunque a parte gli scherzi sarà davvero durissima trovarla (immagino cosa sarà per la hydro per reperirla non appena sarà lanciata)data la produzione di lancio molto limitata.
Comincio a prendere in seria considerazione la mia "seconda scelta" da fare...

Obrigado
20-06-2012, 15:59
se sei venuto qui dentro a dire castronerie ti accontento subito :

i corei7 lga2011 esacore (desktop)non sono stati "tagliati" (oltre ai core anche cache e qpi sono stati tolti per evidenziare le 2 classi di appartenenza) portati a 6 core per contenere il tdp max : gli 8 core sono destinati agli XEON LGA2011 (così ha deciso intel) e se proprio vuoi montare un 8 core su lga2011 hai l'imbarazzo della scelta tra gli xeon con tdp che vanno da 70-150watt max (tutti ad 8 core fisici).
Il discorso pci-e 3.0 esiste tra nvidia e Intel ma nulla vieta,come ha suggerito NVIDIA stessa,a portare la banda passante al pci-e 3.0 forzando un registro.Sul chipset C606 (x79 professionale ovvero quello montato sulla EVGA SR-X per intenderci)il problema non si pone proprio dal principio.
Andiamo avanti : sempre sul discorso porte il C606 (sempre x79 professionale e sempre di piattaforma lga2011 parliamo) supporta nativamente 2 canali sas da 4 porte ciascuno per un totale di 8 porte sas come nel caso sempre della mia SR-X.Non sono sufficienti?Pazienza.
Per ultimo,l'LGA 2011 sarà la piattaforma top di gamma dei prossimi processori basati su IVY BRIDGE-E e IVI BRIDGE-EP (base XEON) in arrivo il prossimo anno...

Obri...:muro:
Chiudo OT..però queste sparate campate in aria dovrebbero essere tamponate.

si e' sempre parlato di lasercut sulla prima ondata di cpu lga 2011 su x79 consumer (quelli che dici tu a 8 core sono usciti dopo)

per chi ha la piattaforma x79 con i processori che arrivano a costare 800€ non avra' il pciexpress 3.0 nativo

le porte sata sono ufficialmete lasercuttate come le sas.


io parlo del presente non del futuro.

chiuso ot

PS:non ho detto neanche una castroneria.

aaasssdddfffggg
20-06-2012, 16:02
si e' sempre parlato di lasercut sulla prima ondata di cpu lga 2011 su x79 consumer (quelli che dici tu a 8 core sono usciti dopo)

per chi ha la piattaforma x79 con i processori che arrivano a costare 800€ non avra' il pciexpress 3.0 nativo

le porte sata sono ufficialmete lasercuttate come le sas.


io parlo del presente non del futuro.

chiuso ot

PS:non ho detto neanche una castroneria.

contento te contenti tutti.Chiudiamo qui che siamo OT.

GIAN.B
20-06-2012, 16:13
quindi, 650 euro + 100 per regolare il voltaggio? :asd: incominciano ad essere un pò ridicoli IMHO

già..l'unica mia fortuna è che ho già l'EVBOT acquistato insieme all'SR-X.Una spesa di meno...comunque a parte gli scherzi sarà davvero durissima trovarla (immagino cosa sarà per la hydro per reperirla non appena sarà lanciata)data la produzione di lancio molto limitata.
Comincio a prendere in seria considerazione la mia "seconda scelta" da fare...

Allora,in merito alla EVGA GTX680 CLASSIFIED Jacob su twitter ha detto o meglio confermato :

"EV Bot is required for voltage adjustment beyond 1175mV"

Questo EVBOT funziona solo con le VGA della EVGA? Ipotesi se io hò 2 ASUS 680 lo posso usare? :)

sickofitall
20-06-2012, 16:15
Ipotesi se io hò 2 ASUS 680 lo posso usare? :)

no

GIAN.B
20-06-2012, 16:18
no

Chiedo a Luca...di Tè non mi fido....:asd: :asd: :asd:

aaasssdddfffggg
20-06-2012, 16:19
Questo EVBOT funziona solo con le VGA della EVGA? Ipotesi se io hò 2 ASUS 680 lo posso usare? :)

No,funziona solo e soltanto con hardware EVGA.

LurenZ87
20-06-2012, 16:37
quindi, 650 euro + 100 per regolare il voltaggio? :asd: incominciano ad essere un pò ridicoli IMHO

solo un pò??? :mc: :doh:

aaasssdddfffggg
20-06-2012, 16:53
solo un pò??? :mc: :doh:

perlomeno questa sale via hardware.;)
Si ovvio,il costo è elevato per chi vuole farsela considernado anche i 90 x l'EVBOT.

xbeatx
20-06-2012, 17:00
http://forums.guru3d.com/showthread.php?p=4345545

la 670 msi power edition è la prima scheda che si può overvoltare via sw senza bisogno di mod ... era ora! :sofico:

ulteriore conferma riguardo la 680 lightning
http://www.techpowerup.com/forums/showpost.php?p=2658222&postcount=16

<Masquerade>
20-06-2012, 17:11
http://forums.guru3d.com/showthread.php?p=4345545

la 670 msi power edition è la prima scheda che si può overvoltare via sw senza bisogno di mod ... era ora! :sofico:

ulteriore conferma riguardo la 680 lightning
http://www.techpowerup.com/forums/showpost.php?p=2658222&postcount=16

MSI = WIN

EVGA = FAIL (per tutto il discorso di evbot evcaz ecc)

<Masquerade>
20-06-2012, 17:12
perlomeno questa sale via hardware.;)
Si ovvio,il costo è elevato per chi vuole farsela considernado anche i 90 x l'EVBOT.

dai nem vogliono troppo con sta menata di evbot...

GIAN.B
20-06-2012, 17:13
MSI = WIN

EVGA = FAIL (per tutto il discorso di evbot evcaz ecc)

Sinceramente anche mi aspettavo un pò di più da questa Lightning.....:rolleyes:


http://www.guru3d.com/article/msi-geforce-gtx-680-lightning-review/

<Masquerade>
20-06-2012, 17:13
Sinceramente anche mi aspettavo un pò di più da questa Lightning.....:rolleyes:


http://www.guru3d.com/article/msi-geforce-gtx-680-lightning-review/

leggi il post di xbeatx ;)

sickofitall
20-06-2012, 17:14
Sinceramente anche mi aspettavo un pò di più da questa Lightning.....:rolleyes:


http://www.guru3d.com/article/msi-geforce-gtx-680-lightning-review/

ma pure la dc2 se non gli togli la resistenza si overclocca come una normale reference :asd:

aaasssdddfffggg
20-06-2012, 17:16
dai nem vogliono troppo con sta menata di evbot...

certo,l'ho detto poco sopra.Concordo con voi.:)

xbeatx
20-06-2012, 17:17
Sinceramente anche mi aspettavo un pò di più da questa Lightning.....:rolleyes:


http://www.guru3d.com/article/msi-geforce-gtx-680-lightning-review/

le recensioni di guru3d e tpu non comprendono le prove in oc con overvolt ... purtroppo l'attuale versione non va bene ... qualche giorno di pazienza e cambi totalmente idea vedrai :p

ps... l'evbot se lo comprate fuori dal sito ufficiale evga lo trovate anche a 60 euro ;)

<Masquerade>
20-06-2012, 17:18
in pratica se una msi power edition 670 se si può overvoltare fino a 1.3, supponendo che in queste condizioni tocca verso i 1400, fa il culo a tutte le GTX.
e la GTX680 Lightning avendoci pure una bestia di pcb con circuteria di qualità, scommetto tocca i 1500

sickofitall
20-06-2012, 17:20
e la GTX680 Lightning avendoci pure una bestia di pcb con circuteria di qualità, scommetto tocca i 1500

decibel? :stordita:

<Masquerade>
20-06-2012, 17:20
decibel? :stordita:

mhz

appleroof
20-06-2012, 17:33
MSI = WIN

EVGA = FAIL (per tutto il discorso di evbot evcaz ecc)

in effetti...

GIAN.B
20-06-2012, 17:41
ma pure la dc2 se non gli togli la resistenza si overclocca come una normale reference :asd:

Certo....si è visto con le Palit....:mbe:

xbeatx
20-06-2012, 17:42
guardate kingpin cos'ha combinato oggi
http://img831.imageshack.us/img831/7807/p16472.jpg
la prima 680 oltre i 2ghz è la classified... la zotac li aveva promessi ma non l'ha mai dimostrato

e nuovo WR al 3dmark11 ...full tessellation

http://hwbot.org/submission/2293742_kingpin_3dmark11___performance_geforce_gtx_680_16472_marks

giù il cappello ...

GIAN.B
20-06-2012, 17:46
guardate kingpin cos'ha combinato oggi


e nuovo WR al 3dmark11 ...full tessellation

http://hwbot.org/submission/2293742_kingpin_3dmark11___performance_geforce_gtx_680_16472_marks

giù il cappello ...

Azoto??

Comunque kinpin riceve i sample migliori da Evga per marketing....non fà testo secondo mè....:rolleyes:

appleroof
20-06-2012, 17:46
ammazza 2 ghz con "solo" 1.21 vcore :eek:

<Masquerade>
20-06-2012, 17:47
ammazza 2 ghz con "solo" 1.21 vcore :eek:

:eek: :fagiano: :oink: :sborone: .

<Masquerade>
20-06-2012, 17:48
Azoto??

Comunque kinpin riceve i sample migliori da Evga per marketing....non fà testo secondo mè....:rolleyes:

a sta gente gli danno un sacco di gpu da testare imho... e dopo postano i risultati della gpu + culata di tutte.

Messi89
20-06-2012, 17:48
:eek:

GIAN.B
20-06-2012, 17:51
a sta gente gli danno un sacco di gpu da testare imho... e dopo postano i risultati della gpu + culata di tutte.

:read: :D

appleroof
20-06-2012, 17:51
a sta gente gli danno un sacco di gpu da testare imho... e dopo postano i risultati della gpu + culata di tutte.

magari per sbaglio mi capitasse in mano una così...mi accontenterei di 1.6ghz in fondo :sofico:

aaasssdddfffggg
20-06-2012, 17:52
in effetti...

il fatto che la classified costi tanto potrebbe essere un vantaggio da parte mia nel senso che sarebbe più facile da reperire...ma invece non sarà così.Spariranno in un attimo.:(
EVGA questo lo sa (che le venderà tutte subito)e se ne sbatte di livellare il prezzo considerando che per sfruttarla al massimo ci sarebbe bisogno anche dell'EVBOT.

xbeatx
20-06-2012, 17:52
ammazza 2 ghz con "solo" 1.21 vcore :eek:

seeeeeee :D l'add dell'evbot non lo visualizzi dall'utility ... comunque da come ha commentato kingpin non è ancora la frequenza limite... c'e' ancora margine

<Masquerade>
20-06-2012, 17:53
:read: :D
cmq la classified, anche la meno fortunata, è per forza una scheda nettamente superiore alla media per l'oc.
magari per sbaglio mi capitasse in mano una così...mi accontenterei di 1.6ghz in fondo :sofico:

quoto

GIAN.B
20-06-2012, 17:57
il fatto che la classified costi tanto potrebbe essere un vantaggio da parte mia nel senso che sarebbe più facile da reperire...ma invece non sarà così.Spariranno in un attimo.:(
EVGA questo lo sa (che le venderà tutte subito)e se ne sbatte di livellare il prezzo considerando che per sfruttarla al massimo ci sarebbe bisogno anche dell'EVBOT.

Lasciale perdere le Classi...2 belle Hydro liscie e son fantastiche...;)

appleroof
20-06-2012, 17:57
il fatto che la classified costi tanto potrebbe essere un vantaggio da parte mia nel senso che sarebbe più facile da reperire...ma invece non sarà così.Spariranno in un attimo.:(
EVGA questo lo sa (che le venderà tutte subito)e se ne sbatte di livellare il prezzo considerando che per sfruttarla al massimo ci sarebbe bisogno anche dell'EVBOT.

tutto quello che vuoi, ma non ci siamo come politica, per come la vedo io, bisogna essere proprio fan del marchio per preferirla alla MSI (in questo caso) di cui si diceva prima (se è vero che si occa via sw e senza accrocchi imposti con aggravio di spesa)

seeeeeee :D l'add dell'evbot non lo visualizzi dall'utility ... comunque da come ha commentato kingpin non è ancora la frequenza limite... c'e' ancora margine

ah quindi il vcore sarà più alto :stordita: ...potrebbe arrivare a 3ghz :asd:

aaasssdddfffggg
20-06-2012, 17:58
Lasciale perdere le Classi...2 belle Hydro liscie e son fantastiche...;)

:) ;)

<Masquerade>
20-06-2012, 17:58
Quad-GK104 Graphics Card Coming (Rumor)







Yes, you read that right. Hartware.net reports, that one of the NVIDIA’s AIB partner has prepared a new graphics card with four Kepler GPUs.

According to the source, one of the manufacturers has demonstrated behind closed doors during Computex, some mysterious card. This particular model would be powered by four GK104 GPUs, which is twice as many as the number of GPUs in GeForce GTX 690.

Hartware.net claims that this quad-gpu card would require 600 to 800 Watts. As the source further reports, manufacturer is doing it’s best to keep the Wattage as low as possible. This would obviously require some limitations to the clocks, which were not yet determined. read more here...


:sbonk:

GIAN.B
20-06-2012, 18:00
Lasciale perdere le Classi...2 belle Hydro liscie e son fantastiche...;)

:) ;)

e ribadisco....2......:D :D :D :asd: :asd:

GIAN.B
20-06-2012, 18:02
Quad-GK104 Graphics Card Coming (Rumor)







Yes, you read that right. Hartware.net reports, that one of the NVIDIA’s AIB partner has prepared a new graphics card with four Kepler GPUs.

According to the source, one of the manufacturers has demonstrated behind closed doors during Computex, some mysterious card. This particular model would be powered by four GK104 GPUs, which is twice as many as the number of GPUs in GeForce GTX 690.

Hartware.net claims that this quad-gpu card would require 600 to 800 Watts. As the source further reports, manufacturer is doing it’s best to keep the Wattage as low as possible. This would obviously require some limitations to the clocks, which were not yet determined. read more here...


:sbonk:

Per mè fake assoluto...e anche se fosse ....stuttering a manetta nei giochi e poi voglio vedere i driver come gestiscono queste schede....:rolleyes: :rolleyes:

<Masquerade>
20-06-2012, 18:03
Per mè fake assoluto...e anche se fosse ....stuttering a manetta nei giochi e poi voglio vedere i driver come gestiscono queste schede....:rolleyes: :rolleyes:

se la fanno immagino sarà una scheda gigantesca

aaasssdddfffggg
20-06-2012, 18:08
e ribadisco....2......:D :D :D :asd: :asd:

si,approved...così ci teniamo i soldi per il gk110 già in tasca (perlomeno è un inizio x il futuro multiGPU).:)

aaasssdddfffggg
20-06-2012, 18:09
se la fanno immagino sarà una scheda gigantesca

e per il 90% dei titoli si starà nel pannello nvidia a smontare il quad per problemi vari sotto i giochi...:)

<Masquerade>
20-06-2012, 18:11
e per il 90% dei titoli si starà nel pannello nvidia a smontare il quad per problemi vari sotto i giochi...:)

quoto

GIAN.B
20-06-2012, 18:11
si,approved...così ci teniamo i soldi per il gk110 già in tasca (perlomeno è un inizio x il futuro multiGPU).:)

e per il 90% dei titoli si starà nel pannello nvidia a smontare il quad per problemi vari sotto i giochi...:)

:read:

aaasssdddfffggg
20-06-2012, 18:22
:read:

tutto ok Gian,ma se entro Luglio trovo le CLASSIFIED (magari anche ad aria e poi il waterblock lo prendo successivamente e lo monto io)...restano la mia prima scelta (costi quel che costi).
EVGA ti ho dato un tempo limite per avere i miei soldi...:)

Wuillyc2
20-06-2012, 18:24
tutto ok Gian,ma se entro Luglio trovo le CLASSIFIED (magari anche ad aria e poi il waterblock lo prendo successivamente e lo monto io)...restano la mia prima scelta (costi quel che costi).
EVGA ti ho dato un tempo limite per avere i miei soldi...:)

Nem, vai di 680 anche tu?

aaasssdddfffggg
20-06-2012, 18:26
Nem, vai di 680 anche tu?

allora,i miei piani li ho cambiati dopo che il gk110 è stato rinviato a fine anno per le TESLA quindi molto probabilmente prima di marzo/aprile del prossimo anno la nuova geforce non la vedremo.
Voglio regalare ai titoli autunnali ed invernali le nuove vga.;)
Certo anche che potevo restare con un 3-way di 580 ma visto il sistema tutto nuovo ho optato anche per le nuove vga.Tutto qua ma è una spesa che si poteva evitare tranquillamente con un 3-way di 580 : l'unica cosa che ci guadagnerò sarà il liquido sulle vga e la vram.;)

Wuillyc2
20-06-2012, 18:27
allora,i miei piani li ho cambiati dopo che il gk110 è stato rinviato a fine anno per le TESLA quindi molto probabilmente prima di marzo/aprile del prossimo anno la nuova geforce non la vedremo.
Voglio regalare ai titoli autunnali ed invernali le nuove vga.;)
Certo anche che potevo restare con un 3-way di 580 ma visto il sistema tutto nuovo ho optato anche per le nuove vga.Tutto qua ma è una spesa che si poteva evitare tranquillamente con un 3-way di 580.;)

alla scimmia non si comanda, è la nostra passione ;)

aaasssdddfffggg
20-06-2012, 18:29
alla scimmia non si comanda, è la nostra passione ;)

ripeto,visti i tempi che si sono allungati ho optato per questa soluzione ma non parlarmi di scimmie.In casa mia comando solo io...al massimo prendo ordini direttamente dalla nave madre.:) ;)

<Masquerade>
20-06-2012, 18:30
...al massimo prendo ordini direttamente dalla nave madre.:) ;)

;) :asd:

Wuillyc2
20-06-2012, 18:30
ripeto,visti i tempi che si sono allungati ho optato per questa soluzione ma non parlarmi di scimmie.In casa mia comando solo io...al massimo prendo ordini direttamente dalla nave madre.:) ;)

huuahauhau, va bene, meglio la nave madre che un branco di scimmie, almeno sei indirizzato in un'unica direzione, le scimmie spesso e volentieri ti proprongono soluzioni opposte :D

illidan2000
20-06-2012, 18:33
ripeto,visti i tempi che si sono allungati ho optato per questa soluzione ma non parlarmi di scimmie.In casa mia comando solo io...al massimo prendo ordini direttamente dalla nave madre.:) ;)

Un comunissisimo caso di scimmia con negazione della stessa....!!!!! Sono i casi peggiori...... Ma uno sli di 690? :)

Inviato dal mio GT-N7000 usando Tapatalk

Babxbba
20-06-2012, 18:35
Dopo un' appassionante sessione di formattone per arrivo anche della nuova scheda madre, anche la mia 670 da asic al 100%, ora vo di download di unigine e vediamo come si pone rispetto alla precedente configurazione.

Il mio obiettivo principale intanto l' ho raggiunto, totale silenzio.

<Masquerade>
20-06-2012, 18:35
Un comunissisimo caso di scimmia con negazione della stessa....!!!!! Sono i casi peggiori...... Ma uno sli di 690? :)

Inviato dal mio GT-N7000 usando Tapatalk

non è la scimmia, lui al max prende ordini da sta gente qua:


http://i.imgur.com/2rtYJ.jpg (http://imgur.com/2rtYJ)

illidan2000
20-06-2012, 18:41
se uno punta veramente a cambiare le schede a marzo-aprile prox, la scelta più sensata sarebbe al max uno sli di 670... la 680 è scimmia, su questo non ho dubbi!

appleroof
20-06-2012, 18:53
se uno punta veramente a cambiare le schede a marzo-aprile prox, la scelta più sensata sarebbe al max uno sli di 670... la 680 è scimmia, su questo non ho dubbi!

io punto a cambiare con una gtx880 :sofico:

NOOB4EVER
20-06-2012, 18:57
:vicini:

fabryx73
20-06-2012, 19:06
ragazzuoli ma per i bench usate unigine,3dmarks 2012 (è l'ulitmo?).....e cos'altro?
potete dirmi come settare i programmi....? o se mi date un link del forum per come settarli vi ringrazio :D

aaasssdddfffggg
20-06-2012, 19:17
se uno punta veramente a cambiare le schede a marzo-aprile prox, la scelta più sensata sarebbe al max uno sli di 670... la 680 è scimmia, su questo non ho dubbi!

sei sicuro che sia scimmai?E cambiare un 980x con 2 Xeon E5 (quando molti utenti magari non sanno nemmeno che cosa sia)da 1700 euro l'uno cosa sarebbe una migrazione dell'intera popolazione di gorilla in casa mia?Vabè dai lasciamo stare ste stupidagini.
Nuovo NVIDIA INSPECTOR 1.9.6.6 lo trovate qui :

http://downloads.guru3d.com/NVIDIA-Inspector-1.9.6.6-download-2612.html#download

aaasssdddfffggg
20-06-2012, 19:18
non è la scimmia, lui al max prende ordini da sta gente qua:


http://i.imgur.com/2rtYJ.jpg (http://imgur.com/2rtYJ)

:asd:
accidenti a te Masque...

aaasssdddfffggg
20-06-2012, 19:29
Un comunissisimo caso di scimmia con negazione della stessa....!!!!! Sono i casi peggiori...... Ma uno sli di 690? :)

Inviato dal mio GT-N7000 usando Tapatalk

evidentemente "la mia scimmia"come la chiami tu;) non è interessata per nulla alle prestazioni assolute...quindi la soluzione indicata da te è da scartare a priori.

baila
20-06-2012, 19:43
ripeto,visti i tempi che si sono allungati ho optato per questa soluzione ma non parlarmi di scimmie.In casa mia comando solo io...al massimo prendo ordini direttamente dalla nave madre.:) ;)

Tu sei completamente pazzo! :sofico:
Complimenti per il sistema!Ma ci giochi o ci lavori pure?

appleroof
20-06-2012, 19:48
evidentemente "la mia scimmia"come la chiami tu;) non è interessata per nulla alle prestazioni assolute...quindi la soluzione indicata da te è da scartare a priori.

non è interessata alle prestazioni assolute...e ti fai una mobo dual cpu? :sofico: (a parte che è un sistema strepitoso, ti faccio i complimenti :) )

TigerTank
20-06-2012, 19:48
tutto quello che vuoi, ma non ci siamo come politica, per come la vedo io, bisogna essere proprio fan del marchio per preferirla alla MSI (in questo caso) di cui si diceva prima (se è vero che si occa via sw e senza accrocchi imposti con aggravio di spesa)

Imho EVGA ed MSI possono starsene sugli scaffali con i loro modelli ultramega. Mi accontento della mia in fullHD e quando arriverà la nuova generazione con il keplerone, nuova schedozza ed eventualmente salto di risoluzione :)
Al momento il livello attuale dei giochi non merita assolutamente un esborso di soldi estremo in quanto ad hardware. In futuro con i nuovi motori ed il txaa si vedrà, i tech demo per me sono più hype che realtà visto che è inutile che esibiscano tante meraviglie quando poi la maggior parte dei giochi esce come porting da console :rolleyes:

aaasssdddfffggg
20-06-2012, 19:51
non è interessata alle prestazioni assolute...e ti fai una mobo dual cpu? :sofico: (a parte che è un sistema strepitoso, ti faccio i complimenti :) )

Apple ok grazie per i complimenti (fanno sempre piacere riceverli) ,ma la mobo dual cpu non è stata mica dettata dall'avere le massime prestazioni in ambito ludico.Se pensi questo vai fuori strada e di parecchio.
Diciamo che mi sono fatto un sistema che oltre a giocare bene,come lo fate anche voi con i vostri amati pc e lo fate davvero bene da quello che vedo e leggo,sà fare anche e soprattutto il PC con delle palle giganti sotto.;)

aaasssdddfffggg
20-06-2012, 19:55
Imho EVGA ed MSI possono starsene sugli scaffali con i loro modelli ultramega. Mi accontento della mia in fullHD e quando arriverà la nuova generazione con il keplerone, nuova schedozza ed eventualmente salto di risoluzione :)
Al momento il livello attuale dei giochi non merita assolutamente un esborso di soldi estremo in quanto ad hardware. In futuro con i nuovi motori ed il txaa si vedrà, i tech demo per me sono più hype che realtà visto che è inutile che esibiscano tante meraviglie quando poi la maggior parte dei giochi esce come porting da console :rolleyes:

Non solo quello che dici è corretto ma anche L'U4 engine recentemente presentato oppure il Luminous Engine di SQUARE ENIX che tanto ha fatto innamorare qui dentro,non saranno utilizzati dalle software house prima del prossimo anno (specie il secondo che è in stato avanzato di sviluppo ma ancora in corso d'opera).

Wuillyc2
20-06-2012, 20:06
Apple ok grazie per i complimenti (fanno sempre piacere riceverli) ,ma la mobo dual cpu non è stata mica dettata dall'avere le massime prestazioni in ambito ludico.Se pensi questo vai fuori strada e di parecchio.
Diciamo che mi sono fatto un sistema che oltre a giocare bene,come lo fate anche voi con i vostri amati pc e lo fate davvero bene da quello che vedo e leggo,sà fare anche e soprattutto il PC con delle palle giganti sotto.;)

Anche tu come me se ben ricordo ci lavori con il pc oltre che giocare, giusto?

NOOB4EVER
20-06-2012, 20:10
evidentemente "la mia scimmia"come la chiami tu;) non è interessata per nulla alle prestazioni assolute...quindi la soluzione indicata da te è da scartare a priori.

oppure non hanno mai provato un quad sli ma piace tanto farne il nome ,fa grosso :rolleyes:



qui mi sa che ti leggono il sistema e si scaldano perche sei troppo marziano caro Max ...bene cosi dunque ;)



no comment ....


compliemti per come riesci sempre ad incassare con sapienza e senza la minima presunzione ...ti stimo... e prima o poi la gente capira' ;)

TigerTank
20-06-2012, 20:10
Non solo quello che dici è corretto ma anche L'U4 engine recentemente presentato oppure il Luminous Engine di SQUARE ENIX che tanto ha fatto innamorare qui dentro,non saranno utilizzati dalle software house prima del prossimo anno (specie il secondo che è in stato avanzato di sviluppo ma ancora in corso d'opera).

Eh già...sembrerebbe una stranezza ma l'ambito software è sempre indietro rispetto all'hardware, cosa che ad esempio abbiamo visto abbondantemente già con le sole directx o con le ottimizzazioni per i quadcores :)
Io come riserva tengo l'eventuale acquisto di una seconda WF3 ma solo SE entro tempi utili dovesse arrivare qualche gioco esoso che mi piace e che lo merita ;)

aaasssdddfffggg
20-06-2012, 20:13
oppure non hanno mai provato un quad sli ma piace tanto farne il nome ,fa grosso :rolleyes:



qui mi sa che ti leggono il sistema e si scaldano perche sei troppo marziano caro Max ...bene cosi dunque ;)



no comment ....


compliemti per come riesci sempre ad incassare con sapienza e senza la minima presunzione ...ti stimo... e prima o poi la gente capira' ;)

Noob noi ci conosciamo da parcchio e la cosa più importante ,quando ci ritroviamo in questi Threads è condividere la stesa identica passione.
Tutto il resto si legge e va bene così...;)
Mhumm,no il quad proprio no.Non lo voglio o meglio non ci torno.:)

appleroof
20-06-2012, 20:16
Imho EVGA ed MSI possono starsene sugli scaffali con i loro modelli ultramega. Mi accontento della mia in fullHD e quando arriverà la nuova generazione con il keplerone, nuova schedozza ed eventualmente salto di risoluzione :)
Al momento il livello attuale dei giochi non merita assolutamente un esborso di soldi estremo in quanto ad hardware. In futuro con i nuovi motori ed il txaa si vedrà, i tech demo per me sono più hype che realtà visto che è inutile che esibiscano tante meraviglie quando poi la maggior parte dei giochi esce come porting da console :rolleyes:

se è per questo stavi bene pure con la 580 :asd:

io dico che in ogni fascia (quindi anche nell'ambito della fascia entusiasth alla quale appartiene pure la 680 reference) esiste un'offerta ancora più estrema, ma nell'ambito di questa usare il raziocino non fa male, allo stesso modo in cui se compro una reference prendo quella che costa meno, per fare un esempio che è credo immediatamente comprensibile di quello che voglio dire

poi se uno vuole assolutamente quella vga perchè è affezionato al marchio, perchè ha una assistenza migliore, perchè semnplicemente si abbina al suo sistema non giudico, ovvio, ma diciamo molto probabilmente non farei quella scelta ecco...

Apple ok grazie per i complimenti (fanno sempre piacere riceverli) ,ma la mobo dual cpu non è stata mica dettata dall'avere le massime prestazioni in ambito ludico.Se pensi questo vai fuori strada e di parecchio.
Diciamo che mi sono fatto un sistema che oltre a giocare bene,come lo fate anche voi con i vostri amati pc e lo fate davvero bene da quello che vedo e leggo,sà fare anche e soprattutto il PC con delle palle giganti sotto.;)

mmmm...se era per uso professionale ti facevi una workstation pura, non una mobo da ws adattata al gamign "ultraentusiasth" :D ...posso dire che cerchi il massimo (inteso come prestazioni anche in ambito gaming) compromesso tra una ws pro e un desktop da gioco? ci ho beccato? :D

aaasssdddfffggg
20-06-2012, 20:18
Anche tu come me se ben ricordo ci lavori con il pc oltre che giocare, giusto?

lavoro è un termine forse troppo pesante ,ci faccio lavori personali con software che beneficiano i threads di cui posseggo,quello si altrimenti che me lo sono fatto a fare un sistema del genere,mica per tirare fuori i numeroni al VANTAGE o al CINEBENCH e basta?;)

aaasssdddfffggg
20-06-2012, 20:20
se è per questo stavi bene pure con la 580 :asd:

io dico che in ogni fascia (quindi anche nell'ambito della fascia entusiasth alla quale appartiene pure la 680 reference) esiste un'offerta ancora più estrema, ma nell'ambito di questa usare il raziocino non fa male, allo stesso modo in cui se compro una reference prendo quella che costa meno, per fare un esempio che è credo immediatamente comprensibile di quello che voglio dire

poi se uno vuole assolutamente quella vga perchè è affezionato al marchio, perchè ha una assistenza migliore, perchè semnplicemente si abbina al suo sistema non giudico, ovvio, ma diciamo molto probabilmente non farei quella scelta ecco...



mmmm...se era per uso professionale ti facevi una workstation pura, non una mobo da ws adattata al gamign "ultraentusiasth" :D ...posso dire che cerchi il massimo (inteso come prestazioni anche in ambito gaming) compromesso tra una ws pro e un desktop da gioco? ci ho beccato? :D

al 100x100.Esattamente quello.
L'ho detto appena sopra : il PC è in casa mia quindi copre la fascia ludica a quella più seria con software di caratura e vede sempre e solo un unico proprietario ehmm...alieno..;)

aaasssdddfffggg
20-06-2012, 20:23
Eh già...sembrerebbe una stranezza ma l'ambito software è sempre indietro rispetto all'hardware, cosa che ad esempio abbiamo visto abbondantemente già con le sole directx o con le ottimizzazioni per i quadcores :)
Io come riserva tengo l'eventuale acquisto di una seconda WF3 ma solo SE entro tempi utili dovesse arrivare qualche gioco esoso che mi piace e che lo merita ;)

hehe,cominciamo magari a testare da inizio Settembre...:) ;)

appleroof
20-06-2012, 20:26
al 100x100.Esattamente quello.
L'ho detto appena sopra : il PC è in casa mia quindi copre la fascia ludica a quella più seria con software di caratura e vede sempre e solo un unico proprietario ehmm...alieno..;)

capito :)

cmq imho fai bene a non puntare sul quadsli con 2xgtx690, sai bene che non rende quanto potrebbe purtroppo...una bella 690 però la considererei, imho per finiture e tutto il resto ora come ora è lo stato dell'arte

Razor90
20-06-2012, 20:27
da gpu-z, la scheda sta a 364% di tdp, ma che cavolo?

appleroof
20-06-2012, 20:28
da gpu-z, la scheda sta a 364% di tdp, ma che cavolo?

:confused:

hai occato? Sistema pulito? ultimi driver?

olddan
20-06-2012, 20:29
Classified disponibile sullo store americano per circa un nanosecondo, ovviamente impossibile comprarla dall'Italia.

"Dear EVGA Customer,

EVGA is happy to announce the product that you requested to be notified is now available.

Please click on the link below to make your purchase.

http://www.evga.com/products/moreinfo.asp?pn=04G-P4-3688-KR

If you have any questions you can email us at sales@evga.com
Thank you,

EVGA Sales Team."

aaasssdddfffggg
20-06-2012, 20:29
capito :)

cmq imho fai bene a non puntare sul quadsli con 2xgtx690, sai bene che non rende quanto potrebbe purtroppo...una bella 690 però la considererei, imho per finiture e tutto il resto ora come ora è lo stato dell'arte

si l'ho tenuta in considerazione ma perde parecchio in un punto : nonostante EVGA abbia tirato fuori il waterblock pronto SIGNATURE per la 690....non esiste ancora nessun backplate.Male male male vedere il pcb tutto a pancia all'aria.

TigerTank
20-06-2012, 20:29
se è per questo stavi bene pure con la 580


Eh mica tanto, ad esempio con Alan Wake iniziava a stare in difficoltà e con tutto al massimo calava anche sotto i 50fps con gpu al 99%.
E poi vabbè...in fondo anch'io sono un appassionato e ho le mie scimmie, piccole ma onnipresenti! :D

Wuillyc2
20-06-2012, 20:30
lavoro è un termine forse troppo pesante ,ci faccio lavori personali con software che beneficiano i threads di cui posseggo,quello si altrimenti che me lo sono fatto a fare un sistema del genere,mica per tirare fuori i numeroni al VANTAGE o al CINEBENCH e basta?;)

Sarei curioso di vedere come gira con un software professionale che fa Ocr, io ne ho comprato uno ad ok che sfrutta i 12 core, chissà se può sfruttare tutti quei core, ci impiegherebbe 2 volte meno del mio pc, che in termini lavorativi è molto molto buono.

Razor90
20-06-2012, 20:30
:confused:

hai occato? Sistema pulito? ultimi driver?

tutto pulito, niente OC,

La scheda va, perchè va e non crasha, gpu-z però mi da come clock massimo 915 anche quando faccio partire unigine, rimane li. TDP massimo sta sempre fisso a 364. Praticamente secondo gpuz ho una centrale nucleare che non boosta neanche. Porca miseria aiutatemi, oppure dovrò mandare in rma :\

aaasssdddfffggg
20-06-2012, 20:30
Classified disponibile sullo store americano per circa un nanosecondo, ovviamente impossibile comprarla dall'Italia.

"Dear EVGA Customer,

EVGA is happy to announce the product that you requested to be notified is now available.

Please click on the link below to make your purchase.

http://www.evga.com/products/moreinfo.asp?pn=04G-P4-3688-KR

If you have any questions you can email us at sales@evga.com
Thank you,

EVGA Sales Team."

è cosa normale.Sarà difficilissimo prenderla (perlomeno agli inizi) : dico io,era meglio che EVGA la metteva a 900€ così magari il 90% degli utenti l'avrebbe lasciata negli store...

aaasssdddfffggg
20-06-2012, 20:32
Sarei curioso di vedere come gira con un software professionale che fa Ocr, io ne ho comprato uno ad ok che sfrutta i 12 core, chissà se può sfruttare tutti quei core, ci impiegherebbe 2 volte meno del mio pc, che in termini lavorativi è molto molto buono.

se usa tutti i12 threads al 100x100 di carico o giù di lì, è facile che utilizzi anche 32 threads nel caso li trovasse.;)
Il tuo PC è ai ai vertici attuali senza storie.Tranquillo.

TigerTank
20-06-2012, 20:34
è cosa normale.Sarà difficilissimo prenderla (perlomeno agli inizi) : dico io,era meglio che EVGA la metteva a 900€ così magari il 90% degli utenti l'avrebbe lasciata negli store...

Secondo me venderebbe anche a 900€...c'è gente che causa acquisto compulsivo non capisce più nulla trasformandosi in qualcosa di molto simile ad un berserker :asd:

aaasssdddfffggg
20-06-2012, 20:36
Secondo me venderebbe anche a 900€...c'è gente che causa acquisto compulsivo non capisce più nulla trasformandosi in qualcosa di molto simile ad un berserker :asd:

:D :asd:

ecco perchè EVGA fa prezzi così elevati : venderà comunque e subito.Non gli passa nemmeno un attimo x il cervello di allinearsi con la concorrenza.E chi glielo fa fare?

fabryx73
20-06-2012, 20:44
tutto pulito, niente OC,

La scheda va, perchè va e non crasha, gpu-z però mi da come clock massimo 915 anche quando faccio partire unigine, rimane li. TDP massimo sta sempre fisso a 364. Praticamente secondo gpuz ho una centrale nucleare che non boosta neanche. Porca miseria aiutatemi, oppure dovrò mandare in rma :\

temperature? installa msi afterburner...

provato 3dmard o giochi?

364 tdp che significa? 364% di potenza?:confused:

appleroof
20-06-2012, 20:48
si l'ho tenuta in considerazione ma perde parecchio in un punto : nonostante EVGA abbia tirato fuori il waterblock pronto SIGNATURE per la 690....non esiste ancora nessun backplate.Male male male vedere il pcb tutto a pancia all'aria.

capito...su cosa sei orientato adesso?

Eh mica tanto, ad esempio con Alan Wake iniziava a stare in difficoltà e con tutto al massimo calava anche sotto i 50fps con gpu al 99%.
E poi vabbè...in fondo anch'io sono un appassionato e ho le mie scimmie, piccole ma onnipresenti! :D

ecco, diciamocelo (pure io con lo sli di 460 stavo bene fino alle prox console onestamente) :D


tutto pulito, niente OC,

La scheda va, perchè va e non crasha, gpu-z però mi da come clock massimo 915 anche quando faccio partire unigine, rimane li. TDP massimo sta sempre fisso a 364. Praticamente secondo gpuz ho una centrale nucleare che non boosta neanche. Porca miseria aiutatemi, oppure dovrò mandare in rma :\

sicuro di avere l'ultima versione di gpu-z?

Razor90
20-06-2012, 20:50
temperature? installa msi afterburner...

provato 3dmard o giochi?

364 tdp che significa? 364% di potenza?:confused:

provato 3dmark e battlefield, un terzo di quel che dovrebbe. Non so più che fare, ho aperto anche thread in assistenza :)

temperature nella norma per una reference, siamo sui 38 gradi ora...porca miseria :)

aaasssdddfffggg
20-06-2012, 20:51
capito...su cosa sei orientato adesso?



ecco, diciamocelo (pure io con lo sli di 460 stavo bene fino alle prox console onestamente) :D




sicuro di avere l'ultima versione di gpu-z?

sempre sulle CLASSIFIED per tutto il mese di LUGLIO (quindi di tempo ce nè ma miro alle Hydro che dovrebbero arrivare proprio nel mese diu LUGLIO).Nel caso non si trovasse da nessuna parte andro' di HydroCopper "LISCE" e si volta pagina o meglio ci si comincia a godere un po' il nuovo sistema in ambito ludico.;)

Razor90
20-06-2012, 20:52
[QUOTE=Razor90




sicuro di avere l'ultima versione di gpu-z?[/QUOTE]


sicurissimo. evga precision x segnala la stessa cosa, come anche msi afterburner.
Viva la sfiga! :)

Che poi, che cavolo di tdp è 364%? lol

aaasssdddfffggg
20-06-2012, 20:54
temperature? installa msi afterburner...

provato 3dmard o giochi?

364 tdp che significa? 364% di potenza?:confused:

No no,il TDP (che si misura in WATT)misura il calore generato dal die che dovrà essere smaltito dal sistema di raffreddamento.Non centra nulla la potenza qua.

appleroof
20-06-2012, 20:55
sempre sulle CLASSIFIED per tutto il mese di LUGLIO (quindi di tempo ce nè ma miro alle Hydro che dovrebbero arrivare proprio nel mese diu LUGLIO).Nel caso non si trovasse da nessuna parte andro' di HydroCopper "LISCE" e si volta pagina o meglio ci si comincia a godere un po' il nuovo sistema in ambito ludico.;)

ok...cmq a propsoti di giochi, leggevo dietro che non ti attirava MP3...imho invece è fantastico (e non solo per la grafica), ad esempio: www.hwupgrade.it/forum/showpost.php?p=37670841&postcount=866

scusate l'ot :D

Razor90
20-06-2012, 20:56
No no,il TDP (che si misura in WATT)misura il calore generato dal die che dovrà essere smaltito dal sistema di raffreddamento.Non centra nulla la potenza qua.

illuminami, conosci di schede con questi problemi?

aaasssdddfffggg
20-06-2012, 20:56
ok...cmq a propsoti di giochi, leggevo dietro che non ti attirava MP3...imho invece è fantastico (e non solo per la grafica), ad esempio: www.hwupgrade.it/forum/showpost.php?p=37670841&postcount=866

scusate l'ot :D

è la terza persona e nello specifico le meccaniche di MAXPAYNE 3 che non si abbinano ai miei gusti.Contentissimo che ti stia facendo divertire.;)

fabryx73
20-06-2012, 20:57
No no,il TDP (che si misura in WATT)misura il calore generato dal die che dovrà essere smaltito dal sistema di raffreddamento.Non centra nulla la potenza qua.

ok thanks ;)
quindi 364...sarebbe 364 watt?
non è un po troppo? visto che la scheda devorebbe consumare 170watt?

ps. razor prova a installare msi afterburner...ti dice gradi e uso gpu massimo....si usa sopratutto per oc...

appleroof
20-06-2012, 20:59
sicurissimo. evga precision x segnala la stessa cosa, come anche msi afterburner.
Viva la sfiga! :)

Che poi, che cavolo di tdp è 364%? lol

potresti fare uno screen di gpuz?

è la terza persona e nello specifico le meccaniche di MAXPAYNE 3 che non si abbinano ai miei gusti.Contentissimo che ti stia facendo divertire.;)

capito...alzo le mani :D

aaasssdddfffggg
20-06-2012, 21:00
ok thanks ;)
quindi 364...sarebbe 364 watt?
non è un po troppo? visto che la scheda devorebbe consumare 170watt?

ps. razor prova a installare msi afterburner...ti dice gradi e uso gpu massimo....si usa sopratutto per oc...

mah,non ho seguito il dibattito ma non so cosa sta succedendo ma una cosa la so : quel tdp che hai tirarto fuori è il tdp max di una gtx590 (che è una dual a 40nm e NVIDIA segnala 365watt per l'esattezza).:confused:
Per KEPLER è totalmente fuori luogo e fuori portata.

<Masquerade>
20-06-2012, 21:00
se non funziona il turbo è fallata. ma dai poi il 364% di potenza è assurdo.

Razor90
20-06-2012, 21:00
ok thanks ;)
quindi 364...sarebbe 364 watt?
non è un po troppo? visto che la scheda devorebbe consumare 170watt?

ps. razor prova a installare msi afterburner...ti dice gradi e uso gpu massimo....si usa sopratutto per oc...

stesso problema, stessi identici risultati.
Addirittura combustor mi da 30 fps, con uso della gpu al 100% ma clock massimo 350.

Il tdp è sempre fisso a 360%

<Masquerade>
20-06-2012, 21:10
prova nel pannello driver a mettere l'opzione "gestione dell alimentazione" su 'prestazioni massime' e vedi che succede in quei test

Razor90
20-06-2012, 21:10
potresti fare uno screen di gpuz?



capito...alzo le mani :D

ecco qui l'immagine, posto a grandezza normale:

Afterburner, kombustor e gpu-z

http://www.justoverclock.net/out.php/t20241_.jpg (http://www.justoverclock.net/out.php/i20241_.jpg)

TigerTank
20-06-2012, 21:13
è la terza persona e nello specifico le meccaniche di MAXPAYNE 3 che non si abbinano ai miei gusti.Contentissimo che ti stia facendo divertire.;)

Non piace nemmeno a me :(
Causa nostalgia ed entusiasmo lo stavo per prendere ma per fortuna ho avuto l'occasione di vederlo in azione prima. Molto meglio i predecessori con la loro atmosfera noir, l'inizio di questo invece mi ricorda più i GTA...

appleroof
20-06-2012, 21:14
ecco qui l'immagine, posto a grandezza normale:

Afterburner, kombustor e gpu-z

http://www.justoverclock.net/out.php/t20241_.jpg (http://www.justoverclock.net/out.php/i20241_.jpg)

se la scheda non ha comportamenti anomali nei bench e sopratutto nei giochi, credo sia qualche tipo di conflitto sw che sballa la rilevazione del tdp, è molto strano in effetti, ma in tanti anni di pc tendo a non escludere nemmeno le ipotesi più esotiche :D

cmq ripeto, se non hai problemi nei giochi puoi scegliere di andare tranquillo, sennò la prova del 9 dovresti averla con un formattone

Razor90
20-06-2012, 21:15
prova nel pannello driver a mettere l'opzione "gestione dell alimentazione" su 'prestazioni massime' e vedi che succede in quei test

cambiato assolutamente nulla :\

Razor90
20-06-2012, 21:16
se la scheda non ha comportamenti anomali nei bench e sopratutto nei giochi, credo sia qualche tipo di conflitto sw che sballa la rilevazione del tdp, è molto strano in effetti, ma in tanti anni di pc tendo a non escludere nemmeno le ipotesi più esotiche :D

cmq ripeto, se non hai problemi nei giochi puoi scegliere di andare tranquillo, sennò la prova del 9 dovresti averla con un formattone

il problema è che unigine eaven mi fa 15 fps e 400 di punteggio, con un i5 2500k e 8GB di ram :D

<Masquerade>
20-06-2012, 21:17
io da quello screen non capisco cosa c'è che non va.

se la scheda non sta facendo nulla è normale che ha frequenze bassissime

l'unica cosa strana è l'utilizzo di energia 364%

appleroof
20-06-2012, 21:17
il problema è che unigine eaven mi fa 15 fps e 400 di punteggio, con un i5 2500k e 8GB di ram :D

azz...allora credo sia la scheda, cmq se hai voglia potresti o provarla su un altro pc, oppure il classico formattone, almeno la mandi in rma con cognizione di causa

<Masquerade>
20-06-2012, 21:18
il problema è che unigine eaven mi fa 15 fps e 400 di punteggio, con un i5 2500k e 8GB di ram :D

formatta tutto se te lo fa ancora RMA

Razor90
20-06-2012, 21:19
azz...allora credo sia la scheda, cmq se hai voglia potresti o provarla su un altro pc, oppure il classico formattone, almeno la mandi in rma con cognizione di causa

formatta tutto se te lo fa ancora RMA

voi dite che il formattone risolve??

sto controllando con gpu-z, non mi va neanche il boost, non si schioda dai 915.
In più ho provato la scheda su un pc, stessa configurazione, di un mio amico. Stessi problemi...

appleroof
20-06-2012, 21:20
voi dite che il formattone risolve??

sto controllando con gpu-z, non mi va neanche il boost, non si schioda dai 915.
In più ho provato la scheda su un pc, stessa configurazione, di un mio amico. Stessi problemi...

come ultima prova lo farei, ma giusto per non aver escluso nulla, anche se il fatto che la hai provata su un altro pc e non cambia nulla depone sempre più per l'rma...

<Masquerade>
20-06-2012, 21:20
che driver stai utilizzando per curiosità?

Razor90
20-06-2012, 21:21
io da quello screen non capisco cosa c'è che non va.

se la scheda non sta facendo nulla è normale che ha frequenze bassissime

l'unica cosa strana è l'utilizzo di energia 364%

la scheda va ugualmente al massimo di 915 in ogni benchmark e gioco

<Masquerade>
20-06-2012, 21:21
anche se il fatto che la hai provata su un altro pc e non cambia nulla depone sempre più per l'rma...

quoto

Razor90
20-06-2012, 21:22
che driver stai utilizzando per curiosità?

304.48, provo con versione precedente o certificati?

<Masquerade>
20-06-2012, 21:22
la scheda va ugualmente al massimo di 915 in ogni benchmark e gioco

purtroppo mi sa che che questa scheda video è rotta. segna valori sballati, il turbo non funziona, ecc

<Masquerade>
20-06-2012, 21:23
304.48, provo con versione precedente o certificati?

prova anche questa di cambiare driver.... ma purtroppo ho un brutto presentimento

Razor90
20-06-2012, 21:26
prova anche questa di cambiare driver.... ma purtroppo ho un brutto presentimento

ho anche io un brutto presentimento, e da quel che vedo in giro, pl@n3thw usa mandare schede video difettate, magari uno non se ne accorge.

Di solito in bundle cosa danno? Perchè così vedo se c'è tutto nella scatola.. Io ho trovato solo scheda manuale e cd

<Masquerade>
20-06-2012, 21:27
ma che 670 è questa di che marca?

Razor90
20-06-2012, 21:38
ma che 670 è questa di che marca?

reference point of view, cambiato i driver ma stesso errore nel tdp massimo...

EDIT: scheda fallata, ho già mandato un email allo shopper, domani mi sente, sto come una carogna. Devo tornare alla mia bella 8800 gts da 512... potevo risparmiarmeli sti 350 euro :)

ale109
20-06-2012, 21:43
curiosità...

SLI 570 meglio o peggio di una singola 670??

<Masquerade>
20-06-2012, 21:43
reference point of view, cambiato i driver ma stesso errore nel tdp massimo...

EDIT: scheda fallata, ho già mandato un email allo shopper, domani mi sente, sto come una carogna. Devo tornare alla mia bella 8800 gts da 512... potevo risparmiarmeli sti 350 euro :)

mi dispiace per sta sfiga :(

vincas88bn
20-06-2012, 21:46
ragazzi ho problemi con la mia gtx 670, praticamente ogni qualvolta tento di aprire un video su youtube mi si blocca tutto ed esce il driver video ha smesso di funzionare! ho aggiornato anche i driver ma il problema persiste, che può essere?
non ho risolto nemmeno formattando:mc:

eXeS
20-06-2012, 21:51
ho anche io un brutto presentimento, e da quel che vedo in giro, pl@n3thw usa mandare schede video difettate, magari uno non se ne accorge.

Di solito in bundle cosa danno? Perchè così vedo se c'è tutto nella scatola.. Io ho trovato solo scheda manuale e cd
Ma eri tu che avevi ordinato la giga sulla baia ad un prezzaccio e il venditore al ritorno dalle ferie ti ha rimborsato perchè la scheda non era più disponibile ?

Se la risposta è affermativa mi sa che hai avuto una bella sfiga, ho seguito i tuoi post e temo che la scheda sia fallata, un consumo di 3.64 volte superiore a quello nominale è impossibile, equivarrebbe a circa 500W e a quest'ora la sezione di alimentazione se ne sarebbe andata, un format comunque la farei, se non risolvi RMA.

eXeS
20-06-2012, 21:56
ragazzi ho problemi con la mia gtx 670, praticamente ogni qualvolta tento di aprire un video su youtube mi si blocca tutto ed esce il driver video ha smesso di funzionare! ho aggiornato anche i driver ma il problema persiste, che può essere?
non ho risolto nemmeno formattando:mc:
Con qualunque browser ?

appleroof
20-06-2012, 21:59
reference point of view, cambiato i driver ma stesso errore nel tdp massimo...

EDIT: scheda fallata, ho già mandato un email allo shopper, domani mi sente, sto come una carogna. Devo tornare alla mia bella 8800 gts da 512... potevo risparmiarmeli sti 350 euro :)

Mspiace pure a me...almeno quando arriva l'altra vedrai che salto dalla 8800, non ti pentirai della spesa ;)

curiosità...

SLI 570 meglio o peggio di una singola 670??

Meglio

ragazzi ho problemi con la mia gtx 670, praticamente ogni qualvolta tento di aprire un video su youtube mi si blocca tutto ed esce il driver video ha smesso di funzionare! ho aggiornato anche i driver ma il problema persiste, che può essere?
non ho risolto nemmeno formattando:mc:

a me da quando ho installato l'ultimo aggiornamento flash player ogni tanto crasha il plugin in firefox (non YouTube) non ho approfondito perché è più scocciante che altro e aspetto un aggiornamento Adobe e/o i prossimi whql...tu visto che è più grave potresti provare a mettere gli ultimi beta o cambiare browser (o la combinazione dei due) se usi ff...

Edit:letto ora post di Exes :D

eXeS
20-06-2012, 22:07
a me da quando ho installato l'ultimo aggiornamento flash player ogni tanto crasha il plugin in firefox (non YouTube) non ho approfondito perché è più scocciante che altro e aspetto un aggiornamento Adobe e/o i prossimi whql...tu visto che è più grave potresti provare a mettere gli ultimi beta o cambiare browser (o la combinazione dei due) se usi ff...

Edit:letto ora post di Exes :D
Sembra un problema del plugin per firefox http://support.mozilla.org/it/kb/chiusure-inaspettate-del-plugin-flash-113

vincas88bn
20-06-2012, 22:11
Con qualunque browser ?

sì, provati chrome e firefox ma nulla da fare. può essere un problema di flas player magari devo installare una versione apposta per il 64 bit?

eXeS
20-06-2012, 22:13
sì, provati chrome e firefox ma nulla da fare. può essere un problema di flas player magari devo installare una versione apposta per il 64 bit?
Firefox non l'ho installato ma chrome è a 32 bit, quindi va bene il flash player a 32 bit.

Edit: Prova ad andare in Pannello di controllo->Sistema e sicurezza->Flash Player->Scheda Avanzato e clicca sul bottone Elimina tutto...

vincas88bn
20-06-2012, 22:17
Firefox non l'ho installato ma chrome è a 32 bit, quindi va bene il flash player a 32 bit.

provo a disinstallare flash player e a reinstallarlo e vediamo che succede...

appleroof
20-06-2012, 22:19
Sembra un problema del plugin per firefox http://support.mozilla.org/it/kb/chiusure-inaspettate-del-plugin-flash-113

immaginavo che non fossero i driver, visto che il problema si è presentato all'aggiornamento del player (o del browser, visto che sono stati molto vicini) grazie mille Exes, valuto se usare temporaneamente Chrome o aspettare update ;)

Razor90
20-06-2012, 22:51
Ma eri tu che avevi ordinato la giga sulla baia ad un prezzaccio e il venditore al ritorno dalle ferie ti ha rimborsato perchè la scheda non era più disponibile ?

Se la risposta è affermativa mi sa che hai avuto una bella sfiga, ho seguito i tuoi post e temo che la scheda sia fallata, un consumo di 3.64 volte superiore a quello nominale è impossibile, equivarrebbe a circa 500W e a quest'ora la sezione di alimentazione se ne sarebbe andata, un format comunque la farei, se non risolvi RMA.

Mspiace pure a me...almeno quando arriva l'altra vedrai che salto dalla 8800, non ti pentirai della spesa ;)





eh già! ero proprio io! Comunque, no problem, si aspetta. Ho aspettato 3 generazioni, aspetterò un altro mese :) Male che va chiedo il rimborso e sticà!

Comunque, nonostante fallata, il boost prestazionale si sentiva, Ahahahah

Vediamo se lo shop me la sostituisce con un altra custom, speriamo :)

fabryx73
20-06-2012, 23:15
ragazzi ho problemi con la mia gtx 670, praticamente ogni qualvolta tento di aprire un video su youtube mi si blocca tutto ed esce il driver video ha smesso di funzionare! ho aggiornato anche i driver ma il problema persiste, che può essere?
non ho risolto nemmeno formattando:mc:

togli l'accelerazione hardware al flash player....
quando sei su un video flash....tasto destro....opzioni avanzate...togli la spunta...

molti hanno risolto così....tanto col pc che hai riesce anche senza acc hw :D


Vediamo se lo shop me la sostituisce con un altra custom, speriamo :)

certo che sei strasfigato...
vediamo a me domani....che succede.... ;)
speriamo in bene....altrimenti mi sa che il negozio qui sul forum viene depennato.....

ps. per la cronaca ho preso anche io una point of view 670 reference......dallo stesso posto.....

pps. razor .... prova comunque ad installare driver precedenti....e a fare un bel formattone....
sono le ultime prove....almeno vai sul sicuro ;)