PDA

View Full Version : GeForce GTX 690: nuove dettagli sulla scheda dual GPU


Redazione di Hardware Upg
11-04-2012, 08:31
Link alla notizia: http://www.hwupgrade.it/news/skvideo/geforce-gtx-690-nuove-dettagli-sulla-scheda-dual-gpu_41615.html

Debutto previsto nel mese di Maggio per la proposta top di gamma di NVIDIA nel panorama delle schede video desktop, dotata di due GPU in parallelo sullo stesso PCB

Click sul link per visualizzare la notizia.

illidan2000
11-04-2012, 09:05
chissà quanto costerà... ma 256bit come la 680? o ne aveva 384?

Goofy Goober
11-04-2012, 09:26
essendo una dual gpu basata su gk104 (a quanto si capisce) è normale abbia quel bus. dovrebbero usare dei chip diversi per cambiare il bus, almeno credo... come prezzo ipotizzo quello delle 6990 e 590gtx al lancio.

love80x
11-04-2012, 09:26
se sarà una dual GK104... credo bus a 256bit (non avrebbe senso aumentarlo, a meno di proporre chip GK104 con 3GB cad. per un totale di 6GB per scheda)

jolly74
11-04-2012, 09:33
Il chip video riproporrà le stesse caratteristiche di quanto implementato nelle schede GeForce GTX 680, con presumibilmente un inferiore numero di CUDA Cores e una frequenza di funzionamento più contenuta.

Cosa vogliono fare come con la 590 che erano due 580 castrate che andavano come uno sli di 570 :muro:
L'idea della 690 mi attizzava ma se fosse come riportato nell'articolo , stavolta non mi fregano e aggiungo una seconda 680 .

Goofy Goober
11-04-2012, 09:46
beh mi pare ovvio che faranno come la 590... nvidia non mi pare abbia mai fatto una dual gpu con chip top di gamma non castrati...

la 9800GX2 con due 8800GT (e non le GTX-ultra)
la 295gtx cone due 275gtx (non le 285)
la 590gtx con 2 580gtx ma pesantemente castrate.

purtroppo devono scendere a compromessi per mantere i 2 8pin... la 590 cmq in alcuni casi va anche meno di 2 570, soprattutto se queste ultime vengono leggermente occate

illidan2000
11-04-2012, 09:50
Il chip video riproporrà le stesse caratteristiche di quanto implementato nelle schede GeForce GTX 680, con presumibilmente un inferiore numero di CUDA Cores e una frequenza di funzionamento più contenuta.

Cosa vogliono fare come con la 590 che erano due 580 castrate che andavano come uno sli di 570 :muro:
L'idea della 690 mi attizzava ma se fosse come riportato nell'articolo , stavolta non mi fregano e aggiungo una seconda 680 .

e io mi sa che ti seguo... cmq una sola 680 va come la 590, quindi per il momento non ha tanto senso avere tutta quella potenza

Ale55andr0
11-04-2012, 09:58
Il chip video riproporrà le stesse caratteristiche di quanto implementato nelle schede GeForce GTX 680, con presumibilmente un inferiore numero di CUDA Cores e una frequenza di funzionamento più contenuta.

Cosa vogliono fare come con la 590 che erano due 580 castrate che andavano come uno sli di 570 :muro:
L'idea della 690 mi attizzava ma se fosse come riportato nell'articolo , stavolta non mi fregano e aggiungo una seconda 680 .


è normale, devono contenere i consumi, anche le 6990 erano castrate in frequenza.
Se proprio ti interessa, nessuno ti vieta di overcloccare, anche se a mio avviso se proprio si vuole andare di multi è assai preferebile la via delle vga separate a gpu singola in SLI/crossfire

Thunder-74
11-04-2012, 10:04
mi auguro che in futuro servino realmente ste schede: finchè i giochi saranno un porting dalle console, basterà una single GPU.

jolly74
11-04-2012, 10:23
è normale, devono contenere i consumi, anche le 6990 erano castrate in frequenza.
Se proprio ti interessa, nessuno ti vieta di overcloccare, anche se a mio avviso se proprio si vuole andare di multi è assai preferebile la via delle vga separate a gpu singola in SLI/crossfire

Si ma i cuda core mancanti mica saltano fuori per magia :D

le 6990 avevano il secondo bios di fabbrica con frequenze pari ad una 6970 full spec, per la precisione, senza shader mancanti.. ;)

anche io andrei di sli di 680 piuttosto che uno sli castrato.. comunque mi sembra strano, la 680 ha dimostrato di essere abbastanza parca sia in calore che in consumi, pensavo (a meno di essere smentito) che sarebbero riusciti a metterne due su singola scheda almeno con tutti i cuda...

Era appunto quello che credevo anch'io , beh cmq non è ancora niente di ufficiale , vediamo come va a finire.

illidan2000
11-04-2012, 10:24
le 6990 avevano il secondo bios di fabbrica con frequenze pari ad una 6970 full spec, per la precisione, senza shader mancanti.. ;)

anche io andrei di sli di 680 piuttosto che uno sli castrato.. comunque mi sembra strano, la 680 ha dimostrato di essere abbastanza parca sia in calore che in consumi, pensavo (a meno di essere smentito) che sarebbero riusciti a metterne due su singola scheda almeno con tutti i cuda...

beh, nemmeno le 580 consumano chissà cosa, eppure non ci sono riusciti.
forse per loro era un enorme sforzo dal punto di vista progettuale, che poi non avrebbe reso (tanto gli utenti la comprano lo stesso poiché andrà 50% in più della 680 come minimo)

Si ma i cuda core mancanti mica saltano fuori per magia :D
la 590 aveva gli stessi cuda delle 580, quindi nessuno mancante. se sulla 690 li toglieranno, sarà un "regresso", così come per la 295 e 9800gx2

bs82
11-04-2012, 11:16
Ma comeeeeeeeee?

Ma non doveva essere il superchippone unico che distruggeva le dualgpu?

CVD, nvidia ha sfornato un ottimo chip per gtx680 e si ferma li.

mikael84
11-04-2012, 11:18
beh, nemmeno le 580 consumano chissà cosa, eppure non ci sono riusciti.
forse per loro era un enorme sforzo dal punto di vista progettuale, che poi non avrebbe reso (tanto gli utenti la comprano lo stesso poiché andrà 50% in più della 680 come minimo)


la 590 aveva gli stessi cuda delle 580, quindi nessuno mancante. se sulla 690 li toglieranno, sarà un "regresso", così come per la 295 e 9800gx2

Veramente la 295 aveva gli stessi stream delle 285/275 con frequenze piu'basse,la vera'castrazione era il bus di memoria a 448bit,come le 275/260
La 9800gx2 erano due 8800gts 512 in sli,praticamente.256 cuda core(128).
Le 8800gtx avevano il bus piu'ampio a 384bit,mentre le 8800gt integravano 112 stream.
Quindi nvidia ha adottato bus inferiori non tagliato dei cuda:)

jolly74
11-04-2012, 11:20
Ma comeeeeeeeee?

Ma non doveva essere il superchippone unico che distruggeva le dualgpu?

CVD, nvidia ha sfornato un ottimo chip per gtx680 e si ferma li.

Non confondere il GK110 con la dual GK104 :rolleyes:

bs82
11-04-2012, 11:22
Non confondere il GK110 con la dual GK104 :rolleyes:

Io non confondo un bel nulla ehheheheh

GK110 :mc:

Ancora c'è gente che ci crede... :doh:

illidan2000
11-04-2012, 11:33
Ma comeeeeeeeee?

Ma non doveva essere il superchippone unico che distruggeva le dualgpu?

CVD, nvidia ha sfornato un ottimo chip per gtx680 e si ferma li.

a me pare che la gtx680 vada come la vecchia dualgpu, la 590. quindi nvidia è riuscita nel suo intento. la 690 andrà ancora più forte.
non mi aspettavo di meglio sinceramente.

unfaced12
11-04-2012, 12:13
beh, nemmeno le 580 consumano chissà cosa, eppure non ci sono riusciti.
forse per loro era un enorme sforzo dal punto di vista progettuale, che poi non avrebbe reso (tanto gli utenti la comprano lo stesso poiché andrà 50% in più della 680 come minimo)


la 590 aveva gli stessi cuda delle 580, quindi nessuno mancante. se sulla 690 li toglieranno, sarà un "regresso", così come per la 295 e 9800gx2

:sbonk: :sbonk: :sbonk: Una 580 consuma 100W abbondanti in più della 680 :read:
2 580 superano tutti i limiti imposti dallo standard Pci-ex e solo Asus con la Mars e 3 connettori 8pin ha potuto produrre una scheda del genere a 1000€ e 450W di consumo a def!

calabar
11-04-2012, 12:14
Io non confondo un bel nulla ehheheheh
GK110 :mc:
Ancora c'è gente che ci crede... :doh:
A parte il fatto che potresti evitare di arrivare in un topic dove si parla di nvidia con questi toni, ma il gk110 non è stato comunque già annunciato da nvidia?

Che poi arrivi tra 6 mesi, che sia releagato al mercato professionale o che so io è un altro discorso.

Comunque non mi pare che nessuno abbia mai detto che la 690 sarebbe stata gk110, credo fosse risaluto che si trattava della dual.

Red Baron 80
11-04-2012, 12:53
Ho fatto l'errore di prendere 2x590 per poi sostituirle con 2x680. A sto punto prendo una terza 680 che calerà, si spera, di prezzo e vai di 3-way SLi e passa la paura. Basta dual GPU.

illidan2000
11-04-2012, 13:23
"le 580 non consumano chissà cosa", con tutto il rispetto, è una barzelletta?

il gk110 che non è argomento della discussione, arriverà. bisogna vedere quando e con chi si scontrerà, a tempo debito ne avremo di che discuterne.

beh, confronta la 580 la 4870x2... la differenza c'è :)
tutto è relativo, eheh

unfaced12
11-04-2012, 14:06
beh, confronta la 580 la 4870x2... la differenza c'è :)
tutto è relativo, eheh

Eh si 1 chip a 40 nm contro 2 a 55nm :D Tu avevi detto una cosa ben diversa....

AleK
11-04-2012, 14:31
Le informazioni disponibili indicano quale requisito minimo per questa scheda l'abbinamento ad un alimentatore da almeno 650 Watt di potenza massima, così da assicurare un funzionamento stabile.
Quindi la scheda quando sollecitata porta ad un consumo del pc uguale a quello di una lavatrice in classe A++?
Va bene che si tratta di un prodotto destinato ad una fetta ristretta di clienti, ma il problema dei consumi invece che diminuire con il processo tecnologico sembra aumentare.
:muro:

s12a
11-04-2012, 14:35
Quindi la scheda quando sollecitata porta ad un consumo del pc uguale a quello di una lavatrice in classe A++?
Va bene che si tratta di un prodotto destinato ad una fetta ristretta di clienti, ma il problema dei consumi invece che diminuire con il processo tecnologico sembra aumentare.
:muro:

Non esattamente. Si tengono larghi per evitare problemi con utenti con alimentatori scadenti che non riescono a reggere alti carichi in maniera continuativa.

Mparlav
11-04-2012, 14:38
Per la prima volta Nvidia ha possibilità di non castrare la sua dual gpu visti i consumi del gk104, e secondo me non perderanno questa occasione.
Mentre Amd penso che seguirà la strada della HD6990: primo bios intorno ai 900/1400, secondo bios intorno ai 1000/1500.

Di nuovo ci saranno a questo giro di dual gpu, i prezzi ancor più "abominevoli" :D

illidan2000
11-04-2012, 14:46
Per la prima volta Nvidia ha possibilità di non castrare la sua dual gpu visti i consumi del gk104, e secondo me non perderanno questa occasione.
Mentre Amd penso che seguirà la strada della HD6990: primo bios intorno ai 900/1400, secondo bios intorno ai 1000/1500.

Di nuovo ci saranno a questo giro di dual gpu, i prezzi ancor più "abominevoli" :D

e intanto le 680 caleranno, quindi sarà fattibile uno sli...

unfaced12
11-04-2012, 15:19
e intanto le 680 caleranno, quindi sarà fattibile uno sli...

Uno Sli è quasi sempre preferibile a queste schede. Chi spende certe cifre, di solito, non stà lì a guardare i 50-100€ di risparmio nel prendere una dual rispetto a 2 singole. 2 vga danno meno problemi di gestione, meno calore, e molta più facilità nel rivendere l'usato rimettendoci spesso meno. Io sono appassionato di multi GPU ma non ho mai preso minimamente in considerazione un dual.

unfaced12
11-04-2012, 15:21
Quindi la scheda quando sollecitata porta ad un consumo del pc uguale a quello di una lavatrice in classe A++?
Va bene che si tratta di un prodotto destinato ad una fetta ristretta di clienti, ma il problema dei consumi invece che diminuire con il processo tecnologico sembra aumentare.
:muro:

Questa scheda non consumerà oltre i 320W in game..... diciamo che siamo molto lontani da una lavatrice, pensa che la Asus Mars consumava 450W ma era un esercizio di stile e basta.

AleK
11-04-2012, 15:24
e intanto le 680 caleranno, quindi sarà fattibile uno sli...

Scusa ma da quando due top di classe costano meno di una top di classe x2? In termini di efficenza credo convenga sempre preferire la seconda alla prima. Costi, consumi, ingombri etc.

A meno che non sia proprio il concetto di SLI che ti entusiasta :stordita:

illidan2000
11-04-2012, 15:26
Uno Sli è quasi sempre preferibile a queste schede. Chi spende certe cifre, di solito, non stà lì a guardare i 50-100€ di risparmio nel prendere una dual rispetto a 2 singole. 2 vga danno meno problemi di gestione, meno calore, e molta più facilità nel rivendere l'usato rimettendoci spesso meno. Io sono appassionato di multi GPU ma non ho mai preso minimamente in considerazione un dual.

le dual in molti casi sono una manna dal cielo:
- ingombri ridotti nel case
- prestazioni cmq 50% migliori della singola
- consumi ridotti

sul calore e rumore è da vedere, dipende dai dissipatori. la scheda che sta sopra nello sli potrebbe anche esser molto accaldata in alcuni case-

io ho avuto sia la 4870x2, rumorosissima, alla quale ho messo il dissipatore aftermarket (accelero xtreem), e mi è durata ben 3 anni!
e, dopo una breve parentesi con la 580, ho avuto la 590, la quale mi è durata un altro annetto: fresca, silenziosa e potente... e soprattutto presa a 450 euro!

Scusa ma da quando due top di classe costano meno di una top di classe x2? In termini di efficenza credo convenga sempre preferire la seconda alla prima. Costi, consumi, ingombri etc.

A meno che non sia proprio il concetto di SLI che ti entusiasta :stordita:

io non sono fan né delle dual, né dello sli con schede singole... vado dove mi porta il portafogli, in base alle prestazioni!
il mio discorso era espresso male, in effetti: volevo dire che per un utente che già ha una 680, e vuole ancora di più, difficilmente preferirà vendere la sua per una 690, bensì aspetterà che i prezzi calino per prendere una seconda 680...

Maxt75
11-04-2012, 15:51
Ora mi farò odiare un po'.
La metà dei commenti qui su è scritta da gente che non puo permettersi una top di gamma e allora critica a spron battuto. Un altro quarto è scritto da chi si è appena acquistato una VGA e si fa dei rosik bestiali a sentire che due mesi dopo ne esce una piu veloce della sua. Spero ci sia anche l'ultimo quarto un po' più obiettivo che acquista una VGA conscio delle sue esigenze e dei limiti della sua scheda.

Se questa GTX 690 andrà piu di una 680 non è colpa di Nvidia e nemmeno delle 5970 o 6990 che sono fuori da piu di un anno e sono di un'altra azienda addirittura, è la vita...

PS.. esiste l'overclock anche per le dual... no perchè a leggere certi commenti sembra che sia una prerogativa delle single l'overclock :fagiano:

illidan2000
11-04-2012, 15:56
Ora mi farò odiare un po'.
La metà dei commenti qui su è scritta da gente che non puo permettersi una top di gamma e allora critica a spron battuto. Un altro quarto è scritto da chi si è appena acquistato una VGA e si fa dei rosik bestiali a sentire che due mesi dopo ne esce una piu veloce della sua. Spero ci sia anche l'ultimo quarto un po' più obiettivo che acquista una VGA conscio delle sue esigenze e dei limiti della sua scheda.

Se questa GTX 690 andrà piu di una 680 non è colpa di Nvidia e nemmeno delle 5970 o 6990 che sono fuori da piu di un anno e sono di un'altra azienda addirittura, è la vita...

PS.. esiste l'overclock anche per le dual... no perchè a leggere certi commenti sembra che sia una prerogativa delle single l'overclock :fagiano:
sulle dual è molto limitato. ti faccio l'esempio della 590, dove il core, sebbene essendo identico alla 580, non poteva andare oltre i 680, contro i quasi 1000 delle 580. c'è una bella differenza...

jolly74
11-04-2012, 16:36
Io non confondo un bel nulla ehheheheh

GK110 :mc:

Ancora c'è gente che ci crede... :doh:

No no tu sei proprio confuso completamente :)

A parte il fatto che potresti evitare di arrivare in un topic dove si parla di nvidia con questi toni, ma il gk110 non è stato comunque già annunciato da nvidia?

Che poi arrivi tra 6 mesi, che sia releagato al mercato professionale o che so io è un altro discorso.

Comunque non mi pare che nessuno abbia mai detto che la 690 sarebbe stata gk110, credo fosse risaluto che si trattava della dual.

Ormai il personaggio si conosce , se non è un prodotto rosso per lui fa schifo a priori , ma il brutto è che vuole convincere pure altri a ragionare a suo modo :asd:

Ora mi farò odiare un po'.
La metà dei commenti qui su è scritta da gente che non puo permettersi una top di gamma e allora critica a spron battuto. Un altro quarto è scritto da chi si è appena acquistato una VGA e si fa dei rosik bestiali a sentire che due mesi dopo ne esce una piu veloce della sua. Spero ci sia anche l'ultimo quarto un po' più obiettivo che acquista una VGA conscio delle sue esigenze e dei limiti della sua scheda.

Se questa GTX 690 andrà piu di una 680 non è colpa di Nvidia e nemmeno delle 5970 o 6990 che sono fuori da piu di un anno e sono di un'altra azienda addirittura, è la vita...

PS.. esiste l'overclock anche per le dual... no perchè a leggere certi commenti sembra che sia una prerogativa delle single l'overclock :fagiano:

Secondo me non hai letto bene , qui si discute sul fatto che sia meglio lo sli di due 680 al posto di questa 690 che altro non è che 2 gk104 sullo stesso pcb ;)

Red Baron 80
11-04-2012, 17:05
Per la prima volta Nvidia ha possibilità di non castrare la sua dual gpu visti i consumi del gk104, e secondo me non perderanno questa occasione.
Mentre Amd penso che seguirà la strada della HD6990: primo bios intorno ai 900/1400, secondo bios intorno ai 1000/1500.

Di nuovo ci saranno a questo giro di dual gpu, i prezzi ancor più "abominevoli" :D

Prezzi alti, speriamo di no. Sennò tutti andranno di Sli di 680.

e intanto le 680 caleranno, quindi sarà fattibile uno sli...

Facciamo pure un 3-way.;)

illidan2000
11-04-2012, 17:46
Facciamo pure un 3-way.;)

per quello mi sa che dovremo aspettare mainboard più carrozzate...

Evil_Sephiroth
11-04-2012, 18:58
In realtà gente con un PC più o meno decente come il mio (2600K e Saberthoot P67) spesso fanno un ottimo acquisto in una dual GPU.

Certo va meno di uno SLI/crossfire, però ha consumi più bassi di due schede e temperature minori (e le due schede non interferiscono tra di loro a livello di raffreddamento)

Inoltre resta un PCI-E libero dove mettere un revodrive ad esempio

Cooperdale
11-04-2012, 23:18
mi auguro che in futuro servino realmente ste schede: finchè i giochi saranno un porting dalle console, basterà una single GPU.

Mi auguro che in futuro la lingua italiana resusciti.

Red Baron 80
11-04-2012, 23:27
per quello mi sa che dovremo aspettare mainboard più carrozzate...

Bhè dipende da che MB si compra. Chi ha una Rampage 4E credo che lo possa fare. Le MoBo di fascia alta permettono da uno Sli in su...

illidan2000
12-04-2012, 08:36
Bhè dipende da che MB si compra. Chi ha una Rampage 4E credo che lo possa fare. Le MoBo di fascia alta permettono da uno Sli in su...

ok, ma se vai su piattaforma 1155, hai max 16 linee pci-express totali, le quali vanno a farsi benedire con il 3sli

unfaced12
12-04-2012, 09:42
Ora mi farò odiare un po'.
La metà dei commenti qui su è scritta da gente che non puo permettersi una top di gamma e allora critica a spron battuto. Un altro quarto è scritto da chi si è appena acquistato una VGA e si fa dei rosik bestiali a sentire che due mesi dopo ne esce una piu veloce della sua. Spero ci sia anche l'ultimo quarto un po' più obiettivo che acquista una VGA conscio delle sue esigenze e dei limiti della sua scheda.

Se questa GTX 690 andrà piu di una 680 non è colpa di Nvidia e nemmeno delle 5970 o 6990 che sono fuori da piu di un anno e sono di un'altra azienda addirittura, è la vita...

PS.. esiste l'overclock anche per le dual... no perchè a leggere certi commenti sembra che sia una prerogativa delle single l'overclock :fagiano:

Puoi fare tutto l'OC che vuoi alla 690 che le prenderà cmq di santa ragione da 2 680;) E questo discorso vale per qualsiasi dual. Il discorso ingombro nel case non lo capisco, a meno di avere un mini tower (ma allora è cmq inadeguato anche a una dual) cosa cambia nell'avere uno slot occupato in più?
Io preferisco 2 schede singole, altri una dual, stiamo solo esprimendo le nostre opinioni visto che siamo in un forum. E qui mi pare che nessuno rosichi o altro vistoche praticamente tutti noi che siamo intervenuti abbiamo 1 o due VGA TOP.

unfaced12
12-04-2012, 09:50
In realtà gente con un PC più o meno decente come il mio (2600K e Saberthoot P67) spesso fanno un ottimo acquisto in una dual GPU.

Certo va meno di uno SLI/crossfire, però ha consumi più bassi di due schede e temperature minori (e le due schede non interferiscono tra di loro a livello di raffreddamento)

Inoltre resta un PCI-E libero dove mettere un revodrive ad esempio

Chi ha un PC come il tuo ha uno slot libero anche con 2 schede ;) Anche se in effetti la Saber P67 non lo permette. :( Diciamo che la mobo va scelta in base alle necessità, ad esempio la mia P8Z68V liscia che costa meno della saber mi permette di avere uno slot libero anche per il revodrive. Ti posso anche dire che finchè avevo le 7970 ad aria quella sopra in BF3 stava a 80 con ventola in auto e quella sotto a 76 sempre in auto perciò non vedo problemi di raffreddamento......

illidan2000
12-04-2012, 10:13
Puoi fare tutto l'OC che vuoi alla 690 che le prenderà cmq di santa ragione da 2 680;) E questo discorso vale per qualsiasi dual. Il discorso ingombro nel case non lo capisco, a meno di avere un mini tower (ma allora è cmq inadeguato anche a una dual) cosa cambia nell'avere uno slot occupato in più?
Io preferisco 2 schede singole, altri una dual, stiamo solo esprimendo le nostre opinioni visto che siamo in un forum. E qui mi pare che nessuno rosichi o altro vistoche praticamente tutti noi che siamo intervenuti abbiamo 1 o due VGA TOP.

molta gente non ha solo le schede video nel case...

- revodrive o altri ssd su pci-express
- schede audio
- schede di acquisione video
- schede tv/satellitari

unfaced12
12-04-2012, 10:15
molta gente non ha solo le schede video nel case...

- revodrive o altri ssd su pci-express
- schede audio
- schede di acquisione video
- schede tv/satellitari

A quel punto prenderei una UD7 o qualcosa di simile..... ma ripeto questo è un mio punto di vista, chi preferisce una dual non sbaglia.

Evil_Sephiroth
12-04-2012, 11:51
80? La mia 590 se la vedo sopra i 77 mi preoccupa XD

unfaced12
12-04-2012, 13:40
80? La mia 590 se la vedo sopra i 77 mi preoccupa XD

Si va beh! Se monti un dissipatore custom o metti la ventola al 100% allora stai sotto gli 80 con la 590.
Cmq le mie 2 bimbe liquidate non superano i 45;)

jolly74
12-04-2012, 15:24
Si va beh! Se monti un dissipatore custom o metti la ventola al 100% allora stai sotto gli 80 con la 590.
Cmq le mie 2 bimbe liquidate non superano i 45;)

Mai visti più di 74° in game con la 590 e ventola in auto su giochi come TW2 , BF3 , e Crysis 2 :)

illidan2000
12-04-2012, 15:26
Si va beh! Se monti un dissipatore custom o metti la ventola al 100% allora stai sotto gli 80 con la 590.
Cmq le mie 2 bimbe liquidate non superano i 45;)

le tue due bimbe sono 590 o 680?

jolly74
12-04-2012, 16:59
le tue due bimbe sono 590 o 680?

Ha due 7970 .

Evil_Sephiroth
12-04-2012, 19:13
Boh..Solo FFXIV che è un assassino di VGA mi manda la 590vicino agli 80 gradi in alcune aree..

BF3 a 1080P e tutto al max stiamo sui 72-73

C'è da dire che il mio grafico di raffreddamento è parecchio aggressivo, non fregandomene nulla del rumore...

unfaced12
13-04-2012, 09:15
Mai visti più di 74° in game con la 590 e ventola in auto su giochi come TW2 , BF3 , e Crysis 2 :)

Boh..Solo FFXIV che è un assassino di VGA mi manda la 590vicino agli 80 gradi in alcune aree..

BF3 a 1080P e tutto al max stiamo sui 72-73

C'è da dire che il mio grafico di raffreddamento è parecchio aggressivo, non fregandomene nulla del rumore...

Non l'ho provata direttamente come nessuna dual, ma un mio amico ce l'aveva e l'ha data via per prendersi 2 580 proprio per il calore e rumore.....
Jolly mi pere tu l'abbia provata solo durante l'inverno...... Cmq nelle review stà sui 75 su banco prova aperto, IMHO in un case chiuso scalda di più.

Evil_Sephiroth
13-04-2012, 12:40
Nei case chiusi se hai due bei ventoloni che indirizzano il flusso sulla scheda hai una migliore dissipazione rispetto ad un banco aperto...

jolly74
13-04-2012, 14:45
Non l'ho provata direttamente come nessuna dual, ma un mio amico ce l'aveva e l'ha data via per prendersi 2 580 proprio per il calore e rumore.....
Jolly mi pere tu l'abbia provata solo durante l'inverno...... Cmq nelle review stà sui 75 su banco prova aperto, IMHO in un case chiuso scalda di più.

Hai ragione sul fatto che l'ho avuta solo in inverno , ma nel mio case e con il dissi a bara che espelle dal retro l'aria calda , si scalda meno che non su banchetto :)

Nei case chiusi se hai due bei ventoloni che indirizzano il flusso sulla scheda hai una migliore dissipazione rispetto ad un banco aperto...

Affermativo :)

maxiena
14-04-2012, 16:01
Mi farebbe molta gola,
ma non posso permettermela!