View Full Version : [THREAD UFFICIALE] Geforce GTX280
tigershark
23-08-2008, 08:06
Allora mi parte il primo test mi scatta abbondantemente tipo 14 frames per poi arrivare a meno di 1 minuto di test che già tutto si è impallato
A me sembra proprio che non sia alimentata adeguatamente.
Avevo un problema simile con la mia abbinata ad un LC Power Titan 560W, lanciavo il 3d mark vantage e si sentiva la ventola aumentare gradualmente la propria velocità, arrivava al 100% e il pc si spegneva di colpo.
Tieni presente che all'aumentare della temperatura aumenta anche l'assorbimento di corrente di un qualsiasi circuito elettronico.
Provala innanzitutto su un pc con un buon alimentatore, 85°C per la gpu sono perfettamente nella norma, a me raggiunge anche gli 87 nelle giornate più calde ma non ho mai problemi.
Tieni presente anche che il downclock automatico si verifica SOLO raggiunti i 105°C
Hai provato a ripetere il 3d mark forzando la velovità della ventola al 100% e magari tenendo il case aperto? Giusto per capire se realmente è un problema di overheating
Andrea deluxe
23-08-2008, 09:41
http://forums.vr-zone.com/showthread.php?t=317654
tigershark
23-08-2008, 10:13
http://forums.vr-zone.com/showthread.php?t=317654
tu dici che quel palazzo di ferro dissipa meglio del dissipatore standard??
Demon Requiem
23-08-2008, 10:26
tu dici che quel palazzo di ferro dissipa meglio del dissipatore standard??
E' il miglior dissi in circolazione per VGA
Allora mi parte il primo test mi scatta abbondantemente tipo 14 frames per poi arrivare a meno di 1 minuto di test che già tutto si è impallato
Male :(
Io però vedo qualcosa di strano nell'ultimo print-screen, ovvero che a 85° la ventola gira solamente al 68%. Verifica con il venditore e chiedigli se ha per caso flashato sulla scheda un bios modificato.
http://forums.vr-zone.com/showthread.php?t=317654
scusa la nubbiaggine :p ...ma la ventola dove si mette in quel "coso"? se la piazzi sopra la devi mettere in estrazione??
CoolBits
23-08-2008, 11:28
scusa la nubbiaggine :p ...ma la ventola dove si mette in quel "coso"?
si aggancia sopra con delle apposite clip
Marscorpion
23-08-2008, 11:32
Un po' ingombrante come dissi ma sicuramente efficace!
robertoldo77
23-08-2008, 12:26
Male :(
Io però vedo qualcosa di strano nell'ultimo print-screen, ovvero che a 85° la ventola gira solamente al 68%. Verifica con il venditore e chiedigli se ha per caso flashato sulla scheda un bios modificato.
infatti è quello che penso anche io a 85 ° la ventola va solamente al 60% circa.
a questo punto non so cosa pensare.
cmq ho rovato e metterlo in direct sempre al 100% ma purtroppo si blocca sempre il tutto
Andrea deluxe
23-08-2008, 12:29
tu dici che quel palazzo di ferro dissipa meglio del dissipatore standard??
ha un delta di aumento di temperatura molto costante e ha il vantaggio di poter installare una ventola da 92mm e la puoi tenere a 1000rpm!
di conseguenza avrai:
temperature molto piu' basse
rumore basso e coperto dalle altre ventole di sistema
maggiore overcloccabilita' (specialmente sulle memorie)
ps: quando lo tenevo sulla 8800 gtx sembrava di avere una vga passiva.....non si sentiva con una nanoxia a 900rpm
robertoldo77
23-08-2008, 12:29
A me sembra proprio che non sia alimentata adeguatamente.
Avevo un problema simile con la mia abbinata ad un LC Power Titan 560W, lanciavo il 3d mark vantage e si sentiva la ventola aumentare gradualmente la propria velocità, arrivava al 100% e il pc si spegneva di colpo.
Tieni presente che all'aumentare della temperatura aumenta anche l'assorbimento di corrente di un qualsiasi circuito elettronico.
Provala innanzitutto su un pc con un buon alimentatore, 85°C per la gpu sono perfettamente nella norma, a me raggiunge anche gli 87 nelle giornate più calde ma non ho mai problemi.
Tieni presente anche che il downclock automatico si verifica SOLO raggiunti i 105°C
Hai provato a ripetere il 3d mark forzando la velovità della ventola al 100% e magari tenendo il case aperto? Giusto per capire se realmente è un problema di overheating
provato con il 100 % in direct ma nulla da fare si impalla ugualmente
non posso provare con altri alimentatori buoni in quanto i miei amici o conoscenti hanno alimentatori di basso livello
quindi se mi dite che può benissimo arrivare a 105° non è un problema di surriscaldamento.
cmq tieni presente che arriva a 85° non al max delle funzionalità ma solamente utilizzando il mediaplayer.
il case è sempre aperto e utilizzo un ventilatore casalingo davanti.
Andrea deluxe
23-08-2008, 12:30
scusa la nubbiaggine :p ...ma la ventola dove si mette in quel "coso"? se la piazzi sopra la devi mettere in estrazione??
;)
http://www.acousticpc.com/images/a_thermalright_hr03_plus_vga_cooler_with_fan_mounted_pic.gif
robertoldo77
23-08-2008, 12:31
http://forums.vr-zone.com/showthread.php?t=317654
bella bestia, magari poterlo utilizzare :cry:
illidan2000
23-08-2008, 12:34
provato con il 100 % in direct ma nulla da fare si impalla ugualmente
non posso provare con altri alimentatori buoni in quanto i miei amici o conoscenti hanno alimentatori di basso livello
quindi se mi dite che può benissimo arrivare a 105° non è un problema di surriscaldamento.
cmq tieni presente che arriva a 85° non al max delle funzionalità ma solamente utilizzando il mediaplayer.
il case è sempre aperto e utilizzo un ventilatore casalingo davanti.
caldamente consigliato che tu smonti il dissipatore, pulisci bene il die della gpu con alcohol, metti della pasta termica nuova, e rimonti, stringendo bene
illidan2000
23-08-2008, 12:35
ha un delta di aumento di temperatura molto costante e ha il vantaggio di poter installare una ventola da 92mm e la puoi tenere a 1000rpm!
di conseguenza avrai:
temperature molto piu' basse
rumore basso e coperto dalle altre ventole di sistema
maggiore overcloccabilita' (specialmente sulle memorie)
ps: quando lo tenevo sulla 8800 gtx sembrava di avere una vga passiva.....non si sentiva con una nanoxia a 900rpm
ma sai che ancora il mio hr03plus se ne sta nel cassetto?
Andrea deluxe
23-08-2008, 12:38
ma sai che ancora il mio hr03plus se ne sta nel cassetto?
per ricordo o per dispiacere?
bosstury
23-08-2008, 14:23
ciao a tutti.
ragazzi e possibile aggiornare il bios della vga?
robertoldo77
23-08-2008, 14:25
ciao a tutti.
ragazzi e possibile aggiornare il bios della vga?
ecco bravo mi hai battuto sul tempo.
orami mi è rimasta solo questa prova da fare.
pensate possa risolvere facendo questa operazione?
come si flasha il bios? io intanto sto cercando in rete
bosstury
23-08-2008, 14:31
che problemi hai con la NOSTRA bestia?:D
robertoldo77
23-08-2008, 14:40
che problemi hai con la NOSTRA bestia?:D
oddio mio non me lo chiedere ti prego ne ho le bolas piene.
si incepa dopo 30 secondi di applicazioni 3d, performance + basse che col la mia vecchia 8800 gtx
cmq se guardi qualche pagina indietro ti fai 2 risate
dannnnnny
23-08-2008, 15:33
ecco bravo mi hai battuto sul tempo.
orami mi è rimasta solo questa prova da fare.
pensate possa risolvere facendo questa operazione?
come si flasha il bios? io intanto sto cercando in rete
ciao..cambiagli la pasta..io ho risolto cosi'....e poi flasha il bios utilizzando nvflash..
bosstury
23-08-2008, 17:39
nvflash ha gia i bios dentro?:mc:
tigershark
23-08-2008, 18:11
infatti è quello che penso anche io a 85 ° la ventola va solamente al 60% circa.
a questo punto non so cosa pensare.
cmq ho rovato e metterlo in direct sempre al 100% ma purtroppo si blocca sempre il tutto
mi sembra normale, a me a 75°C va appena al 45% ma comunque sotto carico non supera mai gli 86°C con case chiuso.
Effettivamente mi sembra altina quella temperatura in idle. C'è anche da dire che se usi i nuovi driver, c'è il problema che anche con il solo media player aperto le frequenze schizzano in 3d, per cui non mi stupirei più di tanto.
Puoi provare come ti hanno suggerito a cambiare e riapplicare la pasta termica, ma se hai intenzione di mandarla in RMA stai attento.
A questo punto potrebbe essere davvero la scheda fallata.
tigershark
23-08-2008, 18:12
nvflash ha gia i bios dentro?:mc:
no, collegati al sito
http://www.mvktech.net/component/option,com_remository/Itemid,26/
troverai tutti i bios divisi per produttore chip, marca e modello
bosstury
23-08-2008, 18:25
no, collegati al sito
http://www.mvktech.net/component/option,com_remository/Itemid,26/
troverai tutti i bios divisi per produttore chip, marca e modello
fatto, adesso come si deve usare il programma per aggiornare bios?
ho la rom del bios della vga
e il programma che va in dos
se premo enter che succede?
dopo lo scazzo dei driver delle 4850 che non riuscivo piu a mettere in crossfire le ho vendute e sono indeciso se rendere questa oppure rifareho trovato in v un crossfire anche se non è poi la scelta migliore.......ho visto in vendita la gtx280 a 320 euro usata com'è il prezzo? Per le temperature com'è messa? la ventola è autoregolata? a 1680x1050 come va? grazie delle risposte
tigershark
23-08-2008, 18:46
fatto, adesso come si deve usare il programma per aggiornare bios?
ho la rom del bios della vga
e il programma che va in dos
se premo enter che succede?
allora :
1) ti fai un dischetto di boot e dentro ci copi il file del bios (.rom) e il programma nvflash.exe
2) avvi il pc col disco di boot creato
3) digita nvflash <nome file bios.rom>
Quando ti chiede di procedere premi Y o S non ricordo e dai invio, tempo qualche secondo e il gioco è fatto.
P.S secondo me non risolvi nulla ma tentar non nuoce
tigershark
23-08-2008, 18:49
dopo lo scazzo dei driver delle 4850 che non riuscivo piu a mettere in crossfire le ho vendute e sono indeciso se rendere questa oppure rifareho trovato in v un crossfire anche se non è poi la scelta migliore.......ho visto in vendita la gtx280 a 320 euro usata com'è il prezzo? Per le temperature com'è messa? la ventola è autoregolata? a 1680x1050 come va? grazie delle risposte
il prezzo è ottimo, per le temperature è messa normalmente, ossia sono nella norma per una scheda della sua fascia. Diciamo che mediamente avrai temperature in idle intorno ai 60°C e in full agli 86°C.
La ventola è autoregolata e abbastanza silenziosa, diciamo che si fa sentire parecchio sopra il 90%.
A quella risoluzione va ottimamente, anche io la uso a quella risoluzione con il mio monitor.
il prezzo è ottimo, per le temperature è messa normalmente, ossia sono nella norma per una scheda della sua fascia. Diciamo che mediamente avrai temperature in idle intorno ai 60°C e in full agli 86°C.
La ventola è autoregolata e abbastanza silenziosa, diciamo che si fa sentire parecchio sopra il 90%.
A quella risoluzione va ottimamente, anche io la uso a quella risoluzione con il mio monitor.
spero di averla presto........:)
il prezzo è ottimo, per le temperature è messa normalmente, ossia sono nella norma per una scheda della sua fascia. Diciamo che mediamente avrai temperature in idle intorno ai 60°C e in full agli 86°C.
La ventola è autoregolata e abbastanza silenziosa, diciamo che si fa sentire parecchio sopra il 90%.
A quella risoluzione va ottimamente, anche io la uso a quella risoluzione con il mio monitor.
Dato che con tutti i giochi andrai bene.. ;) ma con Crysis? che framerate medio hai? giusto per sapere eh, dato che ankio vorrei metterla su un 22".
bosstury
23-08-2008, 18:53
allora :
1) ti fai un dischetto di boot e dentro ci copi il file del bios (.rom) e il programma nvflash.exe
2) avvi il pc col disco di boot creato
3) digita nvflash <nome file bios.rom>
Quando ti chiede di procedere premi Y o S non ricordo e dai invio, tempo qualche secondo e il gioco è fatto.
P.S secondo me non risolvi nulla ma tentar non nuoce
provero :)
tigershark
23-08-2008, 18:54
Dato che con tutti i giochi andrai bene.. ;) ma con Crysis? che framerate medio hai? giusto per sapere eh, dato che ankio vorrei metterla su un 22".
a 1680 x 1050 mediamente sono sui 30 fps con tutto su very high e AA 2x, ma conta che io ho una CPU A64 X2 6000+, quindi non sicuramente il top.
a 1680 x 1050 mediamente sono sui 30 fps con tutto su very high e AA 2x, ma conta che io ho una CPU A64 X2 6000+, quindi non sicuramente il top.
Beh si è già un ottimo valore, sicuro non avrò problemi allora. Grazie!:)
NOOB4EVER
23-08-2008, 19:47
Dato che con tutti i giochi andrai bene.. ;) ma con Crysis? che framerate medio hai? giusto per sapere eh, dato che ankio vorrei metterla su un 22".
purtroppo crysis fa storia a se,a me diventa giocabile con sli enable,poi e' questione di abitudine ;)
ps:non ti aspettare chissache' con questa bestiola,crysis e' programmato col :ciapet:
michelgaetano
23-08-2008, 19:55
purtroppo crysis fa storia a se,a me diventa giocabile con sli enable,poi e' questione di abitudine ;)
E ti credo :sofico:
ps:non ti aspettare chissache' con questa bestiola,crysis e' programmato col :ciapet:
E ti credo anche in questo :muro: -_-
Sisi beh questo si sapeva..:cry: però sai, io prendo una top gamma perchè duri.. spero che il seguito di Crysis sia più ottimizzato cosicchè lo si possa giocare "decentemente".. e soprattutto che escano giochi con motori grafici più ottimizzati e sfruttabili (prego per FarCry2 e Batterfield BadCompany, GoW2 :rolleyes: magari fossero tutti come Cod4..) Poi anche per questo motivo rinuncio al 24" così la minor risoluzione del 22" mi farà guadagnare frames moooolto utili date le prospettive.
Sisi beh questo si sapeva..:cry: però sai, io prendo una top gamma perchè duri.. spero che il seguito di Crysis sia più ottimizzato cosicchè lo si possa giocare "decentemente".. e soprattutto che escano giochi con motori grafici più ottimizzati e sfruttabili (prego per FarCry2 e Batterfield BadCompany, GoW2 :rolleyes: magari fossero tutti come Cod4..) Poi anche per questo motivo rinuncio al 24" così la minor risoluzione del 22" mi farà guadagnare frames moooolto utili date le prospettive.
si hai ragino comunque se non va su questa scheda video crysis non andra con nessuna che c'è in commercio adesso.....siamo sempre li :)
Mister Tarpone
23-08-2008, 21:56
si hai ragino comunque se non va su questa scheda video crysis non andra con nessuna che c'è in commercio adesso.....siamo sempre li :)
:eek: AZZ.... vedo dalla tua firma che tieni un indecisione :cool:
robertoldo77
23-08-2008, 22:18
ragazzi scusate ho notato che quando mi si blocca il comp con schermata nera, cioè dopo 30 secondi di applicazione 3d, il led della scheda video da verde diventa rosso. a sto punto è un problema di alimentazione?
sulle istruzioni c'è scritto che ci vuole un alimentatore minimo di 550watt con assorbiemnto 40A a 12 volt.
mi sembra che il mio alimentatore dovrebbe andare bene, ma allora come mai?
esiste un software per vedere l'assorbimento durante il funzionemento della vga?
:eek: AZZ.... vedo dalla tua firma che tieni un indecisione :cool:
se trovo la gtx280 a 330 spedita ovvio che sono molto indeciso.......con il crossfire x di 4870 avrei problemi di temperature e fps medi non troppo superiori alla gtx280 a 1680x1050 con tutti i problemi del multi gpu quindi ovvio che sono indeciso e sta schedona a questo prezzo mi fa gola
robertoldo77
23-08-2008, 23:50
ho provato a togliere il secondo hard disk, la scheda video, il lettore dvd e una ventola devo dire che mi si blocca molto dopo il comp. avendo tolto questi componenti da alimentare. quindi è un problema di alimentazione.
ma
quanto mai assorbirà in + sta 280 gtx rispetto alla mia vecchia 8800 gtx che non mi ha mai dato problemi?
michelgaetano
24-08-2008, 00:31
se trovo la gtx280 a 330 spedita ovvio che sono molto indeciso.......con il crossfire x di 4870 avrei problemi di temperature e fps medi non troppo superiori alla gtx280 a 1680x1050 con tutti i problemi del multi gpu quindi ovvio che sono indeciso e sta schedona a questo prezzo mi fa gola
4870X2 per me, se puo ispendere 330 ne spendi 380 e la prendi nuova :D
Mister Tarpone
24-08-2008, 00:55
se trovo la gtx280 a 330 spedita ovvio che sono molto indeciso.......con il crossfire x di 4870 avrei problemi di temperature e fps medi non troppo superiori alla gtx280 a 1680x1050 con tutti i problemi del multi gpu quindi ovvio che sono indeciso e sta schedona a questo prezzo mi fa gola
ehehheheheh... io non ti voglio consigliare nulla..
però è come hai detto tu..entrambe hanno prestazioni mostruose.. ma la X2 va di +... però è pur sempre un crossfire di 2 schede.
la GTX 280 va di meno ma resta una scheda a singola gpu... quindi non ci saranno MAI problemi di driver, temp. etc..
fai te..
Mister Tarpone
24-08-2008, 00:59
altrimenti fai una cosa...comprale entrambe e fai un Cross-SLI...:asd:
4870X2 per me, se puo ispendere 330 ne spendi 380 e la prendi nuova :D
troppo.....spendo 330 e bsta problemi temperature e cose varie....ripeto la 4870x2 a 1680x1050 va leggermente meno della gtx280 e il crossfire non macina moltissimo a quella risoluzione :)
ehehheheheh... io non ti voglio consigliare nulla..
però è come hai detto tu..entrambe hanno prestazioni mostruose.. ma la X2 va di +... però è pur sempre un crossfire di 2 schede.
la GTX 280 va di meno ma resta una scheda a singola gpu... quindi non ci saranno MAI problemi di driver, temp. etc..
fai te..
guarda avevo una soluzione multi gpu da paura, l'ho abbandonata proprio per i probleimi che mi dava di temperature e sopratutto coi driver!!! non si aggiornavano piu....la cosa è uguale anche alla 4870x2 purtroppo e le temperature di quest'ultima son sbalorditive .....devono fare dei dissipatori migliori con dei regimi di ventola migliori alla ati....non ci vuole moltissimo
altrimenti fai una cosa...comprale entrambe e fai un Cross-SLI...:asd:
la soluzine migliore che potrei fare.......:asd:
tigershark
24-08-2008, 08:49
ho provato a togliere il secondo hard disk, la scheda video, il lettore dvd e una ventola devo dire che mi si blocca molto dopo il comp. avendo tolto questi componenti da alimentare. quindi è un problema di alimentazione.
ma
quanto mai assorbirà in + sta 280 gtx rispetto alla mia vecchia 8800 gtx che non mi ha mai dato problemi?
in full la 280 gtx richiede circa 200W, la 8800 GTX circa 140W.
michelgaetano
24-08-2008, 10:04
troppo.....spendo 330 e bsta problemi temperature e cose varie....ripeto la 4870x2 a 1680x1050 va leggermente meno della gtx280 e il crossfire non macina moltissimo a quella risoluzione :)
In quest'ottica gtx 280 e 4870X2 sono cavolate assurde a 1680, non scherziamo.
In quest'ottica gtx 280 e 4870X2 sono cavolate assurde a 1680, non scherziamo.
be la gtx280 va piu o meno come il crossfire che avevo prima pagato molto di piu rispetto a quanto ho trovato quest'ultima....inoltre in ottica longevità mi sembra ottima a 1680x1050 per riuscire a tenerla fino alle dx11 :)
tigershark
24-08-2008, 10:17
In quest'ottica gtx 280 e 4870X2 sono cavolate assurde a 1680, non scherziamo.
si che siano schede pensate per andare oltre queste risoluzioni sono daccordo, ma dire che è una cavolata assurda è esagerato.
Avere una top di gamma per giocare a risoluzioni più "modeste" non significa necessariamente buttare soldi...io guardo la cosa sotto il profilo longevità..
Prima o poi tireranno fuori giochi che, a parità di risoluzione, richiederanno molte più risorse grafiche, per cui ci sta anche comprare una scheda del genere per giocare a 1680 x 1050
si che siano schede pensate per andare oltre queste risoluzioni sono daccordo, ma dire che è una cavolata assurda è esagerato.
Avere una top di gamma per giocare a risoluzioni più "modeste" non significa necessariamente buttare soldi...io guardo la cosa sotto il profilo longevità..
Prima o poi tireranno fuori giochi che, a parità di risoluzione, richiederanno molte più risorse grafiche, per cui ci sta anche comprare una scheda del genere per giocare a 1680 x 1050
come alla fine ho risposto io.....:)
michelgaetano
24-08-2008, 10:28
A quella risoluzione ti prendi una 4870 (c'è qualcosa che non regga? non mi pare, filtri compresi.) che non crea problemi, risparmi 170 euro e li reinvesti alle prossime uscite, per una scheda che andrà più forte.
E non credo proprio che una 4870 diventerà una schifo di scheda che non reggerà alcun titolo, nei prossimi 5-7 mesi che ci distanziano da nuove schede. Se una simile catastrofe accadesse, dovremmo gettare via tutte le varie schede che vi sono al di sotto.
Non è certo longevità prendere una gtx 280 con un monitor a 1680 in ottica futura. Longevità è anche investire il proprio denaro, e avere sempre una scheda video che maxi tutto.
Che poi c'è anche la componente scimmia, quella da "enthusiast" (:asd: :asd: :asd:), quella di parte etc etc.
Del resto, come sempre, restano opinioni.
A quella risoluzione ti prendi una 4870 (c'è qualcosa che non regga? non mi pare, filtri compresi.) che non crea problemi, risparmi 170 euro e li reinvesti alle prossime uscite, per una scheda che andrà più forte.
E non credo proprio che una 4870 diventerà una schifo di scheda che non reggerà alcun titolo, nei prossimi 5-7 mesi che ci distanziano da nuove schede. Se una simile catastrofe accadesse, dovremmo gettare via tutte le varie schede che vi sono al di sotto.
Non è certo longevità prendere una gtx 280 con un monitor a 1680 in ottica futura. Longevità è anche investire il proprio denaro, e avere sempre una scheda video che maxi tutto.
Che poi c'è anche la componente scimmia, quella da "enthusiast" (:asd: :asd: :asd:), quella di parte etc etc.
Del resto, come sempre, restano opinioni.
hai ragione pero passare dal crossfire di 4850 come ho detto con un mare di problemi a una vga che va peggio allora conviene poco e inoltre ha gli stessi problemi della 4850 temperature controllo della ventola non preimpostato ecc, il che sono un punto a sfavore secondo me dato gli scazzi avuti con le 4850......poi se la gtx280 la trovo effettivamente sui 300 euro secondo me è un affare se non la trovo l'ordine della 4870 l'ho gia fatto
michelgaetano
24-08-2008, 10:40
hai ragione pero passare dal crossfire di 4850 come ho detto con un mare di problemi a una vga che va peggio allora conviene poco e inoltre ha gli stessi problemi della 4850 temperature controllo della ventola non preimpostato ecc, il che sono un punto a sfavore secondo me dato gli scazzi avuti con le 4850......poi se la gtx280 la trovo effettivamente sui 300 euro secondo me è un affare se non la trovo l'ordine della 4870 l'ho gia fatto
Infatti anche io non sono per il multi gpu ^_^
Guardando alle prestazioni della 4870 (10-15 % sotto la 280, divario che si fa leggermente superiore solo sui 30"), e col CF di 4850 che va come la 280 di cui sopra, io prenderei senza timore la 4870.
Una gtx 280 a 300 euro vuol dire sempre usato e 100 euro in meno in saccoccia.
Ripeto, ognuno la pensa come vuole, ma un simile acquisto lo vedo sprecato su monitor "piccini" come i 22".
edit: che poi sbaglio o la prendi a 330 spedita? ancora di più Oo
Scrambler77
24-08-2008, 10:41
4870X2 per me, se puo ispendere 330 ne spendi 380 e la prendi nuova :D
La Panda SuperCharged FIRE biturbo... :asd:
ehehheheheh... io non ti voglio consigliare nulla..
però è come hai detto tu..entrambe hanno prestazioni mostruose.. ma la X2 va di +... però è pur sempre un crossfire di 2 schede.
la GTX 280 va di meno ma resta una scheda a singola gpu... quindi non ci saranno MAI problemi di driver, temp. etc..
fai te..
Quoto... Altrimenti aspetta GTX290... ma spenderai di più...
be la gtx280 va piu o meno come il crossfire che avevo prima pagato molto di piu rispetto a quanto ho trovato quest'ultima....inoltre in ottica longevità mi sembra ottima a 1680x1050 per riuscire a tenerla fino alle dx11 :)
A me pare che tu abbia le idee chiare. Secondo me più che un consiglio ci stai chiedendo una conferma...
Vai tranquillo. GTX280 ha la gpu più veloce del pianeta... non credo che non ne rimarresti soddisfatto... ;)
Infatti anche io non sono per il multi gpu ^_^
Guardando alle prestazioni della 4870 (10-15 % sotto la 280, divario che si fa leggermente superiore solo sui 30"), e col CF di 4850 che va come la 280 di cui sopra, io prenderei senza timore la 4870.
Una gtx 280 a 300 euro vuol dire sempre usato e 100 euro in meno in saccoccia.
Ripeto, ognuno la pensa come vuole, ma un simile acquisto lo vedo sprecato su monitor "piccini" come i 22".
edit: che poi sbaglio o la prendi a 330 spedita? ancora di più Oo
parliamo di una scheda video che al lancio costava anche un sacco di soldi e qiundi trovarla a 150-200 euro in meno non è male .......inoltre credo che la svalutazione di quest'ultima è inferiore e quindi le 100 euro che metto adesso le posso sempre riprendere tra 8-10 mesi quando la cambiero
michelgaetano
24-08-2008, 10:44
La Panda SuperCharged FIRE biturbo... :asd:
Lo chiamano Humor Verde, e dicono non faccia ridere nessuno.
parliamo di una scheda video che al lancio costava anche un sacco di soldi e qiundi trovarla a 150-200 euro in meno non è male .......
Perchè ora costa 200 euro in meno, non significa che sia meglio acquistarla. Si guarda al mercato e alle sue offerte, no na quanto costava prima (anzi, è indice di forte svalutazione)
inoltre credo che la svalutazione di quest'ultima è inferiore e quindi le 100 euro che metto adesso le posso sempre riprendere tra 8-10 mesi quando la cambiero
Non necessariamente. Ad esempio schede che costano di meno vanno a svalutarsi meno. Quando usciranno le GT 200 a 55 nm lì sì che caleranno i prezzi.
Scrambler77
24-08-2008, 10:50
Lo chiamano Humor Verde, e dicono non faccia ridere nessuno.
Mamma mia come diventi permaloso quando si parla di ATi nei toni che non gradisci... :Prrr:
Lo chiamano Humor Verde, e dicono non faccia ridere nessuno.
Perchè ora costa 200 euro in meno, non significa che sia meglio acquistarla. Si guarda al mercato e alle sue offerte, no na quanto costava prima (anzi, è indice di forte svalutazione)
Non necessariamente. Ad esempio schede che costano di meno vanno a svalutarsi meno. Quando usciranno le GT 200 a 55 nm lì sì che caleranno i prezzi.
e quando escono?
michelgaetano
24-08-2008, 10:54
Mamma mia come diventi permaloso quando si parla di ATi nei toni che non gradisci... :Prrr:
Errato, non mi piace quando certe persone, semplicemente perchè faziose, sminuiscono (piuttosto dovrei dire insultano) un prodotto che va più forte.
(Cosa scriverai ora? Che ha doppia gpu e che per questo va più forte? Cosa ti risponderò, che l'area del core è uguale a gtx 280? Solita solfa, roba vecchia :) )
Se pensi che preferisca/tenga per Ati non hai capito un tubo, guarda i problemi che ha avuto okorop stesse col CF, o come ci si deve mettere dietro alle schede per portarle al massimo. A parità di prezzo/prestazioni (e forse anche ad un prezzo leggermente superiore) io prenderei Nvidia. (anche perchè mi diverto di più con lo shader non unificato ad overclockare :sofico:)
e quando escono?
Non certo in un periodo così lungo da mettere in crisi 4870/gtx 260. Ripeto okorop, la gtx 280 va forte, e di brutto, ma devi avere il monitor adatto, o potresti investire meglio.
Dato che con tutti i giochi andrai bene.. ;) ma con Crysis? che framerate medio hai? giusto per sapere eh, dato che ankio vorrei metterla su un 22".
Questi bench: http://www.hwupgrade.it/forum/showthread.php?p=23764447&highlight=crysis+high#post23764447
sono stati fatti recentemente con gli ultimissimi driver su vista 64 in dx9, dx9 perchè anche su vista rispetto al dx10 performa nettamente meglio.
Il terzo è stato fatto con il tweak VH per DX9 che funziona anche su vista, la qualità è identica al VH DX10 con la differenza che in VH DX10 ottengo circa 27-28 fps, mentre con il tweak VH DX9 ottengo 37 fps :)
Non necessariamente. Ad esempio schede che costano di meno vanno a svalutarsi meno. Quando usciranno le GT 200 a 55 nm lì sì che caleranno i prezzi.
Ecco.. qnd usciranno?? Così mi regolo se prendere qst adesso oppure aspettare il refresh.:rolleyes:
Cmq per le temp sia di ATI che delle Nvidia non vedo cosa ci sia di strano, sono VGA con dissi che buttano fuori l'aria dal case quindi nn influenzano minimamente le temp del nostro case, tanto per ricordarvi la cara seria 1900XT arrivava easy a 90° e dopo anni di utillizzo vi assicuro che va ancora da dio, in definitiva quello che voglio dire e che e' inutile tirarsi paranoie assurde sulle temp che sono sempre state alte con i dissi stock(vedi le 8800GT) se vogliamo temp + basse per magari fare + OC allora ci dobbiamo mettere mani noi come al solito cambiando i dissi oppure prendere versioni non reference con dissi migliori, altrimenti le VGA erano sono e saranno sempre cosi calde.
michelgaetano
24-08-2008, 11:01
Da quel che ho trovato in giro sul web dicono settembre, ma penso tardo :|
Scrambler77
24-08-2008, 11:03
Errato, non mi piace quando certe persone, semplicemente perchè faziose, sminuiscono (piuttosto dovrei dire insultano) un prodotto che va più forte.
Da che pulpito... :asd:
Se lo chiamiamo Humor Rosso te lo faccio passare. :D
(Cosa scriverai ora? Che ha doppia gpu e che per questo va più forte? Cosa ti risponderò, che l'area del core è uguale a gtx 280? Solita solfa, roba vecchia :) )
Se pensi che preferisca/tenga per Ati non hai capito un tubo, guarda i problemi che ha avuto okorop stesse col CF, o come ci si deve mettere dietro alle schede per portarle al massimo. A parità di prezzo/prestazioni (e forse anche ad un prezzo leggermente superiore) io prenderei Nvidia. (anche perchè mi diverto di più con lo shader non unificato ad overclockare :sofico:)
Che centra l'area del die? Quando mai è stato un parametro di valutazione? Siamo alla pura invenzione...
Cmq, l'unica cosa sensata di questa parte del tuo post è relativa alla questione prezzo, eppure in decine ti abbiamo già fatto notare che chi compra soluzioni come la GTX (ricordi il discorso della porche che tra l'altro non mi appartiene?) o comunque schede high-end, del prezzo se ne frega, e guarda proprio a quei problemi che orokop ha menzionato (drivers, consumi, longevità, rivendibilità ecc...).
Il fatto che vada consigliando a destra e a manca una 4870X2 rispetto ad una GTX280 (evidentemente senza averne provata neppure una delle due) argomentando solo su prezzi ed "area del core", la dice lunga su chi è fazioso e chi no.
Buon proseguimento... ;)
michelgaetano
24-08-2008, 11:05
Buon proseguimento... ;)
Anche a te.
Da che pulpito... :asd:
Se lo chiamiamo Humor Rosso te lo faccio passare. :D
Che centra l'area del die? Quando mai è stato un parametro di valutazione? Siamo alla pura invenzione...
Cmq, l'unica cosa sensata di questa parte del tuo post è relativa alla questione prezzo, eppure in decine ti abbiamo già fatto notare che chi compra soluzioni come la GTX (ricordi il discorso della porche che tra l'altro non mi appartiene?) o comunque schede high-end, del prezzo se ne frega, e guarda proprio a quei problemi che orokop a menzionato.
Il fatto che vada consigliando a destra e a manca una 4870X2 rispetto ad una GTX280 (evidentemente senza averne provata neppure una delle due) argomentando solo su prezzi ed "area del core", la dice lunga su chi è fazioso e chi no.
Buon proseguimento... ;)
hai ragione quando si prendono soluzioni del genrere il prezzo influisce poco secondo me......l'importante è che ti diano pochi problemi di temperature e di driver vari una volta messa nel case.....per una casa è cosi per l'altra no per tutte e tre le vga della gamma.......
tigershark
24-08-2008, 11:16
A quella risoluzione ti prendi una 4870 (c'è qualcosa che non regga? non mi pare, filtri compresi.) che non crea problemi, risparmi 170 euro e li reinvesti alle prossime uscite, per una scheda che andrà più forte.
E non credo proprio che una 4870 diventerà una schifo di scheda che non reggerà alcun titolo, nei prossimi 5-7 mesi che ci distanziano da nuove schede. Se una simile catastrofe accadesse, dovremmo gettare via tutte le varie schede che vi sono al di sotto.
Non è certo longevità prendere una gtx 280 con un monitor a 1680 in ottica futura. Longevità è anche investire il proprio denaro, e avere sempre una scheda video che maxi tutto.
Che poi c'è anche la componente scimmia, quella da "enthusiast" (:asd: :asd: :asd:), quella di parte etc etc.
Del resto, come sempre, restano opinioni.
dimentichi una piccola cosa...la 4870 ha 512mb di memoria, la gtx280 1gb.. poi comunque della 4870 non mi piace la rumorosità della ventola, la gtx 280 è parecchio più silenziosa e fredda.
NOOB4EVER
24-08-2008, 11:24
Anche a te.
ciao gaetano,da cio' che capisco tu sconsigli gtx280 rispetto a rv770 ma ti posso chiedere se la vga piu potente che hai avuto e' quella in firma??secondo me basarsi solamente su benchmark trovati in rete serve a ben poco,le vga bisogna provarle in mano per realizzare quanto veramente valgono in campo gaming,acquista una vga high end ati ed una nvidia cosicche le tue considerazioni vengano prese piu sul serio.... non capisco cosa ci faccia gente che non ha la vga del 3d in un 3d dedicato ad una vga in particolare..che per giunta sconsiglia ad altri l'acquisto senza averla mai provata,su cosa si basano i tuoi consigli? su benchmark visti online?? non ti sembra che per poter dire la gtx280 a 1680 sono soldi sprecati bisognerebbe verificarlo prima?
ps:ti ribadisco il fatto che chi acquista vga high end,magari in coppia o in 3 way...poco se ne frega del prezzo e dei consumi,discorso differente va fatto perc chi la vga high end non ce lha e manco ce l'avra'...da qui infatti partono tutti i vari discorsi prestazioni calore prezzo e quant'altro...
ps :prova personale effettuata con un amico che possiede crossfirex :cioe 2 x 4870x2
il mio sistema rispetto al suo risulta piu performante in tutti i giochi e a tutte le risoluzioni,inoltre lo sli scala mOOOlto meglio del crossfire e tutti i titoli prediligono di gran lunga i drivers nvidia rispetto a quelli ati....
ps2:non e' assolutamente assurdo operare con una gtx280 a 1680 perche vedrai che i prossimi titoli costringeranno prima o poi a scendere sotto 1920 causa la richiesta hardware che avranno,nel senso che se un gioco a 1920 ti gira a 30 frame,passando a 1680 ne guadagnerai almeno 10 o quasi,riuscendo a giocare cosi' quel titolo in maniera fluida comunque...
il mio consiglio che voglio darti e' che prima di poter dire questo va piu forte o questo consuma meno,scalda di piu' bisogna provare personalmente...
io con lo sli e case chiuso con vga sc da bios e procio over 4gigi ho temperature perfettamente nella norma,il mio amico con le ati si ritrova con le temp ben superiori alle mie dopo una sessione di gioco di circa un'ora...
Questi bench: http://www.hwupgrade.it/forum/showthread.php?p=23764447&highlight=crysis+high#post23764447
sono stati fatti recentemente con gli ultimissimi driver su vista 64 in dx9, dx9 perchè anche su vista rispetto al dx10 performa nettamente meglio.
Il terzo è stato fatto con il tweak VH per DX9 che funziona anche su vista, la qualità è identica al VH DX10 con la differenza che in VH DX10 ottengo circa 27-28 fps, mentre con il tweak VH DX9 ottengo 37 fps :)
Tanks!:D
michelgaetano
24-08-2008, 11:37
ciao gaetano,da cio' che capisco tu sconsigli gtx280 rispetto a rv770 ma ti posso chiedere se la vga piu potente che hai avuto e' quella in firma??secondo me basarsi solamente su benchmark trovati in rete serve a ben poco,le vga bisogna provarle in mano per realizzare quanto veramente valgono in campo gaming,acquista una vga high end ati ed una nvidia cosicche le tue considerazioni vengano prese piu sul serio.... non capisco cosa ci faccia gente che non ha la vga del 3d in un 3d dedicato ad una vga in particolare....
Il massimo che sono arrivato a spendere per una vga sono ~610 € per la 8800 gtx quasi due anni fa.
Bada, nessuno mi vieta di discutere di questa scheda, solo perchè non la posseggo.
I benchs parlano chiaro, e ho sempre trovato conferma con le vga che ho posseduto nel breve periodo (8800 gtx, 8800 gts g92, 8800 gt, 9600 gt).
Se non guardassi i benchmarks, andresti a comprare schede a scatola chiusa, magari pensando che una scheda vada più forte solo perchè costa 400 € o perchè ha 1 gb ram (non mi riferisco alla gtx 280, bensì a quelle schede tipo 8500 gt col gigone di memoria acchiappaniubbi :sofico: ).
NOOB4EVER
24-08-2008, 12:05
gigone di memoria acchiappaniubbi
questa mi fa morire :D :D :read:
una nota che devo fare a voi che avete contribuito a questo tread.....perche non chiedete a un moderatore di farvi dare la prima pagina? sembrano tutte uguali da un po di tempo a questa parte....almeno ci si mettono delle informazioni e la si cura
dimentichi una piccola cosa...la 4870 ha 512mb di memoria, la gtx280 1gb.. poi comunque della 4870 non mi piace la rumorosità della ventola, la gtx 280 è parecchio più silenziosa e fredda.
Evvai,ricominciamo con la storia dell'orso.Ne hai almeno mai provata una (4870)?
Non vado avanti perchè non ha senso.
michelgaetano
24-08-2008, 12:12
gigone di memoria acchiappaniubbi
questa mi fa morire :D :D :read:
è così ^____^
una nota che devo fare a voi che avete contribuito a questo tread.....perche non chiedete a un moderatore di farvi dare la prima pagina? sembrano tutte uguali da un po di tempo a questa parte....almeno ci si mettono delle informazioni e la si cura
eh, lo feci notare anche io...Hal non manca di inserire recensioni e benchs, ma se paragoniamo la prima pagina a quella creata da te e Errik (anche se dovreste metterla un po' in ordine :D) mancano davvero tante cose :stordita:
tigershark
24-08-2008, 12:17
Evvai,ricominciamo con la storia dell'orso.Ne hai almeno mai provata una (4870)?
Non vado avanti perchè non ha senso.
guarda che io non scrivo tanto per sentito dire o letto...
quindi se ho scritto così è perchè è cosi, ho tenuto a casa mia il pc di un conoscente con una 4870 e ti posso garantire che al 55% la ventola di una 4870 fa un rumore paragonabile a quello percepito sulla gtx 280 con ventola all'80 - 85%
robertoldo77
24-08-2008, 12:32
scusate sono sempre io che arrivato alla soglia del suicidio vi chiedo umilmente conforto.
ho appurato che è un problema di alimentazione,
avvio il 3dmark vantage, all'inizio quando la ventola non è al 100% della velocità va tutto ok, cioè frame nella media e via discorrendo, ma appena inizia a scaldarsi la scheda e quindi la ventola arriva al 100% inizia a scattare. per poi piantarsi tutto il comp, illuminandosi di rosso il led della gtx280
cmq mi sembra strano che da 140w della 8800 gtx ai 200w della gtx280 subentrino questi problemi.
è possibile dico io che una benedetta ventola di una scheda video possa compromettere il funzionamento di tutto?:cry:
Andrea deluxe
24-08-2008, 12:34
scusate sono sempre io che arrivato alla soglia del suicidio vi chiedo umilmente conforto.
ho appurato che è un problema di alimentazione,
avvio il 3dmark vantage, all'inizio quando la ventola non è al 100% della velocità va tutto ok, cioè frame nella media e via discorrendo, ma appena inizia a scaldarsi la scheda e quindi la ventola arriva al 100% inizia a scattare. per poi piantarsi tutto il comp, illuminandosi di rosso il led della gtx280
cmq mi sembra strano che da 140w della 8800 gtx ai 200w della gtx280 subentrino questi problemi.
è possibile dico io che una benedetta ventola di una scheda video possa compromettere il funzionamento di tutto?:cry:
forza e coraggio, prova con un ali di un amico oppure prova direttamente la vga su un altro pc....
NOOB4EVER
24-08-2008, 12:34
guarda che io non scrivo tanto per sentito dire o letto...
quindi se ho scritto così è perchè è cosi, ho tenuto a casa mia il pc di un conoscente con una 4870 e ti posso garantire che al 55% la ventola di una 4870 fa un rumore paragonabile a quello percepito sulla gtx 280 con ventola all'80 - 85%
confermo in pieno ;)
guarda che io non scrivo tanto per sentito dire o letto...
quindi se ho scritto così è perchè è cosi, ho tenuto a casa mia il pc di un conoscente con una 4870 e ti posso garantire che al 55% la ventola di una 4870 fa un rumore paragonabile a quello percepito sulla gtx 280 con ventola all'80 - 85%
Mi spieghi a cosa serve tenere la ventola al 55% quando al 40% non supera i 70 in full?
tigershark
24-08-2008, 12:45
scusate sono sempre io che arrivato alla soglia del suicidio vi chiedo umilmente conforto.
ho appurato che è un problema di alimentazione,
avvio il 3dmark vantage, all'inizio quando la ventola non è al 100% della velocità va tutto ok, cioè frame nella media e via discorrendo, ma appena inizia a scaldarsi la scheda e quindi la ventola arriva al 100% inizia a scattare. per poi piantarsi tutto il comp, illuminandosi di rosso il led della gtx280
cmq mi sembra strano che da 140w della 8800 gtx ai 200w della gtx280 subentrino questi problemi.
è possibile dico io che una benedetta ventola di una scheda video possa compromettere il funzionamento di tutto?:cry:
allora caro amico, prima di tutto lascia perdere il suicidio, non risolverà il tuo problema..almenochè il led della 280GTX non si illumini di rosso perchè chiede sangue :D :D
avevo un problema simile, solo che a me non appena la ventola arrivava al 100% il pc si spegneva.
Dipende dall'alimentatore, il mio per protezione faceva cosi, il tuo evidentemente eroga ancora corrente anche se non ce la fa.
A te sembra che la ventola sia coinvolta in qualche maniera, ma non è cosi.
Man mano che la scheda scalda, aumenta per effetto joule anche il suo assorbimento, di conseguenza :
ventola al 100% = max riscaldamento della GPU = max assorbimento = freezing del pc
tigershark
24-08-2008, 12:48
Mi spieghi a cosa serve tenere la ventola al 55% quando al 40% non supera i 70 in full?
e che ne so mica l'ho programmata io la gestione ventola...dopo un 3d mark vantage la sua ventola arrivava al 55% con una temperatura della gpu prossima agli 80°C.
e che ne so mica l'ho programmata io la gestione ventola...dopo un 3d mark vantage la sua ventola arrivava al 55% con una temperatura della gpu prossima agli 80°C.
il fatto è che nella 4870 non c'è nesuna programmazione della ventola!!!!!
Si puo benissimo modificare con ATT
Cmq chiudo gli OT,qui si parla di 280
iscritto comprata alla fine a 330 spedita della point of view in jj 3 assicurata :sofico:
fdadakjli
24-08-2008, 13:46
iscritto comprata alla fine a 330 spedita della point of view in jj 3 assicurata :sofico:
ottimo prezzo... :)
ottimo prezzo... :)
tu le hai vendute tutte?
fdadakjli
24-08-2008, 13:48
tu le hai vendute tutte?
non ancora...ma so già a chi darle... :)
non ancora...ma so già a chi darle... :)
perche le vendi?
robertoldo77
24-08-2008, 13:51
grazie carissimo per il sostegno ora stò andando da un mio amico per provare con il suo ali. allora si tratta proprio di questo.
poi vi faccio sapere.:fagiano:
michelgaetano
24-08-2008, 13:51
perche le vendi?
Eretico, delly ha già i prototipi delle gtx 290 :asd: :sofico:
fdadakjli
24-08-2008, 13:53
perche le vendi?
prenderò le 55nm appena usciranno... :)
prenderò le 55nm appena usciranno... :)
a ho capito :)
Mister Tarpone
24-08-2008, 13:55
iscritto comprata alla fine a 330 spedita della point of view in jj 3 assicurata :sofico:
aggiorna la firma :sofico:
prenderò le 55nm appena usciranno... :)
:sborone:
aggiorna la firma :sofico:
:sborone:
ma il fatto che ho ordinato anche la 4870 :asd:
vedo quale vga piace di piu al mio pc
p.s. a parte gli scherzi devo annullare l'ordine della 4870 se riesco senno son cazzi:muro:
Mister Tarpone
24-08-2008, 14:00
ma il fatto che ho ordinato anche la 4870 :asd:
vedo quale vga piace di piu al mio pc
p.s. a parte gli scherzi devo annullare l'ordine della 4870 se riesco senno son cazzi:muro:
se non riesci ad annullare l'ordine vai di crossSLI :sbonk:
:asd:
michelgaetano
24-08-2008, 14:00
se non riesci ad annullare l'ordine vai di crossSLI :sbonk:
:asd:
SI chiamava Hydra se non erro :asd:
se non riesci ad annullare l'ordine vai di crossSLI :sbonk:
:asd:
:asd:
vedrai che riesco......c'è il diritto di recesso
SI chiamava Hydra se non erro :asd:
quello si che è favoloso hidra!!!! crysis mi andra a palla
Si sa quando faranno le versioni 55nani delle gtx260 e 280?
Si sa quando faranno le versioni 55nani delle gtx260 e 280?
fine settembre :)....spero che la nuova vada forte pero mi sa che oltre il 10-15% rispetto alla attuale non vada
Scrambler77
24-08-2008, 18:32
gigone di memoria acchiappaniubbi
Che bello essere niubbi!! :asd: :cincin:
il fatto è che nella 4870 non c'è nesuna programmazione della ventola!!!!!
Beh vabbè, dai un occhiata su Trovaprezzi:
Gainward GTX 280 1024MB - 369,00
SAPPHIRE HD4870 X2 2G GDDR5 PCI-E 2.0 DX10.1 - 384,19
Costa 15 euro di più... non avrà il controllo della ventola... ma ha ben DUE GIGONI acchiappaniubbi!
iscritto comprata alla fine a 330 spedita della point of view in jj 3 assicurata :sofico:
Complimenti per l'acquisto! :mano:
Attendiamo un altro parere per esperienza personale... ;) :D
Ora te ne mancano 2 per i 3way... :asd:
prenderò le 55nm appena usciranno... :)
Beh... a 55nm posso dire che ti farò compagnia... :cincin:
Complimenti per l'acquisto! :mano:
Attendiamo un altro parere per esperienza personale... ;) :D
Ora te ne mancano 2 per i 3way... :asd:
Beh... a 55nm posso dire che ti farò compagnia... :cincin:
guarda acquisto saltato :muro:
mi spediva solo piu avanti e quindi ha poco senso che la prenda.......o subito o nulla che rabbia!!!!!
guarda acquisto saltato :muro:
mi spediva solo piu avanti e quindi ha poco senso che la prenda.......o subito o nulla che rabbia!!!!!
Che sfortuna.. meglio aspettare 55nm allora.:rolleyes:
Che sfortuna.. meglio aspettare 55nm allora.:rolleyes:
e allora si aspetto i 55nm .....anche perche settimana prossima vado in vacanza e torno per meta settembre....quindi me la volevo gustare subito senno ha poco senso dato che sara prevista una svalutazione di questa a 65 nani
Scrambler77
24-08-2008, 18:58
e allora si aspetto i 55nm .....anche perche settimana prossima vado in vacanza e torno per meta settembre....quindi me la volevo gustare subito senno ha poco senso dato che sara prevista una svalutazione di questa a 65 nani
Beh in tal caso mi sembra più che sensato aspettare i 55 nani. Faremo compagnia a delly... :D
Beh in tal caso mi sembra più che sensato aspettare i 55 nani. Faremo compagnia a delly... :D
sempre se si trovera ad un prezzo decente: 400 euro max senno niente e poi deve essere al pari se non superiore alla 4870x2.......
fdadakjli
24-08-2008, 19:10
Beh in tal caso mi sembra più che sensato aspettare i 55 nani. Faremo compagnia a delly... :D
bravi... :asd:
fine settembre :)....spero che la nuova vada forte pero mi sa che oltre il 10-15% rispetto alla attuale non vada
mmm kk, all'ora magari provo una semplice 4870 e poi + avanti vedro' di fare l'acquisto + definitivo, perhce' prendere ora una GTX che tra un mese esce la versioen 55nani nn ne vale la pena in termine di svalutazione.
mmm kk, all'ora magari provo una semplice 4870 e poi + avanti vedro' di fare l'acquisto + definitivo, perhce' prendere ora una GTX che tra un mese esce la versioen 55nani nn ne vale la pena in termine di svalutazione.
io mi prendo una bellissima 4670 a 60 euro appena esce che una vga di riserva non fa mai male e poi attendo la gtx280 55 nani
visto che le ati mi sa che si svaluteranno
halduemilauno
24-08-2008, 19:21
mmm kk, all'ora magari provo una semplice 4870 e poi + avanti vedro' di fare l'acquisto + definitivo, perhce' prendere ora una GTX che tra un mese esce la versioen 55nani nn ne vale la pena in termine di svalutazione.
a questo punto ti consiglierei di rimanere con la 8800gt che è ottima per attendere le nuove gtx.
;)
a questo punto ti consiglierei di rimanere con la 8800gt che è ottima per attendere le nuove gtx.
;)
si credo che aspetto perhce' le 4870 vedo che si deve ancora flasshare per avere bios decenti e usare programma di terzi per il controllo della ventola, aspetto "forse" a sto punto.
La GTX280 funziona bene? cioe' nn ha problemi di regolazione ventola, risparmio energetico in idle ecc...?
a questo punto ti consiglierei di rimanere con la 8800gt che è ottima per attendere le nuove gtx.
;)
A quando la 55nm?
si credo che aspetto perhce' le 4870 vedo che si deve ancora flasshare per avere bios decenti e usare programma di terzi per il controllo della ventola, aspetto "forse" a sto punto.
La GTX280 funziona bene? cioe' nn ha problemi di regolazione ventola, risparmio energetico in idle ecc...?
Che fretta hai a cambiare la tua GT?
Non ti da abbastanza soddisfazioni o giochi solo a Crysis?
A quando la 55nm?
Che fretta hai a cambiare la tua GT?
Non ti da abbastanza soddisfazioni o giochi solo a Crysis?
e che ho havuto lo sli di 88GT ed ho un monitor da 24 e ora una sola 88GT fa' un po' fatica, in + ho un buono da 200€ da utilizzare per una nota di accredito di uan XFX780i andata al creatore xd^^
michelgaetano
24-08-2008, 19:51
e che ho havuto lo sli di 88GT ed ho un monitor da 24 e ora una sola 88GT fa' un po' fatica, in + ho un buono da 200€ da utilizzare per una nota di accredito di uan XFX780i andata al creatore xd^^
ma LOL :sofico:
e che ho havuto lo sli di 88GT ed ho un monitor da 24 e ora una sola 88GT fa' un po' fatica, in + ho un buono da 200€ da utilizzare per una nota di accredito di uan XFX780i andata al creatore xd^^
Fino a quando e' valido il tuo buono?
Fino a quando e' valido il tuo buono?
bo penso nn abbia scadenza...cmq domani chiedo bene^^
Evangelion01
24-08-2008, 22:16
Raga, mi unisco al club dei possessori di gtx280... :D
L' ho scambiata col mio monitor samsung 223bw da 22' :p , e in attesa di poterla montare col nuovo monitor che piglierò , vorrei farvi un paio di domande...
1 : come siamo messi a rumorosità ?
2 : l' ali che vedete in firma è sufficente per questa bestiaccia?
3 : che temp avete in media?
Grazie a tutti quelli che mi daranno delucidazioni... ;)
robertoldo77
24-08-2008, 23:38
allora caro amico, prima di tutto lascia perdere il suicidio, non risolverà il tuo problema..almenochè il led della 280GTX non si illumini di rosso perchè chiede sangue :D :D
avevo un problema simile, solo che a me non appena la ventola arrivava al 100% il pc si spegneva.
Dipende dall'alimentatore, il mio per protezione faceva cosi, il tuo evidentemente eroga ancora corrente anche se non ce la fa.
A te sembra che la ventola sia coinvolta in qualche maniera, ma non è cosi.
Man mano che la scheda scalda, aumenta per effetto joule anche il suo assorbimento, di conseguenza :
ventola al 100% = max riscaldamento della GPU = max assorbimento = freezing del pc
allora ho provato la scheda su un altro computer con ali da 800 watt. e il risultato è uguale.non funziona
anzi si inceppa ancora prima.
a questo punto è unicamente la scheda che è fallata
ora che devo fare ?
ho detto al ragazzo che me l'ha venduta che glie la ridò indietro visto che non mi ha dato nemmeno la garanzia, glie l'ho chiesta ma fa il vago. quindi gli ho detto di riprendersela. solo che lui ha acconsentito ma mi ristituirà i soldi non prima che gli ritorni la scheda.
c'è un modo per tutelarmi?
grazie mille a tutti
NOOB4EVER
25-08-2008, 00:08
bravi... :asd:
che non pensiate di lasciarmi da solo ;)
tigershark
25-08-2008, 07:30
Raga, mi unisco al club dei possessori di gtx280... :D
L' ho scambiata col mio monitor samsung 223bw da 22' :p , e in attesa di poterla montare col nuovo monitor che piglierò , vorrei farvi un paio di domande...
1 : come siamo messi a rumorosità ?
2 : l' ali che vedete in firma è sufficente per questa bestiaccia?
3 : che temp avete in media?
Grazie a tutti quelli che mi daranno delucidazioni... ;)
1) diciamo che per essere una top di gamma è abbastanza silenziosa, la rumorosità è piuttosto soggettiva, in linea di massima sotto l'85% il rumore è ben sopportabile (ad essere proprio sincero inizialmente per me è stato un trauma dato che la mia ex 8800GTX a silenziosità era qualcosa di pazzesco)
2) si dovrebbe bastare
3) personalmente in full load non supero gli 87°C e comunque non ho ne un case enorme (un normalissimo midi tower) ne soluzioni di raffreddamento particolari, uso solo una ventola 8 x 8 in estrazione dietro il case (e in camera mia non ho nemmeno il condizionatore :) ). L'unico consiglio che posso darti per mantenerla "fresca", è quello di curare l'assemblaggio e ordinare per bene i cavi, io ho abbassato la sua temperatura di quasi 10°C semplicemente raccogliendo tutti i cavi all'interno del case in modo tale da lasciarla perfettamente scoperta.
Gainward GTX 280 1024MB - 369,00
SAPPHIRE HD4870 X2 2G GDDR5 PCI-E 2.0 DX10.1 - 384,19
Costa 15 euro di più... non avrà il controllo della ventola... ma ha ben DUE GIGONI acchiappaniubbi!
beh per come è l'architettura di quella scheda cmq sono necessari 2 gb soprattutto dai 1900 in su ;)
ho visto al mediaworld una 1550 a con 1 gb di ram.. allucinante altro che acchiappanubbi :asd:
Andrea deluxe
25-08-2008, 10:41
beh per come è l'architettura di quella scheda cmq sono necessari 2 gb soprattutto dai 1900 in su ;)
ho visto al mediaworld una 1550 a con 1 gb di ram.. allucinante altro che acchiappanubbi :asd:
tra poco alle vga per bambini metteranno l'attacco sata per la memoria....
nuova x1550 con 250gb di memoria on board (su hard disk)
:eek:
tigershark
25-08-2008, 10:41
beh per come è l'architettura di quella scheda cmq sono necessari 2 gb soprattutto dai 1900 in su ;)
ho visto al mediaworld una 1550 a con 1 gb di ram.. allucinante altro che acchiappanubbi :asd:
sono necessari 2gb per il semplice motivo che sono praticamente 2 schede in una ed ogni GPU usa il suo bravo giga di memoria..ciò significa che i dati sono a tutti gli effetti duplicati, per cui è come se si usasse cmq 1 solo gb di ram.
sono necessari 2gb per il semplice motivo che sono praticamente 2 schede in una ed ogni GPU usa il suo bravo giga di memoria..ciò significa che i dati sono a tutti gli effetti duplicati, per cui è come se si usasse cmq 1 solo gb di ram.
si appunto ;)
sembra che cmq dati i costi influisca poco sul prezzo finale per nostra fortuna
michelgaetano
25-08-2008, 11:00
sono necessari 2gb per il semplice motivo che sono praticamente 2 schede in una ed ogni GPU usa il suo bravo giga di memoria..ciò significa che i dati sono a tutti gli effetti duplicati, per cui è come se si usasse cmq 1 solo gb di ram.
Esatto, io non lo definirei gigone acchiappaniubbi (quello è per le schede di fascia infima :sofico: ), perchè il potenziale per sfruttarlo c'è, come per la gtx 280.
tigershark
25-08-2008, 11:03
si appunto ;)
sembra che cmq dati i costi influisca poco sul prezzo finale per nostra fortuna
beh si, perchè AMD ha trovato comunque il modo di risparmiare molto sulla produzione delle GPU, al contrario di Nvidia che sostiene costi troppo alti per produrre il GT2xx. E' un po come succedeva tanto tempo fa con la questione dei Pentium - Pro con il package a doppia cavità..non so se ricordate.
mircocatta
25-08-2008, 14:16
figataaaaaaaaaaaaa
http://www.centerzone.it/nvidia/zotac-nitro-lunita-di-overclock-esterna.html
figataaaaaaaaaaaaa
http://www.centerzone.it/nvidia/zotac-nitro-lunita-di-overclock-esterna.html
per essere una figa lo è! anche perchè quasi sicuramente funziona anche con le schede video non Zotac..però spendere 89 euro (più s.s.) per una cosa che fa rivatuner gratis...:stordita:
Marscorpion
25-08-2008, 14:27
figataaaaaaaaaaaaa
http://www.centerzone.it/nvidia/zotac-nitro-lunita-di-overclock-esterna.html
Secondo me oggetto del tuttto inutile!
iscritto! in arrivo XFX GTX280 XT :D , tirata via a 320€ spedita:sofico:
iscritto! in arrivo XFX GTX280 XT :D , tirata via a 320€ spedita:sofico:
Buon prezzo!:rolleyes: Mica da un normale shop vero?
Scrambler77
25-08-2008, 20:34
beh per come è l'architettura di quella scheda cmq sono necessari 2 gb soprattutto dai 1900 in su ;)
ho visto al mediaworld una 1550 a con 1 gb di ram.. allucinante altro che acchiappanubbi :asd:
Non è del tutto esatto, in quanto quei 2gb sono la copia l'uno dell'altro...
quindi...
sono necessari 2gb per il semplice motivo che sono praticamente 2 schede in una ed ogni GPU usa il suo bravo giga di memoria..ciò significa che i dati sono a tutti gli effetti duplicati, per cui è come se si usasse cmq 1 solo gb di ram.
...quoto. E' anche per questo che preferisco le soluzioni a singola gpu: soluzioni più eleganti, più performanti con meno problemi di consumi, calore e spreco di risorse hardware.
Scrambler77
25-08-2008, 20:34
iscritto! in arrivo XFX GTX280 XT :D , tirata via a 320€ spedita:sofico:
Ottimo!! Mi passi lo shop in PVT?
Non è del tutto esatto, in quanto quei 2gb sono la copia l'uno dell'altro...
quindi...
...quoto. E' anche per questo che preferisco le soluzioni a singola gpu: soluzioni più eleganti, più performanti con meno problemi di consumi, calore e spreco di risorse hardware.
si pero' stai facendo anche un po di disinformazione. sono la copia dell'altro per far funzionare le 2 gpu appunto, non centra nulla il "far numero di memoria" per acchiappare niubbi.
soluzioni piu eleganti, son solo gusti. te ti metti a guardare e ammirare togliendo il dissipatore il tuo bel singolo chip?
piu performanti no, per lo meno non in questo caso.
meno consumi , ovvio va di meno, la x2 appunto se ben ottimizzata puoi fare ben oltre un 30 %.
calore siamo li.
spreco di risorse hardware come sopra. non vengono sprecate perche è un simil crossfire, inoltre il prezzo delle memorie è ridotto.
illidan2000
25-08-2008, 20:49
si pero' stai facendo anche un po di disinformazione. sono la copia dell'altro per far funzionare le 2 gpu appunto, non centra nulla il "far numero di memoria" per acchiappare niubbi.
soluzioni piu eleganti, son solo gusti. te ti metti a guardare e ammirare togliendo il dissipatore il tuo bel singolo chip?
piu performanti no, per lo meno non in questo caso.
meno consumi , ovvio va di meno, la x2 appunto se ben ottimizzata puoi fare ben oltre un 30 %.
calore siamo li.
spreco di risorse hardware come sopra. non vengono sprecate perche è un simil crossfire, inoltre il prezzo delle memorie è ridotto.
a fine anno mi sa che pensiono la mia 8800gtx. chissà se non vado pure io dall'altra SPONDA:doh:
a fine anno mi sa che pensiono la mia 8800gtx. chissà se non vado pure io dall'altra SPONDA:doh:
io aspettero' l'autunno prima di decidere cosa prendere, anche in merito ai prossimi giochi autunnali che si prospettano belli pesi :)
Scrambler77
25-08-2008, 20:50
si pero' stai facendo anche un po di disinformazione. sono la copia dell'altro per far funzionare le 2 gpu appunto, non centra nulla il "far numero di memoria" per acchiappare niubbi.
soluzioni piu eleganti, son solo gusti. te ti metti a guardare e ammirare togliendo il dissipatore il tuo bel singolo chip?
piu performanti no, per lo meno non in questo caso.
meno consumi , ovvio va di meno, la x2 appunto se ben ottimizzata puoi fare ben oltre un 30 %.
calore siamo li.
spreco di risorse hardware come sopra. non vengono sprecate perche è un simil crossfire, inoltre il prezzo delle memorie è ridotto.
A parte che la battuta "DUE GIGONI acchiappaniubbi" era (appunto) una battuta sulla falsa riga di quelle precedenti...
In informatica, l'eleganza è tutt'altro che legata all'estetica, a meno che non si parli di tutto ciò che ha a che fare col visuale (sistemi operativi, interfacce grafice ecc).
Per eleganza si intende quella tecnica, che in hardware può essere la massimizzazione e l'ottimizzazione delle risorse utilizzate, la riduzione del PCB necessario per la realizzazione di un dispositivo, l'uso di un tipo di componente anzichè un altro ecc... e nel software può essere l'ottimizzazione di una routine o l'uso di funzioni complesse per ottenere un qualsiasi risultato voluto...
Di certo non è elegante una scheda col cippone singolo solo perchè è "più bello" (tra l'altro l'estetica è sempre stata soggettiva).
Non travisare volutamente i miei post solo per il gusto del dibattito. ;)
Scrambler77
25-08-2008, 20:56
a fine anno mi sa che pensiono la mia 8800gtx. chissà se non vado pure io dall'altra SPONDA:doh:
In tal caso ci vedrai tutti camminare spalle al muro! :asd:
A parte che la battuta "DUE GIGONI acchiappaniubbi" era (appunto) una battuta sulla falsa riga di quelle precedenti...
In informatica, l'eleganza è tutt'altro che legata all'estetica, a meno che non si parli di tutto ciò che ha a che fare col visuale (sistemi operativi, interfacce grafice ecc).
Per eleganza si intende quella tecnica, che in hardware può essere la massimizzazione e l'ottimizzazione delle risorse utilizzate, la riduzione del PCB necessario per la realizzazione di un dispositivo, l'uso di un tipo di componente anzichè un altro ecc... e nel software può essere l'ottimizzazione di una routine o l'uso di funzioni complesse per ottenere un qualsiasi risultato voluto...
Di certo non è elegante una scheda col cippone singolo solo perchè è "più bello" (tra l'altro l'estetica è sempre stata soggettiva).
Non travisare volutamente i miei post solo per il gusto del dibattito. ;)
tranquillo ho capito cio che intendi ;)
per farti un esempio mi son sempre piaciute schede a singolo pcb
e non due stile tramezzino tipo le "vecchie" 7950 e 9800gx2...
in questa direzione penso che si muoveranno un po tutti, magari chip piu piccoli ma di piu. magari avremo ben piu di 2 gpu in un unico pcb in un prossimo futuro chi lo sa :)
Scrambler77
25-08-2008, 21:51
tranquillo ho capito cio che intendi ;)
per farti un esempio mi son sempre piaciute schede a singolo pcb
e non due stile tramezzino tipo le "vecchie" 7950 e 9800gx2...
in questa direzione penso che si muoveranno un po tutti, magari chip piu piccoli ma di piu. magari avremo ben piu di 2 gpu in un unico pcb in un prossimo futuro chi lo sa :)
Temo che la direzione giusta non la stiano percorrendo ne nVidia ne ATi...
...ma Intel con Larrabee.
Secondo me nel 2009-2010 ne vedremo delle belle...
Temo che la direzione giusta non la stiano percorrendo ne nVidia ne ATi...
...ma Intel con Larrabee.
Secondo me nel 2009-2010 ne vedremo delle belle...
si sono proprio curioso di vedere cosa tireranno fuori... intel ha delle capacità da far paura , potenzialmente potrebbero rovesciare tutto.
tigershark
26-08-2008, 07:09
Temo che la direzione giusta non la stiano percorrendo ne nVidia ne ATi...
...ma Intel con Larrabee.
Secondo me nel 2009-2010 ne vedremo delle belle...
intel sa il fatto suo nel campo microprocessori, ma da qui a dire che sta prendendo lei la direzione giusta ce ne passa...
l'architettura delle GPU è molto diversa da quella delle CPU, per cui intel sicuramente potrà sviluppare buoni prodotti ma senza eccessive pretese in termini di prestazioni.
Intel afferma che in futuro le CPU saranno abbastanza potenti da poter svolgere la doppia funzione di CPU/VPU, ma per quanto vedo è esattamente il contrario. Noto invece che iniziano ad accorgersi che tutta l'enorme potenza sprigionata da una moderna GPU può essere usata anche per altro.
Concordo solo con il fatto che sia necessario creare uno standard di programmazione, qualcosa che accomuni diversi prodotti di marche differenti...un pò come è uguale programmare su cpu intel ed amd, dev'essere per GPU Radeon e GeForce
Scrambler77
26-08-2008, 07:30
intel sa il fatto suo nel campo microprocessori, ma da qui a dire che sta prendendo lei la direzione giusta ce ne passa...
l'architettura delle GPU è molto diversa da quella delle CPU, per cui intel sicuramente potrà sviluppare buoni prodotti ma senza eccessive pretese in termini di prestazioni.
Se il raytracing è il futuro dei videogames (come credo anch'io)... direi di no. ;)
Le voci che circolano sono tutt'altro che "senza eccessive pretese".
Tra l'altro, larrabee (in fatto di potenza bruta) è stimato sui 2 teraflops... e in raytracing è proprio la potenza bruta che conta.... fai un po' tu.
Alcuni parlano addirittura di "intesa tra Intel e nVidia" per il futuro del raytracing in ambito videoludico.
Se il raytracing è il futuro dei videogames (come credo anch'io)... direi di no. ;)
Le voci che circolano sono tutt'altro che "senza eccessive pretese".
Tra l'altro, larrabee (in fatto di potenza bruta) è stimato sui 2 teraflops... e in raytracing è proprio la potenza bruta che conta.... fai un po' tu.
Alcuni parlano addirittura di "intesa tra Intel e nVidia" per il futuro del raytracing in ambito videoludico.
infatti sembrerebbe cosi :D
http://it.wikipedia.org/wiki/Ray_tracing
appleroof
26-08-2008, 09:07
Se il raytracing è il futuro dei videogames (come credo anch'io)... direi di no. ;)
Le voci che circolano sono tutt'altro che "senza eccessive pretese".
Tra l'altro, larrabee (in fatto di potenza bruta) è stimato sui 2 teraflops... e in raytracing è proprio la potenza bruta che conta.... fai un po' tu.
Alcuni parlano addirittura di "intesa tra Intel e nVidia" per il futuro del raytracing in ambito videoludico.
infatti sembrerebbe cosi :D
http://it.wikipedia.org/wiki/Ray_tracing
ultimamente cmq cominciano a vedersi dei "correttivi" sul ray tracing, dove alcuni (mi pare la stessa Nvidia) sostengono che il futuro non è tanto nel ray tracing "puro" ma piuttosto in tecniche miste di ray tracing e rastering...
Mercuri0
26-08-2008, 10:21
Se il raytracing è il futuro dei videogames (come credo anch'io)... direi di no. ;)
Posso dire la mia? Chissenefrega del raytracing :D
Un videogioco non deve essere una "simulazione" di realtà, se fosse così sarebbe pizzosissimo come la realtà! :) Basta che sia verisimile, e 2 shader bastano a dare l'illusione delle riflessioni multiple senza dover calcolare tutti i rimbalzi di ogni raggio di luce.
E secondo me anche agli sviluppatori non gliene può fregar di meno: non vincerà la tecnologia che permette teoricamente una grafica più "reale", ma vincerà la tecnologia che permetterà i minori costi di produzione del videogioco, costi che stanno diventando insostenibili e che continueranno ad aumentare.
Altrimenti comincerebbero a fare giochi con il Cinema 2.0 di AMD :asd:
Viceversa, proprio nell'ottica dei costi di produzione e delle prestazioni si può leggere il nuovo Tech5 di Id da cui mi aspetto grandi cose :sbav:
(a me poter usare texture di svariati gigabyte usando solo 20MiB di RAM della scheda grafica, fa proprio figo :sbav:)
Le voci che circolano sono tutt'altro che "senza eccessive pretese".
Citando nVidia, "Sulle slide le tecnologie funzionano sempre bene".
Tra l'altro, larrabee (in fatto di potenza bruta) è stimato sui 2 teraflops... e in raytracing è proprio la potenza bruta che conta.... fai un po' tu.
Larrabee esce a fine 2010, stima quanti teraflops avranno le GPU a quella data, e fai un po' tu. Pur sapendo che questi valori significano poco o nulla.
Alcuni parlano addirittura di "intesa tra Intel e nVidia" per il futuro del raytracing in ambito videoludico.
Naaah. Il "raytracing videoludico" per ora è solo materiale pubblicitario, e su questo non ci si può accordare. :D
Viceversa non è strano che ci siano accordi tra le aziende per creare standard tecnologici, e anche per il raytracing, se la cosa vorrà prendere piede, un accordo ci sarà, come già c'è stato tra AMD, lntel e nVidia per l'OpenGL 3.0. ;)
appleroof
26-08-2008, 10:49
Posso dire la mia? Chissenefrega del raytracing :D
Un videogioco non deve essere una "simulazione" di realtà, se fosse così sarebbe pizzosissimo come la realtà! :) Basta che sia verisimile, e 2 shader bastano a dare l'illusione delle riflessioni multiple senza dover calcolare tutti i rimbalzi di ogni raggio di luce.
bè, io invece la penso in maniera completamente opposta, fermo restando che ovviamente un gioco in generale non è solo grafica...
E secondo me anche agli sviluppatori non gliene può fregar di meno: non vincerà la tecnologia che permette teoricamente una grafica più "reale", ma vincerà la tecnologia che permetterà i minori costi di produzione del videogioco, costi che stanno diventando insostenibili e che continueranno ad aumentare.
cut
sono d'accordo ma chi ti dice che le tecniche di rendering "nuove" (per la loro applicazione) siano per forza più costose?
Citando nVidia, "Sulle slide le tecnologie funzionano sempre bene".
:asd:
Larrabee esce a fine 2010
cut
veramente a sentire tutti i rumors del mondo dovrebbe uscire a cavallo 2009/2010 (i primi samples già a fine di quest'anno)
p.s.: cmq questo è il tread della gtx280 :stordita:
Mercuri0
26-08-2008, 11:10
bè, io invece la penso in maniera completamente opposta, fermo restando che ovviamente un gioco in generale non è solo grafica...
Io stavo parlando solo di grafica: "il realismo" non è affatto il fine!
A te i film paiono "realistici"? Il regista usa trucchi e tecniche (di luce, di inquadratura) per andare oltre la realtà ;)
Anche nei film renderizzati in raytracing si fanno ritocchi in photoshop per aggiungere riflessi "non fisicamente possibili".
Il punto di questo mio discorso è che non è importante per la grafica di un gioco fare "una simulazione della realtà" per avere una grafica "reale" o meglio che reale :D
Anche se il programmatore invece di simularla (raytracing) la disegna (rastering) per me va bene lo stesso... faccia come viene più comodo a lui per ottenere il miglior risultato.
sono d'accordo ma chi ti dice che le tecniche di rendering "nuove" (per la loro applicazione) siano per forza più costose?
Io questo non l'ho detto, stavo solo spostando proprio qui il discorso: sarà usato lo strumento migliore che consente ai programmatori di ottenere il miglior risultato a minor costo. Potrà essere il raytracing, ma anche no.
veramente a sentire tutti i rumors del mondo dovrebbe uscire a cavallo 2009/2010 (i primi samples già a fine di quest'anno)
Buh, io mi aspetto che il primo silicio non sarà subito commercializzato nel mercato consumer, e a dire il vero mi aspettavo che ormai lo facessero a 32nm.
Comunque il discorso sui teraflops non cambia anche considerando fine 2009.
appleroof
26-08-2008, 12:51
Io stavo parlando solo di grafica: "il realismo" non è affatto il fine!
A te i film paiono "realistici"? Il regista usa trucchi e tecniche (di luce, di inquadratura) per andare oltre la realtà ;)
Anche nei film renderizzati in raytracing si fanno ritocchi in photoshop per aggiungere riflessi "non fisicamente possibili".
Il punto di questo mio discorso è che non è importante per la grafica di un gioco fare "una simulazione della realtà" per avere una grafica "reale" o meglio che reale :D
Anche se il programmatore invece di simularla (raytracing) la disegna (rastering) per me va bene lo stesso... faccia come viene più comodo a lui per ottenere il miglior risultato.
cut
esatto, mettiamola così: se ci fosse un gioco come la demo cinema 2.0 di Amd, per me sarebbe grandioso
halduemilauno
26-08-2008, 13:27
http://www.vr-zone.com/articles/Nvidia_Prepares_For_40nm_GPUs/6020.html
VR-Zone has learned that Nvidia is moving on to 40nm process much quicker than expected. Nvidia is usually conservative when moving on to a finer process technology but seems like this time round, they are determined to get there ahead of AMD. This move is risky but probably Nvidia has done some serious simulation and prototyping to estimate the yield and stability of the TSMC 40G process technology. The first GPUs on 40nm process technology will be the mobile parts codenamed N10x, the successor to the current 65/55nm NB9x. Nvidia is expected to apply a die shrink to their desktop parts too to lower cost and thermal envelope so there might be a chance to see a GX2 solution for GT200.
;)
ps ben trovato apple.
;)
http://www.vr-zone.com/articles/Nvidia_Prepares_For_40nm_GPUs/6020.html
VR-Zone has learned that Nvidia is moving on to 40nm process much quicker than expected. Nvidia is usually conservative when moving on to a finer process technology but seems like this time round, they are determined to get there ahead of AMD. This move is risky but probably Nvidia has done some serious simulation and prototyping to estimate the yield and stability of the TSMC 40G process technology. The first GPUs on 40nm process technology will be the mobile parts codenamed N10x, the successor to the current 65/55nm NB9x. Nvidia is expected to apply a die shrink to their desktop parts too to lower cost and thermal envelope so there might be a chance to see a GX2 solution for GT200.
;)
ps ben trovato apple.
;)
Tradotto?!:asd: :kiss:
halduemilauno
26-08-2008, 13:34
Tradotto?!:asd: :kiss:
i 40nm sono + vicini di quanto si pensava. intanto usciti i 177.92 che offrono...
Includes several 3D application performance improvements. The following are examples of improvements measured with v177.92 WHQL versus v175.19 WHQL driver:
Single GPU increases up to 11% in 3DMark Vantage (performance preset)
Single GPU increases up to 11% in Assassin's Creed DX10
Single GPU increases up to 15% in Bioshock DX10
Single GPU increases up to 15% in Call of Duty 4
Single GPU increases up to 8% in Enemy Territory: Quake Wars
2-way SLI increases up to 7% in Bioshock DX10
2-way SLI increases up to 10% in Company of Heroes: Opposing Fronts DX10
2-way SLI increases up to 12% in Enemy Territory: Quake Wars
2-way SLI increases up to 10% in World in Conflict DX10
sono per tutte le schede.
http://www.nvidia.it/object/winvista_x86_177.92_beta_it.html
;)
i 40nm sono + vicini di quanto si pensava. intanto usciti i 177.92 che offrono...
Includes several 3D application performance improvements. The following are examples of improvements measured with v177.92 WHQL versus v175.19 WHQL driver:
Single GPU increases up to 11% in 3DMark Vantage (performance preset)
Single GPU increases up to 11% in Assassin's Creed DX10
Single GPU increases up to 15% in Bioshock DX10
Single GPU increases up to 15% in Call of Duty 4
Single GPU increases up to 8% in Enemy Territory: Quake Wars
2-way SLI increases up to 7% in Bioshock DX10
2-way SLI increases up to 10% in Company of Heroes: Opposing Fronts DX10
2-way SLI increases up to 12% in Enemy Territory: Quake Wars
2-way SLI increases up to 10% in World in Conflict DX10
sono per tutte le schede.
http://www.nvidia.it/object/winvista_x86_177.92_beta_it.html
;)
Ottimo, ti ringrazio!:D
appleroof
26-08-2008, 13:41
http://www.vr-zone.com/articles/Nvidia_Prepares_For_40nm_GPUs/6020.html
VR-Zone has learned that Nvidia is moving on to 40nm process much quicker than expected. Nvidia is usually conservative when moving on to a finer process technology but seems like this time round, they are determined to get there ahead of AMD. This move is risky but probably Nvidia has done some serious simulation and prototyping to estimate the yield and stability of the TSMC 40G process technology. The first GPUs on 40nm process technology will be the mobile parts codenamed N10x, the successor to the current 65/55nm NB9x. Nvidia is expected to apply a die shrink to their desktop parts too to lower cost and thermal envelope so there might be a chance to see a GX2 solution for GT200.
;)
ps ben trovato apple.
;)
Ottimo, la notizia dice che sono sempre stati conservativi in quanto a pp ma questa volta sono disposti a rischiare di più...è proprio la risposta che mi aspettavo da Nvidia, stiamo a vedere
p.s.: grazie hal :)
NOOB4EVER
26-08-2008, 14:27
PS grazie hal per i nuovi beta
PS2 ma porca p...... ma possibile che tutti i drivers diversi che ho provato dopo i 177.41 whql mi danno artefatti e non tengono manco in oc? azz mi sembra strano
Mercuri0
26-08-2008, 16:39
Ottimo, la notizia dice che sono sempre stati conservativi in quanto a pp ma questa volta sono disposti a rischiare di più...è proprio la risposta che mi aspettavo da Nvidia, stiamo a vedere
Non vorrei dire ma uno tra Fudzilla e the inquirer aveva già riportato qualche mese fa che nVidia era attesa prima di AMD ai 40nm, ma che c'erano stati ritardi in TSMC.
Se ne parla comunque l'estate prossima mi sa.
St. Jimmy
26-08-2008, 18:51
ragazzi, ho bisogno del vostro aiuto...ho lasciato aperto RivaTuner mentre giocavo a Call of Duty 4 ed ho notato una cosa strana (almeno per me)..potete vederlo nell'immagine:
http://img411.imageshack.us/img411/4912/immagineno9.th.jpg (http://img411.imageshack.us/my.php?image=immagineno9.jpg)
sono normali quei cali di frequenza su Core, Shader e memorie? :confused: sono un pò preoccupato, spero possiate rassicurarmi :)
Scrambler77
26-08-2008, 20:21
ultimamente cmq cominciano a vedersi dei "correttivi" sul ray tracing, dove alcuni (mi pare la stessa Nvidia) sostengono che il futuro non è tanto nel ray tracing "puro" ma piuttosto in tecniche miste di ray tracing e rastering...
Penso che sia una "correzione" pesata in funzione del deficit computazionale attuale rispetto a quello necessario ad un puro raytracing a risoluzioni medio-alte.
Per me è solo questione di tempo.
In termini di realismo, direi che in un gioco il realismo è tutto... salvo titoli che intenzionalmente alterano la grafica per darle uno stile fumettistico (vedi team fortress ed altri). Lo sforzo di 9 aziende su 10 è quello di rendere la grafica il più complessa e realistica possibile (con realistica non significa uguale a quella di tutti i giorni, quando quella che vediamo appunto nei film, in presa reale).
A mio parere, inoltre, il cinematismo è responsabile del 50% del realismo di un gioco (quindi fisica e cinematica inversa)... un buon 40% lo fa la qualità della grafica (livello di dettaglio delle geometrie, ombre, riflessi, bump, HDR, blur ecc) ed il resto lo fa l'audio.
Se il realismo grafico (e cinematico) dei giochi non fosse priorità assoluta, le schede high-end come la gtx et simila sarebbero del tutto inutili (e probabilmente non esisterebbero neppure)...
Scrambler77
26-08-2008, 20:23
i 40nm sono + vicini di quanto si pensava. intanto usciti i 177.92 che offrono...
Includes several 3D application performance improvements. The following are examples of improvements measured with v177.92 WHQL versus v175.19 WHQL driver:
Single GPU increases up to 11% in 3DMark Vantage (performance preset)
Single GPU increases up to 11% in Assassin's Creed DX10
Single GPU increases up to 15% in Bioshock DX10
Single GPU increases up to 15% in Call of Duty 4
Single GPU increases up to 8% in Enemy Territory: Quake Wars
2-way SLI increases up to 7% in Bioshock DX10
2-way SLI increases up to 10% in Company of Heroes: Opposing Fronts DX10
2-way SLI increases up to 12% in Enemy Territory: Quake Wars
2-way SLI increases up to 10% in World in Conflict DX10
sono per tutte le schede.
http://www.nvidia.it/object/winvista_x86_177.92_beta_it.html
;)
Segue bacio in bocca con palpatina al gluteo! :asd:
(era in senso figurato... non metterti in priscio! :D)
i 40nm sono + vicini di quanto si pensava. intanto usciti i 177.92 che offrono...
Includes several 3D application performance improvements. The following are examples of improvements measured with v177.92 WHQL versus v175.19 WHQL driver:
Single GPU increases up to 11% in 3DMark Vantage (performance preset)
Single GPU increases up to 11% in Assassin's Creed DX10
Single GPU increases up to 15% in Bioshock DX10
Single GPU increases up to 15% in Call of Duty 4
Single GPU increases up to 8% in Enemy Territory: Quake Wars
2-way SLI increases up to 7% in Bioshock DX10
2-way SLI increases up to 10% in Company of Heroes: Opposing Fronts DX10
2-way SLI increases up to 12% in Enemy Territory: Quake Wars
2-way SLI increases up to 10% in World in Conflict DX10
sono per tutte le schede.
http://www.nvidia.it/object/winvista_x86_177.92_beta_it.html
;)
Ma in single Gpu o anche in MultiGpu?
Mister Tarpone
26-08-2008, 21:16
Ma in single Gpu o anche in MultiGpu?
c'è scritto.. alcuni aumenti ci sono anche con 2 gpu in sli...
halduemilauno
26-08-2008, 22:06
Segue bacio in bocca con palpatina al gluteo! :asd:
(era in senso figurato... non metterti in priscio! :D)
ok d'accordo.
;)
Mister Tarpone
26-08-2008, 22:14
ok d'accordo.
;)
ottime le -tue- GTX
;)
;)
;)
Evangelion01
26-08-2008, 23:12
Sul sistema in firma con la gtx 280 e procio a 3,8ghz son passato dagli ultimi whql a questi nuovi beta : circa 2000 punti in più con 3dmerd vantage...:D
Se i giochi migliorano di conseguenza è un bel salto davvero... :O
Scrambler77
26-08-2008, 23:27
Sul sistema in firma con la gtx 280 e procio a 3,8ghz son passato dagli ultimi whql a questi nuovi beta : circa 2000 punti in più con 3dmerd vantage...:D
Se i giochi migliorano di conseguenza è un bel salto davvero... :O
Il distacco con le 4870x2 si assottiglia?
Bisognerebbe avvertire hwupgrade per una nuova rece comparativa... :)
Ragazzi provo a chiedervi un favorone, sono tornato ieri dalle vacanze, sono andato via il 4 agosto, ho un sacco di cose da fare.
Qualche anima pia sa dirmi se c'è qualcosa di nuovo sotto il sole? :stordita:
Grazie in anticipo. :)
halduemilauno
27-08-2008, 07:54
Ragazzi provo a chiedervi un favorone, sono tornato ieri dalle vacanze, sono andato via il 4 agosto, ho un sacco di cose da fare.
Qualche anima pia sa dirmi se c'è qualcosa di nuovo sotto il sole? :stordita:
Grazie in anticipo. :)
il rilascio a metà settembre(16)della gtx260 con 24 shader in + 216 invece di 192. poi i soliti rumors sulle future gtx. poi per quanto riguarda amd il rilascio lo scorso 12 agosto della 4870x2 e il futuro rilascio della 4850x2.
;)
tigershark
27-08-2008, 08:43
Sul sistema in firma con la gtx 280 e procio a 3,8ghz son passato dagli ultimi whql a questi nuovi beta : circa 2000 punti in più con 3dmerd vantage...:D
Se i giochi migliorano di conseguenza è un bel salto davvero... :O
a dimostrazione che non abbiamo a che fare con un'ennesima scopiazzatura dell'architettura precedente, ma di una nuova che va ancora sfruttata per bene con ottimizzazioni a livello di drivers
Peccato non abbiano sistemato la gestione del clock che rimane ancora alquanto scandalosa
Phobos85
27-08-2008, 09:25
salve , scusate sul sito ufficiale asus si parla di una engtx280 top con un 12 % di prestazioni in più e ke kosa sarebbe ? kualkuno ne sa kualkosa ? io ho preso una gtx 280 due settimane fa e già è superata ? :muro:
il rilascio a metà settembre(16)della gtx260 con 24 shader in + 216 invece di 192. poi i soliti rumors sulle future gtx. poi per quanto riguarda amd il rilascio lo scorso 12 agosto della 4870x2 e il futuro rilascio della 4850x2.
;)
Grazie Hal, molto gentile. :)
:mano:
salve , scusate sul sito ufficiale asus si parla di una engtx280 top con un 12 % di prestazioni in più e ke kosa sarebbe ? kualkuno ne sa kualkosa ? io ho preso una gtx 280 due settimane fa e già è superata ? :muro:
Sarà una versione OC.
salve ragazzi visto che mi è arrivata la gtx280 stavo pensando di accoppiarlo ad un issipatore piu efficiente, conoscete qualche marca in particolare che produce dissipatori compatibili con la gtx280? ad esempio il vf1000 può essere istallato?
salve , scusate sul sito ufficiale asus si parla di una engtx280 top con un 12 % di prestazioni in più e ke kosa sarebbe ? kualkuno ne sa kualkosa ? io ho preso una gtx 280 due settimane fa e già è superata ? :muro:
Si... :rolleyes::doh:
halduemilauno
27-08-2008, 10:11
salve , scusate sul sito ufficiale asus si parla di una engtx280 top con un 12 % di prestazioni in più e ke kosa sarebbe ? kualkuno ne sa kualkosa ? io ho preso una gtx 280 due settimane fa e già è superata ? :muro:
http://www.tweaktown.com/reviews/1572/asus_geforce_gtx_280_top_graphics_card/index.html
semplicemente una versione oc a 670/1458/2430.
;)
Phobos85
27-08-2008, 12:25
ah ok ma non è ke ha kualke componente diverso che so una ventola maggiorata ? è solo overclocata dalla fabbrica ? kuindi se io gli sparo kuei valori identici pure io ho il 12 % in più senza rovinare nulla ?
Evangelion01
27-08-2008, 12:28
ah ok ma non è ke ha kualke componente diverso che so una ventola maggiorata ? è solo overclocata dalla fabbrica ? kuindi se io gli sparo kuei valori identici pure io ho il 12 % in più senza rovinare nulla ?
é solo oc di fabbrica...;)
p.s. ti prego , basta con ste K !!! ma scrivere correttamente è così difficile? :rolleyes:
major1977
27-08-2008, 12:34
a prezzi come siamo messi? :stordita:
Phobos85
27-08-2008, 13:18
per me è molto difficile scrivere senza k comunque ci provo.. grazie cmq quindi è solo un oc di fabbrica è praticamente la mia scheda con un oc...
halduemilauno
27-08-2008, 13:20
per me è molto difficile scrivere senza k comunque ci provo.. grazie cmq quindi è solo un oc di fabbrica è praticamente la mia scheda con un oc...
esatto. per questo infatti ti consigliavo i 670/1458/2430.
;)
Mister Tarpone
27-08-2008, 13:27
Non vorrei dire ma uno tra Fudzilla e the inquirer aveva già riportato qualche mese fa che nVidia era attesa prima di AMD ai 40nm, ma che c'erano stati ritardi in TSMC.
Se ne parla comunque l'estate prossima mi sa.
ma quindi nvidia passa direttamente a 40nm?? o cmq -prima- farà anche le 55nm?? :confused:
Scrambler77
27-08-2008, 14:23
é solo oc di fabbrica...;)
p.s. ti prego , basta con ste K !!! ma scrivere correttamente è così difficile? :rolleyes:
Quoto... anch'io odio quando si storpia l'italiano...
per me è molto difficile scrivere senza k comunque ci provo.. grazie cmq quindi è solo un oc di fabbrica è praticamente la mia scheda con un oc...
Quando scrivi un tema, lo scrivi con le k?
Tornando ai 40nm... la domanda del salto diretto a 40 interessa anche a me. Qualcuno sa niente?
halduemilauno
27-08-2008, 14:39
Quoto... anch'io odio quando si storpia l'italiano...
Quando scrivi un tema, lo scrivi con le k?
Tornando ai 40nm... la domanda del salto diretto a 40 interessa anche a me. Qualcuno sa niente?
passare dai 65 ai 40 mi pare un salto non dico nel buio ma...è chiaro che TSMC non avrebbe problemi. cmq mi pare che i 40nm siano previsti per la prossima primavera ed escludo che nvidia possa aspettare fino alla prossima primavera per l'introduzione di nuove schede. tutt'altro ben prima e credo proprio a 55nm.
;)
Mister Tarpone
27-08-2008, 14:58
passare dai 65 ai 40 mi pare un salto non dico nel buio ma...è chiaro che TSMC non avrebbe problemi. cmq mi pare che i 40nm siano previsti per la prossima primavera ed escludo che nvidia possa aspettare fino alla prossima primavera per l'introduzione di nuove schede. tutt'altro ben prima e credo proprio a 55nm.
;)
infatti...è quello che penso pure io... anche perchè sarebbe da dementi non sfruttare i 55nm per ridurre i costi delle attuali GT200.
Scrambler77
27-08-2008, 15:10
E' anche possibile che a 40nm GT200 non venga prodotto proprio...
Probabilmente sarà una nuova generazione di gpu....
Mister Tarpone
27-08-2008, 15:13
infatti.. probabile..
salve ragazzi visto che mi è arrivata la gtx280 stavo pensando di accoppiarlo ad un issipatore piu efficiente, conoscete qualche marca in particolare che produce dissipatori compatibili con la gtx280? ad esempio il vf1000 può essere istallato?
mi quoto! scusate l'insistenza:D
Raumizio
27-08-2008, 15:27
mi quoto! scusate l'insistenza:D
Mi pare proprio di no.
E' in uscita un nuovo modello della Thermal Right, l'HR03 GTX, che dovrebbe essere compatibile sia con le GTX280 che le 260. :)
halduemilauno
27-08-2008, 15:39
E' anche possibile che a 40nm GT200 non venga prodotto proprio...
Probabilmente sarà una nuova generazione di gpu....
certo se i 40nm verranno adottati la prossima primavera la cosa riguarderà il chip successivo.
;)
Mister Tarpone
27-08-2008, 15:44
certo se i 40nm verranno adottati la prossima primavera la cosa riguarderà il chip successivo.
;)
e quando escono ste 55nm?
no perchè secondo te a Nvision nvidia avrebbe dovuto parlare di qualche nuova gpu... e invece non ha annunciato proprio un bel niente: http://www.fudzilla.com/index.php?option=com_content&task=view&id=9097&Itemid=1
;)
illidan2000
27-08-2008, 15:50
e quando escono ste 55nm?
no perchè secondo te a Nvision nvidia avrebbe dovuto parlare di qualche nuova gpu... e invece non ha annunciato proprio un bel niente: http://www.fudzilla.com/index.php?option=com_content&task=view&id=9097&Itemid=1
;)
un paio di mesi ed escono, trq
Mister Tarpone
27-08-2008, 15:51
un paio di mesi ed escono, trq
:confused:
illidan2000
27-08-2008, 15:52
:confused:
trq = tranquillo
Mister Tarpone
27-08-2008, 15:57
trq = tranquillo
ah ecco.. :D
halduemilauno
27-08-2008, 16:07
e quando escono ste 55nm?
no perchè secondo te a Nvision nvidia avrebbe dovuto parlare di qualche nuova gpu... e invece non ha annunciato proprio un bel niente: http://www.fudzilla.com/index.php?option=com_content&task=view&id=9097&Itemid=1
;)
potuto non dovuto. se si vuole parlare di date personalmente ho detto 16 settembre perchè questo sapevo e infatti pare che il 16 esca la gtx260+. ma è chiaro ci si riferiva alle nuove gtx.
;)
Mister Tarpone
27-08-2008, 16:13
potuto non dovuto. se si vuole parlare di date personalmente ho detto 16 settembre perchè questo sapevo e infatti pare che il 16 esca la gtx260+. ma è chiaro ci si riferiva alle nuove gtx.
;)
si buona la gtx260+... ;)
ma vorrei capire se ste 55nani ce la fanno a saltare fuori entro questo anno o no.
cmq finalmente hai risposto ad un mio post :asd: :asd: :asd:
halduemilauno
27-08-2008, 16:20
si buona la gtx+ è a 65nani... ;)
ma vorrei capire se ste 55nani ce la fanno a saltare fuori entro questo anno o no.
cmq finalmente hai risposto ad un mio post :asd: :asd: :asd:
cmq mi pare buona la strada dell'aumentare il numero degli shader fa boost anche quello. come finalmente? cerco di rispondere sempre a tutti. tranne ai soliti noti ovviamente.
;)
ps si certo entro quest'anno.
Mister Tarpone
27-08-2008, 16:24
cmq mi pare buona la strada dell'aumentare il numero degli shader fa boost anche quello. come finalmente? cerco di rispondere sempre a tutti. tranne ai soliti noti ovviamente.
;)
infatti non è male assolutamente. però speriamo che non la mettano ad un prezzo + alto della attuale 260.
ps si certo entro quest'anno.
:sperem: :sborone:
halduemilauno
27-08-2008, 16:31
infatti non è male assolutamente. però speriamo che non la mettano ad un prezzo + alto della attuale 260.
:sperem: :sborone:
è fisiologico che il boost lo si paghi di +. cmq ora tocca solo aspettare per tutti i riscontri del caso.
;)
mi quoto! scusate l'insistenza:D
piuttosto che spendere i soldi in dissipatori più potenti ad aria, fatti un bel kit ybris e mettila a liquido!!
appleroof
27-08-2008, 16:46
avete letto l'ottimo articolo di hwupgrade sull'Nvision? Secondo me tante conferme su argomenti trattati ance in questo tread, e tutte molto interessanti, almeno dal mio punto di vista....
Scrambler77
27-08-2008, 16:50
avete letto l'ottimo articolo di hwupgrade sull'Nvision? Secondo me tante conferme su argomenti trattati ance in questo tread, e tutte molto interessanti, almeno dal mio punto di vista....
Sinceramente non ancora... Ma a breve gli dedico un po' di tempo.
appleroof
27-08-2008, 16:51
Sinceramente non ancora... Ma a breve gli dedico un po' di tempo.
edit
Scrambler77
27-08-2008, 17:30
avete letto l'ottimo articolo di hwupgrade sull'Nvision? Secondo me tante conferme su argomenti trattati ance in questo tread, e tutte molto interessanti, almeno dal mio punto di vista....
Beh... articolo molto interessante... anche se le previsioni a lungo termine in ambito informatico sono un po' un gioco d'azzardo.
E' chiaro che sembrano avere le idee chiare, ma ripeto: tra qualche mese ci sarà un terzo polo in ambito gpu di cui sappiamo davvero molto poco. Con 3 giocatori, il gioco si farà ancora più complesso...
In ogni caso... sono certo che ne vedremo delle belle, e per noi appassionati, saranno mesi molto coinvolgenti! ;)
St. Jimmy
27-08-2008, 17:32
ragazzi, ho bisogno del vostro aiuto...ho lasciato aperto RivaTuner mentre giocavo a Call of Duty 4 ed ho notato una cosa strana (almeno per me)..potete vederlo nell'immagine:
http://img411.imageshack.us/img411/4912/immagineno9.th.jpg (http://img411.imageshack.us/my.php?image=immagineno9.jpg)
sono normali quei cali di frequenza su Core, Shader e memorie? :confused: sono un pò preoccupato, spero possiate rassicurarmi :)
nessuno sa aiutarmi? :(
l'immagine è questa: http://img187.imageshack.us/img187/8967/immaginesf5.th.jpg (http://img187.imageshack.us/my.php?image=immaginesf5.jpg)
non capisco perchè sia sparita dall'altro post
piuttosto che spendere i soldi in dissipatori più potenti ad aria, fatti un bel kit ybris e mettila a liquido!!
Hai ragione...ma pur avendo grandi doti da smanettone , non ho proprio idea da dove cominciare e forse, piu che altro, non ho tempo.
Scrambler77
27-08-2008, 17:39
nessuno sa aiutarmi? :(
l'immagine è questa: http://img187.imageshack.us/img187/8967/immaginesf5.th.jpg (http://img187.imageshack.us/my.php?image=immaginesf5.jpg)
non capisco perchè sia sparita dall'altro post
A giudicare dalla temperatura della tua gpu, direi che (stranamente) è molto poco stressata, pertanto, evidentemente, per brevi frazioni di tempo, il driver non ritiene necessario mantenere la scheda a frequenze "3D"...
In ogni caso, non penso sia un comportamento normale, ma non posso confermare (non ho gtx280).
Provato a sostituire i drivers con gli ultimi beta?
appleroof
27-08-2008, 17:40
Beh... articolo molto interessante... anche se le previsioni a lungo termine in ambito informatico sono un po' un gioco d'azzardo.
E' chiaro che sembrano avere le idee chiare, ma ripeto: tra qualche mese ci sarà un terzo polo in ambito gpu di cui sappiamo davvero molto poco. Con 3 giocatori, il gioco si farà ancora più complesso...
In ogni caso... sono certo che ne vedremo delle belle, e per noi appassionati, saranno mesi molto coinvolgenti! ;)
completamente d'accordo :)
per il resto, nelle pagine precedenti di questo tread si parlava di 55nm/40nm: intanto si confermano indirettamente i 55nm entro fine anno (dove si parla di gx2 basata su g200 a 55nm, appunto)
Scrambler77
27-08-2008, 17:44
completamente d'accordo :)
per il resto, nelle pagine precedenti di questo tread si parlava di 55nm/40nm: intanto si confermano indirettamente i 55nm entro fine anno (dove si parla di gx2 basata su g200 a 55nm, appunto)
Certo... se una gx2 dovessero proporla allo stesso prezzo di una gtx280 di oggi (circa 460 iva inclusa), anche se sono molto scettico a riguardo soprattutto se dovesse andare un 20-30% + veloce di una 4870x2, un pensierino ce lo si potrebbe fare, nonostante non gradisca le schede multi-gpu...
Una cosa è certa: secondo me ad oggi l'ultima cosa da fare è comprare una scheda video high-end, sia nVidia che ATi... Troppa carne al fuoco per decidere.
appleroof
27-08-2008, 17:48
Certo... se una gx2 dovessero proporla allo stesso prezzo di una gtx280 di oggi (circa 460 iva inclusa), anche se sono molto scettico a riguardo soprattutto se dovesse andare un 20-30% + veloce di una 4870x2, un pensierino ce lo si potrebbe fare, nonostante non gradisca le schede multi-gpu...
Una cosa è certa: secondo me ad oggi l'ultima cosa da fare è comprare una scheda video high-end, sia nVidia che ATi... Troppa carne al fuoco per decidere.
quoto: io oggi come oggi non spenderei più di 250 max 300 euro in una qualsiasi vga (colpi di testa a parte :D ) sopratutto per l'arrivo imminente (imho entro la fine dell'anno prossimo senz'altro, nell'articolo sull'Nvision si parla del primo sdk dx11 già a novembre prossimo :eek: ) delle nuove vga dx11
quindi o mi prendo una "vga ponte" (e la gtx260 la vedo perfetta, magari quella con 200sp) oppure addirittura mi tengo la 88gtx fino alle nuove dx11, esigenze di gioco permettendo...
Scrambler77
27-08-2008, 17:51
quindi o mi prendo una "vga ponte" (e la gtx260 la vedo perfetta, magari quella con 200sp) oppure addirittura mi tengo la 88gtx fino alle nuove dx11, esigenze di gioco permettendo...
Esatto. Tra l'altro non vedo giochi così esigenti all'orizzonte. Secondo me una 8800gtx di "ieri" può lavorare egregiamente per lo meno fino all'anno prossimo...
appleroof
27-08-2008, 17:55
Esatto. Tra l'altro non vedo giochi così esigenti all'orizzonte. Secondo me una 8800gtx di "ieri" può lavorare egregiamente per lo meno fino all'anno prossimo...
già...finchè ci sono consolle e porting c'è speranza :D (tra l'altro tranne per crysis non ho mai avuto necessità di oc la vga finora...)
cmq personalmente sicuro (quasi, diciamo al 90% :D ) fino a natale sto alla finestra...
Scrambler77
27-08-2008, 17:59
già...finchè ci sono consolle e porting c'è speranza :D (tra l'altro tranne per crysis non ho mai avuto necessità di oc la vga finora...)
cmq personalmente sicuro (quasi, diciamo al 90% :D ) fino a natale sto alla finestra...
Io arrivo pure alla befana! :asd:
appleroof
27-08-2008, 18:01
Io arrivo pure alla befana! :asd:
:D :D
Scrambler77
27-08-2008, 18:06
:D :D
Cmq è impressionante notare come si sia nuovamente ridotta la longevità delle schede video: la ns 8800gtx è l'acquisto più longevo che abbia mai fatto. Oggi invece (in regime di concorrenza spietata), spendere 450 euro per una gtx280 (200 in meno rispetto quelli spesi allora) diventa un investimento a perdere nel breve periodo... Quasi buttare i soldi.
Lo stesso vale per le schede ATi... Incredibile...
La dimostrazione che la concorrenza così serrata aiuta il progresso tecnologico, è vero, ma di certo non fa bene al consumatore, come in tanti sostengono...
appleroof
27-08-2008, 18:12
Cmq è impressionante notare come si sia nuovamente ridotta la longevità delle schede video: la ns 8800gtx è l'acquisto più longevo che abbia mai fatto. Oggi invece (in regime di concorrenza spietata), spendere 450 euro per una gtx280 (200 in meno rispetto quelli spesi allora) diventa un investimento a perdere nel breve periodo... Quasi buttare i soldi.
Lo stesso vale per le schede ATi... Incredibile...
La dimostrazione che la concorrenza così serrata aiuta il progresso tecnologico, è vero, ma di certo non fa bene al consumatore, come in tanti sostengono...
bè non sono d'accordo...l'acquisto della 8800gtx è stato fatto da noi in un periodo di "congiunzione astrale" :D più unico che raro :D :D
se ricordi prima della 8800gtx era com'è oggi (ricordi la x1800/x1900, per fare un esempio lampante e non lontanissimo? o 7800/7900) dove massimo sei mesi e avevi la nuova top
io stesso, pur contando su una longevità ottima vista la potenza della scheda, non avrei mai creduto di arrivare a tanto con la 8800gtx, che si è rivelata l'acquisto migliore che abbia mai fatto, ma appunto non solo per meriti suoi ma anche per fattori "esterni" (debacle Ati, esplosione di porting da consolle)
adesso siamo tornati all'epoca pre-8800gtx dove cmq una gtx 280 dopo pochissime settimane dal lancio la prendevi a 350 euro perchè c'era una 4870 venduta a 250 e subito dopo a 200 (quindi credo invece che la concorrenza sia utile eccome)
tutto imho :D
Evangelion01
27-08-2008, 18:18
Cmq è impressionante notare come si sia nuovamente ridotta la longevità delle schede video: la ns 8800gtx è l'acquisto più longevo che abbia mai fatto. Oggi invece (in regime di concorrenza spietata), spendere 450 euro per una gtx280 (200 in meno rispetto quelli spesi allora) diventa un investimento a perdere nel breve periodo... Quasi buttare i soldi.
Lo stesso vale per le schede ATi... Incredibile...
La dimostrazione che la concorrenza così serrata aiuta il progresso tecnologico, è vero, ma di certo non fa bene al consumatore, come in tanti sostengono...
Quoto la prima parte, però son convinto che invece sia un bene... sta poi al consumatore acquistare in maniera oculata. La 8800gtx (di cui son stato felicisimo posessore.. ;) ) è stato un caso più unico che raro, ma è risaputo che le vga di fascia alta sono tutto fuorchè un investimento .. anzi, direi che nel mondo informatico è una parola senza senso.
Intanto però senza concorrenza ci scorderemmo di poter giocare bene a tutto con una 8800gt o una 4850 spendendo relativamente poco, cosa che oggi è possiblie. Senza concorrenza la 8800gtx costerebbe ancora 400€ e sinceramente non mi sembra un bene. :)
Evangelion01
27-08-2008, 18:20
Ma è il thread della 280 o della 8800gtx? :asd:
appleroof
27-08-2008, 18:21
Ma è il thread della 280 o della 8800gtx? :asd:
hai ragione :p
St. Jimmy
27-08-2008, 18:21
A giudicare dalla temperatura della tua gpu, direi che (stranamente) è molto poco stressata, pertanto, evidentemente, per brevi frazioni di tempo, il driver non ritiene necessario mantenere la scheda a frequenze "3D"...
In ogni caso, non penso sia un comportamento normale, ma non posso confermare (non ho gtx280).
Provato a sostituire i drivers con gli ultimi beta?
la temperatura credo sia normale dato che tengo la ventola al 100% :D visto che quando gioco non la sento nemmeno...però mi sembra stana una cosa del genere...mah...potrebbe forse essere che ci sono momenti in cui CoD4 non richiede chissà quale sforzo e lei per quel poco tempo si downclocka? supposizione mia eh
Scrambler77
27-08-2008, 18:22
bè non sono d'accordo...l'acquisto della 8800gtx è stato fatto da noi in un periodo di "congiunzione astrale" :D più unico che raro :D :D
se ricordi prima della 8800gtx era com'è oggi (ricordi la x1800/x1900, per fare un esempio lampante e non lontanissimo? o 7800/7900) dove massimo sei mesi e avevi la nuova top
io stesso, pur contando su una longevità ottima vista la potenza della scheda, non avrei mai creduto di arrivare a tanto con la 8800gtx, che si è rivelata l'acquisto migliore che abbia mai fatto, ma appunto non solo per meriti suoi ma anche per fattori "esterni" (debacle Ati, esplosione di porting da consolle)
adesso siamo tornati all'epoca pre-8800gtx dove cmq una gtx 280 dopo pochissime settimane dal lancio la prendevi a 350 euro perchè c'era una 4870 venduta a 250 e subito dopo a 200 (quindi credo invece che la concorrenza sia utile eccome)
tutto imho :D
Verissimo, ma le mie considerazioni erano di carattere puramente economico.
E' vero che in concorrenza le schede video (ma non solo quelle) si avvicendano molto rapidamente, costringendo soprattutto ad una compressione delle fasce di prezzo nonostante l'evoluzione tecnologica, ma è anche vero che accelera parecchio anche l'obsolescenza delle schede di scorsa generazione, lasciando il consumatore con una scheda molto svalutata a distanza di pochi mesi dall'acquisto.
Sulla congiuntura astrale, condivido pienamente. Era un periodo di transizione, come... chissà... quello che ci aspetta nel 2009... :)
Scrambler77
27-08-2008, 18:24
Ma è il thread della 280 o della 8800gtx? :asd:
Hai ragione... erano divagazioni su come lo storico successo delle 8800gtx sia destinato a rimanere ineguagliabile per lungo tempo... e tu ne sai qualcosa! :asd:
appleroof
27-08-2008, 18:27
Verissimo, ma le mie considerazioni erano di carattere puramente economico.
E' vero che in concorrenza le schede video (ma non solo quelle) si avvicendano molto rapidamente, costringendo soprattutto ad una compressione delle fasce di prezzo nonostante l'evoluzione tecnologica, ma è anche vero che accelera parecchio anche l'obsolescenza delle schede di scorsa generazione, lasciando il consumatore con una scheda molto svalutata a distanza di pochi mesi dall'acquisto.
Sulla congiuntura astrale, condivido pienamente. Era un periodo di transizione, come... chissà... quello che ci aspetta nel 2009... :)
quoterrimo :sperem:
chiudo Ot, scusate
Mister Tarpone
27-08-2008, 18:44
cmq qndrebbe aperto un 3d per parlare delle novità di nvidia...
non si può usare sempre questo della gtx280.. eh!!
anche adesso.. vorrei postare una notizia e mi tocca farlo qui..
vabbè:
Nvidia to go for 40nm http://www.fudzilla.com/index.php?option=com_content&task=view&id=9130&Itemid=1
Scrambler77
27-08-2008, 18:54
cmq qndrebbe aperto un 3d per parlare delle novità di nvidia...
[/url]
Quoto! ;)
St. Jimmy
27-08-2008, 18:57
ho appena installato i driver 177.92 e la scheda non va mai a "riposo"...le frequenze rimangono sempre alte :mad: succede anche a voi??
Scrambler77
27-08-2008, 19:01
ho appena installato i driver 177.92 e la scheda non va mai a "riposo"...le frequenze rimangono sempre alte :mad: succede anche a voi??
Anche in winzoz?
St. Jimmy
27-08-2008, 19:03
si...la scheda non sta facendo nessunissimo sforzo..ora sono qui con RivaTuner e Firefox aperti..tutto qui!
non vorrei dire cavolate, ma mi pareva di aver letto di un utente che ha avuto lo stesso...ne deduco che sono i driver che fanno pena (da questo lato)
Hai ragione...ma pur avendo grandi doti da smanettone , non ho proprio idea da dove cominciare e forse, piu che altro, non ho tempo.
Prova questo dissi ad aria,senza smanettare tanto col liquido;)
http://forums.vr-zone.com/showthread.php?t=317654
Mister Tarpone
27-08-2008, 19:12
Prova questo dissi ad aria,senza smanettare tanto col liquido;)
http://forums.vr-zone.com/showthread.php?t=317654
mazza come diventa :eek: :eek: :eek: ;)
http://img246.imageshack.us/img246/2818/41ay8.jpg (http://imageshack.us)
ciao... :eek: ;)
Evangelion01
27-08-2008, 19:18
ho appena installato i driver 177.92 e la scheda non va mai a "riposo"...le frequenze rimangono sempre alte :mad: succede anche a voi??
Si. son tornato ai whql dopo che mi ha pure freezzato. Sti beta fan cag@re, meglio aspettare ancora un po'.
Evangelion01
27-08-2008, 19:19
Hai ragione... erano divagazioni su come lo storico successo delle 8800gtx sia destinato a rimanere ineguagliabile per lungo tempo... e tu ne sai qualcosa! :asd:
:mano: :D
Evangelion01
27-08-2008, 19:19
Bellissimo quel thermalright. :eek:
Ma dove lo si può comprare? :sbav:
Bellissimo quel thermalright. :eek:
Ma dove lo si può comprare? :sbav:
Fai una ricerca su trovaprezzi,twenga,ebay,ecc.. :read:
Evangelion01
27-08-2008, 19:26
Fai una ricerca su trovaprezzi,twenga,ebay,ecc.. :read:
modello preciso?
modello preciso?
Dai un'occhiata a questo link (http://forums.vr-zone.com/showthread.php?t=317654)
halduemilauno
27-08-2008, 19:48
per la gtx280 gli shader sono a default 1296 e bloccati in oc a 1512. ora pare che il gt200b avrà i 1512 di default.
http://www.hardware-infos.com/news.php?news=2349
;)
appleroof
27-08-2008, 20:27
per la gtx280 gli shader sono a default 1296 e bloccati in oc a 1512. ora pare che il gt200b avrà i 1512 di default.
http://www.hardware-infos.com/news.php?news=2349
;)
immagino in oc....
Mister Tarpone
27-08-2008, 20:35
immagino in oc....
già... http://img131.imageshack.us/img131/4393/terrorizzatojm3.gif (http://imageshack.us)http://img131.imageshack.us/img131/4393/terrorizzatojm3.gif (http://imageshack.us)http://img131.imageshack.us/img131/4393/terrorizzatojm3.gif (http://imageshack.us)
tigershark
27-08-2008, 20:38
Si. son tornato ai whql dopo che mi ha pure freezzato. Sti beta fan cag@re, meglio aspettare ancora un po'.
tutti i drivers usciti dopo i 177.41 soffrono di questo inconveniente...
pare che sia il trucchetto utilizzato per evitare che a volte durante un gioco le frequenze scendessero, ma i nquesto modo s'è andata a far letteralmente benedire la modalità risparmio energetico.
Spero tanto che risolvano la questione, io intanto ho contattato il customer service nvidia e mi hanno trasferito la chiamata ai tecnici del livello 2...
staremo a vedere che succede.
tigershark
27-08-2008, 20:41
mazza come diventa :eek: :eek: :eek: ;)
http://img246.imageshack.us/img246/2818/41ay8.jpg (http://imageshack.us)
ciao... :eek: ;)
ci si può pure tuffare da la sopra??
Mister Tarpone
27-08-2008, 20:45
ci si può pure tuffare da la sopra??
bohh.. prova :asd:
eccomi ancora....allora oggi mi è arrivata questa benedetta gtx280 ma non vi era traccia dell'adattatore 8-pin, cosi tanto per provare ho collegato solo il molex 6-pin, ma ho notato che il sistema parte tranne il monitor, e sulla sceda video si accende una luce rossa, cosa significa che non gli basta corrente? in teoria non dovrebbe almeno fare il boot iniziale?
eccomi ancora....allora oggi mi è arrivata questa benedetta gtx280 ma non vi era traccia dell'adattatore 8-pin, cosi tanto per provare ho collegato solo il molex 6-pin, ma ho notato che il sistema parte tranne il monitor, e sulla sceda video si accende una luce rossa, cosa significa che non gli basta corrente? in teoria non dovrebbe almeno fare il boot iniziale?
Credo che senza il molex da 8 PIN non partirà mai!Non vedo soluzioni se non quello di mettere quel cavo! ;)
halduemilauno
28-08-2008, 06:46
immagino in oc....
se oggi Delly & company per raggiungere quel valore di shader devono portare il core a 750 e ci riescono in pochi/pochissimi ora tutto ciò lo si raggiungerà a default quindi si a 755 di core si otterrà 1890 di shader il tutto a 65nm quindi pensa a 55nm gli 810/2025 sono/saranno alla portata della massa e a quei valori a mio modesto avviso gia a 755/1890 non c'è 4870x2 che tenga.
si rimane in attesa di riscontri.
;)
tigershark
28-08-2008, 07:17
ho appena installato i driver 177.92 e la scheda non va mai a "riposo"...le frequenze rimangono sempre alte :mad: succede anche a voi??
ragazzi giusto per informazione, questa è la risposta che il livello 2 del supporto Nvidia mi ha mandato questa mattina :
"Hello Luigi,
This is due to the Aero 3D User Interface and these applications need higher frequencies in order to provide a good level of responsiveness and performance.
Best Regards,
Troy
NVIDIA Customer Care"
Quindi mi sa tanto che è un qualcosa di voluto e che difficilmente risolveranno, in quanto per loro è normale che questo avvenga...permettetemi ma è una gran presa per il ..lo. Non dovrebbero pubblicizzare tanto i 25 watt di consumo in idle se poi anche in 2d la scheda usa le massime frequenze.:muro:
quindi le 280gtx che sono in commercio ad oggi sono tutte a 65nm? C'è un software da cui si può evincere?
PS: 280 GTX montata ieri presa per 300€ spedita sul mercatino ;)
Andrea deluxe
28-08-2008, 07:36
quindi le 280gtx che sono in commercio ad oggi sono tutte a 65nm? C'è un software da cui si può evincere?
PS: 280 GTX montata ieri presa per 300€ spedita ;)
gpu-z
ok... verifico stasera quando rientro a casa... ma comunque dovrebbe essere certamente a 65nm, giusto?
halduemilauno
28-08-2008, 08:01
ok... verifico stasera quando rientro a casa... ma comunque dovrebbe essere certamente a 65nm, giusto?
certo tutte le attuali gtx sono a 65nm.
;)
quindi le 280gtx che sono in commercio ad oggi sono tutte a 65nm? C'è un software da cui si può evincere?
PS: 280 GTX montata ieri presa per 300€ spedita ;)
ciao puoi mandarmi pm con lo shop? io non riesco a trovarla sotto i 370...
grazie infinite :)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.